ServerAdmin.ru
28.4K subscribers
264 photos
33 videos
12 files
2.59K links
Авторская информация о системном администрировании.

Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed

Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Download Telegram
​​Недавно сделал заметку про выделение памяти для VM, кратной 512Мб, а так же чётное количество процессоров. Оказывается этому есть вполне осмысленное обоснование и отражено оно в блоге vmware - https://blogs.vmware.com/performance/2017/03/virtual-machine-vcpu-and-vnuma-rightsizing-rules-of-thumb.html

Материал большой и насыщенный. Приведу только конечные выводы по оптимальному распределению RAM и CPU между виртуалками. Там есть нюансы, о которых лично я не знал. Рассматривается в том числе вопрос с сокетами. Части вижу вопросы на тему того, как распределить процессоры и сокеты в VM.

На основе статьи рекомендации будут следующие. Для примера взят хост:
2 сокета
10 ядер на сокет
40 логических процессоров
256 GB памяти, по 128 GB на сокет

Разбираем сначала виртуалки с количеством памяти меньше 128 GB. В
этом случае мы добавляем 1 сокет и максимум 10 vCPU. Как только процессоров нужно больше, чем есть на одном сокете, дальше мы добавляем только по чётным числам и делим на 2 сокета поровну. То есть должно быть 2 сокета, 6 vCPU на сокет, в сумме 12. Это будет оптимальная конфигурация для 12 vCPU. И так дальше до 20 ядер добавляем, деля их поровну между сокетами. Напоминаю, что это для виртуалок с памятью меньше чем 128 GB.

Если в виртуальную машину надо выделить более 128 GB памяти, арифметика будет другая. Нечётное количество ядер не используем вообще. Сокетов всегда добавляем два. То есть надо виртуалке 2 vCPU и 192 GB памяти. Делаем два сокета, в каждом по ядру и сколько надо памяти, кратно числу ядер.

Я не знаю, актуально ли это для всех систем виртуализации или только для vmware. Специально не узнавал, но подозреваю, что актуально везде, так как исходит из архитектуры самой платформы хоста.

Краткий вывод такой. Если на одну виртуальную машину условно приходится ресурсов не более, чем в рамках одного сокета (vNUMA, cpu + ram), то процессоров ставим любое число, сокет всегда один. Если на vm уходит больше ресурсов одного сокета, то надо делить процессоры равномерно по сокетам. Причем даже если процессоров всего 2, а памяти больше, чем достанется сокету, все равно vCPU разделяем на сокеты.

Такая вот арифметика. Спасибо читателю за ссылку. Сам я не знал таких подробностей и неизвестно когда узнал бы. А тут реклама заказывается, деньги платятся, посты пишутся. Никуда не деться 😁 Приходится учиться.

Заметку имеет смысл сохранить, чтобы потом не вспоминать, как оптимально выделять ресурсы большой vm.

#виртуализация
Заметка про блокировку хостерами некоторых tcp/udp портов вызвала некоторую дискуссию. На мое удивление, что в TG, что в VK нашлись люди, которые одобряют такой подход. В частности, блок на отправку почты по 25 порту. Переведу его на более простой язык.

Вы регистрируетесь и сразу же считаетесь спамером. Вам тут же блокируют отправку сообщений, хотя потребность в этом есть достаточно большая. Например, я иногда настраиваю отправку почты прямо с сервера на свои ящики, не используя внешние smtp сервера. Не вижу в этом ничего криминального. Никакие ptr и dns записи мне не нужны. Это моя личная почта, адресованная тоже мне. Это может быть локальное дублирование каких-то критичных событий мониторинга. Не суть важно, зачем мне может быть нужно. Отправка почты актуальный в наше время функционал.

Так вот, нормальная блокировка должна выглядеть следующим образом. Вы начали рассылать спам и это заметили по активности вашего публичного трафика на выходе из инфраструктуры провайдера. Например, количество smtp пакетов, потоков превышено. Если вы выходите за рамки каких-то разумных лимитов, вам блокируют 25-й порт и просят пояснить, что вы там рассылаете.

Это клиентоориентированный подход, который экономит время и силы клиента, но тратит больше ресурсов провайдера. Поэтому некоторые провайдеры в целях экономии, просто блокируют 25-й порт всем, а открывают только тем, кто потратит свое время и докажет, что он не спамер, различными способами. Это выгодно провайдеру. Он за ваш счет решает свои проблемы.

Налицо явная презумпция виновности. Показываю пример этой логики, доведенной до абсурда. Всех мужчин можно сразу сажать в тюрьму и выпускать только тогда, когда они докажут, что не насильники. Ведь они с рождения обладают инструментом насилия. Думаю, мало кому понравится такой подход. Так вот, здесь то же самое. Я лично не одобряю это и не вижу оправданий, а вижу попытку сэкономить.

А вам какой подход больше нравится? Наказание сразу всем, а потом доказательство невиновности, или наказание только тех, кто реально виновен?
В пятницу был юмор на тему bash_history. А вот уже не такая смешная история, как бывает на практике. Я не знал пароль root от mysql, но очень быстро его выяснил.

Так что следите за своей history в терминале. Не надо там светить пароли. По аналогии иногда можно пароль root посмотреть в логе авторизаций ssh. Если открыт доступ по паролю, то не редко бывает так, что вместо имени пользователя туда копируют пароль и он оседает в логе.

#безопасность
​​У меня было несколько заметок на канале про различные mysql клиенты. Я не знаю, с чем это связано, но их очень активно обсуждали, сохраняли в закладки, vk активно показывал эти посты, так что они набирали до 10к. просмотров. Походу все любят юзать mysql клиенты 😃

Держите еще один, которым я сам иногда пользовался. Речь пойдет про Adminer - https://www.adminer.org Это небольшой php файл (~500к, где треть объема переводы), который можно положить на любой php хостинг, чтобы использовать его как панель управления mysql сервером. Очень удобно для различных php хостингов, где по какой-то причине нет хостеровской панели управления базами, либо она неудобная.

Рассказывать про эту утилитку особо нечего. Она просто работает. Можете демку глянуть - https://demo.adminer.org/adminer.php. Пользователя и пароль указывать не обязательно. Для типовых операций у неё примерно тот же функционал, что и у phpmyadmin, но последний просто монстр, а тут только один файл.

#mysql
​​Информационный пост на тему ssh и его возможностей по туннелированию трафика. С помощью ssh подключения можно совершать очень много простых, полезных и неочевидных вещей. Иногда это очень удобно. Я рассмотрю два примера, которые сам регулярно использую. Для их реализации вам необходим обычный ssh доступ к какому-то серверу в интернете.

SOCKS-прокси через ssh. Вы можете без проблем поднять у себя на компьютере локальный socks прокси с использованием удаленного сервера. Для этого локально подключитесь к серверу по ssh примерно таким образом:

ssh -D 3128 root@95.145.142.226

Дальше идёте в любой браузер в настройки прокси и указываете там в параметрах для socks 5 свой локальный socks сервер: localhost, порт 3128. Дальше можете сразу же проверить, какой внешний ip адрес будет показывать ваш браузер. В общем случае это должен быть ip адрес сервера, к которому вы подключились по ssh.

Для подобного подключения подойдет современный windows terminal, который уже имеет встроенный ssh клиент. То есть подключиться проще простого и ничего особо настраивать не надо. На самом сервере, к примеру, можно быстро поднять adguard и использовать его как собственный блокировщик рекламы. При этом не придется замусоривать локальную машину для установки блокировщиков, которые точно не известно, что делают на вашем компе.

Можно завести отдельный браузер и использовать его только с прокси для фильтра рекламы или обхода блокировок. Тогда не придется постоянно менять настройки на основном. Применения для подобного прокси может быть много.

Переадресация портов через ssh. Это тоже очень простая и полезная история. С помощью ssh можно удаленный порт переадресовать себе локально.

ssh  -L 8181:127.0.0.1:8080 root@95.145.142.226

В данном случай я удаленный порт 8080, который слушает только localhost (127.0.0.1) переадресовал себе локально на порт 8181. Тут важно не перепутать удаленную и локальную машины. 127.0.0.1:8080 - это удалённый сервер, к которому мы подключились по ssh, а 8181 локальный порт на машине, с которой происходит подключение к серверу.

С помощью этой переадресации можно локально получить доступ к порту, который закрыт для удаленных подключений. Обычно локальные mysql клиенты используют такие подключения. Но не обязательно. Можно банально какой-то веб сервер запустить на сервере, закрыв к нему доступ из интернета, а подключаться к нему со своего компа через ssh. Так можно закрывать какие-то панели управления от посторонних глаз.

#ssh #полезности
​​Прошлая заметка с командами bash собрала большое количество пересылок, так что я сделал вывод, что материал был интересен и полезен. Имеет смысл развить тему.

В прошлой подборке был акцент на работу со строками и текстом, а сейчас сделаю его на анализ сети сервера.

Подсчет подключений с каждого IP. Если сервер публичный и вы видите, что он тормозит, первое, что стоит проверить, это количество подключений к нему.

netstat -ntu | awk '{print $5}' | grep -vE "(Address|servers|127.0.0.1)" | cut -d: -f1 | sort | uniq -c | sort -n| sed 's/^[ \t]*//'

Чаще всего имеет смысл сразу же исключить из списка адреса с малым количеством подключений. Например, можно вывести только те ip, с которых более 10-ти подключений. Для этого к предыдущей команде надо добавить небольшое дополнение

| awk '{if ($1 > 10 ) print$2}';

Подсчет запросов к веб серверу с разных IP. Если вас какой-то бот спамит запросами к веб серверу, то похожим образом можно быстро вычислить его по записям в логе.

tail -1000 /var/log/nginx/access.log | awk '{print $1}' | sort -n | uniq -c | sort -n | tail -n100 | awk '{if ($1 > 10 ) print $2}'

Рекомендую обрабатывать только часть лога, так как если он очень большой, можете подвешивать сервер своими запросами. Здесь взяты последние 1000 строк. Если надо весь файл проанализировать, используйте вместо tail команду cat.

cat /var/log/nginx/access.log | awk '{print $1}' | sort -n | uniq -c | sort -n | tail -n100 | awk '{if ($1 > 10 ) print $2}'

Список установленных соединений с сервером. Бывает нужно, когда есть подозрения на взлом и какую-то паразитную активность. В этом примере не вычисляется количество соединений, а просто приводится список уникальных ip адресов, с которыми установлено соединение.

netstat -lantp | grep ESTABLISHED | awk '{print $5}' | awk -F: '{print $1}' | sort -u

При необходимости можно сделать подсчет соединений из примеров прошлых команд.

Список tcp соединений. Это то же самое, что было в прошлой команде, но мне вывод больше нравится. Более наглядный, если смотреть его весь.

lsof -ni

Список всех активных входящих сокетов unix. Этой командой я не видел, чтобы особо пользовались, но по факту бывает быстрее через нее посмотреть открытый сокет, нежели каким-то другим способом. Например, сразу смотрим, запустился ли нужный нам сокет php-fpm.

netstat -lx | grep php-fpm

Кстати, то же самое можно смотреть и через ss, но лично мне вывод netstat просто больше нравится, особенно если смотришь его полностью глазами. Можете сами сравнить. Те же сокеты с помощью ss:

ss -xa

Информации выводится больше, но чаще всего лично мне эта дополнительная информация не нужна.

Напоминаю про то, что заметку имеет смысл сохранить. В следующей подборке будет набор консольных команд для анализа нагрузки на сервер.

#bash
​​Вчера потестировал любопытную утилиту, которая умеет отправлять логи напрямую в Telegram. Называется Logram - https://github.com/mxseev/logram

Ставится и настраивается очень просто. Качаем deb или rpm пакет из репозитория и ставим на машину:

wget https://github.com/mxseev/logram/releases/download/v2.0.0/logram-2.0.0.amd64.deb
dpkg -i logram-2.0.0.amd64.deb

Далее редактируем конфиг /etc/logram.yaml. Я поменял только следующие строки:

telegram:
 token: <bot_token>
 chat_id: <id чата>

 filesystem:
  enabled: true
  entries:
   - /var/log/auth.log

С такой настройкой бот будет отправлять вам в чат все новые строки лога /var/log/auth.log

Остается только запустить его:

systemctl start logram

Быстро узнать id чата можно с помощью бота и logram. Добавьте вашего бота в чат и запустите в консоли:

logram echo_id -t <bot_token>
The chat ID of group "srvadmin_zabbix_group": -1001998787756

На Centos 7 у меня эта штука не завелась, ругнулась на неподходящую версию glibc:

/usr/bin/logram: /lib64/libc.so.6: version `GLIBC_2.32' not found (required by /usr/bin/logram)

А вот на ubuntu 20 сразу заработала.

#утилита
​​Бесплатный курс по основам git от Слёрм - https://slurm.io/git

Это не заказная реклама данной площадки, а просто моя рекомендация. Ранее у меня уже были заметки по этому учебному центру, так как я там проходил несколько платных курсов. Лично мне нравится качество курсов и то, как там организован учебный процесс.

Спикеры обычно известные специалисты с бэкаграундом публичных выступлений. Так что можно даже чисто по ведущим сделать некоторый анализ материала. Ну и плюс есть несколько бесплатных курсов, по которым можно получить представление о том, как там все организовано.

Когда зарегистрируетесь, в списке всех курсов будет несколько бесплатных, так что можете их к себе добавить и начать проходить.

#обучение
💡Делюсь небольшим советом, основанным на своем опыте работы в профессии. Старайтесь всегда и везде по максимуму вести свои дела в каком-то менеджере задач (таск трекере). Да, это лениво делать, так как не всегда очевиден смысл, плюс занимает время. А некоторые задачи дольше описывать, чем делать.

Смысл тут вот в чём. Первое и самое очевидное - он может вам помогать вести дела и что-то запоминать. Но это не обязательно. Зависит от конкретного человека. Кто-то и без трекеров нормально всё успевает. Хотя лично мне они помогают, когда идёт интенсивный поток задач. Последнее время сам не веду таких трекеров и дальше поясню почему.

Список своих задач супер актуален, когда вам нужно предметно побеседовать с руководством. Без него для руководителя, не сильно вникающего в IT, будет не понятно, чем конкретно ты занимаешься. Что значит, ты в прошлом месяце настраивал бэкапы, неделю назад и вчера снова ими занимался. Он не понимает, что бэкапы, или, к примеру, мониторинг, это непрерывные процессы. В задачах можно отразить эти нюансы, чуть конкретизировав каждую задачу.

Подробный список задач поможет убедить нанять помощника, если у вас действительно не хватает времени на все свои задачи. Так же на основе своих задач вы сможете объяснить, почему новая задача откладывается на какой-то срок, так как сейчас вы занимаетесь другой. Со списком задач вы можете более предметно обсуждать повышение зарплаты.

❗️Таким образом, записанный реальный список задач это ваш надежный помощник, а не просто какая-то формальность, которая отнимает время.

От списка задач сплошные плюсы. Когда я начинал работать как самозанятый, со всеми заказчиками в обязательном порядке вел список дел, даже если меня об этом не просили. Я все записывал и периодически отправлял отчеты вместе с паролями, схемами, документацией и т.д.

Сейчас я этим не занимаюсь, потому что со всеми сотрудничаю по многу лет и есть взаимопонимание без лишних подтверждений. Все свои подтверждения я уже сделал делами и отчетами на начальном этапе знакомства.

Рекомендую подумать над этим и взять на вооружение.

#совет
Товарищи админы, вот у этой группы @interface31 неприлично мало подписчиков. Ведут ее авторы сайта https://interface31.ru

Сайт я знаю очень давно и всегда предпочитаю его любому другому, если вижу в выдаче по нужной теме. Качество статей отличное. Постоянно пользуюсь и возвращаюсь на сайт, если вспоминаю, что статью видел на нём. Авторы активно помогают в комментариях.

Тематика сайта обширная, системы как windows, так и linux. Много материалов по 1С. Если я правильно понял, то ведёт (или ведут) его авторы какой-то аутсорс компании. Темы чисто админские, devops и разработки там нет.

Это не реклама, а просто рекомендация. С авторами я не знаком и не общался никогда.

#рекомендация
​​Очередная тематическая игрушка на выходные для тех, у кого есть возможность поиграть. Точнее целая cерия игр Orwell-Game. Первая часть игры Keeping an Eye On You переведена на русский язык, так что речь пойдет про неё. Купить традиционно можно в стиме за 259 р.

https://store.steampowered.com/app/491950/Orwell_Keeping_an_Eye_On_You/

С такими ценами кто-то вообще сейчас заморачивается с пиратками? Я не играю в игры вообще, тем более в новинки. Даже не знаю, сколько они стоят. Но те игры, на которые я пишу заметки, стоят копейки.

Возвращаемся к игре. В ней вы выступаете в роли сисадмина, который знает всё обо всех и имеет всюду доступ. Ой, извините, ошибся. Там немного о другом. Вы оператор системы, аналог оруэловского Большого брата. У вас есть доступ ко всей информации пользователей - инфа он них в инете, личные сообщения, файлы на компьютере, звонки и т.д.

Какие-то террористы что-то взорвали и вы ведёте расследование. Начиная с выслеживания одного подозреваемого, вам предстоит помочь силам безопасности раскрыть сеть потенциальных преступников, составив их психологические портреты.

Ну и дальше всё закручивается. Игру мне посоветовал один из подписчиков. Я почитал про нее, посмотрел отзывы. Вроде неплохая и необычная игрушка. Может быть и сыгранул бы сам, но вряд ли. Пойду лучше стримчик по Героям 3 перед сном посмотрю.

❗️КОНТЕНТ ДЛЯ ВЗРОСЛЫХ: Обратите внимание, что игра Orwell содержит ненормативную лексику и контент для взрослых и не подходит для несовершеннолетних пользователей.

#игра
На днях вышла подборка новостей от Mikrotik, красиво оформленная в pdf. Нравится, как они это делают. Вот сам документ:

https://mikrotikdownload.s3.eu-west-1.amazonaws.com/news/news_100.pdf

Наиболее любопытное там - анонс MikroTik Home app. Это приложение для смартфона, которое позволяет пользователям самим в несколько шагов настраивать свои домашние роутеры. Неплохой ход, чтобы поувереннее зайти к юзерам.

Все это выглядит так. Вы покупаете Микротик домой. Включаете его, ставите приложение на смартфон и подключаетесь к своему микроту, так как wifi там по дефолту настроен без пароля. И далее уже делаете основные настройки.

Неплохой ход, чтобы не меняя сами устройства, зайти в новую нишу. Могу пожелать микротику только успехов на этом поприще. Сам обычно никому не рекомендую домой брать Mikrortik, если не умеешь его настраивать. Но сейчас можно пересмотреть свое мнение.

Сам еще не пробовал это приложение, так как нет нужды. А вы проверяли его в деле? Тут вот тётя с длинными ногтями (боже, как же неудобно нажимать на сенсорный экран с такими ногтями 😱) его попробовала. Можете тоже ознакомиться: https://www.youtube.com/watch?v=ALo0ISzz4IA

#mikrotik
Небольшая полезная утилита из мира Linux - split. С ее помощью можно любой файл разделить на части. Бывает попадаются больше логи, которые хочется посмотреть в удобном редакторе или быстро грепнуть, но из-за того, что файл большой, работать с ним неудобно. Быстро делим его пополам и смотрим по отдельности каждую часть.
split -n 2 file.txt

Можно на 4 части поделить:
split -n 4 file.txt

Split автоматически укажет случайные имена для новых файлов, но можно их задать по маске, например file- :
split -n 4 file.txt file-

Получим такую картину:
ls | grep file
file-aa file-ab file-ac file-ad

Так же текстовые файлы удобно делить по строкам. Например, разбить на части по 1000 строк:
split -l 1000 /var/log/nginx/access.log

Дополнительно split умеет делить на файлы по размеру, менять длину суффикса на другое количество символов (в дефолте два), а так же менять его с буквенного на числовой. Все это быстро в man глянуть можно.

Так же с помощью split удобно делить больше архивы на части, особенно если не помнишь ключи для разбивки архива самим архиватором. Делим:
split -n 2 archive.tar.gz archive-

Склеиваем обратно:
cat archive-* >> archive.tar.gz

Или сразу же распаковываем:
cat archive-* | tar xzvf -

Особенно актуально разбить файл на части, когда с гипервизора на гипервизор перекидываешь большой архив или диск виртуалки через интернет. Лучше его частями передавать, так как процесс может затянуться на часы. В случае одного большого файла передача может прерваться и придется начинать с начала. А так разделил на части и копируешь с помощью scp, указав файлы по маске.

Split обычно есть во всех системах по умолчанию. Идет в составе базовых системных утилит.

#bash
​​Думаю всем хорошо знакомы объектные хранилища S3. В наше время они активно используются. Изначально подобное хранилище разработал Amazon, но сейчас его api для работы с хранилищем поддерживает огромное количество продуктов и облаков.

Если вам нужен свой сервер хранения S3 рекомендую попробовать MinIO:

https://github.com/minio/minio

Очень простой и бесплатный продукт. На linux запустить его можно вот так:
wget https://dl.min.io/server/minio/release/linux-amd64/minio
chmod +x minio
./minio server /data

То есть это просто один бинарник. Далее идёте в веб интерфейс и тестируете - http://ip-adress:9000
На самом сервере файлы хранятся в сыром виде, как есть. То есть он работает поверх обычной файловой системы.

Точно так же MinIO запускается под Windows. Насколько я знаю, это хранилище используется под капотом многих продуктов, таких как Gitlab, Freenas, TrueNAS. Может кто-то еще. Конечно, у сервиса есть масса настроек, необходимых для промышленной эксплуатации. То, как запустил его я, просто для тестов, чтобы посмотреть, как работает и что это такое в принципе.

Подобное хранилище более удобная замена smb и nfs, но, конечно, не во всех случаях. В S3 обычно заливают статику крупных веб проектов или бэкапы. Я тоже там храню одну из копий бэкапов. Покупаю S3 сразу как сервис, потому что выгодно экономически.

#хранение #backup #S3
Чет у меня тут наболело с этим ямлом. В голове родился мем. Нарисовал, как умею 😎

#юмор
​​Давно хотел обсудить волнующую меня тему, но все откладывал и откладывал, потому что казалась не слишком интересной. Но всё же не выдержал и решил написать. Еще в бытностью мою офисным администратором и сотрудником тех. поддержки, никак не мог понять, почему пользователи так часто обманывают.

Звонит кто-нибудь и жалуется на что-то. Спрашиваешь его, перезапускали программу, перезагружали компьютер? Отвечает, что да, конечно. Подключаешься к нему и видишь, что он этого не делал. Говоришь ему об этом, а он знай своё, перезагружал и всё, ничего не знаю. Детский сад прям. Я обычно с такими не спорил. Не видел смысла.

Такое поведение в быту характерно для женщин, не признают свои косяки до последнего. А вот для офисных сотрудников нет половых различий. Врут на эту тему одинаково мужчины и женщины. Может, конечно, сейчас мужчины стали как женщины, а так как в быту с мужчинами я не живу, не могу оценить их поведение в этих условиях.

Недавно читал очень любопытное и тревожное исследование. Изучали гормональный фон мужчин и женщин, в том числе в подростковом возрасте. Наблюдается чёткая тенденция роста мужских гормонов у женщин и женских гормонов у мужчин. Некоторые подробности. Если в 25 лет женщина еще не рожала, то в среднем уровень мужского гормона у неё в 3 раза выше нормы. Дальнейшее зачатие будет уже проблемным. А у какой-то значительной части мальчиков подростков (точно не запомнил цифру, 60% вроде), гормональный фон по женскому гормону соответствует третьему месяцу беременности женщины. Сильное превышение.

Активно идёт усреднение пола. Может быть в этом дело? Как думаете?

#мысли
​​Есть любопытная программа для управления компьютером удаленно через браузер - DWService.

https://www.dwservice.net

Отличает ее то, что она полностью бесплатна. Работает примерно так же, как и все подобные программы. Ставите на компьютер серверную часть приложения (агент), а в качестве клиента выступает браузер. Поддерживаются все популярные системы - Win / Lin / Mac.

Для того, чтобы подключаться к компьютерам, необходимо зарегистрироваться (нужен только email), чтобы иметь доступ в личный кабинет. А уже оттуда идет подключение к вашим компьютерам.

Я немного потестировал программу. Не скажу, что всё понравилось. Просто пример. Если запускаете агента без установки, то для подключения вам нужно передать код агента и пароль. Так вот, их нельзя скопировать. А код состоит из 11 цифр. Я не понял, в чём тут смысл. Почему нет возможности его скопировать.

Если устанавливаете агента на постоянку, то такой проблемы нет. В личном кабинете добавляете нового агента, получаете код установки. Затем на компьютере ставите агент, указываете код установки, и он привязывается к вашему личному кабинету. После этого вы можете подключаться через браузер, зайдя в ЛК.

Помимо доступа к экрану, есть возможность передавать файлы, посмотреть системные ресурсы, процессы, службы, логи. Можно отдельно запустить удаленную консоль. Программа не умеет подключаться в rdp сессию, как к примеру платный аналог getscreen.me, о котором я упоминал ранее. По крайней мере я не понял, как это сделать. Если я подключен по rdp, то данная программа подключает меня к консоли ПК. Если логинюсь, rdp сессию отключает.

В целом, она работает примерно так же, как и все остальные программы подобного рода, но при этом полностью бесплатна в том числе для коммерческого использования. Исходный код агента есть на github: https://github.com/dwservice/agent

Мне неизвестен полностью бесплатный аналог со схожим функционалом. Так что продукт заслуживает внимания. Не нужно обходить какие-то ограничения и что-то думать с лицензиями. Можно поставить и спокойно использовать на работе.

#remote #программа
​​Меня один человек попросил помочь найти установочный диск Debian старой версии. Конкретно 10.1. Я сначала удивился, что он сам не справился с этой задачей. Куча же зеркал Debian по миру раскиданы.

Сначала пошел на mirror.yandex.ru, так как обычно оттуда всё качаю и использую этот репозиторий в системе. Но там оказывается только последняя актуальная версия системы.

Сходил на официальный сайт Debian, там тоже только последняя актуальная версия доступна для загрузки. Для более старых стоит пометка:

We don't store/serve the full set of ISO images for all architectures, to reduce the amount of space taken up on the mirrors. You can use the jigdo tool to recreate the missing ISO images instead

Честно говоря, вообще не знаю, то такое jigdo tool. Разбираться с ней только ради того, чтобы скачать старый образ не хотелось. В итоге просто загуглил нужное имя файла и нашел зеркало, где лежат все старые образы последних двух версий Debian 9 и 10 - https://ftp.cae.tntech.edu/

Я не знаю, насколько можно доверять этому репозиторию. В связи с этим вопрос. А где вы достаёте старые версии Debian, если они вам нужны? У меня такой задачи никогда не стояло. Обычно беру самую свежую и нет проблем. Тем не менее, понимаю, что есть ситуации, где может понадобиться конкретная версия системы. Не думал, что это такая большая задача, сохранить где-то 10 iso образов хотя бы текущего релиза.

С Centos таких проблем никогда не было. Идешь на https://vault.centos.org/ и там всё есть.

#debian
Рассказываю про очередную утилиту для бэкапов - rsnapshot.

https://github.com/rsnapshot/rsnapshot

Эта штука мне реально понравилась, я ее потестировал и стал внедрять. Буду пользоваться. Ставится из стандартных реп. В Centos из epel поставил, в ubuntu, debian в системных есть.

Под капотом там обычный rsync и обвязка на perl. Если не вдаваться в подробности, то rsnapshot умеет копировать файлы с помощью rsync, то есть обладает полностью всем его функционалом. Дополнительно в нём реализовано хранение инкрементных бэкапов и автоматическое ротирование. То есть всё то, что я обычно колхозил на bash, уже наколхозили за меня на perl.

Инкрементные бэкапы делаются с помощью hard link. Копируются только изменившиеся файлы, а остальные добавляются с помощью ссылок. Таким образом, если вы каждый день будете делать бэкапы, они у вас будут лежать каждый в своей папке как-будто там полная копия файлов, но на деле там только измененные файлы и хард линки на прошлый бэкап, если эти же файлы там уже есть.

Не скажу, что подход с ссылками прям очень удобный, так как занимаемое место и изменения не очень удобно смотреть, но тем не менее, это просто и быстро работает.

Так же rsnapshot умеет автоматически ротировать бэкапы. Можно задать в параметрах хранить 7 дневных бэкапов, 4 недельных и 12 месячных. Ну и запускать бэкап с соответствующими ключами. Rsnapshot будет автоматически удалять дневные бэкапы старше 7-и дней и двигать по цепочке все остальные. 7-й дневной бэкап превращается в недельный, 4-й недельный в месячный и т.д. То есть реализован привычный конвейер. Дневные, недельные и месячные интервалы придумал я. Настроить и обозвать вы их можете сами как угодно, это всё настраивается.

Файлы хранятся в исходном виде, как есть. Можно копировать, смотреть, проверять. В общем, мне понравилось. Думаю, что буду активно пользоваться.

#backup
​​На днях вышел первый релиз форка RHEL - Rocky Linux, который теоретически может заменить Centos. Я лично собираюсь использовать его и дальше поясню почему.

На сегодняшний день мне известны следующие форки RHEL:
🔹 Oracle Linux - https://www.oracle.com/ru/linux/
🔹 Rocky Linux - https://rockylinux.org
🔹 VzLinux - https://vzlinux.org
🔹 AlmaLinux - https://almalinux.org
🔹 Springdale Linux - https://puias.math.ias.edu

Я отдаю предпочтение именно Rocky Linux, потому что организация вокруг него строится только для развития самой системы. Все остальные форки выпущены коммерческими организациями. Как известно, любая коммерческая организация нацелена на максимальное извлечение прибыли.

Сейчас у этих компаний всё хорошо с деньгами. Кто-то пытается увеличить свою известность за счет дистрибутива, так как ниша освободилась после новостей Red Hat. Нет гарантий, что в будущем, после того, как дистр наберет популярность его не начнут как-нибудь монетизировать.

Другой сценарий - коммерческая организация может обанкротиться или быть куплена кем-то другим. В данной истории я больше доверяю организационной структуре, которую строят вокруг Rocky Linux. Хотя понимаю, что у нее тоже есть свои риски. На текущий момент заявлена поддержка этой системы со стороны крупных it вендоров.

Я отдаю себе отчет в том, что не разбираюсь в юридических тонкостях и организационной структуре Rocky Enterprise Software Foundation. Это мое чисто субъективное мнение, основанное только на вере и небольшой интуиции. Какому дистрибутиву отдать предпочтение, решать вам. Думаю, большинство переедет на Oracle Linux.

Если к концу года с Rocky Linux всё будет в порядке, перееду на него всеми своими Centos 8. Утилита для смены системы уже готова, можно тестировать.

#rockylinux
Жара продолжается. Кондер в одной из серверных на производстве не вытягивает нагрузку. Но в целом ничего страшного. Там триггеры на 50 и 55 градусов стоят. И такое каждое лето бывает.

Причём температура дисков сильно зависит от самого сервера и его внутреннего устройства. У каких-то харды греются меньше, у каких-то больше. И всё это в рамках одной стойки. Тут в стойке 7 серверов, но маячат в мониторинге только 2.

По моему опыту, всё, что ниже 60, можно игнорировать, если нет простых решений проблемы. Я раньше суетился по этому поводу, тикеты в ТП писал, если в арендуемых дедиках температура дисков поднималась, но меня всегда футболили, если она не выходила за параметры рабочей температуры, указанной в документации к диску. На hdd там потолок обычно 60 градусов.

А вы какие триггеры по температуре ставите? Для cpu я обычно 90 ставлю, для hdd 55-60. Всё, что ниже, игнорирую. Хотя могу поставить пороги и ниже, чтобы примерно понимать по оповещениям, что там за ситуация на условно проблемных серверах.

#железо