ServerAdmin.ru
32.2K subscribers
1.11K photos
63 videos
29 files
3.14K links
Авторская информация о системном администрировании.

Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed

Второй канал: @srv_admin_live
Сайт: serveradmin.ru

Ресурс включён в перечень Роскомнадзора
Download Telegram
▶️ Очередная подборка авторских IT роликов, которые я лично посмотрел и посчитал интересными/полезными. Это видео из моих подписок за последнее время (обычно беру период в 2 недели), что мне понравились. Эта неделя у нас короткая, поэтому вместо пятницы, делаю подборку в четверг.

🔥Диагностика keepalived + haproxy с применением LLM
Практический пример использования LLM в задачах управления инфраструктурой. ИИ выступает в качестве советчика, используя свои инструменты для сбора информации. Саму проблему решает человек. Автор демонстрирует работу платформы для управлением всем этим хозяйством, которую написал сам.

Работа с картинками в Angie
Подробный разбор с примерами настроек возможностей Angie в обработке изображений с помощью модуля Image Filter. Он позволяет динамически обрабатывать картинки (менять формат, размер, обрезать, переворачивать и т.д.), кэшируя результаты, чтобы не делать это на каждый запрос. Автор навороченные конфигурации разбирает.

Claude Code GUI & Claude Cowork без подписки
В приложении Claude Cowork для работы с ИИ на десктопе в GUI, а не CLI, теперь можно использовать сторонние модели. Нет привязки только к моделям Anthropic. Можно подключать в том числе и локальные через Ollama или LM Studio. Автор показал, как всё это сделать. Там неочевидно.

Полезные советы по Zabbix: скрипты для фронтенда
Небольшое наглядное видео с демонстрацией возможностей скриптов, которые можно запускать прямо через веб интерфейс в меню узла. Я иногда использую эту функциональность, например, для перезапуска какой-то службы, выключения компьютера или ещё каких-либо действий.

Zerobyte лучше чем просто Restic? Полное руководство для твоих бекапов в 2026
Обзор функциональной веб панели Zerobyte для управления бэкапами на базе Restic и Rclone. Неплохой продукт, я делал его обзор. На тот момент он сыроват был, да и сейчас ещё стабильного релиза не было, но в целом он функционален и без критичных багов. Можно пользоваться.

Duplicati — лучший бесплатный backup для Homelab?
Популярная бесплатная веб панель для управления бэкапами Duplicati. Ориентирована на бэкап одиночной машины, то есть это не централизованное решение. Программа дружественна для новичков, бесплатна, кроссплатформенна, имеет много бэкендов в поддержке для хранения бэкапов, в том числе облачные сервисы.

GEMMA 4: полный разбор и тест
Тестирование всей линейки бесплатных моделей gemma4 с разными параметрами. Всё это запущено локально. Видео длинное, всё смотреть не обязательно, я перематывал. Больше всего было интересно посмотреть на окружение автора, его подходы во взаимодействии с ИИ, что и как он с ним делает. Там связка openclaw на VPS + llama.cpp на Windows и ещё одна внешняя VPS для самостоятельной работы на ней агента.

Caddy: Everyone Says It’s the EASIEST… I Tested It
Обзор веб сервера Caddy с максимальной простой и быстрой в настройке конфигурацией. За это он пользуется определённой популярностью.

❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.

———
ServerAdmin: 📱 Telegram | 🌐 Сайт | 📲 MAX 😩

#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63👎2
Я уже рассказывал ранее, что у меня на дублирующем сервере с мониторингом Gatus перестали работать уведомления на Telegram, потому что заблокировали доступ к api.telegram.com. Я всё думал, как лучше решить эту проблему. Изначально планировал перейти на что-то вроде ntfy.sh или gotify В итоге не захотелось поддерживать ещё один сервис. Пошёл по самому простому пути.

У меня все служебные виртуалки объединены в единую сеть с помощью, как это ни странно, openvpn (управляющий сервер располагается в Москве). Я не буду ничего пояснять, скажу только, что у меня она везде, где мне надо, работает. Технические моменты, к сожалению, описывать нельзя, это в наше время незаконно. Так что заметка будет по сути про маршрутизацию в openvpn.

В этой сети обычно есть 1-2 машины с полным доступом к Telegram. В openvpn удобно устроена маршрутизация. Там по сути есть собственная реализация динамической маршрутизации. На сервере с мониторингом я настроил маршруты к api.telegram.com через виртуалку, где этот доступ есть.

Покажу, как это реализовано на практике. Как по мне, так это очень удобно. Те, кто плотно не работает с openvpn, может просто не знать, как это может быть реализовано для совершенно разных задач, не только для описываемой.

В виртуалке с мониторингом я добавил маршруты к api телеги через tun интерфейс, а в качестве шлюза указал IP адрес openvpn сервера:

91.108.4.0/22 via 10.8.0.1 dev tun1
91.108.8.0/22 via 10.8.0.1 dev tun1
91.108.12.0/22 via 10.8.0.1 dev tun1
91.108.16.0/22 via 10.8.0.1 dev tun1
91.108.20.0/22 via 10.8.0.1 dev tun1
91.108.56.0/22 via 10.8.0.1 dev tun1
149.154.160.0/22 via 10.8.0.1 dev tun1
205.172.60.0/22 via 10.8.0.1 dev tun1

Все свои IP адреса Telegram публикует у себя на сайте. Больше мы сервер мониторинга трогать не будет. На нём маршруты остаются неизменны. Он просто будет отправлять все запросы в приватную сеть. Дальнейшей маршрутизацией будет заниматься openvpn сервер.

Клиент, который имеет доступ к api телеграма, подключается к openvpn серверу со следующими параметрами:

iroute 91.108.4.0 255.255.252.0
iroute 91.108.8.0 255.255.252.0
iroute 91.108.12.0 255.255.252.0
iroute 91.108.16.0 255.255.252.0
iroute 91.108.20.0 255.255.252.0
iroute 91.108.56.0 255.255.252.0
iroute 149.154.160.0 255.255.240.0
iroute 205.172.60.0 255.255.252.0

То есть он объявляет, что за эти маршруты отвечает он и все запросы надо отправлять ему. Параметры эти хранит сервер и выдаёт на основании сертификата клиента, с которым тот подключается.

Вот, собственно, и всё. Если нам нужно сменить клиента, мы просто арендуем новую VPS. Настраиваем там подключение к openvpn серверу. Он подключается и объявляет, что за указанные маршруты отвечает он. Об этом узнаёт сервер и все запросы от других клиентов он будет адресовать сюда.

Я ничего подобного не знаю у других реализаций серверов приватных сетей. Обычно нужно отдельно настраивать OSPF или что-то подобное поверх настроенных туннелей. С одной стороны это более универсальный подход, когда каждый решает одну поставленную задачу, но с другой стороны в простых ситуациях и не очень больших сетях, реализация на базе openvpn проще в настройке и поддержке.

Подобную маршрутизацию я обычно использую при объединении распределённой сети филиалов. Один раз их настроил, отправил нужные подсети в туннель и больше не трогаешь. Сервер openvpn сам знает, в какой филиал отправить тот или иной запрос. Всё это управляется централизованно на сервере.

❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.

———
ServerAdmin: 📱 Telegram | 🌐 Сайт | 📲 MAX 😩

#openvpn
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍131👎1
Майская распродажа на servergate.ru!

Соберите свой сервер с выгодой! Скидки до - 7% на все серверное оборудование в компании Сервер Гейт. 
🔒– 5% при покупке до 500.000 руб.
🔒– 6% при покупке до 1.000.000 руб.
🔒– 7% при покупке на 1.000.000 руб. и более

*скидка будет действительна при оформлении заказа до 19:00 15 мая 2026
Оформляйте заказ до 19:00 (МСК) 15 мая 2026
💻
https://servergate.ru
☎️ 8-800-222-86-42


Реклама, ООО "Сервер Гейт", ИНН 7728456472.
👎19👍6
🔝 ТОП постов за прошедший месяц апрель. Все самые популярные публикации по месяцам можно почитать со соответствующему хэштэгу #топ. Отдельно можно посмотреть ТОП за прошлые года: 2023 и 2024 и 2025.

Пользуясь случаем, хочу попросить проголосовать за мой канал, так как это открывает некоторые дополнительные возможности по настройке: https://t.me/boost/srv_admin.

📌 Больше всего пересылок:
◽️Общее хранилище VirtioFS в PVE (312)
◽️Работа с локальными LLM в LM Studio (297)
◽️Использование ИИ-агента OpenCode (269)
◽️Статья про настройку Loki (261)

📌 Больше всего комментариев:
◽️Работа с локальными LLM в LM Studio (208)
◽️Выжимка из посещённой конференции на тему ML и AI (161)
◽️Замена уведомлениям из мониторинга в Telegram (140)

📌 Больше всего реакций:
◽️Подарок-торт в виде модулей Nvidia B300 (204)
◽️Работа с локальными LLM в LM Studio (204)
◽️Использование ИИ-агента OpenCode (199)

📌 Больше всего просмотров:
◽️Шутка про выплаты за удаление аккаунта в Telegram (11075)
◽️Замена уведомлениям из мониторинга в Telegram (8700)
◽️Моё старое железо (8530)
◽️Блокировка уведомлений через api.telegram.org (8230)
◽️Выжимка с конференции Deckhouseconf (7820)

Заметно уменьшение активности в Telegram. Сужу как по своему каналу, так и некоторым похожим из моей категории. Так что как ни крути, но медленно и верно людей выжимают из Telegram и, судя по всему, будут продолжать это дело.

А в MAX наоборот - наблюдаю увеличение активности. Просмотры публикаций растут. Кому-то надоедает вечный поиск прокси и vpn, и он просто переходит туда, где этих ограничений нет. В нашей отрасли таких не очень много, потому что отсутствие vpn банально не позволяет вести продуктивную трудовую деятельность. В других сферах отток более заметный.

У меня вся возрастная родня переехала в МАХ. Им некому настраивать vpn и прокси, да и незачем. Семейные чаты непринципиально, где вести. У меня все школьные и кружковые чаты уже там, так что приходится на два мессенджера распыляться, что, конечно, не доставляет удобства.

А в WhatsApp вообще никого не осталось. Давно уже оттуда сообщения не получаю. ❗️Кстати, насчёт WhatsApp предупрежу между делом. Он генерирует подозрительную сетевую активность. Заметил случайно дома ночью, когда зашёл посмотреть, что в сети происходит и кто лезет наружу. Оказалось, что телефон моей дочери, уже заблокированный Family Link на ночь, периодически занимал полосу в 10 мегабит на несколько секунд и так постоянно. Не знаю, что и куда он отправлял в таком количестве, но я её его тупо удалил.

#топ
👍47👎16
В процессе работы с мониторингом Zabbix заметил одну любопытную вещь в работе разных версий агентов. Напомню, кто не знает, что у Zabbix есть 2 версии агента - 1 и 2. Они совершенно разные с точки зрения кода, то есть это 2 разные программы. Вторая версия более развитая, но полностью поддерживает функциональность первой. Можно без изменения конфигурации 1-ю версию заменить на 2-ю.

Я давно уже везде устанавливаю и использую 2-ю версию агента, хотя в старых установках очень много и первой. Большого смысла их заменять нет, так как поддерживаются и обновляются обе версии, а функциональность второй не везде нужна.

У меня ии-агент полностью написал нужную мне автоматизацию по установке и настройке Zabbix. Я там сначала не указал версию агента, он всё сделал на 1-й, которую я успел раскатать на несколько тестовых хостов. Потом переделал на вторую и использовал уже её.

Непонятки возникли с мониторингом LXC контейнеров в PVE. 1-я версия агента в метрике Total memory показывает суммарную память хоста, а не контейнера. А 2-я при тех же настройках - память именно контейнера. В первом случае неверная метрика искажала визуализацию, так что я сразу это заметил, но не сразу понял, в чём тут дело.

Потратил кучу времени на то, чтобы разобраться, в чём причина. Сервер один и тот же, LXC контейнеры имеют одинаковые настройки, одинаковую систему. Я дошёл до того, что развернул ещё один контейнер с таким же набором софта, как и первый. Не мог понять, почему при идентичных настройках агенты показывают разные метрики. И только когда обратил внимание на версию агента, понял, что причина в этом. Заменил 1-ю версию на 2-ю и всё встало на свои места.

В этом примере 2-я версия работала корректно, а 1-я - нет. Из чего я ещё раз сделал вывод, что сейчас лучше использовать именно Zabbix Agent 2. Он более новый, активнее развивается и, судя по всему, поддерживается. Чтобы не разбираться с неведомыми проблемами, лучше сразу взять 2-ю версию агента.

Набросал себе дашборд в Zabbix Server для дома. Не знаю, зачем. Просто нравится, играюсь. Особой практической пользы в этом нет. Последнее время устал от визуализаций Grafana. Больше времени в ней провожу. У Zabbix всё более старомодно смотрится, но как-то приятнее взгляду. Может потому что я тоже во многом старомоден.

Хотя с другой стороны сейчас каждый день взаимодействую с ии-агентами и уже понимаю, что все эти заббиксы, графаны и прочий софт уходящего уклада будет не нужен в том виде, как он есть сейчас. ИИ выполняет роль костыля между ними и пользователем. А будут придуманы или сильно изменены текущие системы мониторинга для взаимодействия напрямую с ии-агентами. И там архитектурно всё будет по-другому. Человек будет взаимодействовать только с агентом, не с системой мониторинга. А уже агент ему что угодно нарисует по текстовому запросу, будь то дашборд в браузере, или сразу приложение для десктопа или смартфона, чего мелочиться то.

———
ServerAdmin: 📱 Telegram | 🌐 Сайт | 📲 MAX 😩

#zabbix
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77👎2
Соберите пазл-облако в игре «Облачный конструктор»

Представьте: пазл за пазлом вы сможете собрать настоящую облачную платформу. Позаботьтесь об устойчивой инфраструктуре, надёжном платформенном слое и безопасности облака.

Среди всех участников игры-головоломки с помощью рандомайзера мы разыграем фирменный мерч MWS Cloud Platform. Если соберёте все пазлы, получите возможность выиграть грант в размере 20 000 ₽ на использование облака MWS Cloud Platform.

Играть
👍9👎5
Один мой небезызвестный читатель Василий Егоров (@vasya_nsk) прислал ссылку на свой новый проект. Он представляет из себя каталог open source репозиториев с категориями и поиском, чтобы можно было быстро найти что-то из заданной тематики.

https://gitlocator.ru

Не сказать, что это прям что-то сильно нужное и незаменимое, решающее какую-то значительную проблему. Но сделано добротно и аккуратно. Мне понравилось.

В каталоге проекты выглядят в виде карточек, где указана ссылка на репозиторий (GitHub / GitLab / GitFlic / GitVerse), короткое описание на русском. Внутри карточки более подробное описание, звёзды, дата последнего коммита и некоторая другая информация.

Проект в каталог может добавить каждый желающий. Заявки обрабатывает ИИ, всё заполняет и отправляет в админку на утверждение куратором раздела. Потом карточка появляется в каталоге, попадает в RSS и недельный email-дайджест.

Если вы автор и имеете 3 и более активных проектов, добавленных в каталог, то можете создать себе именную страницу (пример). Обычные пользователи могут регистрироваться, добавлять что-то в избранное, подписываться на обновления, следить за своими заявками на добавление проектов в каталог.

На текущий момент каталог пустоват. Проектов мало, нет некоторых популярных продуктов типа Zabbix, Prometheus, Grafana и т.д. По идее разово его было бы неплохо наполнить автоматически. Но подозреваю, что для пасинга того же github есть какие-то технические ограничения. Тут правда есть и обратная сторона, если добавить сразу всё - получится куча всего, большая часть которой никому не нужна.

❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.

———
ServerAdmin: 📱 Telegram | 🌐 Сайт | 📲 MAX 😩

#сервис
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
51👍101👎1
Не могу не поделиться этой историей, хотя пользы от неё кому-то кроме меня скорее всего не будет. Я потратил где-то час на решение одной нелепой ошибки, а спаc меня в итоге бесплатный Qwen. Я уже практически отчаялся самостоятельно разобраться в проблеме.

Делаю простую задачу. Полное её описание скорее всего напишу отдельно. Мне нужно с Windows машины автоматически выключать Linux сервера по событию с ИБП. Делается это элементарно через cmd скрипт, который можно отладить в консоли примерно так:

> ssh ups_shutdown@192.168.137.29 "sudo systemctl poweroff"

Делаем на сервере пользователя ups_shutdown и добавляем ему публичный ключ:

# useradd -m -s /bin/bash ups_shutdown
# mkdir -p /home/ups_shutdown/.ssh
# touch /home/ups_shutdown/.ssh/authorized_keys
# echo "ssh-ed25519 AAAAC3NzaC1lZDI1... ваш_ключ..." >> /home/ups_shutdown/.ssh/authorized_keys
# chown -R ups_shutdown:ups_shutdown /home/ups_shutdown/.ssh
# chmod 700 /home/ups_shutdown/.ssh
# chmod 600 /home/ups_shutdown/.ssh/authorized_keys

Даём ему через visudo права на выполнение указанной команды:

ups_shutdown ALL=(ALL) NOPASSWD: /usr/bin/systemctl poweroff

На винде перед этим создал нужный ключ:

> ssh-keygen -t ed25519 -C "ups_shutdown" -N "" -f %USERPROFILE%\.ssh\id_ed25519

Всё максимально просто и стандартно. Пробую подключиться, не получается. На команду:

> ssh ups_shutdown@192.168.137.29 "sudo systemctl poweroff"

Получаю запрос на аутентификацию по паролю. Режим отладки показывает, что ssh успешно применяет созданный ключ id_ed25519, публичная часть которого добавлена на Linux. А на самом сервере никаких ошибок при подключении. Просто тишина. Перепроверил по 10 раз все настройки и права доступа. Ничего не помогло.

При этом если туда же подключаться под root, то аутентификация нормально проходит. Вызвал на помощь Qwen. Он, конечно, кучу всего предложил проверить, отправить логи, отладку и т.д. Ничего не помогало.

В конце он предложил начать всё сначала и отправить ему вообще все настройки и логи. Дал список команд. Я всё собрал и отправил. Он тут же нашёл ошибку:

ssh-ed25519 ssh-ed25519 AAAAC3NzaC1....LQSVErJUKo ups_shutdown
💥 Два раза ssh-ed25519 подряд! Это невалидный формат ключа.

Я тупо ошибся при переносе публичного ключа, скопировав ssh-ed25519 два раза. Не знаю, как так вышло, но вот вышло. И ни в одном логе нигде не было ошибки, что ключи не совпадают, формат неверный или что-то в этом духе.

Рано или поздно я бы плюнул на всё, удалил пользователя и сделал бы всё заново. Это известный и рабочий приём, который я сам практикую и многим советую, особенно в комментариях к моим статьям, которые гарантированно рабочие, потому что я проверял их лично. Но очень хотелось разобраться в проблеме, поэтому тратил время.

Многие сетуют, мол ИИ часто ошибается. Я вот с ним плотно работаю и могу сказать, что он ошибается реже чем я. И при этом он быстро находит свои ошибки. Давал ему на проверку некоторые свои статьи, которые я внимательно писал и выверял. Он там находил ошибки. И писал итоговые статьи лучше меня. Он вообще может за час проверить все статьи с моего сайта, исправить ошибки, дополнить полезной информацией и проверить на реальных системах всё, что напишет.

Грустно было осознать, что он разом обесценил мой прошлый тяжёлый труд. Но ничего не поделать. Мир меняется и надо меняться вместе с ним. Писать вручную подобные статьи, что есть на моём сайте, потеряло всякий смысл. Как и делать вручную многие другие вещи. Я за последние пару недель автоматизирую всё, что только в голову приходит. Репы в gitflic растут как на дрожжах. Всё, что откладывал или казалось не очень нужным, решается за пару часов генерации и отладки. Причём для админских дел, в отличии от программерских, много токенов не нужно. У нас контекст задач значительно меньше.

———
ServerAdmin: 📱 Telegram | 🌐 Сайт | 📲 MAX 😩

#ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍120👎3
🔥 OpenSearch Intensive — два практических тренинга в мае и июне

Если вы давно хотели разобраться с OpenSearch не верхнеуровнево, а на уровне реальной эксплуатации, архитектуры, производительности и траблшутинга — это отличный шанс сделать это за несколько дней плотной практики.

📌 OpenSearch База

🗓 20–22 мая 2026

🔗 Программа тренинга

За 3 дня:
• разберём архитектуру OpenSearch
• научимся строить поисковые запросы и агрегации
• настроим ingestion, индексы и шаблоны
• поработаем с логами, метриками и observability
• разберём безопасность, роли и TLS
• настроим политики ISM и оповещения
• настроим визуализации в OpenSearch Dashboards

Подходит для DevOps, SRE, инженеров мониторинга, администраторов, backend-разработчиков и всех, кто хочет уверенно работать с OpenSearch.

🚀 OpenSearch Продвинутый

🗓 8–10 июня 2026

🔗 Программа

Будем разбирать:
• security internals и ролевую модель
• cluster formation и кворум мастер-нод
• сегментную репликацию и удаленное хранилище
• Kafka + Vector pipelines
• аллокацию шардов и балансировку кластера
• кросс-кластерную репликацию т кросс-кластерный поиск
• загрузку данных в OpenSearch из Kafka
• работу с отчетами и Notebooks
• OpenSearch как observability платформу
• оптимизацию стоимости хранения данных

Подходит тем, кто уже знаком с OpenSearch и хочет выйти на следующий уровень.

💥 Формат — интенсив, а это означает минимум «воды», максимум практики и инженерного опыта. Тренинг не про «посмотрели слайды и разошлись», а про:

✔️ live-demo
✔️ практические задания
✔️ реальные кейсы
✔️ разбор типовых ошибок
✔️ best practices из highload инфраструктур

За несколько дней участники получают концентрированный опыт, который обычно накапливается месяцами эксплуатации.

Подробная информация на страницах с тренингами, там же есть форма обратной связи, чтобы оставить заявку или задать вопросы. Также дополнительную информацию вы можете получить, обратившись к @galssoftware или через hello@gals.software.

Подписывайтесь на наши телеграм-каналы, в которых мы делимся опытом, а также анонсами наших бесплатных вебинаров:

🚀 Мониторим ИТ — про observability

🚀 Elastic Recipes — про OpenSearch/ElasticSearch

🚀 Zabbix Recipes — про Zabbix

Реклама, ООО ГАЛС СОФТВЭР, ИНН 5047195298.
👍11👎2
Много лет использую Zabbix и постоянно нахожу что-то новое. Это очень масштабная система, которую самому трудно объять, если изучаешь сам для решения только своих задач. На днях ИИ научил меня кое-чему новому.

Была задача настроить авторегистрацию хостов после установки на них агентов. Мне не так часто приходилось это настраивать, потому что никогда не работал с большими инфраструктурами, где узлы постоянно добавляются или удаляются из системы. Даже если у вас в управлении штук 50 серверов, вряд ли вы будете даже раз в день вводить новый сервер, которому нужен будет мониторинг. Скорее всего это будет раз в неделю или раз в месяц. А может и того реже. Zabbix больше про долгосрочное хранение метрик и тренды. Что-то временное в него заводить не имеет большого смысла. Для этого проще взять что-то другое. Пользовательские компьютеры я тоже никогда не заводил в мониторинг.

Я всегда знал, что в Zabbix Server есть автообнаружение узлов банальным сканированием заданных подсетей. Как только попадается что-то новое, чего ещё нет в системе, добавляем и навешиваем группы и шаблоны в зависимости от настроенных действий автообнаружения. Работает просто и понятно. Главный минус в том, что работает не мгновенно и надо постоянно сканировать сеть в поисках узлов, что создаёт постоянный спам запросами в сети.

Второй инструмент - API. Там есть метод host.create, который активно используется в различных интеграциях с CMDB или в CI/CD. Тоже простой и понятный способ.

Попросив ИИ написать авторегистрацию, думал, что он наваяет что-то через API. Он легко программирует подобные интеграции. Когда агент всё сделал, я посмотрел реализацию. Он всё настроил через авторегистрацию активных агентов. Работает это максимально просто и удобно, мне понравилось. Мимо меня всё это прошло, потому что редко использую агентов в активном режиме, когда они сами шлют запросы на сервер мониторинга для получения инструкций. У меня чаще всего есть сетевая связность между агентами и сервером, поэтому использую пассивный режим агентов, когда их опрашивает сервер. Архитектурно это более простые запросы и обработки, которые меньше нагружают сеть, агентов и сервер. Плюс, до версии 7.0 через агентов в активном режиме нельзя было выполнять локальные команды на узлах. В общем я этот режим почти не использовал.

Вот как это работает. Добавляем в конфигурацию агента:

ServerActive=192.168.137.250
HostMetadata=os:linux os_family:debian environment:production location:pve-cluster

Метаданные можно задавать какие угодно для вашего удобства и иерархии. На сервер улетает вся строка, которая может быть распарсена до каждого отдельного слова или фразы.

В веб-интерфейсе Zabbix переходим в Оповещения ⇨ Действия (Alerts ⇨ Actions), выбираем Действия авторегистрации (Autoregistration actions) и Создаём действие (Create action). В нём описываем условия через И и ИЛИ. Например, если os:linux и location:pve-cluster, то навешиваем шаблон Linux by Zabbix agent и добавляем в группы Linux Servers и PVE-cluster. А также шлём уведомление и навешиваем нужные тэги.

Вот и вся настройка. Как только узел с настроенным агентом появится в сети и постучится на сервер мониторинга, ему сразу же определяет его место и метрики. А шаблон, кстати, ему можно добавить с пассивными проверками. То есть для работы авторегистрации не обязательно собирать метрики в активном режиме. Дальше сервер сам может опрашивать агента, если к нему есть доступ.

❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.

———
ServerAdmin: 📱 Telegram | 🌐 Сайт | 📲 MAX 😩

#zabbix
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍96👎1
Купил не так давно себе домой ИБП Ippon Kirpich 1050. Хороший аппарат, мне понравился - много розеток, ЖК экран. И самое главное - кнопка управления писком. Я полностью отключил его. У меня есть старый Ippon попроще, где этой кнопки нет. И он постоянно пищит, когда электричества нет, невозможно отключить.

Я решил по сигналу с этого Иппона отключать всё, что подключено к нему, и ко второму, который вообще без управления. Теоретически задача выглядела простой, потому что есть ПО от вендора под нужные системы - Windows и Linux. А практически пришлось повозиться, потому что много нюансов.

Пока была актуальна и развивалась программа Apcupsd, я для этих целей использовал её. Она очень удобная и простая в настройке - одинаковые минималистичные файлы конфигураций под все системы, режим работы клиент-сервер. Специально подбирал ИБП, чтобы поддерживала его. Она была совместима не только с аппаратами APC, но и те же Ippon некоторых моделей поддерживала. Сейчас программа заброшена, не обновляется, даже сайта не осталось. Я посмотрел на неё и понял, что всё, каши с ней больше не сварить 😢.

Ippon предлагает использовать программу PowerMaster, написанную на Java. Она поднимает веб сервер, управление через браузер. На первый взгляд не очень удобное решение, но в духе нашего времени. Я поставил её и на винду, и на линукс. В принципе, работает, хоть и жирновата, функциональность отличная, много чего умеет. Работает тоже в режиме клиент-сервер. Серверную часть ставишь на машину, куда подключен ИБП по USB, на остальные - клиентскую часть, которая подключается к серверу и следит за его состоянием, слушает команды.

У меня ИБП подключен к машине с Windows, а выключать надо сервера с PVE и Xpenology. Ставить на гипервизор тяжёлое Java приложение не хочется, а на Xpenology вообще не понятно, встанет ли. Я даже не пробовал. Решил пойти по другому пути. PowerMaster умеет запускать cmd скрипты на события от ИБП. Я решил отправлять на все зависимые машины по SSH команду на выключение после минуты отсутствия электричества.

Настраивается это в разделе Setting Advanced. Событие отключения электричества - Utility power failure. Директория, из которой можно выбрать скрипт для этих событий - C:\Program Files (x86)\PowerMaster Plus\extcmd. Там уже есть шаблон default.cmd, в который можно добавить свою логику. Мне её написал ИИ. Пришлось серьёзно заморочиться, чтобы всё отладить. Отмечу несколько важных моментов:

1️⃣ В начало скрипта надо добавить строку:

chcp 65001 >nul 2>&1

Без неё в логах будут крякозябры вместо текста ошибок, что сильно усложнит отладку, если что-то пойдёт не так.
2️⃣ Скрипт должен быть обязательно в кодировке UTF-8 with BOM (UTF-8 со спецификацией). С любой другой кодировкой скрипт не отрабатывал в программе, хотя нормально работал из консоли напрямую.
3️⃣ PowerMaster - 32-х битное приложение. Оно не видит стандартный системный путь до ssh.exe. Надо использовать специальный псевдоним C:\Windows\Sysnative\OpenSSH\ssh.exe.
4️⃣ PowerMaster работает от пользователя System. Ключ для SSH надо положить в директорию C:\Windows\System32\config\systemprofile\.ssh\, назначить пользователя владельцем и удалить все остальные права.

На управляемых системах нужно создать пользователя, который будет запускать shutdown.

Эта простая задача сожрала у меня кучу времени, потому что просто взять и запустить скрипт у меня не получилось. В Apcupsd всё это решалось за 5 минут настройки даже в первый раз. А тут часа 2 колупался, пока все ошибки отладил, учёл нюансы винды и программы.

В итоге подёргал ИБП из розетки, всё корректно отрабатывает. Он, кстати, спокойно тянет 3 обычных системника с БП на 400-500w, не жалуется на перегрузку. Минут 5 с ними работает. С одним - 15-20. Я как раз на него 3 самосбора повесил под тестовый кластер и бэкапы. Плюс ещё 2 машины гасит на втором ИБП. Тот Иппон у меня лет 10 работает, на третьем аккумуляторе уже.

❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.

———
ServerAdmin: 📱 Telegram | 🌐 Сайт | 📲 MAX 😩

#железо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍106👎4
20 мая в 12:00 (мск) пройдёт бесплатный вебинар «Автоматизация процессов безопасности в Kubernetes: опыт MWS Cloud Platform».

Руководитель направления облачной безопасности Алексей Федулаев расскажет:
- Какие есть подводные камни при переходе с ручных сканов
- Как покрыть тепловыми картами кластеры и отслеживать нарушения
- Как находить аномалии в поведении пользователей
- И наконец, как это всё подружить с центром безопасности

Вебинар будет полезен директорам по ИТ и ИБ, ИБ-специалистам и инженерам, работающим в облачных средах.

Регистрируйтесь, подключайтесь к прямому эфиру и задавайте вопросы в чате.

📆 20 мая в 12:00
👍10👎3
Перебирал старые ролики и нашёл древние видео от провайдера Авантел на тему системного администрирования. Зашёл на их канал в поисках чего-то нового, но, к сожалению, канал пустой. Нет ни одного ролика, а старые доступны только по прямым ссылкам. Провайдер как-будто отходит в мир иной.

Скачал на всякий случай и сохранил сюда, чтобы не потерялись. Юмор на любителя, но задумано и снято, как ни крути, необычно и местами интересно 🥹. Кто не смотрел - гляньте хотя бы одним глазком.

На Youtube ролики в качестве 4К. Я не смог их скачать в таком качестве, не разобрался. Получилось только 720p. Если кто-то умеет скачивать качество выше, скиньте, пожалуйста, в личку ролики, я перезалью.

▶️ https://www.youtube.com/watch?v=rjqe8T5XBmw
▶️ https://www.youtube.com/watch?v=WNnJ0gjPgEs
▶️ https://www.youtube.com/watch?v=ncXTQ83eW7Q

#юмор
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍138👎20