ServerAdmin.ru
28.2K subscribers
248 photos
32 videos
10 files
2.58K links
Авторская информация о системном администрировании.

Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed

Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Download Telegram
​​Я вчера был на конференции, организованной компанией TrueConf. Была недавно на канале реклама этого мероприятия. Сразу скажу, что этот пост у меня никто не заказывал и не просил написать. Это моя инициатива. Он просто хорошо ложится в канву импортозамещения и перехода на отечественные продукты.

TrueConf - это платформа для видеоконференций и онлайн общения, которая конкурирует с известными мировыми брендами, такими как Zoom, Teams, Webex и т.д. Причём конкурирует давно и не только на отечественном рынке. Основное отличие и оно же преимущество - возможность купить продукт в формате On-premise или Box. То есть вы можете установить ПО на своё железо и оплачивать его по ежегодной подписке или купить бессрочную лицензию.

Я не буду подробно описывать все возможности TrueConf, так как это известная компания с большой линейкой продуктов, пытающаяся покрыть все потребности бизнеса в коммуникациях (видеоконференции через PC клиенты, через аппаратные устройства для переговорок, через аппаратные терминалы для sip/h323, свой транскодирующий сервер и т.д.) Всё это рассчитано на очень большие масштабы.

Отмечу кратко то, на что сам обратил внимание из полученной информации:
Некоторое время назад было масштабное обновление ПО, в том числе клиентского. Сейчас клиент позиционируется в том числе как чат для корпоративного общения. Замена Telegram, WhatsApp и т.д. То есть не только звонилка для видеопереговоров.
Разработка старается конкурировать с мировыми лидерами Zoom, Teams и т.д. Пытаются брать лучшие практики и улучшать их. Речь о функционале и удобстве.
Решение, установленное на своих серверах, позволяет хранить у себя всю аналитику по использованию, в том числе статистику, видеозаписи и т.д. Это становится очень актуально в последнее время, так как явно виден тренд на сегментирование интернета и риски SaaS продуктов.
TrueConf Server можно установить на любое типовое железо, так что производительность и объёмы дисков зависят только от ваших потребностей.
У TrueConf есть поддержка SIP. То есть этот продукт пытается совместить в себе основные коммуникации бизнеса - чат, видео, телефония.

Отдельно отмечу, что сам я TrueConf никогда не использовал. Была пара тестирований, когда поднимал сервер, но внедрения не делал и активно не использовал. Так что всё написал со слов докладчиков и маркетинговой информации.

❗️У TrueConf Server есть бесплатная версия на 10 абонентов, где можно протестировать основной функционал, в том числе запись конференций. Сервер есть под Windows и Linux, клиенты под все популярные стационарные и мобильные системы. Поддерживаются в том числе все отечественные системы (Asta, ROSA, Alt и т.д.) Ещё раз отмечу, что сервер можно установить у себя автономно в том числе в закрытых сетях.

ps Отдельно хочу отметить, что хотя официально на поставки иностранного оборудования наложены ссанкции, сами производители в них не заинтересованы и реально оборудование поступает и доступно для заказа.

Сайт - https://trueconf.ru/
Реестр ПО - https://reestr.digital.gov.ru/reestr/301405/

#отечественное #videoserver #chat
Как организовать видеоконференцсвязь, когда приходится отказываться от импортного ПО и оборудования?

Об этом пойдёт речь на вебинаре Logitech и NBCom Group – «Как обеспечить видеоконференцсвязь в современных реалиях».

Дата и время: 14 апреля, 11:00 по МСК
Зарегистрироваться и узнать подробности здесь.
​​MikroTik Newsletter Апрель 2022

Основная новость для нас - Mikrotik отозвал все тренерские сертификаты из РФ, остановил программу обучения и официально прекратил поставки оборудования. Тем не менее, в продаже оно есть и скоро на канале будет реклама поставщиков этого оборудования. Законы капитализма нерушимы - деньги превыше всего. Пожалуй сейчас это единственная ситуация, когда данный принцип я могу оценить положительно.

Остальные новости вендора:

Новая модель свитча CRS504-4XQ-IN за $799. Особенности: 2 hot-swap блока питания, 4х100 gigabit QSFP28 порта!!! Обзор на Youtube. Я думал такие скорости стоят значительно дороже, а оказывается 100 гигабит можно за 800 баксов заиметь.

Новый уличный топовый LTE модем LHG LTE18 kit за $279. Пригодится там, где очень слабый сигнал и обычными устройствами он не ловится. Питаться может через PoE-in, связь через Gigabit Ethernet порт. Внутри dual-core ARM CPU, так что если сигнал хороший, то модем может агрегировать каналы и выдавать скорость LTE соединения до одного гигабита в секунду. Обзор на Youtube.

Новый маршрутизатор CCR2004-16G-2S+PC за $465. Особенности: 16xGigabit Ethernet портов (по 8 на каждый switch чип), 2x10G SFP+ портов, 4-х ядерный процессор, консольный порт RG-45, пассивное охлаждение!. Устройство позиционируется как бесшумный роутер для установки прямо в офисе или дома (для богатеньких 😎). Обзор на Youtube.

Вышла RouterOS v7.2 Stable. "Remember to keep your devices updated for the best performance and maximum security!" Все обновились? 😄

Там ещё новые вентиляторы и крепления вышли, но это не так интересно. Отдельно стоит упомянуть, что Mikrotik обновил логотип. Новый в прикреплённом изображении ниже. Побуду занудой, но мне старый нравится больше. А вам как?

Newsletter PDF

#mikrotik
​​Rsync - мощная консольная утилита и служба для быстрого копирования файлов. Отличает её в первую очередь скорость сравнения директорий с огромным количеством файлов. К примеру, если вам нужно будет сравнить и привести к единому содержимому два разнесённых по сети хранилища с миллионом файлов внутри, то rsync для этого подойдёт лучше, чем что-либо другое.

Я сам лично до сих пор для бэкапов использую преимущественно голый rsync, но не всегда и не везде. Если нужно обязательно копировать файлы как есть, без упаковки, сжатия, дедупликации, то как раз в этом случае выберу его. Пример подхода с использованием rsync давно описал в статье, которая нисколько не устарела, так как сам rsync, его возможности и параметры не изменились вообще.

Для тех, кто не хочет колхозить автоматизацию бэкапов с помощью самодельных скриптов, есть готовые системы на базе Rsync. Я постарался рассмотреть практически все более ли менее известные. Вот они:

Butterfly Backup - консольная утилита Linux.
Rsnapshot - консольная утилита Linux.
ElkarBackup - сервис для бэкапов, написанный на PHP, настройка через браузер.
BackupPC - сервис для бэкапов, написанный на PERL, настройка через браузер.
Burp - сервис под Linux, более простой аналог Bacula.
cwRsyncServer Программа под Windows.
DeltaCopy Программа под Windows.

Забирайте в закладки. Rsnapshot, DeltaCopy постоянно использую сам.

#rsync #backup
​​Когда я только начинал администрировать Linux сервера, первые несколько лет регулярно использовал панель управления Webmin для одной единственной цели - просмотр всевозможных логов. Мне нравился там модуль для этого дела. С его помощью можно было удобно грепать логи, что-то искать, копировать и т.д.

Особенно это было актуально для почтовых серверов на базе postfix. Там постоянно нужно было лазить в лог и что-то проверять: почему письмо не дошло, подключался ли данный клиент, какой был ответ сервера и т.д. Мне было удобно в Webmin задать ID письма или IP сервера и посмотреть всю информацию о них в логах. Обычно там все сильно разбросано по лог файлу, потому что куча повторяющихся и новых событий происходят, а Webmin помогал упорядочить.

Со временем отказался от Webmin, так как ставить такого монстра только для логов было излишним. Недавно наткнулся на удобную утилиту, которая позволяет делать примерно то же самое - удобно просматривать логи через браузер. Речь идёт про tailon (https://github.com/gvalkov/tailon).

Это маленькая утилита, состоящая из одного бинарника, который можно скачать из репозитория и запустить. Она состоит из веб сервера, который открывает заданные логи, чтобы вы могли посмотреть их через браузер. Поддерживается не только просмотр, но и обработка прямо в браузере стандартными утилитами grep, awk, sed. Сделано всё простенько, но функционально.

Можно сразу все логи директории отправить в браузер, например так:
# ./tailon /var/log/*.log
И выбирать, какой из них открыть на просмотр в веб интерфейсе. Сервер по умолчанию поднимается на порту 8080.

Если вы новичок в Linux и работать в консоли ещё не привыкли, то попробуйте, может понравится инструмент. Да и просто на время отладки может пригодиться, или анализа логов веб сервера в режиме реального времени. В общем, полезная штука.

#linux #logs
Типовая ситуация, в которую часто попадаю при аренде выделенных серверов с SSD - нехватка места на дисках. Расширить его зачастую невозможно. Приходится придумывать какие-то другие варианты. Наиболее простым и бюджетным является перенос части холодных данных на S3.

Сделать это можно с помощью софта s3fs-fuse: https://github.com/s3fs-fuse/s3fs-fuse
Он обычно есть в стандартных репозиториях:
# dnf install s3fs-fuse
# apt install s3fs

Далее необходимо создать файл с учётными данными для подключения к облаку:
# echo user:password > ~/.passwd-s3fs
# chmod 600 ~/.passwd-s3fs

И можно монтировать:
# s3fs mybucket /mnt/s3 -o passwd_file=~/.passwd-s3fs \
-o url=https://s3.storage.selcloud.ru \
-o use_path_request_style

Показал на примере S3 хранилища в Selectel. Я обычно им пользуюсь, потому что дёшево.

#s3
Типичная картина переноса сайта с дедика, где все ресурсы принадлежат только ему, на арендованную VPS. Это скриншот с дефолтного мониторинга сайта средствами Zabbix Server.

Упала и скорость доступа к сайту, и отклик сайта вырос и стал рваный, потому что хост принадлежит не только тебе. Сколько на нём работает виртуалок, можно только гадать.

Причём переезд осуществлён на VPS, где ресурсы арендованы с большим запасом. И сам хостинг не дешманский. Но спрогнозировать отклик всё равно невозможно. Это основная причина, почему при возможности лучше арендовать выделенный сервер, а не виртуальную машину.

В данном случае было не критично, поэтому решили сэкономить деньги. VPS купили ровно в 2 раза дешевле дедика. Так что надо в каждом конкретном случае решать, что важнее - деньги или скорость сайта. В этом примере производительность всё равно хорошая, но до этого была идеальная.

#webserver #zabbix #мониторинг
​​Я узнал про шикарную программу для автоматизации рутинных задач - xStarter. Мне кажется, для типичного офисного системного администратора с широким спектром задач это отличный инструмент. Посмотрел описание и возможности программы и сходу придумал несколько ситуаций, где эта программа может быть полезна:

1️⃣ Создание бэкапа на каком-то одиночном сервере. Например, вам нужно локально сделать выгрузку базы 1С в dt, куда-то её скопировать и удалить старые копии. В xStarter это можно сделать, создав на каждое действие свой шаг: запуск конфигуратора с параметрами командной строки для выгрузки в dt, копирование бэкапа, удаление старых версий.
2️⃣ Выполнение каких-либо действий при появлении файлов в определённой директории. Тут вообще широкое поле для деятельности. Можно на печать эти файлы отправлять, можно куда-то по почте или на ftp загружать, можно жать их и куда-то ещё копировать и т.д. Можно разные действия на разные маски файлов делать.
3️⃣ Сделать одиночный экзешник, который при запуске будет пинговать какой-то хост определёнными пакетами, а на хосте будет настроен port knocking для открытия rdp порта. После этого будет запускаться rdp клиент с какими-то параметрами и подключаться к серверу. Экзешник можно юзеру отдать.
4️⃣ Проверка какого-то почтового ящика на наличие писем с вложениями, сохранение вложения из присланного письма в какую-то локальную папку.

Чего только xStrater не умеет. Есть преднастроенные типовые действия, можно писать полностью свои сценарии. Какие-то примеры можно посмотреть на форуме.

Программа старая, но при этом нормально работает до сих пор. Я проверил на Windows 11. Для русскоязычных пользователей xStarter полностью бесплатна. Если кто-то пользовался, напишите, какие задачи решали.

Сайт - https://www.xstarter.com/rus/

#windows
Неоднократно видел в интернете истории на тему случайного удаления /dev/null. Так как эта штука часто используется в командах bash или скриптах, достаточно перепутать какие-то аргументы или места в командах и удалено будет не то, что ожидается.

Конкретно с /dev/null никаких проблем не будет. Можно просто перезагрузить систему, либо выполнить без перезагрузки:
# mknod -m 666 /dev/null c 1 3
Если я не ошибаюсь, то /dev устройства создаются динамически при каждой загрузке устройства и следит за этим udev.

/dev/null - символьное псевдоустройство. Ключ "c" в команде mknod как раз указывает на это (b - блочный, c - символьный). Кстати, если удалить /dev/null и создать вместо него текстовый файл, то можно посмотреть, кто и как использует это псевдоустройство. Я чисто из любопытства это сделал:
# rm -f /dev/null
# touch /dev/null
# chmod 0666 /dev/null
# tail -f /dev/null

Дальше можно выполнять какие-то действия: логиниться в систему, обновлять пакеты, останавливать службы и т.д. Будет видно, как в /dev/null постоянно кто-то что-то отправляет и делает truncate потом, так что файл будет всегда нулевого размера и без tail посмотреть, что туда пишут, не получится.

#terminal #linux
Существует рекомендация не восстанавливать Контроллеры Домена Windows из бэкапов. Якобы это может положить весь домен. На практике мне никогда не приходилось проверять данное утверждение. Я всегда делаю строго 2 контроллера домена в одном сегменте. Бэкаплю состояние сервера встроенной архивацией Windows и саму виртуальную машину на уровне гипервизора.

Некоторое время назад столкнулся с ситуацией, что после аварийного завершения работы сервера (скачок электричества ребутнул часть устройств за работающими упсами, а сами упсы даже не зарегистрировали его) не поднялись некоторые VM, в том числе с КД. Благо второй сервер с запасным КД поднялся нормально и каких-то серьезных проблем не возникло. Было время спокойно решить проблему.

У меня был бэкап всей VM, сделанный Veeam. Нашёл в одной из статей информацию о том, что Veeam умеет корректно поднимать упавший КД:

В большинстве сценариев восстановления вам потребуется режим non-authoritative, поскольку в среде имеется несколько контроллеров домена. (Кроме того, authoritative восстановление может привести к новым проблемам.) Именно на этом основана логика Veeam Backup & Replication: по умолчанию выполняется non-authoritative восстановление, поскольку считается, что инфраструктура выстроена с избыточностью и включает в себя несколько контроллеров.

В итоге всё равно не рискнул восстанавливать эту VM. Смогли починить на месте контроллер. Что конкретно с ним делали, не знаю, не я занимался. Вторым вариантом рассматривали забить на этот КД и поднять новый, завести его в домен. Но мне не хотелось этим заниматься, так как от старого КД в DNS остаётся куча записей. Я не знал, как корректно их оттуда все вычистить.

У кого есть практический опыт по данному вопросу? Как корректно разрулить ситуацию с полностью умершим одним из контроллеров домена? Восстановление из бэкапа реально положит весь домен? Я понимаю, что можно разом поднять вообще все КД, тогда конфликта быть не должно. Но в данном случае серверов много, все их поднимать было точно не вариант. Да и бэкапы в разное время были сделаны, а не одномоментно.

#windows
​​Продолжаю тему просмотра логов. Нашёл ещё один полезный и популярный проект для просмотра логов в браузере в режиме реального времени - log.io. Написан на Node.js с использованием Socket.io. Ставится через nmp в одну команду. Конфиги хранит в формате json.

Архитектура у приложения клиент серверная. Отдельно ставится сервер приёма сообщений и http сервер. Отдельно ставятся клиенты для отправки логов. Log.io может работать в рамках одного сервера.

Установка и настройка очень простая. Описана целиком на главной сайта с примером конфигурации. Не буду сюда это дублировать.

Встроенный веб сервер log.io сам поддерживает http basic auth, так что можно ограничить доступ без применения проксирующего сервера. Как я уже сказал, проект известный, поэтому в сети найдёте много руководств с примерами по установке и настройке. Лично мне хватило информации из документации на guthub.

Обращаю внимание, что сам домен log.io, как я понял, к описываемому продукту не имеет отношения и редиректит на сайт какой-то другой компании.

Сайт - http://logio.org/
Исходники - https://github.com/NarrativeScience/log.io

#logs
На днях в комментариях зашёл разговор о ситуации, когда с утилиты chmod сняли бит исполнения. Эта утилита как раз предназначена для того, чтобы этот бит ставить. Теоретически получается тупиковая ситуация. Это, кстати, отличная безобидная шутка для начинающего Linux админа:
# chmod -x chmod

К сожалению, сейчас решение очень легко находится через поиск. А вот когда-то давно это могло стать хорошим испытанием на сообразительность. Выходов из сложившейся ситуации много. Вот несколько примеров:

1️⃣ Используем утилиту setfacl. По умолчанию её может не быть в системе, но не проблема установить.
# setfacl -m u::rwx,g::rx,o::x /usr/bin/chmod

2️⃣ Можно запустить утилиту chmod, передав её явно динамическому компоновщику. В контексте данной заметки считайте компоновщик интерпретатором для программы chmod. В разных дистрибутивах он может иметь разное название и расположение. Пример для Debian 11:
# /usr/lib64/ld-linux-x86-64.so.2 /usr/bin/chmod +x /usr/bin/chmod

3️⃣ Можно скопировать права с любого исполняемого файла и записать содержимое утилиты chmod в этот файл. Получается рабочая копия chmod.
Создаём пустой файл с правами утилиты ls.
# cp --attributes-only /usr/bin/ls ./new_chmod
Копируем содержимое утилиты chmod в созданный файл:
# cat /usr/bin/chmod > ./new_chmod
Можно использовать:
# ./new_chmod +x /usr/bin/chmod

4️⃣ Почти то же самое что и предыдущий вариант только проще:
# install -m 755 /usr/bin/chmod ./new_chmod
или так:
# rsync --chmod=ugo+x /usr/bin/chmod ./new_chmod

5️⃣ Если умеете программировать на какой-то языке, то можно с его помощью вернуть бит исполнения. Пример с python:
python -c "import os;os.chmod('/usr/bin/chmod', 0755)"

Если знаете ещё какие-то интересные и необычные решения данной проблемы, делитесь в комментариях.

#terminal #linux #юмор
​​Давно не затрагивал тему мониторинга, потому что все известные продукты так или иначе обозревал ранее в заметках. Посмотреть их можно по соответствующим тэгам. В этот раз хочу познакомить вас с интересным продуктом, ранее который я не обозревал и вообще сам не был с ним знаком. Речь пойдёт о комплексной системе для мониторинга, визуализации и инвентаризации компьютерного оборудования Algorius.

Сразу перечислю основные особенности Algorius:
устанавливается на Windows систему через типовой установщик;
максимально простая и быстрая настройка, в том числе с автоматическим обнаружением устройств в сети;
вся настройка выполняется мышкой в окне программы, никакие конфиги править не надо, долго разбираться и читать документацию тоже, всё интуитивно понятно;
в качестве БД использует SQLite.

А теперь основное по функционалу:
Клиент-серверный доступ к информации. На сервере можно настроить, к каким данным может получать доступ тот или иной клиент. Клиентом выступает отдельное Windows приложение.
В Algorius можно рисовать красивые и наглядные схемы сети с различной разбивкой по сегментам. Можно описать до каждого устройства локальную сеть, а потом все сети описать в общей навигационной карте. Есть поддержка географической карты OpenStreetMap.
Поиск и идентификация устройств могут проходить автоматически с использованием различных механизмов и технологий - ARP, Ping, Netbios, TCP, UDP, SNMP, WMI.
Для устройств можно заполнять инвентарные данные, а также собирать их автоматически отдельным агентом.
Схемы сетей можно импортировать/экспортировать в формат Visio.

Поставил программу, немного посмотрел на неё. Она реально очень проста в настройке. Автоматически просканила сеть, нашла некоторые компы и сервера. Чтобы поставить объект на мониторинг, достаточно открыть его свойства, добавить ip адрес и сенсор, который будет использоваться (ping, tcp или udp запрос на какой-то порт, snmp, arp и т.д.).

Функционал относительно простой, если сравнивать с какими-то серьезными системами мониторинга. Но зато всё целостное, понятное и легко настраивается. Есть возможность использовать внешние проверки и устанавливать плагины. Не думаю, что найдётся большой выбор этих плагинов, кроме тех, что написали сами разработчики.

Algorius платная программа, не Open Source. Есть бесплатная версия с ограничениями:
- 25 хостов мониторинга;
- 5 одновременно открытых карт сетей;
- хранение отчётов 1 месяц;

Если покупать, то цены очень доступные. Мониторинг 500 хостов без каких-либо других ограничений стоит всего 10000р. в год. А 100 всего 2000р.

Сайт - https://algorius.ru

#мониторинг #управление #ITSM
Liefting_Zabbix-5-IT-Infrastructure-Monitoring-Cookbook_RuLi.pdf
12.6 MB
На днях Zabbix в своём блоге анонсировал новую редакцию книги Zabbix 6 IT Infrastructure Monitoring Cookbook. Купить можно в Amazon и Packtpub. Не уверен, что из РФ можно будет оплатить.

Поискал предыдущую редакцию книги, нашлась очень быстро. Её и приложил к посту. Книга кажется объёмной, но реально она не очень большая. Я её всю пролистал и могу посоветовать тем, кто хочет изучить Zabbix.

Рассказано очень доступно с большим количеством скриншотов из веб интерфейса. Из-за этого объём большой. Текстовый материал компактно оформлен по всем основным возможностям системы мониторинга Zabbix.

В 6-й версии есть отличия от 5-й, но не сказать, что прям сильно критичные. Основное - новый синтаксис шаблонов и триггеров. Если вы сами не пишите шаблоны, то для вас это будет не принципиально. Сама установка и настройка осталась плюс-минус такой же.

#zabbix
Давно не было заметок по полезным консольным командам под bash. В комментариях к заметке о find меня попросили поделиться своими шпаргалками для этой утилиты. Собрал наиболее универсальные и часто используемые конструкции.

Вывести только имена файлов. Поиск файлов пойдёт рекурсивно от той директории, где будет запущена команда:
# find | awk -F '/' '{print $NF;}'

Переместить найденные по маске файлы из одной директории в другую:
# find /mnt/backup/*site.ru* -type f -exec mv {} /web/sites/ \;

Найти все файлы по маске и сжать:
# find /data/1c-bases-backup -type f -name 1Cv8.1CD -exec gzip '{}' \;

Переименовать все найденные файлы:
# find /backup/sql -type f -name "*.sql.gz" -exec mv {} {}.old \;

Подробный список файлов размером больше 100М с помощью ls:
# find /data -type f -size +100M -exec ls -lh '{}' \;

Поиск файлов по содержимому (header.php):
# find /web/site.ru -type f -exec grep -i -H "header.php" {} \;

Посчитать количество найденных файлов:
# find /home/user -type f | wc -l

Найти файлы в определённом временном интервале:
# find /mnt/zz_archive -type f -newermt '2022-01-01 00:01' ! -newermt '2022-01-31 23:59'
Потом их можно сжать, переместить и т.д, как было показано в предыдущих примерах.

Искать без учёта регистра:
# find /data -type f -iname FILE_NAME

Поиск файлов, которые менялись сколько то дней назад и более:
# find /data -type f -mtime +30
или в течении последних 5 дней, но не позже:
# find /data -type f -mtime -5
или в определённом промежутке в минутах (10-20 минут назад):
# find /data -type f -mmin -20 -mmin +10

Cортировка по дате изменения:
# find /data -type f -printf '%TY-%Tm-%Td %TT %p\n' | sort -r
и обратная сортировка:
# find /data -type f -printf '%TY-%Tm-%Td %TT %p\n' | sort

Захватил наиболее типовые ситуации, с которыми чаще всего приходится сталкиваться в консоли или скриптах автоматизации.

#bash #terminal #find
​​К заметке про Algorius кто-то вспомнил про программу Friendly Pinger. Типа это реинкарнация старой известной программы, которая безнадёжно устарела. Я знаком с Friendly Pinger, так что хочу немного рассказать об этом.

Впервые увидел её в 2014 году и на тот момент она уже выглядела безнадёжно устаревшей. Её развитие закончилось в 2004 году. Я пришёл в компанию и увидел на экране тамошнего админа какую-то мигающую схему с иконками из Windows 98. Очень удивился представленному зрелищу.

На схему Friendly Pinger была нанесена вся структура офиса с разбивкой по комнатам вместе с серверной. Были добавлены все объекты вплоть до принтеров и виртуальных машин на гипервизорах. Между ними были настроены связи. Узлы помечались активными, если связь с ними была. Если пропадала, то краснели.

Для каждого узла настроен способ подключения к нему. При клике на принтер или свитч, открывался его веб интерфейс, на компьютер юзера - vnc подключение, сервера - подключение по ssh. Реально это всё было очень удобно.

Сам я не занимался поддержкой офиса, так что постоянно Friendly Pinger не использовал, но иногда заглядывал в него. Стоит отдать должное удобству. Программа лежала на сетевом диске вместе со схемой сети, которая хранится в единственном файле настроек. Достаточно всё скопировать к себе, либо запустить прямо с сетевого диска, чтобы получить активную схему у себя на компьютере.

Настроить всё это дело тоже очень просто. Раскидываешь объекты по схеме, рисуешь стены, делаешь связи, указываешь ip адреса объектов. Вот и всё. Это не мониторинг, состояние нигде не хранится. Чисто схема сети с активными объектами, к которым можно подключиться в один клик. Для простой тех. поддержки идеальный инструмент.

Было бы интересно узнать, существуют ли какие-то современные аналоги Friendly Pinger? Чтобы все так же просто, быстро и удобно? Ещё очень любопытно, есть ли те, кто Friendly Pinger использует до сих пор?

Приложение бесплатное и полностью рабочее. Можно использовать, если вдруг понадобится. Сайт - http://www.kilievich.com/rus/fpinger/

#управление
​​▶️ На днях вышел отличный ролик на тему создания своего дистрибутива Linux. Автор - Aleksey Samoilov, владелец одноимённого youtube канала, о котором я уже ранее упоминал. Там много интересных видео.

На этом речь идёт про создание своего преднастроенного дистрибутива на базе Debian или Ubuntu. Рассказано всё подробно, наглядно, по шагам. Используется инструмент Live Build для создания своего образа.

Данная тема становится актуальной день ото дня. Для личного использования вряд ли может пригодиться, а вот когда вам надо какой-то учебный класс оборудовать с помощью заранее подготовленного образа, данная инструкция будет к месту.

Записать подобное руководство большой труд. Продолжительность ролика почти час. Так что подписываемся на канал, смотрим, лайкаем и пишем комментарии.

Дистрибутив Linux своими руками | Debian | Ubuntu
https://www.youtube.com/watch?v=_cc6zQBUsXo

#видео
​​На неделе посмотрел бесплатный вебинар (Rebrain) на тему мониторинга Nginx под нагрузкой. Он оказался очень интересным и полезным, потому что узнал новый для себя способ мониторинга Nginx. Он оказался простым в настройке и функциональным. Ниже стек софта для реализации. При желании все инструкции находятся через поиск. Главное, знать что искать. Я обычно nginx мониторю традиционно, через анализ /nginx_status и лог файлов. Ниже будет описан другой способ.

Дано: балансер на Nginx и какое-то количество бэкендов, на которые nginx проксирует запросы. Надо мониторить этот балансер. Конкретно следующие метрики:
- ответы с разбивкой по http кодам;
- некоторые тайминги ответов;
- информация по запросам в разрезе трафика и их количества (rps).
Всё это с разбивкой по бэкендам, чтобы можно было их сравнивать и обнаруживать аномалии на конкретных серверах.

Для подобного мониторинга используется бесплатный nginx-module-vts. Необходимо самостоятельно собрать Nginx с этим модулем. В модуле настраиваются метрики, которые он будет выдавать. Этот модуль по дефолту умеет показывать все свои метрики в html странице. Понятное дело, что для полноценного мониторинга всё это надо отправить в какую-то единую систему.

VTS модуль умеет экспортировать метрики в формате Prometheus и без проблем подключается через static_config. Далее прикручивается Grafana. У неё есть готовые дашборды для VTS.

Подобный мониторинг настраивается буквально за считанные минуты. Самое хлопотное тут - сборка Nginx. Всё остальное по сути представлено в готовом виде: VTS экспортер в prom, докер контейнеры для prometheus и grafana и готовый дашборд. К примеру, в Zabbix всё это так просто не затолкать. Придётся потратить кучу времени, чтобы распарсить вывод модуля и написать шаблон. В настоящий момент я всё это получаю в ELK, но только без разбивки по бэкендам.

#nginx #webserver
​​Расскажу вам про один полезный инструмент, который непосредственно к системному администрированию отношения не имеет, но может быть очень полезен в некоторых ситуациях. Речь пойдёт о сервисе, который позволяет любые структурированные данные на веб страницах переводить в табличный вид.

В Zabbix есть раздел Latest Data, куда я регулярно заглядываю. Иногда хочется для отчёта оттуда вытянуть какие-то данные. Например, статистика по дискам: серийный номер, объём, наработка и т.д. Как-то раз я документацию писал по мониторингу и нужно было описать каждый элемент данных, шаблон, хост и т.д. Делал всё это вручную в Excel. Есть способ, который упрощает эту задачу.

Сервис https://dataminer.io позволяет преобразовывать данные со страниц в табличный вид в полуавтоматическом режиме. Запускаете визард и вручную размечаете страницу, указывая, что будет столбцом, а что строкой. И сохраняете шаблон. Потом с его помощью автоматически генерируете таблицу и сохраняете в xlsx или csv.

Сервис платный, но есть бесплатный тарифный план, который позволяет обработать 500 страниц в месяц. Для непостоянных задач этого хватает за глаза. Для работы нужно установить плагин в свой браузер. Я разобрался с этой штукой где-то за пол часа и распарсил нужные мне страницы.

Чтобы быстро понять, как это работает, можно посмотреть трехминутное видео на главной сервиса.

#разное
Вы никогда не задавались вопросом, почему SQL иногда произносят как Эс-Кью-Эль, а иногда как Сиквел? Причём последнее произношение часто упоминается в контексте MSSQL. Сам Билл Гейтс называл свой сервер - Сиквел сервер. Хотя казалось бы, в аббревиатуре и расшифровке сиквелом и не пахнет. Как то раз пришла в голову идея прояснить этот момент. Вот что я нашёл.

В 1974 году был опубликован язык запросов SEQUEL (Structured English Query Language — «структурированный английский язык запросов»), в основе которого лежала SQUARE (Specifying Queries As Relational Expressions). Именно SEQUEL произносят как Сиквел.

Акроним SEQUEL в тот момент уже был зарегистрирован как торговая марка британской компании Hawker Siddeley, производящей авиационную технику. Поэтому название языка запросов было изменено на Structured Query Language, сокращенно — SQL.

В 1979 году был выпущен первый SQL-продукт — СУБД Oracle V2. Потом почти сразу же вышла СУБД от IBM — System R. И там, и там использовался язык запросов SEQUEL.

Именно отсюда и пошло это произношение, которое изначально использовали специалисты того времени. Остаточным эхом это произношение дошло и до наших дней. Я лично его слышал ещё в университете 2000-х от преподавателя. И на первой работе админ MSSQL, с которым я работал, тоже называл его Сиквел. Я ещё тогда не мог понять, откуда такое произношение.

То, что я написал, лишь версия. Как на самом деле было, трудно узнать наверняка. В подтверждении написанного есть видео записи с тем же самым Гейтсом, где он говорит Сиквел. На современных конференциях до сих пор можно услышать Сиквел, вместо Эс-Кью-Эль.

Есть ещё одно слово, которое не даёт мне покоя — Scheduler (планировщик). Его иногда называют Скедулер. Мне не понятно это произношение. Правильная транскрипция - Шедулер. Надо с этим тоже разобраться.

#разное