ServerAdmin.ru
28K subscribers
221 photos
26 videos
10 files
2.54K links
Авторская информация о системном администрировании.

Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed

Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Download Telegram
​​Хочу порекомендовать к просмотру видео:
Как стать DevOps Инженером с Нуля, что учить и в каком порядке

https://www.youtube.com/watch?v=AxCgZ7yUKrU

Актуально для тех, кто думает, куда и как двигаться дальше в своем развитии. Автор очень подробно, а самое главное на своих примерах и опыте показывает, как он развивался и как советовал бы развиваться вам в русле devops.

В целом, весь канал интересен. Я на него подписал и регулярно смотрю ролики, если вижу интересную мне тему. Ведет практикующий devops инженер.

Ниже красноречивый комментарий под одним из его видео.

#видео #обучение
​​Я в прошлые выходные писал заметку на тему педалирования крупными корпорациями шифрования. Причем шифрования всего и вся, даже dns запросов. Спасибо всем, кто высказал свое мнение. Ниже будет мое.

Я считаю, что крупнейшие корпорации активно продвигают шифрование, чтобы отсечь всех остальных от информации о пользователях и их поведении в сети. В 21-м веке самый ценный ресурс это big data о пользователях. С ее помощью можно эффективно манипулировать людьми.

Кто же эти все остальные? Да кто угодно - операторы связи, правительства со своими черными ящиками, производители железа и т.д. Мы с вами, которым не нравится, что телевизоры и холодильники отправляют отчеты о наших действиях через интернет непонятно кому.

А сейчас всё безопасно, всё зашифровано, все данные уходят куда надо, а юзеры ничего не могут проверить. Беспокоиться не о чем. Запустил ноут с виндой, она сразу связалась с кучей серверов в инете и что-то отправила.

Я еще давно заметил такую штуку. У меня привычка не выкидывать старые работающие смартфоны, а просто складывать их в коробочку. Если долго не включал смартфон, то при первом запуске он сильно лагает минуты 2-3 и если есть индикатор загрузки трафика, то видно, что активно используется сеть. Что он, зачем и куда отправляет сразу после включения не понятно.

На основании выше сказанного, мне забавно читать где-нибудь на хабре, как люди на полном серьезе обсуждают, как корпорации защищают их от злобных правительств, которые очень хотят за всеми следить, а когда все зашифровано - не могут. Но при этом не понимают, что власть корпораций страшнее правительств и государств, потому что правительство вам будут назначать корпорации с помощью всей информации, что они о вас собрали. И корпорациям выгодно, чтобы во главе стояли алчные и продажные люди, которых легко купить, запугать, заставить делать то, что нужно тем, кто их поставил. А что нужно корпорациям в первую очередь? Зарабатывать деньги любой ценой. Другой цели в капиталистической системе ценностей нет.

Я всегда с надеждой наблюдаю, когда правительствам удается дать отпор корпорациям. Пока государства живы, еще можно надеяться на какое-то человеческое существование. Но тенденции в современном мире не радужные. Практически не осталось государств, у которых есть возможность и политическая воля сопротивляться.

#мысли
​​Знакомлю вас с очередной системой мониторинга, которую пробовал лично. Речь пойдет про observium - https://www.observium.org. Смотрел на нее, когда еще не плотно сидел на Zabbix. Она показалась более простой в установке и настройке. На деле это так и получилось, но я в итоге заставил себя учить zabbix. Он мне видится более перспективным и функциональным. Но если вы не специализируетесь на мониторинге, то вам могут подойти любые другие продукты попроще.

Основа сбора метрик в observium - snmp. У него есть огромное количество готовых шаблонов под все популярные и известные устройства. Основной упор идет на сеть. Вообще, эта система мониторинга изначально позиционировалась для сети, хотя сейчас можно мониторить и другие устройства, системы (ставится агент, есть даже под windows), приложения (есть шаблоны под Apache, BIND, DRBD, Memcached, MySQL, NFS и др.). Полный список можно посмотреть на сайте - http://observium.org/supported_devices/

Простота настройки заключается вот в чем: Full autodiscovery of supported devices and metrics. Это цитата с сайта. То есть все автоматом находится, подцепляется и мониторится. Не надо вручную метрики добавлять.

Есть несколько редакций: Community, Professional, Enterprise. Продается годовыми подписками. К сожалению, очень много полезного функционала только в платных версиях. Например, подсчет трафика, доступ через api и др.

Посмотреть своими глазами на observium можно в демо - https://demo.observium.org. Учетка demo / demo.

Пробовал кто-нибудь observium? Я внедрил его в одной организации 6 лет назад и с тех пор больше не использовал.

#мониторинг
​​После небольшого перерыва в несколько недель, возобновились вебинары Zabbix на русском языке. К сожалению, новых и интересных тем нет. Крутят одно и то же, при этом вживую, не выкладывая повторы. Какой в этом смысл, я не понимаю. Записали бы один раз хороший ролик по теме и крутили бы его. Возможно рассчитывают на обратную связь или интересные вопросы после вебинаров.

🗓 В общем, во вторник, 20 апреля, в 10 утра будет вебинар от разработчиков:
Обзор системы мониторинга Zabbix

Если вам интересно, регистрируйтесь и смотрите - https://us02web.zoom.us/webinar/register/WN_AKM58UVvTpO9EZvdAO5tEQ
​​Менеджер паролей Bitwarden

В комментариях к одной из заметок мне посоветовали попробовать менеджер паролей, который можно захостить у себя на сервере и использовать в различных системах, приложениях, а так же шарить с другими пользователями. Идея показалась интересной, так что решил посмотреть на продукт.

Ставится относительно быстро и просто, так как все в докере и запускается через docker-compose. Подробная инструкция на сайте - https://bitwarden.com/help/article/install-on-premise/ Можно даже на винду поставить и должно нормально работать. В качестве базы данных там mssql. Из трудностей только то, что нельзя потестить без настройки подключения к smtp серверу. Чтобы зарегистрироваться даже в своей локальной веб панели, необходимо отправить себе на почту email с подтверждением регистрации.

После этого можно ставить расширение в браузер, приложение на смартфон и везде использовать свои пароли, подключившись к своему серверу. Продукт open source, исходники на github - https://github.com/bitwarden. Там все - сам сервер, приложения на десктопы и смартфоны, расширения для браузера. Если сильно переживаете за сохранность паролей, можете сами все проверить и собрать.

Бесплатных аналогов подобной штуки лично я вообще не знаю. Если кто-то пользовался, поделитесь тем, как оно. На вид все круто и удобно. Только сервер нужен, смотрящий в интернет, если хочется отовсюду иметь доступ к паролям. А это уже как-то не очень безопасно. Либо только через vpn открывать. Больше всего интересно, насколько это удобно в одновременном использовании разными людьми для совместного доступа к паролям.

Забыл добавить, что помимо self-hosted версии, есть и облачная. Но советовать не могу. Сам не доверяю такому формату хранения паролей. Даже в браузерах их не сохраняю.

#password
​​Поделюсь простой и маленькой утилитой, которую я ставлю почти всегда по дефолту на сервера, которые настраиваю сам, наравне с screen, htop и mc. Речь пойдет об iftop - утилита для просмотра загруженности сетевого интерфейса. Она обычно присутствует в стандартных репозиториях linux дистрибутивов. Для Centos живет в epel.

С помощью iftop можно быстро через консоль оценить, кто и как загружает сеть на сервере. В какую сторону и какой трафик идет, по каким портам.

Наиболее частые ключи, которые использую, следующие:

iftop -i ens18 -n -P

Ключ n отключает резолв ip адресов, а P добавляет в вывод информацию о задействованных портах, i, понятное дело, сетевой интерфейс, который слушаем.

Подозреваю, что подобных утилит существует великое множество. Но я как-то привык к iftop и ничего другого не использую. Меня устраивает полностью. А вы что используете для этих целей?

#утилита
​​Мне очень нравится утилита rsync для синхронизации файлов между Linux серверами. Очень долгое время с ее помощью я бэкапил и файловые сервера Windows, монтируя их по smb к любому linux серверу. А далее запускал локально rsync, копируя файлы с примонтированного диска. В таком режиме бэкап выполнялся медленно, а именно за скорость синхронизации я и предпочитаю rsync. Когда файлов на сервере сотни тысяч разница в скорости заметная.

Потом в какой-то момент попробовал установить и настроить rsync сервер напрямую в винде. Оказалось, что это сделать достаточно просто. Есть программа cwRsyncServer, с помощью которой можно запустить как службу rsync сервер на Windows.

Я не знаю историю этой программы. Не понятно, кто разработчик и где официальный сайт. Информация не гуглится. Много ссылок битых. Есть вот такая ссылка - https://itefix.net/cwrsync, но там программу предлагают купить.

У меня давно сохранен архив cwrsyncserver_4.1.0_installer.zip, который я использую в случае необходимости. Скачать его можно, например, вот тут. Ставится обычным инсталлятором, настройка такая же, как в Linux. Формат конфигов один в один, только пути другие.

Вот пример моего конфига для бэкапа двух файловых шар на винде:

uid = 0
gid = 0
use chroot = false
strict modes = false
hosts allow = 10.1.3.5 10.1.4.4
log file = rsyncd.log

[fp]
path = /cygdrive/e/final_projects
read only = true
transfer logging = yes

[documents]
path = /cygdrive/d/documents
read only = true
transfer logging = yes

Шары, соответственно, в директориях E:\final_projects и D:\documents. Авторизацию не настраиваю, ограничиваю просто по ip. Дополнительно на firewall имеет смысл ограничить доступ к порту rsync.

#утилита #backup
​​Я уже рассказывал про бесплатные возможности облачных сервисов от oracle и aws. Оказывается, свое публичное облако есть у ibm и там тоже есть некоторые бесплатные плюшки. Причем они вообще не требуют добавлять платежную карту, для того, чтобы воспользоваться сервисом. Достаточно простой регистрации с помощью email.

https://cloud.ibm.com

К сожалению, набор бесплатных сервисов очень скромный. Я внимательно все просмотрел и вот, что показалось лично мне сколько-нибудь интересным:

 🔹 Cloud Object Storage объемом 25GB с возможным трафиком в месяц - 10GB на вход и 5GB на выход. Чисто поиграться с S3 и может быть заливать бэкап какого-нибудь своего сайта.
 🔹 Container Registry объемом 0,5GB и pull трафиком 5GB в месяц. Хватит для каких-то своих небольших контейнеров, если, к примеру, учитесь что-то кодить и засовывать в контейнер с последующим деплоем из него. Правда я бы в этом случае использовал бесплатную учетку на docker hub.
 🔹 Text to Speech - сервис перевода текста в голос. Бесплатно дают перевести текст на 10000 символов в месяц. Вот эта штука мне особенно понравилась, не поленился потестить. Можно обычным запросом через curl отправить туда какой-то текст и тут же получить аудиофайл с содержимым. Жаль, нет русского языка :( Я с английским тестил. Через Linux WSL отправлял текст и тут же в винде слушал аудио.

Там много еще всего, можете сами посмотреть, если что. Полностью бесплатно дают 43 сервиса с некоторыми ограничениями. Много специфичных именно для ibm технологий. Ну и всяких современных, молодежных технологий типа сервисов API, Event Streams, Machine Learning, Push Notifications и т.д. Со всем этим можно познакомиться и попробовать поработать бесплатно.

Вообще, все это может быть полезно с целью знакомства и изучения работы облачных провайдеров. Учетные записи для доступа, запросы через api и т.д. Мне понравилась панель управления ibm. Показалась наиболее понятной и удобной из тех, что я видел. Быстро во всем разобрался и попробовал некоторые сервисы.

Если решите прикрепить пластиковую карту, на счет положат 200 баксов, которые можно потратить на тест остальных сервисов, в том числе и аренду виртуальных машин. Если по истечении этих бонусных денег все удалить, платить не придется. Можно, к примеру, на эти деньги кластер кубера погонять, если сильно хочется.

Подробно о бесплатных возможностях можно почитать по ссылке https://www.ibm.com/cloud/free

#бесплатно
​​Для работы с базами данных Mysql есть бесплатная программа Mysql workbench. Использую ее, если на сервере не установлен phpmyadmin. К последнему привык за столько лет, но сейчас уже сам не ставлю, обхожусь без него. Причин этому несколько, вот основные две:

1️⃣ За phpmyadmin надо отдельно следить, обновлять или прятать от посторонних глаз. Там регулярно находят уязвимости, а в интернете постоянно работают боты, которые эти уязвимости ищут. Если оставите доступным для всех phpmyadmin и не будете обновлять, рано или поздно вас ломанут через него.
2️⃣ Для phpmyadmin могут понадобиться дополнительные php модули, которых нет на сервере, а может и самого php. Придется ставить и настраивать.

Вместо него проще использовать Mysql workbench. Она стоит локально на ноуте и всегда доступна. Чтобы подключиться к базе, я просто делаю ssh туннель с удаленного сервера на свой ноут и подключаюсь через localhost и проброшенный локально порт удаленного сервера. Не буду сейчас останавливаться на настройке ssh туннелей. Их умеют делать все ssh клиенты. Информация легко гуглится. На самом сервере ничего делать не надо. Mysql может слушать только localhost и это не будет помехой.

В итоге у вас всегда под рукой возможность подключиться к mysql серверу, выгрузить дамп, посмотреть содержимое таблиц, открыть консоль mysql. Функционал больше, чем у phpmyadmin. Сначала может показаться все не очень удобным, но это вопрос привычки. Для простых действий на уровне администратора сервера не принципиально, чем к нему подключаться.

Бывают правда проблемы, если версии сервера и workbench сильно отличаются, или используется mariadb. Но обычно это не критично. А вы чем подключаетесь и управляете mysql серверами?

#mysql
▶️ Посмотрел на днях видео, которое показалось интересным: DevOps - причины и последствия.

https://www.youtube.com/watch?v=ar10jb9e9wA

К сожалению, звук в видео не очень, но я все равно его прослушал. Там devops инженер рассказывает путь от одиночного веб сервера на lamp до распределенной кластерной системы. По очереди проходит все этапы, по которым развивается проект от автоматизации с помощью ansible, до кластера kubernetes. При этом перечисляет инструменты, которые могут быть задействованы в процессе роста.

Видео будет интересно как раз для тех, кто сейчас админит lamp (Linux-Apache-MySQL-PHP) но хочет продвигаться дальше. В конце много интересных вопросов из практики, которые лично мне показались полезней самого рассказа, который занимает первую треть видео. Остальное - общение и вопросы аудитории.

#видео #devops
​​Для тех, кто много работает с json, yaml и hcl может быть полезен сервис https://www.hcl2json.com/

Он собран на базе:
 https://github.com/ghodss/yaml
 https://golang.org/pkg/encoding/json/
 https://github.com/hashicorp/hcl

С его помощью можно конвертировать эти форматы один в другой. А еще он покажет ошибку в синтаксисе или форматировании, если где-то что-то потеряли или отступ неправильный сделали.

#сервис #devops
Пародия на современные подходы к разработке и деплою в прод - Let's deploy to production.

https://www.youtube.com/watch?v=5p8wTOr8AbU

Звук со всем известного испанского ролика, а субтитры на английском. Несмотря на то, что тема заезженная, как и ролик, я даже смотря один немного посмеялся, особенно в конце, когда речь зашла о performance review на следующей неделе.

Коротко о содержании ролика можно судить по этим фразам:

- This stuff is only halfway done, it's unstable.
- Let's do stability later, first we need to deliver. This is an agile company. So, let's deliver quick.

- Roll back everything! Restore the backups!
- We don't have backups. It was a "nice to have" in the planning. We brought this issue up every week

и т.д.

#юмор
Я вчера прочитал замечательную новость с Cnews - Крупного разработчика Linux изгнали из сообщества за издевательские эксперименты над пользователями.

https://www.cnews.ru/news/top/2021-04-22_krupnogo_razrabotchika_yadra

Заголовок совершенно не отражает суть новости, а в содержимом основное так размыто, что не сразу понимаешь, что на самом деле произошло. А было вот что.

Некоторые люди из Университета Миннесоты решили провести эксперимент. Они отправили патчи в ядро с уязвимостями, которые сознательно добавили. И сделали это несколько раз. Их патчи одобрили и отправили в ядро, не заметив эти уязвимости. А когда эти сотрудники сознались в том, что сделали, на них обиделись и решили вообще исключить их из списка тех, чьи патчи будут приниматься.

Нам всем, по большому счету, должно быть все равно, кто там на кого обиделся. Суть не в этом. Я знаю, что многие как-то по особенному относятся к открытому ПО, считая его надежным, так как его гипотетически может проверить сообщество и любой желающий.

Что же мы видим на практике? Даже такой критически важный объект операционной системы Linux, которую использует практически всё современное IT, принимает патчи с уязвимостями. И никакой особой проверки нет. Сколько таких дыр туда могли завести ранее? Никто не знает. Я почему-то уверен, что завозили и не раз. Случайно или по чьему то умыслу, не суть.

Если уж с ядром такие события случаются, то что можно говорить об остальном открытом ПО. Никакого особого доверия к нему быть не может. Вряд ли кто-то специально сидит и что-то там проверяет. Выборочно какие-то продукты могут получать аудит безопасности. Но в основной своей массе, скорее всего, это ПО никто специально не проверяет.

#мысли
​​Мне недавно попала в руки старая уличная камера, которая полностью исправна. Нужно было ее перенастроить. Нашел быстро документацию в интернете. Надо было подключиться через браузер. Ну а дальше, как многие уже могли догадаться, начались танцы с бубнами.

Чтобы попасть в веб интерфейс, нужно установить какой-то софт в систему и зайти с помощью IE 10-й версии. Нашел в итоге виртуалку на Win7 и IE 10, но это было не очень быстро и просто.

С такими ситуациями частенько сталкиваешься, когда работаешь с оборудованием. Меня спасает только то, что где-нибудь найдётся старая виртуалка, которой можно воспользоваться.

А как вы выходите из положения? Может есть готовые решения на этот счет? Какая-нибудь сборка браузера или виртуалка, специально подготовленная под такие задачи. Сейчас современные браузеры и системы вообще отказываются работать со старыми версиями tls. Так на кучу устройств зайти без плясок с бубном не получится. Эти железки теперь выбрасывать что ли полагается?
​​Я познакомился с очень крутой бесплатной программой для резервного копирования Kopia - https://kopia.io Постараюсь кратко рассказать ее возможности и то, что мне понравилось больше всего.

Итак, в первую очередь это open source продукт - https://github.com/kopia/kopia. Поддерживает все популярные системы (Win, Lin, Mac). Есть как GUI, так и CLI. И это очень круто, так как расширяет область применения до бесконечности. Хочешь автоматизируй скриптами, не умеешь - ставь GUI под виндой и тыкай мышкой.

В качестве хранилища для бэкапов поддерживает основных облачных провайдеров (S3, GCS, Azure) а так же webdav, rclone, локальное хранилище и sftp. Последнее особенно понравилось. Можно взять любой сервер с ssh и организовать там репозиторий для бэкапов. Также есть возможность настроить свой Repository Server, который будет выступать в качестве прокси к основному репозиторию, что позволит более гибко управлять правами и доступом.

Я лично проверил следующую модель бэкапов. Взял linux сервер в качестве репозитория, настроил на нем доступ к ssh по ключам. Взял Windows, установил Kopia с GUI, подключил репозиторий по sftp и настроил создание бэкапов определенной директории в этот репозиторий.

Затем взял еще один Linux сервер. Установил на него Kopia (просто скачал бинарник) и подключил этот же репозиторий. Настроил в него бэкап данных с этого сервера. В итоге я имею 2 разных сервера, которые бэкапят данные в единый репозиторий. С обоих серверов есть доступ к бэкапам друг друга.

Бэкапы шифруются, настройки хранятся в json. Есть возможность настроить расписание, исключения, время хранения снепшотов. В общем, все, что нужно для построения распределенной системы бэкапов разнородных систем. И все это бесплатно. Работает вроде неплохо. Мне очень понравилось. В первую очередь возможностями кастомизации и применения во множестве различных сценариев.

Рекомендую обратить внимание на Kopia и сохранить инфу на память. Ниже 2 примера. Работа в GUI:
https://www.youtube.com/watch?v=sHJjSpasWIo

Работа в CLI:
https://asciinema.org/a/ykx6uzEhKY3451fWEnX9nm9uo

#backup
​​У меня строительный сезон начался, так что последнее время очень много ездил на машине и слушал различные видео. Не могу сказать, что попалось что-то очень интересное, но на парочку роликов хочу обратить ваше внимание.

Мониторинг в высоконагруженных (и не только) проектах: сравнительный анализ существующих решений
https://www.youtube.com/watch?v=Ya_XP-V8E5s
Видео от известного аутсорсера ITSumma, залито 20 октября 2020 года. В видео дается обзор различных систем мониторинга, а прям очень предметно с примерами разобраны Zabbix, Cacti и Graphite.

Я слушал и ушам своим не верил, какой кактус и графит в 2020? Где Prometheus? Уже где-то к середине видео заподозрил, что с ним что-то не то. За рулем неудобно было разбираться, когда дослушал, полез смотреть описание к видео. Оказалось, это запись от 2015 года. 6 лет прошло, а как все изменилось в IT. В общем, это видео для тех, кто хочет вспомнить, какой был мониторинг 6 лет назад :)

Второе видео - Создание Web Server'а c Zero DownTime и Green/Blue Deployment.
https://www.youtube.com/watch?v=xRuG2WDACK8
А это наглядный пример того, как выглядит настройка серверов в современном мире. Автор запускает условный apache и сайт на нем на AWS. Подразумевается отказоустойчивый геораспределенный проект с нулевым простоем даже во время обновлений кода и ПО.

Infrastructure as code в чистом виде, как он есть сейчас. Никаких консолей и конфигов. Наглядный пример чему стоит сейчас учиться, какие подходы изучать, если хотите работать с инфраструктурой современных веб проектов.

#видео #devops
Перевел и оформил в отдельную статью запись из официального блога Zabbix на тему того, что занимает место в базе данных. Мне она показалась очень полезной с нетривиальными примерами запросов к базе, которые, к примеру, я сам никак не смог бы придумать ввиду отсутствия должного опыта и навыка работы с sql запросами.

Моя статья с переводом и примерами - https://serveradmin.ru/chto-zanimaet-mesto-v-baze-dannyh-zabbix/
Оригинал - https://blog.zabbix.com/what-takes-disk-space/13349/

Надеюсь вам тоже пригодится эта информация. Если используете Zabbix, то пригодится 100%. Я поэтому и перевел, так как сразу полез запросы делать на основе статьи в свои серверы мониторинга с пухлыми базами. Нашлись жирные айтемы и хосты, занимающие много места, с бесполезными и ненужными метриками. Почистил немного базы и поотключал лишнее.

#zabbix #мониторинг
​​Существует любопытный инструмент для автоматизации выполнения и планирования задач - Rundeck. Эдакий продвинутый планировщик cron для большого количества задач. С его помощью можно управлять задачами на множестве узлов. Все управление работает через веб интерфейс.

Для того, чтобы быстро познакомиться и попробовать Rundeck, можно запустить его в докере.

docker run --name rundeck -e RUNDECK_GRAILS_URL=http://10.20.1.23:4440 -p 4440:4440 -v data:/home/rundeck/server/data rundeck/rundeck:3.3.10

Не забудьте поменять url на свой. Без его корректного указания работать веб интерфейс не будет, так как там работает редирект на этот url. Учетка по умолчанию admin / admin. Можно сразу заходить и пробовать, как работает эта штука.

Чтобы быстро понять принцип действия, рекомендую добавить новый проект. В нем создать job. В качестве ноды для установки выбрать локальный сервер. Добавить первый шаг для выполнения в виде какой-то bash команды, например df -h и запустить этот job. Увидите результат работы команды в виде консольного вывода в веб интерфейсе.

Ну а дальше логика следующая - добавляются новые ноды, создаются задачи с множеством шагов и условий, настраивается расписание и т.д. Просто рай для скриптоделов-велосипедистов. Можно копировать файлы, запускать плейбуки ансибла, дергать внешние урлы и т.д. Для всего этого работают оповещения.

Если честно, я до конца не понял, где это может понадобиться сейчас. У меня сложилось впечатление, что это инструмент из прошлого, когда еще только начинали строить системы ci/cd. Сейчас мне кажется, эти велосипеды на bash скриптах заменили всякие Jenkins / Gitlab / Teamcity и т.д. Там в целом все то же самое можно делать, но с упором на разработку. А тут инструмент общего назначения. Например, чтобы дергать скрипты бэкапа в том случае, если нет единой системы.

Кто-нибудь использовал Rundeck? Какие задачи с его помощью решали?

#утилита #devops
​​Полезная информация для тех, кто до сих пор использует Windows 7 или Windows Server 2008. Несмотря на то, что их официальная поддержка уже завершена, обновления по-прежнему выходят, но недоступны в открытом доступе.

Существует известный пак обновлений от simplix - UpdatePack7R2, где интегрированы все свежие обновления для перечисленных систем. Скачать можно с сайта автора - https://blog.simplix.info/updatepack7r2/
Обсуждение на форуме oszone.net.

Когда-то давно я этот пак использовал в работе, чтобы быстро накатить на чистую винду без обновлений все свежие обновы. Если делать это через панель управления, то могло уйти пол дня. Из этого пака они ставились значительно быстрее.

#windows
​​Думаю, все хорошо знают такой продукт, как Grafana. Оказывается, у них есть облачная версия сервиса с бесплатным тарифным планом. Причем там такие лимиты, которых хватит для некоторых полезных применений.

https://grafana.com/products/cloud/

Теперь рассказываю, как можно с пользой использовать этот сервис. Если у вас есть мониторинг от Zabbix, а тем более несколько серверов, вы можете без проблем установить плагин для Zabbix в графану. В облаке его не будет в списке доступных плагинов, но если перейти на https://grafana.com/grafana/plugins/alexanderzobnin-zabbix-app/ выбрать install, то там появится возможность установить его в свое облако.

Ну дальше настраиваете Data Source для своего Zabbix сервера, или даже нескольких. И делаете необходимые вам дашборды. К примеру, я все свои Zabbix сервера собираю на один дашборд и вывожу информацию по триггерам. Это позволяет быстро оценить проблемы на всех серверах, что я обслуживаю. Для этой задачи ограничения бесплатной версии вообще не доставляют неудобств.

Подробнее об этом рассказываю в отдельной статье - https://serveradmin.ru/nastrojka-intergaczii-zabbix-v-grafana/ В ней как раз можно воспользоваться описываемым облаком. Очень удобно. У меня для этих целей своя графана настроена, но если бы раньше узнал, что можно бесплатной воспользоваться, сделал бы это.

#zabbix #grafana #мониторинг
Обновил и доработал свою старую статью про резервирование основного канала в интернет в Mikrotik с помощью скрипта. В качестве резервного канала используется usb модем с lte подключением.

Подобное решение я использовал периодически со стародавних времен. Хоть и слышал комментарии, что это не очень удобно и можно по-другому делать. Но по факту меня предложенное решение полностью устраивает и решает поставленные задачи.

Работает резервирование следующим образом. Берутся 2 произвольных ip адреса в интернете и пингуются каждый через свой канал. Как только основной канал перестает пинговать, считает, что на нем нет интернета. Если в это же время на резервном пинги проходят, происходит переключение на него. Смена канала доступа в интернет происходит изменением дефолтного шлюза.

Параллельно с переключением канала я разрываю все tcp и udp соединения, а так же пишу сообщение в лог, чтобы оно улетело на удаленный syslog сервер и там обработалось системой мониторинга.

Единым скриптом все перечисленное выше сделать проще всего. Подробнее описано в статье - https://serveradmin.ru/rezervnyj-wan-kanal-v-mikrotik-i-pereklyuchenie-na-nego/

#mikrotik