ServerAdmin.ru
26.5K subscribers
183 photos
24 videos
7 files
2.46K links
Авторская информация о системном администрировании.

Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed

Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Download Telegram
Я неоднократно уже упоминал на канале про ELK Stack. Это достаточно громоздкая, тяжелая в плане ресурсов и не очень простая в плане настройки система хранения и анализа логов. Но она очень функциональная и полезная. Эту услугу можно купить как сервис, а не разворачивать и настраивать на своих мощностях. 

Для теста можно взять 14-ти дневный триал и посмотреть, как там всё работает. Если понравится, можно перейти на платный тариф. Самый простой стоит 16$ в месяц. Для начала хватит. Это дешевле стоимости виртуальных машин, которые вам понадобятся, если будете арендовать VPS под них. Для небольшого проекта это однозначно выгоднее, чем устанавливать и поддерживать свой сервер. 

У меня есть статья с пошаговым руководством, как всё запустить и потестировать работу с использованием триала. Для примера я собираю логи веб сервера от сайта на bitrix и отправляю в elastic cloud.

https://serveradmin.ru/bystraya-nastrojka-elastic-stack-v-elastic-cloud-dlya-sbora-logov/

#elk #devops
​​Делюсь с вами любопытным сервисом, которым можно пользоваться бесплатно с некоторыми ограничениями. Мне понравилась его идея, хотя она на поверхности и не сказать, что закрывает острую потребность. Тем не менее мне он показался полезным. Авторы называю его Cron Job Monitoring.

Сервис - https://healthchecks.io. В него можно отправлять вывод скриптов или кроновских задач. Чтобы долго не рассказывать, просто покажу на примере. Возьмем утилиту certbot, которая регулярно запускается на сервере по крону. Зарегистрировавшись в healthchecks вы получаете для каждого задания ссылку вида https://hc-ping.com/dad1acc5-2e1e-47cb-a55a-ff45bee47537, по которой можете обращаться к сервису.

Теперь делаем простой скрипт:

#!/bin/sh
/usr/bin/certbot renew
curl -m 10 --retry 5 https://hc-ping.com/your-uuid-here/$?

Мы запускаем certbot, а статус работы команды отправляем в сервис. Напомню, что $? в баше выводит результат работы команды: 0, если все ОК, и 1, если ошибка.

Если у вас будет ошибка, то healthchecks зафиксирует это и отправит уведомление на почту. Результаты работы скрипта будут храниться в healthchecks. Помимо кодов ошибок, можно и текст вывода направить туда же:

#!/bin/sh
m=$(/usr/bin/certbot renew 2>&1)
curl -fsS -m 10 --retry 5 --data-raw "$m" https://hc-ping.com/your-uuid-here

В таком случае в сервис улетит весь вывод команды. Ну и так далее. Думаю, идею вы поняли. У healthchecks есть много всяких интеграций, в том числе с мессенджерами. На бесплатном тарифе можно получить 10 ссылок для 10-ти задач. А хранение истории ограничено 100 записями для каждой задачи.

Сервис будет полезен для каких-то одиночных скриптов бэкапа на сервере, или того же certbot, который у меня много где работает. Хотя лично я всё замыкаю на Zabbix и большой потребности в подобном функционале не испытываю, но кому-то может пригодится.

#сервис
Всех с пятницей и окончанием рабочей недели. Хочу порекомендовать вам посмотреть на досуге любопытный канал, который я недавно нашел и посмотрел несколько видео оттуда. Например, вот это.

https://www.youtube.com/watch?v=avl5rVi-HNo (ссылка тут для тематического превью к заметке 😁)

Автор, судя по всему, как-то связан с IT, так как много роликов из этой сферы, но не только. Я пока ехал с выставки малоэтажного домостроения, посмотрел его ролик, как собирать электрощит для частного дома и вынес для себя несколько полезных советов. Например, повесить на отдельный автомат холодильники. У меня их будет два. Это удобно, когда надо будет обесточить дом во время длительного отъезда, а холодильники оставить включенными.

Видео там на разные тематики, но где-то половина айтишные. Мне понравилась подача материала и сам автор. Есть ролики на тему мотивации, распорядка дня и т.д. Мне близка озвученная позиция.

По нашей теме тоже есть, что посмотреть. Например, наглядно показано как настроить доступ к локальному nextcloud, расположенному дома без внешнего IP, соединив его по vpn с арендуемой виртуальной машиной. Далее через nginx проксируем запросы на этот nextcloud по vpn, настроив доменное имя и https. Для меня всё это не новость, так как я так же к домашним серверам прокидываю доступы, но если вы не умеете это делать, то в видео наглядно все показано и доступно объяснено.

К сожалению, роликов не очень много и я понимаю, почему. Они очень качественно сделаны и отлично проработаны. Времени записать подобный материал надо много. Но с помощью youtube его не получится монетизировать и как-то окупить. А на одном энтузиазме регулярно записывать такие видео не будешь.

Если вы знаете какие-то классные каналы IT тематики, прошу поделиться. Мне кажется, я в ютубе уже все, что можно, разыскал и посмотрел по нашей теме. Люблю что-то познавательное и развивающее в русле своей профессии смотреть, но в ютубе, к сожалению, эта тематика слабо представлена.

#видео
​​Моя эпопея с Proxmox 7 не закончилась. Он продолжает периодически жестко зависать, выпадая в Kernel Panic. Спасает только ресет. Мой домашний сервер под тестову лабу практически недееспособен. Подводит в самый неподходящий момент. Как же хорошо, что я больше ничего не обновил. Продолжаю исследование. Виснет при дисковой активности, но не всегда и не сразу.

На официальном форуме proxmox видел мнение, что виной всему значение aio, которое раньше было native по дефолту, а теперь io_uring. Это одно из значительных нововведений новой версии. Есть сообщения, что возврат на native решает проблему. Речь идёт вот о чем.

В конфиге VM есть описание диска. Конфиг тут /etc/pve/qemu-server/133.conf. Нужно к параметру диска добавить в конец aio=native, примерно так:

scsi0: raid10:vm-133-disk-0,size=50G,aio=native

Проверить параметр можно через консоль:

qm showcmd 133 --pretty | grep aio

В выводе увидите реальное значение параметра. Если вручную ничего не добавлять, то будет io_uring. Ваша задача заменить на native.

Я попробовал и пока гипервизор ни разу не завис. К сожалению, это не показатель. Надо больше времени на тесты. Я загрузил три виртуалки и на всех трех запустил тесты дисков на длительный срок. Ничего не зависло. Раньше где-то в 80-90% зависало. Буду дальше наблюдать.

#proxmox
​​Отличительной особенностью Proxmox от других систем виртуализации является то, что у него в дефолтной поставке есть возможность бэкапить виртуальные машины. Причем поддерживаются не только простые бэкапы, но и некоторое управление хранением. Это как раз то, что отличает его от других систем, где вопрос бэкапа нужно решать сторонними средствами.

Для того, чтобы правильно настроить политику хранения, есть удобный калькулятор, где наглядно показано, какие именно бэкапы будут сохраняться при той или иной схеме - https://pbs.proxmox.com/docs/prune-simulator/

Например, я чаще всего использую схему, когда хранятся 7 последних дневных архива, 4 недельных и 6 или 12 месячных. То есть мы можем откатиться назад на любой день в течении последних 7-ми дней. Далее с 8-го по 30-й день у нас есть только 4 недельных бэкапа. А еще дальше только месячные бэкапы.

Для реализации такой схемы делаются следующие настройки параметров Backup Retention в Storage, куда будут складываться бэкапы:
Keep Daily: 7
Keep Weekly: 4
Keep Monthly: 6
Остальные значения не указываем.

Дальше настраиваете задание бэкапа, а хранилище будет автоматически их чистить.

#proxmox
​​Собираю очередную подборку уже опубликованных в канале заметок, объединенных одной темой. Сегодня будет подборка систем мониторинга - #мониторинг.

Munin - небольшой локальный мониторинг сервера или виртуальной машины. Данные хранятся локально в rrdtool, субд не нужны. Написан на perl, так что очевидно, что это очень старая система мониторинга, но при этом до сих пор поддерживается и развивается.
Netdata - достаточно функциональный мониторинг с очень простой установкой. Функционал расширяется за счет готовых collectors. Руками ничего допиливать не надо. Данные со своих северов можно отправлять в бесплатный облачный dashboard и там просматривать.
LibreNMS - мониторинг с упором на сетевое оборудование. Модный, современный, молодежный. Можно запускать в Docker, есть интеграция с Grafana, умеет хранить данные в InfluxDB. Под капотом полноценная система с автообнаружением, api, оповещениями, LDAP и т.д.
Monitorix - маленьких, легковесный мониторинг для одиночных систем. Написан на perl, данные хранит в rrd. Для всех метрик автоматически генерирует png картинки. Мониторинг очень старый, но поддерживается и развивается. Есть много интеграций с софтом. Основная фишка - очень легковесный.
Veliam - система управления инфраструктурой 3 в одном: мониторинг, helpdesk система и удаленный доступ к серверам и рабочим станциям. Продается как saas, так и self-hosted версия. Есть полнофункциональная бесплатная лицензия на ограниченное количество хостов. Собирает метрики без агентов, по ssh, wmi и snmp. Серверная часть ставится на Windows.
Observium - полнофункциональная система мониторинга с автообнаружением, готовыми интеграциями с софтом и железом, api и т.д. Упор сделан на сетевые устройства и сбор метрик по snmp, но обычные сервера тоже поддерживает. Руками допиливать не надо, всё из коробки работает.
Newrelic - очень крутой и навороченный мониторинг всего и вся, в том числе и серверов. Продается по подписке saas, но есть бесплатный тариф для нескольких серверов. Отличительная особенность - очень функциональные и удобные визуализации, которых больше просто нет ни у кого. Ресурсов сервера кушает много для своей работы.

Если у вас есть на примете еще какие-то интересные системы мониторинга, о которых я не делал заметок, поделитесь информацией о них. Zabbix и Prometheus не в счет 😄. Их и так все знают. Сам знаю и некоторое время использовал Nagios. Надо будет заметку написать. Как-то проводил собеседование с админом, который построил мониторинг на базе Nagios сотен, если не тысяч хостов. Подробности уже забылись, но помню, что число меня очень впечатлило. Немного обсудил с ним эту тему.

#подборка #мониторинг
Я вчера вечером шапочно познакомился с очень любопытным сервисом по автоматизации рутинных задач с помощью API различных сервисов. Тема вроде бы не айтишная, но набор возможностей позволяет его использовать и в наших делах. Постараюсь на пальцах объяснить, как эта штука работает.

Речь идёт про n8n.io - https://n8n.io. Это сервис, который может работать по saas подписке, либо быть развернут на вашем собственно сервере, в том числе через докер. Я развернул у себя:

docker run -it --rm --name n8n p 5678:5678 \
 -v ~/.n8n:/home/node/.n8n n8nio/n8n

N8n имеет встроенную интеграцию по api с огромным количеством сервисов. Список можно тут посмотреть - https://n8n.io/integrations. Он может откуда-то забирать информацию, как-то обрабатывать и дальше куда-то складывать. Например, вы можете создать несколько простых форм для заполнения. Затем эти данные могут автоматически заноситься в таблицу google docs, вам может отправляться емейл сообщение с заполненными данными, а в мессенджер отправляться информация о событии.

Другой пример. Вы можете ходить по api в zabbix и забирать какие-то нужные вам данные. Например, некоторые бизнес метрики и автоматически записывать их в какую-то xlsx таблицу, чтобы потом раз в месяц в удобочитаемом виде кому-то передать.

Сервис умеет складывать данные в S3, ходить куда-то по sftp или ftp. Есть интеграции со всякими треллами и ноушенами, мессенджерами и т.д. Возможности обширные, настраивается всё через веб интерфейс и человекочитаемый конструктор.

Мне показалось, это особенно удобно будет каким-нибудь сеошникам или маркетологам, которые не умеют сами скрипты делать, но при этом им надо со всяких метрик собирать данные. N8n им может очень сильно упростить жизнь. Либо банально можно какой-то сайт проверять и слать себе оповещение в телегу, когда появится новая статья.

Пару примеров можно на видео посмотреть:
◽️ Обработка данных, полученных через веб формы - https://www.youtube.com/watch?v=rn3-d4IiW44
◽️ Проверка погоды и отправка сообщения в мессенджер в зависимости от результата - https://www.youtube.com/watch?v=QhTsOMvqLuo

Еще примеры можно посмотреть на самом канале проекта - https://www.youtube.com/c/n8n-io/videos

Мне очень понравился сервис. Захотелось кучу всего автоматизировать, но по факту лично у меня нет большой нужды, хотя кое-где пригодилось бы прямо сейчас. Ко всему прочему еще и времени свободного нет, чтобы спокойно сесть, разобраться и что-то автоматизировать.

#автоматизация
​​ Какой шрифт в терминале предпочитаете? Я последнее время частенько стал пользоваться встроенным терминалом Windows. Обратил внимание на его шрифт. Очень понравился. Называется Cascadia Mono. Это бесплатный шрифт - https://github.com/microsoft/cascadia-code.

Я установил этот же шрифт в свой любимый менеджер ssh подключений XShell 5-й версии. Эта версия была полностью бесплатной для персонального пользования без каких-либо ограничений. До этого года два использовал шрифт Consolas. Мне он нравится, но Cascadia Mono показался приятнее.

Перед тем, как использовать Consolas долго выбирал шрифт, пробовал разные, ничего не нравилось. Смотрел на чужие терминалы, перебирал цветовые схемы. Особенно долго возился с цветом в MC. Он то контрастный очень, то ничего не видно, то глаза выжигает.

В итоге как-то все организовал и не трогал несколько лет. Где-то месяц назад шрифт поменял на Cascadia Mono. Думаю, еще несколько лет ничего менять не буду.

#разное
​​Всем привет. Хочу прорекламировать сайт по продаже б.у. серверов https://ittelo.ru/ Свой первый б.у. сервер я купил как раз у них то ли в 2014 году, то ли в 2015, когда резко упал рубль и покупать новые сервера стало накладно.

Тогда особо не было рынка этих серверов и выбирать было не из кого. Насколько я помню, они были одни из первых. В то время меня удивило, что сначала присылают сервер, ты его тестируешь 2 недели и только потом оплачиваешь, если все в порядке. Чтобы тебе привезли сервер, достаточно было подписать договор, проставить печати, подписи и отправить скан. Сейчас таких условий нет, отправка только после оплаты. Доставка бесплатная.

Заказал сначала сервер, потом через месяц у них же к нему купил рейд контроллер. Консультант подсказал, какой 100% подойдет. На все по кругу сэкономил примерно вчетверо по сравнению с покупкой нового сервера. Это было круто. С тех пор я купил больше б.у. серверов, чем новых. И все они до сих пор работают. То есть у меня вообще не было проблем с б.у. серверами, хотя покупал я их много и у разных поставщиков. Обычно просто выбирал там, где были подходящие модели и комплектации.

Прошло уже больше 6 лет с открытия https://ittelo.ru/, команда растет, развивается, расширяется ассортимент и штат сотрудников. Сейчас у них бесплатно можно получить консультацию it-архитектора, поможет спроектировать все по-уму. 

Так что, если в поисках сервера, обратите на них внимание.

#реклама #текст_мой #ittelo
Ранее на канале я уже упоминал про youtube канал ADV-IT. Там очень много качественных уроков по IT тематике. На днях я посмотрел двухчасовой стрим с автором канала и хочу с вами поделиться основными моментами, которые я вынес из него.

Для начала кратко расскажу об авторе, devops инженере из Канады, Денисе Астахове. Он родился в Севастополе, потом переехал в Израиль, прожил там 19 лет, отучился на программиста, но по специальности не смог устроиться, да и потом не работал. Начинал грузчиком, потом удалось устроиться в Intel на какие-то начальные менеджерские позиции, не связанные напрямую с IT. Мечтал уехать жить в англоязычную страну и сделал это, переехав и устроившись на работу в Канаде.

К 36 годам он имел опыт системного администрирования, преимущественно Windows. Linux почти не знал. В это время он понял, что хочет стать девопсом и начал целенаправленно учиться. Это к вопросу о том, когда можно зайти в IT. Было бы желание. Сейчас ему 40+, женат, двое детей. Живет и работает в Канаде, ему там нравится. Канал на youtube просто хобби. Он любит записывать уроки, делиться информацией. Лучшей мотивацией для него являются благодарности, которые он получает.

Теперь про само интервью. Ниже выжимка из него. Это не мои мысли, а Дениса, на основе его опыта и приобретенного в Канаде кругозора в IT сфере.

Стать девопсом никогда не поздно, было бы желание.
Devops инженеру обязательно нужно хорошо работать хоть с каким-нибудь облачным провайдером. Сейчас явная тенденция на переезд в облака всех и вся. Без этого навыка вы никуда не устроитесь.
Для старта карьеры в Devops достаточно начальных знаний Linux. Он привел в пример какой-то курс, вроде от RedHat - Linux basic или что-то в этом роде. Дальше уже по ходу дела будете разбираться.
Программировать девопсу не обязательно. Он в своей ежедневной работе обходится башем и очень редко пайтоном.
Zabbix, Nagios и прочие системы мониторинга сейчас никому не нужны и не пользуются популярностью. Все юзают Prometheus.
Зарплатный потолок девопса выше, чем у программиста. Так что в целом это более перспективное направление.
Уроков на его канале достаточно, чтобы освоить уровень Devops Junior. Ему постоянно пишут благодарности в комментариях люди, которые либо сменили работу, либо получили повышение после того, как освоили информацию из его уроков.
Денис не актуализирует свои сертификаты, у которых вышел срок действия. Говорит, что влом и ему это не нужно. Лучше какой-то новый получит.
Сейчас огромный спрос на девопсов. Он каждый день получает предложения рассмотреть вакансию через LinkedIn.
На своей работе Денис обучается и повышает скилл в рабочее время. Личное время на это не тратится. Там, где он работает, это обычная практика. Всё знать невозможно, а новые задачи подразумевают время на изучение технологии или инструмента.

Вроде бы все основное, что запомнил. Слушал днём в машине, так что не конспектировал. Записал по памяти уже вечером.

Сам стрим - https://www.youtube.com/watch?v=XrXX3ER8sOU

#видео
​​Настроил себе для личных нужд менеджер дашбордов для браузера (это я так его сам обозвал) - Heimdall Aplication Dashboard - https://heimdall.site. Основная идея его выступать в роли стартовой страницы для браузеров. У меня много устройств и браузеров используется, так что актуально.

Мне Heimdall понравился по нескольким причинам:
1. Нет привязки к браузеру, всё хранишь у себя.
2. Поддержка пользователей, так что можно собирать разные дашборды для разных пользователей. Это может быть полезно для командной работы.
3. Есть интеграция с различными сервисами по API. Можно на дашборде выводить некоторую информацию по приложению. Я еще не настраивал.
4. Лично мне понравилось, как это всё выглядит.
5. С помощью тэгов можно собирать различные дашборды со ссылками под разные нужды.

Ставится всё это в том числе в докере (я так поставил):

docker run --name=heimdall -d -v ~/heimdall:/config \
-e PGID=1000 -e PUID=1000 \
-p 8080:80 -p 8443:443 linuxserver/heimdall

Внутри всё работает на обычном веб сервере и php, на базе фреймворка Laravel. Так что можно и без докера запускать.

#сервис #selfhosted
​​У меня на канале уже как-то была заметка про Draw.io. Думаю, этот сервис по рисованию всевозможных схем не нуждается в отдельном представлении. Оказывается, его можно развернуть у себя. Есть репа на гитхабе, где он упакован в докер.

https://github.com/jgraph/docker-drawio

Запускаем его у себя и пользуемся локально:

docker run -it --rm --name="draw" \
-p 8080:8080 -p 8443:8443 jgraph/drawio

Возникает закономерный вопрос, зачем это надо, если схемы можно сохранять у себя, а само приложение не важно где запускается. В целом, да, так и есть. Но лично я обратил внимание на то, что draw.io, запущенный локально у меня на сервере, более отзывчивый. Меньше задержек, быстрее работает. Я последнее время постоянно стал им пользоваться, так что разница заметна.

Если нет большой нужды, то постоянно держать контейнер запущенным не обязательно. Можно останавливать или прибивать после того, как всё нарисуешь.

Надо будет отдельную рубрику завести под софт для рисования схем. Есть большой простор для творчества и выбора инструментов. Вы где схемы рисуете? Я, как уже сказал, в основном в Draw.io, раньше в Dia рисовал.

#схемы
​​Продолжаю тему консольных инструментов. Сегодня расскажу про суперпопулярную утилиту curl. С её помощью можно отправлять запросы по различным протоколам. Чаще всего она используется для HTTP запросов к веб серверам. А еще чаще для взаимодействия с различными API.

Я составлю набор примеров использования curl, которые чаще всего востребованы, чтобы можно было сохранить заметку и быстро к ней возвращаться в случае необходимости.

Просмотр редиректов и заголовков. Очень удобно использовать, когда настраиваешь редиректы на веб сервере и хочешь убедиться, что всегда срабатывает только один редирект, не два. Это нередкая ошибка. Если не проверить, то через браузер не заметно, что было два редиректа, а не один. Например, сначала на https, а потом на url со слешом на конце. Надо все редиректы в один объединять.

curl -I -L http://google.com

Скачать файл и сохранить под другим именем. Иногда хочется сразу сохранить файл с заданным тобой именем, а не тем, с которым он хранится на веб сервере.

curl -o rockylist.txt https://mirror.yandex.ru/rockylinux/imagelist-rocky

Игнорирование ошибок сертификатов. Очень актуально, когда тестируешь внутренние сервисы, где используются самоподписанные сертификаты.

curl --insecure https://10.20.30.1/test_app

Передача заголовка. Например, вам может понадобиться обратиться к какому-то веб серверу по IP, где крутится множество доменов. Чтобы вам ответил нужный домен, передайте его в заголовке.

curl -I -H "Host: ya.ru" http://87.250.250.242

POST запрос в формате JSON. Это нужно для работы с API. Например, с различными нодами криптовалют. В пример сразу же добавлю авторизацию.

curl -H 'Content-Type: application/json' --data '{"jsonrpc":"1.0","id":"curltext","method":"getblockchaininfo","params":[]}' http://username:password@10.20.1.18:8232/

Подмена DNS имён. Работает аналогично правке локального файла hosts. Чтобы не делать этого каждый раз, можно подменять dns записи сразу в curl. Отправляем запрос к ya.ru на localhost.

curl http://ya.ru --resolve ya.ru:80:127.0.0.1

Указание user-agent. Иногда нужно, чтобы было удобно быстро погрепать логи по разным запросам и юзерагентам.

curl -I http://localhost --user-agent "I am CURL v.01"

Это всё, что я вспомнил из основного использования мной этой утилиты. Если есть еще полезные примеры, делитесь в комментариях. Все эти заметки будут связаны метками и ссылками и организованы в отдельные посты для быстрой навигации. Буду их дополнять и поддерживать. Как наберётся материал, всё это организую.

#terminal
​​TeamPass - веб-портал для совместного хранения паролей. По своей сути это обычное web приложение на php. Исходники открыты - https://github.com/nilsteampassnet/TeamPass, что важно для программ такого рода. Уточняю, что это именно для командной работы и совместного доступа. Одиночному пользователю нет никого смыла в этом приложении.

Официальный сайт - https://teampass.net/
Документация - https://teampass.readthedocs.io/en/latest/
Есть поддержка русского языка.

Чтобы быстро посмотреть и попробовать, можно запустить в докере:

docker run --name teampass -d --restart always -v /var/teampass-data/www:/var/www/html -v /var/teampass-data/php_session:/var/php/session -p 9501:80 teampass/teampass

Выглядит неказисто, но программ подобного рода не так много, особенно бесплатных и с открытыми исходниками. В комментариях к заметкам о хранении паролей неоднократно упоминали этот инструмент. Сам я его не пробовал. Для небольших команд мне всегда хватало файла keepass на каком-то сетевом хранилище с совместным доступом. Но понятно, что у этого способа много минусов, а плюс только один - простота.

Для тех, кто будет пользоваться, напоминаю, что подобные приложения обязательно закрывать от внешнего доступа, желательно по спискам IP или хотя бы Basic Auth. Доверять только внутренней аутентификации пользователей нельзя.

#password
▶️ Я уже неоднократно публиковал заметки про youtube каналы, которые так или иначе связаны с IT. Решил сделать единый пост со списком всех каналов, за которыми слежу сам.

Kirill Semaev - канал практикующего devops инженера. Очень много обучающих видео конкретно по devops. Более ранние видео были на тему Linux. К сожалению, по информации из комментариев к последнему видео, Кирилл получил инсульт и потерял трудоспособность. Написала его девушка. Насколько информация достоверна, я не знаю. Новых видео давно нет.

ADV-IT - еще один персональный канал действующего devops инженера. Я о нём писал в отдельной заметке, не буду повторяться.

Aleksey Samoilov - авторский канал с общей информацией о различных дистрибутивах Linux. Для меня чисто развлекательное видео с различными обзорами. По профессии сисадмин или devops там ничего нет. Видео качественные, смотреть интересно.

DevOps Channel - тут выкладывают записи с конференции DevOpsConf. Смотрю, если вижу интересную тему.

ITSumma - канал известного аутсорсера. Видео редко выкладывают, но кое-что интересное я там посмотрел.

loftblog - канал онлайн школы веб разработки. Иногда попадается и наша тематика. Кое что смотрю для общего образования.

RomNero  - авторский канал системного администратора или devops инженера. Тематики пересекаются. Много практических уроков по настройке какого-то софта или систем.

Techno Tim - англоязычный канал сисадмина. Много всяких любопытных видео с практическими примерами настройки и установки чего-либо. Смотрю для общего образования. Интересно заглянуть в консоль или набор софта другого специалиста.

LearnLinuxTV - еще один англоязычный канал линуксового админа. Смотрю для общего образования. Тематика скорее сисадминская. Много видео на примере своей домашней лаборатории. У него там кластер Proxmox. Он на нем постоянно что-то настраивает.

Артем Матяшов - еще один авторский канал на общую IT тематику. Делал заметку по нему, повторяться не буду.

Хауди Хо - Просто о мире IT! - канал практикующего программиста. Тематика общая. Канал отличает явный талант автора и профессиональный подход к созданию видео. Видно, что они очень качественные. У него и подписчиков, просмотров море.

Сисадмин канал - авторский канал практикующего сисадмина. Видео не много, качество любительское. Иногда он просто берет и записывает что-то сходу на тему своей работы и деятельности.

Чёрный Треугольник - авторский канал анонима на тему IT с упором на анонимность. Видео качественно сделаны, смотреть интересно. Информация актуальна только для тех, кто заморачивается темой анонимности в интернете, хотя некоторые видео на общую айтишную тематику.

Ускорение Сайтов :: Метод Лаб и  Поддержка Сайтов :: Метод Лаб - два канала, которые ведёт один и тот же человек - Лавлинский Николай. Разделены чисто по тематике, подача и качество одинаковые, так как ведёт один и тот же человек. Он работает в компании по ускорению и поддержке сайтов, так что информация в основном практической направленности. Очень много оттуда информации почерпнул. Много примеров из практики.

Перечислил и описал каналы из своих подписок на youtube. На полноту не претендую, специально к заметке ничего не искал и не проверял. Если у вас есть ещё интересные каналы на IT тематику, делитесь в комментариях. И не забудьте в закладочки забрать.

#подборка #видео
​​У кого есть свободное время и желание погамать во что-нибудь тематическое, можете посмотреть на игру ThreatGEN: Red vs. Blue.

https://store.steampowered.com/app/994670/ThreatGEN_Red_vs_Blue/

Это игра в стиле кибервойны в формате пошаговой стратегии. Можно играть за хакеров или защитников инфры. Война идет за инфраструктуру на базе компов, сетевых устройств, промышленного оборудования и т.д.

Теоретически, эта игра может помочь постичь азы кибербезопасности, хакинга, пентестинга и т.д. Но понятное дело, что это просто игра, хоть и с погружением в тематику. Никакого терминала и кода там нет, только выбор тех или иных действий.

В описании заявлено, что в разработке принимали участие реальные специалисты по безопасности. Насколько это соответствует истине остается только догадываться. Я сам в игру не играл. Кто-то посоветовал посмотреть, но мне обычно не до игр. Так что просто делюсь с вами инфой.

В игре есть несколько режимов:
- По сети с реальным человеком.
- Один за компьютером против ИИ.
- Друг с другом за одним компом в режиме поочередных ходов.

На ютубе много роликов с описанием, прохождением, демонстрацией геймплея. Можно глянуть, если что.

#игра
Вновь продолжаю тему подборок постов определенной тематики. На этот раз это будут инструменты для организации vpn или прокси в том или ином виде. Тэг - #vpn

VPN в Mikrotik - различные способы организации VPN туннелей с помощью известных роутеров микротик. В заметке ссылка на статью, где я разбираю наиболее распространенные варианты vpn и тестирую их производительность. Статья написана больше года назад, не помню точно когда, но принципиально с тех пор ничего не поменялось.

Veeam PN - реализация self-hosted vpn сервера с управлением через браузер от известной компании Veeam. Подходит как для site-to-site, так и для point-to-site подключений. Настраивается полностью через браузер, управляется там же. В консоль лазить не надо, как и не нужны специальные знания для запуска в работу. Под капотом Wireguard.

ZeroTier One - опенсорсное приложение для организации vpn на базе пиринговой технологии. Хосты могут обмениваться информацией напрямую между собой, а не через центральный сервер, как это бывает при традиционной схеме vpn. Всё управление через браузер.

Amnezia - работает на базе openvpn, настраивается полностью автоматически. Вы ставите приложение себе на компьютер, указываете параметры доступа по ssh на арендуемый vpn и amnezia самостоятельно там настраивает анонимный openvpn сервер в docker. Никакие состояния не сохраняет, логи не пишет, сертификаты для подключения генерируются в момент запуска приложения amnezia на компьюnере.

Outline VPN - строит vpn туннели на базе Shadowsocks. Она считается более легковесной в сравнении с тем же openvpn и при этом лучше маскируется и обходит различные блокировки. Так же как и Amnezia, ставится на компьютер, дальше настраивается подключение по ssh и там автоматически разворачивается серверная часть. Я сам ей пользуюсь как на компе, так и на смартфоне.

Pritunl - веб панель по управлению vpn подключениями изначально на базе openvpn. Сейчас поддерживает wireguard. Достаточно старый и известный продукт с коммерческой версией и бесплатной с некоторыми ограничениями, которых хватает в простых случаях. Всё управление через браузер, в консоль лазить не надо.

VPN через SSH - пример настройки site-to-site подключения vpn через ssh соединение. Способ немного замороченный в том плане, что всё надо делать руками в консоли. Отличает его то, что ssh чаще всего везде есть и настроен доступ, так что ничего дополнительно устанавливать не надо.

❗️ Если знаете и используете еще какие-то удобные и функциональные реализации VPN, делитесь в комментариях. Сам я чаще всего использую Openvpn. Если есть устройства Mikrotik, то настраиваю там L2TP. Для себя использую Openvpn и Outline VPN.

#подборка #vpn
​​Я достаточно много времени уделяю мониторингу. В основном это Zabbix, хотя иногда использовал и другие системы. Одна из них Nagios. Сам я ее не разворачивал, но пару раз эта система доставалась мне в наследство от предыдущих админов. Некоторое время я ее использовал, что-то донастраивал, менял и плавно переходил на Zabbix 😁.

Было это всё достаточно давно и моя информация может быть не актуальной, но все же поделюсь. Мне сильно не нравилось в Nagios то, что там фокус смещен на состояние и статусы, а не на графики и тренды. Раньше там графиков вообще не было.

Из плюсов более простая установка и настройка по сравнению с Zabbix. Много готовых плагинов (расширений?) для мониторинга всего и вся. Плюс хорошее быстродействие, нет такой нагрузки на БД, как в Zabbix. Нравилась концепция уведомлений, когда они долбили постоянно, пока не исправлена проблема. Не знаю, дефолтное ли это поведение, или админы так настраивали. Zabbix по дефолту шлёт только одно уведомление в момент срабатывания триггера и всё. Если забыл сразу решить вопрос, можно забыть про него. Другое поведение надо настраивать отдельно, перед этим разобравшись с системой оповещений.

Так же нравилось дефолтное отображение статусов и состояний хостов, сервисов. Не нужно было это допиливать до удобного и информационного состояния, как в Zabbix, где первым делом после установки перенастраиваешь дефолтный дашборд, чтобы стало удобно. Хотя это очень субъективно.

Посмотрел сейчас сайт Nagios и вижу, что это уже не только система мониторинга, но и многое другое - Log Server, Network Analyzer, Fusion (объединение всех продуктов в единый дашборд). Поделитесь информацией о продуктах, если реально пользуетесь ими. Интересно узнать, насколько всё это функционально и удобно по сравнению с аналогами. Из бесплатных программ вижу только Nagios Core со скринами от 2014 года. Они что, его больше не развивают и остались только платные продукты?

В целом, Nagios интересная и удобная система. Если у вас нет фокуса на мониторинге и нет желание как-то активно развиваться в этой области, то в качестве мониторинга для инфраструктуры, которую вы обслуживаете, можно использовать Nagios. Разобраться и всё настроить будет немного проще, чем в Zabbix. Опять же, это субъективно. Я то неплохо все эти системы знаю и мне в целом легко настроить любую из них.

А как вам Nagios?

#мониторинг
​​Я тут затестил на удивление удобную утилиту. Даже не знаю, как её обозвать. Это такой top с кучей информации не только по процессам. Речь идёт про glances.

https://github.com/nicolargo/glances

Не слышал о ней раньше, хотя на вид мне сразу показалась удобной и живет в стандартных репах. Для Centos и форков в репозитории epel. Установить можно как оттуда, так и через pip.

# dnf install epel-release
# dnf install python python-devel
# dnf install glances

Утилита написана под все современные linux системы и даже freebsd. Для нее существует куча расширений для увеличения метрик, и не только. Можно поставить веб интерфейс, чтобы через него смотреть за метриками, либо модуль для экспорта метрик в формате prometheus или elasticsearch. Через pip это ставится примерно так:

pip install 'glances[browser,docker,export]'

Такую штуку можно по дефолту ставить вместо htop. Последний я неизменно ставлю почти на все сервера под моим управлением. Очень привык, в первую очередь к древовидному отображению процессов. Очень наглядно и удобно, как по мне.

#terminal #утилита
​​Кажется закончилась моя эпопея с обновлённым гипервизором под Proxmox 7.0. Напомню для тех, кто не в курсе. Я почти сразу после выхода релиза накатил новую версию на свой домашний тестовый гипервизор. И почти сразу же словил проблему - гипервизор жёстко зависал при повышении I/O нагрузки в какой-то виртуалке.

В интернете нашлось достаточно много отзывов с похожими проблемами. Кому-то помогала замена типа процессора с [host] на [kvm64]. Мне это не помогло.

Далее я проверил гипотезу, что это из-за нововведения io_uring, который стал параметром по умолчанию для aio, заменив native. Я вернул обратно native для всех виртуалок. Подробнее об этом писал в отдельной заметке. С тех пор у меня гипервизор ни разу не завис. Так что похоже дело было именно в этом нововведении.

Подозреваю, что подобные проблемы возникают на каком-то конкретном наборе железа. Не похоже на массовую проблему, но и случай не единичный. Подобный совет я встретил на форуме proxmox, где отзывались люди, что им тоже помогло. Так что берите на вооружение, если испытываете схожие проблемы.

#proxmox
​​Недавно читал любопытное исследование вакансий системных администраторов на hh. Ссылку не буду приводить, потому что заметка была рекламная, но к сути поднимаемой темы это не имеет прямого отношения. Мне там понравились некоторые цифры и срезы.

Вакансий сисадминов с требованием знания Windows в среднем в 4 раза меньше, чем резюме с указанием этого навыка. То есть конкуренция среди кандидатов 1 к 4. Зарплаты в этом сегменте самые низкие.

Дальше идёт сравнение вакансий с требованием знания Linux. Там уже соотношение вакансий к резюме 1,4. То есть линукс админов чуть меньше, чем полтора человека на место. Конкуренция значительно ниже, зарплаты в среднем выше, чем у виндовых админов.

Ну а с devops вообще другая картина. Вакансий больше, чем размещенных резюме. На каждую вакансию только 0,66 кандидатов с указанием навыков devops в резюме. То есть конкуренции нет вообще. Достаточно просто обладать требуемыми навыками и вас возьмут.

Цифры не стоит воспринимать буквально, так как очевидно, что куча вакансий со знанием windows это обычные эникеи или тех. поддержка. Тем не менее, тенденции, мне кажется, отражены верно. Если хотите расти, то учить Linux обязательно, а дальше уже двигать в Devops. Это если вам программировать не нравится. Если еще не определились, то лучше идти в программисты. Оттуда в Devops проще будет зайти, так как прошлых админов среди девопсов значительно больше, чем бывших разработчиков. А навык участия непосредственно в разработке там очень ценен.

#мысли