🔥Central Log Management for Docker + Linux // Grafana Loki
Хорошее подробное видео от очень жизнерадостного блогера на тему установки и настройки централизованного хранилища для сбора логов Loki. Тут будет и теория, и установка, и сбор логов. Полный комплект.
⇨ Получаем бесплатные TLS-сертификаты: обычные и wildcard
Подробное руководство по настройке получения бесплатных сертификатов от Let's Encrypt с использованием certbot (простые сертификаты) и acme.sh (для widlcard-сертификатов). Я, кстати, немного попользовался acme.sh и вернулся обратно на certbot. Последний показался всё же более удобным, несмотря на его зависимости и более сложную структуру по сравнению с acme.sh.
⇨ Beszel - Simple, Powerful Server Monitoring!
Простая и лёгкая в настройке система мониторинга Beszel. На вид понравилась. Надо будет развернуть, попробовать и написать обзор.
⇨ Erugo: A Better Alternative to WeTransfer (Self-Hosted!)
Обзор open source системы Erugo для передачи файлов между пользователями, которую можно развернуть на своём сервере. Не скажу, что она мне сильно понравилась на обзоре, но так как аналогов особо не знаю, решил написать, чтобы если что потом попробовать, если понадобится.
⇨ Запуск Deepseek-v3 671b на своем сервере
В прошлой подборке было видео с обзором нового сервера под ИИ, а в этой автор запускает на нём топовую open source модель Deepseek-v3 671b.
⇨ VDO.Ninja - Open Source, Powerful P2P Online Meetings
Подробный обзор, установка с настройкой open source системы VDO.Ninja для проведения видео и аудио конференций, которая в том числе умеет записывать видео с камеры и экран компьютера. То есть можно свои ролики записывать с её помощью. Впервые услышал про эту систему. Судя по всему, это аналог BigBlueButton, Jitsi, MiroTalk P2P.
⇨ Kafka: Зачем она нужна и какие проблемы решает?
Наглядное повествование на тему того, что такое Kafka. Интересно будет только тем, кто не знает, что это такое.
⇨ Протокол DNS в Wireshark | Компьютерные сети 2025 - 20
⇨ Типы записей DNS | Компьютерные сети 2025 - 21
Очередные уроки с курса по сетям от Созыкина Андрея.
🔥Convert VMware to Proxmox // Use Veeam Community Edition for Migration
Перенос виртуалок с VMware в Proxmox с помощью бесплатной программы Veeam Backup & Replication Community Edition. Автор отдельно отметил, что в Proxmox есть встроенный инструмент для переноса виртуалок с VMware, но он очень медленный и с ним есть проблемы. А Veeam поддерживает оба гипервизора, так что просто бэкапим виртуалку с одного и восстанавливаем на другом.
⇨ OPNsense Transparent Filitering Bridge Прозрачный фильтрующий мост
У автора есть серия качественных роликов про программный шлюз OPNsense. Это один из них на тему, даже не знаю, какую тему. Я по названию не понял, о чём будет речь. А речь там по сути про настройку firewall.
Отдельно отмечу, что канал DevOps Channel выложил кучу записей с прошлогодней конференции DevOpsConf. Там очень много выступлений. Каждый может подобрать себе то, что его интересует. Я пока ничего не смотрел.
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Заметка выходного дня. Прослушал старую песню времён блокировок Telegram от группы Дореволюционный советчик. Удивительно, как получилось. В наши дни эта песня стала актуальна даже больше, чем в то время, когда записывалась. Это своего рода гениальность и заявка на классику.
Например, за репосты раньше чисто гипотетически можно было пострадать, а сейчас готова полноценная юридическая база под это дело. Есть реестр блогеров с 10к+ подписчиками. Если какой-то канал не добавил себя в этот реестр, то репостить его публикации нельзя. Какие там ссанкции уже не помню, но они чётко обозначены без неоднозначных толкований.
Ожидаем блокировки Вотсапъ и Порнхабъ. Пишу, кстати, из деревни, VPN включен. У песни отличное исполнение и текст. Мне очень нравится.
Которыя сутки не грузитъ страницы,
Процессоръ скрипитъ, словно старый сарай.
Настройте же прокси, креаторъ Голицынъ,
Админъ Оболенскій, раздайте вай-фай.
Сидятъ черезъ SOCKS баринъ и пролетарій -
Народъ на Руси оказался непростъ,
Но въ чатахъ публичныхъ не спятъ комиссары,
И могутъ тебя посадить за репостъ.
Но какъ же намъ, право, безъ дѣвичьей ласки,
Безъ теплыхъ эмодзи, шальныхъ телеграмъ?
Манагеръ Голицынъ, а можетъ быть въ Аську?
Генъ. диръ. Оболенскій, давайте въ ТАМЪ-ТАМЪ.
Сатрапы режима, холопы системы
Заблочатъ Вотсапъ и закроютъ Порнхабъ,
Куда теперь постить забойные мемы
И кто проорётся съ моихъ фотожабъ…
Сидимъ съ VPN-номъ въ глухой деревенькѣ.
На синемъ экранѣ сіяютъ скрипты.
Предатель Голицынъ раздайте печеньки,
Масонъ Оболенскій, пишите посты.
#юмор
Например, за репосты раньше чисто гипотетически можно было пострадать, а сейчас готова полноценная юридическая база под это дело. Есть реестр блогеров с 10к+ подписчиками. Если какой-то канал не добавил себя в этот реестр, то репостить его публикации нельзя. Какие там ссанкции уже не помню, но они чётко обозначены без неоднозначных толкований.
Ожидаем блокировки Вотсапъ и Порнхабъ. Пишу, кстати, из деревни, VPN включен. У песни отличное исполнение и текст. Мне очень нравится.
Которыя сутки не грузитъ страницы,
Процессоръ скрипитъ, словно старый сарай.
Настройте же прокси, креаторъ Голицынъ,
Админъ Оболенскій, раздайте вай-фай.
Сидятъ черезъ SOCKS баринъ и пролетарій -
Народъ на Руси оказался непростъ,
Но въ чатахъ публичныхъ не спятъ комиссары,
И могутъ тебя посадить за репостъ.
Но какъ же намъ, право, безъ дѣвичьей ласки,
Безъ теплыхъ эмодзи, шальныхъ телеграмъ?
Манагеръ Голицынъ, а можетъ быть въ Аську?
Генъ. диръ. Оболенскій, давайте въ ТАМЪ-ТАМЪ.
Сатрапы режима, холопы системы
Заблочатъ Вотсапъ и закроютъ Порнхабъ,
Куда теперь постить забойные мемы
И кто проорётся съ моихъ фотожабъ…
Сидимъ съ VPN-номъ въ глухой деревенькѣ.
На синемъ экранѣ сіяютъ скрипты.
Предатель Голицынъ раздайте печеньки,
Масонъ Оболенскій, пишите посты.
#юмор
На днях разбирался с одной относительно простой задачей, но из-за того, что затупил, потратил на неё очень много времени. Так как проделал множество всевозможных операций, решил всё подробно описать. Пригодится в других похожих историях.
Есть MySQL сервер, у которого, как мне показалось, очень большая нагрузка по CPU. Проект немного стух, записи в базу должно быть мало и мне было странно видеть высокую нагрузку от СУБД. Решил разобраться, в чём там дело.
Для начала просто посмотрел нагрузку через
В таких случаях часто помогает strace. Можно подцепиться к процессу и посмотреть, что он пишет:
В моём случае я не получил результата. В выводе просто было пусто. Я не понял, почему. Стал разбираться дальше. Смотрю потоки процесса:
Вижу, что CPU нагружает сильно больше всех остальных один поток с SPID 19547. Смотрю по нему информацию:
В выводе только цифры и отсылка к основному потоку mysqld. То есть вообще не понятно, что там реально происходит.
Тут до меня доходит подцепиться к потоку через strace:
Вижу системные вызовы futex (синхронизацией потоков), io_submit (асинхронные операции ввода-вывода) и некоторые другие.
Смотрю, в какие файлы пишет mysqld:
Это
А на серваке выполнялись десятки простых SELECT за считанные миллисекунды или ещё быстрее. Не отслеживал. И они тупо не попадали в вывод. И я думал, что запросов мало, а их было дохрена. Они и давали нагрузку на CPU.
Запросы увидел так. Не перезапуская сервер выполнил в консоли mysql:
Так же это было видно в выводе:
В разделе I/O. Эти потоки отвечают за асинхронные операции ввода-вывода (AIO).
Достаточно было на несколько секунд запустить, чтобы понять всю картину. Потом сразу отключил, чтобы не нагружать диски.
Осталось разобраться, а что на диск то записывается. Вроде как файлы
xb_doublewrite - это некий буфер InnoDB для повышения надёжности хранения, отключать не рекомендуется, хотя можно.
В общем, время я по сути потратил впустую, если не считать вот эту заметку итоговым результатом. Думаю, она мне ещё понадобится. Времени уже не оставалось дальше разбираться с этой историей. В целом, нагрузка там рабочая, абсолютно некритичная, так что разбираться с ней дальше большой нужды не было. Но я всё равно планирую подумать, как её снизить. И вообще не совсем понятно, почему её так много, с учётом того, что сайт активно кэшируется. Надо будет разбираться.
Отдельно отмечу, что очень активно нагружал этой темой DeepSeek, но он особо не помог. Да, много всякой информации давал и анализировал мои результаты, но фактически я сам догадался в чём причина. Он как-то больше по кругу ходил и всякие команды накидывал.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#mysql #perfomance
Есть MySQL сервер, у которого, как мне показалось, очень большая нагрузка по CPU. Проект немного стух, записи в базу должно быть мало и мне было странно видеть высокую нагрузку от СУБД. Решил разобраться, в чём там дело.
Для начала просто посмотрел нагрузку через
top
. Mysql почти постоянно кушает одно ядро и периодически остальные дёргает. Дополнительно смотрю в iotop и pidstat и вижу постоянно запись со стороны службы mysqld с pid 19535:# iotop -obPat
# pidstat -p 19535 -d 1
В таких случаях часто помогает strace. Можно подцепиться к процессу и посмотреть, что он пишет:
# strace -e trace=write -p 19535
В моём случае я не получил результата. В выводе просто было пусто. Я не понял, почему. Стал разбираться дальше. Смотрю потоки процесса:
# ps -L -o spid,%mem,%cpu,cmd 16005
Вижу, что CPU нагружает сильно больше всех остальных один поток с SPID 19547. Смотрю по нему информацию:
# cat /proc/19535/task/19547/stat
# cat /proc/19535/task/19547/statu
sВ выводе только цифры и отсылка к основному потоку mysqld. То есть вообще не понятно, что там реально происходит.
Тут до меня доходит подцепиться к потоку через strace:
# strace -p 19547
Вижу системные вызовы futex (синхронизацией потоков), io_submit (асинхронные операции ввода-вывода) и некоторые другие.
Смотрю, в какие файлы пишет mysqld:
# inotifywait -m /var/lib/mysql
Это
ib_logfile0
и xb_doublewrite
. Никак не могу понять, почему он туда активно пишет, когда запросов к базе особо нет. И вот тут я как раз и затупил. Я смотрел запросы через mytop и SHOW FULL PROCESSLIST;
И там их было очень мало. Эти команды показывают запросы в моменте.А на серваке выполнялись десятки простых SELECT за считанные миллисекунды или ещё быстрее. Не отслеживал. И они тупо не попадали в вывод. И я думал, что запросов мало, а их было дохрена. Они и давали нагрузку на CPU.
Запросы увидел так. Не перезапуская сервер выполнил в консоли mysql:
> SET GLOBAL general_log = 'ON';
> SET GLOBAL general_log_file = '/var/log/mysql/general.log';
Так же это было видно в выводе:
> SHOW ENGINE INNODB STATUS;
В разделе I/O. Эти потоки отвечают за асинхронные операции ввода-вывода (AIO).
Достаточно было на несколько секунд запустить, чтобы понять всю картину. Потом сразу отключил, чтобы не нагружать диски.
Осталось разобраться, а что на диск то записывается. Вроде как файлы
ib_logfile0
это файлы журналов транзакций InnoDB, а разве SELECT вызывает транзакции? Я тут сильно не погружался, но мельком глянул информацию и понял, что всякие очистки устаревших данных, обновление статистики, индексов, хэшей могут тоже провоцировать запись, а точнее обновление этого файла.xb_doublewrite - это некий буфер InnoDB для повышения надёжности хранения, отключать не рекомендуется, хотя можно.
В общем, время я по сути потратил впустую, если не считать вот эту заметку итоговым результатом. Думаю, она мне ещё понадобится. Времени уже не оставалось дальше разбираться с этой историей. В целом, нагрузка там рабочая, абсолютно некритичная, так что разбираться с ней дальше большой нужды не было. Но я всё равно планирую подумать, как её снизить. И вообще не совсем понятно, почему её так много, с учётом того, что сайт активно кэшируется. Надо будет разбираться.
Отдельно отмечу, что очень активно нагружал этой темой DeepSeek, но он особо не помог. Да, много всякой информации давал и анализировал мои результаты, но фактически я сам догадался в чём причина. Он как-то больше по кругу ходил и всякие команды накидывал.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#mysql #perfomance
Продолжаю пересматривать старые заметки. Нашёл показательную новость от 2020 года, которую скорее всего все уже позабыли.
⇨ Удалённая уязвимость в серверных платах Intel с BMC Emulex Pilot 3
Это когда в BMC-контроллере, который используют для управления серверной платформой, нашли эпические уязвимости, которые позволяли без аутентификации получить доступ к консоли удалённого управления KVM. Причём по словам выявившего уязвимость исследователя работать с BMC через эксплоит гораздо удобнее, чем при помощи штатного Java-клиента. Ну случайно так вышло, понимать надо ☝️.
И такие уязвимости регулярно всплывают. Помню, как в ядро Linux какие-то "шутники" протолкнули уязвимости, их приняли, а потом заметили. Оказалось, их туда в исследовательских целях добавляли, тоже понимать надо.
К чему я это написать решил. Не помню, акцентировал ли когда-нибудь конкретно на этом внимание. Я стараюсь сам и рекомендую остальным закрывать доступ извне ко всему, что не требует публичного доступа, файрволом. Закрываю даже SSH, хотя не всегда так делал. Последние года стабильно закрываю службу SSH списками IP адресов. Возможно и ICMP стоит закрывать, чтобы не отсвечивать лишний раз, но я оставляю для удобства мониторинга.
Есть расхожее мнение на тему того, что если регулярно и своевременно ставить обновления, то можно особо не бояться уязвимостей. К сожалению, это не так. Уязвимости закрывают, когда они появляются в публичной плоскости. А сколько они эксплуатируются в теневом режиме - неизвестно. Я лично сталкивался с историей, когда сервер живёт своей жизнью - останавливает и запускает сервисы, а ты не можешь понять кто и как это делает. Из исследовательских целей оставлял сервер и долго с ним ковырялся, но не мог понять, что там происходит. Пришлось переустанавливать. Подозреваю, что через какую-то непубличную уязвимость ломали, да и всё.
На днях ещё одну новость видел: У криптовалютной биржи Bybit похитили 1,46 млрд долларов. Во времена хайпа крипты я плотно работал с компанией, которая писала криптовалютные биржи и приложения. Я реально опасался за безопасность, хотя старался делать всё, что от меня зависело, для безопасности, но всякое бывает. Потом больше всего вопросов к администратору будет, если случится инцидент. Больше не занимаюсь этим и не хочу. Технически работа была интересная, но с точки зрения безопасности постоянно чувствовал некоторую тревогу. Там сервисы публичные были, всё не закрыть.
#совет #security
⇨ Удалённая уязвимость в серверных платах Intel с BMC Emulex Pilot 3
Это когда в BMC-контроллере, который используют для управления серверной платформой, нашли эпические уязвимости, которые позволяли без аутентификации получить доступ к консоли удалённого управления KVM. Причём по словам выявившего уязвимость исследователя работать с BMC через эксплоит гораздо удобнее, чем при помощи штатного Java-клиента. Ну случайно так вышло, понимать надо ☝️.
И такие уязвимости регулярно всплывают. Помню, как в ядро Linux какие-то "шутники" протолкнули уязвимости, их приняли, а потом заметили. Оказалось, их туда в исследовательских целях добавляли, тоже понимать надо.
К чему я это написать решил. Не помню, акцентировал ли когда-нибудь конкретно на этом внимание. Я стараюсь сам и рекомендую остальным закрывать доступ извне ко всему, что не требует публичного доступа, файрволом. Закрываю даже SSH, хотя не всегда так делал. Последние года стабильно закрываю службу SSH списками IP адресов. Возможно и ICMP стоит закрывать, чтобы не отсвечивать лишний раз, но я оставляю для удобства мониторинга.
Есть расхожее мнение на тему того, что если регулярно и своевременно ставить обновления, то можно особо не бояться уязвимостей. К сожалению, это не так. Уязвимости закрывают, когда они появляются в публичной плоскости. А сколько они эксплуатируются в теневом режиме - неизвестно. Я лично сталкивался с историей, когда сервер живёт своей жизнью - останавливает и запускает сервисы, а ты не можешь понять кто и как это делает. Из исследовательских целей оставлял сервер и долго с ним ковырялся, но не мог понять, что там происходит. Пришлось переустанавливать. Подозреваю, что через какую-то непубличную уязвимость ломали, да и всё.
На днях ещё одну новость видел: У криптовалютной биржи Bybit похитили 1,46 млрд долларов. Во времена хайпа крипты я плотно работал с компанией, которая писала криптовалютные биржи и приложения. Я реально опасался за безопасность, хотя старался делать всё, что от меня зависело, для безопасности, но всякое бывает. Потом больше всего вопросов к администратору будет, если случится инцидент. Больше не занимаюсь этим и не хочу. Технически работа была интересная, но с точки зрения безопасности постоянно чувствовал некоторую тревогу. Там сервисы публичные были, всё не закрыть.
#совет #security
Увидел недавно видеообзор простой бесплатной системы для организации видео и аудио конференций VDO.Ninja, которую можно развернуть на своём сервере. На первый взгляд может показаться, зачем всё это надо, если есть куча бесплатных. Но с другой стороны все эти бесплатные системы требуют регистрацию, персональные данные, часто с подтверждением аккаунта по номеру телефона.
Допустим, у вас переговорная комната. Чья учётка там должна быть введена? Всем участникам нужно будет где-то аккаунты заводить. Проще, когда у вас будет своя система, всегда готовая к работе. Если пользуетесь редко, то покупать платную не имеет большого смысла.
Отдельный разговор какие-нибудь небольшие учебные заведения, где тоже нет денег на платные системы. В общем, бесплатные конференции типа BigBlueButton, Jitsi, MiroTalk P2P имеют право на жизнь. VDO.Ninja из их числа. Решил её развернуть и попробовать в работе.
В основе VDO.Ninja, как и почти всех подобных современных программ, лежит протокол WebRTC. Все конференции проходят в браузере, дополнительные программы устанавливать не нужно. Причём это же относится и к мобильным устройствам. Отдельно отмечу, что с помощью VDO.Ninja можно постоянно транслировать поток с видеокамеры в интернет, в том числе используя свой смартфон в качестве камеры.
Для быстрого запуска VDO.Ninja можно воспользоваться готовым контейнером Docker:
Достаточно указать URL с настроенной DNS записью для того, чтобы автоматически получит TLS сертификат. После запуска контейнера он будет получен и установлен. Буквально через минуту можно идти и использовать сервис. Для того, чтобы его посмотреть, разворачивать у себя не обязательно. Это будет точная копия, 1 в 1, как и публичный сервис на сайте https://vdo.ninja.
Я развернул и немного потестировал. Никаких сложностей не возникло. Всё сразу заработало. Отмечу некоторые особенности:
▪️Конференции сразу работают в браузере смартфона. Можно подключить любую камеру в качестве источника картинки. То есть можем получить беспроводную мобильную камеру.
▪️Можно открыть доступ к экрану смартфона, но для этого придётся установить мобильное приложение. Браузер такой режим не поддерживает.
▪️Сервис работает без аутентификации. Каждый может получить доступ по ссылке (конференция или комната может закрываться паролем). Придётся внедрять какую-то стороннюю аутентификацию через проксирование, или закрывать файрволом.
▪️Поддерживается запись видео как организатором, так и участниками.
▪️Можно делать постоянные ссылки для конференций.
▪️Можно создавать общую комнату для входа и потом в ручном режиме раскидывать подключившихся по другим комнатам.
▪️Удобный интерфейс организатора. Он может управлять гостями, раскладкой, выключать, приглушать или увеличивать звук гостя, открывать отдельной ссылкой поток гостя, включать запись, управлять качеством, в том числе и гостей и т.д.
▪️Пригласительные ссылки могут быть в виде QR кодов.
▪️Можно открывать доступ к отдельной вкладке браузера или запущенного приложения.
Приложение очень понравилось – простое и функциональное. Есть всё, что можно только придумать для такого рода сервисов. Не хватает только какой-то базовой аутентификации, чтобы ограничить доступ к главной странице. По умолчанию каждый может на неё зайти и создать конференцию.
⇨ 🌐 Сайт / Исходники / Docker
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#видеоконференции
Допустим, у вас переговорная комната. Чья учётка там должна быть введена? Всем участникам нужно будет где-то аккаунты заводить. Проще, когда у вас будет своя система, всегда готовая к работе. Если пользуетесь редко, то покупать платную не имеет большого смысла.
Отдельный разговор какие-нибудь небольшие учебные заведения, где тоже нет денег на платные системы. В общем, бесплатные конференции типа BigBlueButton, Jitsi, MiroTalk P2P имеют право на жизнь. VDO.Ninja из их числа. Решил её развернуть и попробовать в работе.
В основе VDO.Ninja, как и почти всех подобных современных программ, лежит протокол WebRTC. Все конференции проходят в браузере, дополнительные программы устанавливать не нужно. Причём это же относится и к мобильным устройствам. Отдельно отмечу, что с помощью VDO.Ninja можно постоянно транслировать поток с видеокамеры в интернет, в том числе используя свой смартфон в качестве камеры.
Для быстрого запуска VDO.Ninja можно воспользоваться готовым контейнером Docker:
# docker run -dit -p 80:80 -p 443:443 --restart=unless-stopped --name vdo.ninja -e SERVER_URL=$HOSTNAME -e EMAIL_ADDRESS=emailforcert@domain.com umlatt/vdo.ninja
Достаточно указать URL с настроенной DNS записью для того, чтобы автоматически получит TLS сертификат. После запуска контейнера он будет получен и установлен. Буквально через минуту можно идти и использовать сервис. Для того, чтобы его посмотреть, разворачивать у себя не обязательно. Это будет точная копия, 1 в 1, как и публичный сервис на сайте https://vdo.ninja.
Я развернул и немного потестировал. Никаких сложностей не возникло. Всё сразу заработало. Отмечу некоторые особенности:
▪️Конференции сразу работают в браузере смартфона. Можно подключить любую камеру в качестве источника картинки. То есть можем получить беспроводную мобильную камеру.
▪️Можно открыть доступ к экрану смартфона, но для этого придётся установить мобильное приложение. Браузер такой режим не поддерживает.
▪️Сервис работает без аутентификации. Каждый может получить доступ по ссылке (конференция или комната может закрываться паролем). Придётся внедрять какую-то стороннюю аутентификацию через проксирование, или закрывать файрволом.
▪️Поддерживается запись видео как организатором, так и участниками.
▪️Можно делать постоянные ссылки для конференций.
▪️Можно создавать общую комнату для входа и потом в ручном режиме раскидывать подключившихся по другим комнатам.
▪️Удобный интерфейс организатора. Он может управлять гостями, раскладкой, выключать, приглушать или увеличивать звук гостя, открывать отдельной ссылкой поток гостя, включать запись, управлять качеством, в том числе и гостей и т.д.
▪️Пригласительные ссылки могут быть в виде QR кодов.
▪️Можно открывать доступ к отдельной вкладке браузера или запущенного приложения.
Приложение очень понравилось – простое и функциональное. Есть всё, что можно только придумать для такого рода сервисов. Не хватает только какой-то базовой аутентификации, чтобы ограничить доступ к главной странице. По умолчанию каждый может на неё зайти и создать конференцию.
⇨ 🌐 Сайт / Исходники / Docker
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#видеоконференции
Хочу сделать предостережение, основанное на личном опыте. Делал рядовое обновление сервера, которое требовало перезагрузку. Сервер далеко, в необслуживаемой серверной. То есть там никого нет вечером, кто смог бы хоть что-то сделать. Как обычно, время выбрал позднее, так как на сервере полезная нагрузка. Его активно используют люди в течении рабочего дня. И кто бы мог подумать, что сервер не выйдет из перезагрузки.
Нет проблем. Сервер Supermicro, там IPMI, сейчас посмотрим консоль и поймем, в чём там дело. И тут начинаются танцы. Сервер старый, версия BMC древняя. Для подключения к консоли нужна java какой-то старой версии. Апплет не запускается, так как блочится настройками безопасности из-за отсутствия сертификата и актуальной версии TLS. В общем, мрак. Думаю тем, кто используют старые Supermicro, хорошо знакома эта тема. Я давно их не покупаю. Если брать б.у., то предпочту Dell. Там BMC удобный.
Проблемы в итоге решил, подключился и всё сделал. А мораль тут такова – перед перезагрузкой сервера, проверьте, есть ли у вас доступ к консоли, так что для меня reboot – это всегда потенциальная возможность потерять доступ к серверу. Обязательно проверяю бэкапы перед этим и доступ к консоли сервера. И всегда держу в голове схему, что я буду делать, если сервер не поднимется. А после установки обновления это не такая уж и большая редкость. Я столько всяких историй проходил. Было много примеров, некоторые описывал в статьях:
◽️Yum после обновления упал с ошибкой и не пересобрал initramfs под новое ядро. Спасла загрузка на старом.
◽️У сервера уменьшили на лету размер корневого раздела. После перезагрузки grub его потерял.
◽️Как-то раз просто на всякий случай зашёл в админку хостера проверить, есть ли доступ к консоли. А её не оказалось, просто чёрный экран. Через техподдержку решили вопрос. Был глюк.
◽️У GRUB2 как-то раз вышло обновление, которое приводило к невозможности загрузки.
◽️Как-то раз сервер с большим диском запустил проверку файловой системы во время загрузки. Длилась она пару часов. Останавливать не решился, сидел и ждал, чем закончится. Причём счетчика времени не было. Думал уже что всё, данным кирдык.
◽️Один хостер с арендным сервером высылал доступ к консоли по VNC в момент оформления. Заказчик благополучно всё это где-то потерял, а когда нужно было срочно подключиться, пришлось искать и восстанавливать эти доступы через тех. поддержку. А для этого ещё и VPN настраивать надо было.
Это только то, что бегло вспомнил. Были и другие истории. Если сталкивались с чем-то подобным, то поделитесь своими инцидентами. Можно будет подборку сделать. Мне кажется, их может много набраться.
#совет
Нет проблем. Сервер Supermicro, там IPMI, сейчас посмотрим консоль и поймем, в чём там дело. И тут начинаются танцы. Сервер старый, версия BMC древняя. Для подключения к консоли нужна java какой-то старой версии. Апплет не запускается, так как блочится настройками безопасности из-за отсутствия сертификата и актуальной версии TLS. В общем, мрак. Думаю тем, кто используют старые Supermicro, хорошо знакома эта тема. Я давно их не покупаю. Если брать б.у., то предпочту Dell. Там BMC удобный.
Проблемы в итоге решил, подключился и всё сделал. А мораль тут такова – перед перезагрузкой сервера, проверьте, есть ли у вас доступ к консоли, так что для меня reboot – это всегда потенциальная возможность потерять доступ к серверу. Обязательно проверяю бэкапы перед этим и доступ к консоли сервера. И всегда держу в голове схему, что я буду делать, если сервер не поднимется. А после установки обновления это не такая уж и большая редкость. Я столько всяких историй проходил. Было много примеров, некоторые описывал в статьях:
◽️Yum после обновления упал с ошибкой и не пересобрал initramfs под новое ядро. Спасла загрузка на старом.
◽️У сервера уменьшили на лету размер корневого раздела. После перезагрузки grub его потерял.
◽️Как-то раз просто на всякий случай зашёл в админку хостера проверить, есть ли доступ к консоли. А её не оказалось, просто чёрный экран. Через техподдержку решили вопрос. Был глюк.
◽️У GRUB2 как-то раз вышло обновление, которое приводило к невозможности загрузки.
◽️Как-то раз сервер с большим диском запустил проверку файловой системы во время загрузки. Длилась она пару часов. Останавливать не решился, сидел и ждал, чем закончится. Причём счетчика времени не было. Думал уже что всё, данным кирдык.
◽️Один хостер с арендным сервером высылал доступ к консоли по VNC в момент оформления. Заказчик благополучно всё это где-то потерял, а когда нужно было срочно подключиться, пришлось искать и восстанавливать эти доступы через тех. поддержку. А для этого ещё и VPN настраивать надо было.
Это только то, что бегло вспомнил. Были и другие истории. Если сталкивались с чем-то подобным, то поделитесь своими инцидентами. Можно будет подборку сделать. Мне кажется, их может много набраться.
#совет
Server Admin
Kernel panic not syncing: VFS: Unable to mount root fs |...
Решение проблемы, когда сервер не загружается и показывает ошибку Kernel panic not syncing: VFS: Unable to mount root fs.
К одной из старых заметок про панель панель управления сервером поступил комментарий в ВК про незнакомую мне панель Homarr. Автор её похвалил. Глянул быстро в github, там очень мало звёзд. Думаю, какая-то новая непопулярная панель, незаслуживающая пока внимания. Подобных проектов много.
Зацепился взгляд за забавный слоган, который раньше не доводилось встречать: Easy and fast app management - No YAML / JSON configurations are involved. Обычно конфигурации в этих форматах преподносятся как удобство и унификация, а тут всё наоборот. Отсутствие этих форматов преподносится как преимущество и упрощение управления. В общем, решил панель посмотреть.
Итак, что такое Homarr? Это web страница с виджетами, которые через встроенные интеграции показывают различную информацию от поддерживаемых сервисов, либо допускают управление ими. Например, виртуалками Proxmox, контейнерами Docker. Можно просто смотреть статус различных сервисов: устройств в Home Assistent, блокировок в Pi-Hole или Adguard, загрузки в торрент клиентах, состояние медиасерверов и т.д. Также туда можно какие-то RSS ленты выводить, погоду, часы, ссылки и т.д. Есть виджеты для простого мониторинга – доступность хостов, коды HTTP ответов.
По описанию понятна сфера применения – управление личным хозяйством в домашней лаборатории. На работе подобные панели ставить не стоит. Хотя, если у вас в управлении небольшой бизнес, который вы обслуживаете в одно лицо, то почему и нет, если вам так будет удобнее. С другой стороны, там есть API, а следовательно возможность автоматизировать создание виджетов, например, со ссылками на веб ресурсы, где будет автоматически проверяться код ответа. Если у вас проект с набором отдельных веб-ресурсов, можно быстро собирать дашборд со статусом. Зелёный виджет – всё ОК, красный – проблемы. Плюс, я знаю, что некоторые люди делают такие дашборды со ссылками на внутренние ресурсы компании для пользователей.
Homarr поставляет в преднастроенном контейнере Docker, так что разворачивается в пару действий. Потом всё управление только через веб интерфейс. Никаких конфигураций и консоли. Про запуск не буду рассказывать, чтобы не загромождать заметку тем, что есть в документации.
📌 Особенности Homarr:
▪️Как я уже сказал, всё управление через веб интерфейс.
▪️Есть аутентификация пользователей, в том числе из LDAP.
▪️Можно создавать публичные панели, доступные без аутентификации.
▪️У пользователя может быть несколько разных панелей.
▪️Есть тёмная светлая тема, русский язык.
▪️Можно добавлять свои иконки для сервисов.
▪️Проект живой с большим, активным сообществом, постоянные обновления.
▪️Есть API.
Аналоги:
- Dashy
- Heimdall
- Homepage
Heimdall я пользовался немного, но забросил. Лично у меня нет потребности в подобных панелях. У меня всё подобное в Zabbix + Grafana живёт. Но я просто умею их настраивать. Чтобы всякие разные визуализации и интеграции делать надо хорошо во всём этом разбираться. А в подобной панели доступная функциональность настраивается мышкой в веб интерфейсе за вечер, но в пределах возможных интеграций.
⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#dashboard
Зацепился взгляд за забавный слоган, который раньше не доводилось встречать: Easy and fast app management - No YAML / JSON configurations are involved. Обычно конфигурации в этих форматах преподносятся как удобство и унификация, а тут всё наоборот. Отсутствие этих форматов преподносится как преимущество и упрощение управления. В общем, решил панель посмотреть.
Итак, что такое Homarr? Это web страница с виджетами, которые через встроенные интеграции показывают различную информацию от поддерживаемых сервисов, либо допускают управление ими. Например, виртуалками Proxmox, контейнерами Docker. Можно просто смотреть статус различных сервисов: устройств в Home Assistent, блокировок в Pi-Hole или Adguard, загрузки в торрент клиентах, состояние медиасерверов и т.д. Также туда можно какие-то RSS ленты выводить, погоду, часы, ссылки и т.д. Есть виджеты для простого мониторинга – доступность хостов, коды HTTP ответов.
По описанию понятна сфера применения – управление личным хозяйством в домашней лаборатории. На работе подобные панели ставить не стоит. Хотя, если у вас в управлении небольшой бизнес, который вы обслуживаете в одно лицо, то почему и нет, если вам так будет удобнее. С другой стороны, там есть API, а следовательно возможность автоматизировать создание виджетов, например, со ссылками на веб ресурсы, где будет автоматически проверяться код ответа. Если у вас проект с набором отдельных веб-ресурсов, можно быстро собирать дашборд со статусом. Зелёный виджет – всё ОК, красный – проблемы. Плюс, я знаю, что некоторые люди делают такие дашборды со ссылками на внутренние ресурсы компании для пользователей.
Homarr поставляет в преднастроенном контейнере Docker, так что разворачивается в пару действий. Потом всё управление только через веб интерфейс. Никаких конфигураций и консоли. Про запуск не буду рассказывать, чтобы не загромождать заметку тем, что есть в документации.
📌 Особенности Homarr:
▪️Как я уже сказал, всё управление через веб интерфейс.
▪️Есть аутентификация пользователей, в том числе из LDAP.
▪️Можно создавать публичные панели, доступные без аутентификации.
▪️У пользователя может быть несколько разных панелей.
▪️Есть тёмная светлая тема, русский язык.
▪️Можно добавлять свои иконки для сервисов.
▪️Проект живой с большим, активным сообществом, постоянные обновления.
▪️Есть API.
Аналоги:
- Dashy
- Heimdall
- Homepage
Heimdall я пользовался немного, но забросил. Лично у меня нет потребности в подобных панелях. У меня всё подобное в Zabbix + Grafana живёт. Но я просто умею их настраивать. Чтобы всякие разные визуализации и интеграции делать надо хорошо во всём этом разбираться. А в подобной панели доступная функциональность настраивается мышкой в веб интерфейсе за вечер, но в пределах возможных интеграций.
⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#dashboard
Хочу сделать дополнение по мотивам заметки про УПС и проблемы с электричеством. Тема живая получилась. Смотрю, многие сталкивались со схожими проблемами. Сразу забыл написать, а сейчас вспомнил. У меня был необычный опыт в своё время, которым хочу поделиться. Кому-то возможно поможет, если придётся с похожей проблемой столкнуться.
На одном производстве была серверная стойка. В результате серьёзных проблем поблизости надолго обесточили. Речь шла о недели, поэтому решили стойку и остальных потребителей запитать от генераторов. Заранее к подобному не готовились, поэтому набрали обычных генераторов, которые вдвоём-троём таскать можно. Условно бытовые.
От этих генераторов наотрез отказывались работать УПСы, как серверные, так и обычные. Пищат, как-будто тока в сети нет, и не включаются. При этом если включить сервер или обычный комп, то всё работает. Вообще все приборы нормально работали от генераторов, кроме УПСов. На тот момент ни электрик местный, ни я не могли понять, что не так. Пытался как-то разобраться через поиск в инете, но конкретики не нашёл. Не понятно было, что и как надо исправить.
Пришлось принять решение запустить всё напрямую. Очень боялся за сервера, но на практике с ними ничего не случилось. Всю неделю благополучно отработали от генератора. Когда вернули электричество, переключил на УПС.
Уже позже было любопытно разобраться в этой теме. Поспрашивал электриков, плюс где-то обсуждение на форуме видел. Дело в качестве синуса, или частоты, которую выдаёт генератор. В УПСах чётко прописаны требования по частоте к току в сети. Если частота плавает, синус кривой, то он не запустится. А от бытовых генераторов синус как раз и кривой. То есть выходные параметры электрического тока от генератора не соответствуют требованиям УПСов, поэтому они не включаются.
У большинства электроприборов таких жестких требований к току нет, поэтому они работают. И хотя формально в характеристиках выходного тока генератора и входного тока УПСа могут быть полные совпадения, на деле обычный генератор синус даёт кривой.
Один из наиболее доступных и простых способов решения проблемы – повесить на генератор какую-то постоянную стабильную нагрузку. Например, обогреватель на 1-2 кВт·ч. Это не обязательно, но может помочь выровнять частоту.
На некоторых УПСах отдельно предусмотрена поддержка генераторов. Там есть режим работы от генератора. Шансы того, что УПС заработает от генератора, повышаются, но всё равно не являются стопроцентными. Сам генератор может быть банально хреновым. Если где-то у вас есть для подстраховки генератор и используются УПСы, то лучше заранее проверить, будут ли они от него работать.
Эта проблема, кстати, актуальна и для загородных домов, где часто есть генератор в резерве, а дома некоторая критичная нагрузка, типа насоса или котла, запитана от УПСов.
#железо
На одном производстве была серверная стойка. В результате серьёзных проблем поблизости надолго обесточили. Речь шла о недели, поэтому решили стойку и остальных потребителей запитать от генераторов. Заранее к подобному не готовились, поэтому набрали обычных генераторов, которые вдвоём-троём таскать можно. Условно бытовые.
От этих генераторов наотрез отказывались работать УПСы, как серверные, так и обычные. Пищат, как-будто тока в сети нет, и не включаются. При этом если включить сервер или обычный комп, то всё работает. Вообще все приборы нормально работали от генераторов, кроме УПСов. На тот момент ни электрик местный, ни я не могли понять, что не так. Пытался как-то разобраться через поиск в инете, но конкретики не нашёл. Не понятно было, что и как надо исправить.
Пришлось принять решение запустить всё напрямую. Очень боялся за сервера, но на практике с ними ничего не случилось. Всю неделю благополучно отработали от генератора. Когда вернули электричество, переключил на УПС.
Уже позже было любопытно разобраться в этой теме. Поспрашивал электриков, плюс где-то обсуждение на форуме видел. Дело в качестве синуса, или частоты, которую выдаёт генератор. В УПСах чётко прописаны требования по частоте к току в сети. Если частота плавает, синус кривой, то он не запустится. А от бытовых генераторов синус как раз и кривой. То есть выходные параметры электрического тока от генератора не соответствуют требованиям УПСов, поэтому они не включаются.
У большинства электроприборов таких жестких требований к току нет, поэтому они работают. И хотя формально в характеристиках выходного тока генератора и входного тока УПСа могут быть полные совпадения, на деле обычный генератор синус даёт кривой.
Один из наиболее доступных и простых способов решения проблемы – повесить на генератор какую-то постоянную стабильную нагрузку. Например, обогреватель на 1-2 кВт·ч. Это не обязательно, но может помочь выровнять частоту.
На некоторых УПСах отдельно предусмотрена поддержка генераторов. Там есть режим работы от генератора. Шансы того, что УПС заработает от генератора, повышаются, но всё равно не являются стопроцентными. Сам генератор может быть банально хреновым. Если где-то у вас есть для подстраховки генератор и используются УПСы, то лучше заранее проверить, будут ли они от него работать.
Эта проблема, кстати, актуальна и для загородных домов, где часто есть генератор в резерве, а дома некоторая критичная нагрузка, типа насоса или котла, запитана от УПСов.
#железо
Давно не было заметок на тему систем мониторинга, потому что всё более-менее известное и удобное я обозревал ранее. В этот раз попался интересный проект, про который я даже не слышал, не то, что не видел. Упоминание было в пятничной подборке видео, где был обзор на Beszel. Это очень простой и легковесный мониторинг для одного или группы хостов. Поддерживает Linux, FreeBSD, MacOS. Он отлично дополнит подборку легковесных мониторингов для одиночного сервера, хотя поддерживает через агенты сбор метрик и с других серверов.
Сразу перечислю основные особенности:
▪️Простой и легковесный мониторинг, написанный на Go.
▪️После установки сразу готов к работе, не требует особой настройки.
▪️Собирает только базовые метрики: доступность хоста, загрузка процессора, памяти, дисков, сетевой трафик, доступные метрики с сенсоров платформы. Плюс всё то же самое, только для Docker контейнеров.
▪️Собирает информацию через агентов на удалённых серверах. Агенты в виде бинарника или Docker контейнера. Подключается к агентам, сам ходит на хосты за информацией.
▪️Поддерживает различные провайдеры для аутентификации.
▪️Умеет сам себя бэкапить локально или на S3.
▪️Имеет REST API.
▪️Приложение построено на базе фреймворка pocketbase.io. Состояние хранится в SQLite.
Как и было сказано, Beszel очень прост в установке. Состоит из одного бинарника. Запустить можно как напрямую, так и через Docker. Если использовать бинарник, надо будет юнит для systemd писать, поэтому проще в Docker запустить:
Можно идти по IP адресу на порт 8090 и создавать учётную запись. Есть русский язык, причём перевод нормальный. У меня он включился по умолчанию, переключить на английский желания не возникло.
На главной странице можно сразу же добавить сервер для мониторинга. Нажимаете соответствующую кнопку, указываете имя и IP адрес сервера и получаете команду для установки либо через бинарник, либо через Docker. После установки агента, сразу начинается сбор метрик.
Для каждого сервера можно включить свои уведомления или использовать глобальные. Настраиваются в пару кликов, очень наглядно. Отправляться могут как по SMTP, так и через популярные мессенджеры. Под капотом там вебхуки через проект Shoutrrr со своим синтаксисом мессенджеров. Например, для Telegram строка с настройкой уведомлений выглядит так:
Пример уведомлений в Telegram есть внизу на картинке.
Мониторинг реально легковесный. Я запустил на чистой системе, добавил 3 хоста. Нагрузка болталась в районе 0-1% CPU и 56372K памяти. Посмотрел так:
Настройка очень простая. Вообще никуда не заглядывал. Сходу всё настроил, оповещения работают, протестировал. И на недоступность хоста, и на потребление ресурсов. В целом, всё понравилось. Очень простой и лёгкий в настройке мониторинг. Выглядит симпатично. Можно пользоваться как для одиночного сервера, так и для нескольких.
⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#мониторинг
Сразу перечислю основные особенности:
▪️Простой и легковесный мониторинг, написанный на Go.
▪️После установки сразу готов к работе, не требует особой настройки.
▪️Собирает только базовые метрики: доступность хоста, загрузка процессора, памяти, дисков, сетевой трафик, доступные метрики с сенсоров платформы. Плюс всё то же самое, только для Docker контейнеров.
▪️Собирает информацию через агентов на удалённых серверах. Агенты в виде бинарника или Docker контейнера. Подключается к агентам, сам ходит на хосты за информацией.
▪️Поддерживает различные провайдеры для аутентификации.
▪️Умеет сам себя бэкапить локально или на S3.
▪️Имеет REST API.
▪️Приложение построено на базе фреймворка pocketbase.io. Состояние хранится в SQLite.
Как и было сказано, Beszel очень прост в установке. Состоит из одного бинарника. Запустить можно как напрямую, так и через Docker. Если использовать бинарник, надо будет юнит для systemd писать, поэтому проще в Docker запустить:
# mkdir -p ./beszel_data && \
# docker run -d --name beszel --restart=unless-stopped \
-v ./beszel_data:/beszel_data -p 8090:8090 henrygd/beszel
Можно идти по IP адресу на порт 8090 и создавать учётную запись. Есть русский язык, причём перевод нормальный. У меня он включился по умолчанию, переключить на английский желания не возникло.
На главной странице можно сразу же добавить сервер для мониторинга. Нажимаете соответствующую кнопку, указываете имя и IP адрес сервера и получаете команду для установки либо через бинарник, либо через Docker. После установки агента, сразу начинается сбор метрик.
Для каждого сервера можно включить свои уведомления или использовать глобальные. Настраиваются в пару кликов, очень наглядно. Отправляться могут как по SMTP, так и через популярные мессенджеры. Под капотом там вебхуки через проект Shoutrrr со своим синтаксисом мессенджеров. Например, для Telegram строка с настройкой уведомлений выглядит так:
telegram://token@telegram?chats=@channel-1[,chat-id-1,...]
Пример уведомлений в Telegram есть внизу на картинке.
Мониторинг реально легковесный. Я запустил на чистой системе, добавил 3 хоста. Нагрузка болталась в районе 0-1% CPU и 56372K памяти. Посмотрел так:
# pmap 25017 -d
Настройка очень простая. Вообще никуда не заглядывал. Сходу всё настроил, оповещения работают, протестировал. И на недоступность хоста, и на потребление ресурсов. В целом, всё понравилось. Очень простой и лёгкий в настройке мониторинг. Выглядит симпатично. Можно пользоваться как для одиночного сервера, так и для нескольких.
⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#мониторинг
Совет-предостережение насчёт systemd, монтирования дисков и некоторых облачных провайдеров. Ситуация, с которой сталкивался сам, а потом встречал ещё не раз. Если не ошибаюсь, последний раз такой механизм видел у хостера Linode.
В Linux есть служба systemd-mount, о которой я уже ранее писал. Хостер может её использовать для автоматического подключения сетевых дисков с разными параметрами. В целом это удобно и для него, и для пользователя. У меня был подключен в точку монтирования один такой диск. Я решил увеличить его в объёме и выбрать более производительный.
Подключил новый диск к серверу, стал копировать информацию. Находясь в консоли Linux сам размонтировал старый диск, который надо отключить и в его точку монтирования подключил новый диск с уже скопированными данными.
Иду в панель управления хостера и отключаю старый диск от сервера. Напоминаю, что в системе я его предварительно уже отмонтировал. Диск как-то подозрительно долго не отключался. Сходил в системный лог сервера посмотреть, отключился ли диск. И увидел там неожиданную информацию.
Идут постоянные попытки от systemd отмонтировать раздел, к которому подмонтирован уже НОВЫЙ диск. То есть у него записано где-то (я нашел в /run/systemd/generator), что к этой точке монтирования подключен старый диск. Софт хостера по управлению ресурсами просит systemd отключить старый диск от его точки монтирования, хотя по факту она уже занята другим диском.
Я в итоге не пострадал, так как приложение активно писало на диск и не дало его отмонтировать. Диск удалился без размонтирования. В таких случаях лучше новые диски монтировать в другие точки монтирования, а у приложений менять путь к рабочей директории. Это хоть и более хлопотно, но надёжнее, чем разбираться с тем, как хостинг монтирует и отключает диски.
Не смотрел, как в российских облаках хостеры монтируют сетевые диски в виртуалки. Если кто-то сталкивался, подскажите, эта тема актуальна для них, или там такого в принципе нет. Используется что-то другое, или диски только подключаются, но не монтируются автоматически.
В Linux есть служба systemd-mount, о которой я уже ранее писал. Хостер может её использовать для автоматического подключения сетевых дисков с разными параметрами. В целом это удобно и для него, и для пользователя. У меня был подключен в точку монтирования один такой диск. Я решил увеличить его в объёме и выбрать более производительный.
Подключил новый диск к серверу, стал копировать информацию. Находясь в консоли Linux сам размонтировал старый диск, который надо отключить и в его точку монтирования подключил новый диск с уже скопированными данными.
Иду в панель управления хостера и отключаю старый диск от сервера. Напоминаю, что в системе я его предварительно уже отмонтировал. Диск как-то подозрительно долго не отключался. Сходил в системный лог сервера посмотреть, отключился ли диск. И увидел там неожиданную информацию.
Идут постоянные попытки от systemd отмонтировать раздел, к которому подмонтирован уже НОВЫЙ диск. То есть у него записано где-то (я нашел в /run/systemd/generator), что к этой точке монтирования подключен старый диск. Софт хостера по управлению ресурсами просит systemd отключить старый диск от его точки монтирования, хотя по факту она уже занята другим диском.
Я в итоге не пострадал, так как приложение активно писало на диск и не дало его отмонтировать. Диск удалился без размонтирования. В таких случаях лучше новые диски монтировать в другие точки монтирования, а у приложений менять путь к рабочей директории. Это хоть и более хлопотно, но надёжнее, чем разбираться с тем, как хостинг монтирует и отключает диски.
Не смотрел, как в российских облаках хостеры монтируют сетевые диски в виртуалки. Если кто-то сталкивался, подскажите, эта тема актуальна для них, или там такого в принципе нет. Используется что-то другое, или диски только подключаются, но не монтируются автоматически.
Вчера была рассылка от Mikrotik. Я последнее время их игнорирую, так как продукция явно потеряла былую популярность в России в первую очередь из-за цен. Хотя близких аналогов нет, всё равно Микротики уже не так популярны. Но мимо вчерашней новости не смог пройти мимо, потому что она меня удивила.
Компания выпустила свой сервер - RouterOS enterprise Data Server со следующими характеристиками:
◽️20 слотов под U.2 NVMe диски, с поддежкой M.2
◽️сетевые порты: 2×100G QSFP28, 4×25G SFP28, 4×10G SFP+, 2×10G Ethernet
◽️16-core 2 GHz ARM CPU + 32GB DDR4 RAM
Внутри, как и ожидается – RouterOS в редакции Special ROSE edition с поддержкой в том числе технологии NVMe-TCP для экспорта дисков другим серверам. Это помимо традиционных SMB, NFS, iSCSI.
Компания позиционирует свой сервер как очень быстрое локальное хранилище под нагрузку, запущенную в контейнерах, которые RouterOS 7 поддерживает уже сейчас. В описании явно указаны примеры применения: MinIO, Nextcloud, Shinobi, Frigate и другие.
Неожиданная новинка. Цена всего $1950, что намекает на сегмент малого и среднего бизнеса. И при этом такие скорости, которые там особо не нужны.
Что думаете по поводу этих серверов? Мне кажется, зря они в сервера подались. Лучше бы на сетевых устройствах сконцентрировались, починили баги RouterOS 7, запустили бы наконец Long Term ветку. Представляю, сколько вылезет багов в системе на этом сервере, особенно в работе контейнеров под нагрузкой. Там инструментов для диагностики почти нет, работать с ними неудобно. Я бы не стал.
#mikrotik
Компания выпустила свой сервер - RouterOS enterprise Data Server со следующими характеристиками:
◽️20 слотов под U.2 NVMe диски, с поддежкой M.2
◽️сетевые порты: 2×100G QSFP28, 4×25G SFP28, 4×10G SFP+, 2×10G Ethernet
◽️16-core 2 GHz ARM CPU + 32GB DDR4 RAM
Внутри, как и ожидается – RouterOS в редакции Special ROSE edition с поддержкой в том числе технологии NVMe-TCP для экспорта дисков другим серверам. Это помимо традиционных SMB, NFS, iSCSI.
Компания позиционирует свой сервер как очень быстрое локальное хранилище под нагрузку, запущенную в контейнерах, которые RouterOS 7 поддерживает уже сейчас. В описании явно указаны примеры применения: MinIO, Nextcloud, Shinobi, Frigate и другие.
Неожиданная новинка. Цена всего $1950, что намекает на сегмент малого и среднего бизнеса. И при этом такие скорости, которые там особо не нужны.
Что думаете по поводу этих серверов? Мне кажется, зря они в сервера подались. Лучше бы на сетевых устройствах сконцентрировались, починили баги RouterOS 7, запустили бы наконец Long Term ветку. Представляю, сколько вылезет багов в системе на этом сервере, особенно в работе контейнеров под нагрузкой. Там инструментов для диагностики почти нет, работать с ними неудобно. Я бы не стал.
#mikrotik
This media is not supported in your browser
VIEW IN TELEGRAM
Типичная ситуация, которую я видел много раз. По какой-то причине некоторые руководители считают, что можно уволить сисадмина, не взять сразу на его место кого-нибудь, и оно само как-то будет работать. А потом что-то начинает ломаться.
Звонят сисадмину, но он почему-то не хочет помогать. Нанимают нового, но он ничего не знает, потому что никто не передал дела. Я так пришёл в одну компанию, где сисадмин уволился пару месяцев назад и там его помощник выживал, как мог. Но у него ни доступов, ни понимания, как тут всё работает, не было. Ни желания что-то делать за свою зарплату и должность помощника. Благо хоть учётки у директора были. Админа не стал дёргать, во всём без него разобрался.
Иногда мне пишут люди и просят помочь с какой-то проблемой, потому что сисадмин уволился и никто не знает, что делать. Я не берусь за такие задачи, обычно сразу отказываю. Не хочу связываться с такими делами. Это гарантированно бесконечные поиски информации и подводные камни в решении проблем.
Видео отсюда: https://www.youtube.com/shorts/8ooaojqQ70w
Прикольный, кстати, канал. Вроде ничего особенного, но некоторые вещи забавные.
#юмор (чёрный)
Звонят сисадмину, но он почему-то не хочет помогать. Нанимают нового, но он ничего не знает, потому что никто не передал дела. Я так пришёл в одну компанию, где сисадмин уволился пару месяцев назад и там его помощник выживал, как мог. Но у него ни доступов, ни понимания, как тут всё работает, не было. Ни желания что-то делать за свою зарплату и должность помощника. Благо хоть учётки у директора были. Админа не стал дёргать, во всём без него разобрался.
Иногда мне пишут люди и просят помочь с какой-то проблемой, потому что сисадмин уволился и никто не знает, что делать. Я не берусь за такие задачи, обычно сразу отказываю. Не хочу связываться с такими делами. Это гарантированно бесконечные поиски информации и подводные камни в решении проблем.
Видео отсюда: https://www.youtube.com/shorts/8ooaojqQ70w
Прикольный, кстати, канал. Вроде ничего особенного, но некоторые вещи забавные.
#юмор (чёрный)