Тот, кто часто работает в Bash, наверняка пользуется поиском по истории команд, которую можно вызвать сочетанием клавиш Ctrl+R. Как по мне, пользоваться этим функционалом не очень удобно, поэтому я редко к нему прибегаю.
Но есть замечательная утилита McFly, которая перехватывает это сочетание клавиш и дальше сама управляет поиском по истории. Словами трудно описать, в чём удобство. Надо просто попробовать. Я как увидел, сразу влюбился в эту утилиту. С ней очень удобно работать с историей.
В репозиториях дистрибутивов программы нет. Поставить можно через github. Достаточно скачать и запустить бинарник из репы - https://github.com/cantino/mcfly. Для ленивых есть простенький скрипт, который сам это сделает и положит нужный под вашу систему бинарник в /usr/local/bin. Это путь для отважных и смелых:
# curl -LSfs https://raw.githubusercontent.com/cantino/mcfly/master/ci/install.sh | sh -s -- --git cantino/mcfly
Далее добавьте в свой ~/.bashrc строку:
и перезайдите.
Нажимайте Ctrl+R и наслаждайтесь красотой и удобством. Теперь работать с историей команд будет намного проще. При первом запуске вы увидите список наиболее часто используемых команд. После начала набора текста, когда будет ясно, какая команда вам нужна, откроется история запуска именной этой команды.
McFly не ломает работу встроенной history. Все свои данные хранит в отдельной sqlite базе в ~/.mcfly. Так что если станет не нужна, просто отключите ее в .bashrc и удалите бинарник.
#bash #terminal
Но есть замечательная утилита McFly, которая перехватывает это сочетание клавиш и дальше сама управляет поиском по истории. Словами трудно описать, в чём удобство. Надо просто попробовать. Я как увидел, сразу влюбился в эту утилиту. С ней очень удобно работать с историей.
В репозиториях дистрибутивов программы нет. Поставить можно через github. Достаточно скачать и запустить бинарник из репы - https://github.com/cantino/mcfly. Для ленивых есть простенький скрипт, который сам это сделает и положит нужный под вашу систему бинарник в /usr/local/bin. Это путь для отважных и смелых:
# curl -LSfs https://raw.githubusercontent.com/cantino/mcfly/master/ci/install.sh | sh -s -- --git cantino/mcfly
Далее добавьте в свой ~/.bashrc строку:
eval "$(mcfly init bash)"
и перезайдите.
Нажимайте Ctrl+R и наслаждайтесь красотой и удобством. Теперь работать с историей команд будет намного проще. При первом запуске вы увидите список наиболее часто используемых команд. После начала набора текста, когда будет ясно, какая команда вам нужна, откроется история запуска именной этой команды.
McFly не ломает работу встроенной history. Все свои данные хранит в отдельной sqlite базе в ~/.mcfly. Так что если станет не нужна, просто отключите ее в .bashrc и удалите бинарник.
#bash #terminal
Недавнее крупное падение Facebook и зависящих от неё сервисов подсветило некоторые неочевидные проблемы. Я обратил внимание на проскочившую новость о том, что сотрудники компании не могли попасть в нужные помещения, потому что у них не работали пропуска. А если бы это был пожар и пропуска так же отказали бы?
Как можно системы контроля доступа строить поверх обычных ethernet сетей, да еще зависящих от работы dns или чего-то еще? Они, как и системы пожаротушения, экстренного оповещения, должны быть отдельными автономными контурами на базе своих каналов связи. Но, как я понимаю, в целях экономии последнее время всё строят поверх существующих ethernet сетей, потому что проще и дешевле.
Давно еще я работал в компании, продающей промышленные системы в том числе аварийного оповещения на производстве. И они работали в своих независимых сетях. Нужно было только под них прокладывать отдельные кабельные сети. Из-за этого итоговая стоимость построения и обслуживания такой системы была достаточно высока. На рынке появлялись конкуренты, которые подобные системы строили поверх существующих сетей ethernet. Естественно, они были дешевле. Не знаю, какова сейчас судьба подобных независимых систем, но мне кажется, что их выдавили с рынка более дешёвые аналоги, которые просто не сработают в случае серьезных проблем.
У меня складывается впечатление, что последнее время как-то много негатива про Facebook в масс медиа. Такое ощущение, что этого технологического гиганта и почти монополиста в некоторых сферах кто-то планомерно и методично топит. Что думаете по этому поводу?
#мысли
Как можно системы контроля доступа строить поверх обычных ethernet сетей, да еще зависящих от работы dns или чего-то еще? Они, как и системы пожаротушения, экстренного оповещения, должны быть отдельными автономными контурами на базе своих каналов связи. Но, как я понимаю, в целях экономии последнее время всё строят поверх существующих ethernet сетей, потому что проще и дешевле.
Давно еще я работал в компании, продающей промышленные системы в том числе аварийного оповещения на производстве. И они работали в своих независимых сетях. Нужно было только под них прокладывать отдельные кабельные сети. Из-за этого итоговая стоимость построения и обслуживания такой системы была достаточно высока. На рынке появлялись конкуренты, которые подобные системы строили поверх существующих сетей ethernet. Естественно, они были дешевле. Не знаю, какова сейчас судьба подобных независимых систем, но мне кажется, что их выдавили с рынка более дешёвые аналоги, которые просто не сработают в случае серьезных проблем.
У меня складывается впечатление, что последнее время как-то много негатива про Facebook в масс медиа. Такое ощущение, что этого технологического гиганта и почти монополиста в некоторых сферах кто-то планомерно и методично топит. Что думаете по этому поводу?
#мысли
Существует крутой консольный просмотрщик логов Lnav. Он умеет объединять логи из разных источников, подсвечивать их, распаковывать из архивов, фильтровать по регуляркам и многое другое. При этом пользоваться им достаточно просто. Не надо изучать и вникать в работу. Всё интуитивно и максимально просто.
Lnav это просто одиночный бинарник, который можно загрузить из github - https://github.com/tstack/lnav/releases.
# wget https://github.com/tstack/lnav/releases/download/v0.10.0/lnav-0.10.0-musl-64bit.zip
# unzip lnav-0.10.0-musl-64bit.zip
# mv lnav-0.10.0/lnav /usr/local/bin
Теперь, к примеру, можно разом посмотреть все логи /var/log/messages, в том числе и сжатые, ротированные файлы:
Можно неудобочитаемый вывод journalctl направить в lnav:
При просмотре логов автоматически работает всторенная навигация на перемещение к ошибкам по горячей клавише e (error) или предупреждениям по клавише w (warning). Новые строки логов автоматически отображаются, то есть lnav можно использовать вместо tail -f.
Для корректной работы lnav нужен 256 цветный терминал. Если у вас используется обычный term, то надо добавить в ~/.bashrc и перезайти:
Сайт программы - https://lnav.org На нём описаны все возможности этой утилиты.
#утилита #terminal
Lnav это просто одиночный бинарник, который можно загрузить из github - https://github.com/tstack/lnav/releases.
# wget https://github.com/tstack/lnav/releases/download/v0.10.0/lnav-0.10.0-musl-64bit.zip
# unzip lnav-0.10.0-musl-64bit.zip
# mv lnav-0.10.0/lnav /usr/local/bin
Теперь, к примеру, можно разом посмотреть все логи /var/log/messages, в том числе и сжатые, ротированные файлы:
# lnav /var/log/messages*
Можно неудобочитаемый вывод journalctl направить в lnav:
# journalctl | lnav
При просмотре логов автоматически работает всторенная навигация на перемещение к ошибкам по горячей клавише e (error) или предупреждениям по клавише w (warning). Новые строки логов автоматически отображаются, то есть lnav можно использовать вместо tail -f.
Для корректной работы lnav нужен 256 цветный терминал. Если у вас используется обычный term, то надо добавить в ~/.bashrc и перезайти:
export TERM=xterm-256color
Сайт программы - https://lnav.org На нём описаны все возможности этой утилиты.
#утилита #terminal
На прошлой неделе рассказывал про игру Human Resource Machine. У неё есть продолжение - 7 Billion Humans. Причём, судя по отзывам и рейтингу, еще лучше чем первая часть.
ОБ ЭТОЙ ИГРЕ:
Автоматизируйте толпы офисных работников для решения головоломок внутри вашего собственного распараллеленного компьютера, сделанного из людей. Захватывающее продолжение удостоенного наградами Human Resource Machine. Теперь людей в разы больше!
Игра в Steam - https://store.steampowered.com/app/792100/7_Billion_Humans/
Официальный трейлер - https://www.youtube.com/watch?v=1OqaU7CutsY
Геймплей (366 тыщ просмотров!!!) - https://www.youtube.com/watch?v=40HawFJYNOk
Отзывы:
Вот это нужно на уроках информатики использовать,а не Паскаль и тд. Ведь это будет не только развлечение,но и обучение программированию.
+Хорошая головоломка
+Приятная графика
+Не требовательна к железу
+Будет полезна при обучении программированию
Просыпаюсь, наливаю чаёк и неспешно прохожу несколько уровней, закусывая печенькой или глазированнным сырком. Удовольствие невероятное!
Прекрасная головоломка в направлении программирования.
Если первая часть была очень похожа на Ассемблер. То здесь авторы пошли дальше и теперь знакомят нас с многопоточностью. Если вы разработчик, вы легко узнаете родные дедлоки и синхронизаторы. Очень советую всем кому понравилась первая часть. А так же всем, кто интересуется кодом и разработкой, Вы окажетесь в родной среде =).
#игра
ОБ ЭТОЙ ИГРЕ:
Автоматизируйте толпы офисных работников для решения головоломок внутри вашего собственного распараллеленного компьютера, сделанного из людей. Захватывающее продолжение удостоенного наградами Human Resource Machine. Теперь людей в разы больше!
Игра в Steam - https://store.steampowered.com/app/792100/7_Billion_Humans/
Официальный трейлер - https://www.youtube.com/watch?v=1OqaU7CutsY
Геймплей (366 тыщ просмотров!!!) - https://www.youtube.com/watch?v=40HawFJYNOk
Отзывы:
Вот это нужно на уроках информатики использовать,а не Паскаль и тд. Ведь это будет не только развлечение,но и обучение программированию.
+Хорошая головоломка
+Приятная графика
+Не требовательна к железу
+Будет полезна при обучении программированию
Просыпаюсь, наливаю чаёк и неспешно прохожу несколько уровней, закусывая печенькой или глазированнным сырком. Удовольствие невероятное!
Прекрасная головоломка в направлении программирования.
Если первая часть была очень похожа на Ассемблер. То здесь авторы пошли дальше и теперь знакомят нас с многопоточностью. Если вы разработчик, вы легко узнаете родные дедлоки и синхронизаторы. Очень советую всем кому понравилась первая часть. А так же всем, кто интересуется кодом и разработкой, Вы окажетесь в родной среде =).
#игра
Я на прошлой неделе возился дома с домашней лабой на proxmox. Обновил старый nettop, который лежал без дела. Поставил в него ssd диск и 16 gb памяти. Решил добавить к кластеру proxmox. Для тестовых vm будет самое то - не шумит, мало места занимает, электричества крохи ест.
Но вот незадача. Стандартный драйвер Realtek в ядре Linux не заработал со встроенной сетевухой. Пришлось качать альтернативный и собирать его локально. Основная сложность в том, что когда не работает сеть, ты как без рук. Я уже отвык от такого режима работы. Пришлось файлы и репозитории на флешке таскать на этот nettop и вспоминать, как работать на сервере без сети.
Сначала хотел плюнуть и забить на это дело. Поставить на неттоп винду и оставить его как рабочую станцию. Но потом всё-таки решил разобраться. В итоге всё получилось. Написал статью, чтобы не забыть и другим помочь. Судя по гуглению, проблема популярная.
https://serveradmin.ru/r8169-rtl_rxtx_empty_cond-0-loop-42-delay-100/
#proxmox #ошибка
Но вот незадача. Стандартный драйвер Realtek в ядре Linux не заработал со встроенной сетевухой. Пришлось качать альтернативный и собирать его локально. Основная сложность в том, что когда не работает сеть, ты как без рук. Я уже отвык от такого режима работы. Пришлось файлы и репозитории на флешке таскать на этот nettop и вспоминать, как работать на сервере без сети.
Сначала хотел плюнуть и забить на это дело. Поставить на неттоп винду и оставить его как рабочую станцию. Но потом всё-таки решил разобраться. В итоге всё получилось. Написал статью, чтобы не забыть и другим помочь. Судя по гуглению, проблема популярная.
https://serveradmin.ru/r8169-rtl_rxtx_empty_cond-0-loop-42-delay-100/
#proxmox #ошибка
Server Admin
R8169 rtl_rxtx_empty_cond == 0 (loop: 42, delay: 100) | serveradmin.ru
[01448.532276] r8169 0000:09:00.0 enp3s0: rtl_rxtx_empty_cond == 0 (loop: 42, delay: 100). [01458.532277] r8169 0000:09:00.0 enp3s0: rtl_rxtx_empty_cond == 0 (loop: 42, delay: 100). [01468.532278]...
Media is too big
VIEW IN TELEGRAM
Гиперконвергенция? Фичи? Баги? Cупергерой ГИПЕРМЕН расскажет вам обо всём! Смотрите и следите за новыми приключениями.
👉 https://clck.ru/XzEL9
#реклама #гипермен
👉 https://clck.ru/XzEL9
#реклама #гипермен
Multi-page dashboards в Zabbix.
Данный функционал появился в версии 5.4. Настраиваем следующим образом:
1. Открываем любой дашборд и нажимаем "Изменить панель".
2. Рядом с кнопкой "Добавить" жмем на стрелку и выбираем "Добавить страницу".
3. Указываем название новой страницы дашборда.
4. Кликаем мышкой в любом месте новой страницы и добавляем виджет.
5. Возвращаемся на первую страницу, жмём на значок с тремя точками любого виджета и выбираем "Копировать".
6. Переходим на вторую страницу, кликаем в любое свободное место мышкой и выбираем "Вставить виджет". Таким образом можно копировать виджеты со страницы на страницу.
7. Кликаем на шестерёнку дашборда, чтобы открыть его настройки. Ставим галочку "Запускать слайд-шоу автоматически".
8. Применяем изменения дашборда, выходим из режима редактирования.
9. Теперь дашборд будет автоматически переключать страницы через заданный интервал.
https://www.youtube.com/watch?v=czA-nbP_nKI
#zabbix #мониторинг
Данный функционал появился в версии 5.4. Настраиваем следующим образом:
1. Открываем любой дашборд и нажимаем "Изменить панель".
2. Рядом с кнопкой "Добавить" жмем на стрелку и выбираем "Добавить страницу".
3. Указываем название новой страницы дашборда.
4. Кликаем мышкой в любом месте новой страницы и добавляем виджет.
5. Возвращаемся на первую страницу, жмём на значок с тремя точками любого виджета и выбираем "Копировать".
6. Переходим на вторую страницу, кликаем в любое свободное место мышкой и выбираем "Вставить виджет". Таким образом можно копировать виджеты со страницы на страницу.
7. Кликаем на шестерёнку дашборда, чтобы открыть его настройки. Ставим галочку "Запускать слайд-шоу автоматически".
8. Применяем изменения дашборда, выходим из режима редактирования.
9. Теперь дашборд будет автоматически переключать страницы через заданный интервал.
https://www.youtube.com/watch?v=czA-nbP_nKI
#zabbix #мониторинг
YouTube
Zabbix Handy Tips: Multi-page dashboards
Zabbix Handy Tips - is byte-sized news for busy techies, focused on one particular topic. In this video, we will take a look at Zabbix multipage Dashboards and how they have replaced Screens in Zabbix 5.4. We will guide you through the creation of a multipage…
Если вы хотите сохранять информацию о том, кто получает доступ к тому или иному файлу в ОС Linux, читайте далее, как это сделать. Допустим, у вас есть конфиг nginx в файле /etc/nginx/nginx.conf и вы хотите знать, кто его открывает на чтение или изменяет. Сделать это можно с помощью встроенной подсистемы аудита Linux.
Для этого понадобится утилита auditctl. Чаще всего она уже присутствует в системе. Если это не так, то ее легко установить:
Дальше создаем отдельное правило для контроля за конкретным файлом. Так будет проще потом делать выборку:
rwa - чтение (r), запись (w), изменение атрибута (a)
nginx_conf - название правила аудита
Проверим текущий список правил auditctl и убедимся, что появилось новое:
Удалить правила можно командой:
Теперь можно что-то сделать с указанным в правиле файлом. После этого есть несколько способов посмотреть результат аудита.
Эта утилита покажет список событий, связанных с правилом, включающим в себя конфиг nginx.conf. В списке будет информация о пользователе, программе, с помощью которой был доступ к файлу, дата события и т.д.
Более подробную информацию по срабатыванию правила можно увидеть с помощью другой утилиты:
Конкретизировать вывод только событиями записи файла можно с помощью grep:
У ausearch много встроенных ключей для фильтрации событий, так что чаще всего нужную информацию можно получить с их помощью и без grep.
События аудита записываются в обычный лог файл. Чаще всего это /var/log/audit/audit.log. Для того, чтобы изменения этого файла не привели к потери важных событий имеет смысл дополнительно настроить отправку событий на удаленный сервер хранения логов.
#terminal #security
Для этого понадобится утилита auditctl. Чаще всего она уже присутствует в системе. Если это не так, то ее легко установить:
# dnf install auditctl
# apt install auditctl
Дальше создаем отдельное правило для контроля за конкретным файлом. Так будет проще потом делать выборку:
# auditctl -w /etc/nginx/nginx.conf -p rwa -k nginx_conf
rwa - чтение (r), запись (w), изменение атрибута (a)
nginx_conf - название правила аудита
Проверим текущий список правил auditctl и убедимся, что появилось новое:
# auditctl -l
Удалить правила можно командой:
# auditctl -D
Теперь можно что-то сделать с указанным в правиле файлом. После этого есть несколько способов посмотреть результат аудита.
# aureport -f -i | grep /etc/nginx/nginx.conf
Эта утилита покажет список событий, связанных с правилом, включающим в себя конфиг nginx.conf. В списке будет информация о пользователе, программе, с помощью которой был доступ к файлу, дата события и т.д.
Более подробную информацию по срабатыванию правила можно увидеть с помощью другой утилиты:
# ausearch -i -k nginx_conf
Конкретизировать вывод только событиями записи файла можно с помощью grep:
# ausearch -i -k nginx_conf | grep O_WRONLY
У ausearch много встроенных ключей для фильтрации событий, так что чаще всего нужную информацию можно получить с их помощью и без grep.
События аудита записываются в обычный лог файл. Чаще всего это /var/log/audit/audit.log. Для того, чтобы изменения этого файла не привели к потери важных событий имеет смысл дополнительно настроить отправку событий на удаленный сервер хранения логов.
#terminal #security
Написал статью по настройке Elastic Enterprise Search. Это отдельная служба, которая работает на базе ELK Stack и может быть установлена и интегрирована в указанную инфраструктуру. Но при этом остается независимым, отдельным компонентом.
Если я не ошибаюсь, то когда-то этот продукт был только в платной версии. Почему-то отложилась информация, но нигде не нашёл подтверждения. На текущий момент денег не просит, ставится свободно. Enterprise Search часто используют для настройки продвинутого поиска на большом сайте.
Так как для подключения Enterprise Search необходимо настроить авторизацию через xpack.security, а так же TLS, вынес эти настройки в отдельные подразделы статьи. Они могут быть полезны сами по себе. Я в простых случаях закрываю доступ к ELK через Firewall, а к Kibana на nginx proxy с помощью basic_auth. Это более простое решение, но понятно, что не такое гибкое, как встроенные средства ELK. Но EES хочет видеть настроенными встроенные инструменты, так что пришлось сделать.
https://serveradmin.ru/ustanovka-elastic-enterprise-search/
#elk #devops #статья
Если я не ошибаюсь, то когда-то этот продукт был только в платной версии. Почему-то отложилась информация, но нигде не нашёл подтверждения. На текущий момент денег не просит, ставится свободно. Enterprise Search часто используют для настройки продвинутого поиска на большом сайте.
Так как для подключения Enterprise Search необходимо настроить авторизацию через xpack.security, а так же TLS, вынес эти настройки в отдельные подразделы статьи. Они могут быть полезны сами по себе. Я в простых случаях закрываю доступ к ELK через Firewall, а к Kibana на nginx proxy с помощью basic_auth. Это более простое решение, но понятно, что не такое гибкое, как встроенные средства ELK. Но EES хочет видеть настроенными встроенные инструменты, так что пришлось сделать.
https://serveradmin.ru/ustanovka-elastic-enterprise-search/
#elk #devops #статья
Server Admin
Установка Elastic Enterprise Search | serveradmin.ru
xpack.security.enabled: true После этого перезапустите службу elasticsearch: # systemctl restart elasticsearch Теперь сгенерируем пароли к встроенным учётным записям (built-in users) elastic. Для...
Попробовал вчера интересную систему мониторинга checkmk. Думал очередная система, по которой быстро напишу заметку и забуду, как это обычно бывает. Но на деле получилось немного не так.
Система мне очень понравилась. Я установил ее, посмотрел. Добавил пару агентов, изучил функционал. Как я понял, checkmk построена на базе nagios, но сильно доработана. Расскажу по порядку, на что конкретно обратил внимание.
Для теста систему можно запустить в докер. Всё упаковано в один контейнер.
# docker container run -dit -p 8080:5000 --tmpfs /opt/omd/sites/cmk/tmp:uid=1000,gid=1000 -v/omd/sites --name monitoring -v/etc/localtime:/etc/localtime:ro --restart always checkmk/check-mk-raw:2.0.0-latest
После запуска надо посмотреть пароль для доступа в web интерфейс. Он отобразится в логах запуска контейнера:
# docker logs monitoring
Переходим в веб интерфейс http://192.168.13.171:8080, логин cmkadmin, пароль из лога. Интерфейс лично мне понравился. Особенно его идея, когда ты сначала вносишь изменения, а потом подтверждаешь их. Пока не подтвердишь, изменения не применяются, как в некоторых сетевых устройствах.
На самом сервере хранятся пакеты для агентов. Для того, чтобы добавить новый хост, достаточно просто установить пакет, примерно так:
# rpm -ivh http://192.168.13.171:8080/cmk/check_mk/agents/check-mk-agent-2.0.0p12-1.noarch.rpm
На самом хосте больше делать ничего не надо. Идём на сервер и добавляем новый хост по ip. Checkmk автоматом к нему подключается, делает базовые проверки, выставляет метки. Например, контейнер lxc он распознал и повесил две метки - Container, Linux. Так же он сам находит службы на хосте по своим встроенным правилам Discovery. Вы тут же смотрите список служб и выбираете, какие хотите поставить на мониторинг.
Мой итог такой. Система простая, удобная и функциональная. Я в течении часа ее развернул, добавил хосты, поизучал, посмотрел на графики, дашборды и т.д. То есть порог входа очень низкий. Разобраться сможет почти любой. Это одна из немногих систем, которые я рассматривал и которая мне реально понравилась. Из форков nagios показалась самой интересной.
Сайт - https://checkmk.com/
Gihub - https://github.com/tribe29/checkmk/
Dockerhub - https://hub.docker.com/r/checkmk/check-mk-raw/
#мониторинг
Система мне очень понравилась. Я установил ее, посмотрел. Добавил пару агентов, изучил функционал. Как я понял, checkmk построена на базе nagios, но сильно доработана. Расскажу по порядку, на что конкретно обратил внимание.
Для теста систему можно запустить в докер. Всё упаковано в один контейнер.
# docker container run -dit -p 8080:5000 --tmpfs /opt/omd/sites/cmk/tmp:uid=1000,gid=1000 -v/omd/sites --name monitoring -v/etc/localtime:/etc/localtime:ro --restart always checkmk/check-mk-raw:2.0.0-latest
После запуска надо посмотреть пароль для доступа в web интерфейс. Он отобразится в логах запуска контейнера:
# docker logs monitoring
Переходим в веб интерфейс http://192.168.13.171:8080, логин cmkadmin, пароль из лога. Интерфейс лично мне понравился. Особенно его идея, когда ты сначала вносишь изменения, а потом подтверждаешь их. Пока не подтвердишь, изменения не применяются, как в некоторых сетевых устройствах.
На самом сервере хранятся пакеты для агентов. Для того, чтобы добавить новый хост, достаточно просто установить пакет, примерно так:
# rpm -ivh http://192.168.13.171:8080/cmk/check_mk/agents/check-mk-agent-2.0.0p12-1.noarch.rpm
На самом хосте больше делать ничего не надо. Идём на сервер и добавляем новый хост по ip. Checkmk автоматом к нему подключается, делает базовые проверки, выставляет метки. Например, контейнер lxc он распознал и повесил две метки - Container, Linux. Так же он сам находит службы на хосте по своим встроенным правилам Discovery. Вы тут же смотрите список служб и выбираете, какие хотите поставить на мониторинг.
Мой итог такой. Система простая, удобная и функциональная. Я в течении часа ее развернул, добавил хосты, поизучал, посмотрел на графики, дашборды и т.д. То есть порог входа очень низкий. Разобраться сможет почти любой. Это одна из немногих систем, которые я рассматривал и которая мне реально понравилась. Из форков nagios показалась самой интересной.
Сайт - https://checkmk.com/
Gihub - https://github.com/tribe29/checkmk/
Dockerhub - https://hub.docker.com/r/checkmk/check-mk-raw/
#мониторинг
Предлагаю к просмотру обзор программы для анализа и мониторинга сетевого трафика - Noction Flow Analyzer. Она принимает, обрабатывает данные NetFlow, sFlow, IPFIX, NetStream и BGP и визуализирует их.
Я настроил анализ трафика в своей тестовой лаборатории и разобрал основной функционал программы. Знаю, что мониторинг того, что происходит в сети - востребованный функционал. Периодически вижу вопросы на тему того, как лучше и удобнее решать эту задачу. NFA как раз делает это быстро и просто.
Для тех, кто не понимает полностью, о чем идёт речь, поясню. С помощью указанной программы можно с точностью до пакета узнать, кто, куда и что именно отправлял по сети. То есть берём какой-то конкретный ip адрес и смотрим куда и что он отправлял, какую пропускную полосу занимал. Всё это можно агрегировать по разным признакам, визуализировать, настраивать предупреждения о превышении каких-то заданных сетевых метрик.
Noction Flow Analyzer устанавливается локально с помощью deb или rpm пакетов из репозитория разработчиков. Никакой хипстоты, контейнеров, кубернетисов, облаков и saas. Программа платная с ежемесячной подпиской. Есть триал на 30 дней. Под капотом - Yandex ClickHouse.
https://serveradmin.ru/analiz-setevogo-trafika-v-noction-flow-analyzer/
#gateway #статья #netflow
Я настроил анализ трафика в своей тестовой лаборатории и разобрал основной функционал программы. Знаю, что мониторинг того, что происходит в сети - востребованный функционал. Периодически вижу вопросы на тему того, как лучше и удобнее решать эту задачу. NFA как раз делает это быстро и просто.
Для тех, кто не понимает полностью, о чем идёт речь, поясню. С помощью указанной программы можно с точностью до пакета узнать, кто, куда и что именно отправлял по сети. То есть берём какой-то конкретный ip адрес и смотрим куда и что он отправлял, какую пропускную полосу занимал. Всё это можно агрегировать по разным признакам, визуализировать, настраивать предупреждения о превышении каких-то заданных сетевых метрик.
Noction Flow Analyzer устанавливается локально с помощью deb или rpm пакетов из репозитория разработчиков. Никакой хипстоты, контейнеров, кубернетисов, облаков и saas. Программа платная с ежемесячной подпиской. Есть триал на 30 дней. Под капотом - Yandex ClickHouse.
https://serveradmin.ru/analiz-setevogo-trafika-v-noction-flow-analyzer/
#gateway #статья #netflow
Server Admin
Анализ сетевого трафика в Noction Flow Analyzer | serveradmin.ru
Подробная статья с установкой и настройкой программы для мониторинга и анализа сетевого трафика Noction Flow Analyzer.
Продолжаю тему хранения паролей для командной работы. На этот раз речь пойдет про известный сервис passbolt. У него современный веб интерфейс и стандартный набор возможностей для подобных программ:
◽ Возможность установки на своем сервере
◽ Доступ к сервису на основе пользователей и групп
◽ Импорт, экспорт в csv, xls, kdbx (формат keepass)
◽ Расширение для браузера, встроенный CLI
◽ Работа с сервисом через Open API
Passbolt есть в бесплатной редакции и платной с дополнительным набором возможностей, таких как интеграция с ldap, тэгирование записей, лог событий, поддержка и некоторые другие возможности.
Установка. Клонируем репозиторий с docker-compose:
# git clone https://github.com/passbolt/passbolt_docker
# cd passbolt_docker
Открываем файл env/passbolt.env и обязательно указываем ваш url. Без этого ничего не заработает. Я указал просто ip адрес тестовой машины:
APP_FULL_BASE_URL=https://192.168.13.171
После этого запускаем контейнеры:
# docker-compose -d docker-compose.yml up
Дожидаемся запуска и создаем администратора, не выходя из директории репозитория, откуда запущен docker-compose.
# docker-compose exec passbolt su -m -c "/usr/share/php/passbolt/bin/cake \
passbolt register_user \
-u <your@email.com> \
-f <yourname> \
-l <surname> \
-r admin" -s /bin/sh www-data
Не забудьте указать свои данные. В консоль вам будет выдана некоторая информация, в том числе ссылка, вида:
https://192.168.13.171/setup/install/27942498-8aa3-4587-b105-1092d4c0c864/e3f1dc15-1b4e-4264-84c4-e480b96bf4c1
По ней нужно пройти и активировать учётную запись. Для этого нужно будет установить официальное расширение для браузера. После этого окажитесь в системе и можете начинать ей пользоваться.
Из всех систем, что я тестировал ранее, passbolt понравился больше всего. Тут и интерфейс современный, удобный. Живой проект с большим сообществом, хорошей документацией. Есть платная версия, которая теоретически должна обеспечивать поддержку и развитие проекта.
Сайт - https://www.passbolt.com/
Github - https://github.com/passbolt/passbolt_api
Demo - https://www.passbolt.com/cloud/signup
Документация - https://help.passbolt.com/
#password
◽ Возможность установки на своем сервере
◽ Доступ к сервису на основе пользователей и групп
◽ Импорт, экспорт в csv, xls, kdbx (формат keepass)
◽ Расширение для браузера, встроенный CLI
◽ Работа с сервисом через Open API
Passbolt есть в бесплатной редакции и платной с дополнительным набором возможностей, таких как интеграция с ldap, тэгирование записей, лог событий, поддержка и некоторые другие возможности.
Установка. Клонируем репозиторий с docker-compose:
# git clone https://github.com/passbolt/passbolt_docker
# cd passbolt_docker
Открываем файл env/passbolt.env и обязательно указываем ваш url. Без этого ничего не заработает. Я указал просто ip адрес тестовой машины:
APP_FULL_BASE_URL=https://192.168.13.171
После этого запускаем контейнеры:
# docker-compose -d docker-compose.yml up
Дожидаемся запуска и создаем администратора, не выходя из директории репозитория, откуда запущен docker-compose.
# docker-compose exec passbolt su -m -c "/usr/share/php/passbolt/bin/cake \
passbolt register_user \
-u <your@email.com> \
-f <yourname> \
-l <surname> \
-r admin" -s /bin/sh www-data
Не забудьте указать свои данные. В консоль вам будет выдана некоторая информация, в том числе ссылка, вида:
https://192.168.13.171/setup/install/27942498-8aa3-4587-b105-1092d4c0c864/e3f1dc15-1b4e-4264-84c4-e480b96bf4c1
По ней нужно пройти и активировать учётную запись. Для этого нужно будет установить официальное расширение для браузера. После этого окажитесь в системе и можете начинать ей пользоваться.
Из всех систем, что я тестировал ранее, passbolt понравился больше всего. Тут и интерфейс современный, удобный. Живой проект с большим сообществом, хорошей документацией. Есть платная версия, которая теоретически должна обеспечивать поддержку и развитие проекта.
Сайт - https://www.passbolt.com/
Github - https://github.com/passbolt/passbolt_api
Demo - https://www.passbolt.com/cloud/signup
Документация - https://help.passbolt.com/
#password
Я практически всегда, когда настраиваю Linux сервер, одним из первых действий меняю параметры history. Это такая штука, которая обычно не нужна, но иногда может сильно выручить. Также я всегда смотрю history, когда подключаюсь к незнакомому серверу. Так можно быстро оценить, что здесь раньше делали, особенно если за кем-то что-то переделать надо.
Изменяю следующие параметры:
◽ количество строк, которые будут храниться в истории, в файле .bash_history
◽ сохранение даты выполнения команды
◽ записывать команду в историю сразу же после её выполнения
◽ настраиваю исключения, которые не будут сохраняться в истории, чтобы не забивать список неинформативными командами
Для этого в ~/.bashrc добавляю следующие настройки:
Первый параметр увеличивает размер файла до 10000 строк. Можно сделать и больше, хотя обычно хватает такого размера. Второй параметр указывает, что необходимо сохранять дату и время выполнения команды. Третья строка вынуждает сразу же после выполнения команды сохранять ее в историю. В последней строке мы создаем список исключений для тех команд, запись которых в историю не требуется. Я привел пример самого простого списка. Можете дополнить его на свое усмотрение.
Консольная команда history запускает встроенную в оболочку утилиту. Если запустить её без параметров, то она выведет в терминал всё содержимое истории. Ограничить список можно указав число строк:
Удалить строку с указанным номером. Обычно нужно, если пароль в истории засветил.
Очистить историю команд для текущего сеанса:
В этом случае сам файл с историей не очищается и при повторном подключении вы снова увидите всю историю. Для того, чтобы окончательно очистить файл с историей, надо после очистки через ключ -с, запустить еще и запись пустого списка:
Но тут опять есть нюанс. В истории останется последняя команда с очисткой. Чтобы гарантированно удалить всю историю и не оставить следов, можно сделать так:
При этом стоит помнить, что запуск команд в командной строке MC не попадает в общую историю, а записывается в историю самого MC. Она живет в /root/.local/share/mc/history. Если будете чистить историю, не забудьте и туда заглянуть.
А для того, чтобы команда не попала в history, можно перед ней поставить пробел. Она исполнится как обычно, но в историю не попадёт.
#bash #terminal
Изменяю следующие параметры:
◽ количество строк, которые будут храниться в истории, в файле .bash_history
◽ сохранение даты выполнения команды
◽ записывать команду в историю сразу же после её выполнения
◽ настраиваю исключения, которые не будут сохраняться в истории, чтобы не забивать список неинформативными командами
Для этого в ~/.bashrc добавляю следующие настройки:
export HISTSIZE=10000
export HISTTIMEFORMAT="%h %d %H:%M:%S "
PROMPT_COMMAND='history -a'
export HISTIGNORE="ls:ll:history:w:htop:pwd"
Первый параметр увеличивает размер файла до 10000 строк. Можно сделать и больше, хотя обычно хватает такого размера. Второй параметр указывает, что необходимо сохранять дату и время выполнения команды. Третья строка вынуждает сразу же после выполнения команды сохранять ее в историю. В последней строке мы создаем список исключений для тех команд, запись которых в историю не требуется. Я привел пример самого простого списка. Можете дополнить его на свое усмотрение.
Консольная команда history запускает встроенную в оболочку утилиту. Если запустить её без параметров, то она выведет в терминал всё содержимое истории. Ограничить список можно указав число строк:
# history 10
Удалить строку с указанным номером. Обычно нужно, если пароль в истории засветил.
# history -d 5
Очистить историю команд для текущего сеанса:
# history -с
В этом случае сам файл с историей не очищается и при повторном подключении вы снова увидите всю историю. Для того, чтобы окончательно очистить файл с историей, надо после очистки через ключ -с, запустить еще и запись пустого списка:
# history -w
Но тут опять есть нюанс. В истории останется последняя команда с очисткой. Чтобы гарантированно удалить всю историю и не оставить следов, можно сделать так:
# cat /dev/null > ~/.bash_history && history -c && exit
При этом стоит помнить, что запуск команд в командной строке MC не попадает в общую историю, а записывается в историю самого MC. Она живет в /root/.local/share/mc/history. Если будете чистить историю, не забудьте и туда заглянуть.
А для того, чтобы команда не попала в history, можно перед ней поставить пробел. Она исполнится как обычно, но в историю не попадёт.
#bash #terminal
Media is too big
VIEW IN TELEGRAM
Вторая часть приключений сисадмина Васи и Гипермена. В новой серии герои сталкиваются с миром виртуализации. Узнайте, что было дальше в видео.
👉 https://clck.ru/Y8ZoY
#реклама #гипермен
👉 https://clck.ru/Y8ZoY
#реклама #гипермен
Друзья, несмотря на то, что сегодня пятничный вечер, видео будет грустное 😂 Автор затронул очень болезненную тему - Почему НЕ СТОИТ работать СИСАДМИНОМ!. С его слов он проработал сисадмином 5 лет и вот к чему пришёл. Предлагаю обсудить озвученное.
Видео хоть и не смешное, но я смеялся во время просмотра. Как вам такая озвученная аллегория отношений сисадмина и юзеров:
"Представь, что ты живешь в хрущёвке, а твои соседи вокруг сплошные алкаши. По моральному воздействию это примерно одно и то же."
Автор назвал 5 минусов профессии сисадмина и пообещал за 2 минуты убедить слушателя, почему ему не стоит связываться с этой работой. И вы знаете, он меня убедил. Не хочу больше работать офисным сисадмином.
https://www.youtube.com/watch?v=4iXXEgFo1og
#юмор #грусть #тоска #печаль
Видео хоть и не смешное, но я смеялся во время просмотра. Как вам такая озвученная аллегория отношений сисадмина и юзеров:
"Представь, что ты живешь в хрущёвке, а твои соседи вокруг сплошные алкаши. По моральному воздействию это примерно одно и то же."
Автор назвал 5 минусов профессии сисадмина и пообещал за 2 минуты убедить слушателя, почему ему не стоит связываться с этой работой. И вы знаете, он меня убедил. Не хочу больше работать офисным сисадмином.
https://www.youtube.com/watch?v=4iXXEgFo1og
#юмор #грусть #тоска #печаль
YouTube
Почему НЕ СТОИТ работать СИСАДМИНОМ!
про работу сисадмином полная правда жизни
Существует любопытная консольная утилита для пинга хостов - gping. Казалось бы, что тут можно придумать. Утилита ping есть почти во всех системах и работает примерно одинаково. Что еще можно ожидать от обычного пинга?
Авторы gping сумели наполнить обычный ping новым функционалом. Утилита умеет:
◽ Строить график времени отклика хоста
◽ Одновременно пинговать и строить график для нескольких хостов
Последнее особенно полезно, когда надо понять, это у тебя проблемы с сетью или у какого-то удаленного хоста. Можно для теста пингануть несколько разных серверов и проверить.
Утилиты нет в стандартных репозиториях систем, но можно найти в сторонних.
# dnf copr enable atim/gping
# dnf install gping
# echo "deb http://packages.azlux.fr/debian/ buster main" | sudo tee /etc/apt/sources.list.d/azlux.list
# wget -qO - https://azlux.fr/repo.gpg.key | sudo apt-key add -
# apt update && apt install gping
Gping есть и под Windows. Поставить можно через choco:
# choco install gping
Или просто скачать бинарник.
Github - https://github.com/orf/gping
#terminal #утилита
Авторы gping сумели наполнить обычный ping новым функционалом. Утилита умеет:
◽ Строить график времени отклика хоста
◽ Одновременно пинговать и строить график для нескольких хостов
Последнее особенно полезно, когда надо понять, это у тебя проблемы с сетью или у какого-то удаленного хоста. Можно для теста пингануть несколько разных серверов и проверить.
Утилиты нет в стандартных репозиториях систем, но можно найти в сторонних.
# dnf copr enable atim/gping
# dnf install gping
# echo "deb http://packages.azlux.fr/debian/ buster main" | sudo tee /etc/apt/sources.list.d/azlux.list
# wget -qO - https://azlux.fr/repo.gpg.key | sudo apt-key add -
# apt update && apt install gping
Gping есть и под Windows. Поставить можно через choco:
# choco install gping
Или просто скачать бинарник.
Github - https://github.com/orf/gping
#terminal #утилита
Многие наверно слышали про разногласия между Elastic и Amazon, в результате чего последний сделал форк ELK Stack на момент действия старой лицензии и начал развивать свой продукт на его основе - OpenSearch. Причём это не то же самое, что они уже ранее анонсировали и поддерживают - Open Distro. Поясню своими словами, так как сам до конца не понимал, что там к чему.
📌 Open Distro - не форк, а самостоятельный продукт на основе Elasticsearch. Он появился в ответ на действия Elastic по объединению в едином репозитории бесплатных продуктов и платных дополнений в виде расширений X-Pack. Из-за этого стало очень неудобно разделять открытую и закрытую лицензию. Open Distro полностью исключил весь код с платной лицензией, сам он публикуется под открытой лицензией Apache 2.0. Дополнительно в нём бесплатно реализована часть наиболее востребованного функционала из X-Pack (security, notifications и т.д.). В ответ на это компании Elastic пришлось сделать сопоставимый функционал бесплатным, чтобы исключить переток пользователей. Именно в этот момент стал доступен функционал разделения доступа на основе пользователей в Kibana. Ранее это покупалось отдельно.
📌 OpenSearch - форк Elasticsearch 7.10. Появился после изменения лицензии, которая запрещает использования Elasticsearch тем, кто на нём зарабатывает, продавая как сервис. Теперь он развивается самостоятельно как независимый движок под открытой лицензией. Из него убрали весь код, связанный с сервисами компании Elastic, а так же платных компонентов от них же. OpenSearch можно использовать компаниям, которые на нём зарабатывают.
Сложилась достаточно интересная ситуация. С одной стороны, вокруг Elasticsearch выстроена большая экосистема различных продуктов и дополнений. С другой стороны, свободно, как раньше, его использовать нельзя. Придётся брать OpenSearch, который только начал развиваться и не имеет такой экосистемы. Но с учётом того, что альтернатив особо нет, она обязательно появится, тем более под крылом такой крупной компании, как Amazon. Как я понимаю, сейчас смысла в Open Distro уже нет и проект будет свёрнут в пользу OpenSearch.
Конечные пользователя, то есть мы с вами, скорее всего от этой истории только выиграем, так как возросла конкуренция. Она и так уже вынудила компании часть платного функционала сделать бесплатным. Посмотрим, как будут дальше развиваться ситуация.
#elk
📌 Open Distro - не форк, а самостоятельный продукт на основе Elasticsearch. Он появился в ответ на действия Elastic по объединению в едином репозитории бесплатных продуктов и платных дополнений в виде расширений X-Pack. Из-за этого стало очень неудобно разделять открытую и закрытую лицензию. Open Distro полностью исключил весь код с платной лицензией, сам он публикуется под открытой лицензией Apache 2.0. Дополнительно в нём бесплатно реализована часть наиболее востребованного функционала из X-Pack (security, notifications и т.д.). В ответ на это компании Elastic пришлось сделать сопоставимый функционал бесплатным, чтобы исключить переток пользователей. Именно в этот момент стал доступен функционал разделения доступа на основе пользователей в Kibana. Ранее это покупалось отдельно.
📌 OpenSearch - форк Elasticsearch 7.10. Появился после изменения лицензии, которая запрещает использования Elasticsearch тем, кто на нём зарабатывает, продавая как сервис. Теперь он развивается самостоятельно как независимый движок под открытой лицензией. Из него убрали весь код, связанный с сервисами компании Elastic, а так же платных компонентов от них же. OpenSearch можно использовать компаниям, которые на нём зарабатывают.
Сложилась достаточно интересная ситуация. С одной стороны, вокруг Elasticsearch выстроена большая экосистема различных продуктов и дополнений. С другой стороны, свободно, как раньше, его использовать нельзя. Придётся брать OpenSearch, который только начал развиваться и не имеет такой экосистемы. Но с учётом того, что альтернатив особо нет, она обязательно появится, тем более под крылом такой крупной компании, как Amazon. Как я понимаю, сейчас смысла в Open Distro уже нет и проект будет свёрнут в пользу OpenSearch.
Конечные пользователя, то есть мы с вами, скорее всего от этой истории только выиграем, так как возросла конкуренция. Она и так уже вынудила компании часть платного функционала сделать бесплатным. Посмотрим, как будут дальше развиваться ситуация.
#elk
На неделе прослушал интересный доклад с HighLoad ++ 2021 - MySQL orchestrator, ProxySQL от Ситимобил. Тема актуальна только для очень нагруженных сервисов, где много MySQL серверов в кластере, но тем не менее мне понравилось, хоть и вряд ли когда-то пригодится. Качественный рассказ и построение повествования.
Авторы рассказали всю историю поддержки MySQL сервера с одиночного инстанса на старте проекта до довольно сложной структуры. Особенность их схемы в том, что они очень хотели оставить только один Master сервер, не выстраивая Master-Master репликацию. В итоге у них всё получилось. Есть один Master сервер, очень много Slave серверов. А у различных веб приложений свои персональные ProxySQL, которые сглаживают пики запросов, кэшируют и всячески оберегают Master от большой нагрузки.
Видео рекомендую для общего развития. Прошу заметить, что никакого Кубера, хотя им в конце прямо задали вопрос, как вы запускаете свои ProxySQL инстансы, в отдельных подах? Но нет, у них они на железе работают.
Видео - https://www.youtube.com/watch?v=YvbELUvqLm8
Презентация - https://drive.google.com/file/d/1zyC9JLiiRGHuKHmMzPAQu52B0XwIw4o7/view
#видео #mysql
Авторы рассказали всю историю поддержки MySQL сервера с одиночного инстанса на старте проекта до довольно сложной структуры. Особенность их схемы в том, что они очень хотели оставить только один Master сервер, не выстраивая Master-Master репликацию. В итоге у них всё получилось. Есть один Master сервер, очень много Slave серверов. А у различных веб приложений свои персональные ProxySQL, которые сглаживают пики запросов, кэшируют и всячески оберегают Master от большой нагрузки.
Видео рекомендую для общего развития. Прошу заметить, что никакого Кубера, хотя им в конце прямо задали вопрос, как вы запускаете свои ProxySQL инстансы, в отдельных подах? Но нет, у них они на железе работают.
Видео - https://www.youtube.com/watch?v=YvbELUvqLm8
Презентация - https://drive.google.com/file/d/1zyC9JLiiRGHuKHmMzPAQu52B0XwIw4o7/view
#видео #mysql
Год назад я написал подробную статью на тему Построения ИТ инфраструктуры небольшого офиса. С тех пор аудитория канала выросла почти в полтора раза, так что многие ее не видели. Плюс, накопилось достаточно много подробных и содержательных комментариев, которые тоже могут быть полезны. Постарался на все вопросы дать подробные ответы.
В статье я рассматриваю выбор следующих продуктов:
◽ Шлюз: стандартная ОС Linux, сборка на базе какой-то ОС, железное решение.
◽ Железо для сервера: бренд, самосбор.
◽ Гипервизор: VMWare, Hyper-V, KVM, XenServer.
◽ Почтовый сервер: свой сервер, готовая сборка, публичный сервис.
◽ Сервер телефонии: Asterisk, Freepbx, готовое софтовое решение, аппаратное решение, публичный сервис.
◽ Self-hosted чат: Zulip, Mattermost, Matrix Synapse, MyChat.
◽ Cистема мониторинга.
◽ Сбор и хранение логов.
В завершении привожу пример подбора железа с конкретными техническими характеристиками и разбивку его на виртуальные машины для настройки типового функционала.
https://serveradmin.ru/postroenie-it-infrastruktury-nebolshogo-ofisa/
В статье я рассматриваю выбор следующих продуктов:
◽ Шлюз: стандартная ОС Linux, сборка на базе какой-то ОС, железное решение.
◽ Железо для сервера: бренд, самосбор.
◽ Гипервизор: VMWare, Hyper-V, KVM, XenServer.
◽ Почтовый сервер: свой сервер, готовая сборка, публичный сервис.
◽ Сервер телефонии: Asterisk, Freepbx, готовое софтовое решение, аппаратное решение, публичный сервис.
◽ Self-hosted чат: Zulip, Mattermost, Matrix Synapse, MyChat.
◽ Cистема мониторинга.
◽ Сбор и хранение логов.
В завершении привожу пример подбора железа с конкретными техническими характеристиками и разбивку его на виртуальные машины для настройки типового функционала.
https://serveradmin.ru/postroenie-it-infrastruktury-nebolshogo-ofisa/
▶️ Делюсь с вами наглядным видео по настройке общего хранилища iso образов для кластера proxmox. Технически ничего сложного в этом нет и в видео это хорошо видно. Мне понравилось другое. Автор последовательно, на практике, показал и объяснил, зачем нужно общее хранилище не только для образов, но и для виртуальных машин. Как работает репликация и как локальные хранилища не дают ей состояться. Плюс, все это делается на работающих хостах. То есть идёт не просто рассказ, а наглядная демонстрация с рабочей машины автора и на его серверах.
https://www.youtube.com/watch?v=f1g_Vll8GAk
#proxmox #видео
https://www.youtube.com/watch?v=f1g_Vll8GAk
#proxmox #видео
YouTube
Proxmox + NFS сервер - внешнее хранилище для iso и дисков
Поднимем внешнее хранилище для iso, контейнеров и дисков для ВМ. решим проблему привязки к конкретной ноде, дублирование iso-образов.
Курс посвящен: "Proxmox: храним и бекапим"
Полностью курс доступен в нашей онлайн-школе
https://realmanual.ru/proxmox2
…
Курс посвящен: "Proxmox: храним и бекапим"
Полностью курс доступен в нашей онлайн-школе
https://realmanual.ru/proxmox2
…
Проверил и актуализировал свою статью про настройку ELK Stack. Добавил информацию про автоматическую очистку индексов встроенными средствами стэка. А также про авторизацию с помощью паролей средствами X-Pack Security.
Статья получилась полным и законченным руководством по внедрению системы сбора логов на базе ELK Stack для одиночного инстанса. Без встроенной авторизации она была незавершённой. Исправил это.
На текущий момент всё можно настроить копипастом из статьи. Я проверил все конфиги. Так что если есть желание познакомиться и изучить, имеет смысл сделать это сейчас. Через некоторое время, как обычно, все изменится с выходом очередной новой версии.
https://serveradmin.ru/ustanovka-i-nastroyka-elasticsearch-logstash-kibana-elk-stack/
#elk #статья
Статья получилась полным и законченным руководством по внедрению системы сбора логов на базе ELK Stack для одиночного инстанса. Без встроенной авторизации она была незавершённой. Исправил это.
На текущий момент всё можно настроить копипастом из статьи. Я проверил все конфиги. Так что если есть желание познакомиться и изучить, имеет смысл сделать это сейчас. Через некоторое время, как обычно, все изменится с выходом очередной новой версии.
https://serveradmin.ru/ustanovka-i-nastroyka-elasticsearch-logstash-kibana-elk-stack/
#elk #статья
Server Admin
Установка и настройка Elasticsearch, Logstash, Kibana (ELK Stack)
Подробное описание установки ELK Stack - Elasticsearch, Logstash, Kibana для централизованного сбора логов.