Недавно впервые услышал про новую для меня систему резервного копирования Minarca Backup. Беглый осмотр показал, что это что-то интересное, поэтому решил попробовать. Кратко скажу, что это open source клиент-серверная система с веб интерфейсом управления и локальными клиентами, которые нужно устанавливать на целевые машины, с которых снимается бэкап.
📌 Сделаю краткий акцент на основных моментах системы:
▪️сервер и клиенты можно установить на Liniux, Windows, MacOS;
▪️можно развернуть на своём железе;
▪️управление через cli или веб интерфейс;
▪️репозитории для хранения подключаются как локальные папки сервера;
▪️управлять доступом к бэкапам можно на уровне пользователей, поддерживается LDAP каталог для них, дисковые квоты;
▪️есть 2FA с отправкой кодов подтверждения на email;
▪️для установки сервера есть репозиторий с пакетами;
▪️данные от клиента на сервер передаются по протоколу HTTP с аутентификацией;
▪️бэкап выполняется на уровне файлов, нет возможности забэкапить всю систему разом или сделать образ диска;
▪️инициирует передачу данных на сервер сам клиент;
▪️клиент может самостоятельно инициировать восстановление своих файлов.
Установка сервера очень простая и типичная для готовых пакетов Debian:
Судя по зависимостям серверной части, Minarca Backup построена на базе rdiff-backup. Который, в свою очередь, является python обёрткой вокруг rsync (используется библиотека librsync). Она наследует всю скорость и быстроту синхронизации сотен тысяч файлов, которую обеспечивает rsync. Это чтобы вы понимали, что там под капотом и чего стоит ждать от этой системы. Как по мне, так это плюс, что там rsync используется. Для бэкапа сырых файлов без дедупликации это хорошее, а может и лучшее решение.
Теперь идём по IP адресу на порт 8080 и используем учётную запись: admin / admin123. По умолчанию веб интерфейс открылся на русском языке.
После этого сходил на страницу загрузки, скачал и установил для теста клиентов на Linux и Windows. Можно всех клиентов подключать под одной учёткой, либо для каждого сделать свою. Это зависит от вашей схемы инфраструктуры. Если бэкапите пользователей, логично каждому из них сделать свою учётную запись, чтобы он имел доступ только к своим бэкапам.
Windows клиента настроил через GUI, а для Linux сервера использовал команду для подключения к серверу:
Далее указал интервал для бэкапа и что бэкапим:
Последняя команда создала запись в crontab для пользователя, под которым её запустил. Теперь можно выполнить принудительный бэкап:
На сервере через веб интерфейс можно посмотреть забэкапленные файлы с обоих устройств.
Система относительно простая. Я практически сходу всё настроил и попробовал. Важно понимать, что она бэкапит только файлы, не системы целиком. Через клиент с GUI можно открыть календарь бэкапов, выбрать нужную дату, когда делался бэкап и восстановить файл.
Minarca Backup похожа частично на Kopia, но ещё больше на UrBackup, BackupPC и ElkarBackup. Причём я затрудняюсь сказать, какая из них лучше. На первый взгляд кажется, что они все примерно одного уровня, где-то одна лучше, где-то другая. Ну и нужно понимать, что сравнивать их с профессиональными платными системами от Veeam, Symantec и т.д. нет никакого смысла. Это разного уровня софт.
⇨ 🌐 Сайт / Исходники / Обзор
#backup #rsync
📌 Сделаю краткий акцент на основных моментах системы:
▪️сервер и клиенты можно установить на Liniux, Windows, MacOS;
▪️можно развернуть на своём железе;
▪️управление через cli или веб интерфейс;
▪️репозитории для хранения подключаются как локальные папки сервера;
▪️управлять доступом к бэкапам можно на уровне пользователей, поддерживается LDAP каталог для них, дисковые квоты;
▪️есть 2FA с отправкой кодов подтверждения на email;
▪️для установки сервера есть репозиторий с пакетами;
▪️данные от клиента на сервер передаются по протоколу HTTP с аутентификацией;
▪️бэкап выполняется на уровне файлов, нет возможности забэкапить всю систему разом или сделать образ диска;
▪️инициирует передачу данных на сервер сам клиент;
▪️клиент может самостоятельно инициировать восстановление своих файлов.
Установка сервера очень простая и типичная для готовых пакетов Debian:
# curl -L https://www.ikus-soft.com/archive/minarca/public.key | gpg --dearmor > /usr/share/keyrings/minarca-keyring.gpg
# echo "deb [arch=amd64 signed-by=/usr/share/keyrings/minarca-keyring.gpg] https://nexus.ikus-soft.com/repository/apt-release-$(lsb_release -sc)/ $(lsb_release -sc) main" > /etc/apt/sources.list.d/minarca.list
# apt update
# apt install minarca-server
Судя по зависимостям серверной части, Minarca Backup построена на базе rdiff-backup. Который, в свою очередь, является python обёрткой вокруг rsync (используется библиотека librsync). Она наследует всю скорость и быстроту синхронизации сотен тысяч файлов, которую обеспечивает rsync. Это чтобы вы понимали, что там под капотом и чего стоит ждать от этой системы. Как по мне, так это плюс, что там rsync используется. Для бэкапа сырых файлов без дедупликации это хорошее, а может и лучшее решение.
Теперь идём по IP адресу на порт 8080 и используем учётную запись: admin / admin123. По умолчанию веб интерфейс открылся на русском языке.
После этого сходил на страницу загрузки, скачал и установил для теста клиентов на Linux и Windows. Можно всех клиентов подключать под одной учёткой, либо для каждого сделать свою. Это зависит от вашей схемы инфраструктуры. Если бэкапите пользователей, логично каждому из них сделать свою учётную запись, чтобы он имел доступ только к своим бэкапам.
Windows клиента настроил через GUI, а для Linux сервера использовал команду для подключения к серверу:
# minarca configure -r http://10.20.1.36:8080/ -u admin -p admin123 -n debian-server
Далее указал интервал для бэкапа и что бэкапим:
# minarca include /etc
# minarca schedule --daily
Последняя команда создала запись в crontab для пользователя, под которым её запустил. Теперь можно выполнить принудительный бэкап:
# minarca backup --force
На сервере через веб интерфейс можно посмотреть забэкапленные файлы с обоих устройств.
Система относительно простая. Я практически сходу всё настроил и попробовал. Важно понимать, что она бэкапит только файлы, не системы целиком. Через клиент с GUI можно открыть календарь бэкапов, выбрать нужную дату, когда делался бэкап и восстановить файл.
Minarca Backup похожа частично на Kopia, но ещё больше на UrBackup, BackupPC и ElkarBackup. Причём я затрудняюсь сказать, какая из них лучше. На первый взгляд кажется, что они все примерно одного уровня, где-то одна лучше, где-то другая. Ну и нужно понимать, что сравнивать их с профессиональными платными системами от Veeam, Symantec и т.д. нет никакого смысла. Это разного уровня софт.
⇨ 🌐 Сайт / Исходники / Обзор
#backup #rsync
Я анонсировал ранее подборку сайтов IT блогеров со статьями на различные темы, связанные с настройкой и эксплуатацией IT систем. Собралось небольшое сообщество авторов. Полный список сайтов будет в конце. А пока анонс новых статей тех авторов, кто согласился участвовать и прислал свои материалы.
❗️Напомню, что основной смысл моей инициативы - поддержать донатами тех авторов, кого вы посчитаете нужным и у кого будут возможности для этого на сайте.
⇨ Скрипт блокировки сеанса в Linux
Блокировка сеанса с помощью loginctl. Автор таким решением ограничивает время, проведённое ребёнком за компьютером. Я, кстати, тоже ограничиваю детям время за гаджетами. Но они у меня пользуются обычными кухонными таймерами. Сами выключают, но под моим контролем. Иногда пытаются хитрить.
⇨ Система оценки качества исполнения стандартных положений в футболе
Исследовательский проект по видео аналитике. Любопытный практический пример использования машинного обучения.
⇨ Как использовать Get-ADUser в PowerShell
⇨ Как импортировать пользователей AD из CSV с помощью PowerShell
⇨ Как экспортировать пользователей AD в CSV с помощью PowerShell
Очень подробное руководство по управлению пользователями в AD через PowerShell и командлет Get-ADUser.
⇨ Работа с образами в Docker. Часть 1
⇨ Работа с образами в Docker. Часть 2
⇨ Работа с образами в Docker. Часть 3
Серия кратких руководств по работе с Docker: уменьшение образа, Анализ Dockerfile, проверка безопасности образов (Trivy, Dockle, Syft и Grype).
⇨ Черный экран после выбора типа установки Astra Linux 1.7.5
Решение частной проблемы с черным экраном на сервере после выбора типа установки Astra Linux 1.7.5.
⇨ Ваш сервер Exchange под угрозой: устаревшие версии больше не защищают от атак!
Устаревшие версии Exchange больше не могут автоматически устранять уязвимости из-за изменений в сертификатах. Автор объясняет, в чём конкретно проблема. Решения, кроме обновления самого сервера, нет.
⇨ Установка Graylog 6.1 на Debian 12
Автор актуализировал статью по установка и настройке Graylog.
⇨ Передаём логи в Graylog с помощью агентов
Передача логов в GrayLog с помощью FileBeat и WinlogBeat. Это компоненты от ELK Stack. Если кому-то актуальна эта тема, советую сразу для передачи логов рассмотреть vector.dev.
⇨ Временный сервер Microsoft KMS предприятия с использованием vlmcsd
Установка и использование локального KMS сервера для активации продуктов Microsoft.
⇨ Разворачиваем PostgreSQL кластер с помощью autobase. Часть 2
Вторая часть по кластеру PostgreSQL, где рассказано про бэкапы кластера в s3 хранилище с помощью pgbackrest.
⇨ Пишем ansible playbook для начальной настройки Linux сервера
Пример авторского плейбука по начальной настройке сервера.
Если кто-то хочет присоединиться к этой подборке, то пишите мне в личные сообщения. Пока список выглядит так:
▪️https://r4ven.me
▪️https://wiki-it.ru
▪️https://www.gurin.ru
▪️https://sysadminhub.ru
▪️https://devopslife.ru
▪️https://bite-byte.ru
▪️https://sysadminium.ru
▪️https://desoft.ru
▪️https://www.pc360.ru
▪️https://bafista.ru
▪️https://it-experience.ru
▪️https://blogadminday.ru
▪️https://marukhin.ru
▪️https://blog.mons.ws
▪️https://lytkins.ru
#статьи
❗️Напомню, что основной смысл моей инициативы - поддержать донатами тех авторов, кого вы посчитаете нужным и у кого будут возможности для этого на сайте.
⇨ Скрипт блокировки сеанса в Linux
Блокировка сеанса с помощью loginctl. Автор таким решением ограничивает время, проведённое ребёнком за компьютером. Я, кстати, тоже ограничиваю детям время за гаджетами. Но они у меня пользуются обычными кухонными таймерами. Сами выключают, но под моим контролем. Иногда пытаются хитрить.
⇨ Система оценки качества исполнения стандартных положений в футболе
Исследовательский проект по видео аналитике. Любопытный практический пример использования машинного обучения.
⇨ Как использовать Get-ADUser в PowerShell
⇨ Как импортировать пользователей AD из CSV с помощью PowerShell
⇨ Как экспортировать пользователей AD в CSV с помощью PowerShell
Очень подробное руководство по управлению пользователями в AD через PowerShell и командлет Get-ADUser.
⇨ Работа с образами в Docker. Часть 1
⇨ Работа с образами в Docker. Часть 2
⇨ Работа с образами в Docker. Часть 3
Серия кратких руководств по работе с Docker: уменьшение образа, Анализ Dockerfile, проверка безопасности образов (Trivy, Dockle, Syft и Grype).
⇨ Черный экран после выбора типа установки Astra Linux 1.7.5
Решение частной проблемы с черным экраном на сервере после выбора типа установки Astra Linux 1.7.5.
⇨ Ваш сервер Exchange под угрозой: устаревшие версии больше не защищают от атак!
Устаревшие версии Exchange больше не могут автоматически устранять уязвимости из-за изменений в сертификатах. Автор объясняет, в чём конкретно проблема. Решения, кроме обновления самого сервера, нет.
⇨ Установка Graylog 6.1 на Debian 12
Автор актуализировал статью по установка и настройке Graylog.
⇨ Передаём логи в Graylog с помощью агентов
Передача логов в GrayLog с помощью FileBeat и WinlogBeat. Это компоненты от ELK Stack. Если кому-то актуальна эта тема, советую сразу для передачи логов рассмотреть vector.dev.
⇨ Временный сервер Microsoft KMS предприятия с использованием vlmcsd
Установка и использование локального KMS сервера для активации продуктов Microsoft.
⇨ Разворачиваем PostgreSQL кластер с помощью autobase. Часть 2
Вторая часть по кластеру PostgreSQL, где рассказано про бэкапы кластера в s3 хранилище с помощью pgbackrest.
⇨ Пишем ansible playbook для начальной настройки Linux сервера
Пример авторского плейбука по начальной настройке сервера.
Если кто-то хочет присоединиться к этой подборке, то пишите мне в личные сообщения. Пока список выглядит так:
▪️https://r4ven.me
▪️https://wiki-it.ru
▪️https://www.gurin.ru
▪️https://sysadminhub.ru
▪️https://devopslife.ru
▪️https://bite-byte.ru
▪️https://sysadminium.ru
▪️https://desoft.ru
▪️https://www.pc360.ru
▪️https://bafista.ru
▪️https://it-experience.ru
▪️https://blogadminday.ru
▪️https://marukhin.ru
▪️https://blog.mons.ws
▪️https://lytkins.ru
#статьи
Я написал очень подробный обзор российской Service Desk системы ITSM 365. Возможно, вы о ней слышали. Продукт на слуху, я раньше слышал про него.
⇨ Обзор ITSM 365 – Service Desk система для малого и среднего бизнеса
Данную статью у меня заказали разработчики, на что в конце указывает соответствующая пометка. Но весь текст от начала и до конца я написал полностью сам без какой либо модерации. Только несколько фактических ошибок поправили.
Потратил несколько дней: изучил весь сайт, посмотрел документацию, вебинары, получил демо доступ к SaaS, то есть облачной версии личного кабинета. Постарался рассмотреть максимально широко всю базовую функциональность продукта, чтобы прочитав статью, вы смогли получить представление о сервисе.
Для тех, кто не понимает, о каком типе программы идёт речь, поясню. Service Desk – более глубокая и детальная проработка Help Desk системы, которая остаётся её центральной и основной частью. Но развитие уходит дальше, нежели просто техническая поддержка и решение конкретных проблем.
Service Desk – это управление IT услугами в целом, чтобы в том числе проблем у пользователей было меньше, а решались они быстрее с помощью каких-то организационных моментов. Help Desk ориентирован на устранение текущих сбоев, а Service Desk – на организацию бизнес процессов для предотвращения сбоев.
Возвращаясь к ITSM 365 скажу, что система масштабная с разными дополнительными модулями, которые объединяются в единую платформу. Там есть модуль классического Help Desk для внутренней службы, расширенный модуль для аутсорсинговой компании и дополнительные модули для управления проектами и найма сотрудников.
Мне доводилось ранее и внедрять подобные системы, и писать обзоры на них. ITSM 365 на общем фоне, как мне показалось, смотрится выше среднего. У неё помимо админки с типичными настройками подобных систем, есть доступ к самой платформе, на базе которой она построена. Это что-то типа конфигуратора в 1С, где можно редактировать различные сущности, типа форм, отчётов, бизнес-процессов, полей, разделов меню и т.д. То есть при желании программу можно допилить под конкретные потребности, или сильно урезать, чтобы не было ничего лишнего в интерфейсе.
Очевидно, что это мнение сформировано только на основе моего теста. Опыта реального внедрения у меня нет, так что имейте это ввиду. Если подбираете себе подобную систему, то обратите внимание. ITSM 365 ориентирована на малый и средний бизнес, цены там доступные для любых масштабов. Начинается с 7500 в месяц. На максимальном тарифе можно развернуть систему у себя локально.
#helpdesk #itsm #управление_проектами #отечественное
⇨ Обзор ITSM 365 – Service Desk система для малого и среднего бизнеса
Данную статью у меня заказали разработчики, на что в конце указывает соответствующая пометка. Но весь текст от начала и до конца я написал полностью сам без какой либо модерации. Только несколько фактических ошибок поправили.
Потратил несколько дней: изучил весь сайт, посмотрел документацию, вебинары, получил демо доступ к SaaS, то есть облачной версии личного кабинета. Постарался рассмотреть максимально широко всю базовую функциональность продукта, чтобы прочитав статью, вы смогли получить представление о сервисе.
Для тех, кто не понимает, о каком типе программы идёт речь, поясню. Service Desk – более глубокая и детальная проработка Help Desk системы, которая остаётся её центральной и основной частью. Но развитие уходит дальше, нежели просто техническая поддержка и решение конкретных проблем.
Service Desk – это управление IT услугами в целом, чтобы в том числе проблем у пользователей было меньше, а решались они быстрее с помощью каких-то организационных моментов. Help Desk ориентирован на устранение текущих сбоев, а Service Desk – на организацию бизнес процессов для предотвращения сбоев.
Возвращаясь к ITSM 365 скажу, что система масштабная с разными дополнительными модулями, которые объединяются в единую платформу. Там есть модуль классического Help Desk для внутренней службы, расширенный модуль для аутсорсинговой компании и дополнительные модули для управления проектами и найма сотрудников.
Мне доводилось ранее и внедрять подобные системы, и писать обзоры на них. ITSM 365 на общем фоне, как мне показалось, смотрится выше среднего. У неё помимо админки с типичными настройками подобных систем, есть доступ к самой платформе, на базе которой она построена. Это что-то типа конфигуратора в 1С, где можно редактировать различные сущности, типа форм, отчётов, бизнес-процессов, полей, разделов меню и т.д. То есть при желании программу можно допилить под конкретные потребности, или сильно урезать, чтобы не было ничего лишнего в интерфейсе.
Очевидно, что это мнение сформировано только на основе моего теста. Опыта реального внедрения у меня нет, так что имейте это ввиду. Если подбираете себе подобную систему, то обратите внимание. ITSM 365 ориентирована на малый и средний бизнес, цены там доступные для любых масштабов. Начинается с 7500 в месяц. На максимальном тарифе можно развернуть систему у себя локально.
#helpdesk #itsm #управление_проектами #отечественное
Server Admin
Обзор ITSM 365 – Service Desk система для малого и среднего бизнеса
Подробный обзор российской Service Desk системы ITSM 365. Рассмотрены основные возможности, стоимость, внедрение.
Я в консоли Linux настройки IP адресов уже давно привык смотреть так:
На выходе получается что-то похожее на
На прошлой неделе смотрел одного блогера и мельком увидел, как он смотрит IP адреса сервера:
Конкретизируем только IPv4:
Очень удобно. Я не знал и нигде не видел этот ключ. Сразу себе записал и постарался запомнить. Так реально удобнее смотреть. Сразу все адреса на виду, не надо глазами искать конкретный адрес в куче других строк.
Для просмотра линков и mac адресов ключ тоже применим:
Для справки ещё одну команду добавлю, которую тоже постоянно выполняю. Просмотр маршрутов:
Вообще, использование ip упростило вопросы просмотра и управления сетевыми настройками, так что довольно легко и добровольно на неё переключился в своё время. Где-то наверное со времён Centos 7.
Интересно, кто-то ещё ставит специально ifconfig и использует? Её вроде выпилили из базовых наборов системных утилит.
#linux #terminal
# ip a
На выходе получается что-то похожее на
ifconfig
, только с другим форматированием. Ifconfig давно уже не ставлю и не использую. Все ключи позабыл. Смысла в ней уже нет с повсеместным распространением утилиты ip.На прошлой неделе смотрел одного блогера и мельком увидел, как он смотрит IP адреса сервера:
# ip -br a
lo UNKNOWN 127.0.0.1/8 ::1/128
eth0 UP 172.18.107.235/20 fe80::215:5dff:fe0d:7101/64
eth1 UP 192.168.101.2/24 fe80::215:5dff:fe0d:7105/64
docker0 DOWN 172.17.0.1/16
br-e901d734a0f3 DOWN 172.18.0.1/16
Конкретизируем только IPv4:
# ip -br -4 a
lo UNKNOWN 127.0.0.1/8
eth0 UP 172.18.107.235/20
eth1 UP 192.168.101.2/24
docker0 DOWN 172.17.0.1/16
br-e901d734a0f3 DOWN 172.18.0.1/16
Очень удобно. Я не знал и нигде не видел этот ключ. Сразу себе записал и постарался запомнить. Так реально удобнее смотреть. Сразу все адреса на виду, не надо глазами искать конкретный адрес в куче других строк.
Для просмотра линков и mac адресов ключ тоже применим:
# ip -br l
# ip -br n
Для справки ещё одну команду добавлю, которую тоже постоянно выполняю. Просмотр маршрутов:
# ip r
Вообще, использование ip упростило вопросы просмотра и управления сетевыми настройками, так что довольно легко и добровольно на неё переключился в своё время. Где-то наверное со времён Centos 7.
Интересно, кто-то ещё ставит специально ifconfig и использует? Её вроде выпилили из базовых наборов системных утилит.
#linux #terminal
👨💻 На днях постоянный читатель предложил необычную рубрику. Периодически делать публикацию с комментариями, где каждый желающий сможет оставить вакансию или резюме и заявить о поиске кандидата или работы.
С таким форматом никогда не сталкивался. Не видел ни идеи, ни реализации. Немного поразмыслил и решил попробовать. Если зайдёт, можно будет примерно раз в месяц практиковать такие публикации. В принципе, почему нет. Попробуем.
Вы можете в комментариях к этой заметке опубликовать свою вакансию, пожелание заказать разовую работу. В обратную сторону - предложить свои услуги, опубликовать резюме. Очевидно, что всё в рамках ИТ тематики.
На текущем этапе не вижу смысла объявлять какие-то требования к формату. Пусть будет свободный. То есть помимо стандартной вакансии или резюме можно написать что-то в таком духе:
Ищу кого-то, кто лично покажет, как настроить сервер мониторинга на базе Zabbix Server и даст рекомендации по эксплуатации. Готов за это заплатить 15 000 - 30 000 р. в зависимости от затраченного времени.
Не могу корректно настроить в Nginx проксирование запросов с алиаса example.com/api на поддомен api.example.com. Готов заплатить 5 000 за помощь в этом вопросе.
Мне регулярно пишут люди с подобными вопросами. Буду их теперь отправлять в свежую публикацию по этой теме, если они станут постоянными.
Вот буквально на это неделе мне написали:
У нас есть задача по настройке nginx. Есть два интернет провайдера и облачный linux сервер с nginx. Нам надо:
1. Чтобы проксирование работало на оба ip с учётом ssl правильно. (обсудить можно)
2. Защита максимальная linux сервера
3. Настройка двух провайдеров в офисе. Отказоустойчивость.
У меня нет времени даже обсуждать и тем более решать такие задачи. Если кто-то хочет подхалтурить с данной задачей, можете мне написать в личку, я дам контакты.
Или вот ещё кто-то из читателей писал недавно:
Можно у вас заказать помощь?
Быть может у вас знакомые админы кто может помочь с VM OpenWRT? Не могу настроить LetsEncrypt серт на вход и реверс-прокси(((
#работа
С таким форматом никогда не сталкивался. Не видел ни идеи, ни реализации. Немного поразмыслил и решил попробовать. Если зайдёт, можно будет примерно раз в месяц практиковать такие публикации. В принципе, почему нет. Попробуем.
Вы можете в комментариях к этой заметке опубликовать свою вакансию, пожелание заказать разовую работу. В обратную сторону - предложить свои услуги, опубликовать резюме. Очевидно, что всё в рамках ИТ тематики.
На текущем этапе не вижу смысла объявлять какие-то требования к формату. Пусть будет свободный. То есть помимо стандартной вакансии или резюме можно написать что-то в таком духе:
Ищу кого-то, кто лично покажет, как настроить сервер мониторинга на базе Zabbix Server и даст рекомендации по эксплуатации. Готов за это заплатить 15 000 - 30 000 р. в зависимости от затраченного времени.
Не могу корректно настроить в Nginx проксирование запросов с алиаса example.com/api на поддомен api.example.com. Готов заплатить 5 000 за помощь в этом вопросе.
Мне регулярно пишут люди с подобными вопросами. Буду их теперь отправлять в свежую публикацию по этой теме, если они станут постоянными.
Вот буквально на это неделе мне написали:
У нас есть задача по настройке nginx. Есть два интернет провайдера и облачный linux сервер с nginx. Нам надо:
1. Чтобы проксирование работало на оба ip с учётом ssl правильно. (обсудить можно)
2. Защита максимальная linux сервера
3. Настройка двух провайдеров в офисе. Отказоустойчивость.
У меня нет времени даже обсуждать и тем более решать такие задачи. Если кто-то хочет подхалтурить с данной задачей, можете мне написать в личку, я дам контакты.
Или вот ещё кто-то из читателей писал недавно:
Можно у вас заказать помощь?
Быть может у вас знакомые админы кто может помочь с VM OpenWRT? Не могу настроить LetsEncrypt серт на вход и реверс-прокси(((
#работа
Очередное напоминание-предостережение на тему бэкапов. Она просто вечная. Если вы делаете бэкапы, но не проверяете их работоспособность и просто возможность восстановления, это значит, что у вас их нет. Я не раз сталкивался с ситуацией, когда администратор делал бэкапы, но не разворачивал их. Когда случилась поломка, оказалось, что оперативно запустить работу системы из бэкапа не получается. Он просто не знает, как это сделать.
Бэкапы делались на уровне виртуальной машины. Когда умер гипервизор (а подменного точно такого же не было), восстановление на другой не увенчалось успехом. Виртуальная машина не стартовала. Я оперативно починил это, так как часто сталкивался с различными проблемами такого рода. Конкретно тут нужно было накатить другое ядро и обновить initramfs.
❗️Как я рекомендую организовать бэкап:
1️⃣ Бэкап виртуальной машины. К нему должна быть инструкция по восстановлению, где будет подробно указано, что и в какой последовательности делать, на какое железо восстанавливать. Соответственно, железо это должно быть.
2️⃣ Бэкап на уровне данных. Делать обязательно в дополнение к бэкапу виртуальных машин. Обычно бэкап виртуальной машины – это огромный файл. С ним могут быть различные проблемы. Он может долго копироваться, он может побиться при копировании или создании (сталкивался многократно). Его восстановление может длиться часами. Если у вас есть сырые данные, вы можете оперативно их предоставить хотя бы частично и запустить в работу, либо заранее копировать на подменный сервер из резерва.
3️⃣ Для бэкапов должен быть настроен мониторинг. Как его сделать – решать по месту. Обычно для файлов это проверка даты изменения в бэкапе и его объем, либо анализ созданных заранее меток для проверки. Если это бэкап через специализированную программу, то в качестве мониторинга могут выступать успешные уведомления о создании бэкапа, а не просто отправка писем при ошибке. Может банально не работать сама служба бэкапов или почтовый сервер, а вы будете думать, что у вас всё в порядке.
Когда все три пункта выполнены, можно более-менее спокойно жить и думать о проверке и разнесении территориально бэкапов. Это отдельная большая тема. Я по возможности настраиваю хранение бэкапов в двух различных локациях, помимо основной с исходными данными. Более подробно обо всём этом писал в статье:
⇨ Как правильно делать бэкапы и следить за ними
Информация там в основном теоретическая, так что не потеряла актуальности. Но есть и ссылки на конкретные материалы с реализацией отдельных функциональностей.
#совет #backup
Бэкапы делались на уровне виртуальной машины. Когда умер гипервизор (а подменного точно такого же не было), восстановление на другой не увенчалось успехом. Виртуальная машина не стартовала. Я оперативно починил это, так как часто сталкивался с различными проблемами такого рода. Конкретно тут нужно было накатить другое ядро и обновить initramfs.
❗️Как я рекомендую организовать бэкап:
1️⃣ Бэкап виртуальной машины. К нему должна быть инструкция по восстановлению, где будет подробно указано, что и в какой последовательности делать, на какое железо восстанавливать. Соответственно, железо это должно быть.
2️⃣ Бэкап на уровне данных. Делать обязательно в дополнение к бэкапу виртуальных машин. Обычно бэкап виртуальной машины – это огромный файл. С ним могут быть различные проблемы. Он может долго копироваться, он может побиться при копировании или создании (сталкивался многократно). Его восстановление может длиться часами. Если у вас есть сырые данные, вы можете оперативно их предоставить хотя бы частично и запустить в работу, либо заранее копировать на подменный сервер из резерва.
3️⃣ Для бэкапов должен быть настроен мониторинг. Как его сделать – решать по месту. Обычно для файлов это проверка даты изменения в бэкапе и его объем, либо анализ созданных заранее меток для проверки. Если это бэкап через специализированную программу, то в качестве мониторинга могут выступать успешные уведомления о создании бэкапа, а не просто отправка писем при ошибке. Может банально не работать сама служба бэкапов или почтовый сервер, а вы будете думать, что у вас всё в порядке.
Когда все три пункта выполнены, можно более-менее спокойно жить и думать о проверке и разнесении территориально бэкапов. Это отдельная большая тема. Я по возможности настраиваю хранение бэкапов в двух различных локациях, помимо основной с исходными данными. Более подробно обо всём этом писал в статье:
⇨ Как правильно делать бэкапы и следить за ними
Информация там в основном теоретическая, так что не потеряла актуальности. Но есть и ссылки на конкретные материалы с реализацией отдельных функциональностей.
#совет #backup
Server Admin
Как правильно делать бэкапы и следить за ними | serveradmin.ru
Написать данную заметку меня побудила ситуация вокруг хостера ihor.ru, с которым я сотрудничаю уже лет 5. Еще летом у них начались какие-то проблемы, а сейчас они вылились в открытое...
Расскажу про одну старую и известную бесплатную программу для бэкапов под Windows – AOMEI Backupper Standard. Давно у меня в закладках лежит. Регулярно вижу про неё упоминания в комментариях и некоторых чатах. Это Freeware версия коммерческой программы. При этом у неё даже в бесплатной редакции хорошие возможности, которых для многих будет достаточно.
📌 Основные возможности Freeware версии AOMEI Backupper Standard:
▪️Бэкап на уровне файлов, разделов, дисков, всей системы.
▪️Типы бэкапов: полный, инкрементный, посекторный.
▪️Умеет бэкапить на локальный или внешний USB диск, сетевую папку (только по SMB)
▪️Синхронизация каталогов.
▪️Восстановление системы с использованием загрузочного ISO на базе WinPE или Linux. Причём Linux версия работает без UEFI, на обычном BIOS.
▪️Клонирование разделов и дисков, в том числе посекторное.
▪️Уведомления по email.
▪️Работа только на десктопных версиях Windows, серверные не поддерживаются.
Я установил и попробовал эту программу. В целом всё работает очень просто. Сделал бэкап на сетевую папку, создал загрузочный диск, закинул его на гипервизор, загрузился с него и сделал восстановление с сетевого диска. Попробовал диск и на WinPE, и на Linux. Последний образ весит всего 45 МБ.
Но могу сразу сказать, что у неё есть очень похожий бесплатный аналог – Hasleo Backup Suite Free, который лично мне понравился больше. В первую очередь тем, что там в интерфейсе нет опций с пометкой Pro, за которые надо платить.
При этом стоит отметить, что у AOMEI Backupper чуть больше возможностей. Из тех, что заметил я, это:
🔹Выбор загрузочного диска на базе Linux или WinPE.
🔹Возможность интегрировать в загрузочный диск на базе WinPE необходимые драйвера.
🔹Функциональность по синхронизации каталогов, в том числе по расписанию.
Последняя возможность довольно полезная и может быть актуальна. Эта же функциональность есть у бесплатной программы FreeFileSync, но очевидно, что в рамках одной программы иметь всю необходимую функциональность удобнее.
⇨ 🌐 Сайт
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#backup #windows
📌 Основные возможности Freeware версии AOMEI Backupper Standard:
▪️Бэкап на уровне файлов, разделов, дисков, всей системы.
▪️Типы бэкапов: полный, инкрементный, посекторный.
▪️Умеет бэкапить на локальный или внешний USB диск, сетевую папку (только по SMB)
▪️Синхронизация каталогов.
▪️Восстановление системы с использованием загрузочного ISO на базе WinPE или Linux. Причём Linux версия работает без UEFI, на обычном BIOS.
▪️Клонирование разделов и дисков, в том числе посекторное.
▪️Уведомления по email.
▪️Работа только на десктопных версиях Windows, серверные не поддерживаются.
Я установил и попробовал эту программу. В целом всё работает очень просто. Сделал бэкап на сетевую папку, создал загрузочный диск, закинул его на гипервизор, загрузился с него и сделал восстановление с сетевого диска. Попробовал диск и на WinPE, и на Linux. Последний образ весит всего 45 МБ.
Но могу сразу сказать, что у неё есть очень похожий бесплатный аналог – Hasleo Backup Suite Free, который лично мне понравился больше. В первую очередь тем, что там в интерфейсе нет опций с пометкой Pro, за которые надо платить.
При этом стоит отметить, что у AOMEI Backupper чуть больше возможностей. Из тех, что заметил я, это:
🔹Выбор загрузочного диска на базе Linux или WinPE.
🔹Возможность интегрировать в загрузочный диск на базе WinPE необходимые драйвера.
🔹Функциональность по синхронизации каталогов, в том числе по расписанию.
Последняя возможность довольно полезная и может быть актуальна. Эта же функциональность есть у бесплатной программы FreeFileSync, но очевидно, что в рамках одной программы иметь всю необходимую функциональность удобнее.
⇨ 🌐 Сайт
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#backup #windows
Я обновил популярную подборку со своего сайта:
⇨ Топ бесплатных программ для бэкапа
Обновил не в плане актуализировал все описания, хотя некоторые поправил и насытил дополнительной информацией, а просто дополнил статью всеми программами, что были упомянуты в моём канале по этой теме. Я не представляю, как эту подборку можно актуализировать. Слишком хлопотно всё это перепроверять и обновлять описания. Тем более с учётом того, что она постоянно увеличивается.
Даже в таком виде статья информативна. Если подбираете себе бесплатный инструмент для бэкапа, то подборка поможет быстро сориентироваться в том, что есть, посмотреть алгоритмы, основные возможности, поддерживаемые платформы, наличие веб интерфейса и т.д.
Плюс, к каждому продукту есть ссылка на обсуждение в Telegram канале, где есть в том числе отзывы и рекомендации от тех, кто пользовался. Именно поэтому я прошу не флудить в комментариях и не превращать чат в болталку. Иногда удаляю то, что считаю бесполезным для читателей (мемы, картинки, ссоры и т.д.), чтобы не занимать зря их время и внимание.
Если считаете, что какой-то полезной программы не хватает, пишите в комментариях здесь или на сайте. Я буду дополнять. Не хватает какого-то хорошего софта для бэкапа виртуальных машин. Я кроме Proxmox Backup Server и Veeam Backup & Replication Community Edition ничего не припоминаю из этой области. Есть Vinchin Backup & Recovery, но там бесплатная версия очень куцая.
В этом обновлении добавил туда Hasleo Backup Suite Free, Minarca Backup, AOMEI Backupper Standard, Proxmox Backup Client, Rdiff-backup, nxs-backup, Veeam Backup & Replication Community Edition, Proxmox Backup Server, Vinchin Backup & Recovery. Обновил информацию по Veeam Agent for Windows or Linux Free, Cobian Backup, Kopia.
Полный список софта из статьи:
◽️Hasleo Backup Suite Free
◽️Minarca Backup
◽️Veeam Agent for Windows or Linux Free
◽️Kopia
◽️Burp
◽️Syncthing
◽️Borgbackup или Borg
◽️Clonezilla и Rescuezilla
◽️BackupPC
◽️UrBackup
◽️Butterfly Backup
◽️DeltaCopy
◽️Cobian Backup
◽️FreeFileSync
◽️Rclone
◽️Bup
◽️ReaR
◽️Restic
◽️ElkarBackup
◽️FBackup
◽️AOMEI Backupper Standard
◽️Proxmox Backup Client
◽️Rdiff-backup
◽️NXS-backup
◽️Veeam Backup & Replication Community Edition
◽️Proxmox Backup Server
◽️Vinchin Backup & Recovery
В планах всё это как-то упорядочить по различным признакам и объединить в одну таблицу с основными характеристиками. Но нужно время, чтобы всё это обработать. На деле это не такая простая задача, как может показаться.
#backup #подборка
⇨ Топ бесплатных программ для бэкапа
Обновил не в плане актуализировал все описания, хотя некоторые поправил и насытил дополнительной информацией, а просто дополнил статью всеми программами, что были упомянуты в моём канале по этой теме. Я не представляю, как эту подборку можно актуализировать. Слишком хлопотно всё это перепроверять и обновлять описания. Тем более с учётом того, что она постоянно увеличивается.
Даже в таком виде статья информативна. Если подбираете себе бесплатный инструмент для бэкапа, то подборка поможет быстро сориентироваться в том, что есть, посмотреть алгоритмы, основные возможности, поддерживаемые платформы, наличие веб интерфейса и т.д.
Плюс, к каждому продукту есть ссылка на обсуждение в Telegram канале, где есть в том числе отзывы и рекомендации от тех, кто пользовался. Именно поэтому я прошу не флудить в комментариях и не превращать чат в болталку. Иногда удаляю то, что считаю бесполезным для читателей (мемы, картинки, ссоры и т.д.), чтобы не занимать зря их время и внимание.
Если считаете, что какой-то полезной программы не хватает, пишите в комментариях здесь или на сайте. Я буду дополнять. Не хватает какого-то хорошего софта для бэкапа виртуальных машин. Я кроме Proxmox Backup Server и Veeam Backup & Replication Community Edition ничего не припоминаю из этой области. Есть Vinchin Backup & Recovery, но там бесплатная версия очень куцая.
В этом обновлении добавил туда Hasleo Backup Suite Free, Minarca Backup, AOMEI Backupper Standard, Proxmox Backup Client, Rdiff-backup, nxs-backup, Veeam Backup & Replication Community Edition, Proxmox Backup Server, Vinchin Backup & Recovery. Обновил информацию по Veeam Agent for Windows or Linux Free, Cobian Backup, Kopia.
Полный список софта из статьи:
◽️Hasleo Backup Suite Free
◽️Minarca Backup
◽️Veeam Agent for Windows or Linux Free
◽️Kopia
◽️Burp
◽️Syncthing
◽️Borgbackup или Borg
◽️Clonezilla и Rescuezilla
◽️BackupPC
◽️UrBackup
◽️Butterfly Backup
◽️DeltaCopy
◽️Cobian Backup
◽️FreeFileSync
◽️Rclone
◽️Bup
◽️ReaR
◽️Restic
◽️ElkarBackup
◽️FBackup
◽️AOMEI Backupper Standard
◽️Proxmox Backup Client
◽️Rdiff-backup
◽️NXS-backup
◽️Veeam Backup & Replication Community Edition
◽️Proxmox Backup Server
◽️Vinchin Backup & Recovery
В планах всё это как-то упорядочить по различным признакам и объединить в одну таблицу с основными характеристиками. Но нужно время, чтобы всё это обработать. На деле это не такая простая задача, как может показаться.
#backup #подборка
Server Admin
Топ бесплатных программ для бэкапа | serveradmin.ru
Подборка бесплатных программ для бэкапа. Краткое описание, возможности, отзывы реальных людей об использовании.
Rsync – мощная консольная утилита и служба для быстрого копирования файлов. Отличает её в первую очередь скорость сравнения директорий с огромным количеством файлов. К примеру, если вам нужно будет сравнить и привести к единому содержимому два разнесённых по сети хранилища с миллионом файлов внутри, то rsync для этого подойдёт лучше, чем что-либо другое. У него только один существенный минус – однопоточность.
Я лично чаще всего для бэкапов использую преимущественно голый rsync, но не всегда и не везде. Если нужно обязательно копировать файлы как есть, без упаковки, сжатия, дедупликации, то в этом случае выберу его. По rsync существует много руководств и примеров, но я хочу обратить внимание на некоторые его ключи, которые возможно не все знают и используют.
🔴 --backup и --backup-dir
При сравнении источника и приёмника мы можем привести приёмник к тому же виду, что и источник. Но чаще всего нам хочется, особенно когда делаем бэкап, как-то зафиксировать изменения и сохранить изменившиеся файлы. Я делаю это так:
Все свежие дампы базы из папки
Я добавил ключ
Будут перечислены все скопированные и удалённые (т.е. перемещённые в backup-dir папку) дампы.
С помощью такого подхода очень удобно отслеживать изменения в хранилищах. Например, взломали у вас в какой-то день сайт и заменили несколько файлов. Все эти файлы будут аккуратно сложены в отдельную папочку во время очередного бэкапа после взлома.
🟡 --ignore-existing
Ключ полезен, когда вам надо из бэкапа накатить в источник файлы, не трогая там те, что уже есть, даже если изменились. Накатываем только то, чего не хватает, без какой-либо перезаписи. То есть кто-то случайно или специально накосячил и удалил несколько нужных файлов, которые нам надо вернуть, не трогая всё остальное.
🟢 --update
Используется для того, чтобы обновлять только те файлы в целевой папке, которые старше соответствующих файлов в источнике.
Если в целевой папке файлов из источника вообще нет, то они тоже будут скопированы, как и с ключом
⚫️ --dry-run
Привычное название ключа, который позволяет выполнить команду и посмотреть результат без реального выполнения. То есть выполняется тестовый прогон. Рекомендую использовать, когда отлаживаете команду. Спасёт, если с ключом
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#rsync
Я лично чаще всего для бэкапов использую преимущественно голый rsync, но не всегда и не везде. Если нужно обязательно копировать файлы как есть, без упаковки, сжатия, дедупликации, то в этом случае выберу его. По rsync существует много руководств и примеров, но я хочу обратить внимание на некоторые его ключи, которые возможно не все знают и используют.
🔴 --backup и --backup-dir
При сравнении источника и приёмника мы можем привести приёмник к тому же виду, что и источник. Но чаще всего нам хочется, особенно когда делаем бэкап, как-то зафиксировать изменения и сохранить изменившиеся файлы. Я делаю это так:
# /usr/bin/rsync -av --progress --delete back_user@10.20.5.22:/var/lib/pgpro/backup/ /mnt/data/backup/bases --backup --backup-dir=/mnt/data/backup/bases_increment/`date +%Y-%m-%d`/ >> /var/log/rsync/1Csrv-`date +%Y-%m-%d`.log
Все свежие дампы базы из папки
/var/lib/pgpro/backup/
сервера 10.20.5.22 будут скопированы в папку с бэкапами /mnt/data/backup/bases
, при этом старые дампы, которые были скопированы вчера, переместятся в папку /mnt/data/backup/bases_increment/2025-02-13/
и будут там лежать, пока мы их не удалим, к примеру, через find. Глубину хранения сами выбираете, когда настраиваете очистку.Я добавил ключ
--progress
, чтобы вывод, сохранённый в файл, содержал в том числе информацию о средней скорости и времени копирования каждого файла. Если у вас много мелких файлов, лучше этот ключ убрать. В логе /var/log/rsync/1Csrv-2025-02-13.log
я увижу следующее:2025-02-13_05-29 Start backup 1Csrv
receiving incremental file list
deleting 2025-02-10_05-01-zup.sql.gz
deleting 2025-02-10_05-01-buh.sql.gz
2025-02-13_05-01-buh.sql.gz
1,380,560,010 100% 1.03MB/s 0:21:22 (xfr#1, to-chk=20/62)
2025-02-13_05-01-zup.sql.gz
444,272,983 100% 1.63MB/s 0:04:19 (xfr#2, to-chk=19/62)
Будут перечислены все скопированные и удалённые (т.е. перемещённые в backup-dir папку) дампы.
С помощью такого подхода очень удобно отслеживать изменения в хранилищах. Например, взломали у вас в какой-то день сайт и заменили несколько файлов. Все эти файлы будут аккуратно сложены в отдельную папочку во время очередного бэкапа после взлома.
🟡 --ignore-existing
Ключ полезен, когда вам надо из бэкапа накатить в источник файлы, не трогая там те, что уже есть, даже если изменились. Накатываем только то, чего не хватает, без какой-либо перезаписи. То есть кто-то случайно или специально накосячил и удалил несколько нужных файлов, которые нам надо вернуть, не трогая всё остальное.
# /usr/bin/rsync -av --ignore-existing back_user@10.30.7.5:/mnt/backup/www/ /var/www/
🟢 --update
Используется для того, чтобы обновлять только те файлы в целевой папке, которые старше соответствующих файлов в источнике.
# /usr/bin/rsync -av --update back_user@10.30.7.5:/mnt/backup/www/ /var/www/
Если в целевой папке файлов из источника вообще нет, то они тоже будут скопированы, как и с ключом
--ignore-existing
. Ключ удобен, когда ты из разных источников склеиваешь данные и хочешь получить в итоге самые свежие версии одних и тех же файлов.⚫️ --dry-run
Привычное название ключа, который позволяет выполнить команду и посмотреть результат без реального выполнения. То есть выполняется тестовый прогон. Рекомендую использовать, когда отлаживаете команду. Спасёт, если с ключом
--delete
перепутаете источник и приёмник. Мигом удалите все файлы в источнике, если приёмник пустой.❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#rsync
Media is too big
VIEW IN TELEGRAM
Атмосферная перепевка старой песни Земфиры - "Хочешь?". Мне понравилось. Впервые услышал, хотя она довольно старая. Качественно сделано и снято, хотя видно, что любители делали. Особенно зайдёт тем, кто сегодня после работы задержится и будет баги отлавливать или апдейты накатывать.
#музыка
Please open Telegram to view this post
VIEW IN TELEGRAM
Ушла легенда ⭐️
Перебирал на днях старые железки, освобождал место в шкафу. Выкинул почти всё старьё, в том числе указанный роутер - Linksys WRT54GL. Я про него даже статью когда-то давно написал:
⇨ Легендарный Linksys WRT54GL
Приобрел этот роутер я в далеком 2007 году, когда у меня в квартире появилось ethernet подключение к интернету от местного провайдера. Уже в то время этот роутер имел хорошую репутацию и качество "как у cisco". На деле все так и оказалось. Много лет он работал и проблем с ним никогда не было. Его не приходилось перезагружать по питанию для сброса. У него до сих пор работает оригинальный блок питания.
Первые пару-тройку лет на нем стояла родная прошивка, потом я узнал о DD-WRT и прошил Linksys WRT54GL этой прошивкой. Трудился он лет 15, потом у него перестал работать WiFi. Полежал ещё какое-то время на случай, если понадобится свитч, но так и не пригодился. 100 мегабитный свитч сейчас уже точно не нужен, так что выкинул его.
Рука не поднялась выкинуть iPod Touch 4 64GB, до сих пор работает, только кнопка включения заедает и пятно небольшое на экране. Очень качественная вещь, с учётом того, что у меня им маленькие дети пользовались. Сказки на нём слушали.
И оставил Nokia N73. Просто балдел от этого телефона. У него батарею раздуло. Закажу новую. Я его иногда в поездки брал для подстраховки, как запасной телефон. Мало места занимает и долго заряд держит по сравнению с современными смартфонами.
#железо
Перебирал на днях старые железки, освобождал место в шкафу. Выкинул почти всё старьё, в том числе указанный роутер - Linksys WRT54GL. Я про него даже статью когда-то давно написал:
⇨ Легендарный Linksys WRT54GL
Приобрел этот роутер я в далеком 2007 году, когда у меня в квартире появилось ethernet подключение к интернету от местного провайдера. Уже в то время этот роутер имел хорошую репутацию и качество "как у cisco". На деле все так и оказалось. Много лет он работал и проблем с ним никогда не было. Его не приходилось перезагружать по питанию для сброса. У него до сих пор работает оригинальный блок питания.
Первые пару-тройку лет на нем стояла родная прошивка, потом я узнал о DD-WRT и прошил Linksys WRT54GL этой прошивкой. Трудился он лет 15, потом у него перестал работать WiFi. Полежал ещё какое-то время на случай, если понадобится свитч, но так и не пригодился. 100 мегабитный свитч сейчас уже точно не нужен, так что выкинул его.
Рука не поднялась выкинуть iPod Touch 4 64GB, до сих пор работает, только кнопка включения заедает и пятно небольшое на экране. Очень качественная вещь, с учётом того, что у меня им маленькие дети пользовались. Сказки на нём слушали.
И оставил Nokia N73. Просто балдел от этого телефона. У него батарею раздуло. Закажу новую. Я его иногда в поездки брал для подстраховки, как запасной телефон. Мало места занимает и долго заряд держит по сравнению с современными смартфонами.
#железо
Впервые увидел и попробовал очень удобную панель управления для OpenVPN. Если быть точным, то это скорее панель наблюдения за пользователями OpenVPN сервера. Речь пойдёт про проект openvpn-monitor.
С его помощью можно посмотреть следующую информацию о пользователях:
▪️имя пользователя;
▪️время подключения;
▪️внутренний и внешний IP пользователя;
▪️суммарный трафик;
▪️время подключения и соответственно время онлайна;
▪️расположение пользователя на географический карте.
При желании пользователя можно отключить через веб интерфейс.
Openvpn-monitor представляет из себя веб интерфейс, написанный на Python, запущенный через обычный веб сервер Nginx или Apache. Информацию о пользователях он берёт через стандартную management console сервера OpenVPN. Её надо включить. Для этого достаточно добавить в конфиг сервера:
или
Не забудьте ограничить доступ к консоли с помощью файрвола. Можно ещё паролем закрыть, но я бы не рассчитывал только на него. Лучше полностью скрыть. Также можно открыть доступ к ней через unix socket. Подробности в документации.
Openvpn-monitor можно запускать на любой машине, откуда будет доступ к открытой консоли. Проще всего запустить её в Docker, чтобы не устанавливать все пакеты и зависимости, хотя такая возможность тоже есть. Можно посмотреть в документации.
Я тестировал в Docker. Показываю сразу рабочий вариант, на котором я остановился:
Здесь указана широта и долгота Москвы как стартовая точка на карте и IP адрес VPN сервера. SITES_0 задаёт параметры одного сервера. Можно в одну панель добавить несколько, задавая настройки соответственно SITES_1_, SITES_2_ и т.д.
Это вся настройка. Теперь можно идти в IP интерфейс на порт 8181 и смотреть информацию о пользователях. Не забудьте его тоже скрыть от посторонних глаз либо за Firewall, либо за любой веб сервер с режимом обратного прокси. Встроенной аутентификации у openvpn-monitor нет.
⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#openvpn
С его помощью можно посмотреть следующую информацию о пользователях:
▪️имя пользователя;
▪️время подключения;
▪️внутренний и внешний IP пользователя;
▪️суммарный трафик;
▪️время подключения и соответственно время онлайна;
▪️расположение пользователя на географический карте.
При желании пользователя можно отключить через веб интерфейс.
Openvpn-monitor представляет из себя веб интерфейс, написанный на Python, запущенный через обычный веб сервер Nginx или Apache. Информацию о пользователях он берёт через стандартную management console сервера OpenVPN. Её надо включить. Для этого достаточно добавить в конфиг сервера:
management 127.0.0.1 5555
или
management 0.0.0.0 5555
Не забудьте ограничить доступ к консоли с помощью файрвола. Можно ещё паролем закрыть, но я бы не рассчитывал только на него. Лучше полностью скрыть. Также можно открыть доступ к ней через unix socket. Подробности в документации.
Openvpn-monitor можно запускать на любой машине, откуда будет доступ к открытой консоли. Проще всего запустить её в Docker, чтобы не устанавливать все пакеты и зависимости, хотя такая возможность тоже есть. Можно посмотреть в документации.
Я тестировал в Docker. Показываю сразу рабочий вариант, на котором я остановился:
# docker run -d --name openvpn-monitor \
-e OPENVPNMONITOR_DEFAULT_DATETIMEFORMAT="%%d/%%m/%%Y" \
-e OPENVPNMONITOR_DEFAULT_LATITUDE=55 \
-e OPENVPNMONITOR_DEFAULT_LONGITUDE=37 \
-e OPENVPNMONITOR_DEFAULT_MAPS=True \
-e OPENVPNMONITOR_DEFAULT_MAPSHEIGHT=500 \
-e OPENVPNMONITOR_DEFAULT_SITE=Test \
-e OPENVPNMONITOR_SITES_0_ALIAS=UDP \
-e OPENVPNMONITOR_SITES_0_HOST=97.145.145.233 \
-e OPENVPNMONITOR_SITES_0_NAME=OVPN-UDP \
-e OPENVPNMONITOR_SITES_0_PORT=5555 \
-e OPENVPNMONITOR_SITES_0_SHOWDISCONNECT=True \
-p 8181:80 ruimarinho/openvpn-monitor
Здесь указана широта и долгота Москвы как стартовая точка на карте и IP адрес VPN сервера. SITES_0 задаёт параметры одного сервера. Можно в одну панель добавить несколько, задавая настройки соответственно SITES_1_, SITES_2_ и т.д.
Это вся настройка. Теперь можно идти в IP интерфейс на порт 8181 и смотреть информацию о пользователях. Не забудьте его тоже скрыть от посторонних глаз либо за Firewall, либо за любой веб сервер с режимом обратного прокси. Встроенной аутентификации у openvpn-monitor нет.
⇨ 🌐 Сайт / Исходники
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#openvpn
Для тех, кто много работает с базами данных, есть простой и удобный инструмент для их проектирования – dbdiagram.io. Мы не разработчики, тем не менее, покажу, как этот сервис может быть полезен. У него удобная визуализация структуры базы данных. Намного удобнее, чем, к примеру, в привычном phpmyadmin.
Можно выгрузить обычный дам из СУБД без данных и загрузить его в dbdiagram. Получите наглядную схему базы. При желании, её можно отредактировать, или просто экспортнуть в виде картинки. Покажу на примере MySQL. Выгружаем дамп базы postfix без данных, только структуру:
Передаём к себе на комп полученный дамп. В dbdiagram.io открываем Import ⇨ From MySQL ⇨ Upload .sql ⇨ Submit. Наблюдаем схему базы данных со всеми связями. Причём она сразу отформатирована по таблицам так, что все их наглядно видно.
При желании можно что-то изменить в структуре и выгрузить новый sql файл уже с изменениями. Если выбрать Export ⇨ To PNG, то сразу же получите аккуратную картинку со схемой, без лишних вопросов. Очень быстро и удобно, если нужно куда-то приложить схему базы данных.
⇨ 🌐 Сайт
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#mysql #postgresql
Можно выгрузить обычный дам из СУБД без данных и загрузить его в dbdiagram. Получите наглядную схему базы. При желании, её можно отредактировать, или просто экспортнуть в виде картинки. Покажу на примере MySQL. Выгружаем дамп базы postfix без данных, только структуру:
# mysqldump --no-data -u dbuser -p postfix > ~/schema.sql
Передаём к себе на комп полученный дамп. В dbdiagram.io открываем Import ⇨ From MySQL ⇨ Upload .sql ⇨ Submit. Наблюдаем схему базы данных со всеми связями. Причём она сразу отформатирована по таблицам так, что все их наглядно видно.
При желании можно что-то изменить в структуре и выгрузить новый sql файл уже с изменениями. Если выбрать Export ⇨ To PNG, то сразу же получите аккуратную картинку со схемой, без лишних вопросов. Очень быстро и удобно, если нужно куда-то приложить схему базы данных.
⇨ 🌐 Сайт
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#mysql #postgresql
Когда разбирался с контейнером openvpn-monitor, про который вчера писал, пришлось немного его подебажить, так как он никак не хотел подключаться к консоли OpenVPN сервера. Писал стандартную ошибку в веб интерфейсе - connection timeout и адрес с портом сервера. Я и так, и сяк адреса и доменные имена пробовал, ни в какую.
Как это обычно бывает, контейнер внутри пустой. Там нет ничего, что помогло бы проверить сетевую связность. Ситуация рядовая, так что решение в целом понятное. У меня было несколько заметок по этой теме. Расскажу, как я решал задачу.
Есть удобный инструмент cdebug. Представляет из себя обычный бинарник. Скачиваем его на хост, где работает контейнер:
Подключаемся к нашему контейнеру:
Оказываемся в его консоли и получаем все утилиты из комплекта BusyBox. Там мне понадобились буквально 2 утилиты: ping и telnet. Сначала пинганул VPN сервер и убедился, что сетевая связность есть. Потом через telnet понял, что не подключаюсь к настроенному порту консоли.
Оказалось, что банально файрвол блокировал запросы. В принципе, я об этом догадывался, но там много правил было наворочено. Думал, что доступ будет. Не хотелось лишний раз трогать iptables и включать логирование всех заблокированных пакетов. Там бы я тоже увидел, что соединения блокируются. Вариант с cdebug показался проще. Убедился наверняка, что проблема с файрволом и поменял некоторые правила.
С помощью cdebug можно подключаться к подам кубера. В докере можно пробрасывать новые порты из контейнера на хост без перезапуска контейнера. Можно подцепить к контейнеру образ с tshark на борту и собрать трафик изнутри контейнера. Очень простая и удобная программа. Если работаете с контейнерами, рекомендую сохранить и освоить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#docker #devops
Как это обычно бывает, контейнер внутри пустой. Там нет ничего, что помогло бы проверить сетевую связность. Ситуация рядовая, так что решение в целом понятное. У меня было несколько заметок по этой теме. Расскажу, как я решал задачу.
Есть удобный инструмент cdebug. Представляет из себя обычный бинарник. Скачиваем его на хост, где работает контейнер:
# mkdir ~/cdebug && cd ~/cdebug
# wget https://github.com/iximiuz/cdebug/releases/download/v0.0.18/cdebug_linux_amd64.tar.gz
# tar xzvf cdebug_linux_amd64.tar.gz
Подключаемся к нашему контейнеру:
# ./cdebug exec -it openvpn-monitor
Оказываемся в его консоли и получаем все утилиты из комплекта BusyBox. Там мне понадобились буквально 2 утилиты: ping и telnet. Сначала пинганул VPN сервер и убедился, что сетевая связность есть. Потом через telnet понял, что не подключаюсь к настроенному порту консоли.
Оказалось, что банально файрвол блокировал запросы. В принципе, я об этом догадывался, но там много правил было наворочено. Думал, что доступ будет. Не хотелось лишний раз трогать iptables и включать логирование всех заблокированных пакетов. Там бы я тоже увидел, что соединения блокируются. Вариант с cdebug показался проще. Убедился наверняка, что проблема с файрволом и поменял некоторые правила.
С помощью cdebug можно подключаться к подам кубера. В докере можно пробрасывать новые порты из контейнера на хост без перезапуска контейнера. Можно подцепить к контейнеру образ с tshark на борту и собрать трафик изнутри контейнера. Очень простая и удобная программа. Если работаете с контейнерами, рекомендую сохранить и освоить.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#docker #devops
Telegram
ServerAdmin.ru
При работе с Docker контейнерами часто хочется зайти туда и посмотреть, что происходит. Но не всегда это возможно. В некоторых контейнерах нет вообще ничего - ни оболочки, ни утилит для диагностики.
Для решения этой задачи создана программа cdebug. С её…
Для решения этой задачи создана программа cdebug. С её…
❓Возник вопрос вчера на тему OpenVPN. Можно как-то собирать статистику по подключениям пользователей и выводить отчёт? В целом, задача эта решаема, так как OVPN сервер выдаёт всю статистику о своём состоянии и пользователях как через встроенную консоль управления, так и через лог файл, который задаётся параметром status в конфигурационном файле.
Расскажу, как эту задачу решаю я. Вроде бы в контексте именно статистики по пользователям я про неё не писал. В интернете можно найти много вариантов настройки мониторинга за пользователями OpenVPN. Я лично по старинке использую тот, что когда-то давно попробовал и внедрил. Видел варианты более элегантные и удобные. Я уже просто привык к своему, он нормально работает, так что использую:
⇨ Мониторинг openvpn подключений пользователей в zabbix
Идея сбора статистики в том, что при подключении пользователя срабатывает триггер, при отключении он гаснет. И всё. Zabbix сам собирает всю статистику. Потом по ней можно какой-то отчёт сделать и выгрузить его в CSV. Триггерам можно повесить отдельный тэг и самую низкую важность, чтобы они больше нигде не отсвечивали.
Тут получается немного нецелевое использование системы мониторинга, но зато ничего самому по аналитике делать не надо: искать какую-то панель для этого, агрегировать данные и т.д.
Дополнительно можно сделать отдельный Dashboard с информацией об активных сессиях. Там же добавить виджет с историей подключений и отключений и т.д. В целом удобно и заменяет многие простые панели без непосредственно управления. При этом лично мне именно в Zabbix функциональность подобного рода нравится больше, чем примерно то же самое, но в Grafana с метриками от какого-нибудь экспортера Prometheus. По крайней мере из тех, что я видел.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#zabbix #openvpn
Расскажу, как эту задачу решаю я. Вроде бы в контексте именно статистики по пользователям я про неё не писал. В интернете можно найти много вариантов настройки мониторинга за пользователями OpenVPN. Я лично по старинке использую тот, что когда-то давно попробовал и внедрил. Видел варианты более элегантные и удобные. Я уже просто привык к своему, он нормально работает, так что использую:
⇨ Мониторинг openvpn подключений пользователей в zabbix
Идея сбора статистики в том, что при подключении пользователя срабатывает триггер, при отключении он гаснет. И всё. Zabbix сам собирает всю статистику. Потом по ней можно какой-то отчёт сделать и выгрузить его в CSV. Триггерам можно повесить отдельный тэг и самую низкую важность, чтобы они больше нигде не отсвечивали.
Тут получается немного нецелевое использование системы мониторинга, но зато ничего самому по аналитике делать не надо: искать какую-то панель для этого, агрегировать данные и т.д.
Дополнительно можно сделать отдельный Dashboard с информацией об активных сессиях. Там же добавить виджет с историей подключений и отключений и т.д. В целом удобно и заменяет многие простые панели без непосредственно управления. При этом лично мне именно в Zabbix функциональность подобного рода нравится больше, чем примерно то же самое, но в Grafana с метриками от какого-нибудь экспортера Prometheus. По крайней мере из тех, что я видел.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#zabbix #openvpn
Небольшая справочная заметка для тех, кто пользуется Prometheus. Речь пойдёт про простенький и быстрый в настройке обратный прокси для метрик - exporter-exporter. Я вообще не знал про его существование, хотя пользоваться им удобно, настраивается быстро. Плюс, живёт в базовых системных репозиториях. По крайней мере в Debian и Ubuntu он есть, искать по имени prometheus-exporter-exporter. Есть даже версия под Windows, можно запустить как службу.
По своей сути exporter-exporter обычный бинарник на Go. Заменяет настройку любого другого обратного прокси на базе полноценного веб-сервера, типа Nginx или Traefik. Пригодится, когда у тебя несколько экспортеров и ты хочешь использовать для них единую точку входа, скрывая реальные адреса экспортеров.
У exporter-exporter небольшой конфиг в формате yaml. Экспортер поддерживает 3 эндпоинта:
◽️/ - отображает список всех экспортеров, которые на нём настроены;
◽️/proxy - через этот эндпоинт можно обратиться к конкретному экспортеру, настроенному через отдельный module в конфиге;
◽️/metrics - показывает метрики самого exporter-exporter.
Настройка примерно такая для двух разных экспортеров, локального и внешнего:
А вот так их добавляем в Prometheus вместе с метриками самого exporter-exporter, запущенного на сервере 192.168.101.2:
В примере репозитория exporter-exporter не сразу понял, как добавить внешний экспортер. Там были примеры только для localhost. Спросил об этом DeepSeek, перед этим уточнив, знаком ли он с этим продуктом. Ответил, что знаком и выдал совершенно нерабочий конфиг для службы, просто придумав различные несуществующие параметры. Такой вот он помощник. Пришлось самому разбираться.
Для тех, кто не видел, у меня была серия публикаций по запуску полноценного мониторинга на связке prometheus+grafana+alertmanager:
⇨ Запуск Prometheus + Grafana
⇨ Добавление туда Alertmanager
⇨ Полная автоматизация запуска и эксплуатации по принципу IaC
Данная заметка их хорошо дополняет. Удобно использовать именно exporter-exporter в связке с Prometheus, а не какой-то другой обратный прокси. Тут всё в едином формате, легко автоматизировать настройку и запуск.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#prometheus
По своей сути exporter-exporter обычный бинарник на Go. Заменяет настройку любого другого обратного прокси на базе полноценного веб-сервера, типа Nginx или Traefik. Пригодится, когда у тебя несколько экспортеров и ты хочешь использовать для них единую точку входа, скрывая реальные адреса экспортеров.
У exporter-exporter небольшой конфиг в формате yaml. Экспортер поддерживает 3 эндпоинта:
◽️/ - отображает список всех экспортеров, которые на нём настроены;
◽️/proxy - через этот эндпоинт можно обратиться к конкретному экспортеру, настроенному через отдельный module в конфиге;
◽️/metrics - показывает метрики самого exporter-exporter.
Настройка примерно такая для двух разных экспортеров, локального и внешнего:
modules:
node_exporter_loc:
method: http
http:
port: 9100
path: '/metrics'
node_exporter_ext:
method: http
http:
address: 172.20.4.15
port: 9100
path: '/metrics'
А вот так их добавляем в Prometheus вместе с метриками самого exporter-exporter, запущенного на сервере 192.168.101.2:
- job_name: 'exp_exp_metrics'
scrape_interval: 5s
static_configs:
- targets: ['192.168.101.2:9999']
- job_name: 'exp_exp-local'
scrape_interval: 5s
metrics_path: /proxy
params:
module:
- node_exporter_loc
static_configs:
- targets: ['192.168.101.2:9999']
- job_name: 'exp_exp-external'
scrape_interval: 5s
metrics_path: /proxy
params:
module:
- node_exporter_ext
static_configs:
- targets: ['192.168.101.2:9999']
В примере репозитория exporter-exporter не сразу понял, как добавить внешний экспортер. Там были примеры только для localhost. Спросил об этом DeepSeek, перед этим уточнив, знаком ли он с этим продуктом. Ответил, что знаком и выдал совершенно нерабочий конфиг для службы, просто придумав различные несуществующие параметры. Такой вот он помощник. Пришлось самому разбираться.
Для тех, кто не видел, у меня была серия публикаций по запуску полноценного мониторинга на связке prometheus+grafana+alertmanager:
⇨ Запуск Prometheus + Grafana
⇨ Добавление туда Alertmanager
⇨ Полная автоматизация запуска и эксплуатации по принципу IaC
Данная заметка их хорошо дополняет. Удобно использовать именно exporter-exporter в связке с Prometheus, а не какой-то другой обратный прокси. Тут всё в едином формате, легко автоматизировать настройку и запуск.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#prometheus
GitHub
GitHub - QubitProducts/exporter_exporter: A reverse proxy designed for Prometheus exporters
A reverse proxy designed for Prometheus exporters. Contribute to QubitProducts/exporter_exporter development by creating an account on GitHub.