ServerAdmin.ru
26.9K subscribers
189 photos
27 videos
8 files
2.49K links
Авторская информация о системном администрировании.

Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed

Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Download Telegram
​​Я тут недавно открыл для себя очень простой способ посмотреть все dns запросы какого-нибудь компьютера и приложения на нем. Не то, чтобы я не понимал или не знал как это делать. Понятно, что можно настроить свой dns сервер и включить логирование запросов. У меня уже 100 лет в обед есть статья на эту тему. Другое дело, что это требует некоторого времени и усилий.

Но мы то современные люди, пьем крафтовый кофе, растим бороду, изучаем devops. Хотим все делать быстро и эффективно. Рассказываю, как. Берем официальный докер контейнер с adguard и запускаем его, не забыв установить docker.

docker run --name adguardhome \
  -v /opt/adguard/workdir:/opt/adguardhome/work \
  -v /opt/adguard/confdir:/opt/adguardhome/conf \
  -p 53:53/tcp -p 53:53/udp \
  -p 80:80/tcp -p 3000:3000/tcp \
  -p 443:443/tcp \
  -p 853:853/tcp \
  -d adguard/adguardhome

Потом заходим в админку adguard на 3000-й порт машины, где его запустили и быстро делаем начальную настройку (занимает 30 секунд). После этого идем на целевую машину или виртуалку и прописываем там в качестве dns сервера нашу машину с adguard. Идем в статистику и смотрим запросы. Для примера я просто запустил виртуалку с виндой, открыл консоль и сделал ping ya.ru. Смотрим, куда полезла система (куда она только не полезла). Список там очень длинный, не влез весь.

Понятно, что adguard таким образом можно использовать не только для просмотра dns запросов. Рассказал то, зачем он нужен был мне. А вы можете использовать по своему назначению.

#gateway
​​Нашел очень интересную штуку в дополнение к Zabbix или любому другому мониторингу. Сервис оповещений - amixr.io. Лично еще не тестировал, пока только по описанию и личному кабинету разобрался в том, как это должно работать. На днях постараюсь потестить, как время будет, потому что штука полезная.

Как это может использоваться конкретно в Zabbix. С помощью стандартного AlertScript добавляется новый способ оповещения в систему в виде готового bash скрипта, который дает amixr. Скрипт простой - через POST запрос в curl отправляет данные в сервис. Далее этот тип оповещений вешается на нужные триггеры. Подробно тут описано.

Сам amixr.io имеет готовые интеграции с slack и telegram, плюс умеет отправлять sms и звонить по телефону. На бесплатном тарифе доступно 200 смс или звонков в месяц. При этом он не только умеет оповещать, но и поддерживает различные схемы оповещений.

Например, сначала отправляем сообщение в общую группу telegram. Если проблема не решена, через 15 минут шлем кому-то смс. Если все еще не решена, шлем другому человеку смс. В случае, если это не помогло, то звоним. И так далее. Можно в простом и удобном веб интерфейсе настраивать различные комбинации действий.

В целом, все это можно настроить и в Zabbix. Я умею это делать. Но, во-первых, нужен все равно какой-то сервис смс или свой астериск, чтобы звонить. Во-вторых, в план оповещений заббикса вникнуть сложнее, чем в план amixr. Тут все нагляднее и проще. Быстрее настраивается. Актуально для тех, кто заббикс не очень хорошо знает.

Важное замечание. Внешний сервис стоит использовать как дублирующий или вспомогательный способ оповещений, но не единственный. Так как это еще одна точка отказа. Если ляжет сервис, оповещение не получите. Так что с самого мониторинга тоже что-нибудь отправляем.

Amixr.io поддерживает готовую интеграцию с огромным количеством популярных программ, которым нужны оповещения. Я рассказал на примере Zabbix, потому что сам хочу его использовать в этой связке. Вам он может быть пригодится где-то еще.

Ах, да, и самое главное:
Built for DevOps/SRE engineers with ❤️
Ощущаешь себя девопсом - не время думать, пробуй.

#мониторинг #сервис
​​Для работы с различными API я предпочитаю использовать приложение Postman. Оно бесплатное, есть под Windows, Mac, Linux. Качается отсюда - https://www.postman.com/downloads/

Вообще, postman это целый сервис, в котором можно зарегистрироваться и понастроить кучу всего для работы с API. Я пользуюсь только приложением, которое работает даже без регистрации.

Если много работаете с API, а обычно это так, если приходится настраивать мониторинги, то рекомендую попробовать. Там не только удобная визуализация и построение запросов, но и возможность сохранять их, распределять по группам и т.д. В общем, много всяких мелочей, которые упрощают работу и отладку.

Можно добавлять заголовки, параметры, быстро менять тип запросов с post на get и другие. Сохраняется история запросов, по которой удобно найти что-то старенькое. При желании, можно и ответы сохранять. Особенно актуально, когда ответы длинные. Postman умеет форматировать json сразу в удобочиваемый вид.

#программа
Вчера писал про сервис, который можно прикрутить к zabbix и слать смски или звонить по телефону. Вспомнился случай один из практики. Я настраивал мониторинг и в какой-то момент меня попросили сделать так, чтобы по определенным триггерам он мог позвонить на телефон и что-то сказать.

В целом, настройка тут очень простая. Я делал с помощью asterisk. Если вы с ним знакомы, то большого труда не составит все реализовать. Логика там такая. Zabbix запускает скрипт по событию, который формирует call файл для asterisk. А тот эти файлы в режиме реального времени мониторит и начинает сразу звонить, когда новый появляется. Я все это описывал в своей статье.

Так вот, триггер там был так себе, не супер критичный. Я бы на такое звонить не стал, о чем и сказал. Вообще, слать смс и звонить в любое время суток можно только по супер критичным метрикам. Например, у вас интернет магазин и он недоступен уже минут 10. Вот это достойно того, чтобы позвонить кому-то даже ночью, если у вас в это время идут продажи и бизнес встает при недоступности сайта.

А если у вас проц 30 минут загружен на 100%, но при этом все работает и нет дежурной смены, то админа не стоит из-за этого будить ночью. Утром встанет, разберется, если проблема останется. Там было событие (бизнес метрика, привязанная к базе), которое только предвещало беду, но еще не было бедой само по себе. Я все объяснил заказчику. Он сказал, что с него требуют такую настройку. Более того, тот, кто требует, хочет еще и сам такие звонки получать. Ему это нужно для какого-то контроля. Ну раз хочет, пусть получает. Я все настроил.

Через пару недель меня попросили отключить этот триггер. Он сработал 2 ночи подряд и позвонил этому начальнику. В итоге он понял, что плохая была идея и отыграл все назад. Они, кстати, больше вообще не попросили никаких оповещений в виде звонков на телефон.

❗️Надо очень аккуратно относиться к оповещениям мониторинга и настраивать только то, что действительно важно. Как только идет спам из мониторинга, на который забивают, считай, что мониторинга у вас нет. Я всегда это объясняю заказчикам и проговариваю, что хороший мониторинг это непрерывный процесс, который требует длительной калибровки. Не получится у вас один раз все настроить и с этим жить. Не видел такого ни разу. Все системы разные и триггеры с оповещениями 100% придется донастраивать в процессе.

#zabbix #мониторинг #asterisk
▶️ Смотрите, какое любопытное видео мне попалось на youtube. Оказывается, в 2011 году уже был термин Devops. Мне что-то казалось, что он позже появился.

https://www.youtube.com/watch?v=iYLxw6OsZug

Самой песней и исполнением я не проникся, но стало любопытно понять текст. Включил субтитры на английском (в переводе не уловить смысл), заинтересовался. Оказывается, в далеком 2011 мечтали и пели о том, что все станут девопсами. Не будет программистов, тестировщиков, документации (вот это новости). Все будут непрерывно разрабатывать и деплоить (ага, щаззз). Все сервера станут облачными (почти сбылось).

Еще обратил внимание на обстановку в офисе. Это какой-то ад. Чувак в рубашке с галстуком. В офисе все сидят практически на головах друг у друга. Какие-то доски, кучи наклеек. Это какой-то корпоративный балаган. Жутко представить стало, что там в рабочий день творится. Как в такой обстановке можно вести какую-то осмысленную деятельность?
​​У меня на канале было много заметок на тему готовых решений по организации vpn туннелей, но как-то не доходили руки рассказать про Pritunl. А это достаточно известный и старый продукт. Я сам его первый раз пробовал лет 5 назад, может даже больше, точно не помню.

https://pritunl.com/

Это удобная веб панель для управления vpn подключениями. Под капотом изначально был openvpn, сейчас добавился и wireguard. Можно выбирать, что использовать. Используется свой клиент для подключения. Есть под все платформы.

Бесплатная версия достаточно сильно ограничена по функционалу, но самое основное делать умеет: установка своего сервера, создание и управление vpn пользователями. Все через веб.

За дополнительные деньги идет целая куча всяких плюшек: port forwarding, обновление конфига юзера при подключении, рассылка конфигов юзерам по почте, failover cluster, мониторинг, api, ipsec и куча всяких других штук.

На сайте совсем нет скриншотов, но демку можно глянуть тут - https://demo.pritunl.com/

#vpn
​​Хочу порекомендовать к просмотру видео:
Как стать DevOps Инженером с Нуля, что учить и в каком порядке

https://www.youtube.com/watch?v=AxCgZ7yUKrU

Актуально для тех, кто думает, куда и как двигаться дальше в своем развитии. Автор очень подробно, а самое главное на своих примерах и опыте показывает, как он развивался и как советовал бы развиваться вам в русле devops.

В целом, весь канал интересен. Я на него подписал и регулярно смотрю ролики, если вижу интересную мне тему. Ведет практикующий devops инженер.

Ниже красноречивый комментарий под одним из его видео.

#видео #обучение
​​Я в прошлые выходные писал заметку на тему педалирования крупными корпорациями шифрования. Причем шифрования всего и вся, даже dns запросов. Спасибо всем, кто высказал свое мнение. Ниже будет мое.

Я считаю, что крупнейшие корпорации активно продвигают шифрование, чтобы отсечь всех остальных от информации о пользователях и их поведении в сети. В 21-м веке самый ценный ресурс это big data о пользователях. С ее помощью можно эффективно манипулировать людьми.

Кто же эти все остальные? Да кто угодно - операторы связи, правительства со своими черными ящиками, производители железа и т.д. Мы с вами, которым не нравится, что телевизоры и холодильники отправляют отчеты о наших действиях через интернет непонятно кому.

А сейчас всё безопасно, всё зашифровано, все данные уходят куда надо, а юзеры ничего не могут проверить. Беспокоиться не о чем. Запустил ноут с виндой, она сразу связалась с кучей серверов в инете и что-то отправила.

Я еще давно заметил такую штуку. У меня привычка не выкидывать старые работающие смартфоны, а просто складывать их в коробочку. Если долго не включал смартфон, то при первом запуске он сильно лагает минуты 2-3 и если есть индикатор загрузки трафика, то видно, что активно используется сеть. Что он, зачем и куда отправляет сразу после включения не понятно.

На основании выше сказанного, мне забавно читать где-нибудь на хабре, как люди на полном серьезе обсуждают, как корпорации защищают их от злобных правительств, которые очень хотят за всеми следить, а когда все зашифровано - не могут. Но при этом не понимают, что власть корпораций страшнее правительств и государств, потому что правительство вам будут назначать корпорации с помощью всей информации, что они о вас собрали. И корпорациям выгодно, чтобы во главе стояли алчные и продажные люди, которых легко купить, запугать, заставить делать то, что нужно тем, кто их поставил. А что нужно корпорациям в первую очередь? Зарабатывать деньги любой ценой. Другой цели в капиталистической системе ценностей нет.

Я всегда с надеждой наблюдаю, когда правительствам удается дать отпор корпорациям. Пока государства живы, еще можно надеяться на какое-то человеческое существование. Но тенденции в современном мире не радужные. Практически не осталось государств, у которых есть возможность и политическая воля сопротивляться.

#мысли
​​Знакомлю вас с очередной системой мониторинга, которую пробовал лично. Речь пойдет про observium - https://www.observium.org. Смотрел на нее, когда еще не плотно сидел на Zabbix. Она показалась более простой в установке и настройке. На деле это так и получилось, но я в итоге заставил себя учить zabbix. Он мне видится более перспективным и функциональным. Но если вы не специализируетесь на мониторинге, то вам могут подойти любые другие продукты попроще.

Основа сбора метрик в observium - snmp. У него есть огромное количество готовых шаблонов под все популярные и известные устройства. Основной упор идет на сеть. Вообще, эта система мониторинга изначально позиционировалась для сети, хотя сейчас можно мониторить и другие устройства, системы (ставится агент, есть даже под windows), приложения (есть шаблоны под Apache, BIND, DRBD, Memcached, MySQL, NFS и др.). Полный список можно посмотреть на сайте - http://observium.org/supported_devices/

Простота настройки заключается вот в чем: Full autodiscovery of supported devices and metrics. Это цитата с сайта. То есть все автоматом находится, подцепляется и мониторится. Не надо вручную метрики добавлять.

Есть несколько редакций: Community, Professional, Enterprise. Продается годовыми подписками. К сожалению, очень много полезного функционала только в платных версиях. Например, подсчет трафика, доступ через api и др.

Посмотреть своими глазами на observium можно в демо - https://demo.observium.org. Учетка demo / demo.

Пробовал кто-нибудь observium? Я внедрил его в одной организации 6 лет назад и с тех пор больше не использовал.

#мониторинг
​​После небольшого перерыва в несколько недель, возобновились вебинары Zabbix на русском языке. К сожалению, новых и интересных тем нет. Крутят одно и то же, при этом вживую, не выкладывая повторы. Какой в этом смысл, я не понимаю. Записали бы один раз хороший ролик по теме и крутили бы его. Возможно рассчитывают на обратную связь или интересные вопросы после вебинаров.

🗓 В общем, во вторник, 20 апреля, в 10 утра будет вебинар от разработчиков:
Обзор системы мониторинга Zabbix

Если вам интересно, регистрируйтесь и смотрите - https://us02web.zoom.us/webinar/register/WN_AKM58UVvTpO9EZvdAO5tEQ
​​Менеджер паролей Bitwarden

В комментариях к одной из заметок мне посоветовали попробовать менеджер паролей, который можно захостить у себя на сервере и использовать в различных системах, приложениях, а так же шарить с другими пользователями. Идея показалась интересной, так что решил посмотреть на продукт.

Ставится относительно быстро и просто, так как все в докере и запускается через docker-compose. Подробная инструкция на сайте - https://bitwarden.com/help/article/install-on-premise/ Можно даже на винду поставить и должно нормально работать. В качестве базы данных там mssql. Из трудностей только то, что нельзя потестить без настройки подключения к smtp серверу. Чтобы зарегистрироваться даже в своей локальной веб панели, необходимо отправить себе на почту email с подтверждением регистрации.

После этого можно ставить расширение в браузер, приложение на смартфон и везде использовать свои пароли, подключившись к своему серверу. Продукт open source, исходники на github - https://github.com/bitwarden. Там все - сам сервер, приложения на десктопы и смартфоны, расширения для браузера. Если сильно переживаете за сохранность паролей, можете сами все проверить и собрать.

Бесплатных аналогов подобной штуки лично я вообще не знаю. Если кто-то пользовался, поделитесь тем, как оно. На вид все круто и удобно. Только сервер нужен, смотрящий в интернет, если хочется отовсюду иметь доступ к паролям. А это уже как-то не очень безопасно. Либо только через vpn открывать. Больше всего интересно, насколько это удобно в одновременном использовании разными людьми для совместного доступа к паролям.

Забыл добавить, что помимо self-hosted версии, есть и облачная. Но советовать не могу. Сам не доверяю такому формату хранения паролей. Даже в браузерах их не сохраняю.

#password
​​Поделюсь простой и маленькой утилитой, которую я ставлю почти всегда по дефолту на сервера, которые настраиваю сам, наравне с screen, htop и mc. Речь пойдет об iftop - утилита для просмотра загруженности сетевого интерфейса. Она обычно присутствует в стандартных репозиториях linux дистрибутивов. Для Centos живет в epel.

С помощью iftop можно быстро через консоль оценить, кто и как загружает сеть на сервере. В какую сторону и какой трафик идет, по каким портам.

Наиболее частые ключи, которые использую, следующие:

iftop -i ens18 -n -P

Ключ n отключает резолв ip адресов, а P добавляет в вывод информацию о задействованных портах, i, понятное дело, сетевой интерфейс, который слушаем.

Подозреваю, что подобных утилит существует великое множество. Но я как-то привык к iftop и ничего другого не использую. Меня устраивает полностью. А вы что используете для этих целей?

#утилита
​​Мне очень нравится утилита rsync для синхронизации файлов между Linux серверами. Очень долгое время с ее помощью я бэкапил и файловые сервера Windows, монтируя их по smb к любому linux серверу. А далее запускал локально rsync, копируя файлы с примонтированного диска. В таком режиме бэкап выполнялся медленно, а именно за скорость синхронизации я и предпочитаю rsync. Когда файлов на сервере сотни тысяч разница в скорости заметная.

Потом в какой-то момент попробовал установить и настроить rsync сервер напрямую в винде. Оказалось, что это сделать достаточно просто. Есть программа cwRsyncServer, с помощью которой можно запустить как службу rsync сервер на Windows.

Я не знаю историю этой программы. Не понятно, кто разработчик и где официальный сайт. Информация не гуглится. Много ссылок битых. Есть вот такая ссылка - https://itefix.net/cwrsync, но там программу предлагают купить.

У меня давно сохранен архив cwrsyncserver_4.1.0_installer.zip, который я использую в случае необходимости. Скачать его можно, например, вот тут. Ставится обычным инсталлятором, настройка такая же, как в Linux. Формат конфигов один в один, только пути другие.

Вот пример моего конфига для бэкапа двух файловых шар на винде:

uid = 0
gid = 0
use chroot = false
strict modes = false
hosts allow = 10.1.3.5 10.1.4.4
log file = rsyncd.log

[fp]
path = /cygdrive/e/final_projects
read only = true
transfer logging = yes

[documents]
path = /cygdrive/d/documents
read only = true
transfer logging = yes

Шары, соответственно, в директориях E:\final_projects и D:\documents. Авторизацию не настраиваю, ограничиваю просто по ip. Дополнительно на firewall имеет смысл ограничить доступ к порту rsync.

#утилита #backup
​​Я уже рассказывал про бесплатные возможности облачных сервисов от oracle и aws. Оказывается, свое публичное облако есть у ibm и там тоже есть некоторые бесплатные плюшки. Причем они вообще не требуют добавлять платежную карту, для того, чтобы воспользоваться сервисом. Достаточно простой регистрации с помощью email.

https://cloud.ibm.com

К сожалению, набор бесплатных сервисов очень скромный. Я внимательно все просмотрел и вот, что показалось лично мне сколько-нибудь интересным:

 🔹 Cloud Object Storage объемом 25GB с возможным трафиком в месяц - 10GB на вход и 5GB на выход. Чисто поиграться с S3 и может быть заливать бэкап какого-нибудь своего сайта.
 🔹 Container Registry объемом 0,5GB и pull трафиком 5GB в месяц. Хватит для каких-то своих небольших контейнеров, если, к примеру, учитесь что-то кодить и засовывать в контейнер с последующим деплоем из него. Правда я бы в этом случае использовал бесплатную учетку на docker hub.
 🔹 Text to Speech - сервис перевода текста в голос. Бесплатно дают перевести текст на 10000 символов в месяц. Вот эта штука мне особенно понравилась, не поленился потестить. Можно обычным запросом через curl отправить туда какой-то текст и тут же получить аудиофайл с содержимым. Жаль, нет русского языка :( Я с английским тестил. Через Linux WSL отправлял текст и тут же в винде слушал аудио.

Там много еще всего, можете сами посмотреть, если что. Полностью бесплатно дают 43 сервиса с некоторыми ограничениями. Много специфичных именно для ibm технологий. Ну и всяких современных, молодежных технологий типа сервисов API, Event Streams, Machine Learning, Push Notifications и т.д. Со всем этим можно познакомиться и попробовать поработать бесплатно.

Вообще, все это может быть полезно с целью знакомства и изучения работы облачных провайдеров. Учетные записи для доступа, запросы через api и т.д. Мне понравилась панель управления ibm. Показалась наиболее понятной и удобной из тех, что я видел. Быстро во всем разобрался и попробовал некоторые сервисы.

Если решите прикрепить пластиковую карту, на счет положат 200 баксов, которые можно потратить на тест остальных сервисов, в том числе и аренду виртуальных машин. Если по истечении этих бонусных денег все удалить, платить не придется. Можно, к примеру, на эти деньги кластер кубера погонять, если сильно хочется.

Подробно о бесплатных возможностях можно почитать по ссылке https://www.ibm.com/cloud/free

#бесплатно
​​Для работы с базами данных Mysql есть бесплатная программа Mysql workbench. Использую ее, если на сервере не установлен phpmyadmin. К последнему привык за столько лет, но сейчас уже сам не ставлю, обхожусь без него. Причин этому несколько, вот основные две:

1️⃣ За phpmyadmin надо отдельно следить, обновлять или прятать от посторонних глаз. Там регулярно находят уязвимости, а в интернете постоянно работают боты, которые эти уязвимости ищут. Если оставите доступным для всех phpmyadmin и не будете обновлять, рано или поздно вас ломанут через него.
2️⃣ Для phpmyadmin могут понадобиться дополнительные php модули, которых нет на сервере, а может и самого php. Придется ставить и настраивать.

Вместо него проще использовать Mysql workbench. Она стоит локально на ноуте и всегда доступна. Чтобы подключиться к базе, я просто делаю ssh туннель с удаленного сервера на свой ноут и подключаюсь через localhost и проброшенный локально порт удаленного сервера. Не буду сейчас останавливаться на настройке ssh туннелей. Их умеют делать все ssh клиенты. Информация легко гуглится. На самом сервере ничего делать не надо. Mysql может слушать только localhost и это не будет помехой.

В итоге у вас всегда под рукой возможность подключиться к mysql серверу, выгрузить дамп, посмотреть содержимое таблиц, открыть консоль mysql. Функционал больше, чем у phpmyadmin. Сначала может показаться все не очень удобным, но это вопрос привычки. Для простых действий на уровне администратора сервера не принципиально, чем к нему подключаться.

Бывают правда проблемы, если версии сервера и workbench сильно отличаются, или используется mariadb. Но обычно это не критично. А вы чем подключаетесь и управляете mysql серверами?

#mysql
▶️ Посмотрел на днях видео, которое показалось интересным: DevOps - причины и последствия.

https://www.youtube.com/watch?v=ar10jb9e9wA

К сожалению, звук в видео не очень, но я все равно его прослушал. Там devops инженер рассказывает путь от одиночного веб сервера на lamp до распределенной кластерной системы. По очереди проходит все этапы, по которым развивается проект от автоматизации с помощью ansible, до кластера kubernetes. При этом перечисляет инструменты, которые могут быть задействованы в процессе роста.

Видео будет интересно как раз для тех, кто сейчас админит lamp (Linux-Apache-MySQL-PHP) но хочет продвигаться дальше. В конце много интересных вопросов из практики, которые лично мне показались полезней самого рассказа, который занимает первую треть видео. Остальное - общение и вопросы аудитории.

#видео #devops
​​Для тех, кто много работает с json, yaml и hcl может быть полезен сервис https://www.hcl2json.com/

Он собран на базе:
 https://github.com/ghodss/yaml
 https://golang.org/pkg/encoding/json/
 https://github.com/hashicorp/hcl

С его помощью можно конвертировать эти форматы один в другой. А еще он покажет ошибку в синтаксисе или форматировании, если где-то что-то потеряли или отступ неправильный сделали.

#сервис #devops
Пародия на современные подходы к разработке и деплою в прод - Let's deploy to production.

https://www.youtube.com/watch?v=5p8wTOr8AbU

Звук со всем известного испанского ролика, а субтитры на английском. Несмотря на то, что тема заезженная, как и ролик, я даже смотря один немного посмеялся, особенно в конце, когда речь зашла о performance review на следующей неделе.

Коротко о содержании ролика можно судить по этим фразам:

- This stuff is only halfway done, it's unstable.
- Let's do stability later, first we need to deliver. This is an agile company. So, let's deliver quick.

- Roll back everything! Restore the backups!
- We don't have backups. It was a "nice to have" in the planning. We brought this issue up every week

и т.д.

#юмор
Я вчера прочитал замечательную новость с Cnews - Крупного разработчика Linux изгнали из сообщества за издевательские эксперименты над пользователями.

https://www.cnews.ru/news/top/2021-04-22_krupnogo_razrabotchika_yadra

Заголовок совершенно не отражает суть новости, а в содержимом основное так размыто, что не сразу понимаешь, что на самом деле произошло. А было вот что.

Некоторые люди из Университета Миннесоты решили провести эксперимент. Они отправили патчи в ядро с уязвимостями, которые сознательно добавили. И сделали это несколько раз. Их патчи одобрили и отправили в ядро, не заметив эти уязвимости. А когда эти сотрудники сознались в том, что сделали, на них обиделись и решили вообще исключить их из списка тех, чьи патчи будут приниматься.

Нам всем, по большому счету, должно быть все равно, кто там на кого обиделся. Суть не в этом. Я знаю, что многие как-то по особенному относятся к открытому ПО, считая его надежным, так как его гипотетически может проверить сообщество и любой желающий.

Что же мы видим на практике? Даже такой критически важный объект операционной системы Linux, которую использует практически всё современное IT, принимает патчи с уязвимостями. И никакой особой проверки нет. Сколько таких дыр туда могли завести ранее? Никто не знает. Я почему-то уверен, что завозили и не раз. Случайно или по чьему то умыслу, не суть.

Если уж с ядром такие события случаются, то что можно говорить об остальном открытом ПО. Никакого особого доверия к нему быть не может. Вряд ли кто-то специально сидит и что-то там проверяет. Выборочно какие-то продукты могут получать аудит безопасности. Но в основной своей массе, скорее всего, это ПО никто специально не проверяет.

#мысли
​​Мне недавно попала в руки старая уличная камера, которая полностью исправна. Нужно было ее перенастроить. Нашел быстро документацию в интернете. Надо было подключиться через браузер. Ну а дальше, как многие уже могли догадаться, начались танцы с бубнами.

Чтобы попасть в веб интерфейс, нужно установить какой-то софт в систему и зайти с помощью IE 10-й версии. Нашел в итоге виртуалку на Win7 и IE 10, но это было не очень быстро и просто.

С такими ситуациями частенько сталкиваешься, когда работаешь с оборудованием. Меня спасает только то, что где-нибудь найдётся старая виртуалка, которой можно воспользоваться.

А как вы выходите из положения? Может есть готовые решения на этот счет? Какая-нибудь сборка браузера или виртуалка, специально подготовленная под такие задачи. Сейчас современные браузеры и системы вообще отказываются работать со старыми версиями tls. Так на кучу устройств зайти без плясок с бубном не получится. Эти железки теперь выбрасывать что ли полагается?
​​Я познакомился с очень крутой бесплатной программой для резервного копирования Kopia - https://kopia.io Постараюсь кратко рассказать ее возможности и то, что мне понравилось больше всего.

Итак, в первую очередь это open source продукт - https://github.com/kopia/kopia. Поддерживает все популярные системы (Win, Lin, Mac). Есть как GUI, так и CLI. И это очень круто, так как расширяет область применения до бесконечности. Хочешь автоматизируй скриптами, не умеешь - ставь GUI под виндой и тыкай мышкой.

В качестве хранилища для бэкапов поддерживает основных облачных провайдеров (S3, GCS, Azure) а так же webdav, rclone, локальное хранилище и sftp. Последнее особенно понравилось. Можно взять любой сервер с ssh и организовать там репозиторий для бэкапов. Также есть возможность настроить свой Repository Server, который будет выступать в качестве прокси к основному репозиторию, что позволит более гибко управлять правами и доступом.

Я лично проверил следующую модель бэкапов. Взял linux сервер в качестве репозитория, настроил на нем доступ к ssh по ключам. Взял Windows, установил Kopia с GUI, подключил репозиторий по sftp и настроил создание бэкапов определенной директории в этот репозиторий.

Затем взял еще один Linux сервер. Установил на него Kopia (просто скачал бинарник) и подключил этот же репозиторий. Настроил в него бэкап данных с этого сервера. В итоге я имею 2 разных сервера, которые бэкапят данные в единый репозиторий. С обоих серверов есть доступ к бэкапам друг друга.

Бэкапы шифруются, настройки хранятся в json. Есть возможность настроить расписание, исключения, время хранения снепшотов. В общем, все, что нужно для построения распределенной системы бэкапов разнородных систем. И все это бесплатно. Работает вроде неплохо. Мне очень понравилось. В первую очередь возможностями кастомизации и применения во множестве различных сценариев.

Рекомендую обратить внимание на Kopia и сохранить инфу на память. Ниже 2 примера. Работа в GUI:
https://www.youtube.com/watch?v=sHJjSpasWIo

Работа в CLI:
https://asciinema.org/a/ykx6uzEhKY3451fWEnX9nm9uo

#backup