Пародия на современные подходы к разработке и деплою в прод - Let's deploy to production.
https://www.youtube.com/watch?v=5p8wTOr8AbU
Звук со всем известного испанского ролика, а субтитры на английском. Несмотря на то, что тема заезженная, как и ролик, я даже смотря один немного посмеялся, особенно в конце, когда речь зашла о performance review на следующей неделе.
Коротко о содержании ролика можно судить по этим фразам:
- This stuff is only halfway done, it's unstable.
- Let's do stability later, first we need to deliver. This is an agile company. So, let's deliver quick.
- Roll back everything! Restore the backups!
- We don't have backups. It was a "nice to have" in the planning. We brought this issue up every week
и т.д.
#юмор
https://www.youtube.com/watch?v=5p8wTOr8AbU
Звук со всем известного испанского ролика, а субтитры на английском. Несмотря на то, что тема заезженная, как и ролик, я даже смотря один немного посмеялся, особенно в конце, когда речь зашла о performance review на следующей неделе.
Коротко о содержании ролика можно судить по этим фразам:
- This stuff is only halfway done, it's unstable.
- Let's do stability later, first we need to deliver. This is an agile company. So, let's deliver quick.
- Roll back everything! Restore the backups!
- We don't have backups. It was a "nice to have" in the planning. We brought this issue up every week
и т.д.
#юмор
YouTube
Let's deploy to production
A software engineer talks about his upstep to production.
Original source: Risitas y las paelleras:
https://www.youtube.com/watch?v=cDphUib5iG4
Original source: Risitas y las paelleras:
https://www.youtube.com/watch?v=cDphUib5iG4
Я вчера прочитал замечательную новость с Cnews - Крупного разработчика Linux изгнали из сообщества за издевательские эксперименты над пользователями.
https://www.cnews.ru/news/top/2021-04-22_krupnogo_razrabotchika_yadra
Заголовок совершенно не отражает суть новости, а в содержимом основное так размыто, что не сразу понимаешь, что на самом деле произошло. А было вот что.
Некоторые люди из Университета Миннесоты решили провести эксперимент. Они отправили патчи в ядро с уязвимостями, которые сознательно добавили. И сделали это несколько раз. Их патчи одобрили и отправили в ядро, не заметив эти уязвимости. А когда эти сотрудники сознались в том, что сделали, на них обиделись и решили вообще исключить их из списка тех, чьи патчи будут приниматься.
Нам всем, по большому счету, должно быть все равно, кто там на кого обиделся. Суть не в этом. Я знаю, что многие как-то по особенному относятся к открытому ПО, считая его надежным, так как его гипотетически может проверить сообщество и любой желающий.
Что же мы видим на практике? Даже такой критически важный объект операционной системы Linux, которую использует практически всё современное IT, принимает патчи с уязвимостями. И никакой особой проверки нет. Сколько таких дыр туда могли завести ранее? Никто не знает. Я почему-то уверен, что завозили и не раз. Случайно или по чьему то умыслу, не суть.
Если уж с ядром такие события случаются, то что можно говорить об остальном открытом ПО. Никакого особого доверия к нему быть не может. Вряд ли кто-то специально сидит и что-то там проверяет. Выборочно какие-то продукты могут получать аудит безопасности. Но в основной своей массе, скорее всего, это ПО никто специально не проверяет.
#мысли
https://www.cnews.ru/news/top/2021-04-22_krupnogo_razrabotchika_yadra
Заголовок совершенно не отражает суть новости, а в содержимом основное так размыто, что не сразу понимаешь, что на самом деле произошло. А было вот что.
Некоторые люди из Университета Миннесоты решили провести эксперимент. Они отправили патчи в ядро с уязвимостями, которые сознательно добавили. И сделали это несколько раз. Их патчи одобрили и отправили в ядро, не заметив эти уязвимости. А когда эти сотрудники сознались в том, что сделали, на них обиделись и решили вообще исключить их из списка тех, чьи патчи будут приниматься.
Нам всем, по большому счету, должно быть все равно, кто там на кого обиделся. Суть не в этом. Я знаю, что многие как-то по особенному относятся к открытому ПО, считая его надежным, так как его гипотетически может проверить сообщество и любой желающий.
Что же мы видим на практике? Даже такой критически важный объект операционной системы Linux, которую использует практически всё современное IT, принимает патчи с уязвимостями. И никакой особой проверки нет. Сколько таких дыр туда могли завести ранее? Никто не знает. Я почему-то уверен, что завозили и не раз. Случайно или по чьему то умыслу, не суть.
Если уж с ядром такие события случаются, то что можно говорить об остальном открытом ПО. Никакого особого доверия к нему быть не может. Вряд ли кто-то специально сидит и что-то там проверяет. Выборочно какие-то продукты могут получать аудит безопасности. Но в основной своей массе, скорее всего, это ПО никто специально не проверяет.
#мысли
CNews.ru
Крупного разработчика Linux изгнали из сообщества за издевательские эксперименты над пользователями - CNews
Университет Миннесоты был исключен из числа разработчиков ядра Linux – его сотрудники намеренно разрабатывали...
Мне недавно попала в руки старая уличная камера, которая полностью исправна. Нужно было ее перенастроить. Нашел быстро документацию в интернете. Надо было подключиться через браузер. Ну а дальше, как многие уже могли догадаться, начались танцы с бубнами.
Чтобы попасть в веб интерфейс, нужно установить какой-то софт в систему и зайти с помощью IE 10-й версии. Нашел в итоге виртуалку на Win7 и IE 10, но это было не очень быстро и просто.
С такими ситуациями частенько сталкиваешься, когда работаешь с оборудованием. Меня спасает только то, что где-нибудь найдётся старая виртуалка, которой можно воспользоваться.
А как вы выходите из положения? Может есть готовые решения на этот счет? Какая-нибудь сборка браузера или виртуалка, специально подготовленная под такие задачи. Сейчас современные браузеры и системы вообще отказываются работать со старыми версиями tls. Так на кучу устройств зайти без плясок с бубном не получится. Эти железки теперь выбрасывать что ли полагается?
Чтобы попасть в веб интерфейс, нужно установить какой-то софт в систему и зайти с помощью IE 10-й версии. Нашел в итоге виртуалку на Win7 и IE 10, но это было не очень быстро и просто.
С такими ситуациями частенько сталкиваешься, когда работаешь с оборудованием. Меня спасает только то, что где-нибудь найдётся старая виртуалка, которой можно воспользоваться.
А как вы выходите из положения? Может есть готовые решения на этот счет? Какая-нибудь сборка браузера или виртуалка, специально подготовленная под такие задачи. Сейчас современные браузеры и системы вообще отказываются работать со старыми версиями tls. Так на кучу устройств зайти без плясок с бубном не получится. Эти железки теперь выбрасывать что ли полагается?
Я познакомился с очень крутой бесплатной программой для резервного копирования Kopia - https://kopia.io Постараюсь кратко рассказать ее возможности и то, что мне понравилось больше всего.
Итак, в первую очередь это open source продукт - https://github.com/kopia/kopia. Поддерживает все популярные системы (Win, Lin, Mac). Есть как GUI, так и CLI. И это очень круто, так как расширяет область применения до бесконечности. Хочешь автоматизируй скриптами, не умеешь - ставь GUI под виндой и тыкай мышкой.
В качестве хранилища для бэкапов поддерживает основных облачных провайдеров (S3, GCS, Azure) а так же webdav, rclone, локальное хранилище и sftp. Последнее особенно понравилось. Можно взять любой сервер с ssh и организовать там репозиторий для бэкапов. Также есть возможность настроить свой Repository Server, который будет выступать в качестве прокси к основному репозиторию, что позволит более гибко управлять правами и доступом.
Я лично проверил следующую модель бэкапов. Взял linux сервер в качестве репозитория, настроил на нем доступ к ssh по ключам. Взял Windows, установил Kopia с GUI, подключил репозиторий по sftp и настроил создание бэкапов определенной директории в этот репозиторий.
Затем взял еще один Linux сервер. Установил на него Kopia (просто скачал бинарник) и подключил этот же репозиторий. Настроил в него бэкап данных с этого сервера. В итоге я имею 2 разных сервера, которые бэкапят данные в единый репозиторий. С обоих серверов есть доступ к бэкапам друг друга.
Бэкапы шифруются, настройки хранятся в json. Есть возможность настроить расписание, исключения, время хранения снепшотов. В общем, все, что нужно для построения распределенной системы бэкапов разнородных систем. И все это бесплатно. Работает вроде неплохо. Мне очень понравилось. В первую очередь возможностями кастомизации и применения во множестве различных сценариев.
Рекомендую обратить внимание на Kopia и сохранить инфу на память. Ниже 2 примера. Работа в GUI:
https://www.youtube.com/watch?v=sHJjSpasWIo
Работа в CLI:
https://asciinema.org/a/ykx6uzEhKY3451fWEnX9nm9uo
#backup
Итак, в первую очередь это open source продукт - https://github.com/kopia/kopia. Поддерживает все популярные системы (Win, Lin, Mac). Есть как GUI, так и CLI. И это очень круто, так как расширяет область применения до бесконечности. Хочешь автоматизируй скриптами, не умеешь - ставь GUI под виндой и тыкай мышкой.
В качестве хранилища для бэкапов поддерживает основных облачных провайдеров (S3, GCS, Azure) а так же webdav, rclone, локальное хранилище и sftp. Последнее особенно понравилось. Можно взять любой сервер с ssh и организовать там репозиторий для бэкапов. Также есть возможность настроить свой Repository Server, который будет выступать в качестве прокси к основному репозиторию, что позволит более гибко управлять правами и доступом.
Я лично проверил следующую модель бэкапов. Взял linux сервер в качестве репозитория, настроил на нем доступ к ssh по ключам. Взял Windows, установил Kopia с GUI, подключил репозиторий по sftp и настроил создание бэкапов определенной директории в этот репозиторий.
Затем взял еще один Linux сервер. Установил на него Kopia (просто скачал бинарник) и подключил этот же репозиторий. Настроил в него бэкап данных с этого сервера. В итоге я имею 2 разных сервера, которые бэкапят данные в единый репозиторий. С обоих серверов есть доступ к бэкапам друг друга.
Бэкапы шифруются, настройки хранятся в json. Есть возможность настроить расписание, исключения, время хранения снепшотов. В общем, все, что нужно для построения распределенной системы бэкапов разнородных систем. И все это бесплатно. Работает вроде неплохо. Мне очень понравилось. В первую очередь возможностями кастомизации и применения во множестве различных сценариев.
Рекомендую обратить внимание на Kopia и сохранить инфу на память. Ниже 2 примера. Работа в GUI:
https://www.youtube.com/watch?v=sHJjSpasWIo
Работа в CLI:
https://asciinema.org/a/ykx6uzEhKY3451fWEnX9nm9uo
#backup
У меня строительный сезон начался, так что последнее время очень много ездил на машине и слушал различные видео. Не могу сказать, что попалось что-то очень интересное, но на парочку роликов хочу обратить ваше внимание.
Мониторинг в высоконагруженных (и не только) проектах: сравнительный анализ существующих решений
https://www.youtube.com/watch?v=Ya_XP-V8E5s
Видео от известного аутсорсера ITSumma, залито 20 октября 2020 года. В видео дается обзор различных систем мониторинга, а прям очень предметно с примерами разобраны Zabbix, Cacti и Graphite.
Я слушал и ушам своим не верил, какой кактус и графит в 2020? Где Prometheus? Уже где-то к середине видео заподозрил, что с ним что-то не то. За рулем неудобно было разбираться, когда дослушал, полез смотреть описание к видео. Оказалось, это запись от 2015 года. 6 лет прошло, а как все изменилось в IT. В общем, это видео для тех, кто хочет вспомнить, какой был мониторинг 6 лет назад :)
Второе видео - Создание Web Server'а c Zero DownTime и Green/Blue Deployment.
https://www.youtube.com/watch?v=xRuG2WDACK8
А это наглядный пример того, как выглядит настройка серверов в современном мире. Автор запускает условный apache и сайт на нем на AWS. Подразумевается отказоустойчивый геораспределенный проект с нулевым простоем даже во время обновлений кода и ПО.
Infrastructure as code в чистом виде, как он есть сейчас. Никаких консолей и конфигов. Наглядный пример чему стоит сейчас учиться, какие подходы изучать, если хотите работать с инфраструктурой современных веб проектов.
#видео #devops
Мониторинг в высоконагруженных (и не только) проектах: сравнительный анализ существующих решений
https://www.youtube.com/watch?v=Ya_XP-V8E5s
Видео от известного аутсорсера ITSumma, залито 20 октября 2020 года. В видео дается обзор различных систем мониторинга, а прям очень предметно с примерами разобраны Zabbix, Cacti и Graphite.
Я слушал и ушам своим не верил, какой кактус и графит в 2020? Где Prometheus? Уже где-то к середине видео заподозрил, что с ним что-то не то. За рулем неудобно было разбираться, когда дослушал, полез смотреть описание к видео. Оказалось, это запись от 2015 года. 6 лет прошло, а как все изменилось в IT. В общем, это видео для тех, кто хочет вспомнить, какой был мониторинг 6 лет назад :)
Второе видео - Создание Web Server'а c Zero DownTime и Green/Blue Deployment.
https://www.youtube.com/watch?v=xRuG2WDACK8
А это наглядный пример того, как выглядит настройка серверов в современном мире. Автор запускает условный apache и сайт на нем на AWS. Подразумевается отказоустойчивый геораспределенный проект с нулевым простоем даже во время обновлений кода и ПО.
Infrastructure as code в чистом виде, как он есть сейчас. Никаких консолей и конфигов. Наглядный пример чему стоит сейчас учиться, какие подходы изучать, если хотите работать с инфраструктурой современных веб проектов.
#видео #devops
Перевел и оформил в отдельную статью запись из официального блога Zabbix на тему того, что занимает место в базе данных. Мне она показалась очень полезной с нетривиальными примерами запросов к базе, которые, к примеру, я сам никак не смог бы придумать ввиду отсутствия должного опыта и навыка работы с sql запросами.
Моя статья с переводом и примерами - https://serveradmin.ru/chto-zanimaet-mesto-v-baze-dannyh-zabbix/
Оригинал - https://blog.zabbix.com/what-takes-disk-space/13349/
Надеюсь вам тоже пригодится эта информация. Если используете Zabbix, то пригодится 100%. Я поэтому и перевел, так как сразу полез запросы делать на основе статьи в свои серверы мониторинга с пухлыми базами. Нашлись жирные айтемы и хосты, занимающие много места, с бесполезными и ненужными метриками. Почистил немного базы и поотключал лишнее.
#zabbix #мониторинг
Моя статья с переводом и примерами - https://serveradmin.ru/chto-zanimaet-mesto-v-baze-dannyh-zabbix/
Оригинал - https://blog.zabbix.com/what-takes-disk-space/13349/
Надеюсь вам тоже пригодится эта информация. Если используете Zabbix, то пригодится 100%. Я поэтому и перевел, так как сразу полез запросы делать на основе статьи в свои серверы мониторинга с пухлыми базами. Нашлись жирные айтемы и хосты, занимающие много места, с бесполезными и ненужными метриками. Почистил немного базы и поотключал лишнее.
#zabbix #мониторинг
Server Admin
Что занимает место в базе данных Zabbix | serveradmin.ru
SELECT table_name, table_rows, data_length, index_length, round(((data_length + index_length) / 1024 / 1024 / 1024),2) "Size in GB" FROM information_schema.tables WHERE table_schema = "zabbix"...
Существует любопытный инструмент для автоматизации выполнения и планирования задач - Rundeck. Эдакий продвинутый планировщик cron для большого количества задач. С его помощью можно управлять задачами на множестве узлов. Все управление работает через веб интерфейс.
Для того, чтобы быстро познакомиться и попробовать Rundeck, можно запустить его в докере.
docker run --name rundeck -e RUNDECK_GRAILS_URL=http://10.20.1.23:4440 -p 4440:4440 -v data:/home/rundeck/server/data rundeck/rundeck:3.3.10
Не забудьте поменять url на свой. Без его корректного указания работать веб интерфейс не будет, так как там работает редирект на этот url. Учетка по умолчанию admin / admin. Можно сразу заходить и пробовать, как работает эта штука.
Чтобы быстро понять принцип действия, рекомендую добавить новый проект. В нем создать job. В качестве ноды для установки выбрать локальный сервер. Добавить первый шаг для выполнения в виде какой-то bash команды, например df -h и запустить этот job. Увидите результат работы команды в виде консольного вывода в веб интерфейсе.
Ну а дальше логика следующая - добавляются новые ноды, создаются задачи с множеством шагов и условий, настраивается расписание и т.д. Просто рай для скриптоделов-велосипедистов. Можно копировать файлы, запускать плейбуки ансибла, дергать внешние урлы и т.д. Для всего этого работают оповещения.
Если честно, я до конца не понял, где это может понадобиться сейчас. У меня сложилось впечатление, что это инструмент из прошлого, когда еще только начинали строить системы ci/cd. Сейчас мне кажется, эти велосипеды на bash скриптах заменили всякие Jenkins / Gitlab / Teamcity и т.д. Там в целом все то же самое можно делать, но с упором на разработку. А тут инструмент общего назначения. Например, чтобы дергать скрипты бэкапа в том случае, если нет единой системы.
Кто-нибудь использовал Rundeck? Какие задачи с его помощью решали?
#утилита #devops
Для того, чтобы быстро познакомиться и попробовать Rundeck, можно запустить его в докере.
docker run --name rundeck -e RUNDECK_GRAILS_URL=http://10.20.1.23:4440 -p 4440:4440 -v data:/home/rundeck/server/data rundeck/rundeck:3.3.10
Не забудьте поменять url на свой. Без его корректного указания работать веб интерфейс не будет, так как там работает редирект на этот url. Учетка по умолчанию admin / admin. Можно сразу заходить и пробовать, как работает эта штука.
Чтобы быстро понять принцип действия, рекомендую добавить новый проект. В нем создать job. В качестве ноды для установки выбрать локальный сервер. Добавить первый шаг для выполнения в виде какой-то bash команды, например df -h и запустить этот job. Увидите результат работы команды в виде консольного вывода в веб интерфейсе.
Ну а дальше логика следующая - добавляются новые ноды, создаются задачи с множеством шагов и условий, настраивается расписание и т.д. Просто рай для скриптоделов-велосипедистов. Можно копировать файлы, запускать плейбуки ансибла, дергать внешние урлы и т.д. Для всего этого работают оповещения.
Если честно, я до конца не понял, где это может понадобиться сейчас. У меня сложилось впечатление, что это инструмент из прошлого, когда еще только начинали строить системы ci/cd. Сейчас мне кажется, эти велосипеды на bash скриптах заменили всякие Jenkins / Gitlab / Teamcity и т.д. Там в целом все то же самое можно делать, но с упором на разработку. А тут инструмент общего назначения. Например, чтобы дергать скрипты бэкапа в том случае, если нет единой системы.
Кто-нибудь использовал Rundeck? Какие задачи с его помощью решали?
#утилита #devops
Полезная информация для тех, кто до сих пор использует Windows 7 или Windows Server 2008. Несмотря на то, что их официальная поддержка уже завершена, обновления по-прежнему выходят, но недоступны в открытом доступе.
Существует известный пак обновлений от simplix - UpdatePack7R2, где интегрированы все свежие обновления для перечисленных систем. Скачать можно с сайта автора - https://blog.simplix.info/updatepack7r2/
Обсуждение на форуме oszone.net.
Когда-то давно я этот пак использовал в работе, чтобы быстро накатить на чистую винду без обновлений все свежие обновы. Если делать это через панель управления, то могло уйти пол дня. Из этого пака они ставились значительно быстрее.
#windows
Существует известный пак обновлений от simplix - UpdatePack7R2, где интегрированы все свежие обновления для перечисленных систем. Скачать можно с сайта автора - https://blog.simplix.info/updatepack7r2/
Обсуждение на форуме oszone.net.
Когда-то давно я этот пак использовал в работе, чтобы быстро накатить на чистую винду без обновлений все свежие обновы. Если делать это через панель управления, то могло уйти пол дня. Из этого пака они ставились значительно быстрее.
#windows
Думаю, все хорошо знают такой продукт, как Grafana. Оказывается, у них есть облачная версия сервиса с бесплатным тарифным планом. Причем там такие лимиты, которых хватит для некоторых полезных применений.
https://grafana.com/products/cloud/
Теперь рассказываю, как можно с пользой использовать этот сервис. Если у вас есть мониторинг от Zabbix, а тем более несколько серверов, вы можете без проблем установить плагин для Zabbix в графану. В облаке его не будет в списке доступных плагинов, но если перейти на https://grafana.com/grafana/plugins/alexanderzobnin-zabbix-app/ выбрать install, то там появится возможность установить его в свое облако.
Ну дальше настраиваете Data Source для своего Zabbix сервера, или даже нескольких. И делаете необходимые вам дашборды. К примеру, я все свои Zabbix сервера собираю на один дашборд и вывожу информацию по триггерам. Это позволяет быстро оценить проблемы на всех серверах, что я обслуживаю. Для этой задачи ограничения бесплатной версии вообще не доставляют неудобств.
Подробнее об этом рассказываю в отдельной статье - https://serveradmin.ru/nastrojka-intergaczii-zabbix-v-grafana/ В ней как раз можно воспользоваться описываемым облаком. Очень удобно. У меня для этих целей своя графана настроена, но если бы раньше узнал, что можно бесплатной воспользоваться, сделал бы это.
#zabbix #grafana #мониторинг
https://grafana.com/products/cloud/
Теперь рассказываю, как можно с пользой использовать этот сервис. Если у вас есть мониторинг от Zabbix, а тем более несколько серверов, вы можете без проблем установить плагин для Zabbix в графану. В облаке его не будет в списке доступных плагинов, но если перейти на https://grafana.com/grafana/plugins/alexanderzobnin-zabbix-app/ выбрать install, то там появится возможность установить его в свое облако.
Ну дальше настраиваете Data Source для своего Zabbix сервера, или даже нескольких. И делаете необходимые вам дашборды. К примеру, я все свои Zabbix сервера собираю на один дашборд и вывожу информацию по триггерам. Это позволяет быстро оценить проблемы на всех серверах, что я обслуживаю. Для этой задачи ограничения бесплатной версии вообще не доставляют неудобств.
Подробнее об этом рассказываю в отдельной статье - https://serveradmin.ru/nastrojka-intergaczii-zabbix-v-grafana/ В ней как раз можно воспользоваться описываемым облаком. Очень удобно. У меня для этих целей своя графана настроена, но если бы раньше узнал, что можно бесплатной воспользоваться, сделал бы это.
#zabbix #grafana #мониторинг
Обновил и доработал свою старую статью про резервирование основного канала в интернет в Mikrotik с помощью скрипта. В качестве резервного канала используется usb модем с lte подключением.
Подобное решение я использовал периодически со стародавних времен. Хоть и слышал комментарии, что это не очень удобно и можно по-другому делать. Но по факту меня предложенное решение полностью устраивает и решает поставленные задачи.
Работает резервирование следующим образом. Берутся 2 произвольных ip адреса в интернете и пингуются каждый через свой канал. Как только основной канал перестает пинговать, считает, что на нем нет интернета. Если в это же время на резервном пинги проходят, происходит переключение на него. Смена канала доступа в интернет происходит изменением дефолтного шлюза.
Параллельно с переключением канала я разрываю все tcp и udp соединения, а так же пишу сообщение в лог, чтобы оно улетело на удаленный syslog сервер и там обработалось системой мониторинга.
Единым скриптом все перечисленное выше сделать проще всего. Подробнее описано в статье - https://serveradmin.ru/rezervnyj-wan-kanal-v-mikrotik-i-pereklyuchenie-na-nego/
#mikrotik
Подобное решение я использовал периодически со стародавних времен. Хоть и слышал комментарии, что это не очень удобно и можно по-другому делать. Но по факту меня предложенное решение полностью устраивает и решает поставленные задачи.
Работает резервирование следующим образом. Берутся 2 произвольных ip адреса в интернете и пингуются каждый через свой канал. Как только основной канал перестает пинговать, считает, что на нем нет интернета. Если в это же время на резервном пинги проходят, происходит переключение на него. Смена канала доступа в интернет происходит изменением дефолтного шлюза.
Параллельно с переключением канала я разрываю все tcp и udp соединения, а так же пишу сообщение в лог, чтобы оно улетело на удаленный syslog сервер и там обработалось системой мониторинга.
Единым скриптом все перечисленное выше сделать проще всего. Подробнее описано в статье - https://serveradmin.ru/rezervnyj-wan-kanal-v-mikrotik-i-pereklyuchenie-na-nego/
#mikrotik
Server Admin
Резервный WAN канал в Mikrotik и переключение на него
У меня в руках оказался очень интересный роутер Mikrotik RouterBOARD 951Ui-2HnD http://mikrotik.ru/katalog/katalog/marshrutizatory/soho/routerboard-951g-2hnd-318 Привлекателен он тем, что за...
Продолжая тему Микротика. Вчера на канале @orangedevops была полезная заметка на ресурсы по микроту. Я сходил и посмотрел, что там есть интересного. Рассказываю вам.
Основной ресурс - https://buananetpbun.github.io. Там есть некоторые пояснения к разделам. Мне больше всего понравились следующие вещи.
Большая база данных готовых скриптов - https://buananetpbun.github.io/mikrotik. Даже если вам не нужны сами скрипты, можете подсмотреть полезные моменты и настройки. Например, там помимо прочего есть готовые списки ip адресов серверов Telegram или WhatsApp. Не знаю, насколько они достоверны, но это лучше, чем ничего. Можно использовать эту ссылку как базу знаний. Можно быстро посмотреть какие-то команды или настройки.
Так же мне очень понравились различные генераторы конфигов. Например, генератор конфига для simple queue - https://buananetpbun.github.io/simple-queue-generator.html Или конфиг для настройки l2tp подключения - https://buananetpbun.github.io/vpn-tunnel-all-traffic-script-generator.html.
Там много всего, наверняка что-то пригодится, если используете Микротики. Добавьте к себе в закладки.
#mikrotik
Основной ресурс - https://buananetpbun.github.io. Там есть некоторые пояснения к разделам. Мне больше всего понравились следующие вещи.
Большая база данных готовых скриптов - https://buananetpbun.github.io/mikrotik. Даже если вам не нужны сами скрипты, можете подсмотреть полезные моменты и настройки. Например, там помимо прочего есть готовые списки ip адресов серверов Telegram или WhatsApp. Не знаю, насколько они достоверны, но это лучше, чем ничего. Можно использовать эту ссылку как базу знаний. Можно быстро посмотреть какие-то команды или настройки.
Так же мне очень понравились различные генераторы конфигов. Например, генератор конфига для simple queue - https://buananetpbun.github.io/simple-queue-generator.html Или конфиг для настройки l2tp подключения - https://buananetpbun.github.io/vpn-tunnel-all-traffic-script-generator.html.
Там много всего, наверняка что-то пригодится, если используете Микротики. Добавьте к себе в закладки.
#mikrotik
Я периодически получаю вопросы при настройке чего-либо, почему не ставлю в докере, если есть образы. Чаще всего такие вопросы получаю на тему установки Zabbix Server. Решил поделиться своими мыслями на этот счет.
Docker я люблю и постоянно использую там, где это уместно. Условно Docker можно назвать своего рода пакетным менеджером. Он позволяет быстро развернуть готовое окружение со всеми зависимостями. Это очень помогает при разворачивании сложных многокомпонентных систем, а так же при разработке с непрерывным тестированием и деплоем в разные среды.
В случае с Zabbix Server он сам по себе весь состоит из одного пакета. Легко ставится и обновляется из репозитория разработчика. Всё свое состояние хранит в базе. Какой смысл в данном случае использовать докер? Он будет лишней сущностью, усложняющей систему и накладывающий дополнительные расходы.
Другое дело какой-нибудь Onlyoffice. Он настолько сложный, что без плясок с бубном его не настроить из пакетов. Много раз это проходил и сам в итоге переехал на Docker образы. Еще один пример - webpagetes. Его употеешь ставить самостоятельно из пакетов. Тоже пробовал и тоже отказался. С докером проще.
А вот какой-нибудь веб сервер Nginx в общем случае я вообще не вижу смысла ставить в докере, как и php-fpm. Они и так состоят из одного пакета и без проблем ставятся из стандартных репозиториев. Речь идет об одиночном веб сервере.
Так что каждому инструменту свое применение. Нет смысла бездумно везде и всюду использовать что-то новое, даже если ты привык к крестику закрытия окна слева, у тебя мак, борода и ты пьешь крафтовый кофе.
#docker #zabbix #devops
Docker я люблю и постоянно использую там, где это уместно. Условно Docker можно назвать своего рода пакетным менеджером. Он позволяет быстро развернуть готовое окружение со всеми зависимостями. Это очень помогает при разворачивании сложных многокомпонентных систем, а так же при разработке с непрерывным тестированием и деплоем в разные среды.
В случае с Zabbix Server он сам по себе весь состоит из одного пакета. Легко ставится и обновляется из репозитория разработчика. Всё свое состояние хранит в базе. Какой смысл в данном случае использовать докер? Он будет лишней сущностью, усложняющей систему и накладывающий дополнительные расходы.
Другое дело какой-нибудь Onlyoffice. Он настолько сложный, что без плясок с бубном его не настроить из пакетов. Много раз это проходил и сам в итоге переехал на Docker образы. Еще один пример - webpagetes. Его употеешь ставить самостоятельно из пакетов. Тоже пробовал и тоже отказался. С докером проще.
А вот какой-нибудь веб сервер Nginx в общем случае я вообще не вижу смысла ставить в докере, как и php-fpm. Они и так состоят из одного пакета и без проблем ставятся из стандартных репозиториев. Речь идет об одиночном веб сервере.
Так что каждому инструменту свое применение. Нет смысла бездумно везде и всюду использовать что-то новое, даже если ты привык к крестику закрытия окна слева, у тебя мак, борода и ты пьешь крафтовый кофе.
#docker #zabbix #devops
This media is not supported in your browser
VIEW IN TELEGRAM
Я отдаю себе отчет, что это туповатенький ролик, но он меня реально сегодня рассмешил 🤣 Смотреть строго со звуком!
Чинили так когда-нибудь задолбавшие вентиляторы? Я в таких случаях отвертку или что-то еще сзади засовывал, чтобы блокнуть вентилятор и он перестал трещать.
В настоящий момент имею подобную проблему на тестовом самосборе дома. Сервак достаточно мощный для моих дел, но в БП шумит вентилятор. Не доходят руки разобраться и решить проблему, так как включаю его редко и не сильно мешает.
#юмор
Чинили так когда-нибудь задолбавшие вентиляторы? Я в таких случаях отвертку или что-то еще сзади засовывал, чтобы блокнуть вентилятор и он перестал трещать.
В настоящий момент имею подобную проблему на тестовом самосборе дома. Сервак достаточно мощный для моих дел, но в БП шумит вентилятор. Не доходят руки разобраться и решить проблему, так как включаю его редко и не сильно мешает.
#юмор
В дополнение к предыдущему посту. Я когда-то только начинал работать сисадмином в офисе, встретил одного любопытного пользователя. Он был руководителем отдела технарей (не ИТ) и имел личный ноутбук HP.
Как-то он принес мне его и рассказал, что ноут его достал. Периодически он не включался, а он постоянно в командировки мотался. Я его спросил, а что ты делаешь, когда он не включается, как решаешь проблему. И он мне показал.
Достает хард. Он там на защелках и салазках был. Обычный ноутбучный HDD. После этого держит за угол сложенный ноут одной рукой, а второй со всей силы долбит по нему, по нижней стенке, чтобы экран не повредить. После серии мастерских и точечных шлепков, возвращает хард на место. Ноутбук после этого запускается.
Так он его чинил каждый раз, когда он не включался. Сказал, что заказчики были в шоке, когда наблюдали это. Я, честно говоря, тоже. Ноут ему заменили, старый списали. Я предупредил, чтобы сразу нес мне, если будут проблемы, чтобы не долбил.
Как-то он принес мне его и рассказал, что ноут его достал. Периодически он не включался, а он постоянно в командировки мотался. Я его спросил, а что ты делаешь, когда он не включается, как решаешь проблему. И он мне показал.
Достает хард. Он там на защелках и салазках был. Обычный ноутбучный HDD. После этого держит за угол сложенный ноут одной рукой, а второй со всей силы долбит по нему, по нижней стенке, чтобы экран не повредить. После серии мастерских и точечных шлепков, возвращает хард на место. Ноутбук после этого запускается.
Так он его чинил каждый раз, когда он не включался. Сказал, что заказчики были в шоке, когда наблюдали это. Я, честно говоря, тоже. Ноут ему заменили, старый списали. Я предупредил, чтобы сразу нес мне, если будут проблемы, чтобы не долбил.
Вышел сегодня прогуляться пешком и послушать что-то интересное в ютубе, но понял, что ничего интересного найти не могу. Полистал ленту рекомендаций и наткнулся на видео одного программиста - 9 вещей, которые я хотел бы знать в начале карьеры в айти.
https://www.youtube.com/watch?v=jfRE0_beZ3s
Мне понравилось, поэтому делюсь с вами. Актуально для сисадминов и devops инженеров практически на 100%. Человек говорит дело, со всем согласен и рекомендую задуматься над тем, что он рассаказывает, особенно в самом начале.
Заодно прошу поделиться интересными на ваш взгляд каналами на IT тематику. Я все свои пролистал и просмотрел все интересное. К сожалению, они не часто обновляются, так что даже не знаю, что еще посмотреть полезного и интересного.
#видео
https://www.youtube.com/watch?v=jfRE0_beZ3s
Мне понравилось, поэтому делюсь с вами. Актуально для сисадминов и devops инженеров практически на 100%. Человек говорит дело, со всем согласен и рекомендую задуматься над тем, что он рассаказывает, особенно в самом начале.
Заодно прошу поделиться интересными на ваш взгляд каналами на IT тематику. Я все свои пролистал и просмотрел все интересное. К сожалению, они не часто обновляются, так что даже не знаю, что еще посмотреть полезного и интересного.
#видео
YouTube
9 вещей, которые я хотел бы знать в начале карьеры в айти
Сегодня поговорим о тех знаниях, которые я хотел бы иметь, когда начинал работать программистом и о выводах, которые я сделал за все годы работы в IT
Курс о котором говорится в видео: ANDROID - http://bit.ly/2KYctWk
Курсы менторинга:
JAVA - https://bit.ly/34EkNBd…
Курс о котором говорится в видео: ANDROID - http://bit.ly/2KYctWk
Курсы менторинга:
JAVA - https://bit.ly/34EkNBd…
Вчера вышел тестовый релиз дистрибутива Rocky Linux. Для тех, кто не в курсе, напомню, что это клон RHEL, который планирует заменить Centos. Я поставил, попробовал. Сказать особо нечего, тот же Centos 8, только репы другие.
Организовал сборку и выпуск Rocky Linux бывший создатель CentOS, который в этот раз пообещал учесть предыдущие ошибки и организовать структурно и юридически публикацию дистрибутива так, чтобы защитить от подобных проблем в будущем.
Я не знаю, что у него получится по факту, но на текущий момент в качестве замены Centos лично я рассматриваю этот дистрибутив. Из других вариантов есть Oracle Linux и AlmaLinux. Первый рано или поздно тоже кинет своих пользователей, как только увидит в этом экономическую выгоду. Примеры такие уже были ранее.
По поводу AlmaLinux я даже не знаю, что сказать. Дистрибутив тоже только вышел. Какая будет поддержка и популярность - не знаю. В этом плане мне просто кажется, что Rocky Linux будет более популярный, так что им будет удобнее пользоваться из практических соображений.
Лично я на текущий момент продолжаю делать новые установки на Centos 8 и Debian 10. В конце года определюсь с форком RHEL и переведу все Centos 8 на него.
А вы в итоге на чем остановились в качестве замены Centos 8?
#rockylinux
Организовал сборку и выпуск Rocky Linux бывший создатель CentOS, который в этот раз пообещал учесть предыдущие ошибки и организовать структурно и юридически публикацию дистрибутива так, чтобы защитить от подобных проблем в будущем.
Я не знаю, что у него получится по факту, но на текущий момент в качестве замены Centos лично я рассматриваю этот дистрибутив. Из других вариантов есть Oracle Linux и AlmaLinux. Первый рано или поздно тоже кинет своих пользователей, как только увидит в этом экономическую выгоду. Примеры такие уже были ранее.
По поводу AlmaLinux я даже не знаю, что сказать. Дистрибутив тоже только вышел. Какая будет поддержка и популярность - не знаю. В этом плане мне просто кажется, что Rocky Linux будет более популярный, так что им будет удобнее пользоваться из практических соображений.
Лично я на текущий момент продолжаю делать новые установки на Centos 8 и Debian 10. В конце года определюсь с форком RHEL и переведу все Centos 8 на него.
А вы в итоге на чем остановились в качестве замены Centos 8?
#rockylinux
На днях зарелизился мой любимый почтовый сервер - Postfix. Как по мне, это образец качественного софта. Наследник традиций разработки еще прошлого века. Надежный, требует мало ресурсов для работы, за все время его использования не припомню каких-то критичных багов или проблем с безопасностью. Он просто работает и потихоньку обновляется, не привлекая к себе особого внимания.
Но и его постигла современная зараза. Вот одно из нововведений:
Ведем журнал с уважением. Версия Postfix 3.6 объявляет deprecated терминологию, подразумевающую, что белое лучше черного. Вместо этого вводятся понятия allowlist и denylist и другие вариации этих слов. Эти изменения затрагивают документацию, настройки postscreen и логирование.
То есть немного изменится формат конфигов и логов. Жаль, что это идиотия уже напрямую пришла на наши сервера и вынуждает нас делать пустые и бесполезные действия.
http://www.postfix.org/announcements/postfix-3.6.0.html
Осуждаем такие изменения?
#postfix #mailserver
Но и его постигла современная зараза. Вот одно из нововведений:
Ведем журнал с уважением. Версия Postfix 3.6 объявляет deprecated терминологию, подразумевающую, что белое лучше черного. Вместо этого вводятся понятия allowlist и denylist и другие вариации этих слов. Эти изменения затрагивают документацию, настройки postscreen и логирование.
То есть немного изменится формат конфигов и логов. Жаль, что это идиотия уже напрямую пришла на наши сервера и вынуждает нас делать пустые и бесполезные действия.
http://www.postfix.org/announcements/postfix-3.6.0.html
Осуждаем такие изменения?
#postfix #mailserver
Как быстро и просто проследить за сетевой активностью с помощью консоли Linux? Ранее я для этого предлагал использовать iftop. Но есть более функциональная программа - iptraf, которая живет в стандартных системных репозиториях. Так что с установкой нет проблем.
Если нужна самая свежая версия, то придется собрать самостоятельно: https://github.com/iptraf-ng/iptraf-ng
Далее запускаем:
Программа показывает чуть более расширенную статистику по сравнению с iftop, но основное отличие в том, что может писать информацию в лог файл, который достаточно просто читать. Все очень наглядно. Если хочется выцепить какие-то адреса и порты, то iptraf отлично для этого подходит.
В итоге, наглядно оценить сетевую активность на сервере удобнее с iftop. А если нужно собрать лог за какой-то период и спокойно проанализировать, то удобнее использовать iptraf.
#утилита
dnf install iptraf
apt install iptraf
Если нужна самая свежая версия, то придется собрать самостоятельно: https://github.com/iptraf-ng/iptraf-ng
dnf groupinstall "Development Tools"
dnf install ncurses-devel.x86_64
git clone https://github.com/iptraf-ng/iptraf-ng
cd iptraf-ng/
make
Далее запускаем:
./iptraf-ng
Программа показывает чуть более расширенную статистику по сравнению с iftop, но основное отличие в том, что может писать информацию в лог файл, который достаточно просто читать. Все очень наглядно. Если хочется выцепить какие-то адреса и порты, то iptraf отлично для этого подходит.
В итоге, наглядно оценить сетевую активность на сервере удобнее с iftop. А если нужно собрать лог за какой-то период и спокойно проанализировать, то удобнее использовать iptraf.
#утилита
Приглашаем вас оценить ПО для осуществления массовых SMS-рассылок, активная работа над которым началась с середины 2018 года (и продолжается по сей день).
Упор при разработке сделан на удобство эксплуатации: отсутствие зависимостей (хватит и минимальной установки Centos7), файл конфигурации с подсказками, подробная документация, возможность управления через systemd.
Основные преимущества:
1️⃣ Возможность обработки отчётов о доставке (если при отправке короткого сообщения был выставлен соответствующий флаг) с сохранением результатов в машино-понятном виде для последующей обработки.
2️⃣ Максимальная скорость рассылки ~ 2500 submit_sm в секунду (на один экземпляр рассыльщика с одним smpp-коннектом).
3️⃣ Настраиваемая скорость отправки для каждого конкретного smpp-соединения.
4️⃣ Динамическое понижение скорости отправки при получении от целевого smpp-коннекта (SMS-центра) заранее определённых (в файле конфигурации) кодов ошибок.
5️⃣ Отправка SMS с использованием функций выбора целевого smpp-коннекта (любой доступный, по номеру отправителя, по номеру получателя);
6️⃣ Отложенная отправка (с указанием конкретной даты начала рассылки);
7️⃣ Настраиваемая совместная обработка очередей сообщений различными приложениями-рассыльщиками (например, sms_sender_1 + sms_sender_3);
8️⃣ Настраиваемый контроль smpp-соединений (отправка/приём enquire_link/enquire_link_resp).
9️⃣ Настраиваемая скорость приёма входящего трафика (отчёты о доставке и проч.) для каждого smpp-соединения.
🔟 Возможность скрывать содержание входящих и исходящих сообщений в лог-файлах для определённого smpp-коннекта.
🔹 Настраиваемые условия (по коду ошибки в resp-ах) автоматического переподключения к smpp-соединению.
🔹 Возможность автоматической транслитерации содержания отправляемых сообщений.
🔹 Встроенный функционал вида "перезвони мне / заплати за меня".
👉🏻 Ознакомиться с ПО можно по ссылке: https://github.com/vladimir-chursin000 (репозиторий sms_sender).
❗️ Узнать условия получения лицензии на период ознакомительной эксплуатации (без shareware-ограничений): vladimir.chursin000@yandex.ru или в telegram - @vladimir_cn000.
#реклама
Упор при разработке сделан на удобство эксплуатации: отсутствие зависимостей (хватит и минимальной установки Centos7), файл конфигурации с подсказками, подробная документация, возможность управления через systemd.
Основные преимущества:
1️⃣ Возможность обработки отчётов о доставке (если при отправке короткого сообщения был выставлен соответствующий флаг) с сохранением результатов в машино-понятном виде для последующей обработки.
2️⃣ Максимальная скорость рассылки ~ 2500 submit_sm в секунду (на один экземпляр рассыльщика с одним smpp-коннектом).
3️⃣ Настраиваемая скорость отправки для каждого конкретного smpp-соединения.
4️⃣ Динамическое понижение скорости отправки при получении от целевого smpp-коннекта (SMS-центра) заранее определённых (в файле конфигурации) кодов ошибок.
5️⃣ Отправка SMS с использованием функций выбора целевого smpp-коннекта (любой доступный, по номеру отправителя, по номеру получателя);
6️⃣ Отложенная отправка (с указанием конкретной даты начала рассылки);
7️⃣ Настраиваемая совместная обработка очередей сообщений различными приложениями-рассыльщиками (например, sms_sender_1 + sms_sender_3);
8️⃣ Настраиваемый контроль smpp-соединений (отправка/приём enquire_link/enquire_link_resp).
9️⃣ Настраиваемая скорость приёма входящего трафика (отчёты о доставке и проч.) для каждого smpp-соединения.
🔟 Возможность скрывать содержание входящих и исходящих сообщений в лог-файлах для определённого smpp-коннекта.
🔹 Настраиваемые условия (по коду ошибки в resp-ах) автоматического переподключения к smpp-соединению.
🔹 Возможность автоматической транслитерации содержания отправляемых сообщений.
🔹 Встроенный функционал вида "перезвони мне / заплати за меня".
👉🏻 Ознакомиться с ПО можно по ссылке: https://github.com/vladimir-chursin000 (репозиторий sms_sender).
❗️ Узнать условия получения лицензии на период ознакомительной эксплуатации (без shareware-ограничений): vladimir.chursin000@yandex.ru или в telegram - @vladimir_cn000.
#реклама
Очередной пост про халяву, причем вполне функциональную. Есть сервис для запуска веб приложений Heroku - https://www.heroku.com. Думаю, многие о нем слышали, так как он достаточно известный и необычный.
У него есть бесплатный тариф, который позволяет запускать небольшое веб приложение на 550 часов в месяц. При этом приложение завершается, если к нему в течении 30 минут нет запросов. Для личного использования этих лимитов вполне достаточно для запуска какого-то одного приложения.
Для регистрации и получения бесплатного тарифа достаточно только email адреса. Карта не нужна. Далее пример того, что там можно запустить. Свой личный прокси сервер shadowsocks - https://habr.com/ru/post/555768/
После настройки app в heroku ставятся клиенты на android или windows и успешно используются. Так как приложение heroku будет автоматически завершаться после 30 минут неактивности, бесплатного лимита вам всегда будет хватать. Таким образом можно один раз настроить всё и пользоваться условно бесконечно, не переживая за оплату и продление.
Также heroku отлично подходит для хостинга своих личных телеграм ботов. Бесплатного лимита для себя одного вполне хватает.
#бесплатно
У него есть бесплатный тариф, который позволяет запускать небольшое веб приложение на 550 часов в месяц. При этом приложение завершается, если к нему в течении 30 минут нет запросов. Для личного использования этих лимитов вполне достаточно для запуска какого-то одного приложения.
Для регистрации и получения бесплатного тарифа достаточно только email адреса. Карта не нужна. Далее пример того, что там можно запустить. Свой личный прокси сервер shadowsocks - https://habr.com/ru/post/555768/
После настройки app в heroku ставятся клиенты на android или windows и успешно используются. Так как приложение heroku будет автоматически завершаться после 30 минут неактивности, бесплатного лимита вам всегда будет хватать. Таким образом можно один раз настроить всё и пользоваться условно бесконечно, не переживая за оплату и продление.
Также heroku отлично подходит для хостинга своих личных телеграм ботов. Бесплатного лимита для себя одного вполне хватает.
#бесплатно