Я уже делал несколько заметок по использованию Rsync на Windows в качестве источника бэкапа. Сначала я использовал cwrsync, потом перешёл на DeltaCopy. У последнего понравилась максимальная простота и скорость настройки. Ставишь приложение, указываешь папку, к которой нужен доступ, логи, пароль для авторизации и всё.
Есть только один минус, который немного напрягал. Приёмником бэкапов чаще всего является какой-то Linux сервер, который ничего не знает про права доступа и пользователей Windows. В итоге папка с бэкапами приезжает с правами 700 (RWX для владельца) и владельцем root. Сами файлы имеют эти же права.
Самый просто способ исправить это - поставить костыль и в скрипте использовать chown, chmod и назначать нужного владельца и права доступа. Когда в очередной раз я стал это делать, решил разобраться и обойтись без костылей. Оказалось, что у rsync есть ключи для управления этими параметрами.
Лично мне чаще всего нужны права 755 на директорию и 644 на файлы. Это требуется для того, что мониторинг мог спокойно ходить в бэкапы и собирать нужные данные. Реализуется это с помощью ключа rsync:
В данном случае D - права на директорию, F - на файлы. То же самое можно написать и вот так:
Rsynс поддерживает разные форматы chmod. Чтобы не тащить владельца файла с windows сервера, я еще добавляю ключи:
Последние можно не добавлять, если не использовать ключ -a, который включает в себя целую кучу ключей, где в том числе есть передача пользователя и группы. Чтобы продолжать использовать общий ключ -a, можно отдельно отменить копирование владельца и группы дополнительными ключами.
Вот пример полной строки запуска Rsynс на Linux для сбора файлов с Windows:
Скрипт синхронизирует директорию с бэкапами mssql. Изменившиеся файлы не удаляет, а кладёт в директорию mssql_increment с именем директории в виде даты на момент запуска скрипта. Таким образом можно организовать нужную глубину хранения бэкапов, удаляя старые директории.
#rsync #windows #backup
Есть только один минус, который немного напрягал. Приёмником бэкапов чаще всего является какой-то Linux сервер, который ничего не знает про права доступа и пользователей Windows. В итоге папка с бэкапами приезжает с правами 700 (RWX для владельца) и владельцем root. Сами файлы имеют эти же права.
Самый просто способ исправить это - поставить костыль и в скрипте использовать chown, chmod и назначать нужного владельца и права доступа. Когда в очередной раз я стал это делать, решил разобраться и обойтись без костылей. Оказалось, что у rsync есть ключи для управления этими параметрами.
Лично мне чаще всего нужны права 755 на директорию и 644 на файлы. Это требуется для того, что мониторинг мог спокойно ходить в бэкапы и собирать нужные данные. Реализуется это с помощью ключа rsync:
--chmod=Du=rwx,Dgo=rx,Fu=rw,Fog=r
В данном случае D - права на директорию, F - на файлы. То же самое можно написать и вот так:
--chmod=D2775,F664
Rsynс поддерживает разные форматы chmod. Чтобы не тащить владельца файла с windows сервера, я еще добавляю ключи:
--no-owner --no-group
Последние можно не добавлять, если не использовать ключ -a, который включает в себя целую кучу ключей, где в том числе есть передача пользователя и группы. Чтобы продолжать использовать общий ключ -a, можно отдельно отменить копирование владельца и группы дополнительными ключами.
Вот пример полной строки запуска Rsynс на Linux для сбора файлов с Windows:
/usr/bin/rsync --progress --delete -avz \
--no-owner --no-group --chmod=Du=rwx,Dgo=rx,Fu=rw,Fog=r \
--password-file=/root/bin/rsyncd.scrt \
rsyncuser@77.88.111.22::backup /mnt/backup/mssql --backup \
--backup-dir=/mnt/backup/mssql_increment/`date +%Y-%m-%d`/
Скрипт синхронизирует директорию с бэкапами mssql. Изменившиеся файлы не удаляет, а кладёт в директорию mssql_increment с именем директории в виде даты на момент запуска скрипта. Таким образом можно организовать нужную глубину хранения бэкапов, удаляя старые директории.
#rsync #windows #backup
Узнал про необычный и полезный сервис localtunnel, решил с вами поделиться. Делает он простую вещь - пробрасывает во внешний мир какой-то локальный web сервис. Например, у вас крутится приложение на 127.0.0.1:80, а вы хотите его кому-то показать через интернет, не меняя настроек, пробросов портов и т.д. Localtunnel вам поможет. Работает он на NodeJS.
Установка:
Для того, чтобы пробросить своё приложение, запускаете localtunnel:
После запуска получите url вида https://odd-fireant-71.loca.lt Открыв его, вы увидите свое приложение, работающее на 127.0.0.1:80. Проверить очень просто. Я запустил nginx на localhost и пробросил его.
Мне показался сервис очень полезным. Лично мне бы пригодился платный сервис на его основе со своей отдельной авторизацией. Прямо сейчас стоит задача опубликовать в интернет специфичный сервис, который работает локально. Просто как есть опубликовать в интернет нельзя, он не развивается и не обновляется, работает на asp.net. Через nginx proxy корректно не заработал. Принял решение через vpn делать доступ, но это лишние проблемы по настройке пользователей. Но ничего лучше и безопаснее не придумал.
Сайт -https://theboroer.github.io/localtunnel-www/
Исходники - https://github.com/localtunnel/localtunnel
#webserver
Установка:
# dnf module enable nodejs:14
# dnf install nodejs
# npm install -g localtunnel
Для того, чтобы пробросить своё приложение, запускаете localtunnel:
# lt --port 80
После запуска получите url вида https://odd-fireant-71.loca.lt Открыв его, вы увидите свое приложение, работающее на 127.0.0.1:80. Проверить очень просто. Я запустил nginx на localhost и пробросил его.
Мне показался сервис очень полезным. Лично мне бы пригодился платный сервис на его основе со своей отдельной авторизацией. Прямо сейчас стоит задача опубликовать в интернет специфичный сервис, который работает локально. Просто как есть опубликовать в интернет нельзя, он не развивается и не обновляется, работает на asp.net. Через nginx proxy корректно не заработал. Принял решение через vpn делать доступ, но это лишние проблемы по настройке пользователей. Но ничего лучше и безопаснее не придумал.
Сайт -https://theboroer.github.io/localtunnel-www/
Исходники - https://github.com/localtunnel/localtunnel
#webserver
У меня на канале накопилось очень много заметок по различным темам. Я всё собирался протэгировать их и сделать какой-то пост с тематической информацией, но в итоге решил поступить по-другому.
Как ни крути, но в Telegram неудобно обозревать объемную информацию. Придумывать какие-то костыли и пытаться структурировать, только время тратить. Всё уже давно придумано. Решил делать тематические подборки на основе заметок на сайте.
Первая из них - подборка моих публикаций в tg на тему бэкапов. Мне кажется, это самый подходящий формат для подобного рода информации. Что думаете? Или всё же имеет смысл заморочиться и как-то всё это в telegram вести? Например, в виде какого-то протегированного закрепа.
https://serveradmin.ru/top-12-besplatnyh-programm-dlya-bekapa/
#топ #backup
Как ни крути, но в Telegram неудобно обозревать объемную информацию. Придумывать какие-то костыли и пытаться структурировать, только время тратить. Всё уже давно придумано. Решил делать тематические подборки на основе заметок на сайте.
Первая из них - подборка моих публикаций в tg на тему бэкапов. Мне кажется, это самый подходящий формат для подобного рода информации. Что думаете? Или всё же имеет смысл заморочиться и как-то всё это в telegram вести? Например, в виде какого-то протегированного закрепа.
https://serveradmin.ru/top-12-besplatnyh-programm-dlya-bekapa/
#топ #backup
Относительно недавно (2017 год) появился новый проект для организации почтового сервера - Modoboa. А более ли менее известным он стал в 2019-2020 году. Я не так давно о нём узнал, несколько месяцев назад, но всё откладывал написание, так как планировал его поставить и потестировать, но пока не срослось.
Сейчас я даже не знаю, какой почтовый сервер с относительно простой установкой использовать в проде. Сам я всегда ставлю голый postfix, dovecot и всё это связываю друг с другом, наращивая функционал различными компонентами. Настраивать это утомительно, хотя работает надёжно.
Есть старый и известный продукт - Iredmail. Я его использовал, нормальный сервер, но бесплатная версия с очень ограниченным функционалом. Часто его недостаточно. Раньше был признанный лидер среди бесплатных готовых решений для почты - Zimbra, но сейчас судьба бесплатной версии находится в каком-то подвешенном состоянии.
На этом фоне Modoboa вызывает интерес. По описанию, функционал неплохой. Всё, что надо для среднестатистического почтового сервера, есть:
▪ веб панель для ящиков и управления (на базе jQuery и Bootstrap)
▪ встроенный мониторинг и отчёты
▪ система репутации на основе DKIM и DMARC
▪ адресная книга, календарь, автоответы, фильтры и всякие другие мелочи
▪ интеграция с LDAP
Всё это бесплатно. Нет никаких ограничений по ящикам, доменам и т.д. Написано хозяйство на Python 3, что вроде неплохо. Под капотом Postfix и Dovecot. По идее, можно и руками полазить, что-то докрутить. Для установки есть готовый скрипт, который всё делает сам.
Если кто-то уже пробовал в работе этот почтовый сервер, дайте обратную связь, каков он в деле.
Сайт - https://modoboa.org
Исходники - https://github.com/modoboa/modoboa
#mailserver
Сейчас я даже не знаю, какой почтовый сервер с относительно простой установкой использовать в проде. Сам я всегда ставлю голый postfix, dovecot и всё это связываю друг с другом, наращивая функционал различными компонентами. Настраивать это утомительно, хотя работает надёжно.
Есть старый и известный продукт - Iredmail. Я его использовал, нормальный сервер, но бесплатная версия с очень ограниченным функционалом. Часто его недостаточно. Раньше был признанный лидер среди бесплатных готовых решений для почты - Zimbra, но сейчас судьба бесплатной версии находится в каком-то подвешенном состоянии.
На этом фоне Modoboa вызывает интерес. По описанию, функционал неплохой. Всё, что надо для среднестатистического почтового сервера, есть:
▪ веб панель для ящиков и управления (на базе jQuery и Bootstrap)
▪ встроенный мониторинг и отчёты
▪ система репутации на основе DKIM и DMARC
▪ адресная книга, календарь, автоответы, фильтры и всякие другие мелочи
▪ интеграция с LDAP
Всё это бесплатно. Нет никаких ограничений по ящикам, доменам и т.д. Написано хозяйство на Python 3, что вроде неплохо. Под капотом Postfix и Dovecot. По идее, можно и руками полазить, что-то докрутить. Для установки есть готовый скрипт, который всё делает сам.
Если кто-то уже пробовал в работе этот почтовый сервер, дайте обратную связь, каков он в деле.
Сайт - https://modoboa.org
Исходники - https://github.com/modoboa/modoboa
#mailserver
Позавчера рассказывал про сервис localtunnel. Я подобный сервис увидел впервые, просто не знал о нём. Нашлось много людей, которые зачем-то стали доказывать, что это плохая идея, небезопасно, надо пробрасывать порты, ssh туннели и т.д. Можно много чего сделать, но только это немного другой подход.
Как оказалось, подобный сервис очень востребован и популярен. Существует даже в реализации от Cloudflare под названием Cloudflare Argo Tunnel.
https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel
Если поднимать вопрос доверия и безопасности, то получается и Cloudflare доверять нельзя, и любой защите от ddos, которая весь траф через себя пропускает. И облачным провайдерам, у которых есть полный доступ к вашим виртуалкам и данным внутри них, если вы не используете шифрование, а в некоторых случаях даже если используете. В общем, тема для дискуссии неконструктивная. Каждый сам в конкретном случае должен решить для себя, кому он доверяет и на какие риски готов пойти.
Установить Cloudflare Tunnel очень просто. Есть deb и rpm пакеты, докер образ.
Как им пользоваться, рассказано отдельно. В общем случае последовательность действий следующая:
1. Устанавливаете Cloudflare Tunnel на компьютер.
2. Авторизуетесь в приложении с помощью своего аккаунта в Cloudflare.
3. Создаёте туннель и связываете его со своей учёткой.
4. Настраиваете конфиг туннеля, где указываете свой локальный сервис и его привязку к созданному ранее туннелю.
5. Связываете туннель со своим доменным именем, указанным в CNAME и запускаете.
Если доверяете cloudflare, то такое решение можно использовать и на постоянку. Выглядит достаточно безопасно. Вам вообще не нужно настраивать доступ из интернета на свой веб сервер. Даже tls сертификаты не нужны, если готовы гнать нешифрованный траф в Cloudflare. Последний сам выдаст бесплатный сертификат для конечной публикации.
Если я правильно понял, то для того, чтобы пользоваться Argo Tunnel бесплатно, нужно зарегистрировать Cloudflare For Teams free subscription.
#webserver
Как оказалось, подобный сервис очень востребован и популярен. Существует даже в реализации от Cloudflare под названием Cloudflare Argo Tunnel.
https://developers.cloudflare.com/pages/how-to/preview-with-cloudflare-tunnel
Если поднимать вопрос доверия и безопасности, то получается и Cloudflare доверять нельзя, и любой защите от ddos, которая весь траф через себя пропускает. И облачным провайдерам, у которых есть полный доступ к вашим виртуалкам и данным внутри них, если вы не используете шифрование, а в некоторых случаях даже если используете. В общем, тема для дискуссии неконструктивная. Каждый сам в конкретном случае должен решить для себя, кому он доверяет и на какие риски готов пойти.
Установить Cloudflare Tunnel очень просто. Есть deb и rpm пакеты, докер образ.
Как им пользоваться, рассказано отдельно. В общем случае последовательность действий следующая:
1. Устанавливаете Cloudflare Tunnel на компьютер.
2. Авторизуетесь в приложении с помощью своего аккаунта в Cloudflare.
3. Создаёте туннель и связываете его со своей учёткой.
4. Настраиваете конфиг туннеля, где указываете свой локальный сервис и его привязку к созданному ранее туннелю.
5. Связываете туннель со своим доменным именем, указанным в CNAME и запускаете.
Если доверяете cloudflare, то такое решение можно использовать и на постоянку. Выглядит достаточно безопасно. Вам вообще не нужно настраивать доступ из интернета на свой веб сервер. Даже tls сертификаты не нужны, если готовы гнать нешифрованный траф в Cloudflare. Последний сам выдаст бесплатный сертификат для конечной публикации.
Если я правильно понял, то для того, чтобы пользоваться Argo Tunnel бесплатно, нужно зарегистрировать Cloudflare For Teams free subscription.
#webserver
Media is too big
VIEW IN TELEGRAM
Отгрузки стоят. 1С не грузится. VPN не работает. Бизнес находится под угрозой. Сисадмин Вася в полной растерянности. Как Гипермен помог Васе настроить VDI - узнайте по ссылке.
👉 https://clck.ru/ZLoXK
#реклама #гипермен
👉 https://clck.ru/ZLoXK
#реклама #гипермен
У Дениса Астахова, автора youtube канала ADV-IT вышла серия видео на тему прохождения собеседований. Как составить резюме, как подготовиться, как проходить интервью и всё на эти темы. Мне очень понравилось содержание. Согласен практически со всем изложенным, так что рекомендую вам посмотреть, даже если не собираетесь в ближайшее время менять работу. Для общего образования пригодится. Видно, что человек имеет большой практический опыт и пишет по делу. Я сам много проводил собеседований и принимал людей на работу. Многое пересмотрел в этой теме, когда оказался по другую сторону баррикад.
Например, Денис даёт совет уместить своё резюме на одном листе A4 и не больше! Я полностью осознал этот совет, когда стал сам проводить собеседования. Реально не читаешь длинные резюме. Когда идёт поиск кандидата на потоке и у тебя по 5-10 собеседований в день, вникать в длинные резюме вообще не хочется, особенно когда там 5-7 мест работы описаны. И хотя мне давно уже не приходилось никому показывать своё резюме, так как не занимаюсь поиском работы вообще, тем не менее я сделал в свое время резюме именно в формате одного листа A4.
Еще один пример, который я подтверждаю своим опытом. При поиске первой работы получить хоть какой-нибудь сертификат. Я, как только выпустился из универа, первым делом пошел и сдал экзамен MCP (Microsoft Certified Professional) по WinXP вроде бы, или может уже Win7. Не помню точно. Это помогло сразу найти нормальную работу, а не перебиваться первое время работой за еду, как пришлось поступить многим выпускникам без опыта.
Для меня удивительно было услышать, что на Западе нельзя в резюме публиковать своё фото, указывать возраст. Такие резюме даже не рассматривают по какому-то надуманному предлогу, что это может послужить причиной дискриминации. Просто абсурд. Это как сейчас на сайте Cian запретили в объявлениях писать, что ты хочешь сдавать квартиру только людям славянской внешности. Как-будто после этого запрета те, кто не хотели сдавать другим, внезапно захотят. Теперь просто неславяне лишний раз проедутся на осмотр, где им откажут. С работой то же самое. Просто лишние хлопоты для всех, прикрытые какой-то нелепой защитой от дискриминации, которая реально не имеет смысла. Работодатель всегда найдет способ не взять на работу того, кто ему не нужен.
В общем, видео рекомендую. Вышли две части, будет еще как минимум третья конкретно по собеседованию на позицию DevOps.
https://www.youtube.com/watch?v=EHEfVNBf-wg
#видео
Например, Денис даёт совет уместить своё резюме на одном листе A4 и не больше! Я полностью осознал этот совет, когда стал сам проводить собеседования. Реально не читаешь длинные резюме. Когда идёт поиск кандидата на потоке и у тебя по 5-10 собеседований в день, вникать в длинные резюме вообще не хочется, особенно когда там 5-7 мест работы описаны. И хотя мне давно уже не приходилось никому показывать своё резюме, так как не занимаюсь поиском работы вообще, тем не менее я сделал в свое время резюме именно в формате одного листа A4.
Еще один пример, который я подтверждаю своим опытом. При поиске первой работы получить хоть какой-нибудь сертификат. Я, как только выпустился из универа, первым делом пошел и сдал экзамен MCP (Microsoft Certified Professional) по WinXP вроде бы, или может уже Win7. Не помню точно. Это помогло сразу найти нормальную работу, а не перебиваться первое время работой за еду, как пришлось поступить многим выпускникам без опыта.
Для меня удивительно было услышать, что на Западе нельзя в резюме публиковать своё фото, указывать возраст. Такие резюме даже не рассматривают по какому-то надуманному предлогу, что это может послужить причиной дискриминации. Просто абсурд. Это как сейчас на сайте Cian запретили в объявлениях писать, что ты хочешь сдавать квартиру только людям славянской внешности. Как-будто после этого запрета те, кто не хотели сдавать другим, внезапно захотят. Теперь просто неславяне лишний раз проедутся на осмотр, где им откажут. С работой то же самое. Просто лишние хлопоты для всех, прикрытые какой-то нелепой защитой от дискриминации, которая реально не имеет смысла. Работодатель всегда найдет способ не взять на работу того, кто ему не нужен.
В общем, видео рекомендую. Вышли две части, будет еще как минимум третья конкретно по собеседованию на позицию DevOps.
https://www.youtube.com/watch?v=EHEfVNBf-wg
#видео
YouTube
Собеседование в IT - Часть 1 - Как написать Резюме, что писать если нету опыта
#itсобеседование #программист #девопс #קורותחיים
1. Что писать в Резюме
2. Что не писать в Резюме
3. Нужна ли фотограция в Резюме
4. Что писать если нету опыта работы
5. Как сделать опыт работы самому
6. Примеры самодельных проектов Программиста и DevOps…
1. Что писать в Резюме
2. Что не писать в Резюме
3. Нужна ли фотограция в Резюме
4. Что писать если нету опыта работы
5. Как сделать опыт работы самому
6. Примеры самодельных проектов Программиста и DevOps…
Ранее я рассказывал про интересную и необычную игру SHENZHEN I/O, в которой надо программировать микроконтроллеры. Игра качественная и весьма популярна в своей тематике. У разработчиков этой игры есть еще одна, не хуже - Opus Magnum.
Это игра головоломка с бесконечным игровым процессом, в которой вам надо в качестве инженера-алхимика конструировать трансмутации. Вы будете создавать устройства и конвейеры (девопсы не пройдут мимо) для проведения различных алхимических процессов, чтобы получать лекарства, оружие, драгоценные камни и другие предметы.
У игры огромное сообщество, высокие рейтинги и много положительных отзывов.
📌 Многие называют игру головоломкой. Да, это правда. Но такое определение сильно упрощает и несколько принижает игру. Это совсем не просто головоломка. Несколько раз в обзорах попадалось мнение, что игра требует знания химии и алхимии. Ха-ха! Враки. На самом деле игра - это симулятор программирования промышленных роботов или станков с ЧПУ.
📌 Категорически рекомендую. Очередная игра-конструктор с написанием алгоритмов от Zachtronics, которая не только красива внешне, но и заставляет мозги скрипеть на пределе возможностей.
📌 Скачал на пробу пиратку и на оба выходных просто озверел. Настолько затягивающий оказался процесс. Мозг начал обдуумывать решения даже когда ешь, умываешься или за рулем. Куплено с огромным удовольствием.
📌 Большинство проектов от студии Zachtronics относится к категории "игр, скорее похожих на работу", и Opus Magnum - не исключение: грубо говоря, это сборник постепенно усложняющихся задач по визуальному программированию с потенциально бесконечным числом верных решений и простым "казуальным" интерфейсом.
Игра для тех, кто не любит ленивое времяпрепровождение, а предпочитает пораскинуть мозгами дома, так как на работе все конвейеры созданы и процессы оптимизированы.
Steam - https://store.steampowered.com/app/558990/Opus_Magnum/
Обзор игрового процесса - https://www.youtube.com/watch?v=8ZPd1xS9tNk
#игра
Это игра головоломка с бесконечным игровым процессом, в которой вам надо в качестве инженера-алхимика конструировать трансмутации. Вы будете создавать устройства и конвейеры (девопсы не пройдут мимо) для проведения различных алхимических процессов, чтобы получать лекарства, оружие, драгоценные камни и другие предметы.
У игры огромное сообщество, высокие рейтинги и много положительных отзывов.
📌 Многие называют игру головоломкой. Да, это правда. Но такое определение сильно упрощает и несколько принижает игру. Это совсем не просто головоломка. Несколько раз в обзорах попадалось мнение, что игра требует знания химии и алхимии. Ха-ха! Враки. На самом деле игра - это симулятор программирования промышленных роботов или станков с ЧПУ.
📌 Категорически рекомендую. Очередная игра-конструктор с написанием алгоритмов от Zachtronics, которая не только красива внешне, но и заставляет мозги скрипеть на пределе возможностей.
📌 Скачал на пробу пиратку и на оба выходных просто озверел. Настолько затягивающий оказался процесс. Мозг начал обдуумывать решения даже когда ешь, умываешься или за рулем. Куплено с огромным удовольствием.
📌 Большинство проектов от студии Zachtronics относится к категории "игр, скорее похожих на работу", и Opus Magnum - не исключение: грубо говоря, это сборник постепенно усложняющихся задач по визуальному программированию с потенциально бесконечным числом верных решений и простым "казуальным" интерфейсом.
Игра для тех, кто не любит ленивое времяпрепровождение, а предпочитает пораскинуть мозгами дома, так как на работе все конвейеры созданы и процессы оптимизированы.
Steam - https://store.steampowered.com/app/558990/Opus_Magnum/
Обзор игрового процесса - https://www.youtube.com/watch?v=8ZPd1xS9tNk
#игра
Давно уже вынашивал идею сделать какой-нибудь интерактив с вами, моими дорогими читателями. А то я всё пишу, да пишу. На днях пришла идея иногда публиковать интересные и полезные вопросы от вас. Я их постоянно получаю в личку, но чаще всего не отвечаю и даже не читаю, так как нет времени. Мне пишут каждый день незнакомые люди. Погружаться в их тексты нет возможности.
Другое дело, если человек подумает, сформулирует и предложит интересный вопрос, ответ на который может быть полезен не только ему. На такие вопросы я готов потратить своё время, задать дополнительные вопросы и подготовить к публикации, чтобы опытные люди, коих среди читателей много, что-то посоветовали. Это будет полезно не только задающему.
Планирую по 1-2 вопросу в неделю публиковать, если таковые будут. Для отправки вопроса сделал отдельного бота - @srv_admin_vopros_bot При запуске бота будут несколько примеров хороших вопросов, на структуру которых стоит ориентироваться при отправке своего вопроса. Там же есть примеры плохих вопросов, которые точно не будут опубликованы.
Надеюсь, эта идея окажется продуктивной и полезной. Посмотрим. Если наберётся некоторое количество вопросов и содержательных ответов с обсуждениями, то буду оформлять их в отдельные статьи на сайте.
#вопрос_читателя
Другое дело, если человек подумает, сформулирует и предложит интересный вопрос, ответ на который может быть полезен не только ему. На такие вопросы я готов потратить своё время, задать дополнительные вопросы и подготовить к публикации, чтобы опытные люди, коих среди читателей много, что-то посоветовали. Это будет полезно не только задающему.
Планирую по 1-2 вопросу в неделю публиковать, если таковые будут. Для отправки вопроса сделал отдельного бота - @srv_admin_vopros_bot При запуске бота будут несколько примеров хороших вопросов, на структуру которых стоит ориентироваться при отправке своего вопроса. Там же есть примеры плохих вопросов, которые точно не будут опубликованы.
Надеюсь, эта идея окажется продуктивной и полезной. Посмотрим. Если наберётся некоторое количество вопросов и содержательных ответов с обсуждениями, то буду оформлять их в отдельные статьи на сайте.
#вопрос_читателя
Потестировал очень любопытную программу для бэкапов - ElkarBackup. Посоветовали в комментариях к недавней статье. Программа понравилась, я её погонял немного, сейчас расскажу, как она работает.
Под капотом там RSnapshot, Rsync, Symfony на PHP. То есть это Web приложение на базе Симфонии и Rsync. По сути это просто веб интерфейс к rsync, которым удобно пользоваться. С его помощью можно добавлять хосты, создавать для них задания, планировать их выполнение, смотреть логи.
Я запустил всё это дело в докере. На хабе представлен готовый docker-compose.yml, но у меня с ним не завелось. Немного подредактировал. Вот рабочий вариант:
Volumes не вынесены из контейнеров, так что это установка чисто для теста. В прод я бы ставил из пакетов, благо они есть под все популярные системы и настраивается всё очень просто по документации. Контейнеры тут только для теста нужны.
После запуска можно идти в веб интерфейс http://192.168.13.123:8000/ и добавлять нового клиента. В качестве URL укажите подключение по SSH, типа такого: root@192.168.13.177
Для клиента создаёте задание, указывая директорию, которую будете бэкапить. Тут же можно расписание настроить, уведомления включить и т.д. После этого надо забрать с сервера публичный ключ для подключения по ssh. Проще всего его скопировать по ссылке: http://192.168.13.123:8000/config/publickey/get
Публичный ключ надо добавить на целевой сервер, которого добавили как клиента. После этого можно запускать задание с бэкапом. Посмотреть результат работы можно в логах. Если всё в порядке, то файлы приедут на сервер в директорию контейнера /app/backups. Доступ к ним можно получить через веб интерфейс.
Работает всё просто и удобно. Мне понравилось. Рекомендую попробовать, если ищите что-то похожее. Интерфейс простой и лакончиный, работает быстро. Не заметил каких-то проблем или глюков. Насчёт того, как эта штуковина переваривает десятки и сотни тысяч файлов, не знаю. Подозреваю, что могут быть проблемы. Но в такие архивы лазить через веб интерфейс не стоит, достаточно заданиями управлять.
Сайт - https://www.elkarbackup.org/
Исходники - https://github.com/elkarbackup/elkarbackup
Docker Hub - https://hub.docker.com/r/elkarbackup/elkarbackup/
#backup #rsync
Под капотом там RSnapshot, Rsync, Symfony на PHP. То есть это Web приложение на базе Симфонии и Rsync. По сути это просто веб интерфейс к rsync, которым удобно пользоваться. С его помощью можно добавлять хосты, создавать для них задания, планировать их выполнение, смотреть логи.
Я запустил всё это дело в докере. На хабе представлен готовый docker-compose.yml, но у меня с ним не завелось. Немного подредактировал. Вот рабочий вариант:
version: '3.9'
services:
elkarbackup:
image: elkarbackup/elkarbackup:latest
volumes:
- backups:/app/backups
- uploads:/app/uploads
- sshkeys:/app/.ssh
environment:
SYMFONY__DATABASE__PASSWORD: "your-password-here"
EB_CRON: "enabled"
ports:
- 8000:80
db:
image: mysql:5.7.22
volumes:
- db:/var/lib/mysql
environment:
MYSQL_ROOT_PASSWORD: "your-password-here"
volumes:
db:
backups:
uploads:
sshkeys:
Volumes не вынесены из контейнеров, так что это установка чисто для теста. В прод я бы ставил из пакетов, благо они есть под все популярные системы и настраивается всё очень просто по документации. Контейнеры тут только для теста нужны.
После запуска можно идти в веб интерфейс http://192.168.13.123:8000/ и добавлять нового клиента. В качестве URL укажите подключение по SSH, типа такого: root@192.168.13.177
Для клиента создаёте задание, указывая директорию, которую будете бэкапить. Тут же можно расписание настроить, уведомления включить и т.д. После этого надо забрать с сервера публичный ключ для подключения по ssh. Проще всего его скопировать по ссылке: http://192.168.13.123:8000/config/publickey/get
Публичный ключ надо добавить на целевой сервер, которого добавили как клиента. После этого можно запускать задание с бэкапом. Посмотреть результат работы можно в логах. Если всё в порядке, то файлы приедут на сервер в директорию контейнера /app/backups. Доступ к ним можно получить через веб интерфейс.
Работает всё просто и удобно. Мне понравилось. Рекомендую попробовать, если ищите что-то похожее. Интерфейс простой и лакончиный, работает быстро. Не заметил каких-то проблем или глюков. Насчёт того, как эта штуковина переваривает десятки и сотни тысяч файлов, не знаю. Подозреваю, что могут быть проблемы. Но в такие архивы лазить через веб интерфейс не стоит, достаточно заданиями управлять.
Сайт - https://www.elkarbackup.org/
Исходники - https://github.com/elkarbackup/elkarbackup
Docker Hub - https://hub.docker.com/r/elkarbackup/elkarbackup/
#backup #rsync
На канале Zabbix вышло очередное видео с описанием реализации конкретной возможности сервера мониторинга - Авторегистрация хостов. В ролике очень кратко (4 минуты), но полностью показано, как автоматически регистрировать хосты на сервере. Поясню, о чём идёт речь.
Если у вас много хостов, которые вы хотите добавить в мониторинг, нет необходимости каждый их них вручную добавлять на сервер. Достаточно на сервере создать действие по авторегистрации, снабдив его определёнными условиями, по которым хосты будут попадать под действие этого правила. А само правило будет добавлять хостам указанные шаблоны и помещать их в заданные группы.
После этого на хостах мониторинга достаточно в настройка zabbix-agent указать параметры сервера, имя хоста и некие метаданные, совпадающие с ними же в правиле авторегистрации. После запуска агента, хост автоматически будет зарегистрирован на сервере. Таким образом можно автоматически развернуть мониторинг на большой инфраструктуре с минимумом ручных действий. Вам нужно только продумать доставку zabbix-agent с нужным конфигом на целевые машины.
Automating Zabbix host deployment with autoregistration
#zabbix
Если у вас много хостов, которые вы хотите добавить в мониторинг, нет необходимости каждый их них вручную добавлять на сервер. Достаточно на сервере создать действие по авторегистрации, снабдив его определёнными условиями, по которым хосты будут попадать под действие этого правила. А само правило будет добавлять хостам указанные шаблоны и помещать их в заданные группы.
После этого на хостах мониторинга достаточно в настройка zabbix-agent указать параметры сервера, имя хоста и некие метаданные, совпадающие с ними же в правиле авторегистрации. После запуска агента, хост автоматически будет зарегистрирован на сервере. Таким образом можно автоматически развернуть мониторинг на большой инфраструктуре с минимумом ручных действий. Вам нужно только продумать доставку zabbix-agent с нужным конфигом на целевые машины.
Automating Zabbix host deployment with autoregistration
#zabbix
YouTube
Zabbix Handy Tips: Automating Zabbix host deployment with autoregistration
Zabbix Handy Tips - is byte-sized news for busy techies, focused on one particular topic. In this video, we will learn how to automatically deploy Zabbix agent hosts by using the agent autoregistration functionality.
Subscribe here: https://www.zabbix.com/subscribe…
Subscribe here: https://www.zabbix.com/subscribe…
❓ Стартуем рубрику с вашими вопросами. Начну с одного из первых вопросов. Он короткий, звучит просто и предельно понятно. Ответа лично я не знаю. И даже идей нет, как это сделать, так как не занимался подобным. Но мне показалось, что полезно узнать рабочее решение, если кто-то поделится реализацией.
Задача: настроить теневое копирование рабочих файлов пользователей, которые они хранят локально, на бекап-сервер. Какие могут быть решения с минимумом костылей?
Я единственное, что подумал. А стоит ли вообще решать подобную задачу в лоб? Может лучше воспользоваться каким-то готовым софтом для этого дела?
#вопрос_читателя
Задача: настроить теневое копирование рабочих файлов пользователей, которые они хранят локально, на бекап-сервер. Какие могут быть решения с минимумом костылей?
Я единственное, что подумал. А стоит ли вообще решать подобную задачу в лоб? Может лучше воспользоваться каким-то готовым софтом для этого дела?
#вопрос_читателя
Необычный софт посмотрел, аналогов которого раньше не видел. Git репозиторий с просмотром содержимого через консоль - Soft Serve (странное название 🤔). Есть пакеты под все системы. Также можно в докере запустить. Я пробовал и так, и так.
https://github.com/charmbracelet/soft-serve
Ставим на rpm-based:
# rpm -ivh https://github.com/charmbracelet/soft-serve/releases/download/v0.1.2/soft-serve_0.1.2_linux_amd64.rpm
Запускаем:
У вас должен стоять git, чтобы всё заработало. Вот готовая команда для запуска в докере.
По умолчанию Soft Serve слушает все интерфейсы, работает на порту 23231. Для подключения нужно использовать приватный ключ, который он положит в директорию ~/.ssh, название - soft_serve_server_ed25519.
Окажетесь в TUI. У вас там будет пусто, так как репозитории не настроены. Их через конфиг надо добавлять. Пример есть на github. Причём для настройки надо склонировать дефолтную репу config и запушить изменения настроек.
Посмотреть, как всё это будет работать в настроенном виде, можно в публичном репозитории по адресу git.charm.sh. Подключение по ssh, пароль пустой (без пароля).
Я не знаю, где подобное может на практике пригодиться. Чисто по приколу для своих личных локальных репозиториев. Необычно просматривать всё через консоль. Работает как обычный git сервер. Создаёте, клонируете, пушите код. Через TUI только просмотр.
#git
https://github.com/charmbracelet/soft-serve
Ставим на rpm-based:
# rpm -ivh https://github.com/charmbracelet/soft-serve/releases/download/v0.1.2/soft-serve_0.1.2_linux_amd64.rpm
Запускаем:
# soft
У вас должен стоять git, чтобы всё заработало. Вот готовая команда для запуска в докере.
По умолчанию Soft Serve слушает все интерфейсы, работает на порту 23231. Для подключения нужно использовать приватный ключ, который он положит в директорию ~/.ssh, название - soft_serve_server_ed25519.
# ssh localhost -p 23231 -i ~/.ssh/soft_serve_server_ed25519
Окажетесь в TUI. У вас там будет пусто, так как репозитории не настроены. Их через конфиг надо добавлять. Пример есть на github. Причём для настройки надо склонировать дефолтную репу config и запушить изменения настроек.
Посмотреть, как всё это будет работать в настроенном виде, можно в публичном репозитории по адресу git.charm.sh. Подключение по ssh, пароль пустой (без пароля).
# ssh git.charm.sh
Я не знаю, где подобное может на практике пригодиться. Чисто по приколу для своих личных локальных репозиториев. Необычно просматривать всё через консоль. Работает как обычный git сервер. Создаёте, клонируете, пушите код. Через TUI только просмотр.
#git
Продолжил создавать подборки из заметок, которые были на канале. В этот раз объединил все продукты для удалённого доступа к компьютеру. В статью добавил ссылки на Telegram записи, чтобы можно было перейти и посмотреть комментарии.
В статье описание следующих программ:
◽ ZeroViewer
◽ X2Go
◽ DWService
◽ LiteManager
◽ RMS Удаленный доступ
◽ Aspia
◽ MeshCentral
◽ Getscreen_me
◽ TeamViewer
◽ AnyDesk
Прошлый топ получился какой-то удачный, так что его посмотрели несколько тысяч пользователей, пришедших хз откуда. После публикации мне даже написал кто-то на почту и спросил, сколько будет стоить размещение на первом месте этого топа его программы. Но я не такой 🙅♂️ Место не продал. Топ собран наобум 😁.
Вся оплаченная реклама или публикации на моих ресурсах обязательно маркируется метками или даётся пояснение, что размещение оплачено. Я ни разу не делал исключения. Отдельно стоит группа в VK, там я вообще не ставлю никакие метки, потому что платформа показы не даёт, если промаркировать рекламой. Подразумевается, что её нужно покупать у самого VK.
Если я какую-то интересную программу пропустил, напишите в комментариях, желательно к статье. Там не нужна регистрация.
https://serveradmin.ru/top-besplatnyh-programm-dlya-udalyonnogo-dostupa/
#топ #remote
В статье описание следующих программ:
◽ ZeroViewer
◽ X2Go
◽ DWService
◽ LiteManager
◽ RMS Удаленный доступ
◽ Aspia
◽ MeshCentral
◽ Getscreen_me
◽ TeamViewer
◽ AnyDesk
Прошлый топ получился какой-то удачный, так что его посмотрели несколько тысяч пользователей, пришедших хз откуда. После публикации мне даже написал кто-то на почту и спросил, сколько будет стоить размещение на первом месте этого топа его программы. Но я не такой 🙅♂️ Место не продал. Топ собран наобум 😁.
Вся оплаченная реклама или публикации на моих ресурсах обязательно маркируется метками или даётся пояснение, что размещение оплачено. Я ни разу не делал исключения. Отдельно стоит группа в VK, там я вообще не ставлю никакие метки, потому что платформа показы не даёт, если промаркировать рекламой. Подразумевается, что её нужно покупать у самого VK.
Если я какую-то интересную программу пропустил, напишите в комментариях, желательно к статье. Там не нужна регистрация.
https://serveradmin.ru/top-besplatnyh-programm-dlya-udalyonnogo-dostupa/
#топ #remote
Поднял у себя на сайте небольшой сервис для публикации логов - https://log.serveradmin.ru Это open source продукт logpaste.
https://github.com/mtlynch/logpaste
Он простой, минималистичный. Мне показался удобным. Надоели портянки логов в комментариях к статьям. Надо будет как-то добавить информацию о нём рядом с кнопкой комментирования.
Запустил в Docker. Там всё просто:
Убрал за nginx proxy_pass, добавил сертификат let's encrypt. Кто не понимает, о чём идёт речь, можно статью посмотреть - Проксирование запросов в nginx с помощью proxy_pass.
#сервис
https://github.com/mtlynch/logpaste
Он простой, минималистичный. Мне показался удобным. Надоели портянки логов в комментариях к статьям. Надо будет как-то добавить информацию о нём рядом с кнопкой комментирования.
Запустил в Docker. Там всё просто:
docker run -d \
-e "PORT=4001" \
-p 4001:4001/tcp \
--volume "${PWD}/data:/app/data" \
--name logpaste \
mtlynch/logpaste
Убрал за nginx proxy_pass, добавил сертификат let's encrypt. Кто не понимает, о чём идёт речь, можно статью посмотреть - Проксирование запросов в nginx с помощью proxy_pass.
#сервис
Я регулярно обновляю статью с мониторингом времени делегирования домена с помощью Zabbix. Всё жду, когда это будет работать из коробки. Но пока никак.
В статье уже накопилась целая куча моих костылей с реализацией проверок доменов с помощью:
- linux утилиты whois и jwhois;
- модуля python-whois
- whois клиента для Node.js
- prometheus domain_exporter
Раньше автообнаружение доменов работало через парсинг текстового файла с помощью zabbix-agent. На днях я добавил еще один способ с помощью бесплатного тарифа сервиса Whois API. Список доменов задаётся через макрос в шаблоне. Там же и парсинг результатов. То есть агент вообще не нужен. Вся логика описана в шаблоне, а проверки идут напрямую с Zabbix Server.
Ссылка на шаблон дана в статье, как и описание работы и скрины айтемов и триггеров. Ранее я уже делал заметку по этому поводу, но до написания статьи только сейчас руки дошли.
https://serveradmin.ru/monitoring-vremeni-delegirovaniya-domena-v-zabbix/
#zabbix #статья
В статье уже накопилась целая куча моих костылей с реализацией проверок доменов с помощью:
- linux утилиты whois и jwhois;
- модуля python-whois
- whois клиента для Node.js
- prometheus domain_exporter
Раньше автообнаружение доменов работало через парсинг текстового файла с помощью zabbix-agent. На днях я добавил еще один способ с помощью бесплатного тарифа сервиса Whois API. Список доменов задаётся через макрос в шаблоне. Там же и парсинг результатов. То есть агент вообще не нужен. Вся логика описана в шаблоне, а проверки идут напрямую с Zabbix Server.
Ссылка на шаблон дана в статье, как и описание работы и скрины айтемов и триггеров. Ранее я уже делал заметку по этому поводу, но до написания статьи только сейчас руки дошли.
https://serveradmin.ru/monitoring-vremeni-delegirovaniya-domena-v-zabbix/
#zabbix #статья
❓Публикую очередной вопрос от читателя, который мне показался интересным, в том числе и мне самому, так как хорошей реализации я не знаю. Текст вопроса я переписал сам, чтобы он был покороче.
Есть на обслуживании около 300 Linux серверов с разными ОС. Встал вопрос о регулярном обновлении этих серверов, с автоматизацией и мониторингом всего процесса. То есть нужно централизованно следить за появлением уязвимостей и так же централизованно их закрывать установкой обновлений в автоматическом или полуавтоматическом режиме.
Опыта работы с подобными решениями нет, поэтому ищется подходящий вариант. Пока смотрели на ManageEngine Vulnerability Manager Plus, Qualys VMDR и Syxsense Secure& Manage, но как-то адекватно оценить их пользу по маркетинговым видосикам сложно.
Хочется получить решение которое позволяет не только отсканировать на недостающие патчи и ошибки в конфигурации, но и позволяет устранять с четким пониманием где?, как?, когда? с каким-то планом отката на случай поломки с принятием рисков по каким-то серверам и нормальным репортингом.
Хотелось бы получить совет на что стоит обратить внимание. Возможно у Вас был опыт в решении подобной задачи.
Я сам не знаю, как красиво и удобно решать подобную задачу. Мне тоже интересно было бы узнать, как всё это делается. Я пробовал прикручивать систему поиска уязвимостей на серверах через Zabbix. Было какое-то решение в виде не то патча, не то отдельного модуля. Он собирал список пакетов с серверов и проверял его по бесплатной публичной базе уязвимостей. Если находил совпадения, присылал алерт. Это даже работало, но в итоге я забросил такое решение, так как привязка к этому модулю не давала спокойно обновляться на новые версии Zabbix Server, так как всё ломалось.
#вопрос_читателя
Есть на обслуживании около 300 Linux серверов с разными ОС. Встал вопрос о регулярном обновлении этих серверов, с автоматизацией и мониторингом всего процесса. То есть нужно централизованно следить за появлением уязвимостей и так же централизованно их закрывать установкой обновлений в автоматическом или полуавтоматическом режиме.
Опыта работы с подобными решениями нет, поэтому ищется подходящий вариант. Пока смотрели на ManageEngine Vulnerability Manager Plus, Qualys VMDR и Syxsense Secure& Manage, но как-то адекватно оценить их пользу по маркетинговым видосикам сложно.
Хочется получить решение которое позволяет не только отсканировать на недостающие патчи и ошибки в конфигурации, но и позволяет устранять с четким пониманием где?, как?, когда? с каким-то планом отката на случай поломки с принятием рисков по каким-то серверам и нормальным репортингом.
Хотелось бы получить совет на что стоит обратить внимание. Возможно у Вас был опыт в решении подобной задачи.
Я сам не знаю, как красиво и удобно решать подобную задачу. Мне тоже интересно было бы узнать, как всё это делается. Я пробовал прикручивать систему поиска уязвимостей на серверах через Zabbix. Было какое-то решение в виде не то патча, не то отдельного модуля. Он собирал список пакетов с серверов и проверял его по бесплатной публичной базе уязвимостей. Если находил совпадения, присылал алерт. Это даже работало, но в итоге я забросил такое решение, так как привязка к этому модулю не давала спокойно обновляться на новые версии Zabbix Server, так как всё ломалось.
#вопрос_читателя
Существует хороший набор рекомендаций на тему того, как проверить свой linux сервер на возможные проблемы с безопасностью. В текстовом виде все рекомендации можно посмотреть по ссылке - Checklist - Linux Privilege Escalation.
В автоматическом режиме все эти проверки можно выполнить с помощью готового sh скрипта LinPEAS - Linux Privilege Escalation Awesome Script. Он запускается в консоли и все результаты публикует тут же с подсветкой. В зависимости от найденной информации, вывод может быть очень большим, так что заранее увеличьте буфер терминала, иначе до начала вывода потом не доскролите.
Я его запустил на своём старом тестовом сервере и получил целую кучу всевозможной информации. Чего он только не нашёл: пароли и токены в history, креды от mysql сервера в php скриптах, подозрительные файлы в /tmp, разрешённую авторизацию для root по ssh, некоторые разрешённые PHP exec extensions, хэши mysql юзеров в user.MYD, исполняемые файлы с открытой записью и т.д. Не сервер, а решето 😁.
Данный скрипт и список рекомендаций может быть в первую очередь интересны сами по себе для понимания, на что обращать внимание в плане безопасности. А уже во вторую очередь в качестве готового инструмента для проведения проверок.
В закладочки забираем, тема полезная.
#security
В автоматическом режиме все эти проверки можно выполнить с помощью готового sh скрипта LinPEAS - Linux Privilege Escalation Awesome Script. Он запускается в консоли и все результаты публикует тут же с подсветкой. В зависимости от найденной информации, вывод может быть очень большим, так что заранее увеличьте буфер терминала, иначе до начала вывода потом не доскролите.
Я его запустил на своём старом тестовом сервере и получил целую кучу всевозможной информации. Чего он только не нашёл: пароли и токены в history, креды от mysql сервера в php скриптах, подозрительные файлы в /tmp, разрешённую авторизацию для root по ssh, некоторые разрешённые PHP exec extensions, хэши mysql юзеров в user.MYD, исполняемые файлы с открытой записью и т.д. Не сервер, а решето 😁.
Данный скрипт и список рекомендаций может быть в первую очередь интересны сами по себе для понимания, на что обращать внимание в плане безопасности. А уже во вторую очередь в качестве готового инструмента для проведения проверок.
В закладочки забираем, тема полезная.
#security
Media is too big
VIEW IN TELEGRAM
В 5 серии руководитель Роман Петрович продолжает генерировать бизнес-идеи. Без Васиной помощи опять не обойтись. Сумеет ли Вася настроить частное облако за день? Ответ вы узнаете на сайте.
👉 https://clck.ru/ZRca8
#реклама #гипермен
👉 https://clck.ru/ZRca8
#реклама #гипермен
Последний месяц по личным причинам приходится очень много ездить на машине. Прям ОЧЕНЬ много. По несколько часов в день, иногда 4-5. Пересмотрел и переслушал всё, что только можно. В том числе подкасты linkmeup.
В обычные дни не слушаю, так как они длинные и чаще всего без полезной практической информации конкретно для меня, поэтому не считаю целесообразным тратить на них время. Но сейчас прослушал очень много подкастов и некоторыми из них, которые показались мне интересными, поделюсь с вами.
Мне было любопытно узнать, как всё устроено и работает у больших провайдеров. В частности, у крупного питерского провайдера СкайНэт. В том числе получил некоторую полезную практическую информацию, о которой раньше не знал. Например, если на роутере в спеке по wifi указана какая-то скорость, то это максимальная скорость передающей среды с помощью этого роутера. Соответственно, если рядом есть еще такие же роутеры, то скорость передающей среды делится между ними и максимальной не будет никак даже близко. Как-то даже не думал об этом, а оно вот так.
Подкаст - https://linkmeup.ru/podcasts/1882. Можно скачать файл и закинуть в телегу. Я обычно так делал. А потом слушал, когда удобно было.
Основные темы:
- Какие вообще бывают роутеры?
- Зачем мне кабель, если везде есть WiFi?
- Когда роутер уже надо выкинуть и перестать передавать его по наследству?
- Почему на коробке написано 300 мегабит, а качает 80 и то по праздникам?
- Зачем покупать роутер у провайдера, если в магазине есть топовый за 23 000?
- Как сделать так, чтобы в квартире под 100 метров всё везде всегда работало, и сколько это стоит?
- Где в квартире нужно вешать роутер и почему топовое место это электрощиток у входной двери?
- Скрутки, бочонки и скотч-локи в подъезде, которые категорически недопустимы по всем стандартам, я RFC читал !!!11111одынодын.
- Какие роутеры настолько мощные, что пробивают рельсу вдоль на зависть АК-47. Где их купить и входит ли в комплект шапочка из фольги?
- Куда именно поставить Микротик?
- Зачем вообще нужен пароль на WiFi? Мне не жалко, пусть соседи качают.
#подкаст
В обычные дни не слушаю, так как они длинные и чаще всего без полезной практической информации конкретно для меня, поэтому не считаю целесообразным тратить на них время. Но сейчас прослушал очень много подкастов и некоторыми из них, которые показались мне интересными, поделюсь с вами.
Мне было любопытно узнать, как всё устроено и работает у больших провайдеров. В частности, у крупного питерского провайдера СкайНэт. В том числе получил некоторую полезную практическую информацию, о которой раньше не знал. Например, если на роутере в спеке по wifi указана какая-то скорость, то это максимальная скорость передающей среды с помощью этого роутера. Соответственно, если рядом есть еще такие же роутеры, то скорость передающей среды делится между ними и максимальной не будет никак даже близко. Как-то даже не думал об этом, а оно вот так.
Подкаст - https://linkmeup.ru/podcasts/1882. Можно скачать файл и закинуть в телегу. Я обычно так делал. А потом слушал, когда удобно было.
Основные темы:
- Какие вообще бывают роутеры?
- Зачем мне кабель, если везде есть WiFi?
- Когда роутер уже надо выкинуть и перестать передавать его по наследству?
- Почему на коробке написано 300 мегабит, а качает 80 и то по праздникам?
- Зачем покупать роутер у провайдера, если в магазине есть топовый за 23 000?
- Как сделать так, чтобы в квартире под 100 метров всё везде всегда работало, и сколько это стоит?
- Где в квартире нужно вешать роутер и почему топовое место это электрощиток у входной двери?
- Скрутки, бочонки и скотч-локи в подъезде, которые категорически недопустимы по всем стандартам, я RFC читал !!!11111одынодын.
- Какие роутеры настолько мощные, что пробивают рельсу вдоль на зависть АК-47. Где их купить и входит ли в комплект шапочка из фольги?
- Куда именно поставить Микротик?
- Зачем вообще нужен пароль на WiFi? Мне не жалко, пусть соседи качают.
#подкаст