Я написал подробный обзор межсетевого экрана и по совместительству шлюза ИКС ФСТЭК, который можно установить на своё железо или виртуальную машину, а также приобрести в виде программно-аппаратного комплекса (ПАК) на уже собранном и настроенном железе от разработчиков. Это сертифицированный межсетевой экран для защиты корпоративных сетей, соответствующий требованиям регуляторов.
⇨ Межсетевой экран ИКС ФСТЭК - установка и настройка
С продуктом ИКС (Интернет Контроль Сервер) я знаком давно. Он появился ещё до всей движухи с импортозамещением. А началось оно, кто не помнит, ещё в 2012 году. Тогда первые законы на этот счёт пошли. То есть это осмысленный и зрелый продукт, не собранный в горячке последних лет под возникшие запросы.
Сразу говорю, что статья заказная. У меня её заказал разработчик. Но как обычно всю структуру и наполнение я написал полностью сам. Изучил продукт, установил, настроил, и как смог кратко и ёмко показал основные возможности:
◽️Настройка и управление доступом пользователей
◽️Блокировка приложений и протоколов
◽️Фильтрация HTTPS через MITM
◽️Блокировка по спискам Минюста и Госнаркоконтроля
◽️Настройка файрвола
Помимо этого у ИКС ФСТЭК есть следующие возможности:
◽️Работа с несколькими провайдерами, балансировка каналов, управление полосой пропускания.
◽️Интеграция с DLP (Data Leak Prevention) и SIEM (Security Information and Event Management) системами.
◽️Различные технологии VPN с многофакторной аутентификацией пользователей.
◽️Интеграция с FreeIPA и ALD Pro, импорт пользователей из LDAP, Active Directory.
◽️Политики доступа на основе пользователей и групп.
◽️Статистика по сетевой активности пользователей и устройств.
◽️Чёрные и белые списки адресов, IP, фраз, блокировки по Geo-IP, спискам Минюста, времени суток, URL, ключевым словам, регулярным выражениям
◽️DHCP и DNS сервер.
◽️Подробные настраиваемые отчёты по использованию интернет-ресурсов.
ИКС ФСТЭК подходит для всех субъектов критической информационной инфраструктуры (КИИ) в России. Он будет актуален образовательным учреждениями и объектам здравоохранения, промышленным предприятиям и административным учреждениям, коммерческим организациям с повышенными требованиями к безопасности.
❗️В линейке продуктов ИКС есть полнофункциональная бесплатная версия Lite на 9 пользователей, которую можно использовать, к примеру, дома, если у вас есть дети (я использовал одно время), или в качестве шлюза для виртуальных машин, если их не больше 9-ти. ИКС в том числе поддерживает разные протоколы VPN, что может быть удобно для объединения разрозненной инфраструктуры.
Вся настройка в ИКС выполняется через веб интерфейс. В консоль ходить не нужно. Интерфейс управления интуитивен и прост. Базовые вещи легко настраиваются. Немного привыкать придётся к файрволу, если раньше работали с iptables. ИКС сделан на базе FreeBSD и там под капотом ipfw. У него немного другая логика работы и построения правил. Если iptables не знаете, то наоборот будет проще, так как ipfw более логичен и интуитивен. В любом случае всё настраивается через адаптированный интерфейс в браузере.
Продукт давно на рынке. По нему можно навести справки, посмотреть отзывы, вебинары. Для него есть документация на русском языке, обучающие курсы, техническая поддержка. Я видел разные отзывы на него, в том числе и с какими-то проблемами. Но у кого их не бывает? Можно даже у меня на сайте к прошлым статьям или тут к заметкам почитать отзывы. Я ничего не удалял. Все, кто хотел, выразили своё мнение, как положительное, так и отрицательное. Только делайте поправку на то, что было это 5+ лет назад.
#икс #gateway
⇨ Межсетевой экран ИКС ФСТЭК - установка и настройка
С продуктом ИКС (Интернет Контроль Сервер) я знаком давно. Он появился ещё до всей движухи с импортозамещением. А началось оно, кто не помнит, ещё в 2012 году. Тогда первые законы на этот счёт пошли. То есть это осмысленный и зрелый продукт, не собранный в горячке последних лет под возникшие запросы.
Сразу говорю, что статья заказная. У меня её заказал разработчик. Но как обычно всю структуру и наполнение я написал полностью сам. Изучил продукт, установил, настроил, и как смог кратко и ёмко показал основные возможности:
◽️Настройка и управление доступом пользователей
◽️Блокировка приложений и протоколов
◽️Фильтрация HTTPS через MITM
◽️Блокировка по спискам Минюста и Госнаркоконтроля
◽️Настройка файрвола
Помимо этого у ИКС ФСТЭК есть следующие возможности:
◽️Работа с несколькими провайдерами, балансировка каналов, управление полосой пропускания.
◽️Интеграция с DLP (Data Leak Prevention) и SIEM (Security Information and Event Management) системами.
◽️Различные технологии VPN с многофакторной аутентификацией пользователей.
◽️Интеграция с FreeIPA и ALD Pro, импорт пользователей из LDAP, Active Directory.
◽️Политики доступа на основе пользователей и групп.
◽️Статистика по сетевой активности пользователей и устройств.
◽️Чёрные и белые списки адресов, IP, фраз, блокировки по Geo-IP, спискам Минюста, времени суток, URL, ключевым словам, регулярным выражениям
◽️DHCP и DNS сервер.
◽️Подробные настраиваемые отчёты по использованию интернет-ресурсов.
ИКС ФСТЭК подходит для всех субъектов критической информационной инфраструктуры (КИИ) в России. Он будет актуален образовательным учреждениями и объектам здравоохранения, промышленным предприятиям и административным учреждениям, коммерческим организациям с повышенными требованиями к безопасности.
❗️В линейке продуктов ИКС есть полнофункциональная бесплатная версия Lite на 9 пользователей, которую можно использовать, к примеру, дома, если у вас есть дети (я использовал одно время), или в качестве шлюза для виртуальных машин, если их не больше 9-ти. ИКС в том числе поддерживает разные протоколы VPN, что может быть удобно для объединения разрозненной инфраструктуры.
Вся настройка в ИКС выполняется через веб интерфейс. В консоль ходить не нужно. Интерфейс управления интуитивен и прост. Базовые вещи легко настраиваются. Немного привыкать придётся к файрволу, если раньше работали с iptables. ИКС сделан на базе FreeBSD и там под капотом ipfw. У него немного другая логика работы и построения правил. Если iptables не знаете, то наоборот будет проще, так как ipfw более логичен и интуитивен. В любом случае всё настраивается через адаптированный интерфейс в браузере.
Продукт давно на рынке. По нему можно навести справки, посмотреть отзывы, вебинары. Для него есть документация на русском языке, обучающие курсы, техническая поддержка. Я видел разные отзывы на него, в том числе и с какими-то проблемами. Но у кого их не бывает? Можно даже у меня на сайте к прошлым статьям или тут к заметкам почитать отзывы. Я ничего не удалял. Все, кто хотел, выразили своё мнение, как положительное, так и отрицательное. Только делайте поправку на то, что было это 5+ лет назад.
#икс #gateway
Server Admin
Межсетевой экран ИКС ФСТЭК - установка и настройка | serveradmin.ru
Установка и базовая настройка сертифицированного шлюза и сетевого экрана ИКС ФСТЭК для защиты корпоративных сетей.
1👍85👎18
Недавно была публикация про PDF принтер в Windows. В комментариях дали ссылку на шикарный бесплатный сервис BentoPDF для работы с PDF. Причём сервис этот можно развернуть у себя на сервере. Он работает через браузер.
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
📌 Кратко перечислю особенности BentoPDF:
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#docs
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
.env переназначить, либо потом в веб интерфейсе в разделе Advanced Settings, в самом низу страницы. Подробно это описано в репозитории. Если у себя будете разворачивать на постоянную работу, то просто скачайте эти скрипты себе локально и пересоберите образ со своими урлами. Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#docs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍171👎3
Сегодня много времени провёл в дороге и размышлял над некоторыми вещами, в том числе об ИИ. Хочу с вами поделиться некоторыми мыслями. Я сейчас пишу новую статью про систему управления инфраструктурой. Пока не буду делать на ней акцент, когда выйдет статья, сами всё прочитаете. Там ИИ интегрирован в систему и работает очень хорошо.
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
1👍130👎8
Пару недель назад прочитал полезную статью на хабре:
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
И работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
Видим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
Смотрим список сессий:
Всё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
И история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#linux #terminal
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
# curl -Lo atch.tgz https://github.com/mobydeck/atch/releases/latest/download/atch-linux-amd64.tgz# tar -xzf atch-linux-amd64.tgz atch# mv atch /usr/local/bin/Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
# atch workИ работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
# atch workВидим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
~/.cache/atch/ сразу же в момент вывода. И потом воспроизводится при повторном подключении к сессии. Ничего не теряется. Ты попадаешь в тот же вывод терминала, откуда тебя отключило. Это очень удобно.Смотрим список сессий:
# atch listВсё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
# atch start deploy ./deploy.shИ история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Бросил tmux и написал свой инструмент
Десятилетия терминальных мультиплексеров, одна хроническая боль и маленькая тулза на C, которая наконец всё починила. Дисклеймер. Это адаптация статьи, которую я написал на английском для medium.com ....
2👍190👎2
В Microsoft работают настоящие специалисты по возвращению в систему одного и того же бага. Сколько лет уже наблюдается одна и та же проблема с раскладкой, а точнее с её переключением. Ещё 2 года назад делал статью, когда меня это конкретно достало:
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
👍70👎1
Я не раз между делом в заметках упоминал, что обычно не ставлю в автоматическую загрузку виртуальные машины на гипервизорах. Недавно один подписчик просил меня пояснить, на чём основана эта рекомендация и как он может убедить своё руководство в том, что лучше сделать так.
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
1️⃣ У меня была ситуация была, когда сглючила память в сервере и он постоянно перезагружался. Сервер Dell почему-то не отключил её сам, пришлось идти в ЦОДе к серверу и вынимать физически. На сервере работал гипервизор с кучей виртуальных машин. Если бы они автоматом стартовали, то там 100% что-нибудь бы умерло. Он аварийно перезагружался каждые 5-10 минут и сделал это раз 10, пока сотрудник не добрался до ЦОД и не поменял память.
2️⃣ Ещё один пример. ЦОД обесточили, была серьезная авария с электропитанием. Как это обычно бывает, резервное оборудование под реальной нагрузкой никто не проверял, так как подобные отключения бывают крайне редко, а проверять хлопотно. В итоге электричество то появлялось, то пропадало, падал генератор под нагрузкой. Оборудование несколько раз включилось и выключилось.
3️⃣ В промзонах часто отключают электричество. Иногда надолго. Его могут вернуть, а потом опять отключить через 1-2 минуты. Сталкивался с этим десятки раз, так как много работал и работаю с реальным производством. Для меня это вообще обыденность. Стартующие сервера на пустых батареях аварийно падают. Это всё приводит к проблемам. У меня, кстати, и дома, такая же история бывала не раз.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍106👎21
Многие владельцы сайтов сталкиваются с тем, что сайт начинает тормозить, работать нестабильно и требовать всё больше технических настроек.🔄 На практике такие проблемы часто связаны с качеством хостинга.
Виртуальный хостинг Majordomo обеспечивает стабильную работу сайта и подходит для разных типов проектов: сайтов компаний, блогов, лендингов и интернет-магазинов. Поддерживает популярные CMS — WordPress, 1С-Битрикс, Joomla и другие.
Majordomo входит в топ-10 лучших хостингов России и для эффективной работы вашего бизнеса предлагает:✅ удобную панель управления;✅ автоматические бэкапы;✅ защиту от DDoS;✅ бесплатные SSL-сертификаты;✅ поддержку 24/7.
Стоимость — от 179 ₽ в месяц.
Попробовать бесплатно
Реклама, ООО «Адвлайн», ИНН 7810543400.Please open Telegram to view this post
VIEW IN TELEGRAM
👍17👎6
Домучиваю статью про Loki. Никак не соберусь и не доделаю её полностью. В процессе настройки хочется наполнить систему реальными логами в нормальном объёме, чтобы всё проверить. Я использовал для этого простую утилиту с гитхаба для генерации логов типовых форматов - flog.
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
Сгенерировали лог
Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#logs
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
# docker run -it --rm mingrammer/flog flog -f apache_common -n 10Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
-l, то генерация логов будет идти непрерывно, пока её не остановишь.Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
# wget https://github.com/mingrammer/flog/releases/download/v0.4.4/flog_0.4.4_linux_amd64.tar.gz# tar -xzf flog_0.4.4_linux_amd64.tar.gz flog# mv flog /usr/local/bin/# flog -t log -f apache_combined -o /var/log/nginx/access.log -b 10485760/var/log/nginx/access.log is created.Сгенерировали лог
/var/log/nginx/access.log размером в 10 МБ. Теперь этот файл можно отправить в Loki. Конкретно по веб серверу хочу сделать отдельную заметку с примером дашборда.Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#logs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48👎2
Освойте UserGate и повысьте уровень защиты своей ИТ-инфраструктуры! 🚀
Мы запускаем серию практических курсов по UserGate, и это первый курс программы.
Бесплатный онлайн-курс поможет вам освоить внедрение и настройку UserGate — без лишней теории, с упором на практику.
В программе курса:
✅ Настройка сетевых зон, NAT, защищённых каналов, кластеров, фильтрации на уровне приложений и правил межсетевого экрана
✅ Интеграция с LDAP и Active Directory, фильтрация контента, системы обнаружения вторжений и обратный прокси
✅ Пошаговые видеоуроки, практические задания и итоговое тестирование
После прохождения вы получите:
⭐️ именной сертификат
📕 PDF-инструкции и чек-листы
🎁 Бонус: второй курс по настройке удалённого доступа
Пройдите курс в удобное время — запись уже доступна.
Мы запускаем серию практических курсов по UserGate, и это первый курс программы.
Бесплатный онлайн-курс поможет вам освоить внедрение и настройку UserGate — без лишней теории, с упором на практику.
В программе курса:
✅ Настройка сетевых зон, NAT, защищённых каналов, кластеров, фильтрации на уровне приложений и правил межсетевого экрана
✅ Интеграция с LDAP и Active Directory, фильтрация контента, системы обнаружения вторжений и обратный прокси
✅ Пошаговые видеоуроки, практические задания и итоговое тестирование
После прохождения вы получите:
⭐️ именной сертификат
📕 PDF-инструкции и чек-листы
🎁 Бонус: второй курс по настройке удалённого доступа
Пройдите курс в удобное время — запись уже доступна.
👎19👍15
Расскажу про один трюк в strace, про который я вроде бы ещё ни разу не писал. В нём ничего особенного нет, но в некоторых ситуациях с ним удобно. Если случайно нигде не видел подобного использования, то самому может и в голову не прийти, что так можно.
У strace и её производных (ltrace, latrace) есть ключ
Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
В выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
У вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
То есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
На выходе получили аккуратный обработанный список директорий и файлов в
В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
Тут обязательно перенаправление
Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
Запускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
Просто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#bash #linux #terminal
У strace и её производных (ltrace, latrace) есть ключ
-o, через который настраивается вывод результата в файл. При этом вместо файла может выступать pipe, а не обычный файл. Покажу сразу на примере. Тут будет видно явное удобство такого подхода.Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
nginx -t. В этот момент конфигурация проверяется на ошибки, соответственно, она должна быть прочитана.Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
# strace -zf -e trace=openat nginx -tВ выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
# strace -zf -e trace=openat nginx -t | grep /etc/nginxУ вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep /etc/nginxТо есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
# strace -o "| grep -Eo '/etc/nginx/[^\"]+'" -zf -e trace=openat nginx -t/etc/nginx/nginx.conf/etc/nginx/modules-enabled/etc/nginx/mime.types/etc/nginx/conf.d/etc/nginx/sites-enabled/etc/nginx/sites-enabled/defaultНа выходе получили аккуратный обработанный список директорий и файлов в
/etc/nginx, которые веб сервер прочитал. Смысл того, что мы сделали в том, что через ключ -o вывод отправили не в файл, а в пайп, где он сразу же был обработан тем же grep, который вывел только то, что было между " ", а это как раз путь в файловой системе. Вся остальная информация не нужна и только мешает.В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep -Eo '/etc/nginx/[^\"]+'Тут обязательно перенаправление
2>&1. Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
iftop:# strace -o "| grep -Eo '/[^\"]+'" -zf -e trace=openat iftopЗапускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
# strace -zf -e trace=openat iftop | grep -Eo '/[^\"]+'уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
# strace -o "| grep -Eo '/root[^\"]+'" -zf -e trace=openat mc/root/.config/mc/ini/root/.bash_historyПросто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#bash #linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍105👎1
Это практическая конференция для тех, кто строит и поддерживает надежные облака, внедряет ИИ и обеспечивает безопасность инфраструктуры. Реальные кейсы, инструменты и подходы — без воды и маркетинга.
Реклама. АО "К2 Интеграция". ИНН 7701829110
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8👎3
Хочу дать небольшие советы, основанные на личном опыте работы в отрасли. Может показаться, что они будут актуальны только новичкам, но это далеко не так. Проблемы обсуждения зарплаты с руководством, а конкретно её увеличения, возникают у многих вне прямой зависимости от возраста и опыта. Есть люди, которые всегда ощущают неловкость в таких разговорах, но её быть не должно. Это рабочий момент.
Во всём мире раскручивается спираль инфляции, в том числе долларовой, про рубль и говорить не приходится. Мы это всё наблюдаем постоянно, да ещё и с ускорением в последние несколько лет. Так что вопрос индексации и увеличения зарплаты стоит остро. Мои советы:
1️⃣ Когда устраиваетесь на новую работу, сразу, либо на собеседовании, либо при успешном приёме, оговорите тему повышения или индексации зарплаты. Как это происходит: автоматически раз в год или нужно самому к кому-то обращаться на пересмотр, какие процедуры на этот счёт. Если обсудите всё в самом начале, потом проще будет вести такие разговоры. Просто сошлётесь на эти договорённости. Это такая база, которую в обязательном порядке надо обсуждать. Она существенно упростит хотя бы в моральном плане задачу, если вам тяжело вывозить такие разговоры.
2️⃣ Постоянно отслеживайте среднюю зарплату по отрасли и следите за набором наиболее востребованных навыков. Подтягивайте их хотя бы минимально, если на работе не используете какой-то популярный стек. Проще всего подписаться на рассылку вакансий в hh, настроив подходящие параметры.
3️⃣ Если видите, что ваша зарплата упала ниже рынка, выходите на разговор с руководством, которое отвечает за индексацию и пересмотр зарплат. Не тяните, не копите обиду, не начинайте искать новое место, если на текущем устраивает всё, кроме зарплаты. Чаще всего нормальному руководителю нет смысла терять хорошего для себя сотрудника (вы же хороший сотрудник?). Спокойно объясните, почему вы считаете, что вам пора поднять зарплату. У вас должны быть чёткие аргументы, а не только желание получать больше денег.
Однажды я устроил одного знакомого в компанию, где работал сам. Ему тут предложили на треть больше, чем там, где он работает. Он прошел все собеседования и его готовы были брать. Когда пришел увольняться к своему работодателю, тот сделал круглые глаза и сразу же увеличил ему зарплату до такого же уровня. Руководитель просто не следил за этим, а работник сам на разговор не выходил. Надо было раньше всё обсудить и получить прибавку на полгода или год раньше. Представляете, сколько он денег потерял из-за своей нерешительности?
Я не гипотетически всё это говорю. Мне эти разговоры и индексации приходится делать в среднем чаще, чем человеку с постоянной одной работой. Сам всё это отслеживаю и индексирую все свои доходы в соответствии с инфляцией. Раньше каждый год делал, сейчас раз в два года, потому что доход по найму не мой основной источник дохода. Лишнюю суету не хочется разводить. Исключение, если у меня занятость на конкретном месте уменьшилась, то есть работы стало меньше и я трачу меньше времени, то пересмотр оплаты не затеваю. Но это лично моя особенность на частичной занятости. Я могу перераспределять свои усилия по разным направлениям.
❗️И ещё важно понимать. Компенсация инфляции - это не повышение зарплаты. Некоторые руководители преподносят индексацию, как повышение и увеличивают требования, нагрузку. Надо спокойно пояснить, если просите именно индексацию, что речь про повышение не идёт. Они сами это понимают, просто используют такую манипуляцию.
Повышение следует просить, если у вас реально выросла нагрузка и навыки. Ну и если рынок позволяет это сделать, а ваша зарплата по какой-то причине стала ниже рынка.
☝️ Только действуйте аккуратно и оценивайте трезво свои шансы и возможности если что найти другую работу. Сейчас с этим могут быть проблемы. Я бы в такой истории не блефовал.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#совет
Во всём мире раскручивается спираль инфляции, в том числе долларовой, про рубль и говорить не приходится. Мы это всё наблюдаем постоянно, да ещё и с ускорением в последние несколько лет. Так что вопрос индексации и увеличения зарплаты стоит остро. Мои советы:
Однажды я устроил одного знакомого в компанию, где работал сам. Ему тут предложили на треть больше, чем там, где он работает. Он прошел все собеседования и его готовы были брать. Когда пришел увольняться к своему работодателю, тот сделал круглые глаза и сразу же увеличил ему зарплату до такого же уровня. Руководитель просто не следил за этим, а работник сам на разговор не выходил. Надо было раньше всё обсудить и получить прибавку на полгода или год раньше. Представляете, сколько он денег потерял из-за своей нерешительности?
Я не гипотетически всё это говорю. Мне эти разговоры и индексации приходится делать в среднем чаще, чем человеку с постоянной одной работой. Сам всё это отслеживаю и индексирую все свои доходы в соответствии с инфляцией. Раньше каждый год делал, сейчас раз в два года, потому что доход по найму не мой основной источник дохода. Лишнюю суету не хочется разводить. Исключение, если у меня занятость на конкретном месте уменьшилась, то есть работы стало меньше и я трачу меньше времени, то пересмотр оплаты не затеваю. Но это лично моя особенность на частичной занятости. Я могу перераспределять свои усилия по разным направлениям.
❗️И ещё важно понимать. Компенсация инфляции - это не повышение зарплаты. Некоторые руководители преподносят индексацию, как повышение и увеличивают требования, нагрузку. Надо спокойно пояснить, если просите именно индексацию, что речь про повышение не идёт. Они сами это понимают, просто используют такую манипуляцию.
Повышение следует просить, если у вас реально выросла нагрузка и навыки. Ну и если рынок позволяет это сделать, а ваша зарплата по какой-то причине стала ниже рынка.
☝️ Только действуйте аккуратно и оценивайте трезво свои шансы и возможности если что найти другую работу. Сейчас с этим могут быть проблемы. Я бы в такой истории не блефовал.
———
ServerAdmin:
#совет
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ServerAdmin.ru
Авторская информация о системном администрировании.
Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed
Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Ресурс включён в перечень Роскомнадзора
Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed
Второй канал: @srv_admin_live
Сайт: serveradmin.ru
Ресурс включён в перечень Роскомнадзора
1👍158👎2
⇨ Автоматические TLS-сертификаты в Angie с модулем ACME
Очень подробно разобрана тема работы встроенного клиента ACME в веб сервере Angie. Он давно уже умеет сам получать и регулярно обновлять бесплатные сертификаты. Делал об этом заметку.
⇨ Chrome DevTools: полный разбор для ускорения сайтов
Очень подробный разбор DevTools в контексте анализа быстродействия и загрузки сайта. Нигде ранее не встречал такой подробной информации на эту тему. Если для вас актуальна история с быстродействием сайтов, то обязательно посмотрите. Автор очень хорошо разбирается в этой теме.
⇨ What’s Actually Running in My Homelab? (50+ Self-Hosted Services)
Очень любопытное видео от популярного блогера на тему того, что он использует. Я давно его смотрю и в целом всё это уже видел. Там по идее стандартный набор: Proxmox, TrueNAS, Traefik, Pi-hole, Prometheus, Uptime Kuma, n8n, NetbootXYZ и т.д. Практически всё из его списка было в то или иное время у меня на канале.
⇨ Cloud-init - развертывание виртуальных машин за секунды. Автоматизация Proxmox
Хорошая инструкция по настройки Cloud-init для автоматизации запуска виртуалок в Proxmox.
⇨ Защищаем приложения на своем сервере - безопасность Homelab и VPS
Хорошее наглядное видео, где автор специально сделал уязвимое приложение и на его примере показывает работу WAF (Web Application Firewall), а конкретно SafeLine.
⇨ Инструменты, которые незаметно обеспечивают работу моей домашней лаборатории Proxmox в 2026 году.
Автор пишет про некоторые программы под Proxmox, которые он использует. Среди них PegaProx и ProxCenter, про которые я вообще впервые услышал. Надо будет попробовать. А помимо них там речь идёт про Netdata, Pulse, ProxMenuX.
⇨ MCP Inspector | Протокол MCP - 02
⇨ Структура протокола MCP | Протокол MCP - 03
Продолжение нового курса от известного преподавателя Созыкина Андрея по теме MCP - протокола для взаимодействия с языковыми моделями (LLM).
⇨ Сервисы заметок для самохостинга. Альтенративы Google Keep
Очередное видео на тему хостинга текстовых заметок на своём сервере. Не знаю, остались ли ещё люди, у которых таких сервисов нет? 😁 На них постоянно выходят обзоры и сравнения. Автор основательно подошёл к теме и даже сравнительную таблицу составил. Если кому интересно, то сам я уже несколько лет использую Joplin.
⇨ Uptime Kuma v2 is HERE // Breaking Changes & Safe Upgrade Checklist
Популярный бесплатный мониторинг Uptime Kuma обновился до новой версии v2, где много изменений по сравнению с первой версией. Надо будет тоже её попробовать.
———
ServerAdmin:
#видео
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👎1