Media is too big
VIEW IN TELEGRAM
▶️ Развлеку вас в выходной день ещё одним небольшим видео, которое меня очень впечатлило. Залетело в рекомендации Youtube. С автором не знаком, вообще ни одного его ролика не видел. Думал это очередная домашняя лаборатория какого-то блогера. Собственно, сам он её так и обозвал в описании: "У меня в подвале есть небольшая домашняя лаборатория."
Ближе к середине видео после показов ИБПшников, удивился, увидев потребление в 10 кВт. Думаю, что он там такого в доме нагородил на 10 киловатт. Собственно, а что он там собрал, можете сами посмотреть. Ролик короткий, 5 минут всего. Для удобства залил его ещё и на vkvideo. Уже не знаю, куда и заливать-то теперь, чтобы можно было спокойно посмотреть.
Тормознул видео, когда он на мониторе консоль одного из серверов показывал. Там было приветствие от PVE. Больше ожидал там VMware увидеть.
⇨ https://www.youtube.com/watch?v=-b3t37SIyBs
⇨ https://vkvideo.ru/video-95686747_456239393
Кому понравилась первая часть, может посмотреть продолжение. Заливать уже не стал никуда:
⇨ https://www.youtube.com/watch?v=OHsJA2uYH-w
Классный дом у мужика. Да и в целом он интересный человек. Посмотрел некоторые его видео. Он рассказывает, чем занимается на этих серверах. Основное у него там - HA кластер Proxmox с Ceph и большая хранилка на петабайт данных. Он любит всё сохранять и резервировать.
Он работает CTO (Chief Technology Officer, Технический директор) и говорит, что для работы на его должности надо не только уметь управлять людьми и процессами, но и разбираться в технологиях, которые у тебя на работе используются. Поэтому он собирает различные кластеры, всё сам щупает руками, настраивает и немного пользуется. Разумный подход.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#видео #железо
Ближе к середине видео после показов ИБПшников, удивился, увидев потребление в 10 кВт. Думаю, что он там такого в доме нагородил на 10 киловатт. Собственно, а что он там собрал, можете сами посмотреть. Ролик короткий, 5 минут всего. Для удобства залил его ещё и на vkvideo. Уже не знаю, куда и заливать-то теперь, чтобы можно было спокойно посмотреть.
Тормознул видео, когда он на мониторе консоль одного из серверов показывал. Там было приветствие от PVE. Больше ожидал там VMware увидеть.
⇨ https://www.youtube.com/watch?v=-b3t37SIyBs
⇨ https://vkvideo.ru/video-95686747_456239393
Кому понравилась первая часть, может посмотреть продолжение. Заливать уже не стал никуда:
⇨ https://www.youtube.com/watch?v=OHsJA2uYH-w
Классный дом у мужика. Да и в целом он интересный человек. Посмотрел некоторые его видео. Он рассказывает, чем занимается на этих серверах. Основное у него там - HA кластер Proxmox с Ceph и большая хранилка на петабайт данных. Он любит всё сохранять и резервировать.
Он работает CTO (Chief Technology Officer, Технический директор) и говорит, что для работы на его должности надо не только уметь управлять людьми и процессами, но и разбираться в технологиях, которые у тебя на работе используются. Поэтому он собирает различные кластеры, всё сам щупает руками, настраивает и немного пользуется. Разумный подход.
———
ServerAdmin:
#видео #железо
Please open Telegram to view this post
VIEW IN TELEGRAM
👍118👎3
Мне недавно один читатель задал простой вопрос, который заставил задуматься. Человек пояснил, что он далёк от ИТ, не сильно во всём этом разбирается, но хочет себя обезопасить от потери информации. Для этого он купил два одинаковых SSD в компьютер и хочет регулярно копировать всю информацию с одного диска на второй, чтобы в случае выхода из строя основного, он бы просто загрузился с другого и продолжил работу.
Запрос прост и понятен, но при этом лично я его в таком виде вообще никогда не решал. Первое, что мне приходит на ум, это RAID1. А второе - ПО для бэкапа, которое делает образ системного диска, который потом с помощью загрузочного диска можно быстро развернуть на любом новом железе. Делать постоянно полную копию диска нерационально с точки зрения времени бэкапа. Каждый раз это будет либо полная копия, либо как минимум полное сравнение двух дисков, поэтому лично я никогда так не делал.
Спрашивающий не разбирается ни в настройке RAID, ни в загрузочных дисках. Ему надо просто копию диска с системой Windows и регулярное её обновление из-под этой же системы. Я много писал про программы для бэкапа, но сходу не вспомнил, в какой бесплатной программе это реализовано. Например, бесплатный Veeam Agent, которым я сам пользуюсь, так не умеет. Навёл справки и узнал, что клон диска умеют делать бесплатные Hasleo Backup Suite Free и AOMEI Backupper Standard. Но там нет возможности сделать задачу для этих действий. Сделать клон можно только вручную.
Я лично проверил программу Hasleo. Системный диск нормально клонировался прямо из-под рабочей системы. Я его заменил копией, всё нормально загрузилось. Но нет никакой возможности автоматизировать этот процесс. У программы есть CLI, но там можно оперировать только задачами бэкапа. А клонирование диска идёт отдельной операцией, напрямую с бэкапами не связанной.
Немного помучал ИИшки на эту тему. Они, конечно, предлагали всякие костыли на тему diskshadow, монтирование и копирование образов, загрузочных разделов с помощью скриптов. Но мне всё это показалось слишком сложным и ненадёжным. Даже не стал пробовать. Особенно позабавил DeepSeek. Он написал, как сделать клон через Hasleo, и указал, что там же можно и задание на регулярное выполнение создать. Указал источник информации. Нажимаю на источник и открывается моя заметка в TG по этой программе. Он её прочитал и сделал ошибочное мнение о том, что есть такая возможность. В реальности её нет.
Честно говоря, думал, что есть какие-то простые бесплатные утилиты для этой задачи, типа того же
И всё, вообще никаких хлопот. DD есть и под Windows, но полностью всё скопировать в одно действие, как в Linux, не получится.
По итогу получается, что для решения этой задачи надо взять либо какую-то платную программу, типа Handy Backup, либо бесплатную Hasleo Backup Suite Free и делать клон вручную. В принципе, это нормальный вариант. Сами данные можно бэкапить каждый день автоматически куда-то во вне, например, на NAS, а систему раз в неделю вручную клонировать на второй диск. Ну и третий вариант - писать какие-то костыли на скриптах.
Если знаете простое и бесплатное решение этой задачи, поделитесь. По идее, запрос то простой и понятный для неискушённого человека. Сломался диск, сделал загрузочным в биосе запасной и продолжил работу. Ещё и от всяких вирусов, шифровальщиков защита, если клон диска не смонтирован в системе. Настроенный RAID1 сразу убьёт оба диска, а тут копия останется сохранной и позволит быстро восстановить работу. Я в итоге посоветовал Hasleo и ручное создание клона.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#backup #windows
Запрос прост и понятен, но при этом лично я его в таком виде вообще никогда не решал. Первое, что мне приходит на ум, это RAID1. А второе - ПО для бэкапа, которое делает образ системного диска, который потом с помощью загрузочного диска можно быстро развернуть на любом новом железе. Делать постоянно полную копию диска нерационально с точки зрения времени бэкапа. Каждый раз это будет либо полная копия, либо как минимум полное сравнение двух дисков, поэтому лично я никогда так не делал.
Спрашивающий не разбирается ни в настройке RAID, ни в загрузочных дисках. Ему надо просто копию диска с системой Windows и регулярное её обновление из-под этой же системы. Я много писал про программы для бэкапа, но сходу не вспомнил, в какой бесплатной программе это реализовано. Например, бесплатный Veeam Agent, которым я сам пользуюсь, так не умеет. Навёл справки и узнал, что клон диска умеют делать бесплатные Hasleo Backup Suite Free и AOMEI Backupper Standard. Но там нет возможности сделать задачу для этих действий. Сделать клон можно только вручную.
Я лично проверил программу Hasleo. Системный диск нормально клонировался прямо из-под рабочей системы. Я его заменил копией, всё нормально загрузилось. Но нет никакой возможности автоматизировать этот процесс. У программы есть CLI, но там можно оперировать только задачами бэкапа. А клонирование диска идёт отдельной операцией, напрямую с бэкапами не связанной.
Немного помучал ИИшки на эту тему. Они, конечно, предлагали всякие костыли на тему diskshadow, монтирование и копирование образов, загрузочных разделов с помощью скриптов. Но мне всё это показалось слишком сложным и ненадёжным. Даже не стал пробовать. Особенно позабавил DeepSeek. Он написал, как сделать клон через Hasleo, и указал, что там же можно и задание на регулярное выполнение создать. Указал источник информации. Нажимаю на источник и открывается моя заметка в TG по этой программе. Он её прочитал и сделал ошибочное мнение о том, что есть такая возможность. В реальности её нет.
Честно говоря, думал, что есть какие-то простые бесплатные утилиты для этой задачи, типа того же
dd в Linux. Там вообще 0 проблем с подобным клоном:# dd if=/dev/sda of=/dev/sdb bs=1M status=progressИ всё, вообще никаких хлопот. DD есть и под Windows, но полностью всё скопировать в одно действие, как в Linux, не получится.
По итогу получается, что для решения этой задачи надо взять либо какую-то платную программу, типа Handy Backup, либо бесплатную Hasleo Backup Suite Free и делать клон вручную. В принципе, это нормальный вариант. Сами данные можно бэкапить каждый день автоматически куда-то во вне, например, на NAS, а систему раз в неделю вручную клонировать на второй диск. Ну и третий вариант - писать какие-то костыли на скриптах.
Если знаете простое и бесплатное решение этой задачи, поделитесь. По идее, запрос то простой и понятный для неискушённого человека. Сломался диск, сделал загрузочным в биосе запасной и продолжил работу. Ещё и от всяких вирусов, шифровальщиков защита, если клон диска не смонтирован в системе. Настроенный RAID1 сразу убьёт оба диска, а тут копия останется сохранной и позволит быстро восстановить работу. Я в итоге посоветовал Hasleo и ручное создание клона.
———
ServerAdmin:
#backup #windows
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍86👎5
Я написал подробный обзор межсетевого экрана и по совместительству шлюза ИКС ФСТЭК, который можно установить на своё железо или виртуальную машину, а также приобрести в виде программно-аппаратного комплекса (ПАК) на уже собранном и настроенном железе от разработчиков. Это сертифицированный межсетевой экран для защиты корпоративных сетей, соответствующий требованиям регуляторов.
⇨ Межсетевой экран ИКС ФСТЭК - установка и настройка
С продуктом ИКС (Интернет Контроль Сервер) я знаком давно. Он появился ещё до всей движухи с импортозамещением. А началось оно, кто не помнит, ещё в 2012 году. Тогда первые законы на этот счёт пошли. То есть это осмысленный и зрелый продукт, не собранный в горячке последних лет под возникшие запросы.
Сразу говорю, что статья заказная. У меня её заказал разработчик. Но как обычно всю структуру и наполнение я написал полностью сам. Изучил продукт, установил, настроил, и как смог кратко и ёмко показал основные возможности:
◽️Настройка и управление доступом пользователей
◽️Блокировка приложений и протоколов
◽️Фильтрация HTTPS через MITM
◽️Блокировка по спискам Минюста и Госнаркоконтроля
◽️Настройка файрвола
Помимо этого у ИКС ФСТЭК есть следующие возможности:
◽️Работа с несколькими провайдерами, балансировка каналов, управление полосой пропускания.
◽️Интеграция с DLP (Data Leak Prevention) и SIEM (Security Information and Event Management) системами.
◽️Различные технологии VPN с многофакторной аутентификацией пользователей.
◽️Интеграция с FreeIPA и ALD Pro, импорт пользователей из LDAP, Active Directory.
◽️Политики доступа на основе пользователей и групп.
◽️Статистика по сетевой активности пользователей и устройств.
◽️Чёрные и белые списки адресов, IP, фраз, блокировки по Geo-IP, спискам Минюста, времени суток, URL, ключевым словам, регулярным выражениям
◽️DHCP и DNS сервер.
◽️Подробные настраиваемые отчёты по использованию интернет-ресурсов.
ИКС ФСТЭК подходит для всех субъектов критической информационной инфраструктуры (КИИ) в России. Он будет актуален образовательным учреждениями и объектам здравоохранения, промышленным предприятиям и административным учреждениям, коммерческим организациям с повышенными требованиями к безопасности.
❗️В линейке продуктов ИКС есть полнофункциональная бесплатная версия Lite на 9 пользователей, которую можно использовать, к примеру, дома, если у вас есть дети (я использовал одно время), или в качестве шлюза для виртуальных машин, если их не больше 9-ти. ИКС в том числе поддерживает разные протоколы VPN, что может быть удобно для объединения разрозненной инфраструктуры.
Вся настройка в ИКС выполняется через веб интерфейс. В консоль ходить не нужно. Интерфейс управления интуитивен и прост. Базовые вещи легко настраиваются. Немного привыкать придётся к файрволу, если раньше работали с iptables. ИКС сделан на базе FreeBSD и там под капотом ipfw. У него немного другая логика работы и построения правил. Если iptables не знаете, то наоборот будет проще, так как ipfw более логичен и интуитивен. В любом случае всё настраивается через адаптированный интерфейс в браузере.
Продукт давно на рынке. По нему можно навести справки, посмотреть отзывы, вебинары. Для него есть документация на русском языке, обучающие курсы, техническая поддержка. Я видел разные отзывы на него, в том числе и с какими-то проблемами. Но у кого их не бывает? Можно даже у меня на сайте к прошлым статьям или тут к заметкам почитать отзывы. Я ничего не удалял. Все, кто хотел, выразили своё мнение, как положительное, так и отрицательное. Только делайте поправку на то, что было это 5+ лет назад.
#икс #gateway
⇨ Межсетевой экран ИКС ФСТЭК - установка и настройка
С продуктом ИКС (Интернет Контроль Сервер) я знаком давно. Он появился ещё до всей движухи с импортозамещением. А началось оно, кто не помнит, ещё в 2012 году. Тогда первые законы на этот счёт пошли. То есть это осмысленный и зрелый продукт, не собранный в горячке последних лет под возникшие запросы.
Сразу говорю, что статья заказная. У меня её заказал разработчик. Но как обычно всю структуру и наполнение я написал полностью сам. Изучил продукт, установил, настроил, и как смог кратко и ёмко показал основные возможности:
◽️Настройка и управление доступом пользователей
◽️Блокировка приложений и протоколов
◽️Фильтрация HTTPS через MITM
◽️Блокировка по спискам Минюста и Госнаркоконтроля
◽️Настройка файрвола
Помимо этого у ИКС ФСТЭК есть следующие возможности:
◽️Работа с несколькими провайдерами, балансировка каналов, управление полосой пропускания.
◽️Интеграция с DLP (Data Leak Prevention) и SIEM (Security Information and Event Management) системами.
◽️Различные технологии VPN с многофакторной аутентификацией пользователей.
◽️Интеграция с FreeIPA и ALD Pro, импорт пользователей из LDAP, Active Directory.
◽️Политики доступа на основе пользователей и групп.
◽️Статистика по сетевой активности пользователей и устройств.
◽️Чёрные и белые списки адресов, IP, фраз, блокировки по Geo-IP, спискам Минюста, времени суток, URL, ключевым словам, регулярным выражениям
◽️DHCP и DNS сервер.
◽️Подробные настраиваемые отчёты по использованию интернет-ресурсов.
ИКС ФСТЭК подходит для всех субъектов критической информационной инфраструктуры (КИИ) в России. Он будет актуален образовательным учреждениями и объектам здравоохранения, промышленным предприятиям и административным учреждениям, коммерческим организациям с повышенными требованиями к безопасности.
❗️В линейке продуктов ИКС есть полнофункциональная бесплатная версия Lite на 9 пользователей, которую можно использовать, к примеру, дома, если у вас есть дети (я использовал одно время), или в качестве шлюза для виртуальных машин, если их не больше 9-ти. ИКС в том числе поддерживает разные протоколы VPN, что может быть удобно для объединения разрозненной инфраструктуры.
Вся настройка в ИКС выполняется через веб интерфейс. В консоль ходить не нужно. Интерфейс управления интуитивен и прост. Базовые вещи легко настраиваются. Немного привыкать придётся к файрволу, если раньше работали с iptables. ИКС сделан на базе FreeBSD и там под капотом ipfw. У него немного другая логика работы и построения правил. Если iptables не знаете, то наоборот будет проще, так как ipfw более логичен и интуитивен. В любом случае всё настраивается через адаптированный интерфейс в браузере.
Продукт давно на рынке. По нему можно навести справки, посмотреть отзывы, вебинары. Для него есть документация на русском языке, обучающие курсы, техническая поддержка. Я видел разные отзывы на него, в том числе и с какими-то проблемами. Но у кого их не бывает? Можно даже у меня на сайте к прошлым статьям или тут к заметкам почитать отзывы. Я ничего не удалял. Все, кто хотел, выразили своё мнение, как положительное, так и отрицательное. Только делайте поправку на то, что было это 5+ лет назад.
#икс #gateway
Server Admin
Межсетевой экран ИКС ФСТЭК - установка и настройка | serveradmin.ru
Установка и базовая настройка сертифицированного шлюза и сетевого экрана ИКС ФСТЭК для защиты корпоративных сетей.
1👍85👎18
Недавно была публикация про PDF принтер в Windows. В комментариях дали ссылку на шикарный бесплатный сервис BentoPDF для работы с PDF. Причём сервис этот можно развернуть у себя на сервере. Он работает через браузер.
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
📌 Кратко перечислю особенности BentoPDF:
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#docs
Сначала прохладно отнёсся к нему. Таких штук как-будто бы много. Я ранее уже встречал. Но всё же посмотрел на него повнимательнее, развернул и попробовал. Штука на самом деле полезная, хоть и не всё там заработало, как хотелось бы, но решил таки рассказать о ней. В каких-то ситуациях она может очень сильно облегчить жизнь.
▪️Как уже сказал, это полностью бесплатный открытый проект одного человека. По сути его хобби.
▪️Написан на чистом JavaScript, вся обработка на стороне клиента, то есть в его браузере, поэтому никаких особых ресурсов сервера ему не надо. По сути это просто статическая html страничка с JavaScript.
▪️Всё это упаковано в небольшой проект на Docker. Запускается просто, ресурсов особых не требует.
▪️Попробовать всю функциональность можно на сайте bentopdf.com.
Мне даже трудно перечислить всё, что может BentoPDF. По сути всё, что можно только придумать для PDF - конвертировать, извлекать картинки, сжимать, объединять, обрезать, переворачивать, шифровать, ставить подписи, добавлять картинки и т.д.
Отдельно отмечу, что можно собрать конвейер обработки из разных действий и пачкой передавать туда файлы. Для тех, кто постоянно и на потоке что-то делает с PDF, это может очень облегчить жизнь.
По сути с помощью BentoPDF можно вообще разгрузить пользовательские компьютеры от каких-то PDF редакторов и делать всё через общий сервис в браузере. Причём работать это будет во всех операционных системах.
К сожалению, там подглючивает конвертация из некоторых форматов в PDF. У меня периодически процесс подвисает и не преобразовывает. Выскакивает ошибка: "An error occurred during conversion. Error: WASM initialization timeout". Я зашёл в Issues на гихабе, посмотреть, нет ли у кого-нибудь таких же ошибок. Вообще никто не жалуется. Понял, что проблема где-то у меня.
Стал разбираться. Выяснил, что преобразование происходит с помощью WASM (WebAssembly). Эта библиотека загружается клиентом из публичных CDN в момент запуска преобразования. И судя по всему, что-то не может скачаться. Если запускать через ВПН, то нормально работает. Я немного поковырялся, выяснил, что ссылки на скрипты с обработкой зашиты в образе Docker в момент сборки. Их можно либо через
.env переназначить, либо потом в веб интерфейсе в разделе Advanced Settings, в самом низу страницы. Подробно это описано в репозитории. Если у себя будете разворачивать на постоянную работу, то просто скачайте эти скрипты себе локально и пересоберите образ со своими урлами. Всё остальное вроде нормально работает. Я пробовал добавление и удаление текста, вставку картинок, рукописных подписей и некоторые другие операции. Причём редактор удобный. Мне понравился больше моего нативного на компе.
Сервис в целом понравился. Можно всё настроить, запустить локально и не переживать за обновление, поддержку всей этой функциональности на стороне клиентов.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#docs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍171👎3
Сегодня много времени провёл в дороге и размышлял над некоторыми вещами, в том числе об ИИ. Хочу с вами поделиться некоторыми мыслями. Я сейчас пишу новую статью про систему управления инфраструктурой. Пока не буду делать на ней акцент, когда выйдет статья, сами всё прочитаете. Там ИИ интегрирован в систему и работает очень хорошо.
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
Взаимодействие с инфраструктурой выходит на новый уровень. В мониторинге, к примеру, нет шаблонов. ИИ так хорошо их пишет по месту, что нет смысла в преднастройках, на что раньше уходило много времени, в том числе у меня. Написать шаблон с визуализацией под тот же Zabbix, как минимум день повозиться, пока всё сделаешь и отладишь. А тут просто пишешь, типа напиши мне шаблон такой-то где будет то-то и то-то. И он пишет. И почти всегда с первого раза нормально получается.
Или ещё пример. ИИ связан с агентами на серверах. Пишешь ему словами, что тебе надо что-то настроить. Например, у тебя мониторинг Zabbix и надо сделать бэкап базы данных. Пишешь ему "У меня на этом сервере установлен Zabbix и вообще не настроен бэкап базы данных. Выясни, какая база данных используется и предложи скрипт для бэкапа этой базы данных, который будет храниться локально." И он начинает поэтапно накидывать команды, которые ты одобряешь и выполняешь на сервере. Шаг за шагом он решает задачу. Конкретно этот пример он решил сразу и без ошибок. Сначала выяснил тип СУБД, доступ к ней, свободное место на диске и размер базы данных. И потом итоговый скрипт.
Похожим образом решаются проблемы в триггерах. Да, конечно, за ИИ надо присматривать и просто так автоматом нельзя всё это отдавать ему на откуп. Но, как минимум, налицо ускорение и упрощение всех процессов. Для настройки и поддержки инфраструктуры будет требоваться меньше людей. На фоне нарастающего экономического кризиса неизбежно сокращение персонала в этой сфере.
И тут уже встают серьёзные вопросы - а куда двигаться дальше и чем на жизнь зарабатывать, если тебя сократят? А кого-то в любом случае сократят. Например, я знаю человека, который несколько лет зарабатывал копирайтингом. Его практически полностью заменил ИИ и работы в этой сфере больше нет. Остался может быть каждый десятый, а девять ушли в другую сферу деятельности.
Мне видится тут такая развилка: начать активно изучать ИИ, чтобы оставаться на плаву, или менять сферу деятельности, пока ещё не поздно, на ту, где ИИ тебе точно не грозит. В первом случае светит серьёзная конкуренция, которая по мере развития ИИ будет только нарастать и в итоге велик шанс остаться за бортом. Второй путь более сложен и трудозатратен, и тоже нет никаких гарантий. Начинать с нуля очень тяжело, особенно в зрелом возрасте.
В общем, в интересное время живём. Даже не знаю, чем всё это в итоге закончится, но столько айтишников, сколько есть сейчас, точно не нужно будет. И на первом месте под сокращение, как мне видится, пойдут программисты. Эксплуатация и поддержка вторым эшелоном. Их в целом меньше, и вариативность деятельности там шире, но оптимизации и сокращения тоже будут.
У вас какие мысли на этот счёт? Уже есть те, кто переучиваются на сантехника, электрика или сварщика? Только если не работали с ИИ, то не пишите, что это всё ерунда, пузырь, который скоро лопнет и т.д. Пузырь то может и лопнет, как лопался раньше, но сама технология останется с нами. И будет развиваться дальше.
#мысли
1👍130👎8
Пару недель назад прочитал полезную статью на хабре:
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
И работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
Видим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
Смотрим список сессий:
Всё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
И история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#linux #terminal
⇨ Бросил tmux и написал свой инструмент
Там автор прошёлся прям по больному. Он рассказал про разные терминальные мультиплексоры с упоминанием проблем, которые напрягают в повседневной работе. Я нигде и ни от кого не видел ранее такую подборку. Думал всегда, что это я один страдаю из-за неудобного скрола мышки в screen или глюками с буферами или интерактивными утилитами в tmux. Там в статье прям по пунктам всякие неудобства перечислены и чем они вызваны с точки зрения архитектуры приложений.
Вроде основную задачу по сохранении сессии SSH при разрыве соединения решают и screen, и tmux, но пользоваться ими неудобно. Я последние года стал пользоваться повсеместно tmux вместо screen, но всё равно из-за разных глюков делал это редко и только для долгоиграющих процедур, типа обновления, которые крайне нежелательно прерывать. Во всех остальных случаях я отключал мультиплексор и работал напрямую в консоли. А разделение сессий на одном экране реализовывал с помощью менеджера соединений, а не мультиплексора.
В итоге автор написал небольшую утилиту atch на С, которая работает идеально, если вам нужно просто сохранять сессию при разрыве соединения и потом обратно в неё подключаться. Нет никакой эмуляции терминала, как в screen или tmux. Atch ничего не парсит, не перекодирует, поэтому нет проблем со скролом мышки, пропаданием истории терминала, глюками с OSC-последовательностями.
Работает atch так, как надо, без каких-либо дополнительных настроек. Я попробовал, очень понравилось. В репозитории есть собранный бинарник, его достаточно скачать:
# curl -Lo atch.tgz https://github.com/mobydeck/atch/releases/latest/download/atch-linux-amd64.tgz# tar -xzf atch-linux-amd64.tgz atch# mv atch /usr/local/bin/Утилита совсем новая. В репозиториях дистрибутивов её, разумеется, пока нет. Очень надеюсь, что она там со временем появится, потому что она удобна и проста, решает ровно одну задачу и делает это хорошо. Всё в духе философии UNIX.
Дальше создаём сессию work:
# atch workИ работаем в ней. Если соединение разорвалось, то подключаемся заново по SSH и заходим в сессию:
# atch workВидим тут же в терминале всю историю терминала, которая была до отключения!!! Она пишется в
~/.cache/atch/ сразу же в момент вывода. И потом воспроизводится при повторном подключении к сессии. Ничего не теряется. Ты попадаешь в тот же вывод терминала, откуда тебя отключило. Это очень удобно.Смотрим список сессий:
# atch listВсё интуитивно и просто. Запоминать команды не нужно. Этого достаточно, чтобы пользоваться, для моих задач. Я после перехода из screen в tmux постоянно вспоминаю, как посмотреть список сессий.
Можно запустить любой процесс через atch и потом посмотреть консольный вывод из любого места, подключившись в созданную сессию:
# atch start deploy ./deploy.shИ история автоматом сохранится. Автор также приводит пример с AI агентами, которые работают в сессии с atch, а потом можно посмотреть, что они там делали. В принципе, записать действия в консоли можно очень разными способами (подборка разных решений этой задачи). Этот возможно и не самый удобный для этой задачи, но максимально простой.
Если много работаете в консоли, используете screen или tmux, рекомендую попробовать atch. Вам должно понравиться. Давно мне не попадались утилиты, которые бы так порадовали своей простой и удобством. Казалось бы, уже всё давно придумано, но, как видим, ещё нет.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Бросил tmux и написал свой инструмент
Десятилетия терминальных мультиплексеров, одна хроническая боль и маленькая тулза на C, которая наконец всё починила. Дисклеймер. Это адаптация статьи, которую я написал на английском для medium.com ....
2👍190👎2
В Microsoft работают настоящие специалисты по возвращению в систему одного и того же бага. Сколько лет уже наблюдается одна и та же проблема с раскладкой, а точнее с её переключением. Ещё 2 года назад делал статью, когда меня это конкретно достало:
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
⇨ Почему раскладка в Windows переключается не с первого раза? Решение.
На тот момент я вышел из ситуации сторонними программами. Отключил системное переключение и менял раскладку программой. Но когда баг исправили, перестал ими пользоваться, потому что привык переключать раскладку по Ctrl+Shift.
И вот спустя почти 2 года этот баг опять вернулся. Я сразу заметил, что переключаться стало опять не с первого раза. Тут же пошли комментарии к статье на эту тему, и к заметке в ВК. Она, судя по всему, тоже как-то в поиске выскакивает на эту тему.
Нормального решения у меня нет. Так и переключаю время от времени со второго или третьего раза. Если кто-то знает, как решить эту проблему в винде, поделитесь. Напрягает, а привыкать к другим комбинациям не хочу.
Не понимаю, как они умудряются постоянно воспроизводить этот баг? В прошлый раз он был вызван появляющимся окошком с анимацией переключения. Именно эта анимация давала тормоза. Анимацию убрали, баг пропал, переключение работало нормально. Теперь опять что-то случилось. Как показывает практика, решения от Microsoft можно ждать месяцами или годами.
#windows
👍70👎1
Я не раз между делом в заметках упоминал, что обычно не ставлю в автоматическую загрузку виртуальные машины на гипервизорах. Недавно один подписчик просил меня пояснить, на чём основана эта рекомендация и как он может убедить своё руководство в том, что лучше сделать так.
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
1️⃣ У меня была ситуация была, когда сглючила память в сервере и он постоянно перезагружался. Сервер Dell почему-то не отключил её сам, пришлось идти в ЦОДе к серверу и вынимать физически. На сервере работал гипервизор с кучей виртуальных машин. Если бы они автоматом стартовали, то там 100% что-нибудь бы умерло. Он аварийно перезагружался каждые 5-10 минут и сделал это раз 10, пока сотрудник не добрался до ЦОД и не поменял память.
2️⃣ Ещё один пример. ЦОД обесточили, была серьезная авария с электропитанием. Как это обычно бывает, резервное оборудование под реальной нагрузкой никто не проверял, так как подобные отключения бывают крайне редко, а проверять хлопотно. В итоге электричество то появлялось, то пропадало, падал генератор под нагрузкой. Оборудование несколько раз включилось и выключилось.
3️⃣ В промзонах часто отключают электричество. Иногда надолго. Его могут вернуть, а потом опять отключить через 1-2 минуты. Сталкивался с этим десятки раз, так как много работал и работаю с реальным производством. Для меня это вообще обыденность. Стартующие сервера на пустых батареях аварийно падают. Это всё приводит к проблемам. У меня, кстати, и дома, такая же история бывала не раз.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Убеждать никого не хочу, а просто поделюсь некоторыми реальными историями, которые были в моей практике. Сразу поясню, что всё это относится к небольшим инфраструктурам, где с каждым отдельным сервером работают руками. Речь не про кластеры с HA сервисами. Хотя там бы я тоже действовал так же.
В таких случаях считаю, что лучше перестраховаться и вручную всё запустить в случае аварии, нежели пускать процессы на самотёк. Во всех описанных случаях автозапуск виртуалок никак не помог бы восстановить нормальную работу. А вот организовать дополнительные проблемы - запросто. Лучше 5-10 минут подождать и всё запустить по своей команде, нежели отдать на откуп автоматическому запуску. Разумеется, если есть что-то, что должно сразу стартануть, типа шлюза, то его хочешь, не хочешь, а в автозагрузку придётся поставить. А всё остальное уже потом, когда можно будет удалённо отправить команду на запуск.
#совет
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍106👎21
Многие владельцы сайтов сталкиваются с тем, что сайт начинает тормозить, работать нестабильно и требовать всё больше технических настроек.🔄 На практике такие проблемы часто связаны с качеством хостинга.
Виртуальный хостинг Majordomo обеспечивает стабильную работу сайта и подходит для разных типов проектов: сайтов компаний, блогов, лендингов и интернет-магазинов. Поддерживает популярные CMS — WordPress, 1С-Битрикс, Joomla и другие.
Majordomo входит в топ-10 лучших хостингов России и для эффективной работы вашего бизнеса предлагает:✅ удобную панель управления;✅ автоматические бэкапы;✅ защиту от DDoS;✅ бесплатные SSL-сертификаты;✅ поддержку 24/7.
Стоимость — от 179 ₽ в месяц.
Попробовать бесплатно
Реклама, ООО «Адвлайн», ИНН 7810543400.Please open Telegram to view this post
VIEW IN TELEGRAM
👍17👎6
Домучиваю статью про Loki. Никак не соберусь и не доделаю её полностью. В процессе настройки хочется наполнить систему реальными логами в нормальном объёме, чтобы всё проверить. Я использовал для этого простую утилиту с гитхаба для генерации логов типовых форматов - flog.
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
Сгенерировали лог
Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#logs
Это одиночный бинарник на Go, с которым очень просто работать. Он поддерживает несколько форматов:
- Apache common
- Apache combined
- Apache error
- RFC3164
- RFC5424
- Common log fomat
- JSON
По сути тут 2 типовых формата - разные виды логов веб сервера и syslog, плюс json, где тоже генерируются логи веб сервера.
Для использования можно скачать бинарник в репозиотрии, либо запустить через docker:
# docker run -it --rm mingrammer/flog flog -f apache_common -n 10Вывели в консоль 10 строк стандартного лога apache, nginx и т.д. Все веб сервера чаще всего используют по умолчанию этот формат логов. Если добавить ключ
-l, то генерация логов будет идти непрерывно, пока её не остановишь.Если тестируете логи докера, то удобно запустить генерацию через докер и собирать вывод stdout. В случае какого-то отдельного веб сервера, удобнее писать логи в файл, как это обычно делает веб сервер и потом их забирать. Делается это примерно так:
# wget https://github.com/mingrammer/flog/releases/download/v0.4.4/flog_0.4.4_linux_amd64.tar.gz# tar -xzf flog_0.4.4_linux_amd64.tar.gz flog# mv flog /usr/local/bin/# flog -t log -f apache_combined -o /var/log/nginx/access.log -b 10485760/var/log/nginx/access.log is created.Сгенерировали лог
/var/log/nginx/access.log размером в 10 МБ. Теперь этот файл можно отправить в Loki. Конкретно по веб серверу хочу сделать отдельную заметку с примером дашборда.Такая вот простая утилитка, которая нужна исключительно для настройки и отладки систем сбора логов. Из-за максимальной простоты её удобно использовать для этой задачи. Не придумаю, где она ещё может быть полезна.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#logs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48👎2
Освойте UserGate и повысьте уровень защиты своей ИТ-инфраструктуры! 🚀
Мы запускаем серию практических курсов по UserGate, и это первый курс программы.
Бесплатный онлайн-курс поможет вам освоить внедрение и настройку UserGate — без лишней теории, с упором на практику.
В программе курса:
✅ Настройка сетевых зон, NAT, защищённых каналов, кластеров, фильтрации на уровне приложений и правил межсетевого экрана
✅ Интеграция с LDAP и Active Directory, фильтрация контента, системы обнаружения вторжений и обратный прокси
✅ Пошаговые видеоуроки, практические задания и итоговое тестирование
После прохождения вы получите:
⭐️ именной сертификат
📕 PDF-инструкции и чек-листы
🎁 Бонус: второй курс по настройке удалённого доступа
Пройдите курс в удобное время — запись уже доступна.
Мы запускаем серию практических курсов по UserGate, и это первый курс программы.
Бесплатный онлайн-курс поможет вам освоить внедрение и настройку UserGate — без лишней теории, с упором на практику.
В программе курса:
✅ Настройка сетевых зон, NAT, защищённых каналов, кластеров, фильтрации на уровне приложений и правил межсетевого экрана
✅ Интеграция с LDAP и Active Directory, фильтрация контента, системы обнаружения вторжений и обратный прокси
✅ Пошаговые видеоуроки, практические задания и итоговое тестирование
После прохождения вы получите:
⭐️ именной сертификат
📕 PDF-инструкции и чек-листы
🎁 Бонус: второй курс по настройке удалённого доступа
Пройдите курс в удобное время — запись уже доступна.
👎19👍15
Расскажу про один трюк в strace, про который я вроде бы ещё ни разу не писал. В нём ничего особенного нет, но в некоторых ситуациях с ним удобно. Если случайно нигде не видел подобного использования, то самому может и в голову не прийти, что так можно.
У strace и её производных (ltrace, latrace) есть ключ
Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
В выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
У вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
То есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
На выходе получили аккуратный обработанный список директорий и файлов в
В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
Тут обязательно перенаправление
Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
Запускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
Просто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:📱 Telegram | 🌐 Сайт | 📲 MAX 😩
#bash #linux #terminal
У strace и её производных (ltrace, latrace) есть ключ
-o, через который настраивается вывод результата в файл. При этом вместо файла может выступать pipe, а не обычный файл. Покажу сразу на примере. Тут будет видно явное удобство такого подхода.Strace много всего умеет и обычно используется при дебаге. Я про него часто упоминал в различных заметках в основном в контексте анализа дисковой активности процессов. Например, какие файлы читает процесс, в какие пишет. Вот сразу реальный и полезный пример с Angie/Nginx.
Если у вас навороченная конфигурация, где куча всего подключается из разных директорий, что бывает часто (привет настройкам Nginx в Bitrixenv), то хочется быстро посмотреть, а что реально из какой-то конкретной директории подключается в момент запуска веб сервера. Проще всего это сделать, анализируя активность процесса во время выполнения команды
nginx -t. В этот момент конфигурация проверяется на ошибки, соответственно, она должна быть прочитана.Можно просто посмотреть все системные вызовы openat, которые отвечают за чтение:
# strace -zf -e trace=openat nginx -tВ выводе будет много всего лишнего - библиотеки, логи, системные файлы и т.д. Можно попробовать грепнуть:
# strace -zf -e trace=openat nginx -t | grep /etc/nginxУ вас, кстати, ничего не получится. Это особенность nginx, про которую просто надо знать. Вывод этой команды улетает не в стандартный поток stdout, а в stderr. Не знаю, почему так, но в Nginx это исторически сложилось. А grep не грепает stderr. Вам нужно будет как минимум сделать вот так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep /etc/nginxТо есть направить поток stderr в stdout. Тогда он грепнется. Но вывод всё равно будет не очень красивый и наглядный. И тут можно использовать вот такой трюк:
# strace -o "| grep -Eo '/etc/nginx/[^\"]+'" -zf -e trace=openat nginx -t/etc/nginx/nginx.conf/etc/nginx/modules-enabled/etc/nginx/mime.types/etc/nginx/conf.d/etc/nginx/sites-enabled/etc/nginx/sites-enabled/defaultНа выходе получили аккуратный обработанный список директорий и файлов в
/etc/nginx, которые веб сервер прочитал. Смысл того, что мы сделали в том, что через ключ -o вывод отправили не в файл, а в пайп, где он сразу же был обработан тем же grep, который вывел только то, что было между " ", а это как раз путь в файловой системе. Вся остальная информация не нужна и только мешает.В данном случае уже не имеет значение, куда и как пишет nginx. За этим не нужно следить. Аналогичная команда с обычным грепом выглядела бы так:
# strace -zf -e trace=openat nginx -t 2>&1 | grep -Eo '/etc/nginx/[^\"]+'Тут обязательно перенаправление
2>&1. Подобная обработка вывода через pipe актуальна для анализа каких-то интерактивных программ. Например,
iftop:# strace -o "| grep -Eo '/[^\"]+'" -zf -e trace=openat iftopЗапускаем и сразу закрываем iftop. В консоли видим список файлов, которые она прочитала. В данном случае команда:
# strace -zf -e trace=openat iftop | grep -Eo '/[^\"]+'уже не сработает. До grep дело не дойдёт, так как сначала вывалится портянка strace, а потом запустится iftop. В первом случае мы сразу же обрабатываем вывод в strace, выводим его в консоль и потом запускается iftop.
Можно посмотреть, где живёт конфигурация mc, запущенная под рутом:
# strace -o "| grep -Eo '/root[^\"]+'" -zf -e trace=openat mc/root/.config/mc/ini/root/.bash_historyПросто и наглядно. Удобно смотреть, кто, что читает в момент запуска.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
———
ServerAdmin:
#bash #linux #terminal
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍105👎1
Это практическая конференция для тех, кто строит и поддерживает надежные облака, внедряет ИИ и обеспечивает безопасность инфраструктуры. Реальные кейсы, инструменты и подходы — без воды и маркетинга.
Реклама. АО "К2 Интеграция". ИНН 7701829110
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8👎3