Дети в Интернете. Все, что нужно знать о контентной фильтрации в образовательных учреждениях.
🗓 30 сентября в 14:00 (мск) разработчики шлюза Интернет Контроль Сервер проведут вебинар на тему доступа в интернет в учебных заведениях, что подразумевает четкое выполнение требований законодательства в области защиты детей от опасной информации.
На вебинаре вам расскажут, как с помощью контент-фильтра Интернет Контроль Сервер и дополнительных модулей Kaspersky можно обеспечить безопасный доступ в сеть и беспрепятственно пройти прокурорскую проверку.
Вы узнаете о преимуществах использования контент-фильтра перед фильтрацией от провайдеров, об отличиях ИКС от простых модулей фильтрации, а также о дополнительных категориях трафика Kaspersky Web Filtering.
👉 Регистрация на бесплатный вебинар.
У меня на сайте написан цикл статей по этому шлюзу, где я разбираю установку и настройку продукта.
Вы можете скачать и протестировать полнофункциональную версию шлюза в течении 35 дней, либо воспользоваться бесплатной версией.
#реклама #бесплатно #текст_мой #икс
🗓 30 сентября в 14:00 (мск) разработчики шлюза Интернет Контроль Сервер проведут вебинар на тему доступа в интернет в учебных заведениях, что подразумевает четкое выполнение требований законодательства в области защиты детей от опасной информации.
На вебинаре вам расскажут, как с помощью контент-фильтра Интернет Контроль Сервер и дополнительных модулей Kaspersky можно обеспечить безопасный доступ в сеть и беспрепятственно пройти прокурорскую проверку.
Вы узнаете о преимуществах использования контент-фильтра перед фильтрацией от провайдеров, об отличиях ИКС от простых модулей фильтрации, а также о дополнительных категориях трафика Kaspersky Web Filtering.
👉 Регистрация на бесплатный вебинар.
У меня на сайте написан цикл статей по этому шлюзу, где я разбираю установку и настройку продукта.
Вы можете скачать и протестировать полнофункциональную версию шлюза в течении 35 дней, либо воспользоваться бесплатной версией.
#реклама #бесплатно #текст_мой #икс
ZeroViewer - бесплатная программа для удаленной поддержки пользователей. Условно можно назвать self-hosted аналогом программ типа TeamViewer, Anydesk и т.д. В качестве сервера, через который устанавливается соединение, может выступать любой ssh server. Подключения запускаются с помощью kitty (виндовый ssh клиент). Для отображения экрана удаленной машины используется реализация vnc на базе TightVNC.
Клиент доступен только для ОС Windows. Все настройки хранит в обычном ini файле, что упрощает переносимость. Нужно понимать, что соединения по ssh не очень быстрые. Плюс протокол vnc тоже очень требователен к скорости канала. Так что получить сопоставимое качество картинки с tv или anydesk не получится. Зато всё полностью под твоим контролем, плюс надежное шифрование из коробки на базе ssh. Полностью бесплатных аналогов я даже и не знаю.
Сайт программы: https://null.la/
Обсуждение:
https://4pda.to/forum/index.php?showtopic=973515
http://forum.ru-board.com/topic.cgi?forum=5&topic=49838
Программа бесплатная, но исходников в открытом доступе нет, так что использовать на свой страх и риск.
#remote #selfhosted
Клиент доступен только для ОС Windows. Все настройки хранит в обычном ini файле, что упрощает переносимость. Нужно понимать, что соединения по ssh не очень быстрые. Плюс протокол vnc тоже очень требователен к скорости канала. Так что получить сопоставимое качество картинки с tv или anydesk не получится. Зато всё полностью под твоим контролем, плюс надежное шифрование из коробки на базе ssh. Полностью бесплатных аналогов я даже и не знаю.
Сайт программы: https://null.la/
Обсуждение:
https://4pda.to/forum/index.php?showtopic=973515
http://forum.ru-board.com/topic.cgi?forum=5&topic=49838
Программа бесплатная, но исходников в открытом доступе нет, так что использовать на свой страх и риск.
#remote #selfhosted
В системах Unix есть полезная утилита, которая возвращает тип введённой в оболочку команды. Речь пойдёт об утилите type. Она может быть как частью оболочки, так и отдельным бинарником. Проверить это можно с её же помощью.
В данном случае утилита type является встроенной в оболочку bash. С её помощью вы можете понять, что именно будет исполнено, если вы введёте ту или иную команду. Например:
Если просто ввести echo в терминал, будет выполнена встроенная в оболочку утилита. Но при этом есть и бинарник. Проверить, где он, можно с помощью добавления ключа P. Тогда type будет проверять только бинарники в PATH.
В скриптах, или консоли, вы можете использовать путь к бинарнику echo. Он отличается от того, что встроено в консоль. Убедиться в этом очень просто. Введите в консоли две команды и сравните результат. Подумайте, почему он разный.
Type маленькая утилита, которая только выводит информацию о введённой команде в консоль. С ее помощью можно определить, что будет выполнено: alias, function, builtin, file или keyword. Если добавить ключ a, то будут выданы все варианты команды:
#bash
# type type
type is a shell builtin
В данном случае утилита type является встроенной в оболочку bash. С её помощью вы можете понять, что именно будет исполнено, если вы введёте ту или иную команду. Например:
# type echo
echo is a shell builtin
Если просто ввести echo в терминал, будет выполнена встроенная в оболочку утилита. Но при этом есть и бинарник. Проверить, где он, можно с помощью добавления ключа P. Тогда type будет проверять только бинарники в PATH.
# type -P echo
/usr/bin/echo
В скриптах, или консоли, вы можете использовать путь к бинарнику echo. Он отличается от того, что встроено в консоль. Убедиться в этом очень просто. Введите в консоли две команды и сравните результат. Подумайте, почему он разный.
# echo --help
# /usr/bin/echo --help
Type маленькая утилита, которая только выводит информацию о введённой команде в консоль. С ее помощью можно определить, что будет выполнено: alias, function, builtin, file или keyword. Если добавить ключ a, то будут выданы все варианты команды:
# type -a ls
ls is aliased to `ls --color=auto'
ls is /usr/bin/ls
#bash
Делюсь с вами простым и удобным скриптом для автоматического бэкапа mysql баз с помощью mysqldump - AutoMySQLBackup. Это обычный bash скрипт, который упрощает рутинные задачи по бэкапу, предлагая встроенный функционал.
https://github.com/sixhop/AutoMySQLBackup
Основные возможности скрипта:
▪ Сжимает бэкапы баз и раскладывает их по отдельным директориям.
▪ Поддерживает многопоточные архиваторы типа pigz, позволяет управлять количеством потоков.
▪ Автоматически ротирует дневные, недельные, месячные архивы по заданным параметрам.
▪ Позволяет использовать ключи mysqldump.
▪ Умеет хранить настройки в отдельном конфигурационном файле.
▪ Можно гибко управлять набором баз для бэкапа, вручную указывая их или управляя списком с помощью шаблонов.
▪ Умеет отправлять результаты своей работы по почте.
▪ Может шифровать дампы указанным ключом.
▪ Запуск своего скрипта до или после выполнения бэкапа.
Вот простой конфиг для ежедневного бэкапа баз mysql за исключением performance_schema и information_schema. Ежедневные бэкапы хранятся 7 дней, недельные 31 день, месячные год.
После работы сккрипта в директории /mnt/backup будет создана структура директорий:
◽ daily - ежедневные бэкапы, где каждая база будет в своей директории;
◽ fullschema - только структура всех баз данных;
◽ latest - если указать соответствующую настройку, то в этой директории всегда будут лежать бэкапы от последнего запуска. Удобно отсюда их забирать куда-то в другое место сразу после окончания бэкапа.
◽ monthly - месячные бэкапы;
◽ status - список баз каждого запущенного бэкапа;
◽ tmp - для временных файлов;
◽ weekly - недельные бэкапы;
Рекомендую так же прочитать мою заметку про выбор параметров для mysqldump. Там есть важные моменты, которые влияют на успешность создания дампа.
#bash #mysql #backup
https://github.com/sixhop/AutoMySQLBackup
Основные возможности скрипта:
▪ Сжимает бэкапы баз и раскладывает их по отдельным директориям.
▪ Поддерживает многопоточные архиваторы типа pigz, позволяет управлять количеством потоков.
▪ Автоматически ротирует дневные, недельные, месячные архивы по заданным параметрам.
▪ Позволяет использовать ключи mysqldump.
▪ Умеет хранить настройки в отдельном конфигурационном файле.
▪ Можно гибко управлять набором баз для бэкапа, вручную указывая их или управляя списком с помощью шаблонов.
▪ Умеет отправлять результаты своей работы по почте.
▪ Может шифровать дампы указанным ключом.
▪ Запуск своего скрипта до или после выполнения бэкапа.
Вот простой конфиг для ежедневного бэкапа баз mysql за исключением performance_schema и information_schema. Ежедневные бэкапы хранятся 7 дней, недельные 31 день, месячные год.
CONFIG_mysql_dump_username='root'
CONFIG_mysql_dump_password='parol'
CONFIG_mysql_dump_host='localhost'
CONFIG_backup_dir='/mnt/backup'
CONFIG_multicore='no'
CONFIG_db_names=()
CONFIG_db_exclude=( 'performance_schema' 'information_schema' )
CONFIG_db_exclude_pattern=()
CONFIG_do_monthly='01'
CONFIG_do_weekly='7'
CONFIG_rotation_daily=6
CONFIG_rotation_weekly=31
CONFIG_rotation_monthly=360
После работы сккрипта в директории /mnt/backup будет создана структура директорий:
◽ daily - ежедневные бэкапы, где каждая база будет в своей директории;
◽ fullschema - только структура всех баз данных;
◽ latest - если указать соответствующую настройку, то в этой директории всегда будут лежать бэкапы от последнего запуска. Удобно отсюда их забирать куда-то в другое место сразу после окончания бэкапа.
◽ monthly - месячные бэкапы;
◽ status - список баз каждого запущенного бэкапа;
◽ tmp - для временных файлов;
◽ weekly - недельные бэкапы;
Рекомендую так же прочитать мою заметку про выбор параметров для mysqldump. Там есть важные моменты, которые влияют на успешность создания дампа.
#bash #mysql #backup
Вы какой firewall в Linux используете? Iptables или уже перешли на nftables? Я по прежнему первый. Уже давно запланировал изучить nftables и перейти на него, но всё никак. Причина тут проста - я хорошо знаю iptables и он меня полностью устраивает. Ничего нового, перейдя на nftables, для себя не получу. Только все конфиги и правила переписывать придётся.
Для iptables есть интересный проект по графическому отображению правил - iptables-vis - https://github.com/Nudin/iptable_vis. Я его потестировал. Работает неплохо. Можно где-то использовать, например в документации для людей, не знакомых с синтаксисом iptables. Картинки вполне наглядные получаются.
Для рисования схем используется blockdiag, который написан на python. Проще всего поставить через pip:
Потом клонируем себе репозиторий и рисуем схему:
Забирайте файл iptables.svg и смотрите любым просмотрщиком этого формата. Я в обычном браузере открыл.
#iptables
Для iptables есть интересный проект по графическому отображению правил - iptables-vis - https://github.com/Nudin/iptable_vis. Я его потестировал. Работает неплохо. Можно где-то использовать, например в документации для людей, не знакомых с синтаксисом iptables. Картинки вполне наглядные получаются.
Для рисования схем используется blockdiag, который написан на python. Проще всего поставить через pip:
# dnf install python3-pip
# apt install python3-pip
# pip install blockdiag
Потом клонируем себе репозиторий и рисуем схему:
# git clone https://github.com/Nudin/iptable_vis
# cd iptable_vis
# iptables -v -L > iptables.txt
# awk -f iptables-vis.awk < iptables.txt > iptables.dia
# blockdiag iptables.dia -T svg -o iptables.svg
Забирайте файл iptables.svg и смотрите любым просмотрщиком этого формата. Я в обычном браузере открыл.
#iptables
Реферальная программа облачного провайдера Cloud4Y
Зарабатывайте 10% от суммы контракта с привлеченного по вашей ссылке клиента.
Кому подходит программа:
🔹ИТ-специалистам
🔹Специалистам по информационной безопасности
🔹Специалистам по арбитражу трафика
🔹Любым компаниям и физическим лицам, имеющим свою площадку и аудиторию
Преимущества:
🔸Никаких обязательств перед клиентами
🔸Юридическая защита через договор
🔸Рост дохода при росте клиента
🔸Безупречная репутация компании на облачном рынке
🔸Прозрачная система выплат любыми удобными способами
Воспользуйтесь калькулятором на сайте, чтобы рассчитать ваш доход.
Узнать подробнее.
#реклама
Зарабатывайте 10% от суммы контракта с привлеченного по вашей ссылке клиента.
Кому подходит программа:
🔹ИТ-специалистам
🔹Специалистам по информационной безопасности
🔹Специалистам по арбитражу трафика
🔹Любым компаниям и физическим лицам, имеющим свою площадку и аудиторию
Преимущества:
🔸Никаких обязательств перед клиентами
🔸Юридическая защита через договор
🔸Рост дохода при росте клиента
🔸Безупречная репутация компании на облачном рынке
🔸Прозрачная система выплат любыми удобными способами
Воспользуйтесь калькулятором на сайте, чтобы рассчитать ваш доход.
Узнать подробнее.
#реклама
Бесплатный антивирус для сайтов - https://virusdie.com. Сразу говорю, что это не реклама, а мой опыт использования. Приходится делать такие пометки, так как регулярно вижу комментарии о том, что я что-то рекламирую. Абсолютно вся оплаченная реклама на канале помечается соответствующим тэгом. Если его нет, значит это моя личная инициатива написать о том или ином продукте.
Сервис virusdie.com позволяет бесплатно раз в месяц проверять на наличие вирусов один сайт. Для этого надо зарегистрироваться и подтвердить своё владение сайтом. Делается это с помощью загрузки проверочного файла в корень сайта, который по сути является вебшелл. Имейте это ввиду. Сканирование сайта происходит не снаружи, а внутри, через этот php файл. После проверки вы получите отчёт на почту. У компании одно время был блог на хабре.
Вообще, тема антивирусов для сайтов как-то совсем не развита. Раньше был неплохой антивирус revisium, который можно было купить сразу с установкой и регулярной поддержкой, обслуживанием. Но в какой-то момент их купили, сделали ребрендинг и русскоязычного сервиса вообще не осталось.
Был еще бесплатный aibolit от той же компании Revisium. Его постигла та же участь. Компания Revisium вошла в группу CloudLinux. Антивирус revisium получил название ImunifyAV. Продукты Revisium стали частью системы комплексной безопасности серверов Imunify360, AI-Bolit в Imunify360 стал Malware Scanner. Бесплатной версии больше нет. Компания CloudLinux, как я понял, ориентирована на англоязычный рынок. Простых способов оплатить российскому юрлицу я не нашел, как и просто телефона тех. поддержки на русском языке.
Есть еще Manul от Яндекса, но не развивается уже давно. Да и на старте был не очень.
Лично я антивирусы для сайтов заменяю подробными схемами бэкапов, когда есть возможность откатиться или восстановить изменённые файлы с достаточной глубиной архивов. Непосредственно исходники стараюсь хранить как можно дольше, в идеале вообще не удаляю.
#website #антивирус #security
Сервис virusdie.com позволяет бесплатно раз в месяц проверять на наличие вирусов один сайт. Для этого надо зарегистрироваться и подтвердить своё владение сайтом. Делается это с помощью загрузки проверочного файла в корень сайта, который по сути является вебшелл. Имейте это ввиду. Сканирование сайта происходит не снаружи, а внутри, через этот php файл. После проверки вы получите отчёт на почту. У компании одно время был блог на хабре.
Вообще, тема антивирусов для сайтов как-то совсем не развита. Раньше был неплохой антивирус revisium, который можно было купить сразу с установкой и регулярной поддержкой, обслуживанием. Но в какой-то момент их купили, сделали ребрендинг и русскоязычного сервиса вообще не осталось.
Был еще бесплатный aibolit от той же компании Revisium. Его постигла та же участь. Компания Revisium вошла в группу CloudLinux. Антивирус revisium получил название ImunifyAV. Продукты Revisium стали частью системы комплексной безопасности серверов Imunify360, AI-Bolit в Imunify360 стал Malware Scanner. Бесплатной версии больше нет. Компания CloudLinux, как я понял, ориентирована на англоязычный рынок. Простых способов оплатить российскому юрлицу я не нашел, как и просто телефона тех. поддержки на русском языке.
Есть еще Manul от Яндекса, но не развивается уже давно. Да и на старте был не очень.
Лично я антивирусы для сайтов заменяю подробными схемами бэкапов, когда есть возможность откатиться или восстановить изменённые файлы с достаточной глубиной архивов. Непосредственно исходники стараюсь хранить как можно дольше, в идеале вообще не удаляю.
#website #антивирус #security
Небольшая обучающая задача. Кто-то знает, почему следующая команда, запущенная в терминале Linux от обычного пользователя, не будет выполнена:
Команда запускается от обычного пользователя, далее вводится пароль для повышения привилегий через sudo. По идее, мы должны заменить содержимое файла адресом 192.168.0.1, но этого не произойдёт. Получите ошибку:
Но при этом ту же команду sudo su ты можешь успешно выполнить и стать рутом.
#загадка #bash #terminal
sudo echo "nameserver 192.168.0.1" > /etc/resolv.conf
Команда запускается от обычного пользователя, далее вводится пароль для повышения привилегий через sudo. По идее, мы должны заменить содержимое файла адресом 192.168.0.1, но этого не произойдёт. Получите ошибку:
-bash: /etc/resolv.conf: Permission denied
Но при этом ту же команду sudo su ты можешь успешно выполнить и стать рутом.
#загадка #bash #terminal
В прошлую пятницу было развлекательное видео с человеком по имени Joma. Я посмотрел повнимательнее его канал. Там много всего интересного. Судя по всему он не только хороший инженер, но и талантливый человек. Видео очень качественно сделаны, как технически, так и по актерской игре, смыслам.
Хочу поделиться с вами видео, где он описывает свою технику. Там есть на что посмотреть. Обратил внимание я, как и многие, в первую очередь на его мониторы. Они реально необычные, особенно основной. Он рассказал, зачем и почему у него именно такой набор. Условно они делятся на 5 стандартных рабочих зон - три снизу и две сверху.
Поделюсь своим мнением на этот счёт. Лично я большую часть своего времени за компьютером провожу за одним монитором full hd, хотя дома оборудовал рабочее место с тремя. За собой заметил, что информация на вспомогательных мониторах мне мешает. Исключение - когда реально надо в режиме реального времени за чем-то наблюдать и параллельно что-то делать. Но это бывает редко.
В остальное время дополнительные мониторы отключаю. Мне удобнее переключаться между задачами в рамках одного экрана. Это позволяет лучше фокусироваться на задаче и не отвлекаться. А вы что думаете по этому поводу? Сколько мониторов используете в повседневной работе?
https://www.youtube.com/watch?v=0oBi8OmjLIg
#видео
Хочу поделиться с вами видео, где он описывает свою технику. Там есть на что посмотреть. Обратил внимание я, как и многие, в первую очередь на его мониторы. Они реально необычные, особенно основной. Он рассказал, зачем и почему у него именно такой набор. Условно они делятся на 5 стандартных рабочих зон - три снизу и две сверху.
Поделюсь своим мнением на этот счёт. Лично я большую часть своего времени за компьютером провожу за одним монитором full hd, хотя дома оборудовал рабочее место с тремя. За собой заметил, что информация на вспомогательных мониторах мне мешает. Исключение - когда реально надо в режиме реального времени за чем-то наблюдать и параллельно что-то делать. Но это бывает редко.
В остальное время дополнительные мониторы отключаю. Мне удобнее переключаться между задачами в рамках одного экрана. Это позволяет лучше фокусироваться на задаче и не отвлекаться. А вы что думаете по этому поводу? Сколько мониторов используете в повседневной работе?
https://www.youtube.com/watch?v=0oBi8OmjLIg
#видео
YouTube
My Ultimate Work From Home Desk Setup for Productivity
📱 SOCIAL MEDIA
▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
https://www.instagram.com/jomakaze/
https://twitter.com/jomakaze
https://www.facebook.com/jomakaze
► Featured Gear in this video:
Less Big Ass Monitor: LG 34WN750 https://bit.ly/3dloM9i
Big Ass Monitor: LG WL95C…
▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
https://www.instagram.com/jomakaze/
https://twitter.com/jomakaze
https://www.facebook.com/jomakaze
► Featured Gear in this video:
Less Big Ass Monitor: LG 34WN750 https://bit.ly/3dloM9i
Big Ass Monitor: LG WL95C…
Очередная красивая рассылка от Mikrotik пришла в формате PDF. Уже писал, что нравится их newsletter, качественно сделан.
Интересное (на мой взгляд) оттуда:
▪ Вышел новый роутер CCR2004-16G-2S+ (описание, видеообзор), отличительной особенностью которого является максимальная производительность одного ядра. Всё, что не параллелится, на нём будет работать максимально быстро.
▪ Новая бюджетная точка доступа cAP XL ac (описание, видеообзор) для крепления к потолку. Похожа на датчик дыма.
▪ Добавлена поддержка Zerotier в RouterOS v7!!!
▪ Нашумевший в последнее время ботнет MĒRIS использует уязвимость 2018 года, которая давно закрыта. Новых проблем с безопасностью в Микротиках не наблюдается.
▪ Очень основательный и подробный видеоразбор функции Switching в устройствах Mikrotik.
▪ Легендарный крейсер Аврора снабдили интернетом с помощью устройств Mikrotik.
Загрузить NEWSLETTER SEPTEMBER 2021 (#102)
#mikrotik
Интересное (на мой взгляд) оттуда:
▪ Вышел новый роутер CCR2004-16G-2S+ (описание, видеообзор), отличительной особенностью которого является максимальная производительность одного ядра. Всё, что не параллелится, на нём будет работать максимально быстро.
▪ Новая бюджетная точка доступа cAP XL ac (описание, видеообзор) для крепления к потолку. Похожа на датчик дыма.
▪ Добавлена поддержка Zerotier в RouterOS v7!!!
▪ Нашумевший в последнее время ботнет MĒRIS использует уязвимость 2018 года, которая давно закрыта. Новых проблем с безопасностью в Микротиках не наблюдается.
▪ Очень основательный и подробный видеоразбор функции Switching в устройствах Mikrotik.
▪ Легендарный крейсер Аврора снабдили интернетом с помощью устройств Mikrotik.
Загрузить NEWSLETTER SEPTEMBER 2021 (#102)
#mikrotik
Одна из программ командной строки Linux, которую часто приходится использовать - find. При этом у неё не очень простой синтаксис. Я лично постоянно его забываю, поэтому всегда использую шпаргалку с наиболее часто используемыми конструкциями.
Существует утилита fd (https://github.com/sharkdp/fd), которая упрощает использование поиска через консоль. Она есть под все популярные системы, даже windows. В репе перечислены все способы установки, а также ссылки на готовые пакеты. Бинарник после установки будет называться fdfind, так как в некоторых системах имя fd уже занято. Чтобы использовать короткое обозначение придётся либо алиас, либо символьную ссылку сделать.
Основные особенности утилиты:
◽ интуитивный синтаксис и дефолтные значения
◽ быстрый параллельный поиск
◽ возможность выполнить внешнюю команду не с каждым результатом поиска, а отправить весь результат, как аргумент (это может существенно ускорить удаление огромного кол-ва файлов, но это не точно 😁)
◽ расцветка вывода
Примеры использования.
Поиск файла в текущей директории:
Поиск файла в конкретной директории. По умолчанию он будет рекурсивный. Для поиска по всему серверу можно использовать корень.
Поиск файлов с определённым расширением:
Найти все архивы и распаковать их:
Найти файлы и удалить одной командой:
Еще больше примеров разобраны в описании репозитория. Для простого поиска этой утилитой реально удобнее пользоваться, чем стандартным find. Более сложные конструкции я не тестировал. Они обычно в скриптах используются, а там уже не критично, где один раз собрать команду.
#terminal #утилита
Существует утилита fd (https://github.com/sharkdp/fd), которая упрощает использование поиска через консоль. Она есть под все популярные системы, даже windows. В репе перечислены все способы установки, а также ссылки на готовые пакеты. Бинарник после установки будет называться fdfind, так как в некоторых системах имя fd уже занято. Чтобы использовать короткое обозначение придётся либо алиас, либо символьную ссылку сделать.
Основные особенности утилиты:
◽ интуитивный синтаксис и дефолтные значения
◽ быстрый параллельный поиск
◽ возможность выполнить внешнюю команду не с каждым результатом поиска, а отправить весь результат, как аргумент (это может существенно ускорить удаление огромного кол-ва файлов, но это не точно 😁)
◽ расцветка вывода
Примеры использования.
Поиск файла в текущей директории:
fdfind file
Поиск файла в конкретной директории. По умолчанию он будет рекурсивный. Для поиска по всему серверу можно использовать корень.
fdfind file /var
fdfind file /
Поиск файлов с определённым расширением:
fdfind -e php
Найти все архивы и распаковать их:
fdfind -e zip -x unzip
Найти файлы и удалить одной командой:
fdfind -e log -X rm
Еще больше примеров разобраны в описании репозитория. Для простого поиска этой утилитой реально удобнее пользоваться, чем стандартным find. Более сложные конструкции я не тестировал. Они обычно в скриптах используются, а там уже не критично, где один раз собрать команду.
#terminal #утилита
Игра Human Resource Machine про то, как программировать юзеров. Кто, как не сисадмины, могут это сделать наиболее эффективно. Вам нужно будет взять контроль над офисными сотрудниками и запрограммировать их на решение различных задач.
https://store.steampowered.com/app/375820/Human_Resource_Machine/
https://www.youtube.com/watch?v=4RYQ_1XSJgc (интересный обзор)
В игре отличный русский язык. С учётом того, что придётся решать головоломки, это сильно упрощает задачу. Много хороших комментариев, обзоров, видео на youtube. Судя по всему, игра реально интересная.
Не волнуйтесь, если никогда до этого не имели дела с программированием - это всё равно что решать головоломки. Если убрать все нолики, единицы и страшные фигурные скобки, то программирование окажется простым, логичным, прекрасным, весёлым и доступным для понимания каждому! Возможно, Вы уже эксперт в программировании? В таком случае мы создали дополнительные испытания специально для Вас!
Немного интересных отзывов:
Развивает мозги, Это Головоломка основана на Алгоритмах, следовательно, она включает в себя Информатику, Пригодится тем кто изучает Wiremod (Garry's Mod). А вы можете сделать так, что бы вы Умножили 2 разных числа, с помощью Сложения? Или поделить с помощью вычитания? Если нет - то бегом покупать!
По началу думал, что игра будет не очень. Но не ожидал что так классно можно было совместить игру и программирование. 10 из 10.
Я в IT хочу войти. Отличная игра для тех кто хочет научиться программировать. Мы мелкий сотрудник огромной компании, и нам ставят задачи, если мы их выполняем то мы продвигаемся по карьерной лестнице, а если нет - то нет.
Симмулятор ассемблера, который маскируется под игру =) Всем любителям головоломок советую - да, эта игра придется по нраву не только программистам)
#игра
https://store.steampowered.com/app/375820/Human_Resource_Machine/
https://www.youtube.com/watch?v=4RYQ_1XSJgc (интересный обзор)
В игре отличный русский язык. С учётом того, что придётся решать головоломки, это сильно упрощает задачу. Много хороших комментариев, обзоров, видео на youtube. Судя по всему, игра реально интересная.
Не волнуйтесь, если никогда до этого не имели дела с программированием - это всё равно что решать головоломки. Если убрать все нолики, единицы и страшные фигурные скобки, то программирование окажется простым, логичным, прекрасным, весёлым и доступным для понимания каждому! Возможно, Вы уже эксперт в программировании? В таком случае мы создали дополнительные испытания специально для Вас!
Немного интересных отзывов:
Развивает мозги, Это Головоломка основана на Алгоритмах, следовательно, она включает в себя Информатику, Пригодится тем кто изучает Wiremod (Garry's Mod). А вы можете сделать так, что бы вы Умножили 2 разных числа, с помощью Сложения? Или поделить с помощью вычитания? Если нет - то бегом покупать!
По началу думал, что игра будет не очень. Но не ожидал что так классно можно было совместить игру и программирование. 10 из 10.
Я в IT хочу войти. Отличная игра для тех кто хочет научиться программировать. Мы мелкий сотрудник огромной компании, и нам ставят задачи, если мы их выполняем то мы продвигаемся по карьерной лестнице, а если нет - то нет.
Симмулятор ассемблера, который маскируется под игру =) Всем любителям головоломок советую - да, эта игра придется по нраву не только программистам)
#игра
На днях в блоге Zabbix появилась новая статья - Zabbix frontend as a control panel for your devices. В статье на конкретном примере показано, как с помощью Zabbix сделать интерактивную панель управления. Можно заранее создать какие-то скрипты и прямо через веб панель на хостах их исполнять.
Я обратил внимание на эту заметку, потому что не знал и не обращал внимание на такую возможность. Я частенько привязывал скрипты к каким-то событиям и запускал их при срабатывании триггера. Например, я мониторю в астериске количество channels в состоянии INVITE. Иногда приходит спам с какого-то ip инвайтами. В security log об этом нет никаких записей, так что по записям оттуда нарушителя не вычислить. Вместо этого я при превышении порога таких каналов, запускаю через триггер на заббиксе скрипт, который выводит список подключений, смотрит, от кого инвайтов больше 3-4 и банит этот ip адрес.
А в статье предлагается просто составить набор скриптов, которые по желанию в ручном режиме можно запустить через веб интерфейс вообще без привязки к событиям. Я не обращал внимание и не знал, что есть такая возможность. Возможно ее и не было, а появилась недавно. Можно банально скрипт на reboot добавить и прямо через zabbix перезапускать сервера, или ставить обновления. Только надо не забывать про права доступа и всё это очень аккуратно делать.
#zabbix
Я обратил внимание на эту заметку, потому что не знал и не обращал внимание на такую возможность. Я частенько привязывал скрипты к каким-то событиям и запускал их при срабатывании триггера. Например, я мониторю в астериске количество channels в состоянии INVITE. Иногда приходит спам с какого-то ip инвайтами. В security log об этом нет никаких записей, так что по записям оттуда нарушителя не вычислить. Вместо этого я при превышении порога таких каналов, запускаю через триггер на заббиксе скрипт, который выводит список подключений, смотрит, от кого инвайтов больше 3-4 и банит этот ip адрес.
А в статье предлагается просто составить набор скриптов, которые по желанию в ручном режиме можно запустить через веб интерфейс вообще без привязки к событиям. Я не обращал внимание и не знал, что есть такая возможность. Возможно ее и не было, а появилась недавно. Можно банально скрипт на reboot добавить и прямо через zabbix перезапускать сервера, или ставить обновления. Только надо не забывать про права доступа и всё это очень аккуратно делать.
#zabbix
Узнал вчера про существование проекта для предобработки текста Tremor. Продукт нишевый и нужен только в определенных ситуациях. Это аналог Logstash, который входит в состав ELK. Я Logstash достаточно часто использую. В целом, привык к нему и к его языку парсинга в виде grok фильтров. Значительный минус Logstash - он очень требователен к ресурсам. Такое тяжелое Java приложение. Первого запуска достаточно, чтобы понять, какой он тормозной. Запускается секунд 5-7 даже без нагрузки.
Для тех, кто совсем не понимает, о чём идёт речь, кратко поясню. С помощью подобных инструментов можно брать исходные логи любого формата и приводить их к тому виду, какой вам нужен. Например, с помощью Logstash и его grok фильтров парсится лог веб сервера. Из строк вычленяются ip адреса, урлы, даты и т.д. Все эти данные конвертируются из строковых значений в свои форматы - число, ip адрес, дата и т.д. Далее эти распарсенные и сконвертированные данные можно использовать в построении графиков, отчётах, можно делать агрегации и т.д.
Tremor якобы более легкий и удобный инструмент. У него свой скриптовый язык tremor-script, что лично меня смущает. Хотя в документации говорится, что он более удобен и эффективен. Grok - универсальный фильтр для парсинга, используется много где, а не только в Logstash. А учить новый синтаксис только под один продукт как-то лениво.
Написал эту заметку, чтобы поделиться с вами новым для меня продуктом, а заодно спросить, есть ли тут кто-то, кто использовал Tremor. Имеет смысл его изучать и пробовать как замену Logstash? Я в свое время смотрел на Loki, как более легковесную замену всего ELK в простых ситуациях, но так и не начал пользоваться, так как привык к ELK и неплохо его знаю. Не захотелось распыляться и изучать два продукта. Но этого монстра хотелось бы как-то облегчить.
https://github.com/tremor-rs/tremor-runtime
https://www.tremor.rs/
#devops #elk
Для тех, кто совсем не понимает, о чём идёт речь, кратко поясню. С помощью подобных инструментов можно брать исходные логи любого формата и приводить их к тому виду, какой вам нужен. Например, с помощью Logstash и его grok фильтров парсится лог веб сервера. Из строк вычленяются ip адреса, урлы, даты и т.д. Все эти данные конвертируются из строковых значений в свои форматы - число, ip адрес, дата и т.д. Далее эти распарсенные и сконвертированные данные можно использовать в построении графиков, отчётах, можно делать агрегации и т.д.
Tremor якобы более легкий и удобный инструмент. У него свой скриптовый язык tremor-script, что лично меня смущает. Хотя в документации говорится, что он более удобен и эффективен. Grok - универсальный фильтр для парсинга, используется много где, а не только в Logstash. А учить новый синтаксис только под один продукт как-то лениво.
Написал эту заметку, чтобы поделиться с вами новым для меня продуктом, а заодно спросить, есть ли тут кто-то, кто использовал Tremor. Имеет смысл его изучать и пробовать как замену Logstash? Я в свое время смотрел на Loki, как более легковесную замену всего ELK в простых ситуациях, но так и не начал пользоваться, так как привык к ELK и неплохо его знаю. Не захотелось распыляться и изучать два продукта. Но этого монстра хотелось бы как-то облегчить.
https://github.com/tremor-rs/tremor-runtime
https://www.tremor.rs/
#devops #elk
У меня было очень много заметок на канале про #мониторинг. При этом я всегда обходил стороной такой популярный продукт как The Dude. Надо это исправить. Авторами The Dude является всем известная компания Mikrotik. Основное её отличие - простота настройки и неприхотливость в плане ресурсов . Её очень легко установить и запустить в работу. Не нужны специальные знания и время на изучение продукта. Базовая настройка проста и интуитивна.
Сервер The Dude можно установить только на RouterOS. Так что вам нужно либо устройство Mikrotik, либо виртуальная машина с CHR (Cloud Hosted Router). Если будете ставить на роутер, имейте ввиду, что свою базу данных мониторинг будет хранить тоже локально, а значит будет постоянно что-то писать на устройство хранения. Для этого лучше сразу выделить sd карту или usb накопитель, чтобы не исчерпать ресурс записи встроенной памяти. Идеально поставить на CHR. У меня есть одна лицензия для различных тестов конфигураций микротов. Удобно это делать на виртуалке.
The Dude умеет автоматически сканировать сеть и добавлять в мониторинг все найденные устройства. Далее вы сможете их сами расположить на карте сети. Отдельно отмечу, что The Dude умеет мониторить и находить не только устройства Mikrotik, а и всё остальное, что доступно по сети. Например, для Windows у него есть свой агент, который можно установить для сбора метрик. А в общем случае он собирает метрики по snmp, в том числе и с Linux машин.
Писать много не буду, так как продукт достаточно известный. В сети много руководств по его настройке. Если вам нужен простой мониторинг и вы используете у себя Mikrotik, попробуйте The Dude. Он необычен и выделяется на фоне других систем мониторинга. При этом весьма удобен и популярен.
#монитоинг #mikrotik
Сервер The Dude можно установить только на RouterOS. Так что вам нужно либо устройство Mikrotik, либо виртуальная машина с CHR (Cloud Hosted Router). Если будете ставить на роутер, имейте ввиду, что свою базу данных мониторинг будет хранить тоже локально, а значит будет постоянно что-то писать на устройство хранения. Для этого лучше сразу выделить sd карту или usb накопитель, чтобы не исчерпать ресурс записи встроенной памяти. Идеально поставить на CHR. У меня есть одна лицензия для различных тестов конфигураций микротов. Удобно это делать на виртуалке.
The Dude умеет автоматически сканировать сеть и добавлять в мониторинг все найденные устройства. Далее вы сможете их сами расположить на карте сети. Отдельно отмечу, что The Dude умеет мониторить и находить не только устройства Mikrotik, а и всё остальное, что доступно по сети. Например, для Windows у него есть свой агент, который можно установить для сбора метрик. А в общем случае он собирает метрики по snmp, в том числе и с Linux машин.
Писать много не буду, так как продукт достаточно известный. В сети много руководств по его настройке. Если вам нужен простой мониторинг и вы используете у себя Mikrotik, попробуйте The Dude. Он необычен и выделяется на фоне других систем мониторинга. При этом весьма удобен и популярен.
#монитоинг #mikrotik
Если вы любите rsync так же, как и я, и при этом хотите с его помощью бэкапить windows машины, то помочь вам в этом может программа DeltaCopy. Эта программа стала для меня настоящим открытием. Раньше я уже писал про rsync под windows. Там я описывал старую программу, о которой практически не осталось упоминаний в интернете. Нет сайта программы, нет обновлений. На текущий момент она брошена.
DeltaCopy вполне себе живая. Есть сайт, где можно скачать последнюю версию дистрибутива, есть исходники. Да и в целом мне эта программа понравилась за свою простоту и функциональность. Она состоит из двух независимых частей - клиента и сервера.
Клиент вам нужен будет, если вы хотите забирать по расписанию данные с другого Rsync сервера. Мне обычно это не нужно. Сервера чаще всего под Linux и именно с них хочется забирать данные Windows машин. Для этого используется серверная часть. У неё минимум настроек и все через интерфейс программы.
Для того, чтобы начать забирать данные с Windows через Rsync надо в серверной части настроить директорию с источником файлов. Если нужна встроенная авторизация, добавить пользователя и пароль. DeltaCopy сформирует простейший конфиг rsync:
Далее запускаем DeltaCopy как службу и не забываем настроить фаерволл. Надо открыть стандартный порт rsync - tcp 873. Перемещаемся на Linux сервер и забираем оттуда данные:
И всё. Работает четко и просто. Я попробовал, буду теперь использовать DeltaCopy для rsync на Windows.
#windows #backup #rsync
DeltaCopy вполне себе живая. Есть сайт, где можно скачать последнюю версию дистрибутива, есть исходники. Да и в целом мне эта программа понравилась за свою простоту и функциональность. Она состоит из двух независимых частей - клиента и сервера.
Клиент вам нужен будет, если вы хотите забирать по расписанию данные с другого Rsync сервера. Мне обычно это не нужно. Сервера чаще всего под Linux и именно с них хочется забирать данные Windows машин. Для этого используется серверная часть. У неё минимум настроек и все через интерфейс программы.
Для того, чтобы начать забирать данные с Windows через Rsync надо в серверной части настроить директорию с источником файлов. Если нужна встроенная авторизация, добавить пользователя и пароль. DeltaCopy сформирует простейший конфиг rsync:
use chroot = false
strict modes = false
[Backup]
path = /cygdrive/c/tmp
comment = Backup Drive
read only = true
auth users = zerox
secrets file = /cygdrive/c/DeltaCopy/secrets/Backup.secret
Далее запускаем DeltaCopy как службу и не забываем настроить фаерволл. Надо открыть стандартный порт rsync - tcp 873. Перемещаемся на Linux сервер и забираем оттуда данные:
# rsync -avz zerox@10.20.1.57::Backup /mnt/backup
И всё. Работает четко и просто. Я попробовал, буду теперь использовать DeltaCopy для rsync на Windows.
#windows #backup #rsync
В последнее время системы статистики посещаемости сайтов, такие как Яндекс.Мертика и Google Analytics превратились в настоящих монстров. Они собирают тонны информации о посетителях, грузя свои скрипты им в сеансы. Я бы очень хотел от них избавиться, но не могу себе этого позволить по двум причинам:
1. У меня почти весь трафик поисковой.
2. У меня крутится реклама от этих компаний.
Без их аналитики я рискую уменьшить поток поискового трафика и снизить релевантность рекламы. Если у вас сайт или приложение, для которых не критичны эти вещи, вы не хотите ставить себе тяжелейшие метрики публичных сервисов, которые шпионят за пользователями, но при этом есть желание получать аналитику по посетителям, посмотрите в сторону проекта counter.dev.
Это легкий (написан на GO), бесплатный счётчик для сайта или веб приложения.
https://github.com/ihucos/counter.dev
https://counter.dev/
Демка - https://counter.dev/dashboard.html?demo=1 Проект работает как сервис. То есть вы ставите их код и вся статистика хранится на серверах проекта. В репозитории отмечено, что при желании, можно поднять сервер у себя, но готовой инструкции о том, как это сделать, я не увидел.
#website
1. У меня почти весь трафик поисковой.
2. У меня крутится реклама от этих компаний.
Без их аналитики я рискую уменьшить поток поискового трафика и снизить релевантность рекламы. Если у вас сайт или приложение, для которых не критичны эти вещи, вы не хотите ставить себе тяжелейшие метрики публичных сервисов, которые шпионят за пользователями, но при этом есть желание получать аналитику по посетителям, посмотрите в сторону проекта counter.dev.
Это легкий (написан на GO), бесплатный счётчик для сайта или веб приложения.
https://github.com/ihucos/counter.dev
https://counter.dev/
Демка - https://counter.dev/dashboard.html?demo=1 Проект работает как сервис. То есть вы ставите их код и вся статистика хранится на серверах проекта. В репозитории отмечено, что при желании, можно поднять сервер у себя, но готовой инструкции о том, как это сделать, я не увидел.
#website
Недавно рассказывал про то, как команды выполняются в оболочке Linux. А так же про утилиту type, которая позволяет точно узнать, какая программа будет выполнена при вводе команды в консоли. В продолжении этой темы расскажу про утилиту hash, которая дополняет всю эту историю с командами.
Для начала узнаем, что это вообще такое:
Hash встроена в оболочку bash. С ее помощью можно посмотреть кэш путей к исполняемым файлам, который хранится до перезапуска оболочки. Возможно где-то в инструкциях в интернете по настройке чего-либо вы видели запуск этой команды для очистки кэша путей. Иногда это нужно сделать при установке нового софта, когда изменился по какой-то причине путь к исполняемому файлу, который вы ранее уже запускали в консоли в текущем сеансе.
Покажу на практике, как и на что влияет hash.
Я запустил htop, он уехал в кэш с путём /usr/bin/htop. Потом я его перенёс в /usr/local/bin/htop и не смог запустить через консоль, пока не очистил кэш команды. На практике заниматься подобным обычно не приходится, но у меня были иногда ситуации, когда этот кэш нужно было почистить. Так что лучше про него знать.
Впервые с hash я познакомился еще во freebsd. Там часто в руководствах после установки чего-то из портов предлагалось очистить hash оболочки командой:
В bash на linux аналог этой команды:
Вы можете отключить или снова включить использование кэша исполняемых команд:
#bash #terminal
Для начала узнаем, что это вообще такое:
# type -a hash
hash is a shell builtin
Hash встроена в оболочку bash. С ее помощью можно посмотреть кэш путей к исполняемым файлам, который хранится до перезапуска оболочки. Возможно где-то в инструкциях в интернете по настройке чего-либо вы видели запуск этой команды для очистки кэша путей. Иногда это нужно сделать при установке нового софта, когда изменился по какой-то причине путь к исполняемому файлу, который вы ранее уже запускали в консоли в текущем сеансе.
Покажу на практике, как и на что влияет hash.
# htop
# hash
hits command
1 /usr/bin/htop
# mv /usr/bin/htop /usr/local/bin
# htop
-bash: /usr/bin/htop: No such file or directory
# hash -r
# htop
# hash
hits command
1 /usr/local/bin/htop
Я запустил htop, он уехал в кэш с путём /usr/bin/htop. Потом я его перенёс в /usr/local/bin/htop и не смог запустить через консоль, пока не очистил кэш команды. На практике заниматься подобным обычно не приходится, но у меня были иногда ситуации, когда этот кэш нужно было почистить. Так что лучше про него знать.
Впервые с hash я познакомился еще во freebsd. Там часто в руководствах после установки чего-то из портов предлагалось очистить hash оболочки командой:
# rehash
В bash на linux аналог этой команды:
# hash -r
Вы можете отключить или снова включить использование кэша исполняемых команд:
# set +h
# hash
-bash: hash: hashing disabled
# set -h
#bash #terminal
Делюсь с вами полезным сервисом с функциональным бесплатным тарифом. Речь пойдёт про logtail.com. С его помощью можно собирать различные логи. Так как он поставляется в качестве сервиса, вам самим практически ничего делать не надо, только логи к нему направить. Дальше он сам их распарсит, представит удобный вид для просмотра, настроит дашборды. Поддерживает практически все современные приложения и их формат логов (apache, nginx, docker, syslog, kuber, heroku и т.д.)
Сервис платный, но есть бесплатный тариф со следующими ограничениями:
◽ 1 Гб трафика в месяц
◽ 3 дня хранения логов
То есть в таком виде эта штука подходит для разбора текущих инцидентов небольшого проекта, без хранения исторических данных. Для регистрации достаточно только email. Карту вводить не надо.
Логи сервис собирает с помощью своего сборщика под названием Vector. С ним проще всего, так представлены готовые настройки под него с зашитым вашим токеном, так что настраивать руками ничего не надо. Достаточно скачать конфиг и подсунуть сборщику, если вам подойдут дефолтные настройки. Если не нравится Vector, можете отправлять своими Fluentd, Logstash или Rsyslog.
Я для тестов погонял сборку логов с nginx и apache. Ставил на centos и ubuntu. Настройка элементарная, все работает из коробки. Все инструкции и руководства вам предложат в процессе настройки в личном кабинете, так что не буду на этом останавливаться. В целом, процесс похож на настройку сбора логов в elk stack.
Сервис простой и интуитивный, настраивается через copy-past. Всё сделано для того, чтобы девопсы не отвлекались на всякую ерунду, типа настройки сбора логов. Для них прям готовые консольные команды в руководстве, чтобы не ошибиться при ручном наборе 😃:
Всё сделано для удобства современной разработки.
#сервис #бесплатно #devops
Сервис платный, но есть бесплатный тариф со следующими ограничениями:
◽ 1 Гб трафика в месяц
◽ 3 дня хранения логов
То есть в таком виде эта штука подходит для разбора текущих инцидентов небольшого проекта, без хранения исторических данных. Для регистрации достаточно только email. Карту вводить не надо.
Логи сервис собирает с помощью своего сборщика под названием Vector. С ним проще всего, так представлены готовые настройки под него с зашитым вашим токеном, так что настраивать руками ничего не надо. Достаточно скачать конфиг и подсунуть сборщику, если вам подойдут дефолтные настройки. Если не нравится Vector, можете отправлять своими Fluentd, Logstash или Rsyslog.
Я для тестов погонял сборку логов с nginx и apache. Ставил на centos и ubuntu. Настройка элементарная, все работает из коробки. Все инструкции и руководства вам предложат в процессе настройки в личном кабинете, так что не буду на этом останавливаться. В целом, процесс похож на настройку сбора логов в elk stack.
Сервис простой и интуитивный, настраивается через copy-past. Всё сделано для того, чтобы девопсы не отвлекались на всякую ерунду, типа настройки сбора логов. Для них прям готовые консольные команды в руководстве, чтобы не ошибиться при ручном наборе 😃:
# curl -1sLf \
'https://repositories.timber.io/public/vector/cfg/setup/bash.deb.sh' \
| sudo -E bash
Всё сделано для удобства современной разработки.
#сервис #бесплатно #devops
Существует очень старая и известная программа для бэкапа систем под управлением Windows - Cobian Backup. Она полностью бесплатна и весьма функциональна для нулевой стоимости. Я проверил её работу на Windows 11. Несмотря на то, что программа старая, нормально работает даже на самой последней версии винды. Надо только .Net Framework 3.5 поставить.
Основные возможности программы:
◽ Умеет работать как служба, использует расписание.
◽ Использует shadow copy для создания бэкапов.
◽ Поддерживает различные схемы бэкапа: полный, инкрементный, разностный.
◽ Умеет сжимать архивы с помощью zip или 7zip, а также шифровать их.
◽ Может запускать скрипты перед или после бэкапа.
◽ Поддерживает управление через командную строку.
◽ Нормальный русский язык в интерфейсе.
◽ Подробный лог выполнения задач.
В общем, для бесплатной программы она очень удобна и функциональна. Бэкапить может только локально, либо на сетевые диски. А также на ftp. Не знаю, кто еще ftp использует в наши дни. Тем не менее, возможность есть. Если сравнивать с тем же бесплатным Veeam Agent for Microsoft Windows FREE, то Cobian Backup более функциональна.
Настройки программы простые и тривиальные. Разбираться много не придётся, тем более читать какую-то документацию (кто её вообще читает?). После установки сразу настроите бэкап и запустите.
Сайт программы - https://www.cobiansoft.com/cobianbackup.html
#windows #backup
Основные возможности программы:
◽ Умеет работать как служба, использует расписание.
◽ Использует shadow copy для создания бэкапов.
◽ Поддерживает различные схемы бэкапа: полный, инкрементный, разностный.
◽ Умеет сжимать архивы с помощью zip или 7zip, а также шифровать их.
◽ Может запускать скрипты перед или после бэкапа.
◽ Поддерживает управление через командную строку.
◽ Нормальный русский язык в интерфейсе.
◽ Подробный лог выполнения задач.
В общем, для бесплатной программы она очень удобна и функциональна. Бэкапить может только локально, либо на сетевые диски. А также на ftp. Не знаю, кто еще ftp использует в наши дни. Тем не менее, возможность есть. Если сравнивать с тем же бесплатным Veeam Agent for Microsoft Windows FREE, то Cobian Backup более функциональна.
Настройки программы простые и тривиальные. Разбираться много не придётся, тем более читать какую-то документацию (кто её вообще читает?). После установки сразу настроите бэкап и запустите.
Сайт программы - https://www.cobiansoft.com/cobianbackup.html
#windows #backup
В работе с современными информационными системами мы постоянно сталкиваемся с шифрованной передачей данных. В этой процедуре очень много нюансов. Я постараюсь своими словами кратко рассказать про протокол TLS, который постоянно обновляется, из-за чего системные администраторы вечно испытывают проблемы в первую очередь со старым оборудованием, которое новый протокол не поддерживает.
TLS - криптографический протокол, обеспечивающий защиту передаваемых данных в первую очередь по сети интернет. Его предшественника звали SSL, поэтому по привычке часто продолжают называть сертификаты, которые используют эти протоколы, SSL сертификатами, хотя по факту они сейчас TLS. Протокол SSL уже давно считается небезопасным и не поддерживается.
В настоящий момент актуальная и всеми поддерживаемая версия TLS 1.3. Все остальные версии SSL и TLS признаны устаревшими. Что же с ними происходит такого, что они устаревают? В момент подключения клиента к серверу с использованием TLS происходит согласование хэш-функций и алгоритмов шифрования, на основе которых будут зашифровываться передаваемые данные.
В первую очередь небезопасными становятся алгоритмы и хэш-функции старых версий, а так же процедуры их согласования. Например, в TLS 1.1 использовались хэш-функции MD5 и SHA-1, которые устарели. Их заменили на SHA-256, которые используются до сих пор в 1.3. То же самое происходит с алгоритмами шифрования. Например, в версии 1.3 убрали поддержку шифров AES-CBC, DES, RC4.
В момент подключения клиента к серверу происходит согласование поддерживаемых шифров и хэш-функций. Соответственно, всё старое ПО, что не поддерживает новый протокол с его шифрами и хэш-функциями, которых еще не было на момент создания, не может установить соединение.
На текущий момент, TLS 1.3 поддерживает следующий набор шифров, состоящих из алгоритмов шифрования и хэш-функций:
◽ TLS_AES_256_GCM_SHA384
◽ TLS_CHACHA20_POLY1305_SHA256
◽ TLS_AES_128_GCM_SHA256
◽ TLS_AES_128_CCM_8_SHA256
◽ TLS_AES_128_CCM_SHA256
Набор поддерживаемых шифров в TLS 1.3 меньше, чем в предыдущих версиях. Возможно это позволит ему оставаться актуальным большее количество времени, по сравнению с предшественниками.
TLS - криптографический протокол, обеспечивающий защиту передаваемых данных в первую очередь по сети интернет. Его предшественника звали SSL, поэтому по привычке часто продолжают называть сертификаты, которые используют эти протоколы, SSL сертификатами, хотя по факту они сейчас TLS. Протокол SSL уже давно считается небезопасным и не поддерживается.
В настоящий момент актуальная и всеми поддерживаемая версия TLS 1.3. Все остальные версии SSL и TLS признаны устаревшими. Что же с ними происходит такого, что они устаревают? В момент подключения клиента к серверу с использованием TLS происходит согласование хэш-функций и алгоритмов шифрования, на основе которых будут зашифровываться передаваемые данные.
В первую очередь небезопасными становятся алгоритмы и хэш-функции старых версий, а так же процедуры их согласования. Например, в TLS 1.1 использовались хэш-функции MD5 и SHA-1, которые устарели. Их заменили на SHA-256, которые используются до сих пор в 1.3. То же самое происходит с алгоритмами шифрования. Например, в версии 1.3 убрали поддержку шифров AES-CBC, DES, RC4.
В момент подключения клиента к серверу происходит согласование поддерживаемых шифров и хэш-функций. Соответственно, всё старое ПО, что не поддерживает новый протокол с его шифрами и хэш-функциями, которых еще не было на момент создания, не может установить соединение.
На текущий момент, TLS 1.3 поддерживает следующий набор шифров, состоящих из алгоритмов шифрования и хэш-функций:
◽ TLS_AES_256_GCM_SHA384
◽ TLS_CHACHA20_POLY1305_SHA256
◽ TLS_AES_128_GCM_SHA256
◽ TLS_AES_128_CCM_8_SHA256
◽ TLS_AES_128_CCM_SHA256
Набор поддерживаемых шифров в TLS 1.3 меньше, чем в предыдущих версиях. Возможно это позволит ему оставаться актуальным большее количество времени, по сравнению с предшественниками.