🤔 Держите #дайджест утилит сканирования Linux на уязвимости и вредоносы
♻️ chkrootkit — это инструмент для локальной проверки на наличие признаков руткита
♻️ ClamAV — опенсорсный инструмент для обнаружения троянов, вирусов, вредоносных программ и других вредоносных угроз
♻️ REMnux — это инструментарий Linux для реверс-инжиниринга и анализа вредоносного ПО
♻️ YARA — призван помочь исследователям вредоносных программ идентифицировать и классифицировать образцы вредоносных программ
♻️ Rkhunter (Rootkit Hunter) — это инструмент на базе Unix, который сканирует на наличие руткитов, бэкдоров и возможных локальных эксплойтов
♻️ chkrootkit — это инструмент для локальной проверки на наличие признаков руткита
♻️ ClamAV — опенсорсный инструмент для обнаружения троянов, вирусов, вредоносных программ и других вредоносных угроз
♻️ REMnux — это инструментарий Linux для реверс-инжиниринга и анализа вредоносного ПО
♻️ YARA — призван помочь исследователям вредоносных программ идентифицировать и классифицировать образцы вредоносных программ
♻️ Rkhunter (Rootkit Hunter) — это инструмент на базе Unix, который сканирует на наличие руткитов, бэкдоров и возможных локальных эксплойтов
👍8❤1🥰1
#вопросы_с_собеседований
a=5; true | { true && a=10; } чему будет равно a?
Ответ будет 5. Потому что каждая команда конвейера исполняется в отдельной подоболочке
kannabis@fuse:~$ a=5; true | { true && a=10; echo $a; }
10
kannabis@fuse:~$ echo $a
5
a=5; true | { true && a=10; } чему будет равно a?
❤8🥰1
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
❤9
🔳🔥👆 Kube-Prometheus-Top
Инструмент на Python, который мониторит ноды, поды, контейнеры Kubernetes и ресурсы PVC на терминале с помощью Prometheus metircs.
Показатели ресурсов, предоставляемые API-интерфейсами K8s, очень ограничены по сравнению с тем, что использует Prometheus.
Этот инструмент использует Prometheus в качестве источника данных для метрик, чтобы отображать всю необходимую информацию прямо на терминале.
Установка
Совместимо с Python 3.6+
в PyPi
pip3 install kptop --upgrade
Как использовать, какие переменные и ключи для консоли можно узнать тут
#гайд
Инструмент на Python, который мониторит ноды, поды, контейнеры Kubernetes и ресурсы PVC на терминале с помощью Prometheus metircs.
Показатели ресурсов, предоставляемые API-интерфейсами K8s, очень ограничены по сравнению с тем, что использует Prometheus.
Этот инструмент использует Prometheus в качестве источника данных для метрик, чтобы отображать всю необходимую информацию прямо на терминале.
Установка
Совместимо с Python 3.6+
в PyPi
pip3 install kptop --upgrade
Как использовать, какие переменные и ключи для консоли можно узнать тут
#гайд
❤5👍3🥰1
❓🤷♀️ Чем отличается команда rm от unlink?
Обе эти команды умеют удалять, но в 99% используется именно rm, потому что про unlink вы либо не слышали, либо rm с головой хватает.
Есть ошибочное мнение, что unlink предназначен для удаления лишь ссылок — команда вполне может удалять обычные файлы. А если углубиться, то весь процесс удаления в Linux, это удаление ссылок.
У unlink есть всего лишь два ключа запуска help и version. Очень ограниченный инструмент, но чем инструмент проще, тем проще его синтаксис.
# unlink /tmp/hardlink
# unlink /tmp/file
Софт очень молчаливый — после удаления, он промолчит и ничего не выведет на экран.
Команда unlink использует системную команду unlink, в то время как команда rm использует системный вызов unlinkat. Оба системных вызова практически одинаковы.
Unlink не умеет работать с wildcard и globbing шаблонами. Так же вы не сможете с помощью нее удалить каталог.
Запустим команду и пытаемся насильно удалить файл которого нет в каталоге:
rm -f test.txt
И получаем - НИЧЕГО. То есть rm -f не вернул ошибку, что файл отсутствует. А если сделать так:
unlink test.txt
получим ошибку:
unlink: cannot unlink 'test.txt': No such file or directory
То есть если нужно будет обработать результат выполнения команды rm -f, то будет непонятно, существовал ли вообще файл.
С unlink можно гибче обрабатывать эксепшены в скриптах. А еще при использовании команды unlink отсутствует проверка безопасности. Она удалит файл, защищенный от записи. Хотя современная версия rm теперь тоже так умеет.
Небольшой секрет: если нужно, чтобы файл никто не смог удалить, включая root:
chattr +i test.txt
chattr позволяет устанавливать и отключать атрибуты файлов, на уровне файловой системы не зависимо от стандартных (чтение, запись, выполнение).
Ключ i - сделает файл неизменяемым. Чтобы снять с файла этот аттрибут, в команде которая выше, замените знак «+» на «-».
Подытожим. Для большинства повседневных задач конечно rm мастхев, но если ты пишете софт для каких-то критичных систем, стоит не упускать из виду unlink.
#гайд
Обе эти команды умеют удалять, но в 99% используется именно rm, потому что про unlink вы либо не слышали, либо rm с головой хватает.
Есть ошибочное мнение, что unlink предназначен для удаления лишь ссылок — команда вполне может удалять обычные файлы. А если углубиться, то весь процесс удаления в Linux, это удаление ссылок.
У unlink есть всего лишь два ключа запуска help и version. Очень ограниченный инструмент, но чем инструмент проще, тем проще его синтаксис.
# unlink /tmp/hardlink
# unlink /tmp/file
Софт очень молчаливый — после удаления, он промолчит и ничего не выведет на экран.
Команда unlink использует системную команду unlink, в то время как команда rm использует системный вызов unlinkat. Оба системных вызова практически одинаковы.
Unlink не умеет работать с wildcard и globbing шаблонами. Так же вы не сможете с помощью нее удалить каталог.
Запустим команду и пытаемся насильно удалить файл которого нет в каталоге:
rm -f test.txt
И получаем - НИЧЕГО. То есть rm -f не вернул ошибку, что файл отсутствует. А если сделать так:
unlink test.txt
получим ошибку:
unlink: cannot unlink 'test.txt': No such file or directory
То есть если нужно будет обработать результат выполнения команды rm -f, то будет непонятно, существовал ли вообще файл.
С unlink можно гибче обрабатывать эксепшены в скриптах. А еще при использовании команды unlink отсутствует проверка безопасности. Она удалит файл, защищенный от записи. Хотя современная версия rm теперь тоже так умеет.
Небольшой секрет: если нужно, чтобы файл никто не смог удалить, включая root:
chattr +i test.txt
chattr позволяет устанавливать и отключать атрибуты файлов, на уровне файловой системы не зависимо от стандартных (чтение, запись, выполнение).
Ключ i - сделает файл неизменяемым. Чтобы снять с файла этот аттрибут, в команде которая выше, замените знак «+» на «-».
Подытожим. Для большинства повседневных задач конечно rm мастхев, но если ты пишете софт для каких-то критичных систем, стоит не упускать из виду unlink.
#гайд
👍24❤4👏2
🪛🔧 Отладка сбоя ядра
Отладка ошибки в ядре может оказаться сложной задачей.
Допустим, ошибка кроется в подсистеме управления памятью, в slub allocator-е или page allocator-е.
В зависимости от инструментов отладки эти инструменты могут обращаться к подсистеме, поскольку им самим необходимо выделить память, чтобы показать вам интересующую трассировку и, следовательно, они могут столкнуться с той же самой ошибкой и не создавать никакого вывода вообще.
Приводится пример файла сбоя. В нем не ошибка ядра, а ошибка стороннего модуля ядра, находящегося out-of-tree:
kannabis@fuse:~$ file 202310190528/dump.202310190528
202310190528/dump.202310190528: Flattened kdump compressed dump v6, system Linux, node debian11, release 5.10.0-26-amd64, version #1 SMP Debian 5.10.197-1 (2023-09-29), machine x86_64, domain (none)
Подробный разбор и отладка ждет вас тут
#туториал
Отладка ошибки в ядре может оказаться сложной задачей.
Допустим, ошибка кроется в подсистеме управления памятью, в slub allocator-е или page allocator-е.
В зависимости от инструментов отладки эти инструменты могут обращаться к подсистеме, поскольку им самим необходимо выделить память, чтобы показать вам интересующую трассировку и, следовательно, они могут столкнуться с той же самой ошибкой и не создавать никакого вывода вообще.
Приводится пример файла сбоя. В нем не ошибка ядра, а ошибка стороннего модуля ядра, находящегося out-of-tree:
kannabis@fuse:~$ file 202310190528/dump.202310190528
202310190528/dump.202310190528: Flattened kdump compressed dump v6, system Linux, node debian11, release 5.10.0-26-amd64, version #1 SMP Debian 5.10.197-1 (2023-09-29), machine x86_64, domain (none)
Подробный разбор и отладка ждет вас тут
#туториал
👍3❤1🔥1
#вопросы_с_собеса
Что такое iowait и почему он может появляться?
iowait это показатель, демонстрирующий процентное соотношение времени процессора, которое он потратил на ожидание ввода-вывода.
Высокий показатель может сказать о том, что система ограничена возможностями дисковой памяти. Выполняется много операций ввода-вывода. Это замедляет систему. Конкретно это обычно означает что блочные устройства работают медленно или они переполнены.
Замеряется в количестве потоков, которые ждут работы.
Что такое iowait и почему он может появляться?
🔥13👍2🥰1
🧑🎓😎 Еще одна серия с мероприятия OFFZONE 2023
Здесь собираются безопасники, разработчики, инженеры, исследователи, преподаватели и студенты из десятков стран мира. В центре внимания — только хардкорный технический контент по кибербезопасности.
Современная автоматизация обратной разработки в декомпиляторе HexRays
В своем докладе спикер кратко расскажет про существующие инструменты автоматизации обратной разработки, а также представит новые
Смотреть
#видео
Здесь собираются безопасники, разработчики, инженеры, исследователи, преподаватели и студенты из десятков стран мира. В центре внимания — только хардкорный технический контент по кибербезопасности.
Современная автоматизация обратной разработки в декомпиляторе HexRays
В своем докладе спикер кратко расскажет про существующие инструменты автоматизации обратной разработки, а также представит новые
Смотреть
#видео
👍6❤1
🤔 Подготовили #дайджест репозиториев для DevOps
♦️ Molecule — проект предназначен для оказания помощи в разработке и тестировании ролей Ansible
♦️ DevOps Exercises — репозиторий содержит вопросы и упражнения по различным техническим темам
♦️ GoReleaser — быстрая доставка бинарников Go
♦️ Kubernetes The Hard Way — руководство, в котором вы на практике познакомитесь с настройкой Kubernetes
♦️ dive — инструмент для изучения образов docker
♦️ Molecule — проект предназначен для оказания помощи в разработке и тестировании ролей Ansible
♦️ DevOps Exercises — репозиторий содержит вопросы и упражнения по различным техническим темам
♦️ GoReleaser — быстрая доставка бинарников Go
♦️ Kubernetes The Hard Way — руководство, в котором вы на практике познакомитесь с настройкой Kubernetes
♦️ dive — инструмент для изучения образов docker
🔥21👍7❤1
😉💪 SOLID ПРИНЦИПЫ простым языком
В видосе спикера расскажет о SOLID-принципах с подробным, простым и наглядным объяснением. Речь будет о: Single responsibility (Принцип единственной ответственности), open–closed (Принцип открытости/закрытости), Liskov substitution (Принцип подстановки Лисков), interface segregation (Принцип разделения интерфейса) и dependency inversion (Принцип инверсии зависимостей).
06:16 ➝ SRP
16:00 ➝ OCP
22:00 ➝ LSP
28:21 ➝ ISP
36:35 ➝ DIP
43:40 ➝ SOLID итоги
#гайд
В видосе спикера расскажет о SOLID-принципах с подробным, простым и наглядным объяснением. Речь будет о: Single responsibility (Принцип единственной ответственности), open–closed (Принцип открытости/закрытости), Liskov substitution (Принцип подстановки Лисков), interface segregation (Принцип разделения интерфейса) и dependency inversion (Принцип инверсии зависимостей).
06:16 ➝ SRP
16:00 ➝ OCP
22:00 ➝ LSP
28:21 ➝ ISP
36:35 ➝ DIP
43:40 ➝ SOLID итоги
#гайд
❤5🔥1
🧑🍳🎯 Restic: эффективное резервное копирование из Stdin
Готовый рецепт того как настроить эффективное резервное копирование из Stdin, с дедупликацией и автоматической очисткой репозитория от старых копий.
Несколько правил:
➖ Не используйте монорепозиторий для бэкапов
Всегда разносите сущности по разным репозиториям, к примеру создавайте репозиторий на каждую базу данных или на каждую виртуальную машину.
Делать это стоит по нескольким причинам. Бэкапить всё в один репо не даст вам никаких преимуществ, а вот неудобства создаст.
➖ Используйте встроенную компрессию restic
При использовании gzip всегда имеет шанс получить неповторяемый набор данных, даже при малейшем изменении источника. Таким образом дедупликация restic не сработает. Тем не менее бэкапить без компрессии идея тоже плохая, потому что размер несжатого бэкапа может различаться в десятки и сотни раз от сжатого.
➖ Всегда проверяйте что бэкап создался полностью
➖ Не восстанавливайте напрямую в Stdout
Другими словами не делайте так: restic dump latest dump.sql | mysql
Подробности вас ждут тут
#туториал
Готовый рецепт того как настроить эффективное резервное копирование из Stdin, с дедупликацией и автоматической очисткой репозитория от старых копий.
Несколько правил:
➖ Не используйте монорепозиторий для бэкапов
Всегда разносите сущности по разным репозиториям, к примеру создавайте репозиторий на каждую базу данных или на каждую виртуальную машину.
Делать это стоит по нескольким причинам. Бэкапить всё в один репо не даст вам никаких преимуществ, а вот неудобства создаст.
➖ Используйте встроенную компрессию restic
При использовании gzip всегда имеет шанс получить неповторяемый набор данных, даже при малейшем изменении источника. Таким образом дедупликация restic не сработает. Тем не менее бэкапить без компрессии идея тоже плохая, потому что размер несжатого бэкапа может различаться в десятки и сотни раз от сжатого.
➖ Всегда проверяйте что бэкап создался полностью
➖ Не восстанавливайте напрямую в Stdout
Другими словами не делайте так: restic dump latest dump.sql | mysql
Подробности вас ждут тут
#туториал
❤4🥱2
✍️ Рассказ про интерпретатор
🤔 Возможно, вы знаете, что скрипт должен начинаться с символов #!. Эта штуковина называется SheBang.
В общем после #! нужно указать путь до интерпретатора, обычно там фигурирует /bin/bash или python, например.
Данная конструкция будет использована системными вызовами семейства exec для запуска нужного интерпретатора, который в свою очередь запустит скрипт.
Если из командной строки запустить скрипт и системный вызов execve возвратит ошибку ENOEXEC. Процесс оболочки bash будет сам пытаться выполнить скрипт.
EXECVE() — выполняет программу, заданную параметром filename. Программа должна быть или бинарником или скриптом, начинающимся с #!
ENOEXEC — исполняемый файл в неизвестном формате, для другой архитектуры, или же встречены какие-то ошибки, препятствующие его выполнению.
В большинстве случаев ENOEXEC возвращается если первая строка не начинается с #! либо первая строка начинается с #! и в строке больше нет символов кроме пробелов и табуляций.
Это запустится:
#!
echo 'Have a nice day'
exit
И это тоже запустится:
# super comment
echo 'Have a nice day'
exit
И это тоже:
echo 'Have a nice bashdays'
exit
🤓 Так что не обязательно указывать #!/bin/bash, интерпретатор сам учитывает такие нюансы.
#гайд
🤔 Возможно, вы знаете, что скрипт должен начинаться с символов #!. Эта штуковина называется SheBang.
В общем после #! нужно указать путь до интерпретатора, обычно там фигурирует /bin/bash или python, например.
Данная конструкция будет использована системными вызовами семейства exec для запуска нужного интерпретатора, который в свою очередь запустит скрипт.
Если из командной строки запустить скрипт и системный вызов execve возвратит ошибку ENOEXEC. Процесс оболочки bash будет сам пытаться выполнить скрипт.
EXECVE() — выполняет программу, заданную параметром filename. Программа должна быть или бинарником или скриптом, начинающимся с #!
ENOEXEC — исполняемый файл в неизвестном формате, для другой архитектуры, или же встречены какие-то ошибки, препятствующие его выполнению.
В большинстве случаев ENOEXEC возвращается если первая строка не начинается с #! либо первая строка начинается с #! и в строке больше нет символов кроме пробелов и табуляций.
Это запустится:
#!
echo 'Have a nice day'
exit
И это тоже запустится:
# super comment
echo 'Have a nice day'
exit
И это тоже:
echo 'Have a nice bashdays'
exit
🤓 Так что не обязательно указывать #!/bin/bash, интерпретатор сам учитывает такие нюансы.
#гайд
👍10❤7👏4🔥3🥰3
🙋 Grafana Beyla
Часто для правильной интеграции инструментов мониторинга в приложение приходится добавлять агент мониторинга Observability в развёртывание или пакет. А в таких языках, как Go, нужно вручную добавлять точки трассировки. В любом случае после добавления инструментов придётся выполнить повторное развёртывание в промежуточную или производственную среду.
Автоинструментарий упрощает внедрение Observability. Grafana Beyla — автоинструментарий eBPF с открытым исходным кодом, который сейчас в стадии публичного тестирования. Beyla сообщает данные о задержках для основных запросов, а также метрики RED (Rate-Errors-Duration) для сервисов Linux HTTP/S и gRPC — и всё это без модификации кода для ручной вставки зондов.
В этой статье рассматривается, как установить и настроить Grafana Beyla с помощью Grafana Cloud для улучшения наблюдаемости приложений.
#туториал
Часто для правильной интеграции инструментов мониторинга в приложение приходится добавлять агент мониторинга Observability в развёртывание или пакет. А в таких языках, как Go, нужно вручную добавлять точки трассировки. В любом случае после добавления инструментов придётся выполнить повторное развёртывание в промежуточную или производственную среду.
Автоинструментарий упрощает внедрение Observability. Grafana Beyla — автоинструментарий eBPF с открытым исходным кодом, который сейчас в стадии публичного тестирования. Beyla сообщает данные о задержках для основных запросов, а также метрики RED (Rate-Errors-Duration) для сервисов Linux HTTP/S и gRPC — и всё это без модификации кода для ручной вставки зондов.
В этой статье рассматривается, как установить и настроить Grafana Beyla с помощью Grafana Cloud для улучшения наблюдаемости приложений.
#туториал
❤5👍2
Forwarded from Библиотека питониста | Python, Django, Flask
☁️🧩 ТОП-10 бессерверных фреймворков
Существует множество различных бессерверных фреймворков, каждый из которых предназначен для определенных задач. В этой статье рассмотрим 10 наиболее популярных из них.
Читать статью
Существует множество различных бессерверных фреймворков, каждый из которых предназначен для определенных задач. В этой статье рассмотрим 10 наиболее популярных из них.
Читать статью
👍3🔥2❤1
🤔 Очередной #дайджест для DevOps
💡 Vet — повышение безопасности при использовании open source компонентов
💡 GitOps используя Flux и Flagger — как просто реализовать в проекте Progressive Delivery
💡 Сервисы Kubernetes: ClusterIP, Nodeport и LoadBalancer — механизм предоставления доступа к внутренним и внешним приложениям
💡 Как мигрировать DoorDash из StatsD в Prometheus — как уйти от проблемы из-за пиковых сбоев трафика при использовании устаревшей StatsD-инфраструктуры
💡 Secrets Leak в CI/CD Pipelines — безопасная передача данных в сторонних ресурсах в CI/CD пайплайнах
💡 Vet — повышение безопасности при использовании open source компонентов
💡 GitOps используя Flux и Flagger — как просто реализовать в проекте Progressive Delivery
💡 Сервисы Kubernetes: ClusterIP, Nodeport и LoadBalancer — механизм предоставления доступа к внутренним и внешним приложениям
💡 Как мигрировать DoorDash из StatsD в Prometheus — как уйти от проблемы из-за пиковых сбоев трафика при использовании устаревшей StatsD-инфраструктуры
💡 Secrets Leak в CI/CD Pipelines — безопасная передача данных в сторонних ресурсах в CI/CD пайплайнах
👍7🥰4🤩3🎉2🔥1
Используете ли вы Terraform cloud?
Anonymous Poll
17%
Да, использую
1%
Нет, использую альтернативу (scalr, env0) т. к. в tfcloud нет фичей, которые мне нужны
2%
Нет, использую альтернативу (scalr, env0) т. к. tfcloud дорого юзать
10%
Нет, использую альтернативу т. к. не слышал про tfcloud
52%
Нет, у меня есть стэйт на s3/local/etc и фичи мне не нужны
17%
Свой вариант
❤3🔥1