BashMaster
8.3K subscribers
836 photos
27 videos
1 file
860 links
Удобные консольные наработки на каждый день для разработчиков, девопсов и сисадминов.

Реклама: @Kone4noVasya

Канал на бирже: https://telega.in/c/bash_help
Download Telegram
⚙️ Sampler

✔️Инструмент для визуализации вывода команд shell — превращаем терминал в прекрасный дашборд.

➡️ Что умеет:
💠Выполняет любые shell-команды и строит графики по их выводу;
💠Мониторит БД, CPU, сетевые метрики, очереди и скрипты деплоя;
💠Умеет слать алерты, если значение выходит за границы;
💠Настраивается через простой YAML — добавил пару строк и смотришь, как система «дышит»;
💠Работает локально, без зависимостей и облаков.

🐙 Перейти на Github

🔨 bash_help
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7🔥43
⚙️ Linux Crisis Tools

✔️Когда у вас происходит сбой, вызванный проблемой производительности, вы не захотите терять драгоценное время на установку инструментов, необходимых для ее диагностики.

▶️В этой статье список «кризисных инструментов», которые рекомендуется установить на серверах Linux по умолчанию, вместе с именами пакетов (Ubuntu), из которых они взяты.

🖼️ Прочитать статью в источнике

🔨 bash_help
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥54
⚙️ Cheatshh

✔️Интерактивный командный интерфейс, разработанный для управления шпаргалками командной строки без необходимости их запоминания.

▶️Пользователи могут группировать команды, просматривать TLDR и MAN страницы с пользовательскими описаниями.

➡️ Программа изначально предназначена для MacOS, но также совместима с Linux и Windows. 

🐙 Перейти на Github

🔨 bash_help
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥2
⚙️ 3 скрипта для диагностики вашего Linux-сервера

✔️Многие, наверняка, сталкивались с тормозами сервера, долгой загрузкой страниц. Логи молчат, нужно искать виновника. Системный мониторинг демонстрирует, что CPU вроде не загружен, память не полностью израсходована, а отклик системы оставляет желать лучшего.

▶️В такие моменты стандартных утилит вроде top или htop часто недостаточно, нужен более детальный анализ. С этим автору этой статьи приходится периодически сталкиваться, из-за чего и были написаны 3 bash-скрипта. Они дают сбор ключевых метрик системы для дальнейшего разбора.

➡️ Скрипты в статье:
💠Поиск аномалий памяти
💠Глубокий анализ дискового ввода-вывода
💠Детектор сетевых аномалий

🖼️ Дочитать статью на Habr'e

🔨 bash_help
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64🔥3
Бесплатный вебинар: «GitOps + Flux — ваш путь к автоматизированному деплою в Kubernetes»!

Вы хотите развернуть приложение в Kubernetes без тонны ручных команд и нервов? Мечтаете о системе, где код сам «доставляется» в прод по принципу «закоммитил — заработало»?

Приглашаем вас на открытый урок в рамках курса «Инфраструктурная платформа на основе Kubernetes, где разберём»:
- как перестать вручную деплоить приложения;
- как добиться стабильного состояния кластера;
- как сделать процессы прозрачными и контролируемыми.

🗓 Когда: 23.12, в 20-00
Для кого: DevOps‑инженеры, разработчики, администраторы Kubernetes, все, кто хочет автоматизировать деплой.

На уроке вы узнаете:
💚 Что такое GitOps и почему это новый стандарт работы с Kubernetes.
💚 Как Flux автоматизирует синхронизацию кластера с Git‑репозиторием.
💚Практические примеры настройки Flux для реальных сценариев.
💚Как избежать типичных ошибок при внедрении GitOps.
💚Какие преимущества даёт подход «конфигурация как код».

После урока вы сможете:
- настроить базовый пайплайн GitOps с Flux;
- понять, как интегрировать Flux в существующую инфраструктуру;
- оценить, подходит ли GitOps для вашего проекта.

➡️ Регистрация: https://otus.pw/E88Z/

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Please open Telegram to view this post
VIEW IN TELEGRAM
2
⚙️ Резервное копирование данных сервера в облачные хранилища через домашний интернет

✔️Прежде чем приступить к техническим аспектам, необходимо определить объем данных, которые требуют регулярного резервного копирования. Современные домашние серверы могут содержать терабайты информации: веб-сайты, базы данных, медиафайлы, конфигурационные файлы и пользовательские данные.

➡️ При выборе облачного хранилища для бэкапов стоит учитывать несколько ключевых факторов:
💠Стоимость хранения данных — большинство провайдеров предлагают первые гигабайты бесплатно, но за объемы свыше 100 ГБ придется платить ежемесячно.
💠Скорость загрузки — зависит не только от выбранного сервиса, но и от качества интернет-соединения. Домашний интернет билайн и другие крупные провайдеры обеспечивают стабильную скорость аплоада, что критично для больших объемов данных.
💠Географическое расположение серверов — для российских пользователей предпочтительны сервисы с серверами в России или близлежащих странах.

▶️Один из главных вопросов при организации автоматического резервного копирования — сколько времени потребуется для загрузки данных и какой объем трафика будет потребляться ежемесячно.

▶️Для расчета времени используется простая формула — Время = Объем данных / Скорость загрузки
Например, при объеме бэкапа 50 ГБ и скорости аплоада 10 Мбит/с
50 ГБ = 50 * 1024 * 8 = 409600 Мбит
409600 / 10 = 40960 минут = 682 часа ≈ 28 дней


▶️Для оптимизации времени и трафика рекомендуется использовать инкрементальные бэкапы. Принцип работы прост — полный бэкап создается один раз, а затем загружаются только изменившиеся файлы.

➡️ Популярные инструменты для инкрементального резервного копирования:
💠rsync — классический инструмент Unix-систем, поддерживает сжатие и шифрование данных при передаче.
💠rclone — современная утилита с поддержкой множества облачных хранилищ: Google Drive, Dropbox, Yandex.Disk, Amazon S3.
💠duplicity — специализированное решение для шифрованных бэкапов с поддержкой инкрементального копирования.

▶️Для автоматизации бэкапов используется системный планировщик cron.
# Редактируем задачи cron
crontab -e
# Добавляем строку для ежедневного бэкапа в 2:00 ночи
0 2 * * * /usr/local/bin/backup_script.sh >> /var/log/backup.log 2>&


▶️Пример скрипта для автоматического бэкапа с использованием rclone:
#!/bin/bash
# Переменные
SOURCE_DIR="/var/www"
BACKUP_NAME="server_backup_$(date +%Y%m%d)"
REMOTE_PATH="mycloud:backups/"
# Создание архива
tar -czf "/tmp/${BACKUP_NAME}.tar.gz" ${SOURCE_DIR}
# Загрузка в облако
rclone copy "/tmp/${BACKUP_NAME}.tar.gz" ${REMOTE_PATH}
# Удаление локального архива
rm "/tmp/${BACKUP_NAME}.tar.gz"
# Очистка старых бэкапов (старше 30 дней)
rclone delete ${REMOTE_PATH} --min-age 30d


▶️Критически важно отслеживать успешность выполнения бэкапов. Для этого можно использовать:
💠Email-уведомления
💠Telegram-бот
💠Лог-файлы

▶️Регулярное тестирование восстановления данных — обязательная часть стратегии резервного копирования. Рекомендуется ежемесячно проводить полное восстановление на тестовом сервере для проверки целостности бэкапов.

➡️ Процедура тестирования включает:
💠Загрузку случайного бэкапа из облачного хранилища
💠Восстановление данных на отдельном сервере
💠Проверку работоспособности восстановленных сервисов
💠Документирование результатов тестирования

➡️ Для снижения нагрузки на интернет-канал и ускорения процесса резервного копирования рекомендуется:
💠Сжатие данных — использование алгоритмов сжатия может сократить размер бэкапов на 30-70%.
💠Планирование времени выполнения — запуск бэкапов в ночное время, когда сетевая нагрузка минимальна.
💠Дедупликация — исключение дублирующихся файлов из бэкапов.
💠Bandwidth throttling — ограничение скорости загрузки для предотвращения влияния на основную работу сервера.

🖼️ Дочитать статью в источнике

🔨 bash_help
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥32😐1