BashMaster
8.3K subscribers
836 photos
27 videos
1 file
860 links
Удобные консольные наработки на каждый день для разработчиков, девопсов и сисадминов.

Реклама: @Kone4noVasya

Канал на бирже: https://telega.in/c/bash_help
Download Telegram
Бесплатный вебинар: «GitOps + Flux — ваш путь к автоматизированному деплою в Kubernetes»!

Вы хотите развернуть приложение в Kubernetes без тонны ручных команд и нервов? Мечтаете о системе, где код сам «доставляется» в прод по принципу «закоммитил — заработало»?

Приглашаем вас на открытый урок в рамках курса «Инфраструктурная платформа на основе Kubernetes, где разберём»:
- как перестать вручную деплоить приложения;
- как добиться стабильного состояния кластера;
- как сделать процессы прозрачными и контролируемыми.

🗓 Когда: 23.12, в 20-00
Для кого: DevOps‑инженеры, разработчики, администраторы Kubernetes, все, кто хочет автоматизировать деплой.

На уроке вы узнаете:
💚 Что такое GitOps и почему это новый стандарт работы с Kubernetes.
💚 Как Flux автоматизирует синхронизацию кластера с Git‑репозиторием.
💚Практические примеры настройки Flux для реальных сценариев.
💚Как избежать типичных ошибок при внедрении GitOps.
💚Какие преимущества даёт подход «конфигурация как код».

После урока вы сможете:
- настроить базовый пайплайн GitOps с Flux;
- понять, как интегрировать Flux в существующую инфраструктуру;
- оценить, подходит ли GitOps для вашего проекта.

➡️ Регистрация: https://otus.pw/E88Z/

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Please open Telegram to view this post
VIEW IN TELEGRAM
2
⚙️ Резервное копирование данных сервера в облачные хранилища через домашний интернет

✔️Прежде чем приступить к техническим аспектам, необходимо определить объем данных, которые требуют регулярного резервного копирования. Современные домашние серверы могут содержать терабайты информации: веб-сайты, базы данных, медиафайлы, конфигурационные файлы и пользовательские данные.

➡️ При выборе облачного хранилища для бэкапов стоит учитывать несколько ключевых факторов:
💠Стоимость хранения данных — большинство провайдеров предлагают первые гигабайты бесплатно, но за объемы свыше 100 ГБ придется платить ежемесячно.
💠Скорость загрузки — зависит не только от выбранного сервиса, но и от качества интернет-соединения. Домашний интернет билайн и другие крупные провайдеры обеспечивают стабильную скорость аплоада, что критично для больших объемов данных.
💠Географическое расположение серверов — для российских пользователей предпочтительны сервисы с серверами в России или близлежащих странах.

▶️Один из главных вопросов при организации автоматического резервного копирования — сколько времени потребуется для загрузки данных и какой объем трафика будет потребляться ежемесячно.

▶️Для расчета времени используется простая формула — Время = Объем данных / Скорость загрузки
Например, при объеме бэкапа 50 ГБ и скорости аплоада 10 Мбит/с
50 ГБ = 50 * 1024 * 8 = 409600 Мбит
409600 / 10 = 40960 минут = 682 часа ≈ 28 дней


▶️Для оптимизации времени и трафика рекомендуется использовать инкрементальные бэкапы. Принцип работы прост — полный бэкап создается один раз, а затем загружаются только изменившиеся файлы.

➡️ Популярные инструменты для инкрементального резервного копирования:
💠rsync — классический инструмент Unix-систем, поддерживает сжатие и шифрование данных при передаче.
💠rclone — современная утилита с поддержкой множества облачных хранилищ: Google Drive, Dropbox, Yandex.Disk, Amazon S3.
💠duplicity — специализированное решение для шифрованных бэкапов с поддержкой инкрементального копирования.

▶️Для автоматизации бэкапов используется системный планировщик cron.
# Редактируем задачи cron
crontab -e
# Добавляем строку для ежедневного бэкапа в 2:00 ночи
0 2 * * * /usr/local/bin/backup_script.sh >> /var/log/backup.log 2>&


▶️Пример скрипта для автоматического бэкапа с использованием rclone:
#!/bin/bash
# Переменные
SOURCE_DIR="/var/www"
BACKUP_NAME="server_backup_$(date +%Y%m%d)"
REMOTE_PATH="mycloud:backups/"
# Создание архива
tar -czf "/tmp/${BACKUP_NAME}.tar.gz" ${SOURCE_DIR}
# Загрузка в облако
rclone copy "/tmp/${BACKUP_NAME}.tar.gz" ${REMOTE_PATH}
# Удаление локального архива
rm "/tmp/${BACKUP_NAME}.tar.gz"
# Очистка старых бэкапов (старше 30 дней)
rclone delete ${REMOTE_PATH} --min-age 30d


▶️Критически важно отслеживать успешность выполнения бэкапов. Для этого можно использовать:
💠Email-уведомления
💠Telegram-бот
💠Лог-файлы

▶️Регулярное тестирование восстановления данных — обязательная часть стратегии резервного копирования. Рекомендуется ежемесячно проводить полное восстановление на тестовом сервере для проверки целостности бэкапов.

➡️ Процедура тестирования включает:
💠Загрузку случайного бэкапа из облачного хранилища
💠Восстановление данных на отдельном сервере
💠Проверку работоспособности восстановленных сервисов
💠Документирование результатов тестирования

➡️ Для снижения нагрузки на интернет-канал и ускорения процесса резервного копирования рекомендуется:
💠Сжатие данных — использование алгоритмов сжатия может сократить размер бэкапов на 30-70%.
💠Планирование времени выполнения — запуск бэкапов в ночное время, когда сетевая нагрузка минимальна.
💠Дедупликация — исключение дублирующихся файлов из бэкапов.
💠Bandwidth throttling — ограничение скорости загрузки для предотвращения влияния на основную работу сервера.

🖼️ Дочитать статью в источнике

🔨 bash_help
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥32😐1