Bash Советы
1.85K subscribers
53 photos
8 videos
4 links
🚀 Секреты и советы по Bash

🔹 Полезные трюки, хитрые однострочники и лайфхаки для работы в терминале.
🔹 Автоматизация, скрипты и оптимизация работы в Linux.
🔹 Стать мастером Bash легко – просто подпишись!

💻 Прокачивай терминал вместе с нами! 👇
Download Telegram
🗑️ Bash-совет дня: safe_rm — «корзина» для удаляемых файлов

Сколько раз вы случайно удаляли важный конфиг? Давайте сделаем rm более дружелюбным — вместо мгновенного уничтожения файлы будут складываться в «корзину» и автоматически очищаться спустя 30 дней.


#!/usr/bin/env bash
# safe_rm — перемещает удаляемые файлы в локальную «корзину»

TRASH_DIR="$HOME/.local/share/Trash/files" # куда складываем
mkdir -p "$TRASH_DIR"

stamp=$(date +%Y-%m-%d_%H-%M-%S)

for item in "$@"; do
if [[ ! -e $item ]]; then
printf '⚠️ %s: no such file or directory\n' "$item" >&2
continue
fi
mv -- "$item" "$TRASH_DIR/$(basename "$item")_$stamp"
done

# авто-очистка файлов, которым больше 30 дней
find "$TRASH_DIR" -type f -mtime +30 -delete 2>/dev/null


Быстрый старт


sudo install -m 755 safe_rm /usr/local/bin/
echo "alias rm='safe_rm'" >> ~/.bashrc && source ~/.bashrc


Проверяем


touch important.cfg
rm important.cfg
ls ~/.local/share/Trash/files # Файл на месте 🎉


> Лайфхак:
> Хотите разные сроки хранения? Меняйте -mtime +30 на нужное количество дней.
> Регулярные выражения в find позволяют тоньше выбирать, что чистить (например, только логи *_$(date +%Y-%m-*)).

Спасайте нервы и конфиги! 😉

👉@bash_srv
Извлечение уникальных IP-адресов из логов Apache

Иногда нужно быстро получить список всех клиентов, обращавшихся к вашему веб-серверу. Мини-скрипт на Bash с регулярным выражением поможет вытащить и сохранить все уникальные IP-адреса:


#!/usr/bin/env bash

# 📁 Файл логов Apache
LOG_FILE="/var/log/apache2/access.log"

# 📄 Файл для сохранения уникальных IP
OUT_FILE="/var/log/unique_ips_$(date +%F).txt"

# 🛠️ Извлекаем все IPv4, сортируем и убираем дубликаты
grep -Eo '([0-9]{1,3}\.){3}[0-9]{1,3}' "$LOG_FILE" \
| sort \
| uniq > "$OUT_FILE"

echo " Список уникальных IP-адресов сохранён в $OUT_FILE"


Как это работает

1. grep -Eo '([0-9]{1,3}\.){3}[0-9]{1,3}' — опция -E включает расширенные регулярки, -o выводит только совпадения. Регулярка ищет четыре числа от 0 до 999 через точки.
2. sort упорядочивает адреса для корректной работы uniq.
3. uniq удаляет повторяющиеся строки, оставляя только уникальные IP.

Совет по автоматизации
Если вы хотите ежедневно обновлять этот список, добавьте задачу в cron:


0 1 * * * /usr/local/bin/extract_ips.sh >> /var/log/extract_ips_cron.log 2>&1


Это запустит скрипт каждый день в 1:00 и сохранит результат с датой в имени файла.

👉@bash_srv
🚀 Полезный Bash-скрипт для архивации старых логов 🚀

Иногда логи на сервере растут быстрее, чем хочется, и начинают занимать всё свободное место. Предлагаю простой скрипт, который:

1. Находит файлы с расширением .log, изменённые более чем N дней назад.
2. Архивирует их в тарболл с датой.
3. Удаляет оригиналы после успешного архива.


#!/usr/bin/env bash
#
# Архивация старых логов >7 дней
# Сохраняет в /var/backups/logs/YYYY-MM-DD_logs.tar.gz

# Настройки
LOG_DIR="/var/log" # Каталог с логами
BACKUP_DIR="/var/backups/logs" # Куда складывать архивы
DAYS_OLD=7 # Возраст файлов в днях

# Создаём папку для бэкапов, если нет
mkdir -p "$BACKUP_DIR"

# Текущая дата
DATE=$(date '+%Y-%m-%d')

# Найти *.log старше N дней и упаковать в архив
find "$LOG_DIR" -type f -regextype posix-extended -regex ".*/[a-zA-Z0-9_-]+\.log$" \
-mtime +"$DAYS_OLD" -print0 | \
tar --null -czf "$BACKUP_DIR/${DATE}_logs.tar.gz" --files-from -

# Проверка успешности и удаление исходников
if [[ $? -eq 0 ]]; then
echo " Архив создан: $BACKUP_DIR/${DATE}_logs.tar.gz"
# Удаляем старые логи
find "$LOG_DIR" -type f -regextype posix-extended -regex ".*/[a-zA-Z0-9_-]+\.log$" \
-mtime +"$DAYS_OLD" -delete
echo "🗑️ Оригиналы удалены."
else
echo " Ошибка при создании архива!"
exit 1
fi


Как это работает

* find … -regextype posix-extended -regex ".*/[a-zA-Z0-9_-]+\.log$"
Использует регулярное выражение, чтобы найти все файлы с именами, состоящими из букв, цифр, подчёркиваний или дефисов, и оканчивающиеся на .log.
* Опция -mtime +7 выбирает файлы старше 7 дней.
* tar --null --files-from - позволяет безопасно работать с именами, содержащими пробелы.
* При успешном создании архива исходные файлы удаляются командой -delete в find.

Совет:
Добавьте этот скрипт в cron, чтобы он выполнялся автоматически, например, каждый день в 2:00:


0 2 * * * /usr/local/bin/archive_logs.sh >> /var/log/archive_logs_cron.log 2>&1


👍 Надеюсь, пригодится!

👉@bash_srv
🚀 Мониторим активные подключения к серверу по SSH

Иногда нужно быстро узнать, кто сейчас подключён к серверу по SSH. Вот простой однострочный скрипт:


who | grep 'pts' | awk '{print $1, $2, $5}'


Что делает этот скрипт?

* who — выводит список всех вошедших пользователей.
* grep 'pts' — фильтрует только те строки, что связаны с терминалами SSH.
* awk '{print $1, $2, $5}' — красиво выводит имя пользователя, терминал и IP-адрес.

📋 Пример вывода:


admin pts/0 (192.168.1.55)
root pts/1 (10.0.0.23)


Теперь ты всегда в курсе, кто подключён к твоему серверу! 😉

👉@bash_srv
🧹 Bash-скрипт для очистки старых логов с уведомлением

Иногда логи занимают слишком много места, и их нужно периодически чистить. Этот скрипт удаляет логи старше 14 дней в заданной папке и шлёт уведомление на почту, если удалено более 500 МБ.


#!/bin/bash

LOG_DIR="/var/log"
DAYS=14
MAX_REMOVED_MB=500
EMAIL="admin@yourdomain.com"

# Подсчитываем общий размер файлов, которые будут удалены
REMOVED_SIZE=$(find "$LOG_DIR" -type f -mtime +$DAYS -print0 | du --files0-from=- -ch | grep total$ | awk '{print $1}')
REMOVED_SIZE_MB=$(echo $REMOVED_SIZE | sed 's/M//' | awk '{print int($1)}')

# Удаляем старые логи
find "$LOG_DIR" -type f -mtime +$DAYS -delete

# Если удалено больше MAX_REMOVED_MB, отправляем уведомление на почту
if [ "$REMOVED_SIZE_MB" -gt "$MAX_REMOVED_MB" ]; then
echo "Удалено логов на $REMOVED_SIZE из $LOG_DIR" | mail -s "Удаление логов" "$EMAIL"
fi


🔹 Что делает скрипт:

* Находит старые логи, считает их общий размер.
* Удаляет только если файлы старше 14 дней.
* Если удалено больше заданного лимита (по умолчанию 500 МБ) — уведомляет по почте.

Обрати внимание:
Для работы уведомления нужна установленная утилита mail (например, из пакета mailutils или sendmail).

👉@bash_srv
🕵️‍♂️ Мониторим новые файлы в каталоге в реальном времени

Иногда нужно узнать, когда в определённой папке появляются новые файлы. Bash + inotifywait помогут:


inotifywait -m -e create --format '%w%f' /path/to/dir | while read NEWFILE; do
echo "🆕 Новый файл: $NEWFILE"
done


📦 Объяснение:

* inotifywait -m — постоянный мониторинг
* -e create — событие создания
* --format '%w%f' — полный путь к новому файлу
* /path/to/dir — нужная папка
* Всё новое сразу отображается в консоли

Установить inotify-tools:


sudo apt install inotify-tools


👉@bash_srv
📈 Мониторинг загрузки CPU и памяти с автоматическими уведомлениями 🚨Часть 1️⃣

Всем привет! Сегодня сделаем Bash-скрипт, который периодически проверяет загрузку процессора и использование памяти, логирует результаты и отправляет уведомление, если показатели превышают заданные пороги. Полезно держать под контролем ресурсы сервера и вовремя реагировать на перегрузки.


#!/usr/bin/env bash
# Название: monitor_resources.sh
# Описание: Мониторит загрузку CPU и память, пишет в лог и уведомляет при превышении порогов.
# Использование: ./monitor_resources.sh 75 80 "/путь/до/notify.sh" "/var/log/resource_monitor.log"

# ---------------------------
# Параметры:
# $1 - порог нагрузки CPU в % (например, 75)
# $2 - порог использования RAM в % (например, 80)
# $3 - (опционально) скрипт для уведомления (при превышении любого порога)
# $4 - (опционально) файл лога (по умолчанию /var/log/resource_monitor.log)
# ---------------------------

CPU_THRESHOLD="${1:-75}"
RAM_THRESHOLD="${2:-80}"
NOTIFY_SCRIPT="$3"
LOG_FILE="${4:-/var/log/resource_monitor.log}"

# Функция: Получает текущую загрузку CPU в процентах (суммарно по всем ядрам)
get_cpu_usage() {
# Используем команду top в batch-режиме один раз, парсим строку "%Cpu(s)"
local cpu_idle
cpu_idle=$(top -bn1 | grep '^%Cpu' | awk '{print $8}' | tr -d ',%i')
# cpu_idle — процент простаивающего CPU, остальное считается занятостью
local cpu_usage=$((100 - cpu_idle))
echo "$cpu_usage"
}

# Функция: Получает текущее использование RAM в процентах
get_ram_usage() {
# Используем команду free, берем строку Mem:, вычисляем (used/total)*100
local total mem_free buff_cache used
read -r total mem_free buff_cache used _ < <(free -m | awk '/^Mem:/ {print $2, $4, $6, $3}')
# Общее доступное для процессов = free + buff/cache
local available=$((mem_free + buff_cache))
local ram_usage=$(( ( (total - available) * 100 ) / total ))
echo "$ram_usage"
}

# Функция: Записывает в лог текущие показатели с датой и временем
write_log() {
local timestamp
timestamp=$(date '+%Y-%m-%d %H:%M:%S')
echo "[$timestamp] CPU: ${CPU}% | RAM: ${RAM}%" >> "$LOG_FILE"
}

# Функция: Проверяет пороги и при необходимости вызывает скрипт уведомления
check_thresholds() {
local alert_messages=()

if (( CPU > CPU_THRESHOLD )); then
alert_messages+=("CPU превышен: текущая загрузка ${CPU}% (порог ${CPU_THRESHOLD}%)")
fi

if (( RAM > RAM_THRESHOLD )); then
alert_messages+=("RAM превышен: текущее использование ${RAM}% (порог ${RAM_THRESHOLD}%)")
fi

if [[ ${#alert_messages[@]} -gt 0 ]]; then
local full_message="🚨 WARNING на $(hostname):\n$(printf '%s\n' "${alert_messages[@]}")"
echo -e "$full_message" >> "$LOG_FILE"
if [[ -x "$NOTIFY_SCRIPT" ]]; then
# Передаем уведомление как один аргумент (с переводами строк)
"$NOTIFY_SCRIPT" "$full_message"
echo "✔️ Уведомление отправлено через $NOTIFY_SCRIPT" >> "$LOG_FILE"
else
echo "⚠️ Скрипт уведомления не доступен или не указан." >> "$LOG_FILE"
fi
fi
}

# Основной блок
CPU=$(get_cpu_usage)
RAM=$(get_ram_usage)
write_log
check_thresholds

exit 0




Как это работает 📋

1. get_cpu_usage

* top -bn1 запускает top в неинтерактивном режиме один раз (batch mode).
* Парсим строку вида %Cpu(s): 3.0 us, 1.0 sy, 0.0 ni, 95.5 id, ... и берем поле с процентом простаивающего CPU (id).
* cpu_usage = 100 - cpu_idle — получаем загрузку в процентах.

2. get_ram_usage

* free -m выводит статистику по памяти в мегабайтах. Строка Mem: содержит total, used, free, shared, buff/cache, available.
* Чтобы учесть буфер/кэш, вычисляем available = free + buff/cache.
* ram_usage = ((total - available) * 100) / total — процент реально занятой памяти.

3. Запись в лог

* В файл (по умолчанию /var/log/resource_monitor.log) пишется строка с текущими значениями CPU и RAM вместе с временной меткой.
* Если файл не существует, он будет создан автоматически (не забудьте, чтобы скрипт имел права записи в эту директорию).

Продолжение в след. посте 👇

👉@bash_srv
📈 Мониторинг загрузки CPU и памяти с автоматическими уведомлениями 🚨Часть 2️⃣

4. Проверка порогов

* Сравниваем переменные CPU и RAM с CPU_THRESHOLD и RAM_THRESHOLD.
* Если превышен хотя бы один порог, формируем сообщение об ошибках (несколько строк, если оба ресурса в аварийном состоянии).
* Записываем предупреждение в тот же лог.
* При наличии исполняемого скрипта $NOTIFY_SCRIPT (например, отправка письма, пуша в Telegram, Slack, и т.д.) вызываем его, передавая всю текстовую информацию одним аргументом.
* Если скрипт уведомления не указан или он не помечен как исполняемый, просто логируем, что уведомление не отправлено.



Пример использования 🖥️

1. Создаем скрипт уведомления (например, notify.sh), который отправит сообщение в Telegram через Bot API (пример упрощённый):


#!/usr/bin/env bash
# notify.sh
# Использование: ./notify.sh "Ваше сообщение"
CHAT_ID="123456789"
BOT_TOKEN="1234:ABCD..."
MESSAGE="$1"
curl -s -X POST "https://api.telegram.org/bot${BOT_TOKEN}/sendMessage" \
-d chat_id="${CHAT_ID}" \
-d text="$MESSAGE"


Не забудьте сделать его исполняемым:


chmod +x /path/to/notify.sh


2. Сам скрипт мониторинга (сохраняем как /usr/local/bin/monitor_resources.sh):


chmod +x /usr/local/bin/monitor_resources.sh


3. Добавляем в cron для регулярного выполнения, например, каждые 5 минут:


*/5 * * * * /usr/local/bin/monitor_resources.sh 75 80 /path/to/notify.sh /var/log/resource_monitor.log


* Каждые 5 минут скрипт будет проверять ресурсы.
* Если загрузка CPU превысит 75% или использование RAM превысит 80%, вы получите пуш в Telegram.
* Все показатели и события будут храниться в /var/log/resource_monitor.log.



Регулярные выражения для анализа логов 🛠️

Чтобы быстро найти в логе все моменты, когда была высокая загрузка, можно воспользоваться grep с регуляркой на поиск слова WARNING или WARNING на (в зависимости от вашего формата):


grep -E "WARNING на" /var/log/resource_monitor.log | tail -n 20


* -E включает расширенные регэкспы, чтобы мы могли сразу писать более выразительные шаблоны.
* Если нужно искать как CPU, так и RAM-превышения, можно просто фильтровать по ключевому слову WARNING.

А чтобы извлечь только числовые значения CPU и RAM (например, для построения графика), можно использовать такую регулярку:


grep -oP "(?<=CPU: )\d+|(?<=RAM: )\d+" /var/log/resource_monitor.log


* -oP — включаем Perl-совместимые регулярки и печатаем только совпадения.
* (?<=CPU: )\d+ находит числа, стоящие после CPU: . То же для RAM: .
* В результате вы получите список чисел: сначала процент CPU, затем процент RAM, затем снова CPU и RAM и т.д. Можно перенаправить их в CSV для визуализации.


Советы по доработке

* Графическое представление: можно раз в сутки запускать ещё один скрипт, который из лога выдергивает данные за последние 24 часа и рисует график (с помощью gnuplot или Python).
* Добавить HDD/SSD мониторинг: аналогично можно проверять доступное место на диске (через df -h и awk), объединив два вида проверки в одном инструменте.
* Динамические пороги: если у вас в пиковое время допустимо более высокое значение, можно задавать пороги исходя из времени суток — через date +%H проверять час и переключаться между разными значениями.

Надеюсь, этот скрипт упростит вам задачу контроля ресурсов и поможет своевременно реагировать на перегрузки серверов!

👉@bash_srv
Сегодня я хочу поделиться простым, но очень полезным Bash-скриптом для автоматического резервного копирования директорий с ротацией старых бэкапов. Такой скрипт пригодится, если необходимо сохранять копии важных данных и при этом не засорять диск старыми архивами.


🔄 Скрипт: Backup с ротацией


#!/usr/bin/env bash

# ================================
# Скрипт: backup_rotate.sh
# Автор: https://t.me/bash_srv
# Описание: Создаёт архив указанной директории,
# хранит только последние N бэкапов, удаляя старые.
# ================================

# Настройки
SOURCE_DIR="/var/www/my_project" # Директория, которую резервируем
DEST_DIR="/backups/my_project" # Директория для хранения бэкапов
RETENTION_DAYS=7 # Сколько дней хранить бэкапы

# Текущее время для имени архива
DATE=$(date +"%Y-%m-%d_%H-%M-%S")
ARCHIVE_NAME="backup_${DATE}.tar.gz"

# Проверяем, что исходная директория существует
if [[ ! -d "$SOURCE_DIR" ]]; then
echo " Исходная директория $SOURCE_DIR не найдена!"
exit 1
fi

# Создаём директорию назначения, если её нет
mkdir -p "$DEST_DIR"

# Создаём архив
tar -czf "${DEST_DIR}/${ARCHIVE_NAME}" -C "$(dirname "$SOURCE_DIR")" "$(basename "$SOURCE_DIR")"
if [[ $? -eq 0 ]]; then
echo " Создан бэкап: ${DEST_DIR}/${ARCHIVE_NAME}"
else
echo " Ошибка при создании архива!"
exit 1
fi

# Удаляем старые бэкапы старше RETENTION_DAYS
find "$DEST_DIR" -type f -name "backup_*.tar.gz" -mtime +${RETENTION_DAYS} -print -delete
echo "🗑️ Удалены бэкапы старше ${RETENTION_DAYS} дней."

exit 0



📝 Пояснение к скрипту

1. Настройки переменных:

🔹 SOURCE_DIR — путь к директории, которую нужно сохранить (например, веб-проект, база данных и т.д.).
🔹 DEST_DIR — куда складываем архива (может быть локальная папка или смонтированный удалённый диск).
🔹 RETENTION_DAYS — сколько дней хранить бэкапы. Всё, что старше этого значения, будет удаляться автоматически.
2. Скрипт проверяет, существует ли исходная директория. Если нет — выводит ошибку и завершает работу.
3. Создаётся папка назначения (mkdir -p), чтобы избежать ошибок, если её ещё нет.
4. Делается tar.gz - архив директории, причём для удобства используется команда:


tar -czf ${DEST_DIR}/${ARCHIVE_NAME} -C $(dirname $SOURCE_DIR) $(basename $SOURCE_DIR)


- Это позволяет не копировать весь путь в архив, а только нужную папку.
5. Если архивирование прошло успешно (код возврата 0) — выводим сообщение об успехе.
6. Далее команда find ищет файлы-архивы старше RETENTION_DAYS дней и удаляет их. Параметр -mtime +N означает “более N дней назад”. Опция -print -delete сначала покажет, что удаляется, а потом удалит.
7. В конце скрипт выводит, сколько старых бэкапов удалено, и завершает работу.


📌 Как использовать

1. Скопируйте скрипт в файл, например:


sudo nano /usr/local/bin/backup_rotate.sh

2. Сделайте его исполняемым:


sudo chmod +x /usr/local/bin/backup_rotate.sh

3. Отредактируйте переменные в начале скрипта под свои нужды:


SOURCE_DIR="/path/to/your/data"
DEST_DIR="/path/to/backup/location"
RETENTION_DAYS=7

4. Запустите вручную, чтобы протестировать:


/usr/local/bin/backup_rotate.sh

5. Если всё работает как надо, добавьте задание в ``````bash
crontab``````bash
для автоматического запуска. Например, чтобы делать бэкап каждый день в 3:00:


sudo crontab -e


И добавить строку:


0 3 * * * /usr/local/bin/backup_rotate.sh >> /var/log/backup_rotate.log 2>&1


Здесь мы также перенаправляем вывод в лог-файл, чтобы отслеживать успешные и неуспешные запуски. 📜

👉@bash_srv
Вдогонку к посту выше, скрипт можно доработать, например:


🔹🔒 Шифрование архива: можно добавить gpg для шифровки бэкапа, если вы сохраняете его во внешнем облаке.
🔹📤 Загрузка в облако: после создания архива добавить команду для выгрузки в Amazon S3/Google Cloud Storage/FTP.
🔹📧 Уведомления: вставить отправку письма или Telegram-уведомление об успешном/неудачном бэкапе.
🔹📂 Разные политики ротации: вместо удаления по возрасту, можно хранить фиксированное количество последних архивов:


ls -1t "$DEST_DIR"/backup_*.tar.gz | tail -n +6 | xargs rm -f


- Это будет хранить только 5 свежих бэкапов.

Надеюсь, этот скрипт упростит вам жизнь и поможет защитить ваши данные! Если возникнут вопросы или идеи осовременить решение — пишите в комментариях. 😊

👉@bash_srv
💡 Bash-совет: Анализ самых активных IP в логах веб-сервера 🐚🚀

Когда на сервере много трафика, полезно быстро узнать, какие IP-адреса обращаются к веб-серверу больше всего. Предлагаю скрипт, который:

1. Извлекает IP из access.log (или любого другого лог-файла).
2. Считает количество запросов от каждого IP.
3. Сортирует и показывает топ N «запросчиков».


📋 Скрипт: top_ips.sh


#!/usr/bin/env bash

# --------------------------------------------
# Скрипт для поиска топ-N IP-адресов в логах
# Автор: @bash_srv
# --------------------------------------------

# Путь к лог-файлу (по умолчанию /var/log/nginx/access.log)
LOGFILE="/var/log/nginx/access.log"

# Сколько адресов показать (по умолчанию 10)
TOP_N=10

# Временный файл для списка всех IP
TEMP="/tmp/all_ips_$(date +%Y%m%d_%H%M%S).txt"

# Проверка, что лог-файл существует
if [[ ! -f "$LOGFILE" ]]; then
echo " Лог-файл '$LOGFILE' не найден!"
exit 1
fi

echo "🔎 Извлекаем IP-адреса из $LOGFILE и рассчитываем топ $TOP_N..."

# 1. Извлекаем первый столбец (обычно там IP), записываем во временный файл
awk '{print $1}' "$LOGFILE" > "$TEMP"

# 2. Считаем повторы, сортируем по убыванию, выводим топ N
echo -e "\n📊 Топ $TOP_N IP-адресов (по количеству запросов):"
sort "$TEMP" | uniq -c | sort -nr | head -n "$TOP_N" | awk '{printf "%s запросов — %s\n", $1, $2}'

# 3. Убираем временный файл
rm -f "$TEMP"

echo -e "\n Готово!"



📝 Как это работает

1. LOGFILE — путь к вашему файлу логов Nginx/Apache.

Для Apache обычно /var/log/apache2/access.log, для Nginx — /var/log/nginx/access.log.
Если у вас другой путь, просто адаптируйте переменную LOGFILE.

2. Команда awk '{print $1}' "$LOGFILE":

Берёт первый столбец в каждой строке лога (IP-адрес).
Сохраняет все адреса во временный файл $TEMP.

3. sort "$TEMP" | uniq -c | sort -nr | head -n "$TOP_N":

sort упорядочивает список IP по возрастанию.
uniq -c объединяет подряд идущие одинаковые строки и выводит количество повторений.
Второй sort -nr сортирует по числу запросов (включая самое большое значение сверху).
head -n "$TOP_N" берёт первые N строк (топ N IP).

4. awk '{printf "%s запросов — %s\n", $1, $2}' форматирует вывод:

Например: 1234 запросов — 192.168.1.100.

5. По завершении удаляется временный файл $TEMP для чистоты.


🔧 Как улучшить и кастомизировать

Датафильтрация: если нужен анализ только за последние N дней, можно применять grep с date:


# Пример: IP-адреса из логов за сегодня
TODAY=$(date '+%d/%b/%Y')
grep "$TODAY" "$LOGFILE" | awk '{print $1}' > "$TEMP"


Здесь date '+%d/%b/%Y' выдаёт, например, 05/Jun/2025, что совпадает со строками формата Nginx-лога.

Анализ URL: можно аналогично извлекать запрашиваемые URL:


awk '{print $7}' "$LOGFILE" | sort | uniq -c | sort -nr | head -n 10


Это покажет топ-10 запрашиваемых путей.

Выгрузка в файл/почту: чтобы сохранить результаты или отправить их администратору:


OUTPUT="/tmp/top_ips_report.txt"
sort "$TEMP" | uniq -c | sort -nr | head -n "$TOP_N" > "$OUTPUT"
mail -s "Топ IP-адресов на $(hostname)" admin@example.com < "$OUTPUT"


Интеграция в cron: автоматизируйте ежедневный отчёт:


# crontab -e
30 0 * * * /usr/local/bin/top_ips.sh >> /var/log/top_ips.log


Это запустит скрипт каждый день в 00:30 и добавит результаты в /var/log/top_ips.log.


🔔 Вывод: Используя этот простой Bash-скрипт, вы сможете в пару команд узнать, какие IP-адреса генерируют наибольшую нагрузку на ваш веб-сервер. Это поможет вовремя выявить подозрительные активности, защититься от DDoS-атак или просто понять, кто чаще всего посещает сайт.

👉@bash_srv
Bash-совет: анализ неудачных SSH-логинов и бан «горячих» IP 🔒🐚

Хотите быстро узнать, какие IP вызывают максимум неудачных попыток входа в SSH, и оперативно заблокировать самых настырных? Ниже скрипт:


#!/usr/bin/env bash
# ssh_fail_analyzer.sh
# Анализ неудачных SSH-попыток и вывод TOP-10 IP

LOG_FILE="/var/log/auth.log" # путь к логам (для CentOS: /var/log/secure)
TOPN=10 # сколько IP показывать

echo "Топ $TOPN IP с неудачными SSH-входами:"
grep -E "Failed password for" "$LOG_FILE" \
| grep -oP '(?<=from )[\d\.]+' \
| sort \
| uniq -c \
| sort -rn \
| head -n "$TOPN"


Как это работает

1. grep -E "Failed password for"
Ищем все строки с неудачными попытками.
2. grep -oP '(?<=from )\[\d.]+'
С помощью PCRE-регулярки достаём только IP-адреса после слова "from".
3. sort | uniq -c | sort -rn
Сортируем, считаем вхождения и выводим в порядке убывания.
4. head -n "\$TOPN"
Ограничиваем результат топ-10.


🛠 Можно добавить в crontab ежедневный запуск и автоматическую отправку отчёта на почту или сразу бан «горячих» IP через iptables:


# в crontab: каждый день в 00:10
10 0 * * * /path/to/ssh_fail_analyzer.sh | mail -s "SSH Fail Report" admin@example.com


Или сразу блокировать подозрительные IP, если они превысили порог:


THRESHOLD=50
for ip in $(grep -E "Failed password for" "$LOG_FILE" \
| grep -oP '(?<=from )[\d\.]+' \
| sort | uniq -c \
| awk -v t="$THRESHOLD" '$1 > t {print $2}'); do
iptables -I INPUT -s "$ip" -j DROP
echo "$(date): Заблокирован $ip за превышение $THRESHOLD неудачных попыток" >> /var/log/ssh_ban.log
done


👉@bash_srv
🔍 Мониторинг сервисов Linux и автоматический перезапуск 🛠️

Иногда сервисы на сервере «внезапно» падают, а вы об этом узнаёте лишь по жалобам пользователей. Предлагаю простой Bash-скрипт, который:

1. Проверяет статус списка сервисов
2. При необходимости перезапускает их
3. Логирует все действия


#!/usr/bin/env bash
# автор: https://t.me/bash_srv
# Список сервисов для мониторинга
services=(nginx sshd mysqld)

# Файл логов
logfile="/var/log/service_monitor.log"

for svc in "${services[@]}"; do
status=$(systemctl is-active "$svc")

if [[ "$status" != "active" ]]; then
echo "$(date '+%F %T') ❗️ Сервис $svc статус: $status. Перезапускаем..." >> "$logfile"
systemctl restart "$svc"

if [[ $? -eq 0 ]]; then
echo "$(date '+%F %T') ✔️ Сервис $svc успешно перезапущен" >> "$logfile"
else
echo "$(date '+%F %T') Не удалось перезапустить $svc" >> "$logfile"
fi
fi
done


🗓️ Как запустить по расписанию
Добавьте в crontab (например, каждый 5-й минут):


*/5 * * * * /path/to/service_monitor.sh



🔎 Пара совета по регулярным выражениям
Для анализа логов удобно собирать все строки с ошибками:


grep -Ei "(error|fail|critical|panic)" /var/log/syslog


-E включает расширенные регэкспы
-i — нечувствительность к регистру
Настройте свой набор ключевых слов для поиска 🎯


Пишите в комментариях, какие сервисы вы бы добавили в список мониторинга!

👉@bash_srv
📌 Рекурсивная массовая замена текста во всех файлах 🔍✏️

Иногда нужно за пару секунд заменить одну строку или слово сразу во множестве файлов в каталоге и его поддиректориях.


#!/usr/bin/env bash
# автор: https://t.me/bash_srv

# Проверка аргументов
if [ "$#" -ne 3 ]; then
echo "Использование: $0 <старый_текст> <новый_текст> <путь_к_директории>"
exit 1
fi

OLD="$1"
NEW="$2"
DIR="$3"
EXT="*" # можно указать, например, "*.conf" или "*.txt"

# Находим файлы и делаем замену с созданием резервных .bak-файлов
find "$DIR" -type f -name "$EXT" -print0 \
| xargs -0 sed -i.bak "s/${OLD}/${NEW}/g"

# Удаляем .bak, если они больше не нужны
# find "$DIR" -type f -name "*.bak" -delete

echo "Заменено '$OLD' на '$NEW' во всех файлах под '$DIR'."


🔧 Как использовать

1. Сохраните скрипт, например, как /usr/local/bin/bulk-replace.sh
2. Дайте права на исполнение:


chmod +x /usr/local/bin/bulk-replace.sh

3. Запустите, указав искомую строку, замену и каталог:


/usr/local/bin/bulk-replace.sh "foo" "bar" /etc/myapp


💡 Советы и примочки

🟢 По умолчанию скрипт обрабатывает все файлы (EXT="*"). Для конкретных типов (конфиги, скрипты) замените на "*.conf" или "*.sh".
🟢Флаг -i.bak создаёт резервную копию каждого файла с расширением .bak. Если вы уверены, что бэкапы не нужны, после замены раскомментируйте строку удаления.
🟢При сложных шаблонах (точки, слэши) вместо прямых слэшей s/old/new/g можно использовать другой разделитель, например s|old|new|g.
🟢Для чувствительных к регистру замен добавьте флаг I (GNU sed`): `s/${OLD}/${NEW}/gI.
🟢Если нужно увидеть, в каких файлах были изменения, перед sed вставьте -exec grep -l "${OLD}" {} \; или используйте grep -R --include="$EXT" "${OLD}" "$DIR".

👉@bash_srv
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Бэкап базы данных MySQL с автоматической ротацией 🔄

Если у тебя есть сервер с MySQL/MariaDB, автоматический бэкап с ротацией — must have для спокойной жизни 😌

Вот простой скрипт, который:

1. Делает дамп всех баз
2. Сохраняет в архив с датой
3. Удаляет архивы старше N дней


#!/bin/bash
# автор: https://t.me/bash_srv

# Папка для бэкапов
BACKUP_DIR="/opt/backups/mysql"
# Кол-во дней хранения
RETENTION_DAYS=7
# Дата для имени файла
DATE=$(date +'%Y-%m-%d_%H-%M')

# Учетные данные
DB_USER="root"
DB_PASS="mypassword"

mkdir -p "$BACKUP_DIR"

# Делаем дамп
mysqldump -u"$DB_USER" -p"$DB_PASS" --all-databases | gzip > "$BACKUP_DIR/mysql_backup_$DATE.sql.gz"

# Удаляем старые бэкапы
find "$BACKUP_DIR" -type f -name "*.gz" -mtime +$RETENTION_DAYS -delete

echo " Бэкап MySQL завершён: $DATE"


🛠 Рекомендуется повесить в крон, например, на каждый день в 3:00:


0 3 * * * /path/to/backup_mysql.sh


👀 Теперь бэкапы всегда под контролем, а лишние файлы не засоряют диск.

👉@bash_srv
🧹 Bash совет дня: удаляем пустые директории рекурсивно 🧹

Когда на сервере скапливаются лишние пустые папки — это не только мусор, но и потенциальная головная боль при навигации и поиске. Вот простой способ зачистить их:

#!/bin/bash

# Путь, в котором нужно очистить пустые папки
TARGET_DIR="/var/www/html"

# Удаляем все пустые директории, включая вложенные
find "$TARGET_DIR" -type d -empty -delete

echo " Все пустые директории удалены из $TARGET_DIR"


🔍 Как это работает:
• find ищет все папки (-type d), которые пусты (-empty) и удаляет их (-delete).
• Работает рекурсивно, удаляя даже вложенные пустые директории.

📅 Можно запускать из cron раз в неделю, например:

0 3 * * 0 /opt/scripts/clean_empty_dirs.sh

👌 Удобно, когда на сервере регулярно создаются временные папки, которые потом остаются без содержимого.

👉@bash_srv
Media is too big
VIEW IN TELEGRAM
🚀 MEETUPxSPRINT OFFER для инженеров технической поддержки от YADRO

Хочешь узнать, как устроена техническая поддержка в одной из ведущих технологических компаний России? Приходи на онлайн-митап от YADRO! Расскажем, покажем, ответим на любые вопросы — и дадим возможность попасть в команду всего за 3 дня!

🔥 Программа митапа:

✔️ Сервисная служба YADRO: основные ресурсы и направления
Василий Бронников, Руководитель отдела техподдержки решений

✔️ Наши продукты: уникальные характеристики и возможности
Андрей Антоненко, Ведущий инженер техподдержки TATLIN

✔️ Реальные кейсы: как команды решают сложные задачи
Дмитрий Сафонов, Руководитель группы L1-поддержки TATLIN.UNIFIED

🔥 Что тебя ждёт:

Реальные кейсы и инсайты из практики техподдержки
Доклады от инженеров YADRO: продукты, процессы, особенности
Живое общение с командой и ответы на вопросы о работе и технологиях

👨‍💻 А если ты задумываешься о новой работе — у тебя есть возможность быстро попасть в команду YADRO и получить оффер за 3 дня. Для этого нужно пройти короткий тест. Сделать это можно уже сейчас, а также во время или после митапа — выбирай, как тебе удобно (но заявки принимаем до 6 июля).

📌 Тест можно пройти по ссылке.



🗓 26 июня, начало в 19:00 мск, четверг

🌐 ОНЛАЙН

Регистрация на мероприятие

Реклама. ООО "ЭВРОНЕ.РУ". ИНН 3663057399. erid: 2VtzqxgwdGS
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Bash: выводим самые «тяжёлые» директории в системе 🧱

Когда место на диске заканчивается, надо быстро найти, кто его ест. Вот однострочник, который покажет 10 самых тяжёлых директорий в /:


du -ahx / | sort -rh | head -n 10


📌 Пояснение:

* du -ahx / — оценивает размер всех файлов и директорий, игнорируя другие файловые системы (важно, если есть монтирования);
* sort -rh — сортирует по размеру, от большего к меньшему;
* head -n 10 — берёт топ-10.

💡 Хочешь только директории без файлов? Замени -ahx на -h --max-depth=1:


du -h --max-depth=1 / | sort -rh


🎯 Быстро, просто, эффективно!

👉@bash_srv
🧠 Регулярки на практике: как вытащить IP-адреса из логов

Когда нужно быстро достать все IP-адреса из логов — тебе на помощь приходит grep + регулярные выражения 💪

Пример:


grep -oE '\b([0-9]{1,3}\.){3}[0-9]{1,3}\b' /var/log/nginx/access.log


🔍 Что делает:

-o — выводит только совпадения, без строки целиком
-E — расширенные регулярки
\b([0-9]{1,3}\.){3}[0-9]{1,3}\b — паттерн для IPv4

📌 Пример вывода:


192.168.0.1
10.0.0.55
172.16.100.7


🛡️ Хочешь избавиться от дубликатов?


grep -oE '\b([0-9]{1,3}\.){3}[0-9]{1,3}\b' /var/log/nginx/access.log | sort -u


📁 Подходит для Apache, Nginx, sshd и других логов, где есть IP.

👉@bash_srv
🔍 Поиск текста во множестве файлов — быстро и точно!

Если нужно найти, где в проекте встречается определённая строка (например, DB_PASSWORD), не лезь в каждый файл руками!
Используй мощную связку grep:


grep -rnw '/путь/к/папке' -e 'DB_PASSWORD'


📌 Пояснение:

* -r — рекурсивный поиск по подкаталогам.
* -n — показать номер строки.
* -w — искать точное слово (не подстроку).
* -e — указывает, что дальше идёт выражение для поиска.

💡 Хочешь исключить определённые директории, например .git?


grep -rnw --exclude-dir={.git,node_modules} '/путь/к/папке' -e 'DB_PASSWORD'


Незаменимо при отладке конфигов и аудите секрета в коде! 😉

👉@bash_srv