📌 Растянутый кластер Ceph: основные концепции. Часть 1
🔹 При проектировании репликации и аварийного восстановления важно учитывать SLA:
- Синхронная репликация → минимальная потеря данных (RPO ≈ 0).
- Асинхронная репликация → возможна частичная потеря данных (RPO > 0).
🔹 Ceph поддерживает оба подхода:
- Для синхронной репликации кластер можно «растянуть» между дата-центрами.
- Для асинхронной используется multi-site репликация в другой кластер.
Каждый метод доступа (объекты, блоки, файлы) имеет свои механизмы репликации.
📖 Читать подробнее на Habr
#Ceph #ХранениеДанных #DevOps
🔹 При проектировании репликации и аварийного восстановления важно учитывать SLA:
- Синхронная репликация → минимальная потеря данных (RPO ≈ 0).
- Асинхронная репликация → возможна частичная потеря данных (RPO > 0).
🔹 Ceph поддерживает оба подхода:
- Для синхронной репликации кластер можно «растянуть» между дата-центрами.
- Для асинхронной используется multi-site репликация в другой кластер.
Каждый метод доступа (объекты, блоки, файлы) имеет свои механизмы репликации.
📖 Читать подробнее на Habr
#Ceph #ХранениеДанных #DevOps
🚀 Растянутый кластер Ceph: две локации + Tie-breaker. Часть 2
Продолжаем изучать работу с растянутым кластером Ceph! Во второй части разбираем практическое развертывание на двух локациях с монитором в роли tie-breaker через
🛠 О чём статья?
✔ Повторяем основы репликации Ceph
✔ Разбираем этапы настройки кластера
✔ Используем cephadm для автоматизации
🔗 Читать на Habr: https://habr.com/ru/articles/926040/
#Ceph #Кластеры #ХранениеДанных #DevOps #ВысокаяДоступность
Продолжаем изучать работу с растянутым кластером Ceph! Во второй части разбираем практическое развертывание на двух локациях с монитором в роли tie-breaker через
cephadm. 🛠 О чём статья?
✔ Повторяем основы репликации Ceph
✔ Разбираем этапы настройки кластера
✔ Используем cephadm для автоматизации
🔗 Читать на Habr: https://habr.com/ru/articles/926040/
#Ceph #Кластеры #ХранениеДанных #DevOps #ВысокаяДоступность
Растянутый кластер Ceph: обработка сбоев. Часть 3
В завершающей части цикла статей автор тестирует развёрнутый кластер Ceph на двух площадках с tie-breaker локацией. Речь пойдёт о поведении системы при отказе целого дата-центра.
🔍 Чем полезно:
✔ Разбираются практические аспекты отказоустойчивости в распределённых хранилищах.
✔ Показываются нюансы работы с пользовательскими CRUSH-правилами.
Читать на Хабре →
#Ceph #Хранилища #HighAvailability #DevOps
В завершающей части цикла статей автор тестирует развёрнутый кластер Ceph на двух площадках с tie-breaker локацией. Речь пойдёт о поведении системы при отказе целого дата-центра.
🔍 Чем полезно:
✔ Разбираются практические аспекты отказоустойчивости в распределённых хранилищах.
✔ Показываются нюансы работы с пользовательскими CRUSH-правилами.
Читать на Хабре →
#Ceph #Хранилища #HighAvailability #DevOps