sysadmin.su
229 subscribers
282 photos
29 videos
225 files
2.11K links
Админам/sre/devops’ам будет интересно!
Download Telegram
Forwarded from ceph.expert
QoS in Quincy: Comparison of mClock and WPQ schedulers with background operations - Part 2

В этой части упор на сравнение планировщиков в контексте скраб операций.

https://ceph.io/en/news/blog/2022/mclock-vs-wpq-testing-with-background-ops-part2/

#ceph #blog #quincy #qos #scrub #recovery
Forwarded from ceph.expert
Вышел ceph 15.2.17 (Octopus)

Это последний бэкпорт релиз для ветки Octopus

В этом выпуске рекомендуют обратить внимание на:

* Изменился формат SnapMapper ключей.
* Возможность объединить все RBD пулы в одно представление для выполнения команд rbd perf image iotop/iostat

Подробнее в официальном блоге:
https://ceph.io/en/news/blog/2022/v15-2-17-octopus-released/

#ceph #release #octopus
Forwarded from ceph.expert
Вышел ceph 17.2.4 (Quincy)

Разработчики отметили:

* cephfs: макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим
* osd: исправлена высокая утилизация cpu при backfill/recover
* очистка дублей pglog теперь контролируется размером, а не версией.
* osd: поправили конвертер snapmapper ключей

Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-4-quincy-released/

#ceph #quincy #release #cephexpert
Forwarded from ceph.expert
Quincy @ Scale: A Tale of Three Large-Scale Clusters

Про то, как тестировали quincy на кластерх с большим количеством осд.

https://ceph.com/en/news/blog/2022/three-large-scale-clusters/

#ceph #blog #quincy #test #large #cephexpert
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)

Разработчики отметили:

* исправили регрессию в ceph-volume делавшую процесс активации очень долгим.
* испарвили исключение возникающие при некоторых NFS командах в Rook кластерах
* исправили падение модуля телеметрии, которое могло повлиять на некоторых пользователей.

Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-5-quincy-released/

#ceph #quincy #release #cephexpert
Forwarded from ceph.expert
Ceph OSD CPU Scaling - Part 1

Статья о том, как производительность #ceph зависит от производительности процессора. Фокус в данной статье сделан на операции маленького размера.

https://ceph.io/en/news/blog/2022/ceph-osd-cpu-scaling/

#ceph #blog #performance #osd #cpu #nvme #cephexpert
Forwarded from ceph.expert
Install single node cluster

Как быстро развернуть однонодовый ceph. Очередной фастстарт чтоб посмотреть, что такое ceph для тех кому лень читать офф.доку.

https://medium.com/dev-genius/ceph-install-single-node-cluster-55b21e6fdaa2

#ceph #cephadm #orch #blog #cephexpert
Forwarded from ceph.expert
Вышел ceph 16.2.11 (pacific)

Разработчики отметили:

* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
 'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace

Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released

#ceph #pacific #release #cephexpert
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)

Разработчики отметили:

* команда ceph mgr dump выводит поля last_failure_osd_epoch и active_clients на верхнем уровне. Ранее эти поля были вложены в always_on_modules.

* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды ceph telemetry preview.

Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/

#ceph #quincy #release #cephexpert
Forwarded from ceph.expert
What Does Ceph Mean to You?

Запущен очередной ежегодный опрос пользователей ceph. Спрашивают о том, как мы используют ceph, что нам нравится, а что нужно улучшить.

Потратьте немного времени и помогите сделать цеф лучше.

https://survey.zohopublic.com/zs/s2D7RQ

#ceph #survey
Forwarded from ceph.expert
Ceph Days NYC: Optimizing RGW Object Storage Mixed Media through Storage Classes and Lua Scripting

Отличный пример того зачем могут пригодиться скрипты в RGW

https://youtu.be/Mj3HokDiN6Y

#ceph #s3 #rgw #radosGW #lua #scripting #optimization
Forwarded from ceph.expert
Вышел ceph 18.2.0 (reef)

Вышел первый стабильный релиз 18 ветки с кодовым названием reef.

Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды perf dump и perf schema объявлены устаревшими в пользу команд counter dump и counter schema.
• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW:
Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.

Как всегда release notes первого стабильного релиза достаточно объемные.

Подробнее тут:

https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/

P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)

#ceph #reef #release #cephexpert
Forwarded from ceph.expert
Вышел ceph 16.2.14 (pacific)

Разработчики отметили:

* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.

* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.

Подробнее тут:

https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/

#ceph #pacific #release #cephexpert
Forwarded from ceph.expert
Auto-tiering Ceph Object Storage

Серия постов показывающая как можно автоматически раскладывать объекты с3 по разным слоям хранения с помощью lua скриптов появивишихся в RGW.

PART 1 - Ceph Object storage basics and why you’d want to set up different storage classes
PART 2 - How to use Lua scripting to automatically assign objects to different storage classes based on size
PART 3 - More advanced Lua scripting to dynamically match objects to storage classes based on regex matching to object names

Так же про это рассказывали год назад на конфиренции в NY
https://t.me/cephexpert/37

#ceph #s3 #rgw #radosGW #lua #scripting #optimization #blog
Forwarded from ceph.expert
Вышел ceph 18.2.4 (reef)

Вышел четвёртый бекпорт релиз в ветке reef.

Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.

Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.

Разработчики отметили следующие изменеия:

* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.

Еще больше подробностей тут:

https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/

#ceph #reef #release #cephexpert