Forwarded from ceph.expert
QoS in Quincy: Comparison of mClock and WPQ schedulers with background operations - Part 2
В этой части упор на сравнение планировщиков в контексте скраб операций.
https://ceph.io/en/news/blog/2022/mclock-vs-wpq-testing-with-background-ops-part2/
#ceph #blog #quincy #qos #scrub #recovery
В этой части упор на сравнение планировщиков в контексте скраб операций.
https://ceph.io/en/news/blog/2022/mclock-vs-wpq-testing-with-background-ops-part2/
#ceph #blog #quincy #qos #scrub #recovery
Ceph
QoS in Quincy: Comparison of mClock and WPQ schedulers with background operations - Part 2 - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 15.2.17 (Octopus)
Это последний бэкпорт релиз для ветки Octopus
В этом выпуске рекомендуют обратить внимание на:
* Изменился формат SnapMapper ключей.
* Возможность объединить все RBD пулы в одно представление для выполнения команд rbd perf image iotop/iostat
Подробнее в официальном блоге:
https://ceph.io/en/news/blog/2022/v15-2-17-octopus-released/
#ceph #release #octopus
Это последний бэкпорт релиз для ветки Octopus
В этом выпуске рекомендуют обратить внимание на:
* Изменился формат SnapMapper ключей.
* Возможность объединить все RBD пулы в одно представление для выполнения команд rbd perf image iotop/iostat
Подробнее в официальном блоге:
https://ceph.io/en/news/blog/2022/v15-2-17-octopus-released/
#ceph #release #octopus
Ceph
v15.2.17 Octopus released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.4 (Quincy)
Разработчики отметили:
* cephfs: макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим
* osd: исправлена высокая утилизация cpu при backfill/recover
* очистка дублей pglog теперь контролируется размером, а не версией.
* osd: поправили конвертер snapmapper ключей
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-4-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* cephfs: макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим
* osd: исправлена высокая утилизация cpu при backfill/recover
* очистка дублей pglog теперь контролируется размером, а не версией.
* osd: поправили конвертер snapmapper ключей
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-4-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.4 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Quincy @ Scale: A Tale of Three Large-Scale Clusters
Про то, как тестировали quincy на кластерх с большим количеством осд.
https://ceph.com/en/news/blog/2022/three-large-scale-clusters/
#ceph #blog #quincy #test #large #cephexpert
Про то, как тестировали quincy на кластерх с большим количеством осд.
https://ceph.com/en/news/blog/2022/three-large-scale-clusters/
#ceph #blog #quincy #test #large #cephexpert
Ceph
Quincy @ Scale: A Tale of Three Large-Scale Clusters - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)
Разработчики отметили:
* исправили регрессию в ceph-volume делавшую процесс активации очень долгим.
* испарвили исключение возникающие при некоторых NFS командах в Rook кластерах
* исправили падение модуля телеметрии, которое могло повлиять на некоторых пользователей.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-5-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* исправили регрессию в ceph-volume делавшую процесс активации очень долгим.
* испарвили исключение возникающие при некоторых NFS командах в Rook кластерах
* исправили падение модуля телеметрии, которое могло повлиять на некоторых пользователей.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-5-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.5 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Ceph OSD CPU Scaling - Part 1
Статья о том, как производительность #ceph зависит от производительности процессора. Фокус в данной статье сделан на операции маленького размера.
https://ceph.io/en/news/blog/2022/ceph-osd-cpu-scaling/
#ceph #blog #performance #osd #cpu #nvme #cephexpert
Статья о том, как производительность #ceph зависит от производительности процессора. Фокус в данной статье сделан на операции маленького размера.
https://ceph.io/en/news/blog/2022/ceph-osd-cpu-scaling/
#ceph #blog #performance #osd #cpu #nvme #cephexpert
Ceph
Ceph OSD CPU Scaling - Part 1 - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Install single node cluster
Как быстро развернуть однонодовый ceph. Очередной фастстарт чтоб посмотреть, что такое ceph для тех кому лень читать офф.доку.
https://medium.com/dev-genius/ceph-install-single-node-cluster-55b21e6fdaa2
#ceph #cephadm #orch #blog #cephexpert
Как быстро развернуть однонодовый ceph. Очередной фастстарт чтоб посмотреть, что такое ceph для тех кому лень читать офф.доку.
https://medium.com/dev-genius/ceph-install-single-node-cluster-55b21e6fdaa2
#ceph #cephadm #orch #blog #cephexpert
Medium
Ceph — Install Single Node Cluster
Install Ceph cluster on AWS EC2
Forwarded from ceph.expert
How to create a Ceph cluster on a single machine
Еще один мануал про однонодовую инсталяцию. Теперь от редхат.
https://www.redhat.com/sysadmin/ceph-cluster-single-machine
#ceph #cephadm #orch #singlenode #redhat #blog
Еще один мануал про однонодовую инсталяцию. Теперь от редхат.
https://www.redhat.com/sysadmin/ceph-cluster-single-machine
#ceph #cephadm #orch #singlenode #redhat #blog
Enable Sysadmin
How to create a Ceph cluster on a single machine
Ceph storage is common in many large-scale use cases, so simpler implementations for testing or training may go unnoticed.
Forwarded from ceph.expert
Вышел ceph 16.2.11 (pacific)
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Ceph
v16.2.11 Pacific released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Difference Between 'Ceph Osd Reweight' and 'Ceph Osd Crush Reweight'
В статье демонстрируется различие между reweight и crush reweight
https://ceph.io/en/news/blog/2014/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
#ceph #blog #osd #crush #reweight
В статье демонстрируется различие между reweight и crush reweight
https://ceph.io/en/news/blog/2014/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
#ceph #blog #osd #crush #reweight
Ceph
Difference Between 'Ceph Osd Reweight' and 'Ceph Osd Crush Reweight' - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)
Разработчики отметили:
* команда
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* команда
ceph mgr dump
выводит поля last_failure_osd_epoch и active_clients
на верхнем уровне. Ранее эти поля были вложены в always_on_modules.
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
ceph telemetry preview.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.6 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
What Does Ceph Mean to You?
Запущен очередной ежегодный опрос пользователей ceph. Спрашивают о том, как мы используют ceph, что нам нравится, а что нужно улучшить.
Потратьте немного времени и помогите сделать цеф лучше.
https://survey.zohopublic.com/zs/s2D7RQ
#ceph #survey
Запущен очередной ежегодный опрос пользователей ceph. Спрашивают о том, как мы используют ceph, что нам нравится, а что нужно улучшить.
Потратьте немного времени и помогите сделать цеф лучше.
https://survey.zohopublic.com/zs/s2D7RQ
#ceph #survey
Forwarded from ceph.expert
Ceph Days NYC: Optimizing RGW Object Storage Mixed Media through Storage Classes and Lua Scripting
Отличный пример того зачем могут пригодиться скрипты в RGW
https://youtu.be/Mj3HokDiN6Y
#ceph #s3 #rgw #radosGW #lua #scripting #optimization
Отличный пример того зачем могут пригодиться скрипты в RGW
https://youtu.be/Mj3HokDiN6Y
#ceph #s3 #rgw #radosGW #lua #scripting #optimization
Доклад о проблемах эксплуатации minio.
p.s. особенно интересно смотреть после вступления «мы не рассматривали #ceph потому, что там большая команда нужна».
https://www.youtube.com/watch?v=XiJVC9nzAW4
#s3 #minio
p.s. особенно интересно смотреть после вступления «мы не рассматривали #ceph потому, что там большая команда нужна».
https://www.youtube.com/watch?v=XiJVC9nzAW4
#s3 #minio
YouTube
Свой распределённый S3 на базе MinIO — практический опыт наступания на грабли / Алексей Плетнёв
Приглашаем на конференцию HighLoad++ 2024, которая пройдет 2 и 3 декабря в Москве!
Программа, подробности и билеты по ссылке: https://clck.ru/3DD4yb
--------
Saint HighLoad++ 2022
Презентация и тезисы:
https://highload.ru/spb/2022/abstracts/9072
Любому…
Программа, подробности и билеты по ссылке: https://clck.ru/3DD4yb
--------
Saint HighLoad++ 2022
Презентация и тезисы:
https://highload.ru/spb/2022/abstracts/9072
Любому…
Forwarded from ceph.expert
Вышел ceph 18.2.0 (reef)
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
perf dump
и perf schema
объявлены устаревшими в пользу команд counter dump
и counter schema
.• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Forwarded from ceph.expert
Вышел ceph 16.2.14 (pacific)
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Forwarded from ceph.expert
Ceph Reef - 1 or 2 OSDs per NVMe?
Сколько осд пиль на один nvme диск? Ответы в посте
https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/
#ceph #reef #osd #nvme #performance #blog
Сколько осд пиль на один nvme диск? Ответы в посте
https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/
#ceph #reef #osd #nvme #performance #blog
Ceph
Ceph Reef - 1 or 2 OSDs per NVMe? - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Auto-tiering Ceph Object Storage
Серия постов показывающая как можно автоматически раскладывать объекты с3 по разным слоям хранения с помощью lua скриптов появивишихся в RGW.
PART 1 - Ceph Object storage basics and why you’d want to set up different storage classes
PART 2 - How to use Lua scripting to automatically assign objects to different storage classes based on size
PART 3 - More advanced Lua scripting to dynamically match objects to storage classes based on regex matching to object names
Так же про это рассказывали год назад на конфиренции в NY
https://t.me/cephexpert/37
#ceph #s3 #rgw #radosGW #lua #scripting #optimization #blog
Серия постов показывающая как можно автоматически раскладывать объекты с3 по разным слоям хранения с помощью lua скриптов появивишихся в RGW.
PART 1 - Ceph Object storage basics and why you’d want to set up different storage classes
PART 2 - How to use Lua scripting to automatically assign objects to different storage classes based on size
PART 3 - More advanced Lua scripting to dynamically match objects to storage classes based on regex matching to object names
Так же про это рассказывали год назад на конфиренции в NY
https://t.me/cephexpert/37
#ceph #s3 #rgw #radosGW #lua #scripting #optimization #blog
Ceph
Auto-tiering Ceph Object Storage - PART 1 - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 18.2.4 (reef)
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Ceph
v18.2.4 Reef released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.