Forwarded from ceph.expert
Вышел ceph 15.2.17 (Octopus)
Это последний бэкпорт релиз для ветки Octopus
В этом выпуске рекомендуют обратить внимание на:
* Изменился формат SnapMapper ключей.
* Возможность объединить все RBD пулы в одно представление для выполнения команд rbd perf image iotop/iostat
Подробнее в официальном блоге:
https://ceph.io/en/news/blog/2022/v15-2-17-octopus-released/
#ceph #release #octopus
Это последний бэкпорт релиз для ветки Octopus
В этом выпуске рекомендуют обратить внимание на:
* Изменился формат SnapMapper ключей.
* Возможность объединить все RBD пулы в одно представление для выполнения команд rbd perf image iotop/iostat
Подробнее в официальном блоге:
https://ceph.io/en/news/blog/2022/v15-2-17-octopus-released/
#ceph #release #octopus
Ceph
v15.2.17 Octopus released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.4 (Quincy)
Разработчики отметили:
* cephfs: макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим
* osd: исправлена высокая утилизация cpu при backfill/recover
* очистка дублей pglog теперь контролируется размером, а не версией.
* osd: поправили конвертер snapmapper ключей
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-4-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* cephfs: макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим
* osd: исправлена высокая утилизация cpu при backfill/recover
* очистка дублей pglog теперь контролируется размером, а не версией.
* osd: поправили конвертер snapmapper ключей
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-4-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.4 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Quincy @ Scale: A Tale of Three Large-Scale Clusters
Про то, как тестировали quincy на кластерх с большим количеством осд.
https://ceph.com/en/news/blog/2022/three-large-scale-clusters/
#ceph #blog #quincy #test #large #cephexpert
Про то, как тестировали quincy на кластерх с большим количеством осд.
https://ceph.com/en/news/blog/2022/three-large-scale-clusters/
#ceph #blog #quincy #test #large #cephexpert
Ceph
Quincy @ Scale: A Tale of Three Large-Scale Clusters - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)
Разработчики отметили:
* исправили регрессию в ceph-volume делавшую процесс активации очень долгим.
* испарвили исключение возникающие при некоторых NFS командах в Rook кластерах
* исправили падение модуля телеметрии, которое могло повлиять на некоторых пользователей.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-5-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* исправили регрессию в ceph-volume делавшую процесс активации очень долгим.
* испарвили исключение возникающие при некоторых NFS командах в Rook кластерах
* исправили падение модуля телеметрии, которое могло повлиять на некоторых пользователей.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-5-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.5 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Ceph OSD CPU Scaling - Part 1
Статья о том, как производительность #ceph зависит от производительности процессора. Фокус в данной статье сделан на операции маленького размера.
https://ceph.io/en/news/blog/2022/ceph-osd-cpu-scaling/
#ceph #blog #performance #osd #cpu #nvme #cephexpert
Статья о том, как производительность #ceph зависит от производительности процессора. Фокус в данной статье сделан на операции маленького размера.
https://ceph.io/en/news/blog/2022/ceph-osd-cpu-scaling/
#ceph #blog #performance #osd #cpu #nvme #cephexpert
Ceph
Ceph OSD CPU Scaling - Part 1 - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Install single node cluster
Как быстро развернуть однонодовый ceph. Очередной фастстарт чтоб посмотреть, что такое ceph для тех кому лень читать офф.доку.
https://medium.com/dev-genius/ceph-install-single-node-cluster-55b21e6fdaa2
#ceph #cephadm #orch #blog #cephexpert
Как быстро развернуть однонодовый ceph. Очередной фастстарт чтоб посмотреть, что такое ceph для тех кому лень читать офф.доку.
https://medium.com/dev-genius/ceph-install-single-node-cluster-55b21e6fdaa2
#ceph #cephadm #orch #blog #cephexpert
Medium
Ceph — Install Single Node Cluster
Install Ceph cluster on AWS EC2
Forwarded from ceph.expert
How to create a Ceph cluster on a single machine
Еще один мануал про однонодовую инсталяцию. Теперь от редхат.
https://www.redhat.com/sysadmin/ceph-cluster-single-machine
#ceph #cephadm #orch #singlenode #redhat #blog
Еще один мануал про однонодовую инсталяцию. Теперь от редхат.
https://www.redhat.com/sysadmin/ceph-cluster-single-machine
#ceph #cephadm #orch #singlenode #redhat #blog
Enable Sysadmin
How to create a Ceph cluster on a single machine
Ceph storage is common in many large-scale use cases, so simpler implementations for testing or training may go unnoticed.
Forwarded from ceph.expert
Вышел ceph 16.2.11 (pacific)
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Ceph
v16.2.11 Pacific released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Difference Between 'Ceph Osd Reweight' and 'Ceph Osd Crush Reweight'
В статье демонстрируется различие между reweight и crush reweight
https://ceph.io/en/news/blog/2014/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
#ceph #blog #osd #crush #reweight
В статье демонстрируется различие между reweight и crush reweight
https://ceph.io/en/news/blog/2014/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
#ceph #blog #osd #crush #reweight
Ceph
Difference Between 'Ceph Osd Reweight' and 'Ceph Osd Crush Reweight' - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)
Разработчики отметили:
* команда
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* команда
ceph mgr dump
выводит поля last_failure_osd_epoch и active_clients
на верхнем уровне. Ранее эти поля были вложены в always_on_modules.
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
ceph telemetry preview.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.6 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
What Does Ceph Mean to You?
Запущен очередной ежегодный опрос пользователей ceph. Спрашивают о том, как мы используют ceph, что нам нравится, а что нужно улучшить.
Потратьте немного времени и помогите сделать цеф лучше.
https://survey.zohopublic.com/zs/s2D7RQ
#ceph #survey
Запущен очередной ежегодный опрос пользователей ceph. Спрашивают о том, как мы используют ceph, что нам нравится, а что нужно улучшить.
Потратьте немного времени и помогите сделать цеф лучше.
https://survey.zohopublic.com/zs/s2D7RQ
#ceph #survey
Forwarded from ceph.expert
Ceph Days NYC: Optimizing RGW Object Storage Mixed Media through Storage Classes and Lua Scripting
Отличный пример того зачем могут пригодиться скрипты в RGW
https://youtu.be/Mj3HokDiN6Y
#ceph #s3 #rgw #radosGW #lua #scripting #optimization
Отличный пример того зачем могут пригодиться скрипты в RGW
https://youtu.be/Mj3HokDiN6Y
#ceph #s3 #rgw #radosGW #lua #scripting #optimization
Доклад о проблемах эксплуатации minio.
p.s. особенно интересно смотреть после вступления «мы не рассматривали #ceph потому, что там большая команда нужна».
https://www.youtube.com/watch?v=XiJVC9nzAW4
#s3 #minio
p.s. особенно интересно смотреть после вступления «мы не рассматривали #ceph потому, что там большая команда нужна».
https://www.youtube.com/watch?v=XiJVC9nzAW4
#s3 #minio
YouTube
Свой распределённый S3 на базе MinIO — практический опыт наступания на грабли / Алексей Плетнёв
Приглашаем на конференцию HighLoad++ 2024, которая пройдет 2 и 3 декабря в Москве!
Программа, подробности и билеты по ссылке: https://clck.ru/3DD4yb
--------
Saint HighLoad++ 2022
Презентация и тезисы:
https://highload.ru/spb/2022/abstracts/9072
Любому…
Программа, подробности и билеты по ссылке: https://clck.ru/3DD4yb
--------
Saint HighLoad++ 2022
Презентация и тезисы:
https://highload.ru/spb/2022/abstracts/9072
Любому…
Forwarded from ceph.expert
Вышел ceph 18.2.0 (reef)
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
perf dump
и perf schema
объявлены устаревшими в пользу команд counter dump
и counter schema
.• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Forwarded from ceph.expert
Вышел ceph 16.2.14 (pacific)
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Forwarded from ceph.expert
Ceph Reef - 1 or 2 OSDs per NVMe?
Сколько осд пиль на один nvme диск? Ответы в посте
https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/
#ceph #reef #osd #nvme #performance #blog
Сколько осд пиль на один nvme диск? Ответы в посте
https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/
#ceph #reef #osd #nvme #performance #blog
Ceph
Ceph Reef - 1 or 2 OSDs per NVMe? - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Auto-tiering Ceph Object Storage
Серия постов показывающая как можно автоматически раскладывать объекты с3 по разным слоям хранения с помощью lua скриптов появивишихся в RGW.
PART 1 - Ceph Object storage basics and why you’d want to set up different storage classes
PART 2 - How to use Lua scripting to automatically assign objects to different storage classes based on size
PART 3 - More advanced Lua scripting to dynamically match objects to storage classes based on regex matching to object names
Так же про это рассказывали год назад на конфиренции в NY
https://t.me/cephexpert/37
#ceph #s3 #rgw #radosGW #lua #scripting #optimization #blog
Серия постов показывающая как можно автоматически раскладывать объекты с3 по разным слоям хранения с помощью lua скриптов появивишихся в RGW.
PART 1 - Ceph Object storage basics and why you’d want to set up different storage classes
PART 2 - How to use Lua scripting to automatically assign objects to different storage classes based on size
PART 3 - More advanced Lua scripting to dynamically match objects to storage classes based on regex matching to object names
Так же про это рассказывали год назад на конфиренции в NY
https://t.me/cephexpert/37
#ceph #s3 #rgw #radosGW #lua #scripting #optimization #blog
Ceph
Auto-tiering Ceph Object Storage - PART 1 - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 18.2.4 (reef)
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Ceph
v18.2.4 Reef released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел ceph 19.2.0 (squid)
Вышел первый стабильный релиз 19 ветки с кодовым названием squid.
Пользователям iSCSI рекомендуется ознакомиться с трекером перед обновлением т.к. разработчики сталкивались с проблемами при обновлении с 19.1.1 до 19.2.0.
Краткое содержание основных изменений, которые принесла 19 ветка:
-RADOS: BlueStore был оптимизирован для лучше производительности при snapshot-intensive сценариях.
- RADOS: Сжатие LZ4 в BlueStore RocksDB теперь включено по умолчанию для повышения средней производительности и использования пространства на быстрых дисках.
- RADOS: Другие улучшения включают в себя более гибкие конфиги EC, OpTracker для помощи отладки проблем в модулях mgr, и улучшеный планировщик скраба.
- Dashboard: Улучшение в навигационном слое
- CephFS: Поддержка управления снапшотами и клонами CephFS, а также управление расписанием снапшотов.
- CephFS: управление возможностями авторизации для ресурсов CephFS
- CephFS: помощники монтирования cephfs volumes
- RBD: Функция diff-iterate теперь может выполняться локально, что значительно повышает производительность при использовании QEMU для оперативной синхронизации дисков и резервного копирования.
- RBD: Добавлена поддержка клонирования из снапшотов non-user типа.
- RBD: windows драйвер rbd-wnbd получил возможность мультиплексировать мапинг образов.
- RGW: Функция "Учетные записи пользователей" открывает несколько новых AWS совместимых IAM API для самостоятельного управления пользователями, ключами, группами, ролями, политиками и многим другим.
- RADOS: Это первый релиз в котором crimson, в качестве tech preview, доступен для широкого круга пользователей. Пока поддерживается только RBD на реплицируемых пулах. Для получения дополнительной информации про Crimson смотрите https://ceph.io/en/news/crimson
И многое другое.
Как всегда release notes первого стабильного релиза достаточно объемные и там много чего интересного.
Подробнее тут:
https://ceph.com/en/news/blog/2024/v19-2-0-squid-released/
P.S. Как обычно не рекомендую катить в прод с ценными данными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #squid #release #cephexpert
Вышел первый стабильный релиз 19 ветки с кодовым названием squid.
Пользователям iSCSI рекомендуется ознакомиться с трекером перед обновлением т.к. разработчики сталкивались с проблемами при обновлении с 19.1.1 до 19.2.0.
Краткое содержание основных изменений, которые принесла 19 ветка:
-RADOS: BlueStore был оптимизирован для лучше производительности при snapshot-intensive сценариях.
- RADOS: Сжатие LZ4 в BlueStore RocksDB теперь включено по умолчанию для повышения средней производительности и использования пространства на быстрых дисках.
- RADOS: Другие улучшения включают в себя более гибкие конфиги EC, OpTracker для помощи отладки проблем в модулях mgr, и улучшеный планировщик скраба.
- Dashboard: Улучшение в навигационном слое
- CephFS: Поддержка управления снапшотами и клонами CephFS, а также управление расписанием снапшотов.
- CephFS: управление возможностями авторизации для ресурсов CephFS
- CephFS: помощники монтирования cephfs volumes
- RBD: Функция diff-iterate теперь может выполняться локально, что значительно повышает производительность при использовании QEMU для оперативной синхронизации дисков и резервного копирования.
- RBD: Добавлена поддержка клонирования из снапшотов non-user типа.
- RBD: windows драйвер rbd-wnbd получил возможность мультиплексировать мапинг образов.
- RGW: Функция "Учетные записи пользователей" открывает несколько новых AWS совместимых IAM API для самостоятельного управления пользователями, ключами, группами, ролями, политиками и многим другим.
- RADOS: Это первый релиз в котором crimson, в качестве tech preview, доступен для широкого круга пользователей. Пока поддерживается только RBD на реплицируемых пулах. Для получения дополнительной информации про Crimson смотрите https://ceph.io/en/news/crimson
И многое другое.
Как всегда release notes первого стабильного релиза достаточно объемные и там много чего интересного.
Подробнее тут:
https://ceph.com/en/news/blog/2024/v19-2-0-squid-released/
P.S. Как обычно не рекомендую катить в прод с ценными данными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #squid #release #cephexpert