Forwarded from ceph.expert
How to create a Ceph cluster on a single machine
Еще один мануал про однонодовую инсталяцию. Теперь от редхат.
https://www.redhat.com/sysadmin/ceph-cluster-single-machine
#ceph #cephadm #orch #singlenode #redhat #blog
Еще один мануал про однонодовую инсталяцию. Теперь от редхат.
https://www.redhat.com/sysadmin/ceph-cluster-single-machine
#ceph #cephadm #orch #singlenode #redhat #blog
Enable Sysadmin
How to create a Ceph cluster on a single machine
Ceph storage is common in many large-scale use cases, so simpler implementations for testing or training may go unnoticed.
Forwarded from ceph.expert
Вышел ceph 16.2.11 (pacific)
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Ceph
v16.2.11 Pacific released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Difference Between 'Ceph Osd Reweight' and 'Ceph Osd Crush Reweight'
В статье демонстрируется различие между reweight и crush reweight
https://ceph.io/en/news/blog/2014/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
#ceph #blog #osd #crush #reweight
В статье демонстрируется различие между reweight и crush reweight
https://ceph.io/en/news/blog/2014/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
#ceph #blog #osd #crush #reweight
Ceph
Difference Between 'Ceph Osd Reweight' and 'Ceph Osd Crush Reweight' - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)
Разработчики отметили:
* команда
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* команда
ceph mgr dump
выводит поля last_failure_osd_epoch и active_clients
на верхнем уровне. Ранее эти поля были вложены в always_on_modules.
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
ceph telemetry preview.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.6 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
What Does Ceph Mean to You?
Запущен очередной ежегодный опрос пользователей ceph. Спрашивают о том, как мы используют ceph, что нам нравится, а что нужно улучшить.
Потратьте немного времени и помогите сделать цеф лучше.
https://survey.zohopublic.com/zs/s2D7RQ
#ceph #survey
Запущен очередной ежегодный опрос пользователей ceph. Спрашивают о том, как мы используют ceph, что нам нравится, а что нужно улучшить.
Потратьте немного времени и помогите сделать цеф лучше.
https://survey.zohopublic.com/zs/s2D7RQ
#ceph #survey
Forwarded from ceph.expert
Ceph Days NYC: Optimizing RGW Object Storage Mixed Media through Storage Classes and Lua Scripting
Отличный пример того зачем могут пригодиться скрипты в RGW
https://youtu.be/Mj3HokDiN6Y
#ceph #s3 #rgw #radosGW #lua #scripting #optimization
Отличный пример того зачем могут пригодиться скрипты в RGW
https://youtu.be/Mj3HokDiN6Y
#ceph #s3 #rgw #radosGW #lua #scripting #optimization
Доклад о проблемах эксплуатации minio.
p.s. особенно интересно смотреть после вступления «мы не рассматривали #ceph потому, что там большая команда нужна».
https://www.youtube.com/watch?v=XiJVC9nzAW4
#s3 #minio
p.s. особенно интересно смотреть после вступления «мы не рассматривали #ceph потому, что там большая команда нужна».
https://www.youtube.com/watch?v=XiJVC9nzAW4
#s3 #minio
YouTube
Свой распределённый S3 на базе MinIO — практический опыт наступания на грабли / Алексей Плетнёв
Приглашаем на конференцию Saint HighLoad++ 2024, которая пройдет 24 и 25 июня в Санкт-Петербурге!
Программа, подробности и билеты по ссылке: https://vk.cc/cuyIqx
--------
--------
Saint HighLoad++ 2022
Презентация и тезисы:
https://highload.ru/spb/2…
Программа, подробности и билеты по ссылке: https://vk.cc/cuyIqx
--------
--------
Saint HighLoad++ 2022
Презентация и тезисы:
https://highload.ru/spb/2…
Forwarded from ceph.expert
Вышел ceph 18.2.0 (reef)
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
perf dump
и perf schema
объявлены устаревшими в пользу команд counter dump
и counter schema
.• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Forwarded from ceph.expert
Вышел ceph 16.2.14 (pacific)
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Forwarded from ceph.expert
Ceph Reef - 1 or 2 OSDs per NVMe?
Сколько осд пиль на один nvme диск? Ответы в посте
https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/
#ceph #reef #osd #nvme #performance #blog
Сколько осд пиль на один nvme диск? Ответы в посте
https://ceph.io/en/news/blog/2023/reef-osds-per-nvme/
#ceph #reef #osd #nvme #performance #blog
Ceph
Ceph Reef - 1 or 2 OSDs per NVMe? - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Auto-tiering Ceph Object Storage
Серия постов показывающая как можно автоматически раскладывать объекты с3 по разным слоям хранения с помощью lua скриптов появивишихся в RGW.
PART 1 - Ceph Object storage basics and why you’d want to set up different storage classes
PART 2 - How to use Lua scripting to automatically assign objects to different storage classes based on size
PART 3 - More advanced Lua scripting to dynamically match objects to storage classes based on regex matching to object names
Так же про это рассказывали год назад на конфиренции в NY
https://t.me/cephexpert/37
#ceph #s3 #rgw #radosGW #lua #scripting #optimization #blog
Серия постов показывающая как можно автоматически раскладывать объекты с3 по разным слоям хранения с помощью lua скриптов появивишихся в RGW.
PART 1 - Ceph Object storage basics and why you’d want to set up different storage classes
PART 2 - How to use Lua scripting to automatically assign objects to different storage classes based on size
PART 3 - More advanced Lua scripting to dynamically match objects to storage classes based on regex matching to object names
Так же про это рассказывали год назад на конфиренции в NY
https://t.me/cephexpert/37
#ceph #s3 #rgw #radosGW #lua #scripting #optimization #blog
Ceph
Auto-tiering Ceph Object Storage - PART 1 - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 18.2.4 (reef)
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Ceph
v18.2.4 Reef released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.