Forwarded from ceph.expert
Вышел ceph 17.2.0 (Quincy)
Вышел первый стабильный релиз из ветки 17 c кодовым названием Quincy.
Как обычно, в первом стабильном релизе заявлен огромный набор изменений.
Подробнее тут:
https://docs.ceph.com/en/latest/releases/quincy/#v17-2-0-quincy
З.ы. Несмотря на то, что выпуск заявлен как стабильный, на прод с ценными данными я б его тащит поостерёгся 🤗
#ceph #quincy #release
Вышел первый стабильный релиз из ветки 17 c кодовым названием Quincy.
Как обычно, в первом стабильном релизе заявлен огромный набор изменений.
Подробнее тут:
https://docs.ceph.com/en/latest/releases/quincy/#v17-2-0-quincy
З.ы. Несмотря на то, что выпуск заявлен как стабильный, на прод с ценными данными я б его тащит поостерёгся 🤗
#ceph #quincy #release
Forwarded from ceph.expert
Вышел ceph 16.2.8 (pacific)
Разработчики отметили:
* возможность создания пулов с флагом «—bulk». К пулам, созданным с этим флагом, будет применяться профиль автоскейлера дающий больше перфоманса на старте.
* возможность автосклер можно отключить глобально.
* Теперь будет возникать health warning если флаг ‘’’require-osd-release‘’’ не соответствует релизу после апгрейда.
и некоторые другие исправления.
Детали по ссылке в блоге
https://ceph.io/en/news/blog/2022/v16-2-8-pacific-released
#ceph #pacific #release
Разработчики отметили:
* возможность создания пулов с флагом «—bulk». К пулам, созданным с этим флагом, будет применяться профиль автоскейлера дающий больше перфоманса на старте.
* возможность автосклер можно отключить глобально.
* Теперь будет возникать health warning если флаг ‘’’require-osd-release‘’’ не соответствует релизу после апгрейда.
и некоторые другие исправления.
Детали по ссылке в блоге
https://ceph.io/en/news/blog/2022/v16-2-8-pacific-released
#ceph #pacific #release
Ceph
v16.2.8 Pacific released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел ceph 16.2.9 (pacific)
В 16.2.8, который вышел пару дней назад, был допущен баг, при котром мог зависать MGR.
Этот релиз является хотфикс релизом.
Если вы уже поставили 16.2.8, бегите накатывайте 16.2.9.
https://tracker.ceph.com/issues/55687
#ceph #pacific #release
В 16.2.8, который вышел пару дней назад, был допущен баг, при котром мог зависать MGR.
Этот релиз является хотфикс релизом.
Если вы уже поставили 16.2.8, бегите накатывайте 16.2.9.
https://tracker.ceph.com/issues/55687
#ceph #pacific #release
Forwarded from ceph.expert
Вышел ceph 17.2.1 (Quincy)
Вышел первый багфикс релиз из ветки 17 c кодовым названием Quincy.
Разработчики отметили:
* по-умолчанию выключили "BlueStore zero block detection" и добавили новый глобальный конфигурационный параметр bluestore_zero_block_detection
* в телеметрию добавили метрики, для лучшего понимани окружения Rook
* пофиксили проблему, при которой переставал наполнятся лог кластера после ротации
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-1-quincy-released
#ceph #quincy #release
Вышел первый багфикс релиз из ветки 17 c кодовым названием Quincy.
Разработчики отметили:
* по-умолчанию выключили "BlueStore zero block detection" и добавили новый глобальный конфигурационный параметр bluestore_zero_block_detection
* в телеметрию добавили метрики, для лучшего понимани окружения Rook
* пофиксили проблему, при которой переставал наполнятся лог кластера после ротации
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-1-quincy-released
#ceph #quincy #release
Forwarded from ceph.expert
Вышел ceph 16.2.10 (pacific)
Разработчики отметили:
* закрыли дыру в безопасности затрaгивающую пользователей OpenStack Manila предоставляющих нативный доступ к CephFS.
* Закрыли баг, при котором запросы к s3website могли ронять RGW.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v16-2-10-pacific-released/
#ceph #pacific #release #cephexpert
Разработчики отметили:
* закрыли дыру в безопасности затрaгивающую пользователей OpenStack Manila предоставляющих нативный доступ к CephFS.
* Закрыли баг, при котором запросы к s3website могли ронять RGW.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v16-2-10-pacific-released/
#ceph #pacific #release #cephexpert
Ceph
v16.2.10 Pacific released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.2 (Quincy)
Разработчики отметили:
* закрыли дыру в безопасности затрaгивающую пользователей OpenStack Manila предоставляющих нативный доступ к CephFS.
* Закрыли баг, при котором запросы к s3website могли ронять RGW.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-2-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* закрыли дыру в безопасности затрaгивающую пользователей OpenStack Manila предоставляющих нативный доступ к CephFS.
* Закрыли баг, при котором запросы к s3website могли ронять RGW.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-2-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.2 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.3 (Quincy)
Это багфикс релиз, исправляющий баг в либе libcephsqlite приводящий к падению mgr.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-3-quincy-released/
#ceph #quincy #release #bugfix #cephexpertu
Это багфикс релиз, исправляющий баг в либе libcephsqlite приводящий к падению mgr.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-3-quincy-released/
#ceph #quincy #release #bugfix #cephexpertu
Ceph
v17.2.3 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 15.2.17 (Octopus)
Это последний бэкпорт релиз для ветки Octopus
В этом выпуске рекомендуют обратить внимание на:
* Изменился формат SnapMapper ключей.
* Возможность объединить все RBD пулы в одно представление для выполнения команд rbd perf image iotop/iostat
Подробнее в официальном блоге:
https://ceph.io/en/news/blog/2022/v15-2-17-octopus-released/
#ceph #release #octopus
Это последний бэкпорт релиз для ветки Octopus
В этом выпуске рекомендуют обратить внимание на:
* Изменился формат SnapMapper ключей.
* Возможность объединить все RBD пулы в одно представление для выполнения команд rbd perf image iotop/iostat
Подробнее в официальном блоге:
https://ceph.io/en/news/blog/2022/v15-2-17-octopus-released/
#ceph #release #octopus
Ceph
v15.2.17 Octopus released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.4 (Quincy)
Разработчики отметили:
* cephfs: макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим
* osd: исправлена высокая утилизация cpu при backfill/recover
* очистка дублей pglog теперь контролируется размером, а не версией.
* osd: поправили конвертер snapmapper ключей
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-4-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* cephfs: макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим
* osd: исправлена высокая утилизация cpu при backfill/recover
* очистка дублей pglog теперь контролируется размером, а не версией.
* osd: поправили конвертер snapmapper ключей
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-4-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.4 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)
Разработчики отметили:
* исправили регрессию в ceph-volume делавшую процесс активации очень долгим.
* испарвили исключение возникающие при некоторых NFS командах в Rook кластерах
* исправили падение модуля телеметрии, которое могло повлиять на некоторых пользователей.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-5-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* исправили регрессию в ceph-volume делавшую процесс активации очень долгим.
* испарвили исключение возникающие при некоторых NFS командах в Rook кластерах
* исправили падение модуля телеметрии, которое могло повлиять на некоторых пользователей.
Подробнее тут:
https://ceph.io/en/news/blog/2022/v17-2-5-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.5 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
HashiCorp Terraform Plugin Framework Now Generally Available
https://www.infoq.com/news/2023/01/terraform-plugin-framework/
#terraform #hashicorp #release
https://www.infoq.com/news/2023/01/terraform-plugin-framework/
#terraform #hashicorp #release
InfoQ
HashiCorp Terraform Plugin Framework Now Generally Available
HashiCorp has released the 1.0 version of the Terraform Plugin Framework. This framework improves upon and replaces the current Terraform Plugin SDKv2. It includes support for validators, path expressions, nested attributes, resource private state management…
Forwarded from ceph.expert
Вышел ceph 16.2.11 (pacific)
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Разработчики отметили:
* Cephfs: Макрос 'AT_NO_ATTR_SYNC' объявлен устаревшим, рекомендуют использовать
'AT_STATX_DONT_SYNC'
* триминг PGLog теперь контролируется размером, а не версией.
* rbd: команда rbd device unmap получила опцию —namespace
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-11-pacific-released
#ceph #pacific #release #cephexpert
Ceph
v16.2.11 Pacific released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 17.2.5 (Quincy)
Разработчики отметили:
* команда
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Разработчики отметили:
* команда
ceph mgr dump
выводит поля last_failure_osd_epoch и active_clients
на верхнем уровне. Ранее эти поля были вложены в always_on_modules.
* telemetry: добавлены новые метрики в канал 'basic' для отчета bluestore компресси на уровне отдельных пулаов. посмотреть пример отчета можно с помощью команды
ceph telemetry preview.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v17-2-6-quincy-released/
#ceph #quincy #release #cephexpert
Ceph
v17.2.6 Quincy released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
Вышел ceph 18.2.0 (reef)
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Вышел первый стабильный релиз 18 ветки с кодовым названием reef.
Краткое содержание основных изменений:
• RADOS: RocksDB обновлен до версии 7.9.2.
• RADOS: значительно улучшена производительность RocksDB.
• RADOS: команды
perf dump
и perf schema
объявлены устаревшими в пользу команд counter dump
и counter schema
.• RADOS: Cache tiering объявлен устаревшим.
• RADOS: доступна новая фича "read balancer" которая позволит балансировать primary PG.
RGW: Поддержка bucket resharding для мкльтисайт конфигураций.
• RGW: Значительно улучшена стабильность и консистентность мультисайт репликации.
• RGW: теперь поддерживается сжатие для объектов загружаемых с Server-Side Encryption.
• DASHBOARD: новый улучшеный дашбоард. Алерты и некоторые графики теперь встроены в карточеки.
• RBD: поддержка многоуровневого клиентского шифрования. Шифровать клоны можно отличными от родителя алгоритмами/паролями.
Как всегда release notes первого стабильного релиза достаточно объемные.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v18-2-0-reef-released/
P.S. Как обычно не рекомендую катить в прод с ценными даными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #reef #release #cephexpert
Forwarded from ceph.expert
Вышел ceph 16.2.14 (pacific)
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Разработчики отметили:
* После востановлерия файловой системы в соответсвии с дизастр процедурой, фалы востановленные в lost+found теперь можно удалить.
* Команда ceph mgr dump теперь отображает имя менджера который зарагестрировал радос клиента, в поле name, добавленом к элементу массива
active_clients. Раньше там отображался только адрес.
Подробнее тут:
https://ceph.io/en/news/blog/2023/v16-2-14-pacific-released/
#ceph #pacific #release #cephexpert
Forwarded from ceph.expert
Вышел ceph 18.2.4 (reef)
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Вышел четвёртый бекпорт релиз в ветке reef.
Ранняя сборка этого релиза была случайно упакована и опубликована как 18.2.3 проектом Debian в апреле. Этот релиз 18.2.3 не должен использоваться, поэтому официальный релиз был переименован в v18.2.4, чтобы избежать дальнейшей путаницы.
Образы контейнеров v18.2.4 основанны на CentOS 9 и могут быть несовместимы с более старыми ядрами (например, Ubuntu 18.04) из-за различий в методах создания потоков. Пользователи, обновляющиеся до контейнеров v18.2.4 на более старых версиях ОС, могут столкнуться со сбоями во время выполнения pthread_create. Для обходных путей обратитесь к связанному трекеру https://tracker.ceph.com/issues/66989. Однако разработчики рекомендуют обновить вашу ОС, чтобы избежать этой неподдерживаемой комбинации.
Разработчики отметили следующие изменеия:
* RBD: При сравнении с началом времени (fromsnapname == NULL) в режиме fast-diff (whole_object == true с включенной и допустимой функцией fast-diff образа), diff-iterate теперь гарантированно выполняется локально, если доступна эксклюзивная блокировка. Это приводит к значительному улучшению производительности для синхронизации live дисков QEMU и резервного копирования.
* RADOS: C++ API get_pool_is_selfmanaged_snaps_mode был объявлен устаревшим из-за возможности ложноотрицательных результатов. Его безопасной заменой является pool_is_in_selfmanaged_snaps_mode.
* RBD: Добавлена опция --image-id для командной строки rbd children, чтобы она могла работать с образами в корзине.
Еще больше подробностей тут:
https://ceph.io/en/news/blog/2024/v18-2-4-reef-released/
#ceph #reef #release #cephexpert
Ceph
v18.2.4 Reef released - Ceph
Ceph is an open source distributed storage system designed to evolve with data.
Forwarded from ceph.expert
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел ceph 19.2.0 (squid)
Вышел первый стабильный релиз 19 ветки с кодовым названием squid.
Пользователям iSCSI рекомендуется ознакомиться с трекером перед обновлением т.к. разработчики сталкивались с проблемами при обновлении с 19.1.1 до 19.2.0.
Краткое содержание основных изменений, которые принесла 19 ветка:
-RADOS: BlueStore был оптимизирован для лучше производительности при snapshot-intensive сценариях.
- RADOS: Сжатие LZ4 в BlueStore RocksDB теперь включено по умолчанию для повышения средней производительности и использования пространства на быстрых дисках.
- RADOS: Другие улучшения включают в себя более гибкие конфиги EC, OpTracker для помощи отладки проблем в модулях mgr, и улучшеный планировщик скраба.
- Dashboard: Улучшение в навигационном слое
- CephFS: Поддержка управления снапшотами и клонами CephFS, а также управление расписанием снапшотов.
- CephFS: управление возможностями авторизации для ресурсов CephFS
- CephFS: помощники монтирования cephfs volumes
- RBD: Функция diff-iterate теперь может выполняться локально, что значительно повышает производительность при использовании QEMU для оперативной синхронизации дисков и резервного копирования.
- RBD: Добавлена поддержка клонирования из снапшотов non-user типа.
- RBD: windows драйвер rbd-wnbd получил возможность мультиплексировать мапинг образов.
- RGW: Функция "Учетные записи пользователей" открывает несколько новых AWS совместимых IAM API для самостоятельного управления пользователями, ключами, группами, ролями, политиками и многим другим.
- RADOS: Это первый релиз в котором crimson, в качестве tech preview, доступен для широкого круга пользователей. Пока поддерживается только RBD на реплицируемых пулах. Для получения дополнительной информации про Crimson смотрите https://ceph.io/en/news/crimson
И многое другое.
Как всегда release notes первого стабильного релиза достаточно объемные и там много чего интересного.
Подробнее тут:
https://ceph.com/en/news/blog/2024/v19-2-0-squid-released/
P.S. Как обычно не рекомендую катить в прод с ценными данными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #squid #release #cephexpert
Вышел первый стабильный релиз 19 ветки с кодовым названием squid.
Пользователям iSCSI рекомендуется ознакомиться с трекером перед обновлением т.к. разработчики сталкивались с проблемами при обновлении с 19.1.1 до 19.2.0.
Краткое содержание основных изменений, которые принесла 19 ветка:
-RADOS: BlueStore был оптимизирован для лучше производительности при snapshot-intensive сценариях.
- RADOS: Сжатие LZ4 в BlueStore RocksDB теперь включено по умолчанию для повышения средней производительности и использования пространства на быстрых дисках.
- RADOS: Другие улучшения включают в себя более гибкие конфиги EC, OpTracker для помощи отладки проблем в модулях mgr, и улучшеный планировщик скраба.
- Dashboard: Улучшение в навигационном слое
- CephFS: Поддержка управления снапшотами и клонами CephFS, а также управление расписанием снапшотов.
- CephFS: управление возможностями авторизации для ресурсов CephFS
- CephFS: помощники монтирования cephfs volumes
- RBD: Функция diff-iterate теперь может выполняться локально, что значительно повышает производительность при использовании QEMU для оперативной синхронизации дисков и резервного копирования.
- RBD: Добавлена поддержка клонирования из снапшотов non-user типа.
- RBD: windows драйвер rbd-wnbd получил возможность мультиплексировать мапинг образов.
- RGW: Функция "Учетные записи пользователей" открывает несколько новых AWS совместимых IAM API для самостоятельного управления пользователями, ключами, группами, ролями, политиками и многим другим.
- RADOS: Это первый релиз в котором crimson, в качестве tech preview, доступен для широкого круга пользователей. Пока поддерживается только RBD на реплицируемых пулах. Для получения дополнительной информации про Crimson смотрите https://ceph.io/en/news/crimson
И многое другое.
Как всегда release notes первого стабильного релиза достаточно объемные и там много чего интересного.
Подробнее тут:
https://ceph.com/en/news/blog/2024/v19-2-0-squid-released/
P.S. Как обычно не рекомендую катить в прод с ценными данными первый релиз, даже не смотря на то, что его называли стабильным ;)
#ceph #squid #release #cephexpert