Обновился совместный с Broadcom документ из серии NetApp Verified Architecture с архитектурой решенеия для Oracle поверх NVMeoF — NetApp and Broadcom Modern SAN Cloud-Connected Flash Solution. Oracle and SUSE NetApp Verified Architecture Design Edition. В документе описано решение с использованием AFF A700s и Brocade G620, подробно описано как настроена сеть, как разбиты диски и т.д., вплоть до точных версий прошивок HBA. Посчитана экономия от перехода с SCSI FC на NVMe over FC.
Я не перечитывал документ, но самое заметное изменение это более подробные графики с производительностью. Хороший аргумент в пользу использования NVMe-oF даже в системах NetApp AFF с SAS SSD. Напомню, NVMe-oF поддерживается в A300, A700, A700s и A800. В ONTAP 9.5 добавили поддержку ANA - Asymmetrical Namespace Acsess, аналог ALUA.
#NVMe #AFF #brocade #Oracle
https://www.netapp.com/us/media/nva-1126-design.pdf
Я не перечитывал документ, но самое заметное изменение это более подробные графики с производительностью. Хороший аргумент в пользу использования NVMe-oF даже в системах NetApp AFF с SAS SSD. Напомню, NVMe-oF поддерживается в A300, A700, A700s и A800. В ONTAP 9.5 добавили поддержку ANA - Asymmetrical Namespace Acsess, аналог ALUA.
#NVMe #AFF #brocade #Oracle
https://www.netapp.com/us/media/nva-1126-design.pdf
Еще один совместный документ NetApp и Broadcom из серии NetApp Verified Architecture теперь с архитектурой решенеия для MongoDB поверх NVMe-oF — NetApp and Broadcom Modern SAN Cloud-Connected Flash Solution. MongoDB and SUSE NetApp Verified Architecture Design Edition.
#NVMe #AFF #MongoDB #brocade
https://www.netapp.com/us/media/nva-1127-design.pdf
#NVMe #AFF #MongoDB #brocade
https://www.netapp.com/us/media/nva-1127-design.pdf
Полтора месяца назад я искал добровольцев с AFF и 9.4 в чате канала. Все было ради возможности посмотреть сколько данных уехало бы в холодный слой, если бы использовался FabricPool. В 9.4 появилась опция, которая позволяет посмотреть объем данных, к которым не было никаких обращений за последние 30 дней. Напомню, что FabricPool — это агрегат, к которому присоединяется медленный слой в виде объектного хранилища. Это может быть StorageGRID, Amazon S3, Azure Blob, IBM COS. Через процедуру FPVR можно использовать и другие объектные хранилища, работающие по S3. Есть клиенты, у которых прицеплен Cloudian.
Есть несколько политик тиринга данных. Можно отправлять в облако только снепшоты, а можно отправлять продуктивные холодные данные. Тиринг работает на уровне 4КБ блоков. FabricPool поддерживается на AFF, FAS (только с all-ssd агрегатами), ONTAP Select и Cloud Volumes.
Ниже на скриншоте результат сбора статистики за 30+ дней у клиента на продакшн системе на агрегате с почти полусотней инстансов MySQL. Снепшоты не используются.
Для включения статистки надо использовать опцию агрегата:-is-inactive-data-reporting-enabled true
На скриншоте performance-tier-inactive-user-data-percent — это процент от общей ёмкости тома (size).
#FabricPool #S3 #StorageGRID #ONTAP #AFF
Есть несколько политик тиринга данных. Можно отправлять в облако только снепшоты, а можно отправлять продуктивные холодные данные. Тиринг работает на уровне 4КБ блоков. FabricPool поддерживается на AFF, FAS (только с all-ssd агрегатами), ONTAP Select и Cloud Volumes.
Ниже на скриншоте результат сбора статистики за 30+ дней у клиента на продакшн системе на агрегате с почти полусотней инстансов MySQL. Снепшоты не используются.
Для включения статистки надо использовать опцию агрегата:-is-inactive-data-reporting-enabled true
На скриншоте performance-tier-inactive-user-data-percent — это процент от общей ёмкости тома (size).
#FabricPool #S3 #StorageGRID #ONTAP #AFF
Воу! NetApp протестировал AFF A800 в SPEC SFS2014 swbuild. Тестировали две конфигурации из 4 и 8 нод. Использовались FlexGroup. Напомню про старый пост с тестированием FAS8200, там есть описание того, что из себя представляет SPEC SFS2014swbuild. C A800 получили результат в 2200 и 4200 билдов в секунду. ORT (Overall Response Time) ниже 800 мкс. 1.1 млн и 2.1 млн операций в секунду. 13.9GB и 26.5GB секунду. Предыдущий лучший результат показали DDN — 1500 билдов.
#AFF #SPEC_SFS
https://blocksandfiles.com/2018/11/29/netapp-blows-filer-benchmark-to-smithereens/
#AFF #SPEC_SFS
https://blocksandfiles.com/2018/11/29/netapp-blows-filer-benchmark-to-smithereens/
Документ из серии NetApp Verified Architecture — FlexPod Express with VMware vSphere 6.7U1 and NetApp AFF A220 with Direct-Attached IP-Based Storage. FlexPod для самых маленьких. Из интересного ONTAP 9.5 и прямое подключение по IP в UCS Mini Fabric Interconnect, поддерживается iSCSI SAN Boot и NFS для датасторов. Вместо AFF можно использовать FAS2750/20. Это документ с концептуальной архитектурой, позже должен появиться документ с подробно расписанным деплойментом.
#FlexPod #AFF #VMware
https://www.netapp.com/us/media/nva-1130-design.pdf
#FlexPod #AFF #VMware
https://www.netapp.com/us/media/nva-1130-design.pdf
На Blocks & Files, сайдпроекте The Register, короткая статья о том какие быстрые WekaIO. В очередной раз протестировали свои системы в SPEC SFS 2014 и оказались быстрее всех. Вообще у SPEC SFS 2014 5 вариантов с разными типами нагрузки. Но абсолютное большинство вендоров почему-то тестируют системы в SFS2014 swbuild. Поэтому рассматривать остальные варианты теста, пока там всего пара вендоров, не имеет особого смысла. Ну и в статье забыли указать, что 12 февраля был опубликован результат теста 12-нодового кластера NetApp AFF A800. И этот кластер быстрее решения WekaIO. 6200 условных билдов в секунду против 5700. ORT (Overall Response Time) около 800 мкс. 3.1 млн млн операций в секунду. 39 GB секунду. В общем не забывайте заглядывать в источники, когда читаете новости. Заодно можно будет узнать, что 6 нод WekaIO — это на самом деле 23 сервера в 6 шасси Supermicro BigTwin 🤷♂️
Забавно, что ранее уже были опубликованы тесты с 4 и 8 нодами A800. А теперь в нужный момент появились результаты 12-нодовой системы. Подозреваю, что где-то уже лежат результаты тестирования 24 нод A800.
#AFF #SPEC_SFS
https://spec.org/sfs2014/results/sfs2014swbuild.html
Забавно, что ранее уже были опубликованы тесты с 4 и 8 нодами A800. А теперь в нужный момент появились результаты 12-нодовой системы. Подозреваю, что где-то уже лежат результаты тестирования 24 нод A800.
#AFF #SPEC_SFS
https://spec.org/sfs2014/results/sfs2014swbuild.html
В дополнение к сообщению про SPEC SFS 2014 пост в блоге NetApp. Там наглядные графики.
#SPEC_SFS #AFF #FlexGroup
https://blog.netapp.com/keep-on-scalin-how-flexgroup-volumes-scale-out-performance/
#SPEC_SFS #AFF #FlexGroup
https://blog.netapp.com/keep-on-scalin-how-flexgroup-volumes-scale-out-performance/
Вышел документ из серии NetApp Verified Architecture — FlexPod Express with VMware vSphere 6.7U1 and NetApp AFF A220 with Direct-Attached IP-Based Storage. Но если месяц назад документ(https://t.me/storagetalks/692) был про дизайн решения, то этот уже про подробную процедуру деплоймента.
#FlexPod #AFF #VMware
https://www.netapp.com/us/media/nva-1131-deploy.pdf
#FlexPod #AFF #VMware
https://www.netapp.com/us/media/nva-1131-deploy.pdf
Telegram
StorageTalks
Документ из серии NetApp Verified Architecture — FlexPod Express with VMware vSphere 6.7U1 and NetApp AFF A220 with Direct-Attached IP-Based Storage. FlexPod для самых маленьких. Из интересного ONTAP 9.5 и прямое подключение по IP в UCS Mini Fabric Interconnect…
Немного обновлений по решениям для ML/AI.
Обновился документ NetApp Verified Architecture — NetApp ONTAP AI, Powered by NVIDIA. Scalable AI Infrastructure: Designing for Real-World Deep Learning Use Cases. Это документ про дизайн решения NetApp ONTAP AI. Приятный шкафчик с AFF A800, NVIDIA DGX-1 и Cisco Nexus 3232C 100GbE. Программная часть работает на NVIDIA GPU Cloud Deep Learning Software Stack и NetApp Trident. Поддержка на всё решение от одного вендора, можно на выбор обращаться к NetApp или NVIDIA. Из того, что заметил сразу, в этой версии документа AFF A800 тестировали уже с 7 системами NVIDIA DGX-1. То что A800 выдержит нагрузку более 4 DGX-1 указывалоссь и ранее, но не было соответствующих тестов. С ONTAP AI используется подход, который применяется к FlexPod. Можно использовать и младшие модели AFF, если нет необходимости в производительности A800.
Есть и второй документ, в котром подробно описано развёртывние решения ONTAP AI.
И в скором времени должны появиться результаты тетсирования NetApp AFF c NVIDIA DGX-2.
#nvidia #ONTAP #AI #ML #DL #Cisco #AFF
https://www.netapp.com/us/media/nva-1121-design.pdf
https://www.netapp.com/us/media/nva-1121-deploy.pdf
В продолжение темы, о том как за 20 минут развернуть решение ONTAP AI, включая сеть, СХД и серверы, с помощью Ansible.
https://blog.netapp.com/how-to-configure-ontap-ai-in-20-minutes-with-ansible-automation/
Обновился документ NetApp Verified Architecture — NetApp ONTAP AI, Powered by NVIDIA. Scalable AI Infrastructure: Designing for Real-World Deep Learning Use Cases. Это документ про дизайн решения NetApp ONTAP AI. Приятный шкафчик с AFF A800, NVIDIA DGX-1 и Cisco Nexus 3232C 100GbE. Программная часть работает на NVIDIA GPU Cloud Deep Learning Software Stack и NetApp Trident. Поддержка на всё решение от одного вендора, можно на выбор обращаться к NetApp или NVIDIA. Из того, что заметил сразу, в этой версии документа AFF A800 тестировали уже с 7 системами NVIDIA DGX-1. То что A800 выдержит нагрузку более 4 DGX-1 указывалоссь и ранее, но не было соответствующих тестов. С ONTAP AI используется подход, который применяется к FlexPod. Можно использовать и младшие модели AFF, если нет необходимости в производительности A800.
Есть и второй документ, в котром подробно описано развёртывние решения ONTAP AI.
И в скором времени должны появиться результаты тетсирования NetApp AFF c NVIDIA DGX-2.
#nvidia #ONTAP #AI #ML #DL #Cisco #AFF
https://www.netapp.com/us/media/nva-1121-design.pdf
https://www.netapp.com/us/media/nva-1121-deploy.pdf
В продолжение темы, о том как за 20 минут развернуть решение ONTAP AI, включая сеть, СХД и серверы, с помощью Ansible.
https://blog.netapp.com/how-to-configure-ontap-ai-in-20-minutes-with-ansible-automation/
TR-4767. NetApp AFF A800 Performance with Oracle RAC Database.
Внутренний тест A800, симулирующий нагрузку Oracle 100% SELECT и 75% SELECT / 25% UPDATE. Первый профиль сугубо для красоты. Что мне больше всего нравится в таких тестах, так это возможность проследить как растёт производительность с выходом нового оборудование и что ещё важнее с выходом новых версий ONTAP. В документе есть графики тестов ONTAP 9.4 и 9.5. По ссылке старый TR, в котором описаны тесты A700 и есть графики AFF8080A ещё с cDOT 8.3.1.
В текущем документе есть сравнение производительности FC и NVMe/FC. Задержки на стороне хостов впечатляют.
#AFF #NVMe #FC #Oracle #TR
https://www.netapp.com/us/media/tr-4767.pdf
Внутренний тест A800, симулирующий нагрузку Oracle 100% SELECT и 75% SELECT / 25% UPDATE. Первый профиль сугубо для красоты. Что мне больше всего нравится в таких тестах, так это возможность проследить как растёт производительность с выходом нового оборудование и что ещё важнее с выходом новых версий ONTAP. В документе есть графики тестов ONTAP 9.4 и 9.5. По ссылке старый TR, в котором описаны тесты A700 и есть графики AFF8080A ещё с cDOT 8.3.1.
В текущем документе есть сравнение производительности FC и NVMe/FC. Задержки на стороне хостов впечатляют.
#AFF #NVMe #FC #Oracle #TR
https://www.netapp.com/us/media/tr-4767.pdf
Обзор Samsung 983 ZET SSD на основе Z-NAND у Tom's Hardware. Samsung позиционирует Z-NAND как конкурента для Intel Optane. Судя по графикам производительности, лучше всего 983 ZET SSD проявит себя в качестве кэша на чтение. У NetApp были планы по использованию Z-NAND как кэша в AFF системах. Но пока в продукт, доступный на рынке, это не вылилось. Хотя графики и PoC показывали.
#AFA #AFF #ZNAND
https://www.tomshardware.com/reviews/samsung-983-zet-z-nand-optane-ssd,6036.html
#AFA #AFF #ZNAND
https://www.tomshardware.com/reviews/samsung-983-zet-z-nand-optane-ssd,6036.html
Tom's Hardware
Samsung 983 ZET SSD Review: Z-NAND Takes On Optane
Samsung's new Z-NAND powered 983 ZET goes toe-to-toe with Intel's Optane.
NetApp Tech ONTAP Podcast. Episode 185 – Oracle on MAX Data
Послушал подкаст про Oracle с MAX Data.
Так как не всем удобно слушать подкасты, да ёще и на английском, я во время прослушивания набросал заметки с тем, что мне показалось интересным.
Писать про то, что такое MAX Data не буду. Про этом было много раз на канале, поищите.
- В будущих версиях будет поддерживаться DAS как tier 2.
- С выходом Optane стало хорошо, намного больше ёмкость в сравнении c NVDIMM.
- Зачем вообще MAX Data, почему бы просто не использовать Optane? Производительность локальной Persistent Memory c функциональностью промышленного решения — снепшоты, синхронная репликация на MAX Recovery, асинхронная репликация SnapMirror на другую СХД, в облако.
- Для работы с Optane в режиме AppData придётся переписывать приложение. С MAX Data в этом нет необходимости. Приложение работает с POSIX-совместимой файловой системой — m1fs.
- Как поменялись ожидания/возможности по latency за последние годы. На HDD хотели 8-10 мс, на AFA - 1 мс, c PM и MAX Data - 20 мкс.
- Даёт уверенность, что если база медленная, то теперь это ТОЧНО не СХД.
- Вариант использования: Data files на m1fs, redo на обычном LUN.
- При создании снепшота m1fs делает снепшот у себя на хосте, AFF делает снепшот того, что есть в LUN. После из этого собирается один общий снепшот на AFF.
- Кроме Oracle тестировали с PostgreSQL и MySQL. PostgreSQL проще для интеграции со снепшотами.
Сегодня попался в презентации график производительности для MAX Data и AFF A220. Размер базы 5ТБ, сколько было Optane неизвестно, но понятно, что для таких задержек working set должен был помещаться в Optane целиком. По-умолчанию предлагается считать, что для OLTP Oracle working set — 10%.
#Optane #MAXData #AFF #Oracle
https://whyistheinternetbroken.wordpress.com/2019/04/12/ep185-oracle-max-data/
Послушал подкаст про Oracle с MAX Data.
Так как не всем удобно слушать подкасты, да ёще и на английском, я во время прослушивания набросал заметки с тем, что мне показалось интересным.
Писать про то, что такое MAX Data не буду. Про этом было много раз на канале, поищите.
- В будущих версиях будет поддерживаться DAS как tier 2.
- С выходом Optane стало хорошо, намного больше ёмкость в сравнении c NVDIMM.
- Зачем вообще MAX Data, почему бы просто не использовать Optane? Производительность локальной Persistent Memory c функциональностью промышленного решения — снепшоты, синхронная репликация на MAX Recovery, асинхронная репликация SnapMirror на другую СХД, в облако.
- Для работы с Optane в режиме AppData придётся переписывать приложение. С MAX Data в этом нет необходимости. Приложение работает с POSIX-совместимой файловой системой — m1fs.
- Как поменялись ожидания/возможности по latency за последние годы. На HDD хотели 8-10 мс, на AFA - 1 мс, c PM и MAX Data - 20 мкс.
- Даёт уверенность, что если база медленная, то теперь это ТОЧНО не СХД.
- Вариант использования: Data files на m1fs, redo на обычном LUN.
- При создании снепшота m1fs делает снепшот у себя на хосте, AFF делает снепшот того, что есть в LUN. После из этого собирается один общий снепшот на AFF.
- Кроме Oracle тестировали с PostgreSQL и MySQL. PostgreSQL проще для интеграции со снепшотами.
Сегодня попался в презентации график производительности для MAX Data и AFF A220. Размер базы 5ТБ, сколько было Optane неизвестно, но понятно, что для таких задержек working set должен был помещаться в Optane целиком. По-умолчанию предлагается считать, что для OLTP Oracle working set — 10%.
#Optane #MAXData #AFF #Oracle
https://whyistheinternetbroken.wordpress.com/2019/04/12/ep185-oracle-max-data/
На StorageReview вышел обзор NetApp AFF A800. Мне не очень нравятся тесты производительности, которые проводят на SR, но зато в статье есть geek porn 🙂
На что обратить внимание? Если две СХД разного класса и разной мощности показывают одинаковые результаты в тесте, то значит узким местом была не СХД. И такой тест не имеет практической пользы для сравнения двух СХД. Я про тест SQL Server Performance.
Второй момент, про который не стоит забывать, A800 тестировалась с инлайн технологиями эффективности, они включены по-умолчанию. Если их выключить, то в случае с NetApp изменения производительности не будет. Но у многих других вендоров производительность меняется при включении/выключении технологий эффективности.
И в тесте не использовали NVMe over FC. Я так понял, что будет ещё один тест.
#AFF #NVMe
https://storagereview.com/netapp_aff_a800_review
На что обратить внимание? Если две СХД разного класса и разной мощности показывают одинаковые результаты в тесте, то значит узким местом была не СХД. И такой тест не имеет практической пользы для сравнения двух СХД. Я про тест SQL Server Performance.
Второй момент, про который не стоит забывать, A800 тестировалась с инлайн технологиями эффективности, они включены по-умолчанию. Если их выключить, то в случае с NetApp изменения производительности не будет. Но у многих других вендоров производительность меняется при включении/выключении технологий эффективности.
И в тесте не использовали NVMe over FC. Я так понял, что будет ещё один тест.
#AFF #NVMe
https://storagereview.com/netapp_aff_a800_review
StorageReview.com
NetApp AFF A800 Review
The A800 embraces NVMe in ways that are practical for the enterprise without sacrificing the data protection and availability features inherent in ONTAP.
Всё что вы хотели знать про AFF A320. Точнее всё, что я про неё знаю и чем могу поделиться 🙂
#AFF #NVMe
https://alikulov.me/blog/all/netapp-aff-a320/
#AFF #NVMe
https://alikulov.me/blog/all/netapp-aff-a320/
Обновился TR-4684. Implementing and Configuring Modern SANs with NVMe/FC. Это уже 4 версия документа. Когда я постил его в первый раз, ONTAP был версии 9.4. С тех пор достаточно много изменений в 9.5 и 9.6. За изменениями лучше сразу идти в раздел 6 NVMe/FC Features and Limitations на странице 16.
#TR #ONTAP #NVMe #FC #SAN #AFF
https://t.me/storagetalks/519
#TR #ONTAP #NVMe #FC #SAN #AFF
https://t.me/storagetalks/519
Telegram
StorageTalks
TR-4684. Implementing and Configuring Modern SANs with NVMe/FC
Документ описывает общие концепции NVMe и NVMe over Fabrics, как реализована поддержка NVMe/FC в ONTAP, какие преимущества в производительности, какие сейчас существуют ограничения. Основное…
Документ описывает общие концепции NVMe и NVMe over Fabrics, как реализована поддержка NVMe/FC в ONTAP, какие преимущества в производительности, какие сейчас существуют ограничения. Основное…
Новый Technical Report. TR-4788. Architecting I/O-Intensive MongoDB Databases on NetApp. Рекомендации по архитектуре решения для использования MongoDB с ONTAP для БД, котрые требуют много IOPS с низкими задержками (I/O-Intensive Databases).
#TR #AFF #ONTAP #Select #Cloud #MongoDB
https://www.netapp.com/us/media/tr-4788.pdf
#TR #AFF #ONTAP #Select #Cloud #MongoDB
https://www.netapp.com/us/media/tr-4788.pdf
TR-4743. FlexCache in ONTAP 9.7
В 9.7 добавили поддержку нескольких существующих функций ONTAP для FlexCache.
Навскидку — MetroCluster, FlexGroup в качестве источника кэша. Подробнее в TR. Кстати, FlexCache, теперь бесплатный.
https://www.netapp.com/us/media/tr-4743.pdf
TR-4515. ONTAP AFF All SAN Array Systems
Подробнеее про NetApp ASA.
https://www.netapp.com/us/media/tr-4515.pdf
#AFF #ONTAP #FlexCache
В 9.7 добавили поддержку нескольких существующих функций ONTAP для FlexCache.
Навскидку — MetroCluster, FlexGroup в качестве источника кэша. Подробнее в TR. Кстати, FlexCache, теперь бесплатный.
https://www.netapp.com/us/media/tr-4743.pdf
TR-4515. ONTAP AFF All SAN Array Systems
Подробнеее про NetApp ASA.
https://www.netapp.com/us/media/tr-4515.pdf
#AFF #ONTAP #FlexCache
AFF A400 протестировали с Oracle RAC.
TR-4819-DESIGN — NetApp AFF A400 Performance with Oracle RAC Database. Solution Design. Как всегда, в последнее время, интересно сравнение производительности FCP и NVMe/FC.
“ONTAP 9.7 with NVMe/FCachieved 59%moreIOPS than FCP while at the same latency of 400μs.
…
Keep in mind, that with the large highly randomized data set used in this test, 89%to 98% of these reads were coming from SSD, not from cache.
…
During these tests, host CPU utilizationwas up to 30% lower with NVMe/FC than FCP.”
#TR #NVMe #FC #AFF
https://www.netapp.com/us/media/tr-4819-design.pdf
TR-4819-DESIGN — NetApp AFF A400 Performance with Oracle RAC Database. Solution Design. Как всегда, в последнее время, интересно сравнение производительности FCP и NVMe/FC.
“ONTAP 9.7 with NVMe/FCachieved 59%moreIOPS than FCP while at the same latency of 400μs.
…
Keep in mind, that with the large highly randomized data set used in this test, 89%to 98% of these reads were coming from SSD, not from cache.
…
During these tests, host CPU utilizationwas up to 30% lower with NVMe/FC than FCP.”
#TR #NVMe #FC #AFF
https://www.netapp.com/us/media/tr-4819-design.pdf