ServerNews
1.98K subscribers
1 photo
10.8K links
ServerNews.ru — проект портала 3DNews.ru, посвященный корпоративным и SMB-решениям, а также HPC. Основная аудитория: системные и сетевые администраторы, технические директора и IT-специалисты как сегмента SMB, так крупных предприятий и организаций.
Download Telegram
Компания NVIDIA, по сообщению ресурса VideoCardz, раскрыла планы по выпуску ускорителей нового поколения, предназначенных для применения в ЦОД и на площадках гиперскейлеров. NVIDIA указывает лишь ориентировочные сроки выхода решений, поскольку фактические даты зависят от многих факторов, таких как макроэкономическая обстановка, готовность сопутствующего ПО, доступность производственных мощностей и пр.
#hardware #nvidia #hpc #ии #ускоритель #gb200 #h200 #b40 #infiniband #arm
#servernews @servernewsru

https://servernews.ru/1094261/?utm_source=nova&utm_medium=tg&utm_campaign=sn
NVIDIA анонсировала ускорители H200 на базе всё той же архитектуры Hopper, что и их предшественники H100, представленные более полутора лет назад. Новый H200, по словам компании, первый в мире ускоритель, использующий память HBM3e. Вытеснит ли он H100 или останется промежуточным звеном эволюции решений NVIDIA, покажет время — H200 станет доступен во II квартале следующего года, но также в 2024-м должно появиться новое поколение ускорителей B100, которые будут производительнее H100 и H200.
#nvidia #hardware #hgx #h200 #gh200 #grace #hpc #ускоритель #ии
#servernews @servernewsru

https://servernews.ru/1095861/?utm_source=nova&utm_medium=tg&utm_campaign=sn
Корпорация Microsoft объявила о том, что на базе облака Azure стали доступны виртуальные машины NC H100 v5 для HPC-вычислений и нагрузок ИИ. Это, как отмечается, первые в отрасли облачные инстансы на базе ускорителей NVIDIA H100 NVL. Данное решение объединяет два PCIe-ускорителя H100, соединённых посредством NVIDIA NVLink. Объём памяти HBM3 составляет 188 Гбайт, а заявленная FP8-производительность (с разреженностью) достигает почти 4 Пфлопс.
#hardware #nvidia #microsoftazure #облако #ии #h100 #h200
#servernews @servernewsru

https://servernews.ru/1096056/?utm_source=nova&utm_medium=tg&utm_campaign=sn
AWS и NVIDIA анонсировали сразу несколько новых совместно разработанных решений для генеративного ИИ. Основным анонсом формально является появление ИИ-облака DGX Cloud в инфраструктуре AWS, вот только облако это отличается от немногочисленных представленных ранее платформ DGX Cloud тем, что оно первом получило гибридные суперчипах GH200 (Grace Hoppper), причём в необычной конфигурации.
#aws #облако #hardware #gh200 #h200 #dgxcloud #ускоритель #ии #суперкомпьютер
#servernews @servernewsru

https://servernews.ru/1096645/?utm_source=nova&utm_medium=tg&utm_campaign=sn
Компания NVIDIA опубликовала новые, ещё более впечатляющие результаты в области работы с большими языковыми моделями (LLM) в бенчмарке MLPerf Inference 4.0. За прошедшие полгода и без того высокие результаты, демонстрируемые архитектурой Hopper в инференс-сценариях, удалось улучшить практически втрое. Столь внушительный результат достигнут благодаря как аппаратным улучшениям в ускорителях H200, так и программным оптимизациям.
#software #nvidia #mlperf #ии #инференс #h200 #бенчмарк
#servernews @servernewsru

https://servernews.ru/1102371/?utm_source=nova&utm_medium=tg&utm_campaign=sn