NVIDIA анонсировала NVIDIA NIM Agent Blueprints, каталог предварительно обученных, настраиваемых программных решений, предоставляющий разработчикам набор инструментов для создания и развёртывания приложений генеративного ИИ для типовых вариантов использования, таких как аватары для обслуживания клиентов, RAG, виртуальный скрининг для разработки лекарственных препаратов и т.д.
#nvidia #ии #software #автоматизация #llm #инференс #контейнеризация #разработка
#servernews @servernewsru
https://servernews.ru/1110075/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#nvidia #ии #software #автоматизация #llm #инференс #контейнеризация #разработка
#servernews @servernewsru
https://servernews.ru/1110075/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
NVIDIA представила шаблоны ИИ-приложений NIM Agent Blueprints для типовых бизнес-задач
NVIDIA анонсировала NIM Agent Blueprints, каталог предварительно обученных, настраиваемых программных решений, предоставляющий разработчикам набор инструментов для создания и развёртывания приложений генеративного ИИ для типовых вариантов использования, таких…
NVIDIA сообщила, что её платформы показали самые высокие результаты во всех тестах производительности уровня ЦОД в бенчмарке MLPerf Inference v4.1, где впервые дебютировал ускоритель семейства Blackwell.
#nvidia #mlperf #бенчмарк #ии #инференс #software
#servernews @servernewsru
https://servernews.ru/1110141/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#nvidia #mlperf #бенчмарк #ии #инференс #software
#servernews @servernewsru
https://servernews.ru/1110141/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
NVIDIA вновь показала лидирующие результаты в ИИ-бенчмарке MLPerf Inference
NVIDIA сообщила, что её платформы показали самые высокие результаты во всех тестах производительности уровня ЦОД в бенчмарке MLPerf Inference v4.1, где впервые дебютировал ускоритель семейства Blackwell.
Компании Intel и IBM намерены активно сотрудничать в сфере облачных ИИ-решений. По данным HPC Wire, доступ к ускорителям Intel Gaudi 3 будет предоставляться в облаке IBM Cloud с начала 2025 года. Сотрудничество обеспечит и поддержку Gaudi 3 ИИ-платформой IBM Watsonx. IBM Cloud станет первым поставщиком облачных услуг, принявшим на вооружение Gaudi 3 как для гибридных, так и для локальных сред.
#ibm #intel #ускоритель #облако #ibmcloud #watsonx #hardware #habana #инференс
#servernews @servernewsru
https://servernews.ru/1110231/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#ibm #intel #ускоритель #облако #ibmcloud #watsonx #hardware #habana #инференс
#servernews @servernewsru
https://servernews.ru/1110231/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
ИИ-ускорители Intel Gaudi 3 дебютируют в облаке IBM Cloud
Компании Intel и IBM намерены активно сотрудничать в сфере облачных ИИ-решений. По данным HPC Wire, доступ к ускорителям Intel Gaudi 3 будет предоставляться в облаке IBM Cloud с начала 2025 года. Сотрудничество обеспечит и поддержку Gaudi 3 ИИ-платформой…
Вместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам.
#hardware #ibm #ии #ускоритель #мейнфрейм #инференс #pciexpress50 #z17
#servernews @servernewsru
https://servernews.ru/1110080/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ibm #ии #ускоритель #мейнфрейм #инференс #pciexpress50 #z17
#servernews @servernewsru
https://servernews.ru/1110080/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Новые мейнфреймы IBM z получат ИИ-ускорители Spyre
Вместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам.
Американский стартап Cerebras Systems, занимающийся разработкой чипов для систем машинного обучения и других ресурсоёмких задач, объявил о запуске, как утверждается, самой производительной в мире ИИ-платформы для инференса — Cerebras Inference. Ожидается, что она составит серьёзную конкуренцию решениям на основе ускорителей NVIDIA.
#cerebras #ии #инференс #облако #software
#servernews @servernewsru
https://servernews.ru/1110276/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#cerebras #ии #инференс #облако #software
#servernews @servernewsru
https://servernews.ru/1110276/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Cerebras Systems запустила «самую мощную в мире» ИИ-платформу для инференса
Американский стартап Cerebras Systems, занимающийся разработкой чипов для систем машинного обучения и других ресурсоёмких задач, объявил о запуске, как утверждается, самой производительной в мире ИИ-платформы для инференса — Cerebras Inference. Ожидается…
Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1 70B, насчитывающими соответственно 405 и 70 млрд параметров.
#hardware #sambanovasystems #облако #ии #инференс #llm
#servernews @servernewsru
https://servernews.ru/1110773/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #sambanovasystems #облако #ии #инференс #llm
#servernews @servernewsru
https://servernews.ru/1110773/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SambaNova запустила «самую быструю в мире» облачную платформу для ИИ-инференса
Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1…
Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр.
#hardware #sima #ии #инференс #ускоритель #периферийныевычисления
#servernews @servernewsru
https://servernews.ru/1110841/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #sima #ии #инференс #ускоритель #периферийныевычисления
#servernews @servernewsru
https://servernews.ru/1110841/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферии
Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения…
Qualcomm, по сообщению Phoronix, планирует выпустить ускорители Cloud AI 80 (AIC080) для ИИ-задач. Информация о них появилась на сайте самого разработчика, а также в драйверах Linux. Речь идёт об «урезанных» версиях изделий Cloud AI 100, уже доступных на рынке.
#hardware #qualcomm #ускоритель #ии #инференс
#servernews @servernewsru
https://servernews.ru/1112037/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #qualcomm #ускоритель #ии #инференс
#servernews @servernewsru
https://servernews.ru/1112037/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Qualcomm готовит «урезанные» ИИ-ускорители Cloud AI 80
Qualcomm, по сообщению Phoronix, планирует выпустить ускорители Cloud AI 80 (AIC080) для ИИ-задач. Информация о них появилась на сайте самого разработчика, а также в драйверах Linux. Речь идёт об «урезанных» версиях изделий Cloud AI 100, уже доступных на…
Российский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера, с помощью нового сервиса можно всего за несколько минут развернуть готовую модель на вычислительных мощностях провайдера без привлечения разработчиков.
#selectel #инференс #ии #россия #software #облако #nvidia #kubernetes
#servernews @servernewsru
https://servernews.ru/1112268/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#selectel #инференс #ии #россия #software #облако #nvidia #kubernetes
#servernews @servernewsru
https://servernews.ru/1112268/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Selectel запустил бета-тестирование собственной инференс-платформы для ускорения запуска ИИ-моделей
Российский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера…
Американский стартап Cerebras Systems, специализирующийся на разработке ИИ-ускорителей, объявил о самом масштабном обновлении ИИ-платформы Cerebras Inference с момента её запуска. Производительность системы поднялась примерно в три раза.
#software #cerebras #инференс #облако #ии
#servernews @servernewsru
https://servernews.ru/1113107/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#software #cerebras #инференс #облако #ии
#servernews @servernewsru
https://servernews.ru/1113107/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Cerebras втрое повысила производительность своей инференс-платформы
Американский стартап Cerebras Systems, специализирующийся на разработке ИИ-ускорителей, объявил о самом масштабном обновлении ИИ-платформы Cerebras Inference с момента её запуска. Производительность системы поднялась примерно в три раза.
Компания OpenAI, по информации Reuters, разрабатывает собственные чипы для обработки ИИ-задач. Партнёром в рамках данного проекта выступает Broadcom, а организовать производство изделий планируется на мощностях TSMC ориентировочно в 2026 году.
#hardware #openai #amd #broadcom #tsmc #ии #ускоритель #instinct #mi300 #инференс #microsoftazure
#servernews @servernewsru
https://servernews.ru/1113232/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #openai #amd #broadcom #tsmc #ии #ускоритель #instinct #mi300 #инференс #microsoftazure
#servernews @servernewsru
https://servernews.ru/1113232/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
OpenAI разрабатывает собственные ИИ-чипы совместно с Broadcom и TSMC, а пока задействует AMD Instinct MI300X
Компания OpenAI, по информации Reuters, разрабатывает собственные чипы для обработки ИИ-задач. Партнёром в рамках данного проекта выступает Broadcom, а организовать производство изделий планируется на мощностях TSMC ориентировочно в 2026 году.
Компания больше не желает продавать другим доступ к ускорителям для обучения моделей, сделав ставку на инференс
#microsoft #финансы #microsoftazure #software #ии #инференс #дефицит #облако #цод
#servernews @servernewsru
https://servernews.ru/1113407/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#microsoft #финансы #microsoftazure #software #ии #инференс #дефицит #облако #цод
#servernews @servernewsru
https://servernews.ru/1113407/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Microsoft не хватает ресурсов для обслуживания ИИ, но компания готова и далее вкладываться в ЦОД, хотя инвесторам это не по нраву
Компания больше не желает продавать другим доступ к ускорителям для обучения моделей, сделав ставку на инференс