Исследование, проведённое компанией TrendForce, говорит о том, что многие поставщики облачных услуг (CSP) начали крупномасштабные инвестиции в ИИ-оборудование. Связано это с развитием платформ интеллектуального Интернета вещей (AIoT), периферийных вычислений и появлением приложений вроде ChatGPT.
#hardware #сервер #ии #trendforce #прогноз #анализрынка #hbm
#servernews
https://servernews.ru/1083242/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #сервер #ии #trendforce #прогноз #анализрынка #hbm
#servernews
https://servernews.ru/1083242/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
TrendForce: облака и гиперскейлеры готовятся к массовому внедрению ИИ-серверов
Исследование, проведённое компанией TrendForce, говорит о том, что многие поставщики облачных услуг (CSP) начали крупномасштабные инвестиции в ИИ-оборудование. Связано это с развитием платформ интеллектуального Интернета вещей (AIoT), периферийных вычислений…
TrendForce отметила в своём новом исследовании, что в связи с резким ростом популярности приложений генеративного ИИ ведущие провайдеры облачных решений, включая Microsoft, Google, AWS, а также китайские технологические гиганты, такие как Baidu и ByteDance, значительно увеличили приобретение ИИ-серверов, необходимых для обучения и оптимизации ИИ-моделей.
#hardware #ии #trendforce #прогноз #ускоритель #производство #hbm #tsmc
#servernews
https://servernews.ru/1088776/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ии #trendforce #прогноз #ускоритель #производство #hbm #tsmc
#servernews
https://servernews.ru/1088776/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
TrendForce: рост популярности ИИ подстегнёт спрос на память HBM и продвинутые методы упаковки чипов
TrendForce отметила в своём новом исследовании, что в связи с резким ростом популярности приложений генеративного ИИ ведущие провайдеры облачных решений, включая Microsoft, Google, AWS, а также китайские технологические гиганты, такие как Baidu и ByteDance…
Celestial AI, получившая $100 млн инвестиций, объявила о разработке интерконнекта Photonic Fabric, покрывающего все ниши: межкристалльного (chip-to-chip), межчипового (package-to-package) и межузлового (node-to-node) обмена данными.
#интерконнект #фотоника #celestial #сети #cxl #ucie #hbm
#servernews
https://servernews.ru/1089413/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#интерконнект #фотоника #celestial #сети #cxl #ucie #hbm
#servernews
https://servernews.ru/1089413/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
HBM по оптике: фотонный интерконнект Celestial AI Photonic Fabric обеспечит плотность до 7,2 Тбит/с на кв. мм
Celestial AI, получившая $100 млн инвестиций, объявила о разработке интерконнекта Photonic Fabric, покрывающего все ниши: межкристалльного (chip-to-chip), межчипового (package-to-package) и межузлового (node-to-node) обмена данными.
Компания Alphawave Semi анонсировала успешное воплощение в «кремнии» своих PHY-контроллеров HBM3 и UCIe. Что немаловажно, новые IP-блоки производятся с использованием 3-нм техпроцесса TSMC, что делает их весьма экономичными решениями и открывает путь к ещё более быстрым чиплетным платформам для рынка ЦОД и гиперскейлеров.
#hardware #alphawave #ucie #tsmc #hbm #контроллер
#servernews
https://servernews.ru/1089903/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #alphawave #ucie #tsmc #hbm #контроллер
#servernews
https://servernews.ru/1089903/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Alphawave Semi получила первые контроллеры HBM3 и UCIe в 3-нм «кремнии»
Компания Alphawave Semi анонсировала успешное воплощение в «кремнии» своих PHY-контроллеров HBM3 и UCIe. Что немаловажно, новые IP-блоки производятся с использованием 3-нм техпроцесса TSMC, что делает их весьма экономичными решениями и открывает путь к ещё…
Чем активнее внедряются ИИ-системы, тем важнее становится роль памяти HBM и DDR5, а в особенности её энергоэффективность. Так, в крупномасштабных системах на базе NVIDIA A100 на долю памяти может приходиться до 40 % потребляемой энергии. Неудивительно, что крупные производители памяти объединяют свои усилия с академическими кругами, чтобы разработать более экономичную память нового поколения.
#hardware #skhynix #энергоэффективность #ddr5 #ram #samsung #hbm
#servernews
https://servernews.ru/1089995/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #skhynix #энергоэффективность #ddr5 #ram #samsung #hbm
#servernews
https://servernews.ru/1089995/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Samsung и SK Hynix работают над снижением энергопотребления оперативной памяти
Чем активнее внедряются ИИ-системы, тем важнее становится роль памяти HBM и DDR5, а в особенности её энергоэффективность. Так, в крупномасштабных системах на базе NVIDIA A100 на долю памяти может приходиться до 40 % потребляемой энергии. Неудивительно, что…
Компания TrendForce опубликовала свежий прогноз по глобальному рынку чипов памяти HBM: аналитики полагают, что спрос на эту продукцию будет быстро расти на фоне стремительно развивающихся ИИ-технологий. Объём поставок HBM в 2024 году может увеличиться на 105 % по сравнению с 2023-м, при этом ожидается смещение фокуса с изделий HBM2e в сторону HBM3.
#hardware #hbm #trendforce #прогноз #анализрынка #ram
#servernews @servernewsru
https://servernews.ru/1091763/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #hbm #trendforce #прогноз #анализрынка #ram
#servernews @servernewsru
https://servernews.ru/1091763/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Поставки HBM-памяти в 2024 году вырастут вдвое
Компания TrendForce опубликовала свежий прогноз по глобальному рынку чипов памяти HBM: аналитики полагают, что спрос на эту продукцию будет быстро расти на фоне стремительно развивающихся ИИ-технологий. Объём поставок HBM в 2024 году может увеличиться на…
Компания SK hynix объявила о разработке самой высокопроизводительной в мире памяти HBM3E, предназначенной для использования в современных ИИ-системах. Образцы изделий уже поставляются отдельным заказчикам для оценки технических характеристик.
#hardware #hbm #ram #skhynix
#servernews @servernewsru
https://servernews.ru/1091781/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #hbm #ram #skhynix
#servernews @servernewsru
https://servernews.ru/1091781/?utm_source=nova&utm_medium=tg&utm_campaign=sn
Компания Samsung Electronics в ходе ежегодного мероприятия Memory Tech Day сообщила о начале поставок образцов микросхем памяти HBM3E нового поколения с кодовым названием Shinebolt. Утверждается, что изделия Shinebolt обеспечивают прирост производительности примерно на 50 % по сравнению с чипами HBM3E предыдущего поколения (Icebolt). Пропускная способность в расчёте на контакт достигает 9,8 Гбит/с против 6,4 Гбит/с у Icebolt.
#hardware #samsung #hbm #ram
#servernews @servernewsru
https://servernews.ru/1094800/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #samsung #hbm #ram
#servernews @servernewsru
https://servernews.ru/1094800/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Samsung представила чипы памяти HBM3E с пропускной способностью более 1,2 Тбайт/с
Компания Samsung Electronics в ходе ежегодного мероприятия Memory Tech Day сообщила о начале поставок образцов микросхем памяти HBM3E нового поколения с кодовым названием Shinebolt. Утверждается, что изделия Shinebolt обеспечивают прирост производительности…
Компания Micron Technology объявила о начале массового производства передовой памяти HBM3E. Речь идёт об изделиях ёмкостью 24 Гбайт, предназначенных для ИИ-ускорителей NVIDIA H200, которые появятся на коммерческом рынке во II квартале нынешнего года.
#hardware #micron #hbm #ram
#servernews @servernewsru
https://servernews.ru/1100869/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #micron #hbm #ram
#servernews @servernewsru
https://servernews.ru/1100869/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Micron начала массовое производство памяти HBM3E для ускорителей NVIDIA H200
Компания Micron Technology объявила о начале массового производства передовой памяти HBM3E. Речь идёт об изделиях ёмкостью 24 Гбайт, предназначенных для ИИ-ускорителей NVIDIA H200, которые появятся на коммерческом рынке во II квартале нынешнего года.
Компания Samsung Electronics объявила о разработке первых в отрасли чипов высокопроизводительной памяти HBM3E в виде 12-ярусных стеков общей ёмкостью 36 Гбайт. Изделия ориентированы на применение в системах ИИ с большой вычислительной нагрузкой.
#hardware #samsung #hbm #ram
#servernews @servernewsru
https://servernews.ru/1100929/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #samsung #hbm #ram
#servernews @servernewsru
https://servernews.ru/1100929/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
В Samsung разработаны первые в отрасли 12-слойные чипы HBM3E ёмкостью 36 Гбайт
Компания Samsung Electronics объявила о разработке первых в отрасли чипов высокопроизводительной памяти HBM3E в виде 12-ярусных стеков общей ёмкостью 36 Гбайт. Изделия ориентированы на применение в системах ИИ с большой вычислительной нагрузкой.
Компания AMD готовит новые модификации ускорителей семейства Instinct MI300, которые ориентированы на обработку ресурсоёмких ИИ-приложений. Изделия будут оснащены высокопроизводительной памятью HBM3E. Работу над ними подтвердил технический директор AMD Марк Пейпермастер (Mark Papermaster), а уже на этой неделе на стенде компании на выставке MWC 2024 был замечен образец обновлённого ускорителя.
#hardware #amd #instinct #hbm #ускоритель
#servernews @servernewsru
https://servernews.ru/1100932/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #amd #instinct #hbm #ускоритель
#servernews @servernewsru
https://servernews.ru/1100932/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
На MWC 2024 замечен первый образец ускорителя AMD Instinct MI300X с 12-слойной памятью HBM3E
Компания AMD готовит новые модификации ускорителей семейства Instinct MI300, которые ориентированы на обработку ресурсоёмких ИИ-приложений. Изделия будут оснащены высокопроизводительной памятью HBM3E. Работу над ними подтвердил технический директор AMD Марк…
Компания Micron Technology, приступившая в феврале к массовому производству передовой памяти HBM3E, сообщила, что уже имеет на руках контракты на весь объём поставок до конца 2024 года, а также на большую часть поставок в 2025 году. Память Micron HBM3E (Micron называет её HBM3 Gen2) одной из первых получила сертификацию для использования в ускорителях NVIDIA (G)H200, так что, по всей видимости, Micron станет ключевым поставщиком для NVIDIA, пишет AnandTech.
#hbm #hardware #ram #micron #финансы
#servernews @servernewsru
https://servernews.ru/1102190/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hbm #hardware #ram #micron #финансы
#servernews @servernewsru
https://servernews.ru/1102190/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Micron уже продала всю HBM3E-память, которую выпустит в 2024 году и распределила заказы на 2025 год
Компания Micron Technology, приступившая в феврале к массовому производству передовой памяти HBM3E, сообщила, что уже имеет на руках контракты на весь объём поставок до конца 2024 года, а также на большую часть поставок в 2025 году. Память Micron HBM3E (Micron…
Компания Celestial AI, занимающаяся созданием технологий оптического интерконнекта, сообщила о проведении раунда финансирования Series C, в ходе которого привлечено $175 млн. Деньги будут использованы для ускорения разработки и вывода передовых продуктов на коммерческий рынок.
#celestial #интерконнект #ии #финансы #фотоника #сети #hbm
#servernews @servernewsru
https://servernews.ru/1102424/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#celestial #интерконнект #ии #финансы #фотоника #сети #hbm
#servernews @servernewsru
https://servernews.ru/1102424/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Оптика для HBM: стартап Celestial AI получил ещё $175 млн инвестиций, в том числе от AMD и Samsung
Компания Celestial AI, занимающаяся созданием технологий оптического интерконнекта, сообщила о проведении раунда финансирования Series C, в ходе которого привлечено $175 млн. Деньги будут использованы для ускорения разработки и вывода передовых продуктов…