⚙️ Cerebras расширила поддержку популярных сред машинного обучения с открытым исходным кодом PyTorch и TensorFlow на процессорах Wafer-Scale Engine 2 (WSE-2). Также компания добавила возможность «легко» обучать модели с миллиардами параметров.
По данным чипмейкера, расширенная поддержка фреймворка теперь встроена в программный стек Cerebras CSoft. Это позволяет ИИ-исследователям разрабатывать алгоритмы для работы на суперкомпьютере CS-2 с использованием TensorFlow или PyTorch без каких-либо изменений. Кроме того, инженеры могут запускать на CS-2 модели, написанные под GPU or CPU без необходимости их модификации.
💬 В компании заявили, что чип WSE-2 намного быстрее и лучше оснащен для работы с нейросетями различных размеров, чем графические процессоры вроде флагманского чипа Nvidia A100.
#Cerebras #суперкомпьютер
По данным чипмейкера, расширенная поддержка фреймворка теперь встроена в программный стек Cerebras CSoft. Это позволяет ИИ-исследователям разрабатывать алгоритмы для работы на суперкомпьютере CS-2 с использованием TensorFlow или PyTorch без каких-либо изменений. Кроме того, инженеры могут запускать на CS-2 модели, написанные под GPU or CPU без необходимости их модификации.
💬 В компании заявили, что чип WSE-2 намного быстрее и лучше оснащен для работы с нейросетями различных размеров, чем графические процессоры вроде флагманского чипа Nvidia A100.
#Cerebras #суперкомпьютер
⚙️ Cerebras побил рекорд в обучении «самой большой ИИ-модели» на одном устройстве, оснащенном процессором Wafer Scale Engine 2 размером с тарелку.
В компании заявили, что клиенты могут легко тренировать современные языковые GPT-алгоритмы с использованием до 20 млрд параметров в одной системе CS-2 с помощью программной платформы Cerebras (CSoft).
💬 По данным стартапа, технология Cerebras Weight Streaming отделяет вычислительные ресурсы, позволяя масштабировать память до любого объема, необходимого для хранения быстро растущего числа параметров в рабочих нагрузках ИИ. Работающие на одном CS-2 модели настраиваются за несколько минут, добавили в компании.
https://forklog.com/cerebras-pobil-rekord-v-obuchenii-ii-modeli-na-odnom-ustrojstve/
#Cerebras #чипы
В компании заявили, что клиенты могут легко тренировать современные языковые GPT-алгоритмы с использованием до 20 млрд параметров в одной системе CS-2 с помощью программной платформы Cerebras (CSoft).
💬 По данным стартапа, технология Cerebras Weight Streaming отделяет вычислительные ресурсы, позволяя масштабировать память до любого объема, необходимого для хранения быстро растущего числа параметров в рабочих нагрузках ИИ. Работающие на одном CS-2 модели настраиваются за несколько минут, добавили в компании.
https://forklog.com/cerebras-pobil-rekord-v-obuchenii-ii-modeli-na-odnom-ustrojstve/
#Cerebras #чипы
ForkLog
Cerebras побил рекорд в обучении ИИ-модели на одном устройстве
Американский стартап Cerebras обучил «самую большую ИИ-модель » на одном устройстве, оснащенном чипом Wafer Scale Engine 2 размером с тарелку.
⚙️ Cerebras разработала ИИ-суперкомпьютер Andromeda вычислительной мощностью 1 экзафлопс. Машина доступна для коммерческого и академического использования.
Система состоит из 16 серверов CS-2, построенных на крупногабаритном чипе Wafer-Scale Engine 2, с 13,5 млн ядер. Для сравнения самый большой суперкомпьютер в мире Frontier имеет 8,7 млн ядер. Кластер управляется 284 процессорами Gen AMD EPYC третьего поколения.
💰 По данным компании, стоимость создания Andromeda составила $35 млн в отличие от $600 млн, потраченных на разработку Frontier.
#Cerebras #суперкомпьютер
Система состоит из 16 серверов CS-2, построенных на крупногабаритном чипе Wafer-Scale Engine 2, с 13,5 млн ядер. Для сравнения самый большой суперкомпьютер в мире Frontier имеет 8,7 млн ядер. Кластер управляется 284 процессорами Gen AMD EPYC третьего поколения.
💰 По данным компании, стоимость создания Andromeda составила $35 млн в отличие от $600 млн, потраченных на разработку Frontier.
#Cerebras #суперкомпьютер