ForkLog AI
11K subscribers
1.3K photos
209 videos
12 files
4.68K links
Культовый журнал об искусственном интеллекте, нейронках и машинном обучении.


Наши эксперименты с нейронными сетями: https://www.tiktok.com/@forklogai.

Реклама на ForkLog: https://forklog.com/advertisement/
Download Telegram
⚙️ В 2022 году Meta создаст крупнейший в мире суперкомпьютера с искусственным интеллектом AI Research SuperCluster (RSC) для исследований в области машинного обучения.

На сегодня RSC содержит 6800 видеоускорителей Nvidia A100. По словам представителей компании, до середины 2022 года количество графических чипов увеличат до 16 000, а процессоров AMD Epyc — до 4000. Производительность такой системы составит 5 экзафлопс.

☝️ В Meta заявили, что установка сможет передавать до 16 терабайт обучающей информации в секунду. RSC позволит создавать новые и более совершенные ИИ-модели, способные учиться на триллионах примеров, анализировать текст, изображения и видео вместе, а также разрабатывать инструменты дополненной реальности.

https://forklog.com/meta-postroit-krupnejshij-v-mire-ii-superkompyuter/

#Meta #суперкомпьютер
⚙️ Cerebras расширила поддержку популярных сред машинного обучения с открытым исходным кодом PyTorch и TensorFlow на процессорах Wafer-Scale Engine 2 (WSE-2). Также компания добавила возможность «легко» обучать модели с миллиардами параметров.

По данным чипмейкера, расширенная поддержка фреймворка теперь встроена в программный стек Cerebras CSoft. Это позволяет ИИ-исследователям разрабатывать алгоритмы для работы на суперкомпьютере CS-2 с использованием TensorFlow или PyTorch без каких-либо изменений. Кроме того, инженеры могут запускать на CS-2 модели, написанные под GPU or CPU без необходимости их модификации.

💬 В компании заявили, что чип WSE-2 намного быстрее и лучше оснащен для работы с нейросетями различных размеров, чем графические процессоры вроде флагманского чипа Nvidia A100.

#Cerebras #суперкомпьютер
⚙️ Исследователи из Калифорнийского университета в Сан-Диего (SDSC) разработали первый в мире суперкомпьютер на базе ИИ-ускорителей Intel Habana. Ученые заявили, что машина готова к тестированию.

Суперкомпьютер Voyager имеет 42 узла Supermicro X12, каждый из которых оснащен парой процессоров Intel Xeon Scalable третьего поколения и восемью ускорителями искусственного интеллекта Habana Gaudi. В кластере также используется пара узлов SuperServer 4029GP-T с восемью ускорителями Habana Goya HL-100.

В SDSC заявили, что Voyager станет испытательным полигоном для исследований и разработок в области ИИ-вычислений на специализированном оборудовании.

🔎 Первые три года исследователи планируют тестировать систему, чтобы выяснить ее производительность, особенности оборудования и требования к совместимости ПО. В следующие два года SDSC позволит независимым ученым проводить испытания суперкомпьютера.

#суперкомпьютер
🏆 Рейтинг самых мощных суперкомпьютеров мира Top500 возглавила американская система Frontier. Разработанная Ок-Риджской национальной лабораторией (ORNL) установка достигла пикового значения 1,1 экзафлопса в тесте Linmark.

Суперкомпьютер работает на процессорах AMD EPYC 64C с тактовой частотой 2 ГГц, оптимизированных для искусственного интеллекта и высокопроизводительных вычислений. Система оснащена ускорителями AMD Instinct MI250X и имеет 8,7 млн ядер.

💰 Frontier находится в процессе интеграции и тестирования. Создание машины обошлось в $600 млн.

https://forklog.com/amerikanskij-superkompyuter-zanyal-pervoe-mesto-v-rejtinge-top500/

#суперкомпьютер
⚙️ Hewlett Packard Enterprise (HPE) и Nvidia представили французский ИИ-суперкомпьютер Champollion. Установка позволит исследователям и инженерам быстрее создавать и обучать модели искусственного интеллекта.

Машина представляет собой кластер из 20 систем HPE Apollo 6500 Gen10 Plus, включающий 160 графических процессоров NVIDIA A100 с тензорными ядрами и InfiniBand-фабрику Nvidia Quantum-2. Суперкомпьютер работает под управлением HPE Machine Learning Development Environment.

👥 По данным разработчиков, Champollion доступен избранным исследователям, но в будущем его откроют более широкому кругу пользователей.

#HPE #суперкомпьютер
🧠 Китайские ученые разработали ИИ-модель «масштаба мозга» на экзафлопсном суперкомпьютере Sunway OceanLight.

По словам экспертов, созданный алгоритм использует 174 трлн параметров, что условно конкурирует с числом синапсов в человеческом мозгу. Модель можно использовать для различных задач, от проведения исследований до интеграции в беспилотники, считают ученые.

При подготовке алгоритма для запуска на суперкомпьютере инженеры изменили архитектуру системы. Они внедрили «аппаратную внутриузловую оптимизацию» и «гибридные параллельные стратегии» в беспрецедентном масштабе.

⚙️ Sunway OceanLight включает 96 000 узлов, работающих на 390-ядерных процессорах Sunway SW39010.

#исследование #суперкомпьютер
⚙️ Министерство энергетики США запросило у поставщиков информацию для создания суперкомпьютера мощностью более 10 экзафлопс. Установку планируют запустить до 2030 года.

Министерство планирует развернуть один или несколько суперкомпьютеров, способных решать задачи в области физики, высокоточных вычислений, машинного обучения и анализа данных.

В ведомстве ожидают к 2030 году собрать установку мощностью 10-20 экзафлопс. После 2030 года производительность системы планируют увеличить до 100 экзафлопс за счет «аппаратных и программных механизмов ускорения».

📆 Вендоры должны предоставить свои предложения до конца июля 2022 года.

https://forklog.com/v-ssha-sozdadut-superkompyuter-v-10-raz-moshhnee-sovremennyh-sistem/

#США #суперкомпьютер
⚙️ NASA обновило суперкомпьютер Aitken, повысив его производительность на 16%.

Разработчики добавили четыре стойки HPE Apollo на базе архитектуры AMD Rome к уже имеющимся 12, увеличив количество узлов до 3200 с более чем 308 000 ядрами. Теперь теоретическая пиковая производительность Aitken составляет 13,12 петафлопс.

🌎 По данным NASA, модернизация суперкомпьютера позволит ведомству удовлетворить все текущие потребности как в стратосфере, так и за ее пределами.

#NASA #суперкомпьютер
🖼 Австралийские ученые создали изображение взрыва сверхновой звезды с помощью суперкомпьютера Setonix.

Машина оборудована более 500 процессорными узлами AMD EPYC Milan с 65 000 ядер. Система предназначена для обработки сложных и больших массивов данных.

🗂 Исследователи использовали информацию, собранную 36 параболическими антенами австралийского радиотелескопа ASKAP.

За 24 часа Setonix сгенерировал высокодетализированную иллюстрацию взрыва звезды G261.9+5.5, расположенной за 10 000-15 000 световых лет от Земли.

💬 По словам исследователей, визуализация поможет подробнее изучить процесс преобразования сверхновой и ее остатков, а также влияние этого события на космическую среду.

#суперкомпьютер #космос
⚙️ Tesla модернизировала используемый суперкомпьютер, сделав его седьмым в мире по количеству GPU.

По данным руководителя отдела по ИИ и автопилоту Тима Замана, общее число задействованных ускорителей Nvidia A100 выросло с 5760 до 7360.

🚗 Суперкомпьютер Tesla предназначен для тренировки моделей искусственного интеллекта, отвечающих за работу беспилотников.

#Tesla #суперкомпьютер
⚙️ ИИ-компания Tachyum подала заявку в Министерство энергетики США на создание суперкомпьютера мощностью 20 экзафлопс.

Машину планируют оборудовать процессорами Prodigy следующего поколения с проприетарной микроархитектурой, которые превосходят производительность «самых быстрых» чипов Intel Xeon в четыре раза и Nvidia H100 в три раза. Также компания обещает ускорение выполнения задач ИИ и рабочих нагрузок на логические выводы.

📆 Ранее ведомство выразило заинтересованность в развертывании суперкомпьютера мощностью 20 экзафлопс с потребляемой энергией 20–60 МВт до 2025 года. Машину планируют установить в Ок-Риджской национальной лаборатории.

#США #суперкомпьютер
🔎 Tesla раскрыла подробности о суперкомпьютерной архитектуре Dojo. Платформа предназначена для построения оптимизированных под ИИ-алгоритмы систем, которые в качестве исходных данных получают видео.

Dojo базируется на чипах, представляющих собой кремниевую пластину Training Tile с производительностью 9 петафлопс в задачах тренировки моделей. На каждой из систем размещено по 25 ускорителей D1 и 40 компактных модулей ввода-вывода.

⚙️ Также суперкомпьютерная платформа оснащена V1 Dojo Interface Processor — картой PCIe, отвечающей за совместную работу связок из кремниевых пластин. Они могут объединятся в системы из пяти единиц и обеспечивать пропускную способность до 4,5 Тб/с для каждой Training Tile.

#Tesla #суперкомпьютер
💰 Основатель Nvidia Дженсен Хуанг и его жена Лори Хуанг пожертвовали Университету штата Орегон $50 млн на создание научно-образовательного центра.

В комплексе построят один из мощнейших суперкомпьютеров в США для исследований в области искусственного интеллекта, материаловедения и робототехники.

⚙️ Ожидается, что основой установки станут графические процессоры Nvidia DGX SuperPOD и OVX SuperPOD. Генерируемое дата-центром тепло планируют использовать для обогрева кампуса университета.

https://forklog.com/news/osnovatel-nvidia-pozhertvoval-universitetu-50-mln-na-ii

#Nvidia #суперкомпьютер
⚙️ Cerebras разработала ИИ-суперкомпьютер Andromeda вычислительной мощностью 1 экзафлопс. Машина доступна для коммерческого и академического использования.

Система состоит из 16 серверов CS-2, построенных на крупногабаритном чипе Wafer-Scale Engine 2, с 13,5 млн ядер. Для сравнения самый большой суперкомпьютер в мире Frontier имеет 8,7 млн ядер. Кластер управляется 284 процессорами Gen AMD EPYC третьего поколения.

💰 По данным компании, стоимость создания Andromeda составила $35 млн в отличие от $600 млн, потраченных на разработку Frontier.

#Cerebras #суперкомпьютер
🤝 Microsoft и Nvidia заключили многолетнее сотрудничество для разработки массивного ИИ-суперкомпьютера.

Партнеры разместят систему в облачной среде Azure. Машину оснастят сетевой технологией Quantum-2 400Gb/s InfiniBand и графическими процессорами H100.

В рамках сотрудничества Nvidia планирует использовать экземпляры виртуальных машин Azure для исследования достижений в области генеративного ИИ и самоконтролируемых алгоритмов, способных создавать текст, код, изображения, видео или аудио.

⚙️ Microsoft же намерена оптимизировать библиотеку глубокого обучения DeepSpeed ​​для оборудования партнера. Компания стремится снизить затрачиваемые вычислительную мощность и память во время рабочих нагрузок тренировки ИИ.

#Microsoft #Nvidia #суперкомпьютер
🇮🇹 В Италии запустили суперкомпьютер Leonardo для решения высокоинтенсивных вычислительных задач вроде обработки данных, ИИ и машинного обучения.

Система состоит из двух секций — общего назначения и с ускорителями. После завершения строительства первая часть объединит 1536 узлов. Каждый из них будет включать два процессора Intel Xeon Sapphire Rapids с 56 ядрами.

⚙️ Вторая секция объединит 3456 узлов, содержащих по одному чипу Intel Xeon 8358 с 32 ядрами.

Производительность Leonardo составляет 174 петафлопс. Ожидается, что машину полностью запустят в первой половине 2023 года, а его пиковое быстродействие составит 250 петафлопс.

🌍 На сегодня система занимает четвертое место в рейтинге самых мощных суперкомпьютеров мира TOP500. В Европе Leonardo уступает только машине LUMI.

#Италия #суперкомпьютер
⚙️ Швеция модернизирует суперкомпьютер Berzelius с помощью ИИ-систем от Nvidia.

Представленная в 2021 году машина включает 60 узлов Nvidia DGX A100, состоящих из ускорителей A100 мощностью 5 петафлопс. После обновления он получит еще 34 ИИ-системы.

Ожидается, что апгрейд сделает Berzelius одним из самых быстрых суперкомпьютеров с искусственным интеллектом в мире.

🔎 Также модернизация поможет в понимании различных заболеваний, включая рака, создании больших языковых моделей, обработке графических данных и автономных промышленных роботов.

#Швеция #суперкомпьютер #Nvidia
⚙️ В мае 2022 года IBM запустила облачный суперкомпьютер Vela для разработки и обучения крупномасштабных ИИ-моделей. Он доступен только исследовательскому сообществу компании.

Система состоит из нескольких виртуальных машин, работающих в IBM Cloud. По данным производителя, такой подход дает большую гибкость для масштабирования по мере необходимости и возможность развертывания аналогичной инфраструктуры в любом датацентре компании по всему миру.

💾 Машина включает 60 стоек, содержащих по шесть узлов. Каждый из них оснащен двумя процессора Intel Xeon второго поколения и восемью ускорителями Nvidia A100 с суммарной видеопамятью 80 ГБ. Объем ОЗУ на узел составляет 1,5 ТБ.

#IBM #суперкомпьютер
🤑 Microsoft потратила сотни миллионов долларов на создание мощного суперкомпьютера для поддержки чат-бота OpenAI ChatGPT.

По данным компании, она объединила тысячи графических процессоров Nvidia A100 на платформе облачных вычислений Azure. Также потребовалось переработать серверные стойки. Это позволило OpenAI обучать более мощные алгоритмы и «разблокировало возможности ИИ» инструментов ChatGPT и Bing, добавили в Microsoft.

#Microsoft #OpenAI #суперкомпьютер
⚙️ Meta представила два специализированных чипа для выполнения задач искусственного интеллекта и обработки видео. Также компания рассказала о разработке ИИ-суперкомпьютера.

MTIA представляет собой интегральную схему специального назначения (ASIC). Она является частью семейства процессоров для ускорения обучения ИИ и рабочих нагрузок логического вывода.

Чип изготовлен по 7-нм техпроцессу TSMC и способен масштабироваться от 128 Мб внутренней памяти до 128 Гб. Он обрабатывает вывод, когда уже обученная ИИ-модель делает прогноз или выполняет задачу.

🔎 По данным компании, MTIA помогает запускать некоторые алгоритмы рекомендаций Meta, используемые для показа контента и рекламы в новостных лентах.

ASIC-чип MSVP предназначен для обработки и передачи видео по запросу при одновременном снижении энергопотребления. В компании заявили, что за счет программируемости и масштабируемости его можно настроить для эффективной поддержки как высококачественного транскодирования, так и низкой задержки и более быстрого времени обработки.

Также Meta завершила второй этап сборки суперкомпьютера Research SuperCluster (RSC). Теперь он содержит 2000 систем Nvidia DGX A100 с 16 000 графическими процессорами A100.

💬 RSC предназначен для обучения больших языковых моделей вроде LLaMA.

#Meta #чипы #суперкомпьютер