#hardware #cpu #zen5
"Что ещё интереснее, впервые со времён Zen 2 кеш первого уровня существенно нарастил пропускную способность. В Zen 5 он может отдавать четыре 64-байтных или принимать два 64-байтных блока за такт (против трёх и одного соответственно в Zen 4). Более того, в Zen 5 стал быстрее работать и кеш второго уровня. Его ёмкость сохранилась на уровне 1 Мбайт, но зато пропускная способность стала выше благодаря тому, что для соединения с L1-кешем стала использоваться вдвое более широкая 512-битная шина, через которую за такт можно прокачать 64 байта данных.
Но и это ещё не всё. Разработчики AMD нашли возможность немного поднять и производительность кеш-памяти третьего уровня. Её скорость в процессорах AMD ограничивается возможностями шины Infinity Fabric, которая в процессорах Ryzen среди прочего объединяет части L3-кеша, попадающие в разные CCD-чиплеты. Сама эта шина в Zen 5 не имеет никаких отличий от предыдущих реализаций, но обновлённый L3-кеш научился принимать и отдавать в одно ядро по 32 байт данных за такт — как раздельно, так и одновременно. В процессорах прошлого поколения достижение такой пропускной способности L3-кеша было возможно лишь при одновременной работе с ним нескольких ядер.
Все перечисленные улучшения в подсистеме кеширования Zen 5 сделаны ради того, чтобы минимизировать простои исполнительных блоков, ведь их число в новой версии архитектуры тоже выросло. Целочисленная часть в новом ядре насчитывает шесть арифметико-логических (ALU) и четыре адресных (AGU) устройства, а вещественночисленная — ещё шесть FP-устройств.
При этом интересным нововведением в исполнительном домене стал переход AMD к единому планировщику для всех целочисленных ALU-портов, хотя в прошлых архитектурах компания опиралась на набор отдельных планировщиков для каждого порта. Такая реализация сложнее, но должна быть эффективнее, поскольку все исполнительные устройства теперь получают инструкции из общей очереди. Дифференциация осталась лишь для AGU-портов, которые работают с собственным отдельным планировщиком.
Забавно, но блок Zen 5, отвечающий за работу с числами с плавающей точкой, устроен ровно противоположным образом. В нём применяется три равноправных планировщика, и это явное развитие прошлых идей — в Zen 4 таких планировщиков было два. Но FP-блок в Zen 5 претерпел кардинальные изменения в другом — его исполнительные устройства научились работе с 512-битными векторными регистрами, что означает полноценную поддержку исполнения AVX-512-кода. Теперь такие инструкции могут обрабатываться процессором за один приём, а не дробиться для отправки на исполнительные устройства на пару 256-битных команд. Благодаря этому ядра Zen 5 должны получить очень весомый прирост производительности в задачах, поддерживающих AVX-512 и VNNI-инструкции. Тем более что попутно AMD удалось улучшить исполнение некоторых операций с плавающей точкой: например, сложение в Zen 5 выполняется за два такта вместо трёх, которые требовались процессорам AMD ранее.
К тому же одним только изменением исполнительных устройств дело не ограничивается. AMD говорит о «сквозной» поддержке AVX-512 на низком уровне, а это означает ещё и то, что L1-кеш данных получил специальный механизм для работы с 512-битными векторами. Это выражается в том, что FP-блок Zen 5 научился при необходимости загружать оттуда сразу два 512-битных вектора за такт — вдвое больше, чем было возможно в Zen 4."
https://3dnews.ru/1110998/obzor-ryzen-7-9700x
"Что ещё интереснее, впервые со времён Zen 2 кеш первого уровня существенно нарастил пропускную способность. В Zen 5 он может отдавать четыре 64-байтных или принимать два 64-байтных блока за такт (против трёх и одного соответственно в Zen 4). Более того, в Zen 5 стал быстрее работать и кеш второго уровня. Его ёмкость сохранилась на уровне 1 Мбайт, но зато пропускная способность стала выше благодаря тому, что для соединения с L1-кешем стала использоваться вдвое более широкая 512-битная шина, через которую за такт можно прокачать 64 байта данных.
Но и это ещё не всё. Разработчики AMD нашли возможность немного поднять и производительность кеш-памяти третьего уровня. Её скорость в процессорах AMD ограничивается возможностями шины Infinity Fabric, которая в процессорах Ryzen среди прочего объединяет части L3-кеша, попадающие в разные CCD-чиплеты. Сама эта шина в Zen 5 не имеет никаких отличий от предыдущих реализаций, но обновлённый L3-кеш научился принимать и отдавать в одно ядро по 32 байт данных за такт — как раздельно, так и одновременно. В процессорах прошлого поколения достижение такой пропускной способности L3-кеша было возможно лишь при одновременной работе с ним нескольких ядер.
Все перечисленные улучшения в подсистеме кеширования Zen 5 сделаны ради того, чтобы минимизировать простои исполнительных блоков, ведь их число в новой версии архитектуры тоже выросло. Целочисленная часть в новом ядре насчитывает шесть арифметико-логических (ALU) и четыре адресных (AGU) устройства, а вещественночисленная — ещё шесть FP-устройств.
При этом интересным нововведением в исполнительном домене стал переход AMD к единому планировщику для всех целочисленных ALU-портов, хотя в прошлых архитектурах компания опиралась на набор отдельных планировщиков для каждого порта. Такая реализация сложнее, но должна быть эффективнее, поскольку все исполнительные устройства теперь получают инструкции из общей очереди. Дифференциация осталась лишь для AGU-портов, которые работают с собственным отдельным планировщиком.
Забавно, но блок Zen 5, отвечающий за работу с числами с плавающей точкой, устроен ровно противоположным образом. В нём применяется три равноправных планировщика, и это явное развитие прошлых идей — в Zen 4 таких планировщиков было два. Но FP-блок в Zen 5 претерпел кардинальные изменения в другом — его исполнительные устройства научились работе с 512-битными векторными регистрами, что означает полноценную поддержку исполнения AVX-512-кода. Теперь такие инструкции могут обрабатываться процессором за один приём, а не дробиться для отправки на исполнительные устройства на пару 256-битных команд. Благодаря этому ядра Zen 5 должны получить очень весомый прирост производительности в задачах, поддерживающих AVX-512 и VNNI-инструкции. Тем более что попутно AMD удалось улучшить исполнение некоторых операций с плавающей точкой: например, сложение в Zen 5 выполняется за два такта вместо трёх, которые требовались процессорам AMD ранее.
К тому же одним только изменением исполнительных устройств дело не ограничивается. AMD говорит о «сквозной» поддержке AVX-512 на низком уровне, а это означает ещё и то, что L1-кеш данных получил специальный механизм для работы с 512-битными векторами. Это выражается в том, что FP-блок Zen 5 научился при необходимости загружать оттуда сразу два 512-битных вектора за такт — вдвое больше, чем было возможно в Zen 4."
https://3dnews.ru/1110998/obzor-ryzen-7-9700x
3DNews - Daily Digital Digest
Обзор Ryzen 7 9700X: плохой процессор на хорошей архитектуре
Тема 2024 года, вне всяких сомнений, — искусственный интеллект.
#hardware #printing
"В арсенале HP Print AI есть несколько инструментов, но наибольший интерес вызывает опция Perfect Output. Она должна решить проблему печати веб-страниц, которые обычно получаются на бумаге не слишком хорошо. Разработчики утверждают, что Perfect Output автоматически уберёт со страниц лишнее пространство, на котором нет никаких визуальных элементов и текста, а также удалит рекламу, если она присутствует на исходной веб-странице.
Размер изображений также будет оптимизирован, поэтому печать веб-страниц должна стать такой же качественной, как и печать обычного текстового документа. HP утверждает, что всё будет «идеально размещаться на странице с первого раза». При этом функция Perfect Output предназначена не только для печати с веб-сайтов. По словам разработчиков, она сделает проще печать электронных таблиц, перенос которых на бумагу также зачастую вызывает трудности.
Распространение функции Perfect Output началось на этой неделе, но пока только для ограниченного количества пользователей принтеров HP. В компании сообщили, что данный инструмент будет работать с любым принтером компании при условии, что на компьютере установлен необходимый драйвер и используется Windows 11 или Windows 10. После получения отзывов от первых пользователей компания планирует начать более масштабное развёртывание новой функции."
https://3dnews.ru/1111476/funktsii-hp-print-ai-na-baze-iialgoritmov-sdelayut-proshche-pechat-vebstranits-i-dokumentov-drugih-formatov
"В арсенале HP Print AI есть несколько инструментов, но наибольший интерес вызывает опция Perfect Output. Она должна решить проблему печати веб-страниц, которые обычно получаются на бумаге не слишком хорошо. Разработчики утверждают, что Perfect Output автоматически уберёт со страниц лишнее пространство, на котором нет никаких визуальных элементов и текста, а также удалит рекламу, если она присутствует на исходной веб-странице.
Размер изображений также будет оптимизирован, поэтому печать веб-страниц должна стать такой же качественной, как и печать обычного текстового документа. HP утверждает, что всё будет «идеально размещаться на странице с первого раза». При этом функция Perfect Output предназначена не только для печати с веб-сайтов. По словам разработчиков, она сделает проще печать электронных таблиц, перенос которых на бумагу также зачастую вызывает трудности.
Распространение функции Perfect Output началось на этой неделе, но пока только для ограниченного количества пользователей принтеров HP. В компании сообщили, что данный инструмент будет работать с любым принтером компании при условии, что на компьютере установлен необходимый драйвер и используется Windows 11 или Windows 10. После получения отзывов от первых пользователей компания планирует начать более масштабное развёртывание новой функции."
https://3dnews.ru/1111476/funktsii-hp-print-ai-na-baze-iialgoritmov-sdelayut-proshche-pechat-vebstranits-i-dokumentov-drugih-formatov
3DNews - Daily Digital Digest
HP внедрит ИИ в принтеры — Print AI улучшит печать веб-страниц и не только
Компания HP анонсировала запуск функций на базе искусственного интеллекта под общим названием HP Print AI, которые обеспечат «первую в отрасли интеллектуальную печать».
#hardware #cpu #xeon #intel #gaudi
Долой сраные E-ядра!
"Granite Rapids производятся по техпроцессу Intel 3 (5 нм). В серию вошли пять моделей с количеством ядер от 72 до 128, базовой частотой от 2,0 до 2,7 ГГц и максимальной частотой 3,9 ГГц (на одном ядре), а также от 3,2 до 3,7 ГГц на всех ядрах. Процессоры получили от 432 до 504 Мбайт кеш-памяти L3 и обладают заявленным показателем TDP от 400 до 500 Вт.
Чипы поддерживают как однопроцессорные, так и двухпроцессорные сборки, имеют поддержку 12-канальной ОЗУ DDR5-6400 и MRDIMM-8800, а также оснащены поддержкой 96 линий PCIe.
Intel заявляет, что новые Xeon 6 более чем вдвое быстрее процессоров Epyc Genoa (максимально — 96 ядер Zen 4) в широком спектре вычислительных нагрузок и более чем впятеро быстрее в нейросетевых задачах.
Специализированные ИИ-ускорители Gaudi 3 специально оптимизированы для работы с генеративными моделями. В их составе используются 64 тензорных процессора (TPC) и восемь движков матричного умножения (MME) для ускорения вычислений глубоких нейронных сетей. Также ускорители Gaudi 3 получили 128 Гбайт набортной памяти HBM2 и поддерживают до 24 портов Ethernet 200 Гбит для масштабируемых сетей. Для Gaudi 3 заявляется бесшовная совместимость с фреймворком PyTorch и усовершенствованными трансформными и диффузионными моделями Hugging Face.
Intel заявляет, что новые ИИ-ускорители Gaudi 3 обеспечивают до 20 процентов большую пропускную способность и двукратное улучшение соотношения цены и производительности по сравнению с H100 для вывода модели LLaMa 2 70B."
https://3dnews.ru/1111478/intel-vipustila-servernie-protsessori-xeon-6-s-kolichestvom-yader-do-128-i-iiuskoritelya-gaudi-3
Долой сраные E-ядра!
"Granite Rapids производятся по техпроцессу Intel 3 (5 нм). В серию вошли пять моделей с количеством ядер от 72 до 128, базовой частотой от 2,0 до 2,7 ГГц и максимальной частотой 3,9 ГГц (на одном ядре), а также от 3,2 до 3,7 ГГц на всех ядрах. Процессоры получили от 432 до 504 Мбайт кеш-памяти L3 и обладают заявленным показателем TDP от 400 до 500 Вт.
Чипы поддерживают как однопроцессорные, так и двухпроцессорные сборки, имеют поддержку 12-канальной ОЗУ DDR5-6400 и MRDIMM-8800, а также оснащены поддержкой 96 линий PCIe.
Intel заявляет, что новые Xeon 6 более чем вдвое быстрее процессоров Epyc Genoa (максимально — 96 ядер Zen 4) в широком спектре вычислительных нагрузок и более чем впятеро быстрее в нейросетевых задачах.
Специализированные ИИ-ускорители Gaudi 3 специально оптимизированы для работы с генеративными моделями. В их составе используются 64 тензорных процессора (TPC) и восемь движков матричного умножения (MME) для ускорения вычислений глубоких нейронных сетей. Также ускорители Gaudi 3 получили 128 Гбайт набортной памяти HBM2 и поддерживают до 24 портов Ethernet 200 Гбит для масштабируемых сетей. Для Gaudi 3 заявляется бесшовная совместимость с фреймворком PyTorch и усовершенствованными трансформными и диффузионными моделями Hugging Face.
Intel заявляет, что новые ИИ-ускорители Gaudi 3 обеспечивают до 20 процентов большую пропускную способность и двукратное улучшение соотношения цены и производительности по сравнению с H100 для вывода модели LLaMa 2 70B."
https://3dnews.ru/1111478/intel-vipustila-servernie-protsessori-xeon-6-s-kolichestvom-yader-do-128-i-iiuskoritelya-gaudi-3
#trading #hft #hardware #amd #alveo
"В устройстве применена FPGA Virtex UltraScale+ VU2P. Конфигурация включает 32 трансивера с ультранизкой задержкой, 787 тыс. LUT и 1680 DSP. В состав FPGA входят 256 Мбайт встроенной памяти — 76 Мбайт блочной RAM и 180 Мбайт UltraRAM. Заявленная задержка на уровне трансиверов составляет менее 3 нс.
Карта использует интерфейс PCIe 4.0 x8 (коннектор x16). Заявленный показатель TDP равен 120 Вт; используется пассивное охлаждение. В оснащение входят 16 Гбайт памяти DDR4-2400. Предусмотрены два разъёма QSFP-DD (16×10/25G) и два коннектора ARF6.
Ускоритель Alveo UL3422 может использоваться в комплексе с платформой разработки Vivado Design Suite. AMD также предоставляет клиентам среду разработки FINN с открытым исходным кодом и поддержкой сообщества, что позволяет интегрировать модели ИИ с низкими задержками в высокопроизводительные торговые системы. FINN использует PyTorch и методы квантования нейронных сетей.
Ускоритель поставляется с набором референсных проектов и тестов производительности. Среди ключевых сфер применения новинки названы торговые операции со сверхнизкими задержками и анализ рисков."
https://servernews.ru/1112738
"В устройстве применена FPGA Virtex UltraScale+ VU2P. Конфигурация включает 32 трансивера с ультранизкой задержкой, 787 тыс. LUT и 1680 DSP. В состав FPGA входят 256 Мбайт встроенной памяти — 76 Мбайт блочной RAM и 180 Мбайт UltraRAM. Заявленная задержка на уровне трансиверов составляет менее 3 нс.
Карта использует интерфейс PCIe 4.0 x8 (коннектор x16). Заявленный показатель TDP равен 120 Вт; используется пассивное охлаждение. В оснащение входят 16 Гбайт памяти DDR4-2400. Предусмотрены два разъёма QSFP-DD (16×10/25G) и два коннектора ARF6.
Ускоритель Alveo UL3422 может использоваться в комплексе с платформой разработки Vivado Design Suite. AMD также предоставляет клиентам среду разработки FINN с открытым исходным кодом и поддержкой сообщества, что позволяет интегрировать модели ИИ с низкими задержками в высокопроизводительные торговые системы. FINN использует PyTorch и методы квантования нейронных сетей.
Ускоритель поставляется с набором референсных проектов и тестов производительности. Среди ключевых сфер применения новинки названы торговые операции со сверхнизкими задержками и анализ рисков."
https://servernews.ru/1112738
ServerNews - все из мира больших мощностей
AMD выпустила ускоритель для трейдеров Alveo UL3422 на базе FPGA Virtex UltraScale+ VU2P
Компания AMD анонсировала изделие Alveo UL3422: это, как утверждается, самый быстрый в мире однослотовый ускоритель половинной длины (FHHL) для брокерских и биржевых приложений. Новинка уже поставляется заказчикам из финансового сектора по всему миру.
#google #tpu #hardware
"Компания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по соотношению цена/производительность.
Официальная презентация Trillium состоялась в мае нынешнего года. Изделие оснащено 32 Гбайт памяти HBM с пропускной способностью 1,6 Тбайт/с, а межчиповый интерконнект ICI обеспечивает возможность передачи данных со скоростью до 3,58 Тбит/с (по четыре порта на чип). Задействованы блоки SparseCore третьего поколения.
Один узел включает восемь ускорителей TPU v6e (в двух NUMA-доменах), два неназванных процессора (суммарно 180 vCPU), 1,44 Тбайт RAM и четыре 200G-адаптера (по два на CPU) для связи с внешним миром. Отмечается, что посредством ICI напрямую могут быть объединены до 256 изделий Trillium, а агрегированная скорость сетевого подключение такого кластера (Pod) составляет 25,6 Тбит/с. Десятки тысяч ускорителей могут быть связаны в масштабный ИИ-кластер благодаря платформе Google Jupiter с оптической коммутацией, совокупная пропускная способность которой достигает 13 Пбит/с.
Заявляется, что благодаря ПО Multislice Trillium обеспечивается практически линейное масштабирование производительности для рабочих нагрузок, связанных с обучением ИИ. Производительность кластеров на базе Trillium может достигать 91 Эфлопс на ИИ-операциях: это в четыре раза больше по сравнению с самыми крупными развёртываниями систем на основе TPU v5p. BF16-производительность одного чипа TPU v6e составляет 918 Тфлопс, а INT8 — 1836 Топс.
В бенчмарках Trillium по сравнению с TPU v5e показал более чем четырёхкратное увеличение производительности при обучении моделей Gemma 2-27b, MaxText Default-32b и Llama2-70B, а также более чем трёхкратный прирост для LLama2-7b и Gemma2-9b. Кроме того, Trillium обеспечивает трёхкратное увеличение производительности инференса для Stable Diffusion XL (по отношению к TPU v5e). По соотношению цена/производительность TPU v6e демонстрирует 1,8-кратный рост по сравнению с TPU v5e и примерно двукратный рост по сравнению с TPU v5p."
https://servernews.ru/1113447
"Компания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по соотношению цена/производительность.
Официальная презентация Trillium состоялась в мае нынешнего года. Изделие оснащено 32 Гбайт памяти HBM с пропускной способностью 1,6 Тбайт/с, а межчиповый интерконнект ICI обеспечивает возможность передачи данных со скоростью до 3,58 Тбит/с (по четыре порта на чип). Задействованы блоки SparseCore третьего поколения.
Один узел включает восемь ускорителей TPU v6e (в двух NUMA-доменах), два неназванных процессора (суммарно 180 vCPU), 1,44 Тбайт RAM и четыре 200G-адаптера (по два на CPU) для связи с внешним миром. Отмечается, что посредством ICI напрямую могут быть объединены до 256 изделий Trillium, а агрегированная скорость сетевого подключение такого кластера (Pod) составляет 25,6 Тбит/с. Десятки тысяч ускорителей могут быть связаны в масштабный ИИ-кластер благодаря платформе Google Jupiter с оптической коммутацией, совокупная пропускная способность которой достигает 13 Пбит/с.
Заявляется, что благодаря ПО Multislice Trillium обеспечивается практически линейное масштабирование производительности для рабочих нагрузок, связанных с обучением ИИ. Производительность кластеров на базе Trillium может достигать 91 Эфлопс на ИИ-операциях: это в четыре раза больше по сравнению с самыми крупными развёртываниями систем на основе TPU v5p. BF16-производительность одного чипа TPU v6e составляет 918 Тфлопс, а INT8 — 1836 Топс.
В бенчмарках Trillium по сравнению с TPU v5e показал более чем четырёхкратное увеличение производительности при обучении моделей Gemma 2-27b, MaxText Default-32b и Llama2-70B, а также более чем трёхкратный прирост для LLama2-7b и Gemma2-9b. Кроме того, Trillium обеспечивает трёхкратное увеличение производительности инференса для Stable Diffusion XL (по отношению к TPU v5e). По соотношению цена/производительность TPU v6e демонстрирует 1,8-кратный рост по сравнению с TPU v5e и примерно двукратный рост по сравнению с TPU v5p."
https://servernews.ru/1113447
ServerNews - все из мира больших мощностей
Google объявила о доступности ИИ-ускорителей TPU v6 Trillium
Компания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по…
#apple #hardware #cpu
Ноутбучный процессор быстрее лучших настольных. Эппл показала Интел и АМД, кто тут батя )
"В свою очередь, процессор Intel Core i9-14900K набрал 3144 балла в одноядерном тесте и 23 044 балла в многоядерном. Это ставит новый чип Apple M4 Max на 15 % выше по производительности по сравнению с самым мощным настольным чипом Intel, что лишний раз подчёркивает значительные достижения Apple в области разработки собственных высокопроизводительных процессоров.
Кроме того, Apple ещё не представила чип M4 Ultra, который, предположительно, будет обладать примерно удвоенной производительностью по сравнению с Apple M4 Max благодаря технологии UltraFusion, позволяющей объединить два кристалла Max с минимальными потерями. Ожидается, что M4 Ultra станет доступен в Apple Mac Studio и Mac Pro примерно в середине 2025 года, что, вероятно, поднимет планку производительности «яблочных» устройств на новый уровень."
https://3dnews.ru/1113451/noviy-protsessor-apple-m4-max-okazalsya-samim-bistrim-na-rinke
Ноутбучный процессор быстрее лучших настольных. Эппл показала Интел и АМД, кто тут батя )
"В свою очередь, процессор Intel Core i9-14900K набрал 3144 балла в одноядерном тесте и 23 044 балла в многоядерном. Это ставит новый чип Apple M4 Max на 15 % выше по производительности по сравнению с самым мощным настольным чипом Intel, что лишний раз подчёркивает значительные достижения Apple в области разработки собственных высокопроизводительных процессоров.
Кроме того, Apple ещё не представила чип M4 Ultra, который, предположительно, будет обладать примерно удвоенной производительностью по сравнению с Apple M4 Max благодаря технологии UltraFusion, позволяющей объединить два кристалла Max с минимальными потерями. Ожидается, что M4 Ultra станет доступен в Apple Mac Studio и Mac Pro примерно в середине 2025 года, что, вероятно, поднимет планку производительности «яблочных» устройств на новый уровень."
https://3dnews.ru/1113451/noviy-protsessor-apple-m4-max-okazalsya-samim-bistrim-na-rinke
3DNews - Daily Digital Digest
Apple M4 Max оказался быстрее Core i9-14900K и Ryzen 9 9950X в тестах Geekbench
Apple на этой неделе представила новые MacBook Pro с процессорами M4, M4 Pro и M4 Max.
#cpu #hardware #intel
Тем временем у Интел вышли новы настольные процессоры.
https://www.ign.com/articles/intel-core-ultra-9-285k-review
Тем временем у Интел вышли новы настольные процессоры.
https://www.ign.com/articles/intel-core-ultra-9-285k-review
IGN
Intel Core Ultra 9 285K Review - IGN
#cpu #hardware #amd
И у АМД вышла новая модель с 3d кэшем, нынешний лидер в играх.
https://www.tomshardware.com/pc-components/cpus/amd-ryzen-7-9800x3d-review-devastating-gaming-performance
И у АМД вышла новая модель с 3d кэшем, нынешний лидер в играх.
https://www.tomshardware.com/pc-components/cpus/amd-ryzen-7-9800x3d-review-devastating-gaming-performance
Tom's Hardware
AMD Ryzen 7 9800X3D Review: Devastating Gaming Performance
AMD's 3D V-Cache forges the unquestioned gaming champ.
#hardware #tpu #gpu
Странный подход, сравнивать решения разной архитектуры поштучно. Какая мне нафиг разница, сколько там штук TPU будет, мне важна стоимость железа и электроэнергии.
"Система из 6144 TPU v5p достигла контрольной точки обучения GPT-3 за 11,77 мин, отстав от системы с 11 616 H100, которая выполнила задачу примерно за 3,44 мин. При одинаковом же количестве ускорителей решения Google почти вдвое отстают от решений NVIDIA, а разница между v5p и v6e составляет менее 10 %."
https://servernews.ru/1114029
Странный подход, сравнивать решения разной архитектуры поштучно. Какая мне нафиг разница, сколько там штук TPU будет, мне важна стоимость железа и электроэнергии.
"Система из 6144 TPU v5p достигла контрольной точки обучения GPT-3 за 11,77 мин, отстав от системы с 11 616 H100, которая выполнила задачу примерно за 3,44 мин. При одинаковом же количестве ускорителей решения Google почти вдвое отстают от решений NVIDIA, а разница между v5p и v6e составляет менее 10 %."
https://servernews.ru/1114029
ServerNews - все из мира больших мощностей
Google и NVIDIA показали первые результаты TPU v6 и B200 в ИИ-бенчмарке MLPerf Training
Ускорители Blackwell компании NVIDIA опередили в бенчмарках MLPerf Training 4.1 чипы H100 более чем в 2,2 раза, сообщил The Register. По словам NVIDIA, более высокая пропускная способность памяти в Blackwell также сыграла свою роль. Тесты были проведены с…
#aws #hardware #trainium
"Представленные в прошлом году чипы работают в четыре раза быстрее предшественников: один инстанс EC2 с 16 ускорителями Trainium2 предлагает производительность до 20,8 Пфлопс. Это значит, что при развёртывании масштабной модели Meta✴️ Llama 405B на платформе Amazon Bedrock клиент получит «трёхкратный прирост скорости генерации токенов по сравнению с другими доступными предложениями крупных облачных провайдеров». Можно будет также выбрать систему EC2 Trn2 UltraServer с 64 ускорителями Trainium2 и производительностью 83,2 Пфлопс. Отмечается, что показатель 20,8 Пфлопс относится к плотным моделям и точности FP8, а 83,2 Пфлопс — к разреженным моделям и FP8. Для связи между ускорителями в системах UltraServer используется интерконнект NeuronLink.
Совместно со своим партнёром в лице Anthropic, основным конкурентов OpenAI в области больших языковых моделей, AWS намеревается построить крупный кластер систем UltraServer с «сотнями тысяч чипов Trainium2», где стартап сможет обучать свои модели. Он будет в пять раз мощнее кластера, на котором Anthropic обучала модели текущего поколения — по оценке AWS, он «станет крупнейшим в мире вычислительным кластером для ИИ, о котором сообщалось до настоящего времени». Проект поможет компании превзойти показатели, которые обеспечиваются актуальными ускорителями Nvidia, которые по-прежнему пользуются высоким спросом и остаются в дефиците. Хотя в начале следующего года Nvidia готовится запустить ускорители нового поколения Blackwell, которые при 72 чипах на стойку предложат до 720 Пфлопс для FP8.
Возможно, поэтому AWS уже сейчас анонсировала ускорители нового поколения Trainium3, которые предлагают ещё один четырёхкратный прирост производительности для систем UltraServer — ускорители будут производиться с использованием техпроцесса 3 нм, а их развёртывание начнётся в конце 2025 года. "
https://3dnews.ru/1114962/aws-razvernula-sistemi-na-uskoritelyah-trainium2-novoe-pokolenie-viydet-god-spustya
"Представленные в прошлом году чипы работают в четыре раза быстрее предшественников: один инстанс EC2 с 16 ускорителями Trainium2 предлагает производительность до 20,8 Пфлопс. Это значит, что при развёртывании масштабной модели Meta✴️ Llama 405B на платформе Amazon Bedrock клиент получит «трёхкратный прирост скорости генерации токенов по сравнению с другими доступными предложениями крупных облачных провайдеров». Можно будет также выбрать систему EC2 Trn2 UltraServer с 64 ускорителями Trainium2 и производительностью 83,2 Пфлопс. Отмечается, что показатель 20,8 Пфлопс относится к плотным моделям и точности FP8, а 83,2 Пфлопс — к разреженным моделям и FP8. Для связи между ускорителями в системах UltraServer используется интерконнект NeuronLink.
Совместно со своим партнёром в лице Anthropic, основным конкурентов OpenAI в области больших языковых моделей, AWS намеревается построить крупный кластер систем UltraServer с «сотнями тысяч чипов Trainium2», где стартап сможет обучать свои модели. Он будет в пять раз мощнее кластера, на котором Anthropic обучала модели текущего поколения — по оценке AWS, он «станет крупнейшим в мире вычислительным кластером для ИИ, о котором сообщалось до настоящего времени». Проект поможет компании превзойти показатели, которые обеспечиваются актуальными ускорителями Nvidia, которые по-прежнему пользуются высоким спросом и остаются в дефиците. Хотя в начале следующего года Nvidia готовится запустить ускорители нового поколения Blackwell, которые при 72 чипах на стойку предложат до 720 Пфлопс для FP8.
Возможно, поэтому AWS уже сейчас анонсировала ускорители нового поколения Trainium3, которые предлагают ещё один четырёхкратный прирост производительности для систем UltraServer — ускорители будут производиться с использованием техпроцесса 3 нм, а их развёртывание начнётся в конце 2025 года. "
https://3dnews.ru/1114962/aws-razvernula-sistemi-na-uskoritelyah-trainium2-novoe-pokolenie-viydet-god-spustya
3DNews - Daily Digital Digest
ИИ обойдётся без Nvidia: Amazon выпустила системы на чипах Trainium2, а через год выйдут Trainium3
Подразделение Amazon Web Services (AWS) компании Amazon объявило на проводимой им конференции re:Invent, что клиенты её облачной платформы теперь могут пользоваться системами с ускорителями Trainium2, предназначенными для обучения и запуска больших языковых…
❤1
#hardware #intel #gpu
Прикольно, Интел начала делать внешние GPU, да ещё и неплохие.
https://3dnews.ru/1115427/segodnya-nachalis-prodagi-byudgetnoy-intel-arc-b580-stoimostyu-ot-250-ona-luchshe-i-deshevle-geforce-rtx-4060
Прикольно, Интел начала делать внешние GPU, да ещё и неплохие.
https://3dnews.ru/1115427/segodnya-nachalis-prodagi-byudgetnoy-intel-arc-b580-stoimostyu-ot-250-ona-luchshe-i-deshevle-geforce-rtx-4060
3DNews - Daily Digital Digest
Стартовали продажи видеокарты Intel Arc B580 по цене от $250 — быстрее и дешевле GeForce RTX 4060
Компания Intel сообщила о старте продаж видеокарты нового поколения Arc B580, которая относится к серии Battlemage.
#hardware #cameras #vr
"Это первая в мире коммерческая камера, предназначенная для съёмки пространственных видео для гарнитуры Apple Vision Pro.
Устройство обойдётся в $30 тысяч. Камера оборудована двумя сенсорами разрешения 8K (8160 × 7200 пикселей) на каждый глаз; поддерживается съёмка видео с полем зрения 180°, частотой 90 кадров в секунду и поддержкой пространственного звука. 16 ступеней динамического диапазона обеспечивают точную цветопередачу и высокую детализацию в каждом кадре.
Камера комплектуется парой 5-дюймовых сенсорных экранов с HDR и внешним цветным ЖК-дисплеем для вывода технической информации. Для подключения внешних устройств есть выход 12G-SDI, 10-гигабитный Ethernet, USB Type-C, аудиопорты XLR и 8-контактный разъём Lemo для питания. В комплект входит твердотельный накопитель Blackmagic Media Module ёмкостью 8 Тбайт — его хватит для записи около двух часов пространственного видео в разрешении 8K и формате Blackmagic RAW. Для быстрой загрузки и синхронизация данных поддерживается функция Cloud Store."
https://3dnews.ru/1115544/blackmagic-vipustila-3dkameru-ursa-cine-immersive-za-30-tisyach-ona-snimaet-video-dlya-apple-vision-pro
"Это первая в мире коммерческая камера, предназначенная для съёмки пространственных видео для гарнитуры Apple Vision Pro.
Устройство обойдётся в $30 тысяч. Камера оборудована двумя сенсорами разрешения 8K (8160 × 7200 пикселей) на каждый глаз; поддерживается съёмка видео с полем зрения 180°, частотой 90 кадров в секунду и поддержкой пространственного звука. 16 ступеней динамического диапазона обеспечивают точную цветопередачу и высокую детализацию в каждом кадре.
Камера комплектуется парой 5-дюймовых сенсорных экранов с HDR и внешним цветным ЖК-дисплеем для вывода технической информации. Для подключения внешних устройств есть выход 12G-SDI, 10-гигабитный Ethernet, USB Type-C, аудиопорты XLR и 8-контактный разъём Lemo для питания. В комплект входит твердотельный накопитель Blackmagic Media Module ёмкостью 8 Тбайт — его хватит для записи около двух часов пространственного видео в разрешении 8K и формате Blackmagic RAW. Для быстрой загрузки и синхронизация данных поддерживается функция Cloud Store."
https://3dnews.ru/1115544/blackmagic-vipustila-3dkameru-ursa-cine-immersive-za-30-tisyach-ona-snimaet-video-dlya-apple-vision-pro
3DNews - Daily Digital Digest
Blackmagic выпустила камеру за $30 000 с двумя 8K-сенсорами — для съёмки видео для Apple Vision Pro
Blackmagic объявила, что для предварительного заказа доступна камера URSA Cine Immersive — первые покупатели получат её в конце I квартала 2025 года.
#hardware #storage #ssd
"Micron анонсировала этот накопитель как первый в индустрии PCIe 6.0 SSD, заявив скорость чтения в 26 Гбайт/с. Однако испытания на стенде Astera Labs позволили превзойти эти ожидания — скорость чтения достигла 27,14 Гбайт/с для каждого из двух SSD в тестовой системе. Для сравнения, самый быстрый из протестированных PCIe 5.0 SSD, Crucial T705, показал максимум 14,5 Гбайт/с, что составляет лишь половину нового рекорда Micron.
Достичь таких показателей помог сетевой коммутатор Astera Scorpio P-Series Fabric Switch, поддерживающий до 64 линий PCIe 6.0. Этот коммутатор был разработан для высокопроизводительных вычислений (HPC) и искусственного интеллекта (ИИ), обеспечивая быструю связь между процессорами, видеокартами и хранилищами. Кроме того, в тестах использовалась технология Nvidia Magnum IO GPUDirect (GDS), позволяющая устройствам хранения данных напрямую взаимодействовать с памятью GPU, минуя центральный процессор и уменьшая задержки.
Отметим, что стандарт PCIe 6.x продолжает совершенствоваться и развиваться (актуальная версия — PCIe 6.3), обещая стать новым отраслевым стандартом как для корпоративных решений, так и в перспективе для потребительских устройств. Если PCIe 5.0 обеспечивает двустороннюю пропускную способность до 128 Гбайт/с на шине x16, то PCIe 6.x удвоит этот показатель до 256 Гбайт/с."
https://3dnews.ru/1119456/micron-pokazala-samiy-bistriy-ssd-v-mire-s-pcie-60-i-skorostyu-do-27-gbayts
"Micron анонсировала этот накопитель как первый в индустрии PCIe 6.0 SSD, заявив скорость чтения в 26 Гбайт/с. Однако испытания на стенде Astera Labs позволили превзойти эти ожидания — скорость чтения достигла 27,14 Гбайт/с для каждого из двух SSD в тестовой системе. Для сравнения, самый быстрый из протестированных PCIe 5.0 SSD, Crucial T705, показал максимум 14,5 Гбайт/с, что составляет лишь половину нового рекорда Micron.
Достичь таких показателей помог сетевой коммутатор Astera Scorpio P-Series Fabric Switch, поддерживающий до 64 линий PCIe 6.0. Этот коммутатор был разработан для высокопроизводительных вычислений (HPC) и искусственного интеллекта (ИИ), обеспечивая быструю связь между процессорами, видеокартами и хранилищами. Кроме того, в тестах использовалась технология Nvidia Magnum IO GPUDirect (GDS), позволяющая устройствам хранения данных напрямую взаимодействовать с памятью GPU, минуя центральный процессор и уменьшая задержки.
Отметим, что стандарт PCIe 6.x продолжает совершенствоваться и развиваться (актуальная версия — PCIe 6.3), обещая стать новым отраслевым стандартом как для корпоративных решений, так и в перспективе для потребительских устройств. Если PCIe 5.0 обеспечивает двустороннюю пропускную способность до 128 Гбайт/с на шине x16, то PCIe 6.x удвоит этот показатель до 256 Гбайт/с."
https://3dnews.ru/1119456/micron-pokazala-samiy-bistriy-ssd-v-mire-s-pcie-60-i-skorostyu-do-27-gbayts
3DNews - Daily Digital Digest
Micron показала самый быстрый SSD в мире — с PCIe 6.0 и скоростью до 27 Гбайт/с
Компания Micron совместно с Astera Labs продемонстрировала на конференции DesignCon 2025 первый в мире твердотельный накопитель (SSD) с интерфейсом PCIe 6.
#hardware #inference
"В рамках конференции Cloud Next на этой неделе компания Google представила новый специализированный ИИ-чип Ironwood. Это уже седьмое поколение ИИ-процессоров компании и первый TPU, оптимизированный для инференса — работы уже обученных ИИ-моделей. Процессор будет использоваться в Google Cloud и поставляться в системах двух конфигураций: серверах из 256 таких процессоров и кластеров из 9216 таких чипов.
Анонс Ironwood состоялся на фоне усиливающейся конкуренции в сегменте разработок проприетарных ИИ-ускорителей. Хотя Nvidia доминирует на этом рынке, свои технологические решения также продвигают Amazon и Microsoft. Первая разработала ИИ-процессоры Trainium, Inferentia и Graviton, которые используются в её облачной инфраструктуре AWS, а Microsoft применяет собственные ИИ-чипы Cobalt 100 в облачных инстансах Azure.
Ironwood обладает пиковой вычислительной производительностью 4614 Тфлопс или 4614 триллионов операций в секунду. Таким образом кластер из 9216 таких чипов предложит производительность в 42,5 Экзафлопс.
Каждый процессор оснащён 192 Гбайт выделенной оперативной памяти с пропускной способностью 7,4 Тбит/с. Также чип включает усовершенствованное специализированное ядро SparseCore для обработки типов данных, распространённых в рабочих нагрузках «расширенного ранжирования» и «рекомендательных систем» (например, алгоритм, предлагающий одежду, которая может вам понравиться). Архитектура TPU оптимизирована для минимизации перемещения данных и задержек, что, по утверждению Google, приводит к значительной экономии энергии.
Компания планирует использовать Ironwood в своём модульном вычислительном кластере AI Hypercomputer в составе Google Cloud."
https://3dnews.ru/1121018/google-predstavila-svoy-samiy-moshchniy-iiprotsessor-ironwood-do-46-kvadrilliona-operatsiy-v-sekundu
"В рамках конференции Cloud Next на этой неделе компания Google представила новый специализированный ИИ-чип Ironwood. Это уже седьмое поколение ИИ-процессоров компании и первый TPU, оптимизированный для инференса — работы уже обученных ИИ-моделей. Процессор будет использоваться в Google Cloud и поставляться в системах двух конфигураций: серверах из 256 таких процессоров и кластеров из 9216 таких чипов.
Анонс Ironwood состоялся на фоне усиливающейся конкуренции в сегменте разработок проприетарных ИИ-ускорителей. Хотя Nvidia доминирует на этом рынке, свои технологические решения также продвигают Amazon и Microsoft. Первая разработала ИИ-процессоры Trainium, Inferentia и Graviton, которые используются в её облачной инфраструктуре AWS, а Microsoft применяет собственные ИИ-чипы Cobalt 100 в облачных инстансах Azure.
Ironwood обладает пиковой вычислительной производительностью 4614 Тфлопс или 4614 триллионов операций в секунду. Таким образом кластер из 9216 таких чипов предложит производительность в 42,5 Экзафлопс.
Каждый процессор оснащён 192 Гбайт выделенной оперативной памяти с пропускной способностью 7,4 Тбит/с. Также чип включает усовершенствованное специализированное ядро SparseCore для обработки типов данных, распространённых в рабочих нагрузках «расширенного ранжирования» и «рекомендательных систем» (например, алгоритм, предлагающий одежду, которая может вам понравиться). Архитектура TPU оптимизирована для минимизации перемещения данных и задержек, что, по утверждению Google, приводит к значительной экономии энергии.
Компания планирует использовать Ironwood в своём модульном вычислительном кластере AI Hypercomputer в составе Google Cloud."
https://3dnews.ru/1121018/google-predstavila-svoy-samiy-moshchniy-iiprotsessor-ironwood-do-46-kvadrilliona-operatsiy-v-sekundu
3DNews - Daily Digital Digest
Google представила свой самый мощный ИИ-процессор Ironwood — до 4,6 квадриллиона операций в секунду
В рамках конференции Cloud Next на этой неделе компания Google представила новый специализированный ИИ-чип Ironwood.
#hardware #ram #cudimm
"Такое бывает довольно редко, но получается, что технология CUDIMM несёт сплошные плюсы. Она позволяет улучшить стабильность DDR5-памяти и, как следствие, поднять частоту работы модулей и увеличить пропускную способность подсистемы памяти, не прибегая к серьёзным изменениям сложившейся экосистемы. Нет никаких сомнений, что по мере распространения модули CUDIMM будут поддерживаться всё большим числом платформ и в конечном итоге станут стандартным компонентом игровых ПК и рабочих станций высокого уровня.
Сейчас же преимущества модулей этого типа могут распробовать только обладатели систем на базе процессоров Intel Core Ultra. Именно им мы и рекомендуем обратить пристальное внимание на комплекты памяти, подобные рассмотренному в этой статье. С одной стороны, он не дороже обычного комплекта DDR5-8200-памяти аналогичного объёма, а с другой — открывает куда более широкое поле для экспериментов, в первую очередь в части разгона."
https://3dnews.ru/1121222/pochemu-ddr5-cudimm-eto-shag-vperyod
"Такое бывает довольно редко, но получается, что технология CUDIMM несёт сплошные плюсы. Она позволяет улучшить стабильность DDR5-памяти и, как следствие, поднять частоту работы модулей и увеличить пропускную способность подсистемы памяти, не прибегая к серьёзным изменениям сложившейся экосистемы. Нет никаких сомнений, что по мере распространения модули CUDIMM будут поддерживаться всё большим числом платформ и в конечном итоге станут стандартным компонентом игровых ПК и рабочих станций высокого уровня.
Сейчас же преимущества модулей этого типа могут распробовать только обладатели систем на базе процессоров Intel Core Ultra. Именно им мы и рекомендуем обратить пристальное внимание на комплекты памяти, подобные рассмотренному в этой статье. С одной стороны, он не дороже обычного комплекта DDR5-8200-памяти аналогичного объёма, а с другой — открывает куда более широкое поле для экспериментов, в первую очередь в части разгона."
https://3dnews.ru/1121222/pochemu-ddr5-cudimm-eto-shag-vperyod
3DNews - Daily Digital Digest
Почему DDR5 CUDIMM — это шаг вперёд: подробности и тесты
Память стандарта DDR5 впервые появилась на рынке в 2021 году вместе с платформой Intel LGA1700 и процессорами семейства Alder Lake.
#hardware #datacenters
"Современная стандартная стойка 42U с набором оборудования весит порядка 680–1150 кг, максимально допустимая масса для многих составляет около 1360 кг. При этом стойка для ИИ-серверов в полной комплектации с системами охлаждения и сетевыми модулями может весить более 1800 кг. Десятки или даже сотник таких стоек в среднем ЦОД гиперскейлера могут серьёзно повлиять на всё устройство помещения.
В Dell'Oro Group отмечает, что в машинных залах всё реже используются фальшполы, под которыми часто размещают кабели, элементы системы охлаждения и др., поскольку установка такой конструкции — довольно дорогая задача. В JLL оговаривают, что во многих ЦОД фальшполы всё же используются, поскольку они нужны для кабелей и труб, но их высота может быть уже в районе 30 см, а не традиционных 60 см. Операторы по-прежнему опасаются прокладывать трубы сверху из-за возможных протечек."
https://servernews.ru/1123925
"Современная стандартная стойка 42U с набором оборудования весит порядка 680–1150 кг, максимально допустимая масса для многих составляет около 1360 кг. При этом стойка для ИИ-серверов в полной комплектации с системами охлаждения и сетевыми модулями может весить более 1800 кг. Десятки или даже сотник таких стоек в среднем ЦОД гиперскейлера могут серьёзно повлиять на всё устройство помещения.
В Dell'Oro Group отмечает, что в машинных залах всё реже используются фальшполы, под которыми часто размещают кабели, элементы системы охлаждения и др., поскольку установка такой конструкции — довольно дорогая задача. В JLL оговаривают, что во многих ЦОД фальшполы всё же используются, поскольку они нужны для кабелей и труб, но их высота может быть уже в районе 30 см, а не традиционных 60 см. Операторы по-прежнему опасаются прокладывать трубы сверху из-за возможных протечек."
https://servernews.ru/1123925
ServerNews - все из мира больших мощностей
Неподъёмный груз: ИИ-серверы стали слишком тяжелы для обычных ЦОД
Операторы дата-центров столкнулись с неочевидной на первый взгляд проблемой. ИИ-оборудование не только требует больше электроэнергии и более эффективного охлаждения в сравнении с обычными серверами — оно ещё и тяжелее платформ для классических задач, сообщает…
#hardware #samsung
Какая же тупость
https://3dnews.ru/1124300/holodilniki-samsung-nauchilis-uznavat-chlenov-semi-po-golosu
Какая же тупость
https://3dnews.ru/1124300/holodilniki-samsung-nauchilis-uznavat-chlenov-semi-po-golosu
3DNews - Daily Digital Digest
Холодильники Samsung научились узнавать членов семьи по голосу
Новейшие умные холодильники Samsung теперь поддерживают распознавание голосов членов семьи с помощью фирменного ИИ-помощника Bixby.
#hardware #cpu
"Флагманом линейки стал Ryzen Threadripper PRO 9995WX с 96 ядрами, 192 потоками и 384 Мбайт кеша L3. Компания оценила его в $11 699. Модель Ryzen Threadripper PRO 9985WX (64 ядра, 128 потоков, частота от 3,2 до 5,4 ГГц, 256 Мбайт кеша L3) AMD оценила в $7999. С остальными моделями серии и их ценами можно ознакомиться в таблице ниже. Самая доступная 16-ядерная модель оценивается в $1649."
https://3dnews.ru/1126141/amd-raskrila-tseni-samih-dorogih-protsessorov-dlya-pk-threadripper-pro-9000wx-viydut-23-iyulya
"Флагманом линейки стал Ryzen Threadripper PRO 9995WX с 96 ядрами, 192 потоками и 384 Мбайт кеша L3. Компания оценила его в $11 699. Модель Ryzen Threadripper PRO 9985WX (64 ядра, 128 потоков, частота от 3,2 до 5,4 ГГц, 256 Мбайт кеша L3) AMD оценила в $7999. С остальными моделями серии и их ценами можно ознакомиться в таблице ниже. Самая доступная 16-ядерная модель оценивается в $1649."
https://3dnews.ru/1126141/amd-raskrila-tseni-samih-dorogih-protsessorov-dlya-pk-threadripper-pro-9000wx-viydut-23-iyulya
3DNews - Daily Digital Digest
Самые дорогие процессоры для ПК: AMD раскрыла цены Threadripper PRO 9000WX
Компания AMD сообщила стоимость процессоров Ryzen Threadripper PRO 9000WX, предназначенных для высокопроизводительных рабочих станций.
#hardware #ssd
"Для накопителя заявлена скорость последовательного чтения до 14 800 Мбайт/с и последовательной записи до 13 400 Мбайт/с. Производительность в операциях случайного чтения и записи составляет 2,2 млн IOPS и 2,6 млн IOPS соответственно. Модель на 8 Тбайт получила 8192 Мбайт кеш-памяти LPDDR4X, то есть вдвое больше, чем модель на 4 Тбайт."
https://3dnews.ru/1128031/flagmanskiy-ssd-samsung-9100-pro-vishel-v-versii-na-8-tbayt-za-999
"Для накопителя заявлена скорость последовательного чтения до 14 800 Мбайт/с и последовательной записи до 13 400 Мбайт/с. Производительность в операциях случайного чтения и записи составляет 2,2 млн IOPS и 2,6 млн IOPS соответственно. Модель на 8 Тбайт получила 8192 Мбайт кеш-памяти LPDDR4X, то есть вдвое больше, чем модель на 4 Тбайт."
https://3dnews.ru/1128031/flagmanskiy-ssd-samsung-9100-pro-vishel-v-versii-na-8-tbayt-za-999
3DNews - Daily Digital Digest
Флагманский SSD Samsung 9100 Pro вышел в версии на 8 Тбайт за $999
Компания Samsung расширила ассортимент своей флагманской серии NVMe-накопителей 9100 Pro стандарта PCIe 5.
#hardware #nvidia #jetson
"Jetson T5000 представляет собой вычислительный модуль, включающий центральный процессор с 14 ядрами Arm Neoverse-V3AE с частотой до 2,6 ГГц, а также графический процессор на архитектуре Blackwell с 2560 ядрами CUDA и 96 тензорными ядрами пятого поколения, работающими на частоте до 1,57 ГГц. Чип дополняют 128 Гбайт оперативной памяти LPDDR5X с пропускной способностью 273 Гбайт/с."
https://3dnews.ru/1128216/nvidia-vipustila-mozgi-dlya-robotov-kotorie-rabotayut-v-realnom-mire-platformi-jetson-thor-za-25003500
"Jetson T5000 представляет собой вычислительный модуль, включающий центральный процессор с 14 ядрами Arm Neoverse-V3AE с частотой до 2,6 ГГц, а также графический процессор на архитектуре Blackwell с 2560 ядрами CUDA и 96 тензорными ядрами пятого поколения, работающими на частоте до 1,57 ГГц. Чип дополняют 128 Гбайт оперативной памяти LPDDR5X с пропускной способностью 273 Гбайт/с."
https://3dnews.ru/1128216/nvidia-vipustila-mozgi-dlya-robotov-kotorie-rabotayut-v-realnom-mire-platformi-jetson-thor-za-25003500
3DNews - Daily Digital Digest
Nvidia выпустила «мозги» для роботов, которые работают в реальном мире — платформы Jetson Thor за $2500–3500
Компания Nvidia сегодня объявила о начале продаж новейших «мозгов» для роботов — системы Jetson AGX Thor Developer Kit, а также модулей Jetson T5000 и Jetson T4000.