MEMORY WALL - в AI / p.2
G1 . GPU HBM
Моделирование спроса на GB + Выручки производителей памяти от HBM
Модель для расчета [ ТАБЛИЦА ]
Допущения:
Цена текущая - 10$ /GB [ CAGR снижения 10% ]
2026 Г. - средние значения для per GPU - 288 GB
Рост требования GB / per GPU [ CAGR 25% ]
Негативный / Нейтральный / Позитивный сценарий по кол-ву произвдеенных чипов : [ 10 / 15 / 25 % CAGR ]
Итоговые выводы:
Негативный к 2030г. [ 11,1 EB / 75B$ выручка ]
Нейтральный к 2030 г. [ 13,8 EB./ 92B$ выручка ]
Позитивный к 2030 г. [ 21 EB / 140B$ выручка ]
Необходимо [ 11 - 21 EB в зависимости от сценария ]
Рост от текущего потребления HBM [ 3-7x ]
HBM делается из DRAM / если брать рост потребелния от DRAM [ 25% - 50% ]
2025г. Общее кол-во проданной HBM памяти - 3,3 EB
2024г. Общее кол-во проданной HBM памяти - 1,5 EB
2022г. Общее кол-во проданной DRAM памяти ~ 26 EB
2025г. Общее кол-во проданной DRAM памяти ~ 44 EB
G1 . GPU HBM
Моделирование спроса на GB + Выручки производителей памяти от HBM
Модель для расчета [ ТАБЛИЦА ]
Допущения:
Цена текущая - 10$ /GB [ CAGR снижения 10% ]
2026 Г. - средние значения для per GPU - 288 GB
Рост требования GB / per GPU [ CAGR 25% ]
Негативный / Нейтральный / Позитивный сценарий по кол-ву произвдеенных чипов : [ 10 / 15 / 25 % CAGR ]
Итоговые выводы:
Негативный к 2030г. [ 11,1 EB / 75B$ выручка ]
Нейтральный к 2030 г. [ 13,8 EB./ 92B$ выручка ]
Позитивный к 2030 г. [ 21 EB / 140B$ выручка ]
Необходимо [ 11 - 21 EB в зависимости от сценария ]
Рост от текущего потребления HBM [ 3-7x ]
HBM делается из DRAM / если брать рост потребелния от DRAM [ 25% - 50% ]
2025г. Общее кол-во проданной HBM памяти - 3,3 EB
2024г. Общее кол-во проданной HBM памяти - 1,5 EB
2022г. Общее кол-во проданной DRAM памяти ~ 26 EB
2025г. Общее кол-во проданной DRAM памяти ~ 44 EB
❤1
MEMORY WALL - в AI / p.4
Тезис № 1 [ Эра ИИ Агентов ]
Эра ИИ Агентной экономики еще не наступила.
В будущем могут существовать миллиарды ИИ-агентов, которые будут действовать неделями, месяцами и годами от имени людей и компаний. Для этого им недостаточно большого контекстного окна или длинного KV-cache. Им нужен отдельный memory layer
Morgan Stanley [ 04.2026 ] - по мере того, как развивает ИИ Агенты - автономные действия, вычислительный bottleneck смещается в сторону CPU и памяти.
Тезис № 2
Большинство компаний, связанных напрямую с пятью слоями ИИ
[ энергетика - чипы -дата-центры - LLM модели - приложения для ИИ ] торгуются с P/E 30-150x
В отличии, от игроков в сфере памяти, которые торгуются на 10-20x
Тезис № 3
Пока не видно потолка остановки прогресса в мощностях с каждым новым поколением чипа.
Каждая архитекутра чипов потребляет в разы больше памяти [ 80 GB - 288 GB - 1TB ]
В отличии от телефонов, где не нужна была смена архитектуры HBM1 -HBM2- HBM3 - HBM4 -> HBF - так как там потолок памяти долгое время был на уровне 256-512 GB + память в телефоне работает намного легче в плане устройства - так как она переодически спит + обрабатывает запросы одного человека , а не под непрерывный поток матричных умножений с миллионов параллельных потоков- > 256–512 ГБ флеш + 8–16 ГБ LPDDR закрывают потребности мобильного OS и приложений уже 5+ лет, рост идёт линейно на ~10–15% в год.
В GPU Memory есть гонка по memory - которая еще не закончилась - соответственно масштабирование одного продукта пока не делается - постоянно разрабатывается следующая архитектура
Когда ИИ-чипы получают больше HBM, разработчики немедленно строят модели побольше, чтобы его заполнить, так что память всегда следующее узкое место.
Тезис № 4
В прошлом, циклы памяти были востребованы для ПК / Смартфонов / Дата-центров облачных - которые ограничивались человечески ресурусом [ кол-во людей, использующих ПК и Телефоны ]
Этот цикл - не ограничивается биологическими ограничениями, у каждого человека может быть не один смартфон, а 10 ИИ агентов по разным сферам. У компаний могут быть 1 млн ИИ сотрудников.
Парадокс Джевонса создаст еще большую потребность в ИИ вычислениях за счет того, что можно будет строить еще больше новых продуктов и закрывать еще больше потребностей.
Каждое предприятие, каждое потребительское приложение, каждый автономный автомобиль, каждый ИИ-агент, каждый ИИ-робот - потребитель памяти.
Тезис № 1 [ Эра ИИ Агентов ]
Эра ИИ Агентной экономики еще не наступила.
В будущем могут существовать миллиарды ИИ-агентов, которые будут действовать неделями, месяцами и годами от имени людей и компаний. Для этого им недостаточно большого контекстного окна или длинного KV-cache. Им нужен отдельный memory layer
Morgan Stanley [ 04.2026 ] - по мере того, как развивает ИИ Агенты - автономные действия, вычислительный bottleneck смещается в сторону CPU и памяти.
Тезис № 2
Большинство компаний, связанных напрямую с пятью слоями ИИ
[ энергетика - чипы -дата-центры - LLM модели - приложения для ИИ ] торгуются с P/E 30-150x
В отличии, от игроков в сфере памяти, которые торгуются на 10-20x
Тезис № 3
Пока не видно потолка остановки прогресса в мощностях с каждым новым поколением чипа.
Каждая архитекутра чипов потребляет в разы больше памяти [ 80 GB - 288 GB - 1TB ]
В отличии от телефонов, где не нужна была смена архитектуры HBM1 -HBM2- HBM3 - HBM4 -> HBF - так как там потолок памяти долгое время был на уровне 256-512 GB + память в телефоне работает намного легче в плане устройства - так как она переодически спит + обрабатывает запросы одного человека , а не под непрерывный поток матричных умножений с миллионов параллельных потоков- > 256–512 ГБ флеш + 8–16 ГБ LPDDR закрывают потребности мобильного OS и приложений уже 5+ лет, рост идёт линейно на ~10–15% в год.
В GPU Memory есть гонка по memory - которая еще не закончилась - соответственно масштабирование одного продукта пока не делается - постоянно разрабатывается следующая архитектура
Когда ИИ-чипы получают больше HBM, разработчики немедленно строят модели побольше, чтобы его заполнить, так что память всегда следующее узкое место.
Тезис № 4
В прошлом, циклы памяти были востребованы для ПК / Смартфонов / Дата-центров облачных - которые ограничивались человечески ресурусом [ кол-во людей, использующих ПК и Телефоны ]
Этот цикл - не ограничивается биологическими ограничениями, у каждого человека может быть не один смартфон, а 10 ИИ агентов по разным сферам. У компаний могут быть 1 млн ИИ сотрудников.
Парадокс Джевонса создаст еще большую потребность в ИИ вычислениях за счет того, что можно будет строить еще больше новых продуктов и закрывать еще больше потребностей.
Каждое предприятие, каждое потребительское приложение, каждый автономный автомобиль, каждый ИИ-агент, каждый ИИ-робот - потребитель памяти.
❤4🔥1
MEMORY WALL - в AI / p.5
Тезис № 5
Рост кол-ва параметров моделей
Gemini ~ 10T / Opus 4.7 ~ 5T / GPT 5.1 PRO ~ 10T [ рост 5-10х с 2025 г. ]
Маск планирует Grok5 до 20T параметров в 2026г.
Тезис № 6
Техническое усложнение продукта.
Относительный capex/бит для HBM -4x.
Для LPDDR5 1.6x / NAND 1.5x -
Самое главное отличие этого цикла- поставщики памяти делали весь стек целиком in-house - отсутствовали TSMC.
Тезис № 7
Переход от генерации текста к генерации видео (AI-видео, замещающее YouTube) потребует роста пропускной способности и объёма памяти примерно в 1000 раз.
Тезис № 8
Память используется очень во многих функциях дата-центров, оптимизации подобные Google TurboQuant - происходят не во всех направлениях сразу, а часто в единичных.
Недостаточно минорной оптимизации как в Turbo Quant - одной ветки вычислений - нужно полностью все стадии вычисления на ПОРЯДКИ
Groq / Cerebras - делают все свои альтернативы вместе с HBM - разделяя разные функции на разные типы памяти.
Тезис № 9
Высокий спрос на ИИ сектор будет вызывать рост цен на другие сектора: робототехника / машины / смартфоны / ПК
Тезис № 5
Рост кол-ва параметров моделей
Gemini ~ 10T / Opus 4.7 ~ 5T / GPT 5.1 PRO ~ 10T [ рост 5-10х с 2025 г. ]
Маск планирует Grok5 до 20T параметров в 2026г.
Тезис № 6
Техническое усложнение продукта.
Относительный capex/бит для HBM -4x.
Для LPDDR5 1.6x / NAND 1.5x -
Самое главное отличие этого цикла- поставщики памяти делали весь стек целиком in-house - отсутствовали TSMC.
Тезис № 7
Переход от генерации текста к генерации видео (AI-видео, замещающее YouTube) потребует роста пропускной способности и объёма памяти примерно в 1000 раз.
Тезис № 8
Память используется очень во многих функциях дата-центров, оптимизации подобные Google TurboQuant - происходят не во всех направлениях сразу, а часто в единичных.
Недостаточно минорной оптимизации как в Turbo Quant - одной ветки вычислений - нужно полностью все стадии вычисления на ПОРЯДКИ
Groq / Cerebras - делают все свои альтернативы вместе с HBM - разделяя разные функции на разные типы памяти.
Тезис № 9
Высокий спрос на ИИ сектор будет вызывать рост цен на другие сектора: робототехника / машины / смартфоны / ПК
❤2🔥2
MEMORY WALL - в AI / p.6
Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости
( 2000 -3000$ )
Больше других типов памяти внутри самого чипа не ставят.
Остальные уровни памяти, о которых говорил в постах выше - ставят уже в кластерах GPU.
Все дата-центры работают на кластерах, а не на одиночных чипах.
Все крупные клиенты NVIDIA закупают кластеры.
Себестоимость, кластера из 72 чипов на примере NVIDIA GB200 NVL72:
3 200 000$
из которых > 15% уходит на G1-G4 память, при это сам GPU Silicon чип ( без HBM ) составляет ~ 10% BoM
Если рассматривать, VR200 NVL72 - то там общий BoM потенциально будет доходить ~5 000 000$
и при этом добавляется новый уровень памяти + увеличивается емкость прошлых уровней в разы - > BoM на память увеличивается >20%
[ Более детальные расчеты ]
Если брать, каждый уровень памяти - то с каждым новым поколением чипа - объем этой памяти увеличивается на 50% -200%+
G1 [ HBM ]
H100 -> B200 -> R200
1x- > 2.5x -> 4x
G2 [ Host-Dram ]
GB200 NVL72 - > VR200 NVL72
1x - > 3x
G3 [ Local NVMe/SSD ]
GB200 - > R200
1x > 5x
G3.5 [ Inference Context Memory Storage ]
новый вид памяти, не было в прошлых поколениях
G4. Networked external storage
H100 - > GB200 NVL72
1x - > 2x
Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости
( 2000 -3000$ )
Больше других типов памяти внутри самого чипа не ставят.
Остальные уровни памяти, о которых говорил в постах выше - ставят уже в кластерах GPU.
Все дата-центры работают на кластерах, а не на одиночных чипах.
Все крупные клиенты NVIDIA закупают кластеры.
Себестоимость, кластера из 72 чипов на примере NVIDIA GB200 NVL72:
3 200 000$
из которых > 15% уходит на G1-G4 память, при это сам GPU Silicon чип ( без HBM ) составляет ~ 10% BoM
Если рассматривать, VR200 NVL72 - то там общий BoM потенциально будет доходить ~5 000 000$
и при этом добавляется новый уровень памяти + увеличивается емкость прошлых уровней в разы - > BoM на память увеличивается >20%
[ Более детальные расчеты ]
Если брать, каждый уровень памяти - то с каждым новым поколением чипа - объем этой памяти увеличивается на 50% -200%+
G1 [ HBM ]
H100 -> B200 -> R200
1x- > 2.5x -> 4x
G2 [ Host-Dram ]
GB200 NVL72 - > VR200 NVL72
1x - > 3x
G3 [ Local NVMe/SSD ]
GB200 - > R200
1x > 5x
G3.5 [ Inference Context Memory Storage ]
новый вид памяти, не было в прошлых поколениях
G4. Networked external storage
H100 - > GB200 NVL72
1x - > 2x
❤3🔥3
HYPURR NFT
Тезисы:
-HYPE вырос / нфт нет [ Dune ]
-Спекуляции о новом сезоне фарма
-Вся команда в аватарках + инфлюенсеры - > при росте HYPE внимание может попасть и на NFT
-текущий mcap HYPURR - 70m$
при раздаче 0.1% SUPPLY - 42m$ / окуп 60% + остается NFT
при раздаче 0.2% supply - профит 20% + остается NFT
Затраты ~ 15 500$
Тезисы:
-HYPE вырос / нфт нет [ Dune ]
-Спекуляции о новом сезоне фарма
-Вся команда в аватарках + инфлюенсеры - > при росте HYPE внимание может попасть и на NFT
-текущий mcap HYPURR - 70m$
при раздаче 0.1% SUPPLY - 42m$ / окуп 60% + остается NFT
при раздаче 0.2% supply - профит 20% + остается NFT
Затраты ~ 15 500$
👍5
Взял $TON на плечо, помимо спот позиции
Тезисы:
-Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation
-За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again
Ожидаю в течении месяца остальные шаги.
-Потенциально, один из шагов дополнительные байбеки от Telegram от части Revenue
Ранее, buy pressure шел только от юзеров, покупающих услуги в Telegram через Fragment
Тезисы:
-Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation
-За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again
Ожидаю в течении месяца остальные шаги.
-Потенциально, один из шагов дополнительные байбеки от Telegram от части Revenue
Ранее, buy pressure шел только от юзеров, покупающих услуги в Telegram через Fragment
❤6😁2
risen.eth
Взял $TON на плечо, помимо спот позиции Тезисы: -Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation -За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again Ожидаю в течении месяца остальные шаги.…
Закрыл позицию на фьючах / спот оставил
PNL: +12 000$
Возможно, перезайду с большим плечом, если дадут просадку на рынке / либо на монете
PNL: +12 000$
Возможно, перезайду с большим плечом, если дадут просадку на рынке / либо на монете
❤9
risen.eth
MEMORY WALL - в AI / p.6 Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости ( 2000 -3000$ ) Больше других типов памяти…
Вложения:
SANDISK - 15 000$
SK Hynix - 20 000$
Samsung - 25 000$
Основные метрики для мониторинга:
1) Динамика роста кол-ва чипов в мире [ 1 ]
2) Динамика увеличения требования к памяти по новым поколениям чипов [ 1 ]
Разделение по игрокам:
Ставка больше на NAND рост в ближайшие годы из-за добавление нового уровня G3.5 + потенциальная разработка HBF -> которая по прогнозам профессора-основателя HBM полностью сместит HBM после 2035г.
Ставка на SAMSUNG как потенциального будущего лидера в сфере технологической эффективности типов памяти.
Были провалы в 2023-2024г., связанные с квалификацией.
Последние кварталы успехи больше у SAMSUNG чем у SK Hynix.
SANDISK - 15 000$
SK Hynix - 20 000$
Samsung - 25 000$
Основные метрики для мониторинга:
1) Динамика роста кол-ва чипов в мире [ 1 ]
2) Динамика увеличения требования к памяти по новым поколениям чипов [ 1 ]
Разделение по игрокам:
Ставка больше на NAND рост в ближайшие годы из-за добавление нового уровня G3.5 + потенциальная разработка HBF -> которая по прогнозам профессора-основателя HBM полностью сместит HBM после 2035г.
Ставка на SAMSUNG как потенциального будущего лидера в сфере технологической эффективности типов памяти.
Были провалы в 2023-2024г., связанные с квалификацией.
Последние кварталы успехи больше у SAMSUNG чем у SK Hynix.
🔥5