400+ YT-Каналов на тему Tech / Investing
GOOGLE LINK
-Фонды
-Подкастеры
-Частные инвесторы
-Новостные каналы, ориентированные на финансы
-Каналы топовых компаний из NASDAQ
Потенциальное применение:
Автоматизированная обработка тезисов из субтитров
GOOGLE LINK
-Фонды
-Подкастеры
-Частные инвесторы
-Новостные каналы, ориентированные на финансы
-Каналы топовых компаний из NASDAQ
Потенциальное применение:
Автоматизированная обработка тезисов из субтитров
Google Docs
YT / Invest
🔥7
Hermes - NOUS Research
Hermes фреймворк для ИИ агентов- один из топовых в мире на текущий момент, лидер в сегменте персонализированных агентов.
Кол-во звезд на гитхабе - 115 000 / для сравнения у OpenClaw ~ 300 000.
Исходный код был выложен командой Nous Research.
Было привлечено 70M$ через token purchase.
Помимо, фрейморков для ИИ Агентов, Nous Research занимается децентрализованными ИИ вычислениями через Psyche Network.
Их сеть на текущий момент находится в режиме тестнета.
Рекомендую, как минимум использовать Hermes API для личных задач в ИИ.
В будущем, высоковероятен дроп токена большому кол-ву пользователей для децентрализованного распределения.
https://psyche.network/
https://portal.nousresearch.com/
Hermes фреймворк для ИИ агентов- один из топовых в мире на текущий момент, лидер в сегменте персонализированных агентов.
Кол-во звезд на гитхабе - 115 000 / для сравнения у OpenClaw ~ 300 000.
Исходный код был выложен командой Nous Research.
Было привлечено 70M$ через token purchase.
Помимо, фрейморков для ИИ Агентов, Nous Research занимается децентрализованными ИИ вычислениями через Psyche Network.
Их сеть на текущий момент находится в режиме тестнета.
Рекомендую, как минимум использовать Hermes API для личных задач в ИИ.
В будущем, высоковероятен дроп токена большому кол-ву пользователей для децентрализованного распределения.
https://psyche.network/
https://portal.nousresearch.com/
❤7
Short - PIEVERSE
Токен дал 3х после листинга на UpBit
Если кто не знал, то на UpBit листят только спот, без плечей, без маржи. Поэтому у корейских гемблеров только один вариант - BUY при листинге.
Корейские трейдеры хорошая exit-ликвидность для проекта, который ничего из себя не представляет. В текущих реалиях, практически единственные спот-покупатели альткоинов без PMF.
Основной продукт, с которым они везде ходят и хвастаются - Purr-Fect Claw -оплатили всего 20 человек ( наверное, семья фаундера)
[ 1 / 2 ]
Команда полностью ноуйнем, без заслуг.
В отличии от условных Kite AI - у которых тоже пока нет успехов, но там хотя бы команда из ML / AI Researchers и т.п.
Фандинг нейтральный - нет лишних пассажиров в шортах.
Токен дал 3х после листинга на UpBit
Если кто не знал, то на UpBit листят только спот, без плечей, без маржи. Поэтому у корейских гемблеров только один вариант - BUY при листинге.
Корейские трейдеры хорошая exit-ликвидность для проекта, который ничего из себя не представляет. В текущих реалиях, практически единственные спот-покупатели альткоинов без PMF.
Основной продукт, с которым они везде ходят и хвастаются - Purr-Fect Claw -оплатили всего 20 человек ( наверное, семья фаундера)
[ 1 / 2 ]
Команда полностью ноуйнем, без заслуг.
В отличии от условных Kite AI - у которых тоже пока нет успехов, но там хотя бы команда из ML / AI Researchers и т.п.
Фандинг нейтральный - нет лишних пассажиров в шортах.
❤9
$VVV - VENICE AI
Рост 50% за последний месяц
Рост 180% за последние 3 месяца
Рост 360% с ATL
Проблемы, которые помогает решить VENICE пользователям:
1️⃣ Сложность запуска open-source моделей
•Экономия времени настройки модели -> venice настраивает модель за вас
•Высокая стоимость железа - размер моделей open-source растет - запустить фронтирные open-source модели без железа стоимостью 10-100к$ с максимальным качеством работы - нереально -> venice предоставляет вам возможность запустить их через посредников по вычислениям либо на своем железе
2️⃣ Приватность
•Крупные взломы централизованных провайдеров / массовые утечки чатов
•OpenAI и другие централизованные игроки по решению суда обязаны хранить переписки пользователей
При запуске через централизованного провайдера GPU - ваши данные могут просмотреть - для этого Venice используют шифрование TEE.
Однако, сам VENICE имеет определенный доступ к данным, так как ваш запрос расшифровывается на прокси Venice, прежде чем уйти в анклав. Хоть, Venice и не логгируют эти данные - но риски взлома / юридического принуждения - есть.
TEE модель шифрования также используют единичные провайдеры из OpenRouter - но это не массовая история. У большинства GPU провадйеров из OpenRouter политика шифрования - через Policy-based ( обещание не смотреть ) , только Phala + Near AI Cloud используют TEE шифрование.
Более того, у Venice есть еще E2EE шифрование, которое обеспечивает практически полную приватность - но там есть проблемы с функционалом моделей ( отключены web search/memory/файлы )
TEE / E2EE касается только open-source моделей. Для центрилизованных моделей - ваши промпты в любом случае будут логироваться OpenAI / Claude и .т.п.
Venice старается только анонимизировать субъекта -отправителя промпта- > проксирует запрос, стирает вашу личность и метаданные.
Владелец проекта - Erik Voorhees
Продал SatoshiDice за 126 315 BTC в 2011 г.
[ 10B$ + по текущим оценкам ]
Система выкупов:
1️⃣ Discretionary burns
Нераскрытый % от revenue каждый месяц
2️⃣ Programmatic VVV Buy & Burns
1$ от подписчика PRO
На данный момент - 30 000 подписчиков / месяц
Конкуренты:
По слухам, OpenRouter привлекает раунд по оценке 1.3B$ от Google.
По оценкам, годовая выручка OpenRouter составила 50M$ - мультипликатор x26
Потребление токенов / месяц:
Venice - 2T / month
OpenRouter - 70T / month
Выручка в месяц:
OpenRouter ~ 50M$ [ по оценкам ]
Venice ~ 12M$ [ по оценкам / 80% - 30 000 subs/month + 20% от API ]
Маржинальность : TBA
Катализаторы роста для VENICE:
•Multi-model архитектуры [ Рост OpenRouter ×10 за 2025 ]
•Увеличение качества и мощности open-source моделей -> рост потребления + рост требований к железу
•Спрос на приватность из-за взломов и утечек корпоративных данных
Метрики по кол-во подписчиков / сжиганий монет и т.п. :
https://venicestats.com/burns
Рост 50% за последний месяц
Рост 180% за последние 3 месяца
Рост 360% с ATL
Проблемы, которые помогает решить VENICE пользователям:
•Экономия времени настройки модели -> venice настраивает модель за вас
•Высокая стоимость железа - размер моделей open-source растет - запустить фронтирные open-source модели без железа стоимостью 10-100к$ с максимальным качеством работы - нереально -> venice предоставляет вам возможность запустить их через посредников по вычислениям либо на своем железе
•Крупные взломы централизованных провайдеров / массовые утечки чатов
•OpenAI и другие централизованные игроки по решению суда обязаны хранить переписки пользователей
При запуске через централизованного провайдера GPU - ваши данные могут просмотреть - для этого Venice используют шифрование TEE.
Однако, сам VENICE имеет определенный доступ к данным, так как ваш запрос расшифровывается на прокси Venice, прежде чем уйти в анклав. Хоть, Venice и не логгируют эти данные - но риски взлома / юридического принуждения - есть.
TEE модель шифрования также используют единичные провайдеры из OpenRouter - но это не массовая история. У большинства GPU провадйеров из OpenRouter политика шифрования - через Policy-based ( обещание не смотреть ) , только Phala + Near AI Cloud используют TEE шифрование.
Более того, у Venice есть еще E2EE шифрование, которое обеспечивает практически полную приватность - но там есть проблемы с функционалом моделей ( отключены web search/memory/файлы )
TEE / E2EE касается только open-source моделей. Для центрилизованных моделей - ваши промпты в любом случае будут логироваться OpenAI / Claude и .т.п.
Venice старается только анонимизировать субъекта -отправителя промпта- > проксирует запрос, стирает вашу личность и метаданные.
Владелец проекта - Erik Voorhees
Продал SatoshiDice за 126 315 BTC в 2011 г.
[ 10B$ + по текущим оценкам ]
Система выкупов:
Нераскрытый % от revenue каждый месяц
1$ от подписчика PRO
На данный момент - 30 000 подписчиков / месяц
Конкуренты:
По слухам, OpenRouter привлекает раунд по оценке 1.3B$ от Google.
По оценкам, годовая выручка OpenRouter составила 50M$ - мультипликатор x26
Потребление токенов / месяц:
Venice - 2T / month
OpenRouter - 70T / month
Выручка в месяц:
OpenRouter ~ 50M$ [ по оценкам ]
Venice ~ 12M$ [ по оценкам / 80% - 30 000 subs/month + 20% от API ]
Маржинальность : TBA
Катализаторы роста для VENICE:
•Multi-model архитектуры [ Рост OpenRouter ×10 за 2025 ]
•Увеличение качества и мощности open-source моделей -> рост потребления + рост требований к железу
•Спрос на приватность из-за взломов и утечек корпоративных данных
Метрики по кол-во подписчиков / сжиганий монет и т.п. :
https://venicestats.com/burns
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9
Ключевые наблюдения за Q1 2025 - Q1 2026 :
[ ТАБЛИЦЫ ]
•Мировой объем используемых токенов за квартал вырос на 660%
•Средневзвешенная цена 1M/токенов упала на 60%
•Enterprise использование LLM увеличилось с 5B$ за квартал до 15B$ за квартал
•Сегмент ИИ агентов увеличился с 0.37B$ - >1,42B$ за квартал
•COGC маржинальность с Q1 2024 г. увеличилась с 30% - > 65%
Мировые расходы на токены за 2025 г. = $110-130B / yr
AI capex Big Tech 2025 = $364B / yr
AI capex / AI revenue ratio 2025 = 1/4
Внутри документа:
Total Token Volume
Token Volume by Segment
Revenue by Segment
Revenue by AI Lab
Revenue vs COGS
Blended Price
[ ТАБЛИЦЫ ]
•Мировой объем используемых токенов за квартал вырос на 660%
•Средневзвешенная цена 1M/токенов упала на 60%
•Enterprise использование LLM увеличилось с 5B$ за квартал до 15B$ за квартал
•Сегмент ИИ агентов увеличился с 0.37B$ - >1,42B$ за квартал
•COGC маржинальность с Q1 2024 г. увеличилась с 30% - > 65%
Мировые расходы на токены за 2025 г. = $110-130B / yr
AI capex Big Tech 2025 = $364B / yr
AI capex / AI revenue ratio 2025 = 1/4
Внутри документа:
Total Token Volume
Token Volume by Segment
Revenue by Segment
Revenue by AI Lab
Revenue vs COGS
Blended Price
❤7
Симуляция Revenue рынка ИИ-токенов к 2030г. + масштаба дата-центров [ GW ]
Уменьшение Цена / Токен:
2023 - 2024 [ -x3 ]
2024 - 2025 [ -x3 ]
2025 - 2026 [ -x2.5 ]
——————————————————————
Рост общего спроса на токены:
2024 - 2025 [ ~x8 ]
2025 - 2026 [ ~x7 ]
Google увеличили потребление токенов в 50 раз за год [ 2025г. / Май ] - связано с использованием в внутренних продуктов
Microsoft увеличили потребление токенов в 5 раз за год [ 2025г. / Апрель ]
OpenAI увеличили потребление токенов в 8 раз за год [ 2025 г.. / Декабрь ]
OpenAI увеличили потребление токенов в Reasoning - моделях в 320 раз за год [ 2025 г.. / Декабрь ]
——————————————————————
Рост сложности вычислений на токен в разных моделях:
Обычный chat -x1 [ GPT 5.4 - 15$ ]
Продвинутый чат - x12 [ GPT 5.5 - 180$ ]
Reasoning Model c длинным контекстом - x18 [ GPT 5.5 pro - 270$]
AI Agent tokens - x25 [ Claude ] / x1000 [ Huang ]
Microsoft CEO : Агенты добавляют второй множитель сверху/ Reasoning — это «думает один раз дольше». Агент — это «думает много раз + использует tools». - > потенциальное увеличение спроса на токены в тысячи раз.
Средневзвешенная "цена за токен" в долларах падает медленнее, чем удельная стоимость генерации одного токена, потому что средний токен становится "тяжелее"
——————————————————————
Оптимизация эффективности J / token
( учтена оптимизация не только на уровне GPU - но и на уровне софта и иных решений ) :
Hopper H100 [ 2022 г. ] - 10 J/token
Blackwell GB200 [ 2024 г. ] -1 J / token [ x10 ]
Rubin J100 [ 2026 г. ] - 0.1 J / token [ x10 ]
NVIDIA после Rubin планирует выпуск новой архитектуры чипа каждый год.
Текущие 10–50× за поколение у NVIDIA - это эра, эквивалентная закону Деннарду в CPU 1990-х.
Когда «лёгкие выигрыши» исчерпаются (вероятно, 2030–2035), темп замедлится с 10× за поколение до 1,4–2× - как у CPU после 2005 г.
GPU в дата-центрах только 40% затрат на энергию и GWT / остальные 60% затраты на обеспечение дата-центра.
——————————————————————
Текущие вводные за 2026г. для симуляции сценария:
Revenue от ИИ токенов: 200B$ / год
Rubin J100 : 0.1 J / token
GWT под дата-центры 30 GWT [ из них 40% на GPU конкретно ]
Сценарий за 2030г.:
Большая часть токенов = reasoning / AI Agents модели [ рост доли их использования ]
Уменьшение PRICE / per Token: -x81
Рост спроса Tokens : x625
Рост сложности вычислений: x10
Оптимизация эффективности watt / token : 1000x
Итог:
Revenue ~ 1.54T$ / год
Цена за 1M tokens ~ 0.00065$
GPU мощность - 75 GW / Полная мощность ДЦ - 187 GW
Прогноз Goldman Sachs для AI к 2030 ~ 160 GW
Прогноз McKinsey для AI к 2030 ~220 GW
*оба прогноза близки к моей симуляции
Прогноз OpenAI по выручке к 2030 г. :280B$
[ в целом, если OpenAI будет владеть 20% общего объема рынка - то мой прогноз соответсвтует ]
Уменьшение Цена / Токен:
2023 - 2024 [ -x3 ]
2024 - 2025 [ -x3 ]
2025 - 2026 [ -x2.5 ]
——————————————————————
Рост общего спроса на токены:
2024 - 2025 [ ~x8 ]
2025 - 2026 [ ~x7 ]
Google увеличили потребление токенов в 50 раз за год [ 2025г. / Май ] - связано с использованием в внутренних продуктов
Microsoft увеличили потребление токенов в 5 раз за год [ 2025г. / Апрель ]
OpenAI увеличили потребление токенов в 8 раз за год [ 2025 г.. / Декабрь ]
OpenAI увеличили потребление токенов в Reasoning - моделях в 320 раз за год [ 2025 г.. / Декабрь ]
——————————————————————
Рост сложности вычислений на токен в разных моделях:
Обычный chat -x1 [ GPT 5.4 - 15$ ]
Продвинутый чат - x12 [ GPT 5.5 - 180$ ]
Reasoning Model c длинным контекстом - x18 [ GPT 5.5 pro - 270$]
AI Agent tokens - x25 [ Claude ] / x1000 [ Huang ]
Microsoft CEO : Агенты добавляют второй множитель сверху/ Reasoning — это «думает один раз дольше». Агент — это «думает много раз + использует tools». - > потенциальное увеличение спроса на токены в тысячи раз.
Средневзвешенная "цена за токен" в долларах падает медленнее, чем удельная стоимость генерации одного токена, потому что средний токен становится "тяжелее"
——————————————————————
Оптимизация эффективности J / token
( учтена оптимизация не только на уровне GPU - но и на уровне софта и иных решений ) :
Hopper H100 [ 2022 г. ] - 10 J/token
Blackwell GB200 [ 2024 г. ] -1 J / token [ x10 ]
Rubin J100 [ 2026 г. ] - 0.1 J / token [ x10 ]
NVIDIA после Rubin планирует выпуск новой архитектуры чипа каждый год.
Текущие 10–50× за поколение у NVIDIA - это эра, эквивалентная закону Деннарду в CPU 1990-х.
Когда «лёгкие выигрыши» исчерпаются (вероятно, 2030–2035), темп замедлится с 10× за поколение до 1,4–2× - как у CPU после 2005 г.
GPU в дата-центрах только 40% затрат на энергию и GWT / остальные 60% затраты на обеспечение дата-центра.
——————————————————————
Текущие вводные за 2026г. для симуляции сценария:
Revenue от ИИ токенов: 200B$ / год
Rubin J100 : 0.1 J / token
GWT под дата-центры 30 GWT [ из них 40% на GPU конкретно ]
Сценарий за 2030г.:
Большая часть токенов = reasoning / AI Agents модели [ рост доли их использования ]
Уменьшение PRICE / per Token: -x81
Рост спроса Tokens : x625
Рост сложности вычислений: x10
Оптимизация эффективности watt / token : 1000x
Итог:
Revenue ~ 1.54T$ / год
Цена за 1M tokens ~ 0.00065$
GPU мощность - 75 GW / Полная мощность ДЦ - 187 GW
Прогноз Goldman Sachs для AI к 2030 ~ 160 GW
Прогноз McKinsey для AI к 2030 ~220 GW
*оба прогноза близки к моей симуляции
Прогноз OpenAI по выручке к 2030 г. :280B$
[ в целом, если OpenAI будет владеть 20% общего объема рынка - то мой прогноз соответсвтует ]
❤3🎉1
risen.eth
Симуляция Revenue рынка ИИ-токенов к 2030г. + масштаба дата-центров [ GW ] Уменьшение Цена / Токен: 2023 - 2024 [ -x3 ] 2024 - 2025 [ -x3 ] 2025 - 2026 [ -x2.5 ] —————————————————————— Рост общего спроса на токены: 2024 - 2025 [ ~x8 ] 2025 …
Подход № 2
Total Addressable Market рынка для LLM ИИ - > интеллектуальный труд человечества [ ~ 50T$ ]
Текущий объем рынка токенов = 200B$ / год
Хуанг: Я буду удивлен, если мой инженер с зарплатой в 500 000$ в NVIDIA не будет потреблять > 250 000$ токенов в год
Хуанг: Я уверен, что доля ВВП, которая идет на compute сейчас будет в 100 раз больше [ 200B$ - > 20T$ / year ]
Предположим, что из 200B$ - 150B$, приходится на USA:
USA ВВП - 30T$ / текущий уровень = 0,5% ВВП
World ВВП - 100T$ / текущий уровень = 0,15% ВВП
Потребление энергии в США [ energy bills - без учета инфраструктуры ] = 2T$ = 7% от ВВП
Потребление энергии в мире [ energy bills - без учета инфраструктуры ] = 10T$ = 10% от ВВП
Итоговая текущая разница в затратах на энергию в $ и затратах на токены интеллекта в $ = 50x
CAGR в потреблении энергии за последние десятилетия: ~ 1.5% в год
При CAGR в 40% рынка токенов интеллекта К 2030 г. - рынок токенов составит 768B$ / энергорынок 10,6T$
Разница будет в 14х
Total Addressable Market рынка для LLM ИИ - > интеллектуальный труд человечества [ ~ 50T$ ]
Текущий объем рынка токенов = 200B$ / год
Хуанг: Я буду удивлен, если мой инженер с зарплатой в 500 000$ в NVIDIA не будет потреблять > 250 000$ токенов в год
Хуанг: Я уверен, что доля ВВП, которая идет на compute сейчас будет в 100 раз больше [ 200B$ - > 20T$ / year ]
Предположим, что из 200B$ - 150B$, приходится на USA:
USA ВВП - 30T$ / текущий уровень = 0,5% ВВП
World ВВП - 100T$ / текущий уровень = 0,15% ВВП
Потребление энергии в США [ energy bills - без учета инфраструктуры ] = 2T$ = 7% от ВВП
Потребление энергии в мире [ energy bills - без учета инфраструктуры ] = 10T$ = 10% от ВВП
Итоговая текущая разница в затратах на энергию в $ и затратах на токены интеллекта в $ = 50x
CAGR в потреблении энергии за последние десятилетия: ~ 1.5% в год
При CAGR в 40% рынка токенов интеллекта К 2030 г. - рынок токенов составит 768B$ / энергорынок 10,6T$
Разница будет в 14х
MEMORY WALL - в AI / p.1
Виды памяти в кластерах для ИИ:
G0. SRAM [ on - chip ]
Используется в основном в Groq LPU / Cerebras чипах.
G1. GPU HBM
Используется во всех ИИ чипах [ B200 / R200 / Trainium / TPU Google и других ]
H100 [ 6 HBM стоек ] - 80 GB
B200 [ 8 HBM стоек ] - 192 GB
R200 [ 8 HBM стоек ] - 288 GB
TPU v6e [ 4 стойки ] - 32 GB
TPU v7 [ 8 стоек ] - 192 GB
TPU v8 [ 8 стоек ] - 288 GB
G2. Host-DRAM (внутри CPU)
Используется во всех чипах CPU - которые обеспечивают работу кластеров GPU в дата-центрах
NVIDIA GB200 NVL72 - внутри этого кластера 72 GPU чипа, которые обеспечиваются 36 Grace CPU чипами
Внутри, 36 Grace CPU чипов - 17 TB LPDDR5X
≈ 236 GB / CPU
NVIDIA Vera Rubin NVL72 (VR200) = 72 Rubin GPU + 36 Vera CPU
36 VERA CPU = 54 TB LPDDR5X = ~ 750 GB / CPU (NVIDIA)
AMD MI355X UBB ~ 134 GB / CPU
AWS Trainium2 UltraServer ~375 GB / CPU
Google TPU v7 Ironwood ~ ~ 240 GB / CPU
G3. Local NVMe/SSD ( NAND )
Используется во всех дата-центрах для обеспечения работы кластеров GPU
Все используют тип памяти NAND в данной архитектуре
NVIDIA GB200 NVL72 : NAND [ 276.5 TB - 3.84 TB per GPU ] ]
NVIDIA GB300 NVL72: NAND [ 1 105 TB - 15.36 TB per GPU ]
AWS Trainium3: NAND [ 576 TB - 8 TB per GPU ]
AMD Instinct MI355X: NAND [ 7.68 TB per GPU ]
G3.5 Inference Context Memory Storage
На данный момент, данный слой планируется использоваться в кластерах Vera Rubin- остальные чипмейкеры пока не объявляли про это.
По слухам -16 TB / per GPU
Тип памяти: NVMe SSD tier [ NAND Flash ]
Основная задача - ИИ Агенты с persistent memory.
G4. Networked external storage
Гиперскейлеры покупают дисковые полки от VAST / WEKA - при покупке VAST Ceres DF-3060V2 — эти виды памяти включены уже внутри.
Наиболее консенсусный, VAST Ceres DF-3060V2 - хватает на 128 GPU B200
NAND : 1352 TB = 10526 GB /per GPU
SCM : 12 TB = 100 GB / per GPU
Виды памяти в кластерах для ИИ:
G0. SRAM [ on - chip ]
Используется в основном в Groq LPU / Cerebras чипах.
G1. GPU HBM
Используется во всех ИИ чипах [ B200 / R200 / Trainium / TPU Google и других ]
H100 [ 6 HBM стоек ] - 80 GB
B200 [ 8 HBM стоек ] - 192 GB
R200 [ 8 HBM стоек ] - 288 GB
TPU v6e [ 4 стойки ] - 32 GB
TPU v7 [ 8 стоек ] - 192 GB
TPU v8 [ 8 стоек ] - 288 GB
G2. Host-DRAM (внутри CPU)
Используется во всех чипах CPU - которые обеспечивают работу кластеров GPU в дата-центрах
NVIDIA GB200 NVL72 - внутри этого кластера 72 GPU чипа, которые обеспечиваются 36 Grace CPU чипами
Внутри, 36 Grace CPU чипов - 17 TB LPDDR5X
≈ 236 GB / CPU
NVIDIA Vera Rubin NVL72 (VR200) = 72 Rubin GPU + 36 Vera CPU
36 VERA CPU = 54 TB LPDDR5X = ~ 750 GB / CPU (NVIDIA)
AMD MI355X UBB ~ 134 GB / CPU
AWS Trainium2 UltraServer ~375 GB / CPU
Google TPU v7 Ironwood ~ ~ 240 GB / CPU
G3. Local NVMe/SSD ( NAND )
Используется во всех дата-центрах для обеспечения работы кластеров GPU
Все используют тип памяти NAND в данной архитектуре
NVIDIA GB200 NVL72 : NAND [ 276.5 TB - 3.84 TB per GPU ] ]
NVIDIA GB300 NVL72: NAND [ 1 105 TB - 15.36 TB per GPU ]
AWS Trainium3: NAND [ 576 TB - 8 TB per GPU ]
AMD Instinct MI355X: NAND [ 7.68 TB per GPU ]
G3.5 Inference Context Memory Storage
На данный момент, данный слой планируется использоваться в кластерах Vera Rubin- остальные чипмейкеры пока не объявляли про это.
По слухам -16 TB / per GPU
Тип памяти: NVMe SSD tier [ NAND Flash ]
Основная задача - ИИ Агенты с persistent memory.
G4. Networked external storage
Гиперскейлеры покупают дисковые полки от VAST / WEKA - при покупке VAST Ceres DF-3060V2 — эти виды памяти включены уже внутри.
Наиболее консенсусный, VAST Ceres DF-3060V2 - хватает на 128 GPU B200
NAND : 1352 TB = 10526 GB /per GPU
SCM : 12 TB = 100 GB / per GPU
❤4
MEMORY WALL - в AI / p.2
G1 . GPU HBM
Моделирование спроса на GB + Выручки производителей памяти от HBM
Модель для расчета [ ТАБЛИЦА ]
Допущения:
Цена текущая - 10$ /GB [ CAGR снижения 10% ]
2026 Г. - средние значения для per GPU - 288 GB
Рост требования GB / per GPU [ CAGR 25% ]
Негативный / Нейтральный / Позитивный сценарий по кол-ву произвдеенных чипов : [ 10 / 15 / 25 % CAGR ]
Итоговые выводы:
Негативный к 2030г. [ 11,1 EB / 75B$ выручка ]
Нейтральный к 2030 г. [ 13,8 EB./ 92B$ выручка ]
Позитивный к 2030 г. [ 21 EB / 140B$ выручка ]
Необходимо [ 11 - 21 EB в зависимости от сценария ]
Рост от текущего потребления HBM [ 3-7x ]
HBM делается из DRAM / если брать рост потребелния от DRAM [ 25% - 50% ]
2025г. Общее кол-во проданной HBM памяти - 3,3 EB
2024г. Общее кол-во проданной HBM памяти - 1,5 EB
2022г. Общее кол-во проданной DRAM памяти ~ 26 EB
2025г. Общее кол-во проданной DRAM памяти ~ 44 EB
G1 . GPU HBM
Моделирование спроса на GB + Выручки производителей памяти от HBM
Модель для расчета [ ТАБЛИЦА ]
Допущения:
Цена текущая - 10$ /GB [ CAGR снижения 10% ]
2026 Г. - средние значения для per GPU - 288 GB
Рост требования GB / per GPU [ CAGR 25% ]
Негативный / Нейтральный / Позитивный сценарий по кол-ву произвдеенных чипов : [ 10 / 15 / 25 % CAGR ]
Итоговые выводы:
Негативный к 2030г. [ 11,1 EB / 75B$ выручка ]
Нейтральный к 2030 г. [ 13,8 EB./ 92B$ выручка ]
Позитивный к 2030 г. [ 21 EB / 140B$ выручка ]
Необходимо [ 11 - 21 EB в зависимости от сценария ]
Рост от текущего потребления HBM [ 3-7x ]
HBM делается из DRAM / если брать рост потребелния от DRAM [ 25% - 50% ]
2025г. Общее кол-во проданной HBM памяти - 3,3 EB
2024г. Общее кол-во проданной HBM памяти - 1,5 EB
2022г. Общее кол-во проданной DRAM памяти ~ 26 EB
2025г. Общее кол-во проданной DRAM памяти ~ 44 EB
❤1
MEMORY WALL - в AI / p.4
Тезис № 1 [ Эра ИИ Агентов ]
Эра ИИ Агентной экономики еще не наступила.
В будущем могут существовать миллиарды ИИ-агентов, которые будут действовать неделями, месяцами и годами от имени людей и компаний. Для этого им недостаточно большого контекстного окна или длинного KV-cache. Им нужен отдельный memory layer
Morgan Stanley [ 04.2026 ] - по мере того, как развивает ИИ Агенты - автономные действия, вычислительный bottleneck смещается в сторону CPU и памяти.
Тезис № 2
Большинство компаний, связанных напрямую с пятью слоями ИИ
[ энергетика - чипы -дата-центры - LLM модели - приложения для ИИ ] торгуются с P/E 30-150x
В отличии, от игроков в сфере памяти, которые торгуются на 10-20x
Тезис № 3
Пока не видно потолка остановки прогресса в мощностях с каждым новым поколением чипа.
Каждая архитекутра чипов потребляет в разы больше памяти [ 80 GB - 288 GB - 1TB ]
В отличии от телефонов, где не нужна была смена архитектуры HBM1 -HBM2- HBM3 - HBM4 -> HBF - так как там потолок памяти долгое время был на уровне 256-512 GB + память в телефоне работает намного легче в плане устройства - так как она переодически спит + обрабатывает запросы одного человека , а не под непрерывный поток матричных умножений с миллионов параллельных потоков- > 256–512 ГБ флеш + 8–16 ГБ LPDDR закрывают потребности мобильного OS и приложений уже 5+ лет, рост идёт линейно на ~10–15% в год.
В GPU Memory есть гонка по memory - которая еще не закончилась - соответственно масштабирование одного продукта пока не делается - постоянно разрабатывается следующая архитектура
Когда ИИ-чипы получают больше HBM, разработчики немедленно строят модели побольше, чтобы его заполнить, так что память всегда следующее узкое место.
Тезис № 4
В прошлом, циклы памяти были востребованы для ПК / Смартфонов / Дата-центров облачных - которые ограничивались человечески ресурусом [ кол-во людей, использующих ПК и Телефоны ]
Этот цикл - не ограничивается биологическими ограничениями, у каждого человека может быть не один смартфон, а 10 ИИ агентов по разным сферам. У компаний могут быть 1 млн ИИ сотрудников.
Парадокс Джевонса создаст еще большую потребность в ИИ вычислениях за счет того, что можно будет строить еще больше новых продуктов и закрывать еще больше потребностей.
Каждое предприятие, каждое потребительское приложение, каждый автономный автомобиль, каждый ИИ-агент, каждый ИИ-робот - потребитель памяти.
Тезис № 1 [ Эра ИИ Агентов ]
Эра ИИ Агентной экономики еще не наступила.
В будущем могут существовать миллиарды ИИ-агентов, которые будут действовать неделями, месяцами и годами от имени людей и компаний. Для этого им недостаточно большого контекстного окна или длинного KV-cache. Им нужен отдельный memory layer
Morgan Stanley [ 04.2026 ] - по мере того, как развивает ИИ Агенты - автономные действия, вычислительный bottleneck смещается в сторону CPU и памяти.
Тезис № 2
Большинство компаний, связанных напрямую с пятью слоями ИИ
[ энергетика - чипы -дата-центры - LLM модели - приложения для ИИ ] торгуются с P/E 30-150x
В отличии, от игроков в сфере памяти, которые торгуются на 10-20x
Тезис № 3
Пока не видно потолка остановки прогресса в мощностях с каждым новым поколением чипа.
Каждая архитекутра чипов потребляет в разы больше памяти [ 80 GB - 288 GB - 1TB ]
В отличии от телефонов, где не нужна была смена архитектуры HBM1 -HBM2- HBM3 - HBM4 -> HBF - так как там потолок памяти долгое время был на уровне 256-512 GB + память в телефоне работает намного легче в плане устройства - так как она переодически спит + обрабатывает запросы одного человека , а не под непрерывный поток матричных умножений с миллионов параллельных потоков- > 256–512 ГБ флеш + 8–16 ГБ LPDDR закрывают потребности мобильного OS и приложений уже 5+ лет, рост идёт линейно на ~10–15% в год.
В GPU Memory есть гонка по memory - которая еще не закончилась - соответственно масштабирование одного продукта пока не делается - постоянно разрабатывается следующая архитектура
Когда ИИ-чипы получают больше HBM, разработчики немедленно строят модели побольше, чтобы его заполнить, так что память всегда следующее узкое место.
Тезис № 4
В прошлом, циклы памяти были востребованы для ПК / Смартфонов / Дата-центров облачных - которые ограничивались человечески ресурусом [ кол-во людей, использующих ПК и Телефоны ]
Этот цикл - не ограничивается биологическими ограничениями, у каждого человека может быть не один смартфон, а 10 ИИ агентов по разным сферам. У компаний могут быть 1 млн ИИ сотрудников.
Парадокс Джевонса создаст еще большую потребность в ИИ вычислениях за счет того, что можно будет строить еще больше новых продуктов и закрывать еще больше потребностей.
Каждое предприятие, каждое потребительское приложение, каждый автономный автомобиль, каждый ИИ-агент, каждый ИИ-робот - потребитель памяти.
❤4🔥1
MEMORY WALL - в AI / p.5
Тезис № 5
Рост кол-ва параметров моделей
Gemini ~ 10T / Opus 4.7 ~ 5T / GPT 5.1 PRO ~ 10T [ рост 5-10х с 2025 г. ]
Маск планирует Grok5 до 20T параметров в 2026г.
Тезис № 6
Техническое усложнение продукта.
Относительный capex/бит для HBM -4x.
Для LPDDR5 1.6x / NAND 1.5x -
Самое главное отличие этого цикла- поставщики памяти делали весь стек целиком in-house - отсутствовали TSMC.
Тезис № 7
Переход от генерации текста к генерации видео (AI-видео, замещающее YouTube) потребует роста пропускной способности и объёма памяти примерно в 1000 раз.
Тезис № 8
Память используется очень во многих функциях дата-центров, оптимизации подобные Google TurboQuant - происходят не во всех направлениях сразу, а часто в единичных.
Недостаточно минорной оптимизации как в Turbo Quant - одной ветки вычислений - нужно полностью все стадии вычисления на ПОРЯДКИ
Groq / Cerebras - делают все свои альтернативы вместе с HBM - разделяя разные функции на разные типы памяти.
Тезис № 9
Высокий спрос на ИИ сектор будет вызывать рост цен на другие сектора: робототехника / машины / смартфоны / ПК
Тезис № 5
Рост кол-ва параметров моделей
Gemini ~ 10T / Opus 4.7 ~ 5T / GPT 5.1 PRO ~ 10T [ рост 5-10х с 2025 г. ]
Маск планирует Grok5 до 20T параметров в 2026г.
Тезис № 6
Техническое усложнение продукта.
Относительный capex/бит для HBM -4x.
Для LPDDR5 1.6x / NAND 1.5x -
Самое главное отличие этого цикла- поставщики памяти делали весь стек целиком in-house - отсутствовали TSMC.
Тезис № 7
Переход от генерации текста к генерации видео (AI-видео, замещающее YouTube) потребует роста пропускной способности и объёма памяти примерно в 1000 раз.
Тезис № 8
Память используется очень во многих функциях дата-центров, оптимизации подобные Google TurboQuant - происходят не во всех направлениях сразу, а часто в единичных.
Недостаточно минорной оптимизации как в Turbo Quant - одной ветки вычислений - нужно полностью все стадии вычисления на ПОРЯДКИ
Groq / Cerebras - делают все свои альтернативы вместе с HBM - разделяя разные функции на разные типы памяти.
Тезис № 9
Высокий спрос на ИИ сектор будет вызывать рост цен на другие сектора: робототехника / машины / смартфоны / ПК
❤2🔥2
MEMORY WALL - в AI / p.6
Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости
( 2000 -3000$ )
Больше других типов памяти внутри самого чипа не ставят.
Остальные уровни памяти, о которых говорил в постах выше - ставят уже в кластерах GPU.
Все дата-центры работают на кластерах, а не на одиночных чипах.
Все крупные клиенты NVIDIA закупают кластеры.
Себестоимость, кластера из 72 чипов на примере NVIDIA GB200 NVL72:
3 200 000$
из которых > 15% уходит на G1-G4 память, при это сам GPU Silicon чип ( без HBM ) составляет ~ 10% BoM
Если рассматривать, VR200 NVL72 - то там общий BoM потенциально будет доходить ~5 000 000$
и при этом добавляется новый уровень памяти + увеличивается емкость прошлых уровней в разы - > BoM на память увеличивается >20%
[ Более детальные расчеты ]
Если брать, каждый уровень памяти - то с каждым новым поколением чипа - объем этой памяти увеличивается на 50% -200%+
G1 [ HBM ]
H100 -> B200 -> R200
1x- > 2.5x -> 4x
G2 [ Host-Dram ]
GB200 NVL72 - > VR200 NVL72
1x - > 3x
G3 [ Local NVMe/SSD ]
GB200 - > R200
1x > 5x
G3.5 [ Inference Context Memory Storage ]
новый вид памяти, не было в прошлых поколениях
G4. Networked external storage
H100 - > GB200 NVL72
1x - > 2x
Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости
( 2000 -3000$ )
Больше других типов памяти внутри самого чипа не ставят.
Остальные уровни памяти, о которых говорил в постах выше - ставят уже в кластерах GPU.
Все дата-центры работают на кластерах, а не на одиночных чипах.
Все крупные клиенты NVIDIA закупают кластеры.
Себестоимость, кластера из 72 чипов на примере NVIDIA GB200 NVL72:
3 200 000$
из которых > 15% уходит на G1-G4 память, при это сам GPU Silicon чип ( без HBM ) составляет ~ 10% BoM
Если рассматривать, VR200 NVL72 - то там общий BoM потенциально будет доходить ~5 000 000$
и при этом добавляется новый уровень памяти + увеличивается емкость прошлых уровней в разы - > BoM на память увеличивается >20%
[ Более детальные расчеты ]
Если брать, каждый уровень памяти - то с каждым новым поколением чипа - объем этой памяти увеличивается на 50% -200%+
G1 [ HBM ]
H100 -> B200 -> R200
1x- > 2.5x -> 4x
G2 [ Host-Dram ]
GB200 NVL72 - > VR200 NVL72
1x - > 3x
G3 [ Local NVMe/SSD ]
GB200 - > R200
1x > 5x
G3.5 [ Inference Context Memory Storage ]
новый вид памяти, не было в прошлых поколениях
G4. Networked external storage
H100 - > GB200 NVL72
1x - > 2x
❤3🔥3
HYPURR NFT
Тезисы:
-HYPE вырос / нфт нет [ Dune ]
-Спекуляции о новом сезоне фарма
-Вся команда в аватарках + инфлюенсеры - > при росте HYPE внимание может попасть и на NFT
-текущий mcap HYPURR - 70m$
при раздаче 0.1% SUPPLY - 42m$ / окуп 60% + остается NFT
при раздаче 0.2% supply - профит 20% + остается NFT
Затраты ~ 15 500$
Тезисы:
-HYPE вырос / нфт нет [ Dune ]
-Спекуляции о новом сезоне фарма
-Вся команда в аватарках + инфлюенсеры - > при росте HYPE внимание может попасть и на NFT
-текущий mcap HYPURR - 70m$
при раздаче 0.1% SUPPLY - 42m$ / окуп 60% + остается NFT
при раздаче 0.2% supply - профит 20% + остается NFT
Затраты ~ 15 500$
👍5
Взял $TON на плечо, помимо спот позиции
Тезисы:
-Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation
-За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again
Ожидаю в течении месяца остальные шаги.
-Потенциально, один из шагов дополнительные байбеки от Telegram от части Revenue
Ранее, buy pressure шел только от юзеров, покупающих услуги в Telegram через Fragment
Тезисы:
-Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation
-За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again
Ожидаю в течении месяца остальные шаги.
-Потенциально, один из шагов дополнительные байбеки от Telegram от части Revenue
Ранее, buy pressure шел только от юзеров, покупающих услуги в Telegram через Fragment
❤6😁2
risen.eth
Взял $TON на плечо, помимо спот позиции Тезисы: -Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation -За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again Ожидаю в течении месяца остальные шаги.…
Закрыл позицию на фьючах / спот оставил
PNL: +12 000$
Возможно, перезайду с большим плечом, если дадут просадку на рынке / либо на монете
PNL: +12 000$
Возможно, перезайду с большим плечом, если дадут просадку на рынке / либо на монете
❤9
risen.eth
MEMORY WALL - в AI / p.6 Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости ( 2000 -3000$ ) Больше других типов памяти…
Вложения:
SANDISK - 15 000$
SK Hynix - 20 000$
Samsung - 25 000$
Основные метрики для мониторинга:
1) Динамика роста кол-ва чипов в мире [ 1 ]
2) Динамика увеличения требования к памяти по новым поколениям чипов [ 1 ]
Разделение по игрокам:
Ставка больше на NAND рост в ближайшие годы из-за добавление нового уровня G3.5 + потенциальная разработка HBF -> которая по прогнозам профессора-основателя HBM полностью сместит HBM после 2035г.
Ставка на SAMSUNG как потенциального будущего лидера в сфере технологической эффективности типов памяти.
Были провалы в 2023-2024г., связанные с квалификацией.
Последние кварталы успехи больше у SAMSUNG чем у SK Hynix.
SANDISK - 15 000$
SK Hynix - 20 000$
Samsung - 25 000$
Основные метрики для мониторинга:
1) Динамика роста кол-ва чипов в мире [ 1 ]
2) Динамика увеличения требования к памяти по новым поколениям чипов [ 1 ]
Разделение по игрокам:
Ставка больше на NAND рост в ближайшие годы из-за добавление нового уровня G3.5 + потенциальная разработка HBF -> которая по прогнозам профессора-основателя HBM полностью сместит HBM после 2035г.
Ставка на SAMSUNG как потенциального будущего лидера в сфере технологической эффективности типов памяти.
Были провалы в 2023-2024г., связанные с квалификацией.
Последние кварталы успехи больше у SAMSUNG чем у SK Hynix.
🔥5