Circle собрали $222М в пресейл своего блокчейна Arc при оценке в $3B
Вложился Blackrock, Apollo
https://x.com/zoomerfied/status/2053783763490922706?s=46&t=0kEtp7M29ov5IRUYfIeIlQ
Вложился Blackrock, Apollo
https://x.com/zoomerfied/status/2053783763490922706?s=46&t=0kEtp7M29ov5IRUYfIeIlQ
X (formerly Twitter)
zoomer (@zoomerfied) on X
[ ZOOMER ]
CIRCLE RAISES $222 MILLION FROM BLACKROCK, APOLLO AND OTHERS IN ARC TOKEN PRESALE VALUED AT $3 BILLION: CNBC
CIRCLE RAISES $222 MILLION FROM BLACKROCK, APOLLO AND OTHERS IN ARC TOKEN PRESALE VALUED AT $3 BILLION: CNBC
Forwarded from Крипто Интеллигенция
Память выходит из тени GPU
"Память - циклическая штука, все это знают, а недавний рост акций производителей памяти - очевидный пузырь."
Это удобный, рефлекторный взгляд. Но те, кто его придерживается, упускают элементарный масштаб того, что ИИ делает со спросом на память.
Первый намёк появился в январе этого года - стало известно, что новая платформа NVDA Rubin потребует 16 TB NAND на каждый GPU, или 1152 TB на стойку, а необходимая пропускная способность HBM окажется на 70% выше, чем сообщалось ранее.
Тогда сторонним наблюдателям впервые стало очевидно: память придётся масштабировать экспоненциально, просто чтобы успевать за уже известным спросом на GPU.
Один недооценённый факт: пока вычислительная мощность GPU масштабировалась по закону Мура (удвоение примерно каждые 2 года), плотность и скорость памяти - нет. По мере роста мощности GPU существующим производителям памяти придётся выпускать экспоненциально больше чипов.
И эти чипы должны быть быстрее, чем когда-либо. Это колоссальный технический вызов: как производителям найти прирост скорости, который ускользал от них десятилетиями?
Когда складываешь техническую сложность с экспоненциально растущим спросом, память начинает выглядеть уже не как коммодити, а как высокомаржинальный проприетарный чип.
И это мы ещё не затронули роль памяти в инференсе (вычисления для инференса тоже растут экспоненциально и сильно зависят от памяти), длинный контекст и прочее.
Агентский ИИ требует, чтобы агенты затягивали огромные объёмы данных в свой контекст. Это увеличивает количество токенов на "ход" и объём памяти, нужный для их работы. Настоящие агентские системы потребуют и значительно большего контекста, и большего числа "ходов" - агент дорабатывает результат снова и снова, пока тот не достигнет целевого качества.
Длиннее контекст = больше памяти на одну задачу. Больше "ходов" = больше задач на один итоговый результат.
Конкретная цифра: старший вице-президент Micron Джереми Вернер недавно сказал на The Circuit, что из-за агентского ИИ длина контекста растёт в 30 раз в год.
Майкл Делл сформулировал проблему предельно просто: у H100 было 80 GB HBM. К 2028 году ускорители могут нести около 2 TB. Это в 25 раз больше памяти на ускоритель. За тот же период он ожидает примерно в 25 раз больше развёрнутых ускорителей.
25 x 25 = в 625 раз больший спрос на память ускорителей к 2028 году.
Все знают, что акции производителей памяти цикличны и всегда выглядят дешёвыми ровно перед тем, как лопнет пузырь. Но что, если на рынке памяти происходят структурные изменения, которые могут опровергнуть консенсус?
Кто-нибудь помнит ещё одну традиционно циклическую компанию, которая переоценилась как история роста благодаря спросу со стороны ИИ? Подсказка: сейчас это самая дорогая компания в мире.
Это не рекомендация покупать или продавать какие-либо ценные бумаги. Это рамка для размышлений о том, как строительство ИИ-инфраструктуры может менять рынок памяти.
https://x.com/AlexCorrino/status/2053610835793400216
"Память - циклическая штука, все это знают, а недавний рост акций производителей памяти - очевидный пузырь."
Это удобный, рефлекторный взгляд. Но те, кто его придерживается, упускают элементарный масштаб того, что ИИ делает со спросом на память.
Первый намёк появился в январе этого года - стало известно, что новая платформа NVDA Rubin потребует 16 TB NAND на каждый GPU, или 1152 TB на стойку, а необходимая пропускная способность HBM окажется на 70% выше, чем сообщалось ранее.
Тогда сторонним наблюдателям впервые стало очевидно: память придётся масштабировать экспоненциально, просто чтобы успевать за уже известным спросом на GPU.
Один недооценённый факт: пока вычислительная мощность GPU масштабировалась по закону Мура (удвоение примерно каждые 2 года), плотность и скорость памяти - нет. По мере роста мощности GPU существующим производителям памяти придётся выпускать экспоненциально больше чипов.
И эти чипы должны быть быстрее, чем когда-либо. Это колоссальный технический вызов: как производителям найти прирост скорости, который ускользал от них десятилетиями?
Когда складываешь техническую сложность с экспоненциально растущим спросом, память начинает выглядеть уже не как коммодити, а как высокомаржинальный проприетарный чип.
И это мы ещё не затронули роль памяти в инференсе (вычисления для инференса тоже растут экспоненциально и сильно зависят от памяти), длинный контекст и прочее.
Агентский ИИ требует, чтобы агенты затягивали огромные объёмы данных в свой контекст. Это увеличивает количество токенов на "ход" и объём памяти, нужный для их работы. Настоящие агентские системы потребуют и значительно большего контекста, и большего числа "ходов" - агент дорабатывает результат снова и снова, пока тот не достигнет целевого качества.
Длиннее контекст = больше памяти на одну задачу. Больше "ходов" = больше задач на один итоговый результат.
Конкретная цифра: старший вице-президент Micron Джереми Вернер недавно сказал на The Circuit, что из-за агентского ИИ длина контекста растёт в 30 раз в год.
Майкл Делл сформулировал проблему предельно просто: у H100 было 80 GB HBM. К 2028 году ускорители могут нести около 2 TB. Это в 25 раз больше памяти на ускоритель. За тот же период он ожидает примерно в 25 раз больше развёрнутых ускорителей.
25 x 25 = в 625 раз больший спрос на память ускорителей к 2028 году.
Все знают, что акции производителей памяти цикличны и всегда выглядят дешёвыми ровно перед тем, как лопнет пузырь. Но что, если на рынке памяти происходят структурные изменения, которые могут опровергнуть консенсус?
Кто-нибудь помнит ещё одну традиционно циклическую компанию, которая переоценилась как история роста благодаря спросу со стороны ИИ? Подсказка: сейчас это самая дорогая компания в мире.
Это не рекомендация покупать или продавать какие-либо ценные бумаги. Это рамка для размышлений о том, как строительство ИИ-инфраструктуры может менять рынок памяти.
https://x.com/AlexCorrino/status/2053610835793400216
X (formerly Twitter)
Alex Corrino (@AlexCorrino) on X
"Memory is cyclical, everyone knows that, and the recent run up in memory names is an obvious bubble."
That's the easy, reflexive view. But I think the people who hold it are missing the simple scale of what AI is doing to memory demand.
The first clue…
That's the easy, reflexive view. But I think the people who hold it are missing the simple scale of what AI is doing to memory demand.
The first clue…
Claude помогла подобрать пароль к старому кошельку юзера с балансом в 5 BTC из 2015 года
По словам счастливчика - он перебрал все возможные пароли и по совету - загрузил содержимое студенческого компьютера в Claude и подобрал пароль к кошельку, получившему 5 BTC в 2015 году.
Баланс благополучно был переведен на новый кошелек
https://x.com/cprkrn/status/2054586810475364536
По словам счастливчика - он перебрал все возможные пароли и по совету - загрузил содержимое студенческого компьютера в Claude и подобрал пароль к кошельку, получившему 5 BTC в 2015 году.
Баланс благополучно был переведен на новый кошелек
https://x.com/cprkrn/status/2054586810475364536
Сегодня состоится одно из крупнейших IPO - Cerebras. Компания по производству чипов для обработки запросов LLM выходит на публичный рынок по цене 185$ и оценке в $55B
Торги на Hyperliquid начинались с 178$ (но не было ликвидности), достигали пика в 323$.
Текущая цена - 291$ на 57% выше цены по которой акции будут распределены участникам IPO.
В твиттере проект уже величают второй NVIDIA, которую можно купить за 1/95 от стоимости самой дорогой компании в мире.
Cerebras пошел по пути специализации и сделали чип, который на 1 пластине вмещает большее количество SRAM - памяти, благодаря чему этот чип может до 10х быстрее обрабатывать запросы на инференс публичных моделей. 1 чип вмещает до 44 GB SRAM памяти, что с одной стороны делает его более привлекательным, т к не тратится время на Input / Output на внешние чипы HBM памяти, но с другой стороны большие LLM уже не помещаются в памяти этого чипа, а скейлинг сейчас является крупнейшей проблемой.
OpenAI заключил договор на постройку мощности на 750MW на чипах Cerebras и планируют вложить до $20B за 3 года.
Проект выходит на большом хайпе и на Hyperliquid Трейдеры разделились во мнении, справедлива ли текущая +57% премия по отношению к цене продажи акций на IPO.
Крупнейшие шорт позиции (Размер, цена входа, цена ликвидации):
Loracle (трейлер с +$43М PNL) $2M / 298.72 / 973
$1.36M / 282.99 / 361
$1.12M / 249.57 / 388.13
$987.87K / 281.06 / 341.8
Крупнейшие лонг позиции (Размер, цена входа, цена ликвидации):
$1.91M / 297.27 / 163.97
$807K / 297.31 / 164.31
$534.59K / 308.83 / 266.58
Общий объем открытого интереса - $27.9M
Открытие торгов через 2.5 часа.
Крупные кластеры для ликвидации лонгов - по 266-250$
Понаблюдаем за самым хайповым IPO последних 3 лет. (Компания собрала $5.5B)
https://hyperdash.com/?chart1=xyz:CBRS
Торги на Hyperliquid начинались с 178$ (но не было ликвидности), достигали пика в 323$.
Текущая цена - 291$ на 57% выше цены по которой акции будут распределены участникам IPO.
В твиттере проект уже величают второй NVIDIA, которую можно купить за 1/95 от стоимости самой дорогой компании в мире.
Cerebras пошел по пути специализации и сделали чип, который на 1 пластине вмещает большее количество SRAM - памяти, благодаря чему этот чип может до 10х быстрее обрабатывать запросы на инференс публичных моделей. 1 чип вмещает до 44 GB SRAM памяти, что с одной стороны делает его более привлекательным, т к не тратится время на Input / Output на внешние чипы HBM памяти, но с другой стороны большие LLM уже не помещаются в памяти этого чипа, а скейлинг сейчас является крупнейшей проблемой.
OpenAI заключил договор на постройку мощности на 750MW на чипах Cerebras и планируют вложить до $20B за 3 года.
Проект выходит на большом хайпе и на Hyperliquid Трейдеры разделились во мнении, справедлива ли текущая +57% премия по отношению к цене продажи акций на IPO.
Крупнейшие шорт позиции (Размер, цена входа, цена ликвидации):
Loracle (трейлер с +$43М PNL) $2M / 298.72 / 973
$1.36M / 282.99 / 361
$1.12M / 249.57 / 388.13
$987.87K / 281.06 / 341.8
Крупнейшие лонг позиции (Размер, цена входа, цена ликвидации):
$1.91M / 297.27 / 163.97
$807K / 297.31 / 164.31
$534.59K / 308.83 / 266.58
Общий объем открытого интереса - $27.9M
Открытие торгов через 2.5 часа.
Крупные кластеры для ликвидации лонгов - по 266-250$
Понаблюдаем за самым хайповым IPO последних 3 лет. (Компания собрала $5.5B)
https://hyperdash.com/?chart1=xyz:CBRS
Coinbase купил USDH деплойера на Hyperliquid
Выглядит как подготовка к разводу Coinbase и Circle
https://x.com/zoomerfied/status/2054895066942931321?s=46&t=0kEtp7M29ov5IRUYfIeIlQ
Выглядит как подготовка к разводу Coinbase и Circle
https://x.com/zoomerfied/status/2054895066942931321?s=46&t=0kEtp7M29ov5IRUYfIeIlQ
X (formerly Twitter)
zoomer (@zoomerfied) on X
[ ZOOMER ]
COINBASE ACQUIRES HYPERLIQUID'S USDH DEPLOYER, NATIVE MARKETS, TO SWITCH ALL USDH INTO USDC: BLOG
COINBASE ACQUIRES HYPERLIQUID'S USDH DEPLOYER, NATIVE MARKETS, TO SWITCH ALL USDH INTO USDC: BLOG
Hyperliquid в результате сделки с Coinbase по стейблу USDH - получит дополнительно 25% выручки до $160М в год (90% от дохода с yield reserve от $4.7B)
Loracle спешит закрывать свой 1.24M шорт по Hype
https://x.com/mlmabc/status/2054913225867555048
Loracle спешит закрывать свой 1.24M шорт по Hype
https://x.com/mlmabc/status/2054913225867555048
X (formerly Twitter)
MLM (@mlmabc) on X
HYPE is up 4% on a 25% revenue increase.