DEFI Scam Check
49.7K subscribers
2.55K photos
20 videos
2 files
2.9K links
DeFi новинки и Альфа каждый день.

Ru-channel for deep researches of the fresh defi projects.
DM по обучению: @paulcr2009
@Alexey_CR
Download Telegram
Сегодня много крипто-трейдеров узнали силу длинного хвоста проигрыша "верной ставки"

на скринах -$1.8M и -$2M на ставке на бойца UFC
Память выходит из тени GPU

"Память - циклическая штука, все это знают, а недавний рост акций производителей памяти - очевидный пузырь."

Это удобный, рефлекторный взгляд. Но те, кто его придерживается, упускают элементарный масштаб того, что ИИ делает со спросом на память.

Первый намёк появился в январе этого года - стало известно, что новая платформа NVDA Rubin потребует 16 TB NAND на каждый GPU, или 1152 TB на стойку, а необходимая пропускная способность HBM окажется на 70% выше, чем сообщалось ранее.

Тогда сторонним наблюдателям впервые стало очевидно: память придётся масштабировать экспоненциально, просто чтобы успевать за уже известным спросом на GPU.

Один недооценённый факт: пока вычислительная мощность GPU масштабировалась по закону Мура (удвоение примерно каждые 2 года), плотность и скорость памяти - нет. По мере роста мощности GPU существующим производителям памяти придётся выпускать экспоненциально больше чипов.

И эти чипы должны быть быстрее, чем когда-либо. Это колоссальный технический вызов: как производителям найти прирост скорости, который ускользал от них десятилетиями?

Когда складываешь техническую сложность с экспоненциально растущим спросом, память начинает выглядеть уже не как коммодити, а как высокомаржинальный проприетарный чип.

И это мы ещё не затронули роль памяти в инференсе (вычисления для инференса тоже растут экспоненциально и сильно зависят от памяти), длинный контекст и прочее.

Агентский ИИ требует, чтобы агенты затягивали огромные объёмы данных в свой контекст. Это увеличивает количество токенов на "ход" и объём памяти, нужный для их работы. Настоящие агентские системы потребуют и значительно большего контекста, и большего числа "ходов" - агент дорабатывает результат снова и снова, пока тот не достигнет целевого качества.

Длиннее контекст = больше памяти на одну задачу. Больше "ходов" = больше задач на один итоговый результат.

Конкретная цифра: старший вице-президент Micron Джереми Вернер недавно сказал на The Circuit, что из-за агентского ИИ длина контекста растёт в 30 раз в год.

Майкл Делл сформулировал проблему предельно просто: у H100 было 80 GB HBM. К 2028 году ускорители могут нести около 2 TB. Это в 25 раз больше памяти на ускоритель. За тот же период он ожидает примерно в 25 раз больше развёрнутых ускорителей.

25 x 25 = в 625 раз больший спрос на память ускорителей к 2028 году.

Все знают, что акции производителей памяти цикличны и всегда выглядят дешёвыми ровно перед тем, как лопнет пузырь. Но что, если на рынке памяти происходят структурные изменения, которые могут опровергнуть консенсус?

Кто-нибудь помнит ещё одну традиционно циклическую компанию, которая переоценилась как история роста благодаря спросу со стороны ИИ? Подсказка: сейчас это самая дорогая компания в мире.

Это не рекомендация покупать или продавать какие-либо ценные бумаги. Это рамка для размышлений о том, как строительство ИИ-инфраструктуры может менять рынок памяти.

https://x.com/AlexCorrino/status/2053610835793400216
Claude помогла подобрать пароль к старому кошельку юзера с балансом в 5 BTC из 2015 года

По словам счастливчика - он перебрал все возможные пароли и по совету - загрузил содержимое студенческого компьютера в Claude и подобрал пароль к кошельку, получившему 5 BTC в 2015 году.

Баланс благополучно был переведен на новый кошелек

https://x.com/cprkrn/status/2054586810475364536
Сегодня состоится одно из крупнейших IPO - Cerebras. Компания по производству чипов для обработки запросов LLM выходит на публичный рынок по цене 185$ и оценке в $55B

Торги на Hyperliquid начинались с 178$ (но не было ликвидности), достигали пика в 323$.

Текущая цена - 291$ на 57% выше цены по которой акции будут распределены участникам IPO.

В твиттере проект уже величают второй NVIDIA, которую можно купить за 1/95 от стоимости самой дорогой компании в мире.

Cerebras пошел по пути специализации и сделали чип, который на 1 пластине вмещает большее количество SRAM - памяти, благодаря чему этот чип может до 10х быстрее обрабатывать запросы на инференс публичных моделей. 1 чип вмещает до 44 GB SRAM памяти, что с одной стороны делает его более привлекательным, т к не тратится время на Input / Output на внешние чипы HBM памяти, но с другой стороны большие LLM уже не помещаются в памяти этого чипа, а скейлинг сейчас является крупнейшей проблемой.

OpenAI заключил договор на постройку мощности на 750MW на чипах Cerebras и планируют вложить до $20B за 3 года.

Проект выходит на большом хайпе и на Hyperliquid Трейдеры разделились во мнении, справедлива ли текущая +57% премия по отношению к цене продажи акций на IPO.

Крупнейшие шорт позиции (Размер, цена входа, цена ликвидации):


Loracle (трейлер с +$43М PNL) $2M / 298.72 / 973
$1.36M / 282.99 / 361
$1.12M / 249.57 / 388.13
$987.87K / 281.06 / 341.8

Крупнейшие лонг позиции (Размер, цена входа, цена ликвидации):

$1.91M / 297.27 / 163.97
$807K / 297.31 / 164.31
$534.59K / 308.83 / 266.58

Общий объем открытого интереса - $27.9M

Открытие торгов через 2.5 часа.

Крупные кластеры для ликвидации лонгов - по 266-250$

Понаблюдаем за самым хайповым IPO последних 3 лет. (Компания собрала $5.5B)

https://hyperdash.com/?chart1=xyz:CBRS
Hyperliquid в результате сделки с Coinbase по стейблу USDH - получит дополнительно 25% выручки до $160М в год (90% от дохода с yield reserve от $4.7B)

Loracle спешит закрывать свой 1.24M шорт по Hype

https://x.com/mlmabc/status/2054913225867555048
Cerebras открылся по $363 на дебюте Nasdaq при IPO $185
Loracle (топ hyperliquid трейдер, экс PNL $43M) не унимается с шортом Cerebras

позиция уже $10М / выход по 326$

Интересно, он смотрел ли какой буллран был по акции Circle / когда она вышла 3х от цены IPO и улетела еще в 4х следом?