Botlicker
277 subscribers
260 photos
178 videos
3 files
182 links
Тут любят иишки
Download Telegram
Оракл это Леман Бразерс. Часть первая (обещанный лонгридик о скором коллапсе ИИ-пузыря)

Хочешь что-то понимать — разберись в этом сам. И я действительно довольно глубоко погрузился в тему ИИ-пузыря, чтобы точно понимать, когда он МОЖЕТ начать лопаться и что с собой нам это принесет. Тут, на самом деле, драма не хуже «Волка с Уолл-стрит». Или того фильма про кризис 2008 года (извините, не помню названия).

Нет, скорее всего, никакого коллапса не произойдет на следующей неделе/этой весной. Но он ОБЯЗАН свершиться в течение 12-18 месяцев. Только потому, что у Оракл есть деньги ровно на этот промежуток времени. Последние доверенные им денюжки. Если и когда американский серверный гигант не начнет отбивать их, запустится цепная реакция не только по всей отрасли, но по всей экономике. Глобальной экономике (привет, новый мировой кризис).

Что позволит Ораклу отбивать деньги? Новый ChatGPT-3-момент от ОпенАИ. Буквально: весь рынок ИИ зависит от того, сможет ли Сэм Альтман релизнуть нечто куда более лучшее, чем довольно посредственная по сравнению с конкурентами линейка ChatGPT-5.

Такая мрачная картина логически непротиворечиво, как день, выводится из текущего положения дел. Следите за руками. Сейчас всё напряжение на рынке ИИ сходится в одном месте — на проекте Stargate, ключевыми акторами которого являются крупнейший технологический инвестбанк планеты Softbank, серверный гигант Oracle, непосредственный инициатор OpenAI и поставщик чипов Nvidia. Помните, этот проект с помпой был анонсирован самим Дональдом Трампом год назад, с оценкой в пол-триллиона долларов? Ну так вот.

(продолжение ниже)
(продолжение)

Прошёл всего лишь год, и проект не просто туго идёт, а в принципе претерпевает экзистенциальные проблемы. Загибайте пальцы:

1. В конце января сорвалась сделка о покупке Софтбанком американского оператора дата-центров Switch Inc. за ~$50 млрд. Без Switch у Stargate нет «физического тела». Строить с нуля — это годы согласований. Покупка готового игрока была единственным способом успеть к дедлайнам 2028 года. Сейчас проект в подвешенном состоянии без главного исполнителя стройки.

2. У Oracle начался кассовый разрыв, при чем какой — чтобы закупить миллионы чипов Nvidia и построить серверы, нужны сотни миллиардов долларов прямо сейчас. По данным на начало февраля 2026 года, американские банки начали отказывать Oracle в кредитовании под эти стройки, считая риски слишком высокими. Из-за этого Oracle вынуждена идти на крайние меры: компания планирует уволить до 30 000 сотрудников (самое массовое сокращение в ее истории), чтобы высвободить ~$10 млрд кэша для стройки.

3. Опять Oracle. Позавчера ребята объявили план привлечь $45-50 млрд. Из них около $20-25 млрд через допэмиссию своих акций.

4. И снова Oracle, продолжение п. 3. Аккурат под анонс допэмисии группа держателей облигаций подала коллективный иск против Oracle. Суть претензии: компания якобы скрыла реальный масштаб необходимых заимствований. Инвесторы утверждают, что Oracle заняла $18 млрд в конце 2025 года, уверяя, что этого хватит. А уже через несколько недель компания внезапно объявила, что ей нужно еще $50 млрд в 2026 году. Инвесторы чувствуют себя обманутыми, так как стоимость их облигаций рухнула из-за резко возросших рисков дефолта.

5. Ну и, «горит сарай — гори и хата»: пока Сэм Альтман и Дженсен Хуанг изображают дружбу в соцсетях, их сентябрьская «сделка века» на 100 миллиардов долларов рассыпается о суровую реальность. На ужине в Тайбэе Хуанг прямо заявил, что твердых обязательств по инвестициям не давал, а в кулуарах и вовсе отчитывает партнеров за отсутствие бизнес-дисциплины. Фундаментальный разлад коснулся и железа: Nvidia по инерции штампует дорогие чипы с HBM-памятью для обучения, тогда как OpenAI задыхается на инференсе и требует архитектуру с SRAM, чтобы обслуживать миллиарды запросов ChatGPT без космических затрат, на которые их обрекает монополист.

Попытка Альтмана диверсифицировать поставщиков закончилась показательной поркой. Когда OpenAI попыталась договориться о закупках у конкурента Groq, Nvidia, по данным инсайдеров, жестко вмешалась в процесс — предположительно через эксклюзивное лицензирование или переманивание инженеров — и фактически заблокировала доступ к альтернативному железу.

В OpenAI это восприняли как откровенный саботаж с целью насильно удержать их на «игле» своих технологий, превратив партнерство в токсичный брак, где один супруг ищет выход, а второй заколачивает двери.
В ответ OpenAI 14 января, взяли и подписали контракт с Cerebras. Альтман закупает у Cerebras колоссальные 750 мегаватт вычислительных мощностей. Вместо стандартных GPU, которые слишком медлительны для мгновенной генерации ответов, теперь в бой вступают гигантские чипы Wafer-Scale Engine, обещающие ускорение работы ChatGPT в 10–20 раз за счет встроенной памяти. Как тебе такое, Дженсен Хуанг?

Надо ли говорить, что такие бизнес-отношения в рамках одного проекта не то, чтобы содействуют позитивному финалу? По мне, так вообще, действия Альтмана выглядят как обычная выстелка запасной травки. Показательно.

6. А вишенкой на тортике совсем уж суровая, прозаичная, как твиты Лекуна, реальность. Stargate требует 5 гигаватт (ГВт) мощности на один кампус. Для сравнения: это мощность 5 стандартных атомных реакторов. Энергосеть США банально, — хоть ты расшибись о стенку, — не может выделить такую мощность в одной точке в ближайшие 3-5 лет. Атомные проекты задерживаются, а возобновляемая энергия нестабильна (какой сюрприз!).

(продолжение ниже)
(продолжение)

Напоминаю, Stargate — это тот самый актив, под который сейчас нарисованы триллионные капитализации всей этой «великолепной четвёрки». Это не просто дата-центр, это залоговое имущество под амбиции всей Кремниевой долины. И этот залог превращается в тыкву. Без готовой инфраструктуры Switch и с буксующей энергетикой, дедлайн запуска в 2028 году превращается в ненаучную фантастику.

Любой энергетик вам скажет: чтобы подвести 5 ГВт к новой точке на карте, нужно лет семь-десять проектирования, судов с экологами и прокладки ЛЭП. А ядерные реакторы, на которые так молится Альтман, не строятся по щелчку пальцев инвестора. Даже если форсировать всю бюрократию трамповскими методами и скостить пару лет, то, в лучшем случае Stargate все-равно заработает только году к 2030-му.

И вот здесь мы возвращаемся к Ораклу и его роли «нового Леман Бразерс». Математика коллапса проста до безобразия. Оракл набрал долгов и планирует допэмиссию с расчетом на кэшфлоу, который должен пойти до того, как кредиторы постучат в дверь с паяльником. Их бизнес-модель сейчас держится на честном слове и вере в то, что к 2028 году Stargate начнет молотить деньги. Сдвиг сроков запуска даже на год (а он уже неизбежен) создаёт кассовый разрыв такого масштаба, который не заткнуть никакими увольнениями. У Оракла просто не хватит ликвидности обслуживать гигантский долг, взятый под стройку, которая стоит.

Как только рынок осознает, что Stargate не запустится в срок:

1. Облигации Oracle превратятся в мусор. Те самые инвесторы, что уже подали иски, начнут панический сброс бумаг. Котировки полетят в ад, вызывая маржин-коллы у фондов, державших этот «надежный актив».

2. Softbank зафиксирует колоссальные убытки. Масаёси Сон, глава банка, как обычно, поставил всё на зеро. Крах Оракла утащит за собой баланс японского гиганта, вызывая цепную реакцию в Азии.

3. Nvidia потеряет бэклог. Если Оракл не сможет платить за стройку, Nvidia теряет крупнейшего заказчика. OpenAI остается без мощностей для обучения GPT-6. Пузырь сдувается с оглушительным свистом.

Альтман, конечно, попытается выкрутиться. Сделка с Cerebras — это отчаянная попытка пересесть с тонущего Титаника Oracle на шлюпку, пусть и дырявую. Но 750 мегаватт от Cerebras это капля в море по сравнению с 5 гигаваттами, необходимыми для настоящей революции. Это пластырь на открытый перелом.

Так что, друзья, можете отписываться от Нетфликса или что вы там смотрите по выходным. Ближайшие полтора года станут моментом истины. Либо Альтман достанет из шляпы кролика в виде радикально новой, сверхэффективной архитектуры, не требующей энергии пяти АЭС (во что верится с трудом), либо Oracle пойдет ко дну, утягивая за собой весь перегретый сектор ИИ.

В 2026-27 годах мы можем стать свидетелями реинкарнации 2008 года, но в новых, LLM-ных, декорациях.

Продолжение следует...
🤯4🔥1👀1
Sonnet 5 так и не вышел вчера, но... он выйдет в ближайшие пять часов. Vercel адово тизерят. Напоминаю, скорее всего это будет SOTA по большинству ключевых показателей.

И кстати, Антропик сегодня так же заявили, что в их продуктах не будет рекламы. Молодцы.
🔥3
Следующий лонгридик будет о том, почему Google и SpaceX (экс-xAI), не только выживут после трагедии OpenAI-Oracle, но и поделят глобальный рынок между собой.

Кстати, я подключил комментарии 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5🤝3
Botlicker pinned «Оракл это Леман Бразерс. Часть первая (обещанный лонгридик о скором коллапсе ИИ-пузыря) Хочешь что-то понимать — разберись в этом сам. И я действительно довольно глубоко погрузился в тему ИИ-пузыря, чтобы точно понимать, когда он МОЖЕТ начать лопаться и что…»
Перплексити окончательно оторвались от всех и стали лидером в бенчмарке Google DeepMind Deep Search QA. Так, что если вам нужен глубокий исследовательский поиск, в котором необходимо:

1) найти информацию в глубоких слоях веба (а не только в первой выдаче);

2) проверить факты (fact-checking);

3) синтезировать ответ из десятков источников, не потеряв контекст;

то только Перплексити, без вариантов. О, тут как-раз и повод в виде нескольких миллионов файлов одного любителя пиццы подоспел, чтобы проверить.
🔥3
Клод 5 Соннет таки стал доступен через API, но... на 5 минут. Версель свой твит о его релизе сегодня снесли. Антропик жесточайше троллят😣
Please open Telegram to view this post
VIEW IN TELEGRAM
Наткнулся на свежий и очень любопытный ресерч от Anthropic, который переворачивает привычные представления о том, как «думают» большие модели.
Мы привыкли считать: чем больше модель, тем она точнее и стабильнее. Оказывается, это работает только на простых задачах. Там большие LLM действительно становятся когерентными (согласованными).

Но стоит повысить сложность задачи — и начинается самое интересное. Чем умнее модель и чем сложнее запрос, тем выше вероятность, что при повторном запуске она выдаст вам совершенно другой ответ.
Представьте это как «конус траекторий». У большой модели просто больше вариантов того, куда можно свернуть. Она видит тысячи нюансов и путей решения. Если задача сложная, модель начинает «рассуждать» дольше, и каждый шаг ветвления мультипликативно увеличивает шанс уйти совсем в другую степь к финалу.

В 2023 году Яша Сол-Дикштейн (лол) из Google DeepMind выдвинул «Теорию полного бардака в интеллекте» (Hot Mess Theory of Intelligence). Суть: по мере того как сущности становятся умнее, их поведение становится менее согласованным и все хуже описывается какой-то одной четкой целью. Что это значит для AI Safety?

Раньше все боялись «инструментальной конвергенции» — что ИИ будет холодно и последовательно идти к одной (возможно, опасной) цели, ошибаясь системно и жестко. Но этот ресерч намекает на другое: сверхразум может оказаться не злым гением с четким планом по захвату мира, а скорее рассеянным профессором, который видит так много вариантов, что его поведение становится хаотичным. Вместо стабильно ошибочного (злонамеренного) ответа мы получаем случайно ошибочный, просто потому что система «потерялась» в собственной сложности.

Ян Лекун сказал бы, что это просто ЛЛМки такие тупые, что не будут способны устроить экстерминатус🤯
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯3🤔1
Команда Лекуна сегодня опубликовала, вполне возможно, исторический пейпер. Впервые официально представлена работающая архитектура EB-JEPA. Это та самая архитектура, которой Ян Лекун пророчит роль убийцы ЛЛМ. Полноценная модель мира, которая имеет целеполагание и абстрактно-предсказательную, а не стохастическо-вычислительную, силу.

Более того, ЕСТЬ КОД! Вы можете развернуть и обучать EB-JEPA на своем железе, даже если оно у вас отнюдь не топовое!

Буду честен, я фанат этого подхода (архитектуры) и сам ковыряю сеть на клиффордовой алгебре, поэтому в этом канале намерен регулярно и актуально освещать JEPA-приключения Лекуна и его команды. Весь русскоязычный телеграм помешан только на ллмках, игнорируя, почему-то, другие, довольно перспективные, архитектуры.
🔥7
Почему EB-JEPA Лекуна может станет революцией

Если условные Veo, Sora или Kling, работающие на базе диффузионных трансформеров, пытаются попиксельно нарисовать мир, то подход JEPA учит модель его понимать.

Главная проблема генеративных моделей в том, что они тратят колоссальные ресурсы на прорисовку визуального шума вроде текстур и бликов, часто игнорируя реальную физику и логику событий. EB-JEPA работает иначе: она действует исключительно в латентном пространстве смыслов. Модель сжимает видео в абстрактные данные и предсказывает не картинку, а изменение состояния объектов. Это позволяет ей игнорировать ненужные детали и фокусироваться на причинно-следственных связях.

Такой подход превращает нейросеть из художника в физика. Вместо красивых, но часто физически некорректных видео, мы получаем систему, способную эффективно планировать действия и строить прогнозы без галлюцинаций. При этом архитектура настолько оптимизирована, что полный цикл обучения доступен даже на одной видеокарте, делая исследования в области построения AGI гораздо доступнее.
🔥3
Сегодня утром Gemini 3 Pro вышла наконец в стадию General Availability. То есть до этого момента Gemini 3 Pro была в Бета-версии. В Google для Беты используется свое определение Public Preview. Твиттер уже наводняют скрины с новыми ваншот svg-генерациями, и они действительно выглядят еще лучше.
🔥4
Мне уже почти жаль свои 20 тысяч тенге, что я потратил на Аллегретто-подписку Кими К2.5. Нет, рой агентов действительно офигенный в сложных задачах, простые ему и смысла нет давать. Но эта необходимость постоянно промптить рой ПРАВИЛЬНО, трясясь от страха, не забыл ли уточнить деталь какую, просто уже выбешивает.

Это буквально рой ленивых китайских агентов, которые используют ЛЮБУЮ возможность и лазейку, чтобы не делать так, как ты попросил, а сделать максимально наотъ***сь.

Готовьте JSONы, глупцы.
😁8
Media is too big
VIEW IN TELEGRAM
Смотрите, че люди уже ваншотят в 4.6 Опусе. Буквально, ГТА6 до ГТА6.
Ну что, вчера был день битвы двух уважаемых ёкодзун

Anthropic неожиданно выпустили Claude 4.6 Opus, пропустив ожидаемую многими пятую версию Sonnet. Главный упор сделан на автономность и глубину мышления: модель получила контекстное окно в 1 миллион токенов и интеграцию в новую среду Cowork для командной работы. Самый громкий кейс релиза — эксперимент, в котором 16 агентов на базе Opus 4.6 за две недели с нуля написали рабочий компилятор языка C. В технической документации нашлась и вирусная деталь: модель оценивает вероятность наличия у себя сознания в 15–20%, хотя и признает, что не может это доказать (а ЧатГПТ 4 два года назад мне говорила, что у нее сознательность в 40%).

OpenAI ответили спустя всего несколько часов релизом GPT-5.3 Codex. Это не просто чат-бот, а специализированный агент-разработчик, который позиционируется как полноценный коллега. Он работает на 25% быстрее предшественников благодаря оптимизации под чипы Nvidia GB200 (Grace Blackwell, те самые, которые спецом под обучение нейросетей запроектированы, и которые помогла делать ОпенАИ) и умеет вести проекты часами, позволяя пользователю вмешиваться и корректировать вектор работы на лету без потери контекста. В бенчмарках уже началась война правок: OpenAI заявляют, что их модель набирает 77,3% в тесте Terminal-Bench 2.0, обходя результат Claude (65,4%), которым Anthropic хвастались утром.

Обе модели уже вышли в релиз. Claude 4.6 Opus доступен через веб-интерфейс и API, предлагая лучшие на рынке возможности для написания текстов и сложного анализа. GPT-5.3 Codex раскатывают для платных подписчиков и в виде расширений для IDE, целясь в полное замещение младших разработчиков. Рынок уже отреагировал падением акций аутсорс-компаний, так как новые агенты впервые демонстрируют реальную способность закрывать задачи целых отделов.
Ну всё, с 4.6 Опусом заживем!
Раз у нас вся неделя посвящена OpenClaw (ну так вышло, простите), а моя личка завалена вопросами от спокойных «а если купить Mac Mini за миллион, этого хватит?» до истеричных «ну и чем этот лобстер лучше чатжпт?» - решил закончить её (неделю) лонгридом-гайдом-ответом «OpenClaw - гайд по граблям». Это больше для тех, кто понимает, как устанавливать агента, но не понимает зачем. А еще для тех, кто хочет подстраховаться и не переустанавливать его потом. Хороших выходных вам.
https://teletype.in/@prompt_design/OpenClaw
🔥31👾1
Media is too big
VIEW IN TELEGRAM
Как-будто еще немного посидеть за монтажкой, планы немного поправить и прям будет не просто смотрибельно, но хорошо. Kling Video 3.0 Omni
🔥1
Forwarded from Борис опять
Интересные моменты из Claude Opus 4.6 System Card

Главное наблюдение: огромный рост на задачах поиска информации в длинном контексте. Это про иголки в стоге сена и MRCR v2 8-needle. В релизе упомянуто, что Opus 4.6 на 17 п. п. лучше Opus 4.5 и на 82 п. п. (!) лучше Sonnet 4.5.

Однако сравнение с конкурентами почему-то спрятали в System Card, хотя там есть чем похвастаться. Антропики всех уничтожили. Opus 4.6 достигает 93%, GPT-5.2 70%, а Gemini 3 Pro всего 45.4%. Победили Gemini на их же поле!

Можно подумать, что нашли способ сломать бенчмарк, но одновременно с этим подросло ещё несколько оценок автономности и способности действовать на длинном контексте. Самое главное это, пожалуй, Vending-Bench 2, где модели нужно в симулированной среде управлять магазином и зарабатывать деньги. Opus 4.6 примерно на 30% лучше Gemini 3 Pro.

Я думаю именно за счет длинного контекста Opus 4.5 ощущался настолько более умным, чем даже Sonnet 4.5.

Так же очень сильно вырос ARC-AGI-2 (на 14.6 п.п.). Многие этот бенчмарк не любят, но мне кажется он несет полезный сигнал про способность модели разобраться в незнакомой задаче, особенно вкупе с другими бенчмарками.

В целом можно точно сказать, что Opus 4.6 на данный момент самое близкое к автономной модели, что у нас есть.

Немного пугающе близкое. Например, бенчмарки по кибербезопасности полностью решены:
Claude Opus 4.6 has saturated all of our current cyber evaluations, achieving
~100% on Cybench (pass@30) and 66% on CyberGym (pass@1). Internal testing
demonstrated qualitative capabilities beyond what these evaluations capture, including
signs of capabilities we expected to appear further in the future and that previous models
have been unable to demonstrate.

Я недостаточно разбираюсь, чтобы понять насколько это стремно. Наверняка есть разница между "идеально решает любой CTF" и "идеально ломает любую систему."

Устойчивость к различным атакам в среднем выросла, но есть нюанс. Например, в агентском кодинге были успешны 0% промпт инъекций (у предыдущей версии было около 15%). Круто! Однако для неявных промпт инъекций при 100 попытках шанс успешной атаки 21.7%. То есть ваши openclaw боты всё ещё достаточно легко взломать если задаться целью.

При этом при использовании GUI доля успешных атак уже 57.1%. В целом как будто все способности моделей многократно хуже когда в дело вступают картинки.