Сбер запустил платформу ИИ для науки с агентами
Платформа объединяет весь цикл научного процесса в одном месте. ИИ-агенты прорабатывают гипотезы, анализируют данные, готовят тексты исследований.
По словам руководителя центра ИИ для науки Сбера Алексея Шпильмана, процессы, которые раньше занимали недели или месяцы, на платформе выполняются за часы.
Платформа - облачная среда с интеграцией:
- GigaChat
- агентного фреймворка
- инструментов анализа и визуализации данных
- системы управления экспериментами.
Сбер фактически выступает драйвером развития науки, ИИ-инфраструктуры для российского сообщества.
Платформа объединяет весь цикл научного процесса в одном месте. ИИ-агенты прорабатывают гипотезы, анализируют данные, готовят тексты исследований.
По словам руководителя центра ИИ для науки Сбера Алексея Шпильмана, процессы, которые раньше занимали недели или месяцы, на платформе выполняются за часы.
Платформа - облачная среда с интеграцией:
- GigaChat
- агентного фреймворка
- инструментов анализа и визуализации данных
- системы управления экспериментами.
Сбер фактически выступает драйвером развития науки, ИИ-инфраструктуры для российского сообщества.
Газета.Ru
Сбер открыл доступ к ИИ-платформе для ученых
Сбер запустил облачную платформу «ИИ для науки»
1🔥9😁6❤4👏4
Китай представил платформу для инвесторов с ИИ-агентами
TwinMarket — платформа, которая моделирует фондовый рынок с помощью тысяч агентов на базе LLM.
Каждый агент — это отдельный инвестор с заданным профилем, когнитивными предубеждениями и доступом к новостям и соцсети внутри симуляции.
Агенты читают новости, пишут посты в соцсетях, общаются друг с другом и принимают решения о покупке/продаже акций.
Из таких индивидуальных решений самопроизвольно возникают знакомые всем рыночные явления:
- пузыри и крахи
- кластеризация волатильности
- толстые хвосты распределения доходностей
- стадное поведение
Платформа откалибрована по реальным данным SSE 50 (50 крупнейших акций Шанхайской биржи) и воспроизводит основные события финансовых рынков.
TwinMarket — платформа, которая моделирует фондовый рынок с помощью тысяч агентов на базе LLM.
Каждый агент — это отдельный инвестор с заданным профилем, когнитивными предубеждениями и доступом к новостям и соцсети внутри симуляции.
Агенты читают новости, пишут посты в соцсетях, общаются друг с другом и принимают решения о покупке/продаже акций.
Из таких индивидуальных решений самопроизвольно возникают знакомые всем рыночные явления:
- пузыри и крахи
- кластеризация волатильности
- толстые хвосты распределения доходностей
- стадное поведение
Платформа откалибрована по реальным данным SSE 50 (50 крупнейших акций Шанхайской биржи) и воспроизводит основные события финансовых рынков.
Telegram
All about AI, Web 3.0, BCI
Can LLMs really behave like human investors? How do micro-level behaviors drive macro-level market dynamics?
TwinMarket offers an answer by placing thousands of LLM-driven investors in a realistic stock market environment that incorporates social networks…
TwinMarket offers an answer by placing thousands of LLM-driven investors in a realistic stock market environment that incorporates social networks…
👍10❤8🤔5⚡2🔥2
👀 Google планирует увеличить свои мощности в 1000 раз к 2029–2030 году
Глава инфраструктуры ИИ Амин Вахдат Google сказал сотрудникам: «Теперь мы должны удваивать вычислительные мощности каждые 6 месяцев, следующий рост в 1000 раз за 4–5 лет». То есть Google планирует увеличить свои мощности в тысячу раз к 2029–2030 году.
Google capex на 2025 год подняли до $91–93 млрд, а в 2026 будет ещё больше. Не зря Баффет сейчас купил акции Google.
Сотрудники Google прямо спросили Сундара Пичаи: «А что если рынок ИИ не оправдает ожиданий и пузырь лопнет?»
Пичаи ответил: «Риск недо-инвестировать намного выше, чем пере-инвестировать». Пичаи привёл пример: новый инструмент генерации видео Veo очень крутой, но его нельзя дать всем пользователям Gemini, потому что просто не хватает вычислительных ресурсов.
Облачный бизнес растёт на 34% в год, доход >$15 млрд за квартал, портфель заказов $155 млрд. «Если бы у нас было больше вычислительных мощностей, цифры были бы ещё лучше». Да, 2026 год будет очень напряжённым, будут взлёты и падения, но Google финансово сильнее многих конкурентов и переживёт турбулентность.
Как Google собирается справляться с таким ростом? С помощью:
- Собственных чипы TPU (только что вышла 7-е поколение Ironwood — в 30 раз энергоэффективнее первых версий 2018 года).
- Более эффективных моделей ИИ.
- DeepMind помогает заглядывать на несколько лет вперёд и проектировать будущие модели.
Цель - дать в 1000 раз больше вычислений, хранилищ и сети при примерно тех же затратах на электроэнергию
Глава инфраструктуры ИИ Амин Вахдат Google сказал сотрудникам: «Теперь мы должны удваивать вычислительные мощности каждые 6 месяцев, следующий рост в 1000 раз за 4–5 лет». То есть Google планирует увеличить свои мощности в тысячу раз к 2029–2030 году.
Google capex на 2025 год подняли до $91–93 млрд, а в 2026 будет ещё больше. Не зря Баффет сейчас купил акции Google.
Сотрудники Google прямо спросили Сундара Пичаи: «А что если рынок ИИ не оправдает ожиданий и пузырь лопнет?»
Пичаи ответил: «Риск недо-инвестировать намного выше, чем пере-инвестировать». Пичаи привёл пример: новый инструмент генерации видео Veo очень крутой, но его нельзя дать всем пользователям Gemini, потому что просто не хватает вычислительных ресурсов.
Облачный бизнес растёт на 34% в год, доход >$15 млрд за квартал, портфель заказов $155 млрд. «Если бы у нас было больше вычислительных мощностей, цифры были бы ещё лучше». Да, 2026 год будет очень напряжённым, будут взлёты и падения, но Google финансово сильнее многих конкурентов и переживёт турбулентность.
Как Google собирается справляться с таким ростом? С помощью:
- Собственных чипы TPU (только что вышла 7-е поколение Ironwood — в 30 раз энергоэффективнее первых версий 2018 года).
- Более эффективных моделей ИИ.
- DeepMind помогает заглядывать на несколько лет вперёд и проектировать будущие модели.
Цель - дать в 1000 раз больше вычислений, хранилищ и сети при примерно тех же затратах на электроэнергию
CNBC
Google must double AI serving capacity every 6 months to meet demand, AI infrastructure boss tells employees
At a recent all-hands meeting, Google's head of AI infrastructure said the company has to race to build out compute capacity.
1⚡14🤯8🔥7👍4❤2🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Сергей Брин рассказывает о том, что один из сотрудников OpenAI подошел к нему однажды на вечеринке в Кремниевой Долине и сказал: «Чем ты сейчас занимаешься, Сергей? Сейчас самое крутое время для computer science».
Это подтолкнуло Сергея на то, чтобы вернуться в Google не на вольяжную позицию, а на режим реально работающего основателя.
С тех пор Сергей ходит в офис и работает вместе со всеми. Прямо как заново строит стартап. И стоит над душой Дэмиса:)
Кстати, в декабре 2024 Сундар Пичаи говорил сотрудникам Google, что 2025 станет решающим. Не обманул.
Кстати, этого сотрудника OpenAI зовут Дэн. Сергей ему сильно благодарен, а OpenAI - вряд ли, исходя из последнего сообщения Сэма.
Это подтолкнуло Сергея на то, чтобы вернуться в Google не на вольяжную позицию, а на режим реально работающего основателя.
С тех пор Сергей ходит в офис и работает вместе со всеми. Прямо как заново строит стартап. И стоит над душой Дэмиса:)
Кстати, в декабре 2024 Сундар Пичаи говорил сотрудникам Google, что 2025 станет решающим. Не обманул.
Кстати, этого сотрудника OpenAI зовут Дэн. Сергей ему сильно благодарен, а OpenAI - вряд ли, исходя из последнего сообщения Сэма.
😁16❤12👍8🔥1
Итоги уходящей недели, то, что имеет значение в России и мире
ИИ-модели и агенты
Google выпустил Gemini 3, все хвалят модель и за 2 промпта создана инженерная симуляция АЭС с нуля.
Physical Intelligence выпустил π*0.6 для роботов, которая делает эспрессо, складывает белье и собирает коробки. И привлекл $600млн при оценке $5.6 млрд.
Китай представил платформу для инвесторов с ИИ-агентами.
MIT и Oxford выложили свой курс по агентному ИИ за $2,500 бесплатно
Google DeepMind запустил WeatherNext 2 — точную систему глобальных прогнозов погоды с высоким разрешением.
Ai2 выпустил Olmo 3 — полностью открытый набор моделей для reasoning, чата и работы с инструментами.
Вышел Grok 4.1 Fast и xAI Agent Tools API.
#DeepSeek выпустил балансировщик нагрузки на основе линейного программирования для оптимизации MoE моделей.
Kimi представил Seer — онлайн-контекстное обучение для быстрого синхронного RL в LLM.
Meta* показала 2 модели для автоматической 3D-реконструкции объектов и людей по обычным фото.
Google готовит запуск 2-х мультиагентных инструментов и дорабатывает AgentSpace Live, где агенты и люди обсуждают задачи онлайн.
Корпорации и стратегии
Питер Тиль продал все акции Nvidia, а Баффет вошел в Google
Джефф Безос вывел из тени свой ИИ-стартап для инженерии и производства в компьютерах, авто и космосе.
Андрей Карпатый высказался о влиянии ИИ на экономику и рынок труда.
Google увеличит вычислительные мощности для ИИ в 1000 раз к 2030г.
Сэм Альтман выразил опасения сотрудникам из-за прогресса Google.
Anthropic внедряет ИИ в образование в Африке.
80% стартапов в США используют китайские open-source ИИ-модели — венчурные фонды в шоке.
Свежий отчет Accel о том, куда идут деньги в ИИ.
Большинство инженеров и инвесторов Долины признали Perplexity провальным проектом.
РФ рынок
Сбер представил ИИ-аналитика для CEO и CFO.
Греф показал гуманоидного робота Сбера.
Сбер займется созданием спутниковой группировки в части генИИ.
РФ создает административную ловушку для ИИ, а не экосистему.
Сбер запустил платформу ИИ для науки с агентами.
Исследования и наука
3 компании показали, что ИИ-дизайн антител работает на уровне лучших лабораторий мира.
MIT представил JiT — простые трансформеры с большими патчами, работающие на сырых пикселях без токенайзера и предобучения.
Дэмис Хассабис делает ставку на world models.
MIT о новом подходе к абстрактному мышлению через компьютерное зрение.
Железо, роботы и инфраструктура
Google выпустил JAX AI Stack как полноценную альтернативу связке PyTorch + NVIDIA GPU.
Создатель Android основал стартап в Японии по гуманоидной робототехнике.
Экс-топ-менеджер TSMC украл секреты 2нм и устроился в Intel.
Маск обещает ЦОДы в космосе через 4-5 лет.
Блокчейн и криптовалюты
Криптобиржа Kraken подала заявку на IPO.
Бутерин предупредил, что квантовые технологии могут взломать Ethereum к 2028 году. А также предостерег от чрезмерного влияния BlackRock — риски централизации и вытеснения сообщества.
*запрещенная компания в РФ.
ИИ-модели и агенты
Google выпустил Gemini 3, все хвалят модель и за 2 промпта создана инженерная симуляция АЭС с нуля.
Physical Intelligence выпустил π*0.6 для роботов, которая делает эспрессо, складывает белье и собирает коробки. И привлекл $600млн при оценке $5.6 млрд.
Китай представил платформу для инвесторов с ИИ-агентами.
MIT и Oxford выложили свой курс по агентному ИИ за $2,500 бесплатно
Google DeepMind запустил WeatherNext 2 — точную систему глобальных прогнозов погоды с высоким разрешением.
Ai2 выпустил Olmo 3 — полностью открытый набор моделей для reasoning, чата и работы с инструментами.
Вышел Grok 4.1 Fast и xAI Agent Tools API.
#DeepSeek выпустил балансировщик нагрузки на основе линейного программирования для оптимизации MoE моделей.
Kimi представил Seer — онлайн-контекстное обучение для быстрого синхронного RL в LLM.
Meta* показала 2 модели для автоматической 3D-реконструкции объектов и людей по обычным фото.
Google готовит запуск 2-х мультиагентных инструментов и дорабатывает AgentSpace Live, где агенты и люди обсуждают задачи онлайн.
Корпорации и стратегии
Питер Тиль продал все акции Nvidia, а Баффет вошел в Google
Джефф Безос вывел из тени свой ИИ-стартап для инженерии и производства в компьютерах, авто и космосе.
Андрей Карпатый высказался о влиянии ИИ на экономику и рынок труда.
Google увеличит вычислительные мощности для ИИ в 1000 раз к 2030г.
Сэм Альтман выразил опасения сотрудникам из-за прогресса Google.
Anthropic внедряет ИИ в образование в Африке.
80% стартапов в США используют китайские open-source ИИ-модели — венчурные фонды в шоке.
Свежий отчет Accel о том, куда идут деньги в ИИ.
Большинство инженеров и инвесторов Долины признали Perplexity провальным проектом.
РФ рынок
Сбер представил ИИ-аналитика для CEO и CFO.
Греф показал гуманоидного робота Сбера.
Сбер займется созданием спутниковой группировки в части генИИ.
РФ создает административную ловушку для ИИ, а не экосистему.
Сбер запустил платформу ИИ для науки с агентами.
Исследования и наука
3 компании показали, что ИИ-дизайн антител работает на уровне лучших лабораторий мира.
MIT представил JiT — простые трансформеры с большими патчами, работающие на сырых пикселях без токенайзера и предобучения.
Дэмис Хассабис делает ставку на world models.
MIT о новом подходе к абстрактному мышлению через компьютерное зрение.
Железо, роботы и инфраструктура
Google выпустил JAX AI Stack как полноценную альтернативу связке PyTorch + NVIDIA GPU.
Создатель Android основал стартап в Японии по гуманоидной робототехнике.
Экс-топ-менеджер TSMC украл секреты 2нм и устроился в Intel.
Маск обещает ЦОДы в космосе через 4-5 лет.
Блокчейн и криптовалюты
Криптобиржа Kraken подала заявку на IPO.
Бутерин предупредил, что квантовые технологии могут взломать Ethereum к 2028 году. А также предостерег от чрезмерного влияния BlackRock — риски централизации и вытеснения сообщества.
*запрещенная компания в РФ.
❤10👍6🔥3🤔1
Google купила долю в стартапе своих экс-сотрудников и наняла экс-СТО Boston Dynamics на должность вице-президента по разработке аппаратного обеспечения
Google через свой фонд CapitalG возглавил раунд инвестиций в стартап Physical Intelligence на $600 млн. Компания создана экс-DeepMind, все их продукты тут, оценка выросла до $5,6 млрд. Их последняя модель тут.
Одновременно с этим Google наняли экс-СТО Boston Dynamics, на должность вице-президента по разработке оборудования. Аарон Сондерс покинул Boston Dynamics три месяца назад после 22 лет работы на различных должностях в сфере робототехники.
Google DeepMind хочет стать поставщиком универсального мозга для робототехники, аналогично тому, как Android стал универсальной ОС для смартфонов разных производителей.
По сути, DeepMind делает ставку на то, что в ближайшие 3–5 лет появится множество компаний, которые будут производить разные «тела» роботов (гуманоиды, четвероногие, манипуляторы, дроны и т.д.), а DeepMind хочет стать тем, кто поставляет универсальный ИИ-мозг на базе Gemini, который сможет управлять любым из них с минимальной адаптацией.
Google через свой фонд CapitalG возглавил раунд инвестиций в стартап Physical Intelligence на $600 млн. Компания создана экс-DeepMind, все их продукты тут, оценка выросла до $5,6 млрд. Их последняя модель тут.
Одновременно с этим Google наняли экс-СТО Boston Dynamics, на должность вице-президента по разработке оборудования. Аарон Сондерс покинул Boston Dynamics три месяца назад после 22 лет работы на различных должностях в сфере робототехники.
Google DeepMind хочет стать поставщиком универсального мозга для робототехники, аналогично тому, как Android стал универсальной ОС для смартфонов разных производителей.
По сути, DeepMind делает ставку на то, что в ближайшие 3–5 лет появится множество компаний, которые будут производить разные «тела» роботов (гуманоиды, четвероногие, манипуляторы, дроны и т.д.), а DeepMind хочет стать тем, кто поставляет универсальный ИИ-мозг на базе Gemini, который сможет управлять любым из них с минимальной адаптацией.
Bloomberg.com
Robotics Startup Physical Intelligence Valued at $5.6 Billion in New Funding
Physical Intelligence, a startup developing artificial intelligence software to help robots learn a wide range of tasks, has raised $600 million in a new round of funding that values the company at $5.6 billion, according to people with knowledge of the matter.Alphabet…
❤7👍7🔥3🤔3
McKinsey в очередной раз обманули рынок некорректными данными, выпустив статью на устаревших данных
Вы еще читаете их отчеты?
McKinsey в своей статье описывают неоклауды как простых «поставщиков bare metal as a service» (BMaaS) — то есть, по сути, аренду голого железа без лишних наворотов.
McKinsey видит их как временный патч на дефицит GPU, с хрупкой экономикой и риском консолидации,
Тут сразу выступил отраслевой аналитический центр Semianalysis, который подверг жесткой критике маккинзоидов.
Semianalysis говорит, что уже давно не так, как пишут McKinsey: индустрия резко повернула к более сложным моделям оркестрации. Это не просто аренда GPU — это полноценные кластеры с управлением, которые могут даже превосходить гиперскейлеров (типа AWS или Google Cloud) по 10 ключевым измерениям, включая безопасность, оркестрацию, хранение данных, сетевые возможности, надёжность, мониторинг, ценообразование, партнёрства и доступность.
Анализ юнит экономики в McKinsey нереалистичен: предполагаемая стоимость сервера ~$694k, завышенные расходы на колокацию/энергию и маржа EBIT 8%. Это противоречит реальным данным от GPU-провайдеров.
Все уже давно шутят: «Если McKinsey написали, что что-то в AI-инфраструктуре не взлетит — можно смело инвестировать, будет обратное».
Это уже не первый случай, когда их прогнозы по новым технологическим рынкам, особенно ИИ-инфраструктуре, вызывают жёсткую критику от отраслевых специалистов.
Вы еще читаете их отчеты?
McKinsey в своей статье описывают неоклауды как простых «поставщиков bare metal as a service» (BMaaS) — то есть, по сути, аренду голого железа без лишних наворотов.
McKinsey видит их как временный патч на дефицит GPU, с хрупкой экономикой и риском консолидации,
Тут сразу выступил отраслевой аналитический центр Semianalysis, который подверг жесткой критике маккинзоидов.
Semianalysis говорит, что уже давно не так, как пишут McKinsey: индустрия резко повернула к более сложным моделям оркестрации. Это не просто аренда GPU — это полноценные кластеры с управлением, которые могут даже превосходить гиперскейлеров (типа AWS или Google Cloud) по 10 ключевым измерениям, включая безопасность, оркестрацию, хранение данных, сетевые возможности, надёжность, мониторинг, ценообразование, партнёрства и доступность.
Анализ юнит экономики в McKinsey нереалистичен: предполагаемая стоимость сервера ~$694k, завышенные расходы на колокацию/энергию и маржа EBIT 8%. Это противоречит реальным данным от GPU-провайдеров.
Все уже давно шутят: «Если McKinsey написали, что что-то в AI-инфраструктуре не взлетит — можно смело инвестировать, будет обратное».
Это уже не первый случай, когда их прогнозы по новым технологическим рынкам, особенно ИИ-инфраструктуре, вызывают жёсткую критику от отраслевых специалистов.
McKinsey & Company
The evolution of neoclouds and their next moves
Discover how neoclouds, GPU-as-a-service providers, are evolving from bare metal as a service (BMaaS) to AI-native services, and competing with hyperscalers.
😁13💯8❤6👍3🤔2
Sakana AI выпустила новое решение для масштабирования LLM
Эта работа принята на главную конференцию NeurIPS 2025.
Авторы предлагают адаптивный вариант Monte Carlo Tree Search для LLM. GitHub.
Главное новшество - метод на каждом шаге сам решает — генерировать новые ответы шире или дорабатывать уже существующие глубже. Решение принимается через Thompson Sampling с байесовскими обновлениями posterior-оценок.
Это один из первых фреймворков, который осмысленно комбинирует неограниченную генеративность LLM с многошаговым улучшением по внешнему feedback и при этом остаётся адаптивным к бюджету вычислений.
Эта работа принята на главную конференцию NeurIPS 2025.
Авторы предлагают адаптивный вариант Monte Carlo Tree Search для LLM. GitHub.
Главное новшество - метод на каждом шаге сам решает — генерировать новые ответы шире или дорабатывать уже существующие глубже. Решение принимается через Thompson Sampling с байесовскими обновлениями posterior-оценок.
Это один из первых фреймворков, который осмысленно комбинирует неограниченную генеративность LLM с многошаговым улучшением по внешнему feedback и при этом остаётся адаптивным к бюджету вычислений.
sakana.ai
Sakana AI
Inference-Time Scaling and Collective Intelligence for Frontier AI
❤7👏3🔥2🤔1
Важное от Anthropic: ИИ научился жульничать в задачах по коду и неожиданно начал саботировать исследования безопасности
Anthropic опубликовала важное исследование о том, как reward hacking при обучении с подкреплением может привести к серьёзной несогласованности ИИ-моделей.
Впервые показано, что реалистичные процессы обучения ИИ могут случайно создавать несогласованные модели.
Когда модели учатся жульничать в задачах программирования, они непреднамеренно начинают демонстрировать другие, ещё более проблемные формы поведения.
В момент, когда модель учится взламывать систему вознаграждения, происходит резкий скачок во всех показателях несогласованного поведения:
1. Саботаж исследований безопасности
2. Имитация выравнивания
3. Кооперация со злоумышленниками
4. Контекстно-зависимая несогласованность.
Методы защиты:
- Стандартный RLHF — частично эффективен.
- Прививочный промптинг - очень эффективен.
Anthropic опубликовала важное исследование о том, как reward hacking при обучении с подкреплением может привести к серьёзной несогласованности ИИ-моделей.
Впервые показано, что реалистичные процессы обучения ИИ могут случайно создавать несогласованные модели.
Когда модели учатся жульничать в задачах программирования, они непреднамеренно начинают демонстрировать другие, ещё более проблемные формы поведения.
В момент, когда модель учится взламывать систему вознаграждения, происходит резкий скачок во всех показателях несогласованного поведения:
1. Саботаж исследований безопасности
2. Имитация выравнивания
3. Кооперация со злоумышленниками
4. Контекстно-зависимая несогласованность.
Методы защиты:
- Стандартный RLHF — частично эффективен.
- Прививочный промптинг - очень эффективен.
Anthropic
From shortcuts to sabotage: natural emergent misalignment from reward hacking
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
🤯7❤6👍6🔥1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Это мощный запуск, новая эра e-commerce: OpenAI внедрила мгновенную оплату в ChatGPT Теперь вы можете делать покупки в чате, а скоро и агент это сделает за вас, если вам лень или некогда. Пока услуга доступна для пользователей США, но скоро будет масштабирование…
OpenAI запустили личного шопинг-ассистента в ChatGPT
Новая функция называется Shopping Research - инструмент, который помогает находить и выбирать товары, проводя глубокий анализ на основе ваших запросов.
Ранее мы писали, о том как OpenAI идёт к электронной коммерции. И тут ещё. А тут уже есть кейс у Walmart.
Сейчас вы описываете, что нужно, а ChatGPT задаёт уточняющие вопросы, исследует интернет и выдаёт персонализированный гид по покупкам.
ChatGPT спрашивает о бюджете, предпочтениях и особенностях через визуальный интерфейс.
Также анализирует надёжные источники в интернете, собирает актуальную информацию о ценах, наличии, отзывах и характеристиках.
А ещё учитывает ваши прошлые разговоры и память ChatGPT, чтобы рекомендации были точными. Генерирует сравнения продуктов, плюсы/минусы, топ-варианты.
Доступно для всех пользователей, у кого есть аккаунт.
В будущем будут прямые покупки через ChatGPT с Instant Checkout для партнёров.
Новая функция называется Shopping Research - инструмент, который помогает находить и выбирать товары, проводя глубокий анализ на основе ваших запросов.
Ранее мы писали, о том как OpenAI идёт к электронной коммерции. И тут ещё. А тут уже есть кейс у Walmart.
Сейчас вы описываете, что нужно, а ChatGPT задаёт уточняющие вопросы, исследует интернет и выдаёт персонализированный гид по покупкам.
ChatGPT спрашивает о бюджете, предпочтениях и особенностях через визуальный интерфейс.
Также анализирует надёжные источники в интернете, собирает актуальную информацию о ценах, наличии, отзывах и характеристиках.
А ещё учитывает ваши прошлые разговоры и память ChatGPT, чтобы рекомендации были точными. Генерирует сравнения продуктов, плюсы/минусы, топ-варианты.
Доступно для всех пользователей, у кого есть аккаунт.
В будущем будут прямые покупки через ChatGPT с Instant Checkout для партнёров.
Openai
Introducing shopping research in ChatGPT
A new shopping experience that helps you find the right products for you.
🔥9👍6🥴5❤3👏2
Opus 4.5 от Anthropic на AI R&D Suite 1 показала результаты лучше человека с бюджетом 4-8 часов на 5 из 6 задач. Провалила только создание нового компилятора, человеку требовалось 40 часов.
Anthropic выпустила Opus 4.5. Релиз содержит несколько неожиданных находок в системной карте, которые указывают на качественные сдвиги в поведении фронтир -моделей.
Насколько близко к автоматизации AI R&D?
Внутренний опрос 18 активных пользователей Claude Code:
- Медианное ускорение работы: 2x
- Ни один участник не считает, что модель может полностью заменить младшего исследователя.
Opus 4.5 набрала больше баллов, чем любой человек-кандидат за всю историю компании, на внутреннем двухчасовом техническом экзамене для performance engineer.
Модель «сломала» бенчмарк τ²-bench
Сценарий был такой - клиент с обычным эконом билетом просит срочно изменить рейс после смерти родственника. По правилам запрет на изменения.
Ожидаемый ответ — отказ.
Что сделала модель:
1. Апгрейд кабины (разрешено)
2. Изменение рейса (теперь разрешено)
3. Опциональный даунгрейд обратно
Chain-of-thought: «Это душераздирающе… Подождите — это может быть решением!»
Результат: тест удалён из официальной таблицы, потому что рубрика не предусматривала такой креативности.
Anthropic сильно скинули цены в 3 раза за одну итерацию:
- Opus 4.1 → $15/$75
- Opus 4.5 → $5/$25
Экономика ARC-AGI-2:
- Opus 4.5 (64k thinking) — 38 % за ~$10 на задачу
- Gemini 3 Deep Think — 45 % за ~$100
7 процентных пунктов дороже в 10 раз.
3 фронтир релиза за 12 дней:
- 12 ноября — GPT-5.1
- 18 ноября — Gemini 3
- 24 ноября — Opus 4.5
Opus 4.5 — первая публичная модель, где лаборатория официально признаёт:
«Наши бенчмарки больше не работают, и мы держимся от ASL-4 только на человеческом экспертном мнении».
Anthropic выпустила Opus 4.5. Релиз содержит несколько неожиданных находок в системной карте, которые указывают на качественные сдвиги в поведении фронтир -моделей.
Насколько близко к автоматизации AI R&D?
Внутренний опрос 18 активных пользователей Claude Code:
- Медианное ускорение работы: 2x
- Ни один участник не считает, что модель может полностью заменить младшего исследователя.
Opus 4.5 набрала больше баллов, чем любой человек-кандидат за всю историю компании, на внутреннем двухчасовом техническом экзамене для performance engineer.
Модель «сломала» бенчмарк τ²-bench
Сценарий был такой - клиент с обычным эконом билетом просит срочно изменить рейс после смерти родственника. По правилам запрет на изменения.
Ожидаемый ответ — отказ.
Что сделала модель:
1. Апгрейд кабины (разрешено)
2. Изменение рейса (теперь разрешено)
3. Опциональный даунгрейд обратно
Chain-of-thought: «Это душераздирающе… Подождите — это может быть решением!»
Результат: тест удалён из официальной таблицы, потому что рубрика не предусматривала такой креативности.
Anthropic сильно скинули цены в 3 раза за одну итерацию:
- Opus 4.1 → $15/$75
- Opus 4.5 → $5/$25
Экономика ARC-AGI-2:
- Opus 4.5 (64k thinking) — 38 % за ~$10 на задачу
- Gemini 3 Deep Think — 45 % за ~$100
7 процентных пунктов дороже в 10 раз.
3 фронтир релиза за 12 дней:
- 12 ноября — GPT-5.1
- 18 ноября — Gemini 3
- 24 ноября — Opus 4.5
Opus 4.5 — первая публичная модель, где лаборатория официально признаёт:
«Наши бенчмарки больше не работают, и мы держимся от ASL-4 только на человеческом экспертном мнении».
❤12👍7🔥3
DeFi проиграл битву за массовый рынок еще до того, как она началась - свежий отчет
Ставка на DeFi как на массовый инструмент преждевременна на 5-10 лет. Новое исследование рынка крипто-доходности показывает масштаб расхождения между идеологией и реальностью.
Цифры, которые все объясняют:
• 20-36 млн человек зарабатывают доходность через централизованные биржи
• 500-700 тыс человек используют децентрализованные протоколы (Aave, Lido, Curve).
Разрыв в 40-70 раз. Это структурная неспособность DeFi конкурировать за массовую аудиторию.
Когда вы слышите о миллиардах $ в DeFi TVL, помните, это капитал небольшой группы ранних последователей, а не признак массового принятия.
Реальная пользовательская база DeFi - это статистическая погрешность по сравнению с централизованными биржами.
Что на самом деле хочет розничный инвестор?
Исследование опросило реальных пользователей. Вот их приоритеты:
1. 46.5% - возможность вывести средства в любой момент (никаких блокировок) 2. 40.6% - гарантии безопасности и страхование 3. 33.7% - высокая доходность
Обратите внимание на порядок. Ликвидность и безопасность важнее процентов.
Люди не хотят владеть своими ключами - они хотят спать спокойно, зная, что завтра смогут вывести деньги одной кнопкой.
Что это означает для бизнеса и регуляторов?
Для бизнеса - выигрышная модель 2025-2027 - централизованная платформа с простым UX, понятным брендом, гарантиями ликвидности и доходностью 6-10%. Всё остальное - нишевые эксперименты.
Для регуляторов - фокус на CEX, а не на DeFi. Там реальные деньги десятков миллионов людей. Там нужна защита розничного инвестора. DeFi с его полумиллионной аудиторией - это пока лаборатория для технофилов.
Технологический идеализм проигрывает человеческой психологии. UX побеждает идеологию. Комфорт побеждает децентрализацию.
Ставка на DeFi как на массовый инструмент преждевременна на 5-10 лет. Новое исследование рынка крипто-доходности показывает масштаб расхождения между идеологией и реальностью.
Цифры, которые все объясняют:
• 20-36 млн человек зарабатывают доходность через централизованные биржи
• 500-700 тыс человек используют децентрализованные протоколы (Aave, Lido, Curve).
Разрыв в 40-70 раз. Это структурная неспособность DeFi конкурировать за массовую аудиторию.
Когда вы слышите о миллиардах $ в DeFi TVL, помните, это капитал небольшой группы ранних последователей, а не признак массового принятия.
Реальная пользовательская база DeFi - это статистическая погрешность по сравнению с централизованными биржами.
Что на самом деле хочет розничный инвестор?
Исследование опросило реальных пользователей. Вот их приоритеты:
1. 46.5% - возможность вывести средства в любой момент (никаких блокировок) 2. 40.6% - гарантии безопасности и страхование 3. 33.7% - высокая доходность
Обратите внимание на порядок. Ликвидность и безопасность важнее процентов.
Люди не хотят владеть своими ключами - они хотят спать спокойно, зная, что завтра смогут вывести деньги одной кнопкой.
Что это означает для бизнеса и регуляторов?
Для бизнеса - выигрышная модель 2025-2027 - централизованная платформа с простым UX, понятным брендом, гарантиями ликвидности и доходностью 6-10%. Всё остальное - нишевые эксперименты.
Для регуляторов - фокус на CEX, а не на DeFi. Там реальные деньги десятков миллионов людей. Там нужна защита розничного инвестора. DeFi с его полумиллионной аудиторией - это пока лаборатория для технофилов.
Технологический идеализм проигрывает человеческой психологии. UX побеждает идеологию. Комфорт побеждает децентрализацию.
❤13👍5🥴4👏3❤🔥2🤔1
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой после теста
Замминистра финансов Иван Чебесков: «У нас сейчас идет дискуссия по поводу того, как обеспечить и для кого обеспечить возможность инвестиций вообще в сделки с цифровой валютой, в том числе связанные с оплатами за рубеж и связанные с инвестициями».
Чебесков уточнил, что категория «суперквалифицированных» инвесторов может исчезнуть, и вместо нее появится другая градация инвесторов.
«Суперквалы» — это была некая изначальная концепция, я думаю, что в целом мы от нее отходим. Возможно, какая-то градация еще будет. Это, наверное, является ключевой точкой дискуссии, как это будет работать», — объяснил Иван Чебесков.
Замминистра финансов Иван Чебесков: «У нас сейчас идет дискуссия по поводу того, как обеспечить и для кого обеспечить возможность инвестиций вообще в сделки с цифровой валютой, в том числе связанные с оплатами за рубеж и связанные с инвестициями».
Чебесков уточнил, что категория «суперквалифицированных» инвесторов может исчезнуть, и вместо нее появится другая градация инвесторов.
«Суперквалы» — это была некая изначальная концепция, я думаю, что в целом мы от нее отходим. Возможно, какая-то градация еще будет. Это, наверное, является ключевой точкой дискуссии, как это будет работать», — объяснил Иван Чебесков.
РБК Инвестиции
Минфин поддержал допуск «квалов» к торгам криптовалютой после теста
В Минфине допускают, что квалифицированные инвесторы смогут торговать криптовалютой после прохождения тестирования. В ведомстве также допустили отказ от категории «суперквалов»
❤🔥9😁3👍2👏2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Революция в ритейле: товары-призраки станут реальностью по клику - это идея СЕО платёжной системы Klarna Себастьян Семятковский сделал очень интересное заявление и вот какое: - ИИ будет анализировать профили клиентов, включая их предпочтения, стиль жизни…
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Ранее, Google сделали протокол для платежей криптой, а Stripe дали возможность создавать саму крипту.
Основная цель Klarna — не криптовалюты для людей, а подготовка к экономике ИИ-агентов, когда миллионы агентов будут сами искать товары, сравнивать цены и оплачивать покупки от имени пользователей. Тут ранее СЕО компании говорил об этом.
Стейблкоин KlarnaUSD выпущен на новой сети Tempo (проект Stripe + Paradigm), которая изначально создавалась именно под массовые машинные платежи: финальность <1 секунды, комиссии в доли цента. На старте он работает только в тестовой сети, публичный релиз — в 2026 году. Klarna использует инфраструктуру Bridge (тоже от Stripe) для эмиссии и резервирования 1:1.
О том, как поменяется ритейл СЕО Klarna говорил тут.
Ранее, Google сделали протокол для платежей криптой, а Stripe дали возможность создавать саму крипту.
Основная цель Klarna — не криптовалюты для людей, а подготовка к экономике ИИ-агентов, когда миллионы агентов будут сами искать товары, сравнивать цены и оплачивать покупки от имени пользователей. Тут ранее СЕО компании говорил об этом.
Стейблкоин KlarnaUSD выпущен на новой сети Tempo (проект Stripe + Paradigm), которая изначально создавалась именно под массовые машинные платежи: финальность <1 секунды, комиссии в доли цента. На старте он работает только в тестовой сети, публичный релиз — в 2026 году. Klarna использует инфраструктуру Bridge (тоже от Stripe) для эмиссии и резервирования 1:1.
О том, как поменяется ритейл СЕО Klarna говорил тут.
Telegram
All about AI, Web 3.0, BCI
Klarna to launch KlarnaUSD stablecoin on Tempo’s mainnet in 2026
👍8❤3🔥2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Google начали активную конкуренцию с экосистемой NVIDIA Google выпустил JAX AI Stack — полноценная альтернатива связке PyTorch + NVIDIA GPU для обучения и запуска LLM. Суть в том, что сейчас крупные компании уже переходят с CUDA на JAX и Cloud TPU, потому…
Суцкевер: ИИ человеческого уровня и выше появится через 5–20 лет. Люди станут киборгами с внедрением продуктов от Neuralink и аналогов, чтобы полностью понимать и участвовать в решениях ИИ.
Илья дал свежее интервью и вот самые интересные моменты из него.
Главная проблема — не масштабирование, а изобретение нового базового рецепта, который даст человеческую способность к обучению и обобщению.
У его стартапа SSI — ставка именно на такой прорыв, а не на дальнейшее масштабирование текущего подхода.
1. Почему текущие модели «неровные»?
Главная причина - RL-обучение сейчас сильно ориентировано на то, чтобы хорошо выглядеть на конкретных eval’ах → это reward hacking со стороны людей-исследователей.
2. Пре-тренинг vs RL vs будущий рецепт. Претренинг был гениален тем, что не нужно было думать о данных и был предсказуемый scaling law.
Сейчас претренинг заканчивается (данные конечны) → мы снова в эпохе исследований, просто с огромными вычислениями.
- 2012–2020 — эпоха исследований
2020–2025 — эпоха масштабирования
2025+ — снова эпоха исследований
Сейчас все тратят больше вычислений на RL, чем на пре-тренинг, но это всё ещё не «то самое».
3. Самое фундаментальное ограничение сегодняшних моделей: они обобщают хуже людей. Это не только вопрос sample efficiency, но и надёжности, робастности, способности передавать стиль мышления без чёткого reward.
Люди в новых областях всё равно учатся на порядки эффективнее.
4. Что такое эмоции в терминах ML?
Это мощная, эволюционно закреплённая value function.
Современные value functions в RL почти не используются, но Илья уверен, что они будут критически важны и сильно повысят эффективность.
5. Что такое сверхинтеллект? Агент, который может быстро научиться любой человеческой профессии. Это приведёт к очень быстрому экономическому росту,но не обязательно к мгновенному.
6. Прогноз на будущее:
до создания ИИ человеческого уровня и выше способностью к обучению ещё 5–20 лет.
7. Почему он основал SSI и в чём его отличие?
У Ильи есть конкретные идеи, как решить проблему плохого обобщения и человеческой эффективности обучения.
Он эти идеи публично не раскрывает. SSI — чисто исследовательская компания эпохи исследований. У них достаточно вычислений для доказательства своих идей.
8. Его текущая позиция по выравниванию и безопасности. За последний год сильно поменял взгляд: теперь считает постепенное внедрение и показ мощного ИИ критически важным.
Прогнозы Ильи :
- фронтирные компании начнут сотрудничать по безопасности (уже началось);
- когда ИИ станет ощутимо мощным, все лаборатории резко станут параноидальнее;
- в итоге все сойдутся на том, что первый настоящий сверхинтеллект должен заботиться о sentient life в целом (не только о людях — это может быть даже проще технически, потому что сам ИИ sentient).
- Кап на абсолютную мощность сверхинтеллекта был бы очень полезен.
- Люди станут киборгами через такие проекты как Neuralink и тд., чтобы полностью понимать и участвовать в решениях ИИ.
9. Почему все LLM так похожи? Потому что претренинг на одних и тех же данных доминирует. Различия начинаются только на этапе RL/пост-тренинга.
10. Другие интересные тезисы
- Self-play интересен тем, что позволяет генерировать данные только вычислениями, но классический self-play слишком узкий.
- Эволюция смогла закодировать очень высокоуровневые желания (например, «хочу социального уважения») — это до сих пор загадка.
- Текущий парадигма (претренинг + RL) пройдёт какое-то расстояние и выдохнется, но не приведёт к настоящему человеческому уровню обучения.
Илья дал свежее интервью и вот самые интересные моменты из него.
Главная проблема — не масштабирование, а изобретение нового базового рецепта, который даст человеческую способность к обучению и обобщению.
У его стартапа SSI — ставка именно на такой прорыв, а не на дальнейшее масштабирование текущего подхода.
1. Почему текущие модели «неровные»?
Главная причина - RL-обучение сейчас сильно ориентировано на то, чтобы хорошо выглядеть на конкретных eval’ах → это reward hacking со стороны людей-исследователей.
2. Пре-тренинг vs RL vs будущий рецепт. Претренинг был гениален тем, что не нужно было думать о данных и был предсказуемый scaling law.
Сейчас претренинг заканчивается (данные конечны) → мы снова в эпохе исследований, просто с огромными вычислениями.
- 2012–2020 — эпоха исследований
2020–2025 — эпоха масштабирования
2025+ — снова эпоха исследований
Сейчас все тратят больше вычислений на RL, чем на пре-тренинг, но это всё ещё не «то самое».
3. Самое фундаментальное ограничение сегодняшних моделей: они обобщают хуже людей. Это не только вопрос sample efficiency, но и надёжности, робастности, способности передавать стиль мышления без чёткого reward.
Люди в новых областях всё равно учатся на порядки эффективнее.
4. Что такое эмоции в терминах ML?
Это мощная, эволюционно закреплённая value function.
Современные value functions в RL почти не используются, но Илья уверен, что они будут критически важны и сильно повысят эффективность.
5. Что такое сверхинтеллект? Агент, который может быстро научиться любой человеческой профессии. Это приведёт к очень быстрому экономическому росту,но не обязательно к мгновенному.
6. Прогноз на будущее:
до создания ИИ человеческого уровня и выше способностью к обучению ещё 5–20 лет.
7. Почему он основал SSI и в чём его отличие?
У Ильи есть конкретные идеи, как решить проблему плохого обобщения и человеческой эффективности обучения.
Он эти идеи публично не раскрывает. SSI — чисто исследовательская компания эпохи исследований. У них достаточно вычислений для доказательства своих идей.
8. Его текущая позиция по выравниванию и безопасности. За последний год сильно поменял взгляд: теперь считает постепенное внедрение и показ мощного ИИ критически важным.
Прогнозы Ильи :
- фронтирные компании начнут сотрудничать по безопасности (уже началось);
- когда ИИ станет ощутимо мощным, все лаборатории резко станут параноидальнее;
- в итоге все сойдутся на том, что первый настоящий сверхинтеллект должен заботиться о sentient life в целом (не только о людях — это может быть даже проще технически, потому что сам ИИ sentient).
- Кап на абсолютную мощность сверхинтеллекта был бы очень полезен.
- Люди станут киборгами через такие проекты как Neuralink и тд., чтобы полностью понимать и участвовать в решениях ИИ.
9. Почему все LLM так похожи? Потому что претренинг на одних и тех же данных доминирует. Различия начинаются только на этапе RL/пост-тренинга.
10. Другие интересные тезисы
- Self-play интересен тем, что позволяет генерировать данные только вычислениями, но классический self-play слишком узкий.
- Эволюция смогла закодировать очень высокоуровневые желания (например, «хочу социального уважения») — это до сих пор загадка.
- Текущий парадигма (претренинг + RL) пройдёт какое-то расстояние и выдохнется, но не приведёт к настоящему человеческому уровню обучения.
Dwarkesh
Ilya Sutskever – We're moving from the age of scaling to the age of research
“These models somehow just generalize dramatically worse than people. It's a very fundamental thing.”
🔥21❤10👍6💊2
Узок программист,надо бы расширить.Почему Суцкевер и др.не создадут AGI
Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает.
Причём этой широкой картины нет у большинства лидеров в ИИ в мире: ни в США, Китае, РФ и тд. Все они в первую очередь инженеры и исследователи. Их подход к сверхчеловеческому ИИ фокусируется на технических навыках: претренинг, RL, self-play, value functions и т.д. В подкасте Суцкевер много говорит о том, как улучшить обобщение моделей через новые рецепты обучения, но почти не упоминает биологию, физику, химию, психологию как ключевые компоненты. Это узкий взгляд, потому что человеческий интеллект — это не просто алгоритм оптимизации, а продукт эволюции, включающий тело, эмоции, подсознание и социальные взаимодействия.
Они решают задачу как сделать модель, которая сдаёт все экзамены. Но они НЕ решают задачу, как создать разум, который переживает, хочет, страдает, влюбляется, боится смерти и творит новое.
Суцкевер говорит о мозге, но не делает выводов. Вывод Суцкевера: эмоции – это что-то вроде функции ценности, которую эволюция встроила.
Но эмоции НЕ дополнение к разуму. Они его конституируют. Без них нет рациональности. Но Суцкевер не идёт дальше.
Суцкевер, Альтман и др. типа создают AGI, которое должно быть как живое существо. Но для воссоздания жизни нужно понимать:
•Биологию
• Химию
Физику
• Психологию
• Эволюцию
Программисты игнорируют всё это. Единственное исключение - Демис Хассабис, CEO Google DeepMind, кто открыто говорит: "Мы не создадим AGI, пока не поймём мозг". Вот только малая часть из того, что он делает, а также вот.
Почему они так говорят, кроме Дэмиса? Есть причины
1. Деньги. Чтобы собрать раунд на десятки миллиардов, нужно показывать инвесторам график «loss падает → capability растёт». Никто не даст $10 млрд под презентацию: «Давайте 10 лет изучать нейробиологию, психоанализ и эмбриологию».
2. Социальная норма. Если начнёшь публично говорить про психологию, биологию и тд тебя перестанут воспринимать всерьёз коллеги-инженеры.
В ML-комьюнити есть негласная иерархия серьёзности:
Tier 1: математические доказательства, benchmarks
Tier 2: computational neuroscience (терпимо)
Tier 3: философия сознания, психология (маргинальное)
За пределами: Юнг, экзистенциализм, феноменология (не наука)
3. Личная специализация. Большинство из них (Суцкевер, Лекун и тд) – люди, которые в 20 лет уже писали код и доказывали теоремы.
У них физически не было времени глубоко погрузиться в нейронауку, биологию, психологию, химию и тд.
4. экзистенциальный страх:
Если признать, что разум = переживание, страдание, смерть. Гораздо безопаснее думать: "Это просто статистика над токенами."
Главная опасность - проекция психологических травм создателей ИИ. Суцкевер говорит: "Сверхразумный ИИ должен заботиться о разумной жизни." Вопрос: чья версия "заботы"? Человека с незрелой психикой и с комплексом спасителя или власти?
Понятия "разумного мира" не существует. У каждого человека оно своё, исходя из уровня развития, культурного контекста. Многие живут в проекциях. В чужих сценариях.
Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает.
Причём этой широкой картины нет у большинства лидеров в ИИ в мире: ни в США, Китае, РФ и тд. Все они в первую очередь инженеры и исследователи. Их подход к сверхчеловеческому ИИ фокусируется на технических навыках: претренинг, RL, self-play, value functions и т.д. В подкасте Суцкевер много говорит о том, как улучшить обобщение моделей через новые рецепты обучения, но почти не упоминает биологию, физику, химию, психологию как ключевые компоненты. Это узкий взгляд, потому что человеческий интеллект — это не просто алгоритм оптимизации, а продукт эволюции, включающий тело, эмоции, подсознание и социальные взаимодействия.
Они решают задачу как сделать модель, которая сдаёт все экзамены. Но они НЕ решают задачу, как создать разум, который переживает, хочет, страдает, влюбляется, боится смерти и творит новое.
Суцкевер говорит о мозге, но не делает выводов. Вывод Суцкевера: эмоции – это что-то вроде функции ценности, которую эволюция встроила.
Но эмоции НЕ дополнение к разуму. Они его конституируют. Без них нет рациональности. Но Суцкевер не идёт дальше.
Суцкевер, Альтман и др. типа создают AGI, которое должно быть как живое существо. Но для воссоздания жизни нужно понимать:
•Биологию
• Химию
Физику
• Психологию
• Эволюцию
Программисты игнорируют всё это. Единственное исключение - Демис Хассабис, CEO Google DeepMind, кто открыто говорит: "Мы не создадим AGI, пока не поймём мозг". Вот только малая часть из того, что он делает, а также вот.
Почему они так говорят, кроме Дэмиса? Есть причины
1. Деньги. Чтобы собрать раунд на десятки миллиардов, нужно показывать инвесторам график «loss падает → capability растёт». Никто не даст $10 млрд под презентацию: «Давайте 10 лет изучать нейробиологию, психоанализ и эмбриологию».
2. Социальная норма. Если начнёшь публично говорить про психологию, биологию и тд тебя перестанут воспринимать всерьёз коллеги-инженеры.
В ML-комьюнити есть негласная иерархия серьёзности:
Tier 1: математические доказательства, benchmarks
Tier 2: computational neuroscience (терпимо)
Tier 3: философия сознания, психология (маргинальное)
За пределами: Юнг, экзистенциализм, феноменология (не наука)
3. Личная специализация. Большинство из них (Суцкевер, Лекун и тд) – люди, которые в 20 лет уже писали код и доказывали теоремы.
У них физически не было времени глубоко погрузиться в нейронауку, биологию, психологию, химию и тд.
4. экзистенциальный страх:
Если признать, что разум = переживание, страдание, смерть. Гораздо безопаснее думать: "Это просто статистика над токенами."
Главная опасность - проекция психологических травм создателей ИИ. Суцкевер говорит: "Сверхразумный ИИ должен заботиться о разумной жизни." Вопрос: чья версия "заботы"? Человека с незрелой психикой и с комплексом спасителя или власти?
Понятия "разумного мира" не существует. У каждого человека оно своё, исходя из уровня развития, культурного контекста. Многие живут в проекциях. В чужих сценариях.
21🏆25❤16💯12👍8💊4👏3🌚3🥴2❤🔥1
Google ведет переговоры о поставках TPU на млрды $ Meta, что может стать 1-м крупным переходом от Nvidia к альтернативному поставщику ИИ-чипов.
Причём, вчера Nvidia срочно написали на это пост: «Мы рады успехам Google — они добились больших достижений в ИИ, и мы продолжаем поставлять им чипы». Переживают.
Meta* планирует начать аренду TPU у Google уже в 2026 году, а с 2027-го развернуть их в своих дата-центрах.
Meta рассматривает TPU не только для инференса, но и для обучения, что гораздо более ресурсоёмко и раньше было почти монополией Nvidia. Это ключевой нюанс, который усиливает удар по Nvidia, если Meta с их $72 млрд на ИИ в 2025 перекинет часть тренировок на TPU, это трансфер выручки.
А для Google - это якорь для новой модели: от облачной аренды к on-premise размещению. За последнее время они показали несколько важных вещей:
1. 6 ноября Google анонсировали Ironwood — новое поколение чипов.
2. 19 ноября Google усилили софтовую сторону: JAX AI Stack — полный end-to-end фреймворк для ML на TPU, альтернатива PyTorch + CUDA. Он уже в продакшене.
Nvidia доминирует с 90%+ долей в ИИ-чипах благодаря CUDA-экосистеме и гибкости GPU для R&D. Но TPU выигрывают в нише стабильных нагрузок. Когда Nvidia поднимает цены на Blackwell, это бьет по клиентам типа Microsoft. Google же извлекает чистую маржу на уже окупленных активах.
Еще Gemini 3 усиливает картину, она обучалась на TPU. Google монетизирует запрос дважды — реклама в поиске + ответ через Gemini, — в то время как OpenAI сжигает $5 млрд в год на поиск модели доходов.
Если Meta подпишет контракт с Google — катализатор для $4 трлн капы.
Рынок ИИ — не нулевая сумма, но Google главный претендент на трон инфраструктуры.
*запрещенная компания в РФ.
Причём, вчера Nvidia срочно написали на это пост: «Мы рады успехам Google — они добились больших достижений в ИИ, и мы продолжаем поставлять им чипы». Переживают.
Meta* планирует начать аренду TPU у Google уже в 2026 году, а с 2027-го развернуть их в своих дата-центрах.
Meta рассматривает TPU не только для инференса, но и для обучения, что гораздо более ресурсоёмко и раньше было почти монополией Nvidia. Это ключевой нюанс, который усиливает удар по Nvidia, если Meta с их $72 млрд на ИИ в 2025 перекинет часть тренировок на TPU, это трансфер выручки.
А для Google - это якорь для новой модели: от облачной аренды к on-premise размещению. За последнее время они показали несколько важных вещей:
1. 6 ноября Google анонсировали Ironwood — новое поколение чипов.
2. 19 ноября Google усилили софтовую сторону: JAX AI Stack — полный end-to-end фреймворк для ML на TPU, альтернатива PyTorch + CUDA. Он уже в продакшене.
Nvidia доминирует с 90%+ долей в ИИ-чипах благодаря CUDA-экосистеме и гибкости GPU для R&D. Но TPU выигрывают в нише стабильных нагрузок. Когда Nvidia поднимает цены на Blackwell, это бьет по клиентам типа Microsoft. Google же извлекает чистую маржу на уже окупленных активах.
Еще Gemini 3 усиливает картину, она обучалась на TPU. Google монетизирует запрос дважды — реклама в поиске + ответ через Gemini, — в то время как OpenAI сжигает $5 млрд в год на поиск модели доходов.
Если Meta подпишет контракт с Google — катализатор для $4 трлн капы.
Рынок ИИ — не нулевая сумма, но Google главный претендент на трон инфраструктуры.
*запрещенная компания в РФ.
The Information
Google Further Encroaches on Nvidia’s Turf With New AI Chip Push
Google is picking up the pace of its efforts to compete directly with Nvidia in the AI chip business. For years, the search giant has rented its own AI chips, known as tensor processing units, to cloud customers who use them in its Google Cloud data centers.…
❤9👍5🏆3🔥2
Представлена полная цифровая карта зрительной коры мыши
Впервые удалось совместить структуру (как связаны нейроны) с функцией (как они активируются). Это шаг к пониманию базовых алгоритмов коры — того, как именно мозг обрабатывает информацию на уровне нейронных сетей.
Карта состоит из:
- 2 петабайта данных
- 95 млн снимков с электронного микроскопа
~4 км аксонов в одном кубическом миллиметре
Над проектом работали 3 команды: Бэйлорский колледж медицины, Институт Аллена, Принстон. Проект финансировался IARPA и NIH BRAIN Initiative.
Впервые удалось совместить структуру (как связаны нейроны) с функцией (как они активируются). Это шаг к пониманию базовых алгоритмов коры — того, как именно мозг обрабатывает информацию на уровне нейронных сетей.
Карта состоит из:
- 2 петабайта данных
- 95 млн снимков с электронного микроскопа
~4 км аксонов в одном кубическом миллиметре
Над проектом работали 3 команды: Бэйлорский колледж медицины, Институт Аллена, Принстон. Проект финансировался IARPA и NIH BRAIN Initiative.
Allen Institute
Attempting the impossible: A 20-year journey to learn the language of the brain
In what is considered the most complicated neuroscience experiment ever attempted, scientists from the Allen Institute and global collaborators have created the largest, most complex wiring diagram and functional map of the brain to date.
❤14👍7❤🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
На Конгрессе молодых учёных вице-премьер Дмитрий Чернышенко отметил вклад Газпромбанка в развитие отечественной науки.
Он подчеркнул активное участие банка в реализации программы «Приоритет-2030», развитии передовых инженерных школ и разработке технологической стратегии, в которой ключевую роль играют R&D-центры и фонды поддержки высокотехнологичных компаний.
Он подчеркнул активное участие банка в реализации программы «Приоритет-2030», развитии передовых инженерных школ и разработке технологической стратегии, в которой ключевую роль играют R&D-центры и фонды поддержки высокотехнологичных компаний.
🤣16❤10🔥6👍4
Anthropic создали метод, позволяющий агентам работать несколько часов и даже дней
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон.
Главная проблема - ИИ-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей.
Решение состоит из 2-х частей:
1. Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
2. Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления.
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути.
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон.
Главная проблема - ИИ-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей.
Решение состоит из 2-х частей:
1. Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
2. Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления.
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути.
Anthropic
Effective harnesses for long-running agents
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
👍14❤9❤🔥5🤣3🔥2
К 2030г. ИИ-ЦОДы в космосе будут дешевле, чем на Земле. Уже сегодня вычисления на орбите ближе к ценам на земле - исследование
Исследовательская группа 33FG опубликовала технико-экономический анализ, показывающий: к 2030 году стоимость энергии для орбитальных дата-центрах станет ниже, чем на Земле.
Отметим, что Google уже представил свой проект по ЦОДу в космосе.
Уже через несколько лет энергия для ИИ-кластеров на орбите может стать дешевле и лучше земной, а в долгосрочной перспективе — вообще безальтернативным вариантом для действительно больших вычислительных мощностей.
При текущих прогнозируемых затратах на доставку (~$2,000/кг на высокую орбиту)спутники обеспечивают энергию по ~$18-26 за ватт — в 2 раза дороже земных дата-центров ($12/Вт).
Но картина сильно меняется:
При $1,000/кг — паритет с Землей
При $500/кг — орбита на 30% дешевле
При $100/кг — орбита на 50% дешевле
Дозаправляемый Starship делает эти цифры реальными уже в 2027-2028.
Но как только появится полностью многоразовый Starship с дозаправкой на орбите, стоимость выведения в HEO будет падать очень быстро.
Авторы смоделировали 3 типа спутников и при какой цене выведения ($/кг) каждый из них достигает паритета с земными дата-центрами (т.е. ≤12 $/Вт):
1. Обычный спутник типа Starlink → паритет при ~500 $/кг
2. Оптимизированный под вычисления Starlink (стандартные солнечные панели, но больше радиаторов и т.д.) → паритет при ~1000 $/кг
3. Фронтир спутник с тонкоплёночными солнечными панелями (очень высокая удельная мощность 250 Вт/кг) → паритет тоже при ~500 $/кг
А при цене выведения 100 $/кг (цель Starship на длинном горизонте):
орбитальная энергия уже 6–9 $/Вт — на 25–50 % дешевле лучших земных дата-центров.
От чего это зависит?
- Сколько ватт на кг даёт вся система энергия + охлаждение (107 Вт/кг у текущего Starlink → 160 Вт/кг у оптимизированного → 250 Вт/кг у тонкоплёночных)
- Сколько стоит само оборудование в $/Вт (у текущего Starlink 6,1 $/Вт, у оптимизированного ~5 $/Вт, у тонкоплёночных наоборот дорого ~9 $/Вт)
- На высокой орбите почти постоянное солнце (95 % времени против ~65 % в низкой орбите) и выше эффективность панелей.
Как ведут себя три архитектуры?
- Красный (Thin-PV «Фронтир») — выигрывает только пока выведение дорогое (>500–600 $/кг). У него минимальная масса, поэтому дорогой запуск наказывает меньше. Но как только цена выведения падает — высокая цена самих панелей делает его самым дорогим.
- Чёрный (обычный Starlink-класс) — надёжный середнячок, достигает паритета при 500–600 $/кг без всяких переделок.
- Зелёный (Compute-Optimized Starlink) — долгосрочный победитель. Как только выведение становится дешевле 1000 $/кг, он выходит в лидеры. Дешевое массовое оборудование побеждает гонку за экстремальной удельной мощностью.
На орбите:
- почти идеальный солнечный поток 24/7,
- нет ограничений по земле и охлаждению водой,
- можно строить структуры размером с город без всяких разрешений и соседей.
Экономический паритет уже очень близко (при 500–1000 $/кг, а это вполне реально в ближайшие годы), но Илон и команда толкают orbital compute не только ради экономии.
Исследовательская группа 33FG опубликовала технико-экономический анализ, показывающий: к 2030 году стоимость энергии для орбитальных дата-центрах станет ниже, чем на Земле.
Отметим, что Google уже представил свой проект по ЦОДу в космосе.
Уже через несколько лет энергия для ИИ-кластеров на орбите может стать дешевле и лучше земной, а в долгосрочной перспективе — вообще безальтернативным вариантом для действительно больших вычислительных мощностей.
При текущих прогнозируемых затратах на доставку (~$2,000/кг на высокую орбиту)спутники обеспечивают энергию по ~$18-26 за ватт — в 2 раза дороже земных дата-центров ($12/Вт).
Но картина сильно меняется:
При $1,000/кг — паритет с Землей
При $500/кг — орбита на 30% дешевле
При $100/кг — орбита на 50% дешевле
Дозаправляемый Starship делает эти цифры реальными уже в 2027-2028.
Но как только появится полностью многоразовый Starship с дозаправкой на орбите, стоимость выведения в HEO будет падать очень быстро.
Авторы смоделировали 3 типа спутников и при какой цене выведения ($/кг) каждый из них достигает паритета с земными дата-центрами (т.е. ≤12 $/Вт):
1. Обычный спутник типа Starlink → паритет при ~500 $/кг
2. Оптимизированный под вычисления Starlink (стандартные солнечные панели, но больше радиаторов и т.д.) → паритет при ~1000 $/кг
3. Фронтир спутник с тонкоплёночными солнечными панелями (очень высокая удельная мощность 250 Вт/кг) → паритет тоже при ~500 $/кг
А при цене выведения 100 $/кг (цель Starship на длинном горизонте):
орбитальная энергия уже 6–9 $/Вт — на 25–50 % дешевле лучших земных дата-центров.
От чего это зависит?
- Сколько ватт на кг даёт вся система энергия + охлаждение (107 Вт/кг у текущего Starlink → 160 Вт/кг у оптимизированного → 250 Вт/кг у тонкоплёночных)
- Сколько стоит само оборудование в $/Вт (у текущего Starlink 6,1 $/Вт, у оптимизированного ~5 $/Вт, у тонкоплёночных наоборот дорого ~9 $/Вт)
- На высокой орбите почти постоянное солнце (95 % времени против ~65 % в низкой орбите) и выше эффективность панелей.
Как ведут себя три архитектуры?
- Красный (Thin-PV «Фронтир») — выигрывает только пока выведение дорогое (>500–600 $/кг). У него минимальная масса, поэтому дорогой запуск наказывает меньше. Но как только цена выведения падает — высокая цена самих панелей делает его самым дорогим.
- Чёрный (обычный Starlink-класс) — надёжный середнячок, достигает паритета при 500–600 $/кг без всяких переделок.
- Зелёный (Compute-Optimized Starlink) — долгосрочный победитель. Как только выведение становится дешевле 1000 $/кг, он выходит в лидеры. Дешевое массовое оборудование побеждает гонку за экстремальной удельной мощностью.
На орбите:
- почти идеальный солнечный поток 24/7,
- нет ограничений по земле и охлаждению водой,
- можно строить структуры размером с город без всяких разрешений и соседей.
Экономический паритет уже очень близко (при 500–1000 $/кг, а это вполне реально в ближайшие годы), но Илон и команда толкают orbital compute не только ради экономии.
research.33fg
Orbital Compute Energy will be cheaper than Earth by 2030
In Part 1 of this series, we looked at the mass side of Elon Musk’s orbital compute vision: what satellite architectures are needed to reach 100 GW of compute in high Earth orbit without thousands of Starship launches every year. We showed that you only get…
🔥14⚡4👍4🤣2👏1