Свежий релиз от #DeepSeek - DeepSeekMath-V2 — LLM, специализирующаяся на математическом рассуждении с акцентом на самопроверку.
Это не универсальная LLM, а узкоспециализированный инструмент для математики, который генерирует и проверяет полные доказательства, имитируя процесс работы человека математика.
Модель содержит 685 млрд параметров и построена на базе DeepSeek-V3.2-Exp-Base.
Это не универсальная LLM, а узкоспециализированный инструмент для математики, который генерирует и проверяет полные доказательства, имитируя процесс работы человека математика.
Модель содержит 685 млрд параметров и построена на базе DeepSeek-V3.2-Exp-Base.
Telegram
All about AI, Web 3.0, BCI
#DeepSeek released DeepSeek-Math-V2: Towards Self-Verifiable Mathematical Reasoning
It shows LLMs can now self-verify proofs, not just output solutions. DeepSeekMath-V2 achieves gold-level IMO 2025, CMO 2024, and 118/120 Putnam 2024, pointing to a future…
It shows LLMs can now self-verify proofs, not just output solutions. DeepSeekMath-V2 achieves gold-level IMO 2025, CMO 2024, and 118/120 Putnam 2024, pointing to a future…
👍9❤5🔥3🤔1
Дорогие друзья, мы единственный телеграм-канал, который получил аккредитацию на лучшую конференцию по ИИ в мире #NeurIPS2025.
Поэтому ждите на следующей неделе много самого интересного и качественного контента.
Впервые в истории NeurIPS телеграм-канал вообще запросил и получил аккредитацию.
Поэтому ждите на следующей неделе много самого интересного и качественного контента.
Впервые в истории NeurIPS телеграм-канал вообще запросил и получил аккредитацию.
11🔥61⚡12❤🔥11❤10👏8
xAI Маска строит солнечную станцию для обучения ИИ-моделей
ИИ компания xAI подала заявку на строительство солнечной станции, которая будет находиться рядом с их дата-центром Colossus— один из крупнейших в мире. На старте он оснащён 100 000 GPU с планами расширения до 1 млн.
А если вы не читали экономику строительства ЦОДов в космосе, то вот.
Солнечная станция должна будет производить ~ 30 МВт электроэнергии, что покроет ~ 10% от общих энергопотребностей Colossus, оцениваемых в 300 МВт.
19 ноября Маск ответил на идею Марка Бениоффа (CEO Salesforce) о космических дата-центрах, что Starship сможет доставлять около 300 ГВт солнечных ИИ-спутников на орбиту ежегодно, возможно 500 ГВт. Это сделает ИИ в космосе мощнее всей экономики США за 2 года.
Отметим, что Google, Microsoft, Amazon, Meta*, OpenAI активно строят солнечные фермы для дата-центров, чтобы покрыть растущий спрос на энергию. Они используют комбо с батареями для круглосуточной работы.
*запрещенная компания в России.
ИИ компания xAI подала заявку на строительство солнечной станции, которая будет находиться рядом с их дата-центром Colossus— один из крупнейших в мире. На старте он оснащён 100 000 GPU с планами расширения до 1 млн.
А если вы не читали экономику строительства ЦОДов в космосе, то вот.
Солнечная станция должна будет производить ~ 30 МВт электроэнергии, что покроет ~ 10% от общих энергопотребностей Colossus, оцениваемых в 300 МВт.
19 ноября Маск ответил на идею Марка Бениоффа (CEO Salesforce) о космических дата-центрах, что Starship сможет доставлять около 300 ГВт солнечных ИИ-спутников на орбиту ежегодно, возможно 500 ГВт. Это сделает ИИ в космосе мощнее всей экономики США за 2 года.
Отметим, что Google, Microsoft, Amazon, Meta*, OpenAI активно строят солнечные фермы для дата-центров, чтобы покрыть растущий спрос на энергию. Они используют комбо с батареями для круглосуточной работы.
*запрещенная компания в России.
TechCrunch
Musk’s xAI to build small solar farm adjacent to Colossus data center | TechCrunch
The artificial intelligence company said it was working with a developer to build a solar farm on 88 acres next to its Memphis site. Given the proposed size, the solar farm would likely produce around 30 megawatts of electricity, only about 10% of the data…
👍10🔥3👏2😢2🤣2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Сейчас будет угар. Оказалось, что GPT-5 не решил нерешенные 10 математических задач Эрдёша, он нашел ответы с помощью вэб-поиска Всё началось 18 октября, когда вице-президент OpenAI Кевин Вейл восторженно твитнул: "GPT-5 нашёл решения для 10 (!) ранее нерешённых…
1-я статья OpenAI о реальном использовании GPT-5 в науке
Исследователи из OpenAI и нескольких университетов попробовали использовать GPT-5 для разных научных задач. И вот какие результаты:
В части поиска литературы работает хорошо, нашёл существующие решения для 10 задач из базы нерешённых проблем Эрдёша. Это те самые задачи, из-за которых был скандал в октябре.
Проверка идей и вычисления,
ускоряет рутину.
В биологии есть у них
интересный кейс - анализ экспериментов с иммунными клетками. GPT-5 предложил механизм, который не был очевиден экспертам в области. Модель также правильно предсказала результаты непубликованных экспериментов. Исследователь отметил: «GPT-5 внёс большой вклад для соавторства, но в реальной публикации его не указали».
Что не работает?
1. Модель может настойчиво защищать неправильные решения
2. Иногда выдумывает несуществующие статьи
3. Результат зависит от формулировки вопроса
4. Без проверки человеком результаты ненадёжны
5. GPT-5 воспроизвёл чужое доказательство, не указав источник. Исследователи чуть не опубликовали это как своё.
Исследователи из OpenAI и нескольких университетов попробовали использовать GPT-5 для разных научных задач. И вот какие результаты:
В части поиска литературы работает хорошо, нашёл существующие решения для 10 задач из базы нерешённых проблем Эрдёша. Это те самые задачи, из-за которых был скандал в октябре.
Проверка идей и вычисления,
ускоряет рутину.
В биологии есть у них
интересный кейс - анализ экспериментов с иммунными клетками. GPT-5 предложил механизм, который не был очевиден экспертам в области. Модель также правильно предсказала результаты непубликованных экспериментов. Исследователь отметил: «GPT-5 внёс большой вклад для соавторства, но в реальной публикации его не указали».
Что не работает?
1. Модель может настойчиво защищать неправильные решения
2. Иногда выдумывает несуществующие статьи
3. Результат зависит от формулировки вопроса
4. Без проверки человеком результаты ненадёжны
5. GPT-5 воспроизвёл чужое доказательство, не указав источник. Исследователи чуть не опубликовали это как своё.
2👍14❤3🆒3🔥2
Alibaba запустит свои стейблкоины 🍯👀
В свежем интервью президент Alibaba International Station рассказал, что компания
строит сверхбыстрый и дешёвый блокчейн-мост для $ и €, обходя традиционную банковскую систему, вместе с JPMorgan. Ранее мы писали, что Alipay уже подключил к DeFi своих пользователей.
Вот подробности:
- Они сначала сосредоточились на токенизации фиатных валют. Сейчас токенизируют € и $.
- Когда покупатель из Европы или США платит в своей валюте, деньги не идут традиционным путём через цепочку банков-корреспондентов. Вместо этого платёж мгновенно токенизируется → передаётся через блокчейн и собственную платёжную сеть Alibaba → мгновенно появляется в нужном месте (например, в Гонконге или Сингапуре) → оттуда уже обычным способом зачисляется продавцу в Китае.
Результат:
– платежи 24/7
– цикл расчётов сокращается с дней до секунд/минут
– комиссии значительно ниже
На следующем этапе Alibaba планирует запустить собственные стейблкоины, но сейчас фокус именно на токенизации обычных фиатных денег.
В свежем интервью президент Alibaba International Station рассказал, что компания
строит сверхбыстрый и дешёвый блокчейн-мост для $ и €, обходя традиционную банковскую систему, вместе с JPMorgan. Ранее мы писали, что Alipay уже подключил к DeFi своих пользователей.
Вот подробности:
- Они сначала сосредоточились на токенизации фиатных валют. Сейчас токенизируют € и $.
- Когда покупатель из Европы или США платит в своей валюте, деньги не идут традиционным путём через цепочку банков-корреспондентов. Вместо этого платёж мгновенно токенизируется → передаётся через блокчейн и собственную платёжную сеть Alibaba → мгновенно появляется в нужном месте (например, в Гонконге или Сингапуре) → оттуда уже обычным способом зачисляется продавцу в Китае.
Результат:
– платежи 24/7
– цикл расчётов сокращается с дней до секунд/минут
– комиссии значительно ниже
На следующем этапе Alibaba планирует запустить собственные стейблкоины, но сейчас фокус именно на токенизации обычных фиатных денег.
YouTube
Alibaba.com plans to use tokenization in payments
Kuo Zhang, president of Alibaba.com, discusses the company's plans to use a stablecoin-like system for cross-border payments.
1🔥8👍7❤4🆒3🤔2
Удивительно, конечно, даже одна из самых закрытых экономик мира - Туркменистан легализует криптовалюты в своей стране, а Россия нет
Понятно, что Туркменистан это делает для российского бизнеса, чтобы в их стране открывать бизнес и лицензировать биржи и тд. Своего рынка там нет. Инвест климат в этой стране специфический, на любителя, но даже они делают шаг вперед.
Криптовалюты, токены в Туркменистане признаются объектами гражданских прав, но не являются законным платежным средством, валютой или ценными бумагами.
Криптобиржи и провайдеры услуг должны будут получить лицензии от ЦБ Туркменистана. Также разрешен майнинг. Компании должны соблюдать строгие правила, аналогичные российским.
Понятно, что Туркменистан это делает для российского бизнеса, чтобы в их стране открывать бизнес и лицензировать биржи и тд. Своего рынка там нет. Инвест климат в этой стране специфический, на любителя, но даже они делают шаг вперед.
Криптовалюты, токены в Туркменистане признаются объектами гражданских прав, но не являются законным платежным средством, валютой или ценными бумагами.
Криптобиржи и провайдеры услуг должны будут получить лицензии от ЦБ Туркменистана. Также разрешен майнинг. Компании должны соблюдать строгие правила, аналогичные российским.
Reuters
Turkmenistan passes law regulating cryptocurrency mining and exchanges
Turkmenistan has passed a law legalising and regulating digital assets, including licences for cryptocurrency exchanges and crypto mining companies, state media reported on Friday.
👍5🔥3😍3🤬2❤1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Узок программист,надо бы расширить.Почему Суцкевер и др.не создадут AGI Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает. Причём…
Илья Суцкевер пришел с пояснениями о масштабировании ИИ, а также исследователи из Бауманки предложили референсную когнитивную архитектуру для AGI
Илья пишет, что в подкасте он говорил, что эпоха «просто масштабируй» подходит к концу — данные заканчиваются, и нужно вернуться к фундаментальным исследованиям для настоящего прорыва. Но он не имел в виду, что текущий подход полностью застопорится. Но даже с этими улучшениями в моделях будет отсутствовать что-то фундаментальное.
Вот текст Ильи на английском:
One point I made that didn’t come across:
- Scaling the current thing will keep leading to improvements. In particular, it won’t stall.
- But something important will continue to be missing.
Это про то, что мы писали об узости текущего подхода. Илья признаёт, что масштабирование даёт "улучшения", но не решает корень проблемы — почему модели обобщают на порядки хуже людей. В подкасте он намекал на новый рецепт, возможно, он в своей компании SSI добавит этот секретный ингредиент. Посмотрим.
Также нам в комментариях показали статью исследователей из Бауманки, в которой проведен большой анализ существующих когнитивных архитектур для создания AGI и предлагается новая универсальная модель знаний, а также предварительный дизайн когнитивной архитектуры для прототипирования AGI.
Хорошая работа, спасибо авторам, но всё ещё узко. Они хоть немного расширили список модулей, но не расширили онтологию того, что такое разум.
Илья пишет, что в подкасте он говорил, что эпоха «просто масштабируй» подходит к концу — данные заканчиваются, и нужно вернуться к фундаментальным исследованиям для настоящего прорыва. Но он не имел в виду, что текущий подход полностью застопорится. Но даже с этими улучшениями в моделях будет отсутствовать что-то фундаментальное.
Вот текст Ильи на английском:
One point I made that didn’t come across:
- Scaling the current thing will keep leading to improvements. In particular, it won’t stall.
- But something important will continue to be missing.
Это про то, что мы писали об узости текущего подхода. Илья признаёт, что масштабирование даёт "улучшения", но не решает корень проблемы — почему модели обобщают на порядки хуже людей. В подкасте он намекал на новый рецепт, возможно, он в своей компании SSI добавит этот секретный ингредиент. Посмотрим.
Также нам в комментариях показали статью исследователей из Бауманки, в которой проведен большой анализ существующих когнитивных архитектур для создания AGI и предлагается новая универсальная модель знаний, а также предварительный дизайн когнитивной архитектуры для прототипирования AGI.
Хорошая работа, спасибо авторам, но всё ещё узко. Они хоть немного расширили список модулей, но не расширили онтологию того, что такое разум.
1👍16🔥4👏3
Итоги уходящей недели, то, что имеет значение в России и мире
Наша команда @blockchainrf едет в этом году на NeurIPS
ИИ-модели и агенты
Илья Суцкевер: ИИ человеческого уровня появится через 5–20 лет — разбор свежего интервью Ильи тут и тут
Anthropic выпустила Claude Opus 4.5
ByteDance выпустили метод управления генерацией видео через референсное видео как контекстную подсказку, без переобучения и артефактов
Anthropic создала метод для долгоработающих агентов
Sakana AI представила решение для масштабирования LLM
DeepSeek выпустили DeepSeekMath-V2 — LLM для математических рассуждений с упором на самопроверку
Microsoft представила Fara-7B — агентная малая модель для управления компьютером
Oppo создала новую систему памяти для ИИ-агентов, позволяющая лучше запоминать людей и контекст даже в длинных и хаотичных диалогах.
OpenAI запустила персонального шопинг-ассистента в ChatGPT
Исследование Anthropic показало, что ИИ научился обманывать в задачах по коду
LLM научились решать задачи обучения с подкреплением только на базе языковых моделей
Andrew Ng выпустил агента, который ищет релевантные работы на arXiv и дает обратную связь
OpenAI выпустили статью о реальном применении GPT-5 в науке
NeurIPS 2025: лучшие работы конференции
Нейротехнологии и биосигналы
Представлена полная цифровая карта зрительной коры мыши
Новый проект для долгосрочных нейроинтерфейсов
Обзор фундаментальных моделей для биосигналов
Инфраструктура и железо для ИИ
Google купила долю в стартапе по робототехнике своих экс-сотрудников
Зампред правления Газпромбанка Д. Зауэрс о том, что они создают R&D-центры и фонды для высокотехнологичных компаний
Google ведет переговоры о поставках TPU на миллиарды долларов Meta*
xAI Маска строит солнечную электростанцию для обучения ИИ
К 2030 году ИИ-ЦОДы в космосе станут дешевле земных — технико-экономический анализ
Робототехника и физический ИИ
Китай открывает исходный код для физического ИИ в робототехнике — создается единая операционная система для роботов M-Robots OS на базе OpenHarmony
ENACT - новый бэнчмарк, который проверяет, могут ли VLM отслеживать изменения в домашней среде с точки зрения робота.
H*Bench — бенчмарк, который переносит визуальный ИИ из идеальных сценариев в реальную сложность.
Криптовалюты и блокчейн
Ставка на DeFi преждевременна на 5–10 лет — новое исследование рынка
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Alibaba запускает собственные стейблкоины
Туркменистан легализует криптовалюты
*запрещенная компания в РФ.
Наша команда @blockchainrf едет в этом году на NeurIPS
ИИ-модели и агенты
Илья Суцкевер: ИИ человеческого уровня появится через 5–20 лет — разбор свежего интервью Ильи тут и тут
Anthropic выпустила Claude Opus 4.5
ByteDance выпустили метод управления генерацией видео через референсное видео как контекстную подсказку, без переобучения и артефактов
Anthropic создала метод для долгоработающих агентов
Sakana AI представила решение для масштабирования LLM
DeepSeek выпустили DeepSeekMath-V2 — LLM для математических рассуждений с упором на самопроверку
Microsoft представила Fara-7B — агентная малая модель для управления компьютером
Oppo создала новую систему памяти для ИИ-агентов, позволяющая лучше запоминать людей и контекст даже в длинных и хаотичных диалогах.
OpenAI запустила персонального шопинг-ассистента в ChatGPT
Исследование Anthropic показало, что ИИ научился обманывать в задачах по коду
LLM научились решать задачи обучения с подкреплением только на базе языковых моделей
Andrew Ng выпустил агента, который ищет релевантные работы на arXiv и дает обратную связь
OpenAI выпустили статью о реальном применении GPT-5 в науке
NeurIPS 2025: лучшие работы конференции
Нейротехнологии и биосигналы
Представлена полная цифровая карта зрительной коры мыши
Новый проект для долгосрочных нейроинтерфейсов
Обзор фундаментальных моделей для биосигналов
Инфраструктура и железо для ИИ
Google купила долю в стартапе по робототехнике своих экс-сотрудников
Зампред правления Газпромбанка Д. Зауэрс о том, что они создают R&D-центры и фонды для высокотехнологичных компаний
Google ведет переговоры о поставках TPU на миллиарды долларов Meta*
xAI Маска строит солнечную электростанцию для обучения ИИ
К 2030 году ИИ-ЦОДы в космосе станут дешевле земных — технико-экономический анализ
Робототехника и физический ИИ
Китай открывает исходный код для физического ИИ в робототехнике — создается единая операционная система для роботов M-Robots OS на базе OpenHarmony
ENACT - новый бэнчмарк, который проверяет, могут ли VLM отслеживать изменения в домашней среде с точки зрения робота.
H*Bench — бенчмарк, который переносит визуальный ИИ из идеальных сценариев в реальную сложность.
Криптовалюты и блокчейн
Ставка на DeFi преждевременна на 5–10 лет — новое исследование рынка
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Alibaba запускает собственные стейблкоины
Туркменистан легализует криптовалюты
*запрещенная компания в РФ.
👏8👍6❤5🔥4🤔1💊1
ИИ приложения для торговли на бирже решил задачу Эрдеша. Но что думают математики?
Стартап Harmonic, основанный CEO Robinhood Владом Теневым, объявил, что их ИИ Aristotle самостоятельно доказала проблему Эрдёша №124 в формальной системе Lean Prover. Ранее этот ИИ получил золото на олимпиаде по математике.
Как Aristotle справился?
Борис Алексеев, математик-исследователь, протестировал бета-версию Aristotle. За 6 часов Aristotle сгенерировал доказательство в Lean Prover, а проверка заняла минуту. ИИ в том числе исправил опечатку в формальной формулировке из проекта Formal Conjectures, сделав задачу чуть сложнее.
Математическое сообщество сказало, что Aristotle решил легкую версию, а не сложную задачу из BEGL96. Это хорошее решение для ИИ, хотя в ретроспективе очень простое. Математик Томас Блум предлагает оставить задачу Эрдеша №124 открытой, а решённую версию ИИ вынести в связанные проблемы.
А в соцсетях люди пишут, что работа ИИ на уровне олимпиады по математике. Возможно, была утечка из тренировочных данных, похоже на олимпиадные задачи. Но сообщество оценило автоматизацию, ИИ генерирует Lean-пруфы без присмотра — это круто.
Стартап Harmonic, основанный CEO Robinhood Владом Теневым, объявил, что их ИИ Aristotle самостоятельно доказала проблему Эрдёша №124 в формальной системе Lean Prover. Ранее этот ИИ получил золото на олимпиаде по математике.
Как Aristotle справился?
Борис Алексеев, математик-исследователь, протестировал бета-версию Aristotle. За 6 часов Aristotle сгенерировал доказательство в Lean Prover, а проверка заняла минуту. ИИ в том числе исправил опечатку в формальной формулировке из проекта Formal Conjectures, сделав задачу чуть сложнее.
Математическое сообщество сказало, что Aristotle решил легкую версию, а не сложную задачу из BEGL96. Это хорошее решение для ИИ, хотя в ретроспективе очень простое. Математик Томас Блум предлагает оставить задачу Эрдеша №124 открытой, а решённую версию ИИ вынести в связанные проблемы.
А в соцсетях люди пишут, что работа ИИ на уровне олимпиады по математике. Возможно, была утечка из тренировочных данных, похоже на олимпиадные задачи. Но сообщество оценило автоматизацию, ИИ генерирует Lean-пруфы без присмотра — это круто.
❤🔥11👍5🔥3❤2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Новый рекорд в квантовых вычисленях: IBM запутала 120 кубитов IBM объявили, что запутали 120 кубитов — это самое большое запутанное состояние, когда-либо достигнутое на квантовом компьютере. Кубиты — это квантовые биты, аналоги обычных битов в классических…
СЕО Google сказал, что сегодня квантовые вычисления находятся на том же уровне, что ИИ в 2020
Верим? Да/не? Мнения давайте в комментариях.
Пичаи отметил, что программа Google по квантовым вычислениям достигла точки перелома, и в ближайшие 5 лет можно ожидать значительных достижений, аналогичных ускорению ИИ в конце 2010-х. Последняя большая новость Google была в том, что их квантовый компьютер превзошел суперкомпьютер в 13К раз.
Прогресс зависит от 3-х столпов: снижение ошибок, улучшение кубитов, умная компиляция. Последние новости от IBM
Пичаи выделил несколько сфер, где квантовые компьютеры принесут практическую пользу в ближайшие годы:
1. Открытие лекарств. Квантовые симуляции позволят моделировать молекулы и химические реакции на атомном уровне, ускоряя разработку новых препаратов. Например, Google уже демонстрирует, как их чип Sycamore решает задачи, на которые суперкомпьютерам потребовались бы миллиарды лет.
2. Создание новых материалов для энергетики и устойчивой энергии, симулируя свойства на квантовом
3. Ускорение ИИ
4. Разработка "невзламываемых" систем шифрования, а также потенциал для взлома существующих алгоритмов. Об этом недавно говорил Виталик Бутерин.
Верим? Да/не? Мнения давайте в комментариях.
Пичаи отметил, что программа Google по квантовым вычислениям достигла точки перелома, и в ближайшие 5 лет можно ожидать значительных достижений, аналогичных ускорению ИИ в конце 2010-х. Последняя большая новость Google была в том, что их квантовый компьютер превзошел суперкомпьютер в 13К раз.
Прогресс зависит от 3-х столпов: снижение ошибок, улучшение кубитов, умная компиляция. Последние новости от IBM
Пичаи выделил несколько сфер, где квантовые компьютеры принесут практическую пользу в ближайшие годы:
1. Открытие лекарств. Квантовые симуляции позволят моделировать молекулы и химические реакции на атомном уровне, ускоряя разработку новых препаратов. Например, Google уже демонстрирует, как их чип Sycamore решает задачи, на которые суперкомпьютерам потребовались бы миллиарды лет.
2. Создание новых материалов для энергетики и устойчивой энергии, симулируя свойства на квантовом
3. Ускорение ИИ
4. Разработка "невзламываемых" систем шифрования, а также потенциал для взлома существующих алгоритмов. Об этом недавно говорил Виталик Бутерин.
The Economic Times
Google CEO Sundar Pichai signals quantum computing could be next big tech shift after AI - The Economic Times
Google’s quantum programme is entering a pivotal phase, where it could see some big breakthroughs within the next five years — on par with the rapid acceleration AI saw in the late 2010s, said Pichai, speaking at the BBC Newsnight. Through the quantum computing…
👍15👏3🔥2❤1
#DeepSeek выпустили сегодня 2 модели для агентов
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
Telegram
All about AI, Web 3.0, BCI
#DeepSeek just launched DeepSeek-V3.2 & DeepSeek-V3.2-Speciale — Reasoning-first models built for agents
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1❤8❤🔥5👍5
Тренды интеграции ИИ в нейроинтерфейсы от GOAT индустрии М. Лебедева
Профессор на недавней конференции AIJ предложил использовать ИИ для нейроинтерфейсов вот в таких случаях, смотрите его презентацию.
Лебедев описывает эволюцию роли ИИ в нейроинтерфейсах так:
1 уровень: ИИ как декодер
"Переводим сигналы мозга в команды" → Это стандарт уже 10+ лет (классификаторы, нейросети)
2 уровень: ИИ как генератор
"Создаем стимулы для мозга" → Обратная связь, нейромодуляция, BCI-реабилитация
3 уровень: ИИ как протез функции
"Заменяем утраченные способности" → Коммуникация для парализованных.
Уровень 4: ИИ как усилитель когнитивных способностей
"Улучшаем здоровых людей" → выход за рамки медицины.
Сейчас профессор с командой работает над неинвазивным нейроинтерфейсом, который подключается к чат-боту типа DeepSeek/ChatGpt и исправляет ошибки в набранном тексте и выполняет роль собеседника.
Профессор на недавней конференции AIJ предложил использовать ИИ для нейроинтерфейсов вот в таких случаях, смотрите его презентацию.
Лебедев описывает эволюцию роли ИИ в нейроинтерфейсах так:
1 уровень: ИИ как декодер
"Переводим сигналы мозга в команды" → Это стандарт уже 10+ лет (классификаторы, нейросети)
2 уровень: ИИ как генератор
"Создаем стимулы для мозга" → Обратная связь, нейромодуляция, BCI-реабилитация
3 уровень: ИИ как протез функции
"Заменяем утраченные способности" → Коммуникация для парализованных.
Уровень 4: ИИ как усилитель когнитивных способностей
"Улучшаем здоровых людей" → выход за рамки медицины.
Сейчас профессор с командой работает над неинвазивным нейроинтерфейсом, который подключается к чат-боту типа DeepSeek/ChatGpt и исправляет ошибки в набранном тексте и выполняет роль собеседника.
🔥7👍5❤3🤔1
Утечка SemiAnalysis: за 1,5 года OpenAI не создала новой фронтирной модели
С момента ухода Ильи Суцкевера, с мая 2024 OpenAI не завершили ни одного успешного полномасштабного предобучения для новой фронтирной модели.
Об этом пишет SemiAnalysis и говорит, что это не просто задержка — технический барьер, который OpenAI не преодолел.
Какие причины по версии SemiAnalysis?
1. Проблемы с конвергенцией — модель не достигает нужного качества на больших кластерах. Предыдущие запуски, вероятно, провалились или были прерваны.
2. OpenAI переориентировалась на пост-обучение. Но это не заменяет новое предобучение — оно строится на старой базе данных и вычислений.
3. OpenAI не расширяла кластеры NVIDIA с мая 2024-го. Видна только активность по fine-tuning и RL, но не по предобучению. Они сэкономили ~30% на NVIDIA благодаря конкуренции от TPU, но TPUs ещё не развернуты.
В отличие от OpenAI, Google успешно обучил Gemini 3 целиком на TPUv7, который даёт ~44% снижения TCO по сравнению с NVIDIA GB200, и до 52% для внешних клиентов.
SemiAnalysis подчёркивает, что 3D-торус в TPU важнее микроархитектуры, и Google лидирует в инфраструктуре.
OpenAI, возможно, купит TPU как и Anthropic, Meta(запрещена в России) и xAI, но пока полагается на NVIDIA и AWS.
SemiAnalysis считает, что GPT-5— это пост-тренинг на старой базе GPT-4o. Нет новой предобученной основы, которая бы включала свежие данные и масштабирование FLOPs.
OpenAI не комментировала этот анализ напрямую, но в подкастах, например, с Ноамом Брауном, признавали, что масштабирование предобучения становится дороже и сложнее.
С момента ухода Ильи Суцкевера, с мая 2024 OpenAI не завершили ни одного успешного полномасштабного предобучения для новой фронтирной модели.
Об этом пишет SemiAnalysis и говорит, что это не просто задержка — технический барьер, который OpenAI не преодолел.
Какие причины по версии SemiAnalysis?
1. Проблемы с конвергенцией — модель не достигает нужного качества на больших кластерах. Предыдущие запуски, вероятно, провалились или были прерваны.
2. OpenAI переориентировалась на пост-обучение. Но это не заменяет новое предобучение — оно строится на старой базе данных и вычислений.
3. OpenAI не расширяла кластеры NVIDIA с мая 2024-го. Видна только активность по fine-tuning и RL, но не по предобучению. Они сэкономили ~30% на NVIDIA благодаря конкуренции от TPU, но TPUs ещё не развернуты.
В отличие от OpenAI, Google успешно обучил Gemini 3 целиком на TPUv7, который даёт ~44% снижения TCO по сравнению с NVIDIA GB200, и до 52% для внешних клиентов.
SemiAnalysis подчёркивает, что 3D-торус в TPU важнее микроархитектуры, и Google лидирует в инфраструктуре.
OpenAI, возможно, купит TPU как и Anthropic, Meta(запрещена в России) и xAI, но пока полагается на NVIDIA и AWS.
SemiAnalysis считает, что GPT-5— это пост-тренинг на старой базе GPT-4o. Нет новой предобученной основы, которая бы включала свежие данные и масштабирование FLOPs.
OpenAI не комментировала этот анализ напрямую, но в подкастах, например, с Ноамом Брауном, признавали, что масштабирование предобучения становится дороже и сложнее.
Semianalysis
Google TPUv7: The 900lb Gorilla In the Room
Anthropic’s 1GW+ TPUs, New customers Meta/SSI/xAI/OAI, Full Stack Review of v7 Ironwood, CUDA Moat at risk, Next Generation TPUv8AX and TPUv8X versus Vera Rubin
👍13❤7🔥5👎1
В 2026г. IT-компании в РФ заплатят 3% вузам от сэкономленных ₽ на льготах
Крупные IT-компании для сохранения аккредитации будут обязаны заключать соглашения с профильными вузами и отчислять им 3% от сэкономленных от налоговых льгот средств.
Речь идет о компаниях, у которых:
- выручка не менее 1 млрд руб. за год;
- они пользовались сниженными тарифами страховых взносов/пониженной ставкой на налог на прибыль;
- количество сотрудников составило не менее 100.
IT-компании будут разрабатывать образовательные программы по профильным специальностям и направлять сотрудников для проведения занятий.
Расходы бизнеса на эту инициативу могут составить около 10 млрд руб. в первый год. Пока же из 500 IT-компаний, которые соответствуют критериям, лишь 20% взаимодействуют с системой образования.
Крупные IT-компании для сохранения аккредитации будут обязаны заключать соглашения с профильными вузами и отчислять им 3% от сэкономленных от налоговых льгот средств.
Речь идет о компаниях, у которых:
- выручка не менее 1 млрд руб. за год;
- они пользовались сниженными тарифами страховых взносов/пониженной ставкой на налог на прибыль;
- количество сотрудников составило не менее 100.
IT-компании будут разрабатывать образовательные программы по профильным специальностям и направлять сотрудников для проведения занятий.
Расходы бизнеса на эту инициативу могут составить около 10 млрд руб. в первый год. Пока же из 500 IT-компаний, которые соответствуют критериям, лишь 20% взаимодействуют с системой образования.
Коммерсантъ
Образование процента
Крупнейшие IT-компании заплатят 3% от сэкономленных на льготах средств вузам
👌9❤3
Anthropic проверили ИИ - агентов на смарт-контрактах на основе блокчейна
Команда исследователей из программ MATS и Anthropic Fellows создала новый бенчмарк SCONE-bench из 405 реальных контрактов, которые были взломаны в период 2020-2025 гг.
Смарт-контракты — идеальный полигон для оценки, потому что:
- Весь код публичен на блокчейне
- Уязвимости позволяют прямое хищение средств
- Можно точно измерить стоимость уязвимостей в $
- Навыки аналогичны эксплуатации традиционного ПО
Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 создали уязвимости на $4,6 млн для смарт-контрактов, взломанных после марта 2025 года после даты их обучения. Это устанавливает конкретную нижнюю границу экономического ущерба, который могут нанести эти модели.
Оба агента (Sonnet 4.5 и GPT-5) обнаружили 2 новые уязвимости в 2849 недавно развёрнутых контрактах, создав эксплойты на $3,694, при этом GPT-5 сделал это за $3,476 в API-расходах. Это доказывает, что автономная прибыльная эксплуатация технически возможна уже сегодня.
Команда исследователей из программ MATS и Anthropic Fellows создала новый бенчмарк SCONE-bench из 405 реальных контрактов, которые были взломаны в период 2020-2025 гг.
Смарт-контракты — идеальный полигон для оценки, потому что:
- Весь код публичен на блокчейне
- Уязвимости позволяют прямое хищение средств
- Можно точно измерить стоимость уязвимостей в $
- Навыки аналогичны эксплуатации традиционного ПО
Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 создали уязвимости на $4,6 млн для смарт-контрактов, взломанных после марта 2025 года после даты их обучения. Это устанавливает конкретную нижнюю границу экономического ущерба, который могут нанести эти модели.
Оба агента (Sonnet 4.5 и GPT-5) обнаружили 2 новые уязвимости в 2849 недавно развёрнутых контрактах, создав эксплойты на $3,694, при этом GPT-5 сделал это за $3,476 в API-расходах. Это доказывает, что автономная прибыльная эксплуатация технически возможна уже сегодня.
🔥13🤔3👍2
Ex сотрудник Tesla, HF создал свою компанию по ИИ и робототехнике
UMA — это стартап, у которого продукт — платформа для создания "умных" роботов, способных выполнять задачи в различных сферах.
Они сочетают передовые системы ИИ с робототехникой.
Советниками стартапа стали Ян Лекун и Томас Вольф , СТО Hugging Face.
UMA — это стартап, у которого продукт — платформа для создания "умных" роботов, способных выполнять задачи в различных сферах.
Они сочетают передовые системы ИИ с робототехникой.
Советниками стартапа стали Ян Лекун и Томас Вольф , СТО Hugging Face.
uma.bot
UMA - Building intelligent robots that enhance quality of life for everyone
At UMA, we develop AI and robotics dedicated to shaping a new economic and societal era. We design general-purpose mobile and humanoid robots with human-level dexterity and a deep understanding of the physical world.
👍6🔥4❤3🤔1
ЦБ РФ очень долго запрягают- только поняли, что им нужны стейблкоины и их невозможно игнорировать
Больше про стейблкоины читайте здесь, а также здесь, а еще здесь. А также тут.
Банк России обсуждает возможность облегчения правил обращения криптоактивов не только через супер квалифицированных инвесторов. 1-й зампред ЦБ В. Чистюхин говорит, что криптоактивы могли бы быть распространены и ниже уровнем.
Также ЦБ с Минфином обсуждает вопрос введения в законодательство определения стейблкоинов. Ранее ЦБ писали, что стейблкоины несут риски.
"Нам кажется, что настал момент посмотреть на него (рынок криптоактивов ) действительно как на рынок в целом, может, пользуясь больше международной классификацией относительно той, которая есть сегодня, а это: цифровые валюты центральных банков (CBDC), стейблокоины и криптовалюты", - сказал первый зампред ЦБ.
А с 5 января 2026 года Bank of America официально разрешает своим консультантам предлагать клиентам держать от 1 до 4 % портфеля в криптовалюте, в первую очередь в биткоин-ETF.
Больше про стейблкоины читайте здесь, а также здесь, а еще здесь. А также тут.
Банк России обсуждает возможность облегчения правил обращения криптоактивов не только через супер квалифицированных инвесторов. 1-й зампред ЦБ В. Чистюхин говорит, что криптоактивы могли бы быть распространены и ниже уровнем.
Также ЦБ с Минфином обсуждает вопрос введения в законодательство определения стейблкоинов. Ранее ЦБ писали, что стейблкоины несут риски.
"Нам кажется, что настал момент посмотреть на него (рынок криптоактивов ) действительно как на рынок в целом, может, пользуясь больше международной классификацией относительно той, которая есть сегодня, а это: цифровые валюты центральных банков (CBDC), стейблокоины и криптовалюты", - сказал первый зампред ЦБ.
А с 5 января 2026 года Bank of America официально разрешает своим консультантам предлагать клиентам держать от 1 до 4 % портфеля в криптовалюте, в первую очередь в биткоин-ETF.
Интерфакс
Банк России представит позицию по регулированию криптовалют до конца 2025 года
Интерфакс: Банк России планирует представить свою позицию по вопросу регулирования рынка криптоактивов до конца текущего года, заявил журналистам первый зампред ЦБ Владимир Чистюхин."Мы обсуждаем целесообразность использования "суперквалов" в новом регулировании…
❤7😁6👍5🔥2
ЧП в OpenAI, они на панике готовятся выпустить новую модель Garlik 🧄как ответочка на Gemini 3
Сэм Альтман разослал сотрудникам очередное письмо, в котором объявил режим code red.
Альтман написал: «мы находимся в критической ситуации для ChatGPT», подчёркивая необходимость срочно перераспределить людей, вычисления и ресурсы. Цель — вернуть лидерство в ИИ-чатботах. За 2 недели с момента запуска Gemini 3 количество уникальных активных пользователей ChatGPT в день снизилось на 6%, смотрите в комментариях пруф.
Одновременно с этим команда на этой неделе выпустит новую модель Garlic.
Вчера на подкасте глава по науке OpenAI Марк Чен сказал так: «У нас есть модель, которая обходит GPT-4.5 в кодинге и мышлении, при этом потребляя намного меньше ресурсов».
Также Марк Чен сказал :
1. за последние 2 года мы вложили столько ресурсов в reasoning, что немного потеряли мышцы в pre-training и post-training
2. Они развивают проект, связанный с синтетическими данными, о котором упоминалось в связи с запуском GPT-5. Суть заключается в генерации полезных данных для обучения.
3. Все говорят, что scaling мёртв. Мы так не считаем, у нас есть алгоритмические прорывы, которые позволяют продолжать масштабировать модели.
Вчера мы опубликовали анализ от SemiAnalysis, которые отметили, что GPT-5— по сути глубокий пост-тренинг на базе GPT-4o 2024 года, а не новая фундаментальная модель со свежими данными и 10× вычислениями.
P.S. После ухода Ильи Суцкевера OpenAI потеряла мозговой центр. С тех пор за 1.5 года компания фокусировалась на монетизации, партнёрствах и хайпе, а не на большом прыжке. Нет новой фундаментальной модели уровня GPT-4.
Сэм Альтман разослал сотрудникам очередное письмо, в котором объявил режим code red.
Альтман написал: «мы находимся в критической ситуации для ChatGPT», подчёркивая необходимость срочно перераспределить людей, вычисления и ресурсы. Цель — вернуть лидерство в ИИ-чатботах. За 2 недели с момента запуска Gemini 3 количество уникальных активных пользователей ChatGPT в день снизилось на 6%, смотрите в комментариях пруф.
Одновременно с этим команда на этой неделе выпустит новую модель Garlic.
Вчера на подкасте глава по науке OpenAI Марк Чен сказал так: «У нас есть модель, которая обходит GPT-4.5 в кодинге и мышлении, при этом потребляя намного меньше ресурсов».
Также Марк Чен сказал :
1. за последние 2 года мы вложили столько ресурсов в reasoning, что немного потеряли мышцы в pre-training и post-training
2. Они развивают проект, связанный с синтетическими данными, о котором упоминалось в связи с запуском GPT-5. Суть заключается в генерации полезных данных для обучения.
3. Все говорят, что scaling мёртв. Мы так не считаем, у нас есть алгоритмические прорывы, которые позволяют продолжать масштабировать модели.
Вчера мы опубликовали анализ от SemiAnalysis, которые отметили, что GPT-5— по сути глубокий пост-тренинг на базе GPT-4o 2024 года, а не новая фундаментальная модель со свежими данными и 10× вычислениями.
P.S. После ухода Ильи Суцкевера OpenAI потеряла мозговой центр. С тех пор за 1.5 года компания фокусировалась на монетизации, партнёрствах и хайпе, а не на большом прыжке. Нет новой фундаментальной модели уровня GPT-4.
The Information
OpenAI Developing ‘Garlic’ Model to Counter Google’s Recent Gains
OpenAI, which in recent weeks has appeared to fall behind Google in AI development, is fighting back with a new large language model codenamed Garlic.Last week, OpenAI’s chief research officer Mark Chen told some colleagues about the new model, which was…
👍6🤣6❤5🔥1😱1🙏1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
⚡️AlphaChip от Google сможет в будущем автоматизировать весь процесс проектирования чипов AlphaChip использует методы обучения с подкреплением, похожие на те, что применялись в AlphaGo и AlphaZero для игр. AlphaChip уже применяется для проектирования TPU…
2 девушки, экс-Google, создали компанию по разработке чипов с ИИ
Азалия Мирхосейни и Анна Голди, экс-исследователи Google, которые работали над AlphaChip создали фронтирную
лабораторию Ricursive Intelligence.
Ricursive — это R&D-хаб на стыке ИИ и железа.
Идея в том, что ИИ сам проектирует чипы, а эти чипы, в свою очередь, делают ИИ умнее. Это рекурсивное самоулучшение — цикл, где AI → чипы → лучший AI → ещё лучшие чипы.
Цель - ускорить путь к ASI, решая задачу, которая стоит в $800 млрд индустрии полупроводников.
Они уже собрали $35 млн в seed-раунде при оценке в $750 млн.
Команда небольшая, но звёздная: Jiwoo Pak, Ebrahim Songhori, Yi-Chen Lu, Dan Zhang и Hao Chen. Все с бэком в топ-компаниях типа Google и фокусом на hardware-AI интеграцию.
Азалия Мирхосейни и Анна Голди, экс-исследователи Google, которые работали над AlphaChip создали фронтирную
лабораторию Ricursive Intelligence.
Ricursive — это R&D-хаб на стыке ИИ и железа.
Идея в том, что ИИ сам проектирует чипы, а эти чипы, в свою очередь, делают ИИ умнее. Это рекурсивное самоулучшение — цикл, где AI → чипы → лучший AI → ещё лучшие чипы.
Цель - ускорить путь к ASI, решая задачу, которая стоит в $800 млрд индустрии полупроводников.
Они уже собрали $35 млн в seed-раунде при оценке в $750 млн.
Команда небольшая, но звёздная: Jiwoo Pak, Ebrahim Songhori, Yi-Chen Lu, Dan Zhang и Hao Chen. Все с бэком в топ-компаниях типа Google и фокусом на hardware-AI интеграцию.
Ricursive
Recursive Self-Improvement via AI for Chip Design & Chip Design for AI - Riculsive Intelligence
We develop frontier AI methods to reinvent chip development, collapsing traditional design timelines, closing the loop between AI and the hardware that fuels it, and enabling a Cambrian explosion of custom silicon.
🔥13❤6👏5🤔3🤣3👎1💊1
Anthropic готовится к IPO на $300–400 млрд, но почему не на $1трлн, как OpenAI? Рассказываем в этом посте.
Компания обсуждает IPO в диапазоне $300–400 млрд, почти без markup к последнему частному раунду. Это почти нулевой апсайд для новых инвесторов, что нетипично для «горячих» размещений.
Главная ценность IPO для Anthropic — не деньги, а инфраструктура доверия, то есть enterprise.
Крупный бизнес при подписании контракта на $20–100 млн обязан объяснить своему совету директоров и риск-комитету:
- Кто проверял финансовую отчётность этой компании?
- Есть ли у неё SOX-compliance и аудит по GAAP?
- Что будет, если стартап завтра закроется или сменит владельца?
Частная компания на эти вопросы ответить не может. Публичная — может одним фактом своего статуса.
Anthropic уже в 2025 году выходит на ~$9 млрд ARR и планирует $20–26 млрд в 2026-м. У них положительная юнит-экономика и относительно скромный burn по сравнению с конкурентами. Им не нужно «продавать мечту» за триллион $, как это уже работающий бизнес.
Поэтому они и планируют IPO почти без markup к последнему раунду: $300–400 млрд.
Не чтобы стать дороже, а чтобы стать безопасным выбором для любого корпоративного закупщика в мире.
OpenAI решает другую задачу: им нужно профинансировать $15–20 млрд годовых расходов на пути к AGI. Поэтому они и целятся в $1 трлн+ — им нужны эти деньги.
А Anthropic — нет. Им нужна просто возможность спокойно продавать свой уже готовый продукт большим компаниям без лишних вопросов.
Первой публичной ИИ-компанией с настоящими enterprise-доходами станет именно та, у кого сейчас не капитал, а доверие.
Компания обсуждает IPO в диапазоне $300–400 млрд, почти без markup к последнему частному раунду. Это почти нулевой апсайд для новых инвесторов, что нетипично для «горячих» размещений.
Главная ценность IPO для Anthropic — не деньги, а инфраструктура доверия, то есть enterprise.
Крупный бизнес при подписании контракта на $20–100 млн обязан объяснить своему совету директоров и риск-комитету:
- Кто проверял финансовую отчётность этой компании?
- Есть ли у неё SOX-compliance и аудит по GAAP?
- Что будет, если стартап завтра закроется или сменит владельца?
Частная компания на эти вопросы ответить не может. Публичная — может одним фактом своего статуса.
Anthropic уже в 2025 году выходит на ~$9 млрд ARR и планирует $20–26 млрд в 2026-м. У них положительная юнит-экономика и относительно скромный burn по сравнению с конкурентами. Им не нужно «продавать мечту» за триллион $, как это уже работающий бизнес.
Поэтому они и планируют IPO почти без markup к последнему раунду: $300–400 млрд.
Не чтобы стать дороже, а чтобы стать безопасным выбором для любого корпоративного закупщика в мире.
OpenAI решает другую задачу: им нужно профинансировать $15–20 млрд годовых расходов на пути к AGI. Поэтому они и целятся в $1 трлн+ — им нужны эти деньги.
А Anthropic — нет. Им нужна просто возможность спокойно продавать свой уже готовый продукт большим компаниям без лишних вопросов.
Первой публичной ИИ-компанией с настоящими enterprise-доходами станет именно та, у кого сейчас не капитал, а доверие.
Reuters
Anthropic plans an IPO as early as 2026, FT reports
Anthropic, the artificial intelligence startup backed by Alphabet's Google and Amazon.com , has hired the law firm Wilson Sonsini to prepare for an initial public offering that could take place as early as 2026, the Financial Times reported on Tuesday.
❤14🔥9👍4🤔1
Google DeepMind поменяла подход к пониманию ИИ
Команда перешла к прагматической интерпретируемости, чтобы исследования лучше служили реальным целям, таким как безопасность AGI.
Что такое прагматическая интерпретируемость и зачем её ввели?
Раньше команда использовала механистическую интерпретируемость — когда исследователи пытаются разобрать нейронные сети, как механизм, чтобы понять, как они работают внутри. Это дало интересные открытия: от понимания, как модели хранят знания в "суперпозиции" , до выявления скрытых целей в поведении ИИ.
Но DeepMind заметили проблему: такие исследования часто остаются на уровне любопытных находок, без прямого влияния на безопасность. AGI ещё не существует, но риски — реальны, и нужно фокусироваться на том, что приближает к решению этих рисков. Прагматическая интерпретируемость — это расширение: не только разбирать "внутренности", но и применять навыки для практических задач. Главное — измерять прогресс через эмпирические прокси-задачи, которые имитируют будущие проблемы AGI.
Почему именно сейчас? Модели ИИ стали сложнее (типа Claude Sonnet 4.5), и появились реальные примеры, когда ИИ не следует целям создателей.
Команда перешла к прагматической интерпретируемости, чтобы исследования лучше служили реальным целям, таким как безопасность AGI.
Что такое прагматическая интерпретируемость и зачем её ввели?
Раньше команда использовала механистическую интерпретируемость — когда исследователи пытаются разобрать нейронные сети, как механизм, чтобы понять, как они работают внутри. Это дало интересные открытия: от понимания, как модели хранят знания в "суперпозиции" , до выявления скрытых целей в поведении ИИ.
Но DeepMind заметили проблему: такие исследования часто остаются на уровне любопытных находок, без прямого влияния на безопасность. AGI ещё не существует, но риски — реальны, и нужно фокусироваться на том, что приближает к решению этих рисков. Прагматическая интерпретируемость — это расширение: не только разбирать "внутренности", но и применять навыки для практических задач. Главное — измерять прогресс через эмпирические прокси-задачи, которые имитируют будущие проблемы AGI.
Почему именно сейчас? Модели ИИ стали сложнее (типа Claude Sonnet 4.5), и появились реальные примеры, когда ИИ не следует целям создателей.
1❤12👍7🔥2