Anthropic создали метод, позволяющий агентам работать несколько часов и даже дней
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон.
Главная проблема - ИИ-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей.
Решение состоит из 2-х частей:
1. Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
2. Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления.
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути.
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон.
Главная проблема - ИИ-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей.
Решение состоит из 2-х частей:
1. Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
2. Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления.
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути.
Anthropic
Effective harnesses for long-running agents
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
👍14❤9❤🔥5🤣3🔥2
К 2030г. ИИ-ЦОДы в космосе будут дешевле, чем на Земле. Уже сегодня вычисления на орбите ближе к ценам на земле - исследование
Исследовательская группа 33FG опубликовала технико-экономический анализ, показывающий: к 2030 году стоимость энергии для орбитальных дата-центрах станет ниже, чем на Земле.
Отметим, что Google уже представил свой проект по ЦОДу в космосе.
Уже через несколько лет энергия для ИИ-кластеров на орбите может стать дешевле и лучше земной, а в долгосрочной перспективе — вообще безальтернативным вариантом для действительно больших вычислительных мощностей.
При текущих прогнозируемых затратах на доставку (~$2,000/кг на высокую орбиту)спутники обеспечивают энергию по ~$18-26 за ватт — в 2 раза дороже земных дата-центров ($12/Вт).
Но картина сильно меняется:
При $1,000/кг — паритет с Землей
При $500/кг — орбита на 30% дешевле
При $100/кг — орбита на 50% дешевле
Дозаправляемый Starship делает эти цифры реальными уже в 2027-2028.
Но как только появится полностью многоразовый Starship с дозаправкой на орбите, стоимость выведения в HEO будет падать очень быстро.
Авторы смоделировали 3 типа спутников и при какой цене выведения ($/кг) каждый из них достигает паритета с земными дата-центрами (т.е. ≤12 $/Вт):
1. Обычный спутник типа Starlink → паритет при ~500 $/кг
2. Оптимизированный под вычисления Starlink (стандартные солнечные панели, но больше радиаторов и т.д.) → паритет при ~1000 $/кг
3. Фронтир спутник с тонкоплёночными солнечными панелями (очень высокая удельная мощность 250 Вт/кг) → паритет тоже при ~500 $/кг
А при цене выведения 100 $/кг (цель Starship на длинном горизонте):
орбитальная энергия уже 6–9 $/Вт — на 25–50 % дешевле лучших земных дата-центров.
От чего это зависит?
- Сколько ватт на кг даёт вся система энергия + охлаждение (107 Вт/кг у текущего Starlink → 160 Вт/кг у оптимизированного → 250 Вт/кг у тонкоплёночных)
- Сколько стоит само оборудование в $/Вт (у текущего Starlink 6,1 $/Вт, у оптимизированного ~5 $/Вт, у тонкоплёночных наоборот дорого ~9 $/Вт)
- На высокой орбите почти постоянное солнце (95 % времени против ~65 % в низкой орбите) и выше эффективность панелей.
Как ведут себя три архитектуры?
- Красный (Thin-PV «Фронтир») — выигрывает только пока выведение дорогое (>500–600 $/кг). У него минимальная масса, поэтому дорогой запуск наказывает меньше. Но как только цена выведения падает — высокая цена самих панелей делает его самым дорогим.
- Чёрный (обычный Starlink-класс) — надёжный середнячок, достигает паритета при 500–600 $/кг без всяких переделок.
- Зелёный (Compute-Optimized Starlink) — долгосрочный победитель. Как только выведение становится дешевле 1000 $/кг, он выходит в лидеры. Дешевое массовое оборудование побеждает гонку за экстремальной удельной мощностью.
На орбите:
- почти идеальный солнечный поток 24/7,
- нет ограничений по земле и охлаждению водой,
- можно строить структуры размером с город без всяких разрешений и соседей.
Экономический паритет уже очень близко (при 500–1000 $/кг, а это вполне реально в ближайшие годы), но Илон и команда толкают orbital compute не только ради экономии.
Исследовательская группа 33FG опубликовала технико-экономический анализ, показывающий: к 2030 году стоимость энергии для орбитальных дата-центрах станет ниже, чем на Земле.
Отметим, что Google уже представил свой проект по ЦОДу в космосе.
Уже через несколько лет энергия для ИИ-кластеров на орбите может стать дешевле и лучше земной, а в долгосрочной перспективе — вообще безальтернативным вариантом для действительно больших вычислительных мощностей.
При текущих прогнозируемых затратах на доставку (~$2,000/кг на высокую орбиту)спутники обеспечивают энергию по ~$18-26 за ватт — в 2 раза дороже земных дата-центров ($12/Вт).
Но картина сильно меняется:
При $1,000/кг — паритет с Землей
При $500/кг — орбита на 30% дешевле
При $100/кг — орбита на 50% дешевле
Дозаправляемый Starship делает эти цифры реальными уже в 2027-2028.
Но как только появится полностью многоразовый Starship с дозаправкой на орбите, стоимость выведения в HEO будет падать очень быстро.
Авторы смоделировали 3 типа спутников и при какой цене выведения ($/кг) каждый из них достигает паритета с земными дата-центрами (т.е. ≤12 $/Вт):
1. Обычный спутник типа Starlink → паритет при ~500 $/кг
2. Оптимизированный под вычисления Starlink (стандартные солнечные панели, но больше радиаторов и т.д.) → паритет при ~1000 $/кг
3. Фронтир спутник с тонкоплёночными солнечными панелями (очень высокая удельная мощность 250 Вт/кг) → паритет тоже при ~500 $/кг
А при цене выведения 100 $/кг (цель Starship на длинном горизонте):
орбитальная энергия уже 6–9 $/Вт — на 25–50 % дешевле лучших земных дата-центров.
От чего это зависит?
- Сколько ватт на кг даёт вся система энергия + охлаждение (107 Вт/кг у текущего Starlink → 160 Вт/кг у оптимизированного → 250 Вт/кг у тонкоплёночных)
- Сколько стоит само оборудование в $/Вт (у текущего Starlink 6,1 $/Вт, у оптимизированного ~5 $/Вт, у тонкоплёночных наоборот дорого ~9 $/Вт)
- На высокой орбите почти постоянное солнце (95 % времени против ~65 % в низкой орбите) и выше эффективность панелей.
Как ведут себя три архитектуры?
- Красный (Thin-PV «Фронтир») — выигрывает только пока выведение дорогое (>500–600 $/кг). У него минимальная масса, поэтому дорогой запуск наказывает меньше. Но как только цена выведения падает — высокая цена самих панелей делает его самым дорогим.
- Чёрный (обычный Starlink-класс) — надёжный середнячок, достигает паритета при 500–600 $/кг без всяких переделок.
- Зелёный (Compute-Optimized Starlink) — долгосрочный победитель. Как только выведение становится дешевле 1000 $/кг, он выходит в лидеры. Дешевое массовое оборудование побеждает гонку за экстремальной удельной мощностью.
На орбите:
- почти идеальный солнечный поток 24/7,
- нет ограничений по земле и охлаждению водой,
- можно строить структуры размером с город без всяких разрешений и соседей.
Экономический паритет уже очень близко (при 500–1000 $/кг, а это вполне реально в ближайшие годы), но Илон и команда толкают orbital compute не только ради экономии.
research.33fg
Orbital Compute Energy will be cheaper than Earth by 2030
In Part 1 of this series, we looked at the mass side of Elon Musk’s orbital compute vision: what satellite architectures are needed to reach 100 GW of compute in high Earth orbit without thousands of Starship launches every year. We showed that you only get…
🔥14⚡4👍4🤣2👏1
Горячая новинка NeurIPS 2025 для долгосрочных нейроинтерфейсов
По сути, создан рецепт, как строить нейроинтерфейсы, которые:
• сразу дают высокую точность
• не теряют её через год-два-три
Проблема всех текущих лидеров нейроинтерфейсов (BCI) - то, что они работают на спайках → супер-точно, но сигнал деградирует за месяцы-годы. LFP (локальные полевые потенциалы) стабильны годами, но точность декодирования намерений обычно сильно ниже.
Команда из Стэнфорда показала, как это исправить раз и навсегда:
Они научились «перегонять» высокоточные представления из больших спайковых трансформеров в LFP-модели.
Результаты:
1. Точность LFP-моделей подскакивает до уровня близкого к спайковым
2. Модель обобщается на новые сессии без дополнительной дистилляции
3. На инференсе нужны только LFP — спайки больше не требуются вообще
4. Скрытые представления LFP-модели становятся почти идентичны спайковыми.
По сути, создан рецепт, как строить нейроинтерфейсы, которые:
• сразу дают высокую точность
• не теряют её через год-два-три
Проблема всех текущих лидеров нейроинтерфейсов (BCI) - то, что они работают на спайках → супер-точно, но сигнал деградирует за месяцы-годы. LFP (локальные полевые потенциалы) стабильны годами, но точность декодирования намерений обычно сильно ниже.
Команда из Стэнфорда показала, как это исправить раз и навсегда:
Они научились «перегонять» высокоточные представления из больших спайковых трансформеров в LFP-модели.
Результаты:
1. Точность LFP-моделей подскакивает до уровня близкого к спайковым
2. Модель обобщается на новые сессии без дополнительной дистилляции
3. На инференсе нужны только LFP — спайки больше не требуются вообще
4. Скрытые представления LFP-модели становятся почти идентичны спайковыми.
openreview.net
Cross-Modal Representational Knowledge Distillation for Enhanced...
Local field potentials (LFPs) can be routinely recorded alongside spiking activity in intracortical neural experiments, measure a larger complementary spatiotemporal scale of brain activity for...
🔥9👍6❤4❤🔥1😁1
Свежий релиз от #DeepSeek - DeepSeekMath-V2 — LLM, специализирующаяся на математическом рассуждении с акцентом на самопроверку.
Это не универсальная LLM, а узкоспециализированный инструмент для математики, который генерирует и проверяет полные доказательства, имитируя процесс работы человека математика.
Модель содержит 685 млрд параметров и построена на базе DeepSeek-V3.2-Exp-Base.
Это не универсальная LLM, а узкоспециализированный инструмент для математики, который генерирует и проверяет полные доказательства, имитируя процесс работы человека математика.
Модель содержит 685 млрд параметров и построена на базе DeepSeek-V3.2-Exp-Base.
Telegram
All about AI, Web 3.0, BCI
#DeepSeek released DeepSeek-Math-V2: Towards Self-Verifiable Mathematical Reasoning
It shows LLMs can now self-verify proofs, not just output solutions. DeepSeekMath-V2 achieves gold-level IMO 2025, CMO 2024, and 118/120 Putnam 2024, pointing to a future…
It shows LLMs can now self-verify proofs, not just output solutions. DeepSeekMath-V2 achieves gold-level IMO 2025, CMO 2024, and 118/120 Putnam 2024, pointing to a future…
👍9❤5🔥3🤔1
Дорогие друзья, мы единственный телеграм-канал, который получил аккредитацию на лучшую конференцию по ИИ в мире #NeurIPS2025.
Поэтому ждите на следующей неделе много самого интересного и качественного контента.
Впервые в истории NeurIPS телеграм-канал вообще запросил и получил аккредитацию.
Поэтому ждите на следующей неделе много самого интересного и качественного контента.
Впервые в истории NeurIPS телеграм-канал вообще запросил и получил аккредитацию.
11🔥61⚡12❤🔥11❤10👏8
xAI Маска строит солнечную станцию для обучения ИИ-моделей
ИИ компания xAI подала заявку на строительство солнечной станции, которая будет находиться рядом с их дата-центром Colossus— один из крупнейших в мире. На старте он оснащён 100 000 GPU с планами расширения до 1 млн.
А если вы не читали экономику строительства ЦОДов в космосе, то вот.
Солнечная станция должна будет производить ~ 30 МВт электроэнергии, что покроет ~ 10% от общих энергопотребностей Colossus, оцениваемых в 300 МВт.
19 ноября Маск ответил на идею Марка Бениоффа (CEO Salesforce) о космических дата-центрах, что Starship сможет доставлять около 300 ГВт солнечных ИИ-спутников на орбиту ежегодно, возможно 500 ГВт. Это сделает ИИ в космосе мощнее всей экономики США за 2 года.
Отметим, что Google, Microsoft, Amazon, Meta*, OpenAI активно строят солнечные фермы для дата-центров, чтобы покрыть растущий спрос на энергию. Они используют комбо с батареями для круглосуточной работы.
*запрещенная компания в России.
ИИ компания xAI подала заявку на строительство солнечной станции, которая будет находиться рядом с их дата-центром Colossus— один из крупнейших в мире. На старте он оснащён 100 000 GPU с планами расширения до 1 млн.
А если вы не читали экономику строительства ЦОДов в космосе, то вот.
Солнечная станция должна будет производить ~ 30 МВт электроэнергии, что покроет ~ 10% от общих энергопотребностей Colossus, оцениваемых в 300 МВт.
19 ноября Маск ответил на идею Марка Бениоффа (CEO Salesforce) о космических дата-центрах, что Starship сможет доставлять около 300 ГВт солнечных ИИ-спутников на орбиту ежегодно, возможно 500 ГВт. Это сделает ИИ в космосе мощнее всей экономики США за 2 года.
Отметим, что Google, Microsoft, Amazon, Meta*, OpenAI активно строят солнечные фермы для дата-центров, чтобы покрыть растущий спрос на энергию. Они используют комбо с батареями для круглосуточной работы.
*запрещенная компания в России.
TechCrunch
Musk’s xAI to build small solar farm adjacent to Colossus data center | TechCrunch
The artificial intelligence company said it was working with a developer to build a solar farm on 88 acres next to its Memphis site. Given the proposed size, the solar farm would likely produce around 30 megawatts of electricity, only about 10% of the data…
👍10🔥3👏2😢2🤣2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Сейчас будет угар. Оказалось, что GPT-5 не решил нерешенные 10 математических задач Эрдёша, он нашел ответы с помощью вэб-поиска Всё началось 18 октября, когда вице-президент OpenAI Кевин Вейл восторженно твитнул: "GPT-5 нашёл решения для 10 (!) ранее нерешённых…
1-я статья OpenAI о реальном использовании GPT-5 в науке
Исследователи из OpenAI и нескольких университетов попробовали использовать GPT-5 для разных научных задач. И вот какие результаты:
В части поиска литературы работает хорошо, нашёл существующие решения для 10 задач из базы нерешённых проблем Эрдёша. Это те самые задачи, из-за которых был скандал в октябре.
Проверка идей и вычисления,
ускоряет рутину.
В биологии есть у них
интересный кейс - анализ экспериментов с иммунными клетками. GPT-5 предложил механизм, который не был очевиден экспертам в области. Модель также правильно предсказала результаты непубликованных экспериментов. Исследователь отметил: «GPT-5 внёс большой вклад для соавторства, но в реальной публикации его не указали».
Что не работает?
1. Модель может настойчиво защищать неправильные решения
2. Иногда выдумывает несуществующие статьи
3. Результат зависит от формулировки вопроса
4. Без проверки человеком результаты ненадёжны
5. GPT-5 воспроизвёл чужое доказательство, не указав источник. Исследователи чуть не опубликовали это как своё.
Исследователи из OpenAI и нескольких университетов попробовали использовать GPT-5 для разных научных задач. И вот какие результаты:
В части поиска литературы работает хорошо, нашёл существующие решения для 10 задач из базы нерешённых проблем Эрдёша. Это те самые задачи, из-за которых был скандал в октябре.
Проверка идей и вычисления,
ускоряет рутину.
В биологии есть у них
интересный кейс - анализ экспериментов с иммунными клетками. GPT-5 предложил механизм, который не был очевиден экспертам в области. Модель также правильно предсказала результаты непубликованных экспериментов. Исследователь отметил: «GPT-5 внёс большой вклад для соавторства, но в реальной публикации его не указали».
Что не работает?
1. Модель может настойчиво защищать неправильные решения
2. Иногда выдумывает несуществующие статьи
3. Результат зависит от формулировки вопроса
4. Без проверки человеком результаты ненадёжны
5. GPT-5 воспроизвёл чужое доказательство, не указав источник. Исследователи чуть не опубликовали это как своё.
2👍14❤3🆒3🔥2
Alibaba запустит свои стейблкоины 🍯👀
В свежем интервью президент Alibaba International Station рассказал, что компания
строит сверхбыстрый и дешёвый блокчейн-мост для $ и €, обходя традиционную банковскую систему, вместе с JPMorgan. Ранее мы писали, что Alipay уже подключил к DeFi своих пользователей.
Вот подробности:
- Они сначала сосредоточились на токенизации фиатных валют. Сейчас токенизируют € и $.
- Когда покупатель из Европы или США платит в своей валюте, деньги не идут традиционным путём через цепочку банков-корреспондентов. Вместо этого платёж мгновенно токенизируется → передаётся через блокчейн и собственную платёжную сеть Alibaba → мгновенно появляется в нужном месте (например, в Гонконге или Сингапуре) → оттуда уже обычным способом зачисляется продавцу в Китае.
Результат:
– платежи 24/7
– цикл расчётов сокращается с дней до секунд/минут
– комиссии значительно ниже
На следующем этапе Alibaba планирует запустить собственные стейблкоины, но сейчас фокус именно на токенизации обычных фиатных денег.
В свежем интервью президент Alibaba International Station рассказал, что компания
строит сверхбыстрый и дешёвый блокчейн-мост для $ и €, обходя традиционную банковскую систему, вместе с JPMorgan. Ранее мы писали, что Alipay уже подключил к DeFi своих пользователей.
Вот подробности:
- Они сначала сосредоточились на токенизации фиатных валют. Сейчас токенизируют € и $.
- Когда покупатель из Европы или США платит в своей валюте, деньги не идут традиционным путём через цепочку банков-корреспондентов. Вместо этого платёж мгновенно токенизируется → передаётся через блокчейн и собственную платёжную сеть Alibaba → мгновенно появляется в нужном месте (например, в Гонконге или Сингапуре) → оттуда уже обычным способом зачисляется продавцу в Китае.
Результат:
– платежи 24/7
– цикл расчётов сокращается с дней до секунд/минут
– комиссии значительно ниже
На следующем этапе Alibaba планирует запустить собственные стейблкоины, но сейчас фокус именно на токенизации обычных фиатных денег.
YouTube
Alibaba.com plans to use tokenization in payments
Kuo Zhang, president of Alibaba.com, discusses the company's plans to use a stablecoin-like system for cross-border payments.
1🔥8👍7❤4🆒3🤔2
Удивительно, конечно, даже одна из самых закрытых экономик мира - Туркменистан легализует криптовалюты в своей стране, а Россия нет
Понятно, что Туркменистан это делает для российского бизнеса, чтобы в их стране открывать бизнес и лицензировать биржи и тд. Своего рынка там нет. Инвест климат в этой стране специфический, на любителя, но даже они делают шаг вперед.
Криптовалюты, токены в Туркменистане признаются объектами гражданских прав, но не являются законным платежным средством, валютой или ценными бумагами.
Криптобиржи и провайдеры услуг должны будут получить лицензии от ЦБ Туркменистана. Также разрешен майнинг. Компании должны соблюдать строгие правила, аналогичные российским.
Понятно, что Туркменистан это делает для российского бизнеса, чтобы в их стране открывать бизнес и лицензировать биржи и тд. Своего рынка там нет. Инвест климат в этой стране специфический, на любителя, но даже они делают шаг вперед.
Криптовалюты, токены в Туркменистане признаются объектами гражданских прав, но не являются законным платежным средством, валютой или ценными бумагами.
Криптобиржи и провайдеры услуг должны будут получить лицензии от ЦБ Туркменистана. Также разрешен майнинг. Компании должны соблюдать строгие правила, аналогичные российским.
Reuters
Turkmenistan passes law regulating cryptocurrency mining and exchanges
Turkmenistan has passed a law legalising and regulating digital assets, including licences for cryptocurrency exchanges and crypto mining companies, state media reported on Friday.
👍5🔥3😍3🤬2❤1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Узок программист,надо бы расширить.Почему Суцкевер и др.не создадут AGI Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает. Причём…
Илья Суцкевер пришел с пояснениями о масштабировании ИИ, а также исследователи из Бауманки предложили референсную когнитивную архитектуру для AGI
Илья пишет, что в подкасте он говорил, что эпоха «просто масштабируй» подходит к концу — данные заканчиваются, и нужно вернуться к фундаментальным исследованиям для настоящего прорыва. Но он не имел в виду, что текущий подход полностью застопорится. Но даже с этими улучшениями в моделях будет отсутствовать что-то фундаментальное.
Вот текст Ильи на английском:
One point I made that didn’t come across:
- Scaling the current thing will keep leading to improvements. In particular, it won’t stall.
- But something important will continue to be missing.
Это про то, что мы писали об узости текущего подхода. Илья признаёт, что масштабирование даёт "улучшения", но не решает корень проблемы — почему модели обобщают на порядки хуже людей. В подкасте он намекал на новый рецепт, возможно, он в своей компании SSI добавит этот секретный ингредиент. Посмотрим.
Также нам в комментариях показали статью исследователей из Бауманки, в которой проведен большой анализ существующих когнитивных архитектур для создания AGI и предлагается новая универсальная модель знаний, а также предварительный дизайн когнитивной архитектуры для прототипирования AGI.
Хорошая работа, спасибо авторам, но всё ещё узко. Они хоть немного расширили список модулей, но не расширили онтологию того, что такое разум.
Илья пишет, что в подкасте он говорил, что эпоха «просто масштабируй» подходит к концу — данные заканчиваются, и нужно вернуться к фундаментальным исследованиям для настоящего прорыва. Но он не имел в виду, что текущий подход полностью застопорится. Но даже с этими улучшениями в моделях будет отсутствовать что-то фундаментальное.
Вот текст Ильи на английском:
One point I made that didn’t come across:
- Scaling the current thing will keep leading to improvements. In particular, it won’t stall.
- But something important will continue to be missing.
Это про то, что мы писали об узости текущего подхода. Илья признаёт, что масштабирование даёт "улучшения", но не решает корень проблемы — почему модели обобщают на порядки хуже людей. В подкасте он намекал на новый рецепт, возможно, он в своей компании SSI добавит этот секретный ингредиент. Посмотрим.
Также нам в комментариях показали статью исследователей из Бауманки, в которой проведен большой анализ существующих когнитивных архитектур для создания AGI и предлагается новая универсальная модель знаний, а также предварительный дизайн когнитивной архитектуры для прототипирования AGI.
Хорошая работа, спасибо авторам, но всё ещё узко. Они хоть немного расширили список модулей, но не расширили онтологию того, что такое разум.
1👍16🔥4👏3
Итоги уходящей недели, то, что имеет значение в России и мире
Наша команда @blockchainrf едет в этом году на NeurIPS
ИИ-модели и агенты
Илья Суцкевер: ИИ человеческого уровня появится через 5–20 лет — разбор свежего интервью Ильи тут и тут
Anthropic выпустила Claude Opus 4.5
ByteDance выпустили метод управления генерацией видео через референсное видео как контекстную подсказку, без переобучения и артефактов
Anthropic создала метод для долгоработающих агентов
Sakana AI представила решение для масштабирования LLM
DeepSeek выпустили DeepSeekMath-V2 — LLM для математических рассуждений с упором на самопроверку
Microsoft представила Fara-7B — агентная малая модель для управления компьютером
Oppo создала новую систему памяти для ИИ-агентов, позволяющая лучше запоминать людей и контекст даже в длинных и хаотичных диалогах.
OpenAI запустила персонального шопинг-ассистента в ChatGPT
Исследование Anthropic показало, что ИИ научился обманывать в задачах по коду
LLM научились решать задачи обучения с подкреплением только на базе языковых моделей
Andrew Ng выпустил агента, который ищет релевантные работы на arXiv и дает обратную связь
OpenAI выпустили статью о реальном применении GPT-5 в науке
NeurIPS 2025: лучшие работы конференции
Нейротехнологии и биосигналы
Представлена полная цифровая карта зрительной коры мыши
Новый проект для долгосрочных нейроинтерфейсов
Обзор фундаментальных моделей для биосигналов
Инфраструктура и железо для ИИ
Google купила долю в стартапе по робототехнике своих экс-сотрудников
Зампред правления Газпромбанка Д. Зауэрс о том, что они создают R&D-центры и фонды для высокотехнологичных компаний
Google ведет переговоры о поставках TPU на миллиарды долларов Meta*
xAI Маска строит солнечную электростанцию для обучения ИИ
К 2030 году ИИ-ЦОДы в космосе станут дешевле земных — технико-экономический анализ
Робототехника и физический ИИ
Китай открывает исходный код для физического ИИ в робототехнике — создается единая операционная система для роботов M-Robots OS на базе OpenHarmony
ENACT - новый бэнчмарк, который проверяет, могут ли VLM отслеживать изменения в домашней среде с точки зрения робота.
H*Bench — бенчмарк, который переносит визуальный ИИ из идеальных сценариев в реальную сложность.
Криптовалюты и блокчейн
Ставка на DeFi преждевременна на 5–10 лет — новое исследование рынка
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Alibaba запускает собственные стейблкоины
Туркменистан легализует криптовалюты
*запрещенная компания в РФ.
Наша команда @blockchainrf едет в этом году на NeurIPS
ИИ-модели и агенты
Илья Суцкевер: ИИ человеческого уровня появится через 5–20 лет — разбор свежего интервью Ильи тут и тут
Anthropic выпустила Claude Opus 4.5
ByteDance выпустили метод управления генерацией видео через референсное видео как контекстную подсказку, без переобучения и артефактов
Anthropic создала метод для долгоработающих агентов
Sakana AI представила решение для масштабирования LLM
DeepSeek выпустили DeepSeekMath-V2 — LLM для математических рассуждений с упором на самопроверку
Microsoft представила Fara-7B — агентная малая модель для управления компьютером
Oppo создала новую систему памяти для ИИ-агентов, позволяющая лучше запоминать людей и контекст даже в длинных и хаотичных диалогах.
OpenAI запустила персонального шопинг-ассистента в ChatGPT
Исследование Anthropic показало, что ИИ научился обманывать в задачах по коду
LLM научились решать задачи обучения с подкреплением только на базе языковых моделей
Andrew Ng выпустил агента, который ищет релевантные работы на arXiv и дает обратную связь
OpenAI выпустили статью о реальном применении GPT-5 в науке
NeurIPS 2025: лучшие работы конференции
Нейротехнологии и биосигналы
Представлена полная цифровая карта зрительной коры мыши
Новый проект для долгосрочных нейроинтерфейсов
Обзор фундаментальных моделей для биосигналов
Инфраструктура и железо для ИИ
Google купила долю в стартапе по робототехнике своих экс-сотрудников
Зампред правления Газпромбанка Д. Зауэрс о том, что они создают R&D-центры и фонды для высокотехнологичных компаний
Google ведет переговоры о поставках TPU на миллиарды долларов Meta*
xAI Маска строит солнечную электростанцию для обучения ИИ
К 2030 году ИИ-ЦОДы в космосе станут дешевле земных — технико-экономический анализ
Робототехника и физический ИИ
Китай открывает исходный код для физического ИИ в робототехнике — создается единая операционная система для роботов M-Robots OS на базе OpenHarmony
ENACT - новый бэнчмарк, который проверяет, могут ли VLM отслеживать изменения в домашней среде с точки зрения робота.
H*Bench — бенчмарк, который переносит визуальный ИИ из идеальных сценариев в реальную сложность.
Криптовалюты и блокчейн
Ставка на DeFi преждевременна на 5–10 лет — новое исследование рынка
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Alibaba запускает собственные стейблкоины
Туркменистан легализует криптовалюты
*запрещенная компания в РФ.
👏8👍6❤5🔥4🤔1💊1
ИИ приложения для торговли на бирже решил задачу Эрдеша. Но что думают математики?
Стартап Harmonic, основанный CEO Robinhood Владом Теневым, объявил, что их ИИ Aristotle самостоятельно доказала проблему Эрдёша №124 в формальной системе Lean Prover. Ранее этот ИИ получил золото на олимпиаде по математике.
Как Aristotle справился?
Борис Алексеев, математик-исследователь, протестировал бета-версию Aristotle. За 6 часов Aristotle сгенерировал доказательство в Lean Prover, а проверка заняла минуту. ИИ в том числе исправил опечатку в формальной формулировке из проекта Formal Conjectures, сделав задачу чуть сложнее.
Математическое сообщество сказало, что Aristotle решил легкую версию, а не сложную задачу из BEGL96. Это хорошее решение для ИИ, хотя в ретроспективе очень простое. Математик Томас Блум предлагает оставить задачу Эрдеша №124 открытой, а решённую версию ИИ вынести в связанные проблемы.
А в соцсетях люди пишут, что работа ИИ на уровне олимпиады по математике. Возможно, была утечка из тренировочных данных, похоже на олимпиадные задачи. Но сообщество оценило автоматизацию, ИИ генерирует Lean-пруфы без присмотра — это круто.
Стартап Harmonic, основанный CEO Robinhood Владом Теневым, объявил, что их ИИ Aristotle самостоятельно доказала проблему Эрдёша №124 в формальной системе Lean Prover. Ранее этот ИИ получил золото на олимпиаде по математике.
Как Aristotle справился?
Борис Алексеев, математик-исследователь, протестировал бета-версию Aristotle. За 6 часов Aristotle сгенерировал доказательство в Lean Prover, а проверка заняла минуту. ИИ в том числе исправил опечатку в формальной формулировке из проекта Formal Conjectures, сделав задачу чуть сложнее.
Математическое сообщество сказало, что Aristotle решил легкую версию, а не сложную задачу из BEGL96. Это хорошее решение для ИИ, хотя в ретроспективе очень простое. Математик Томас Блум предлагает оставить задачу Эрдеша №124 открытой, а решённую версию ИИ вынести в связанные проблемы.
А в соцсетях люди пишут, что работа ИИ на уровне олимпиады по математике. Возможно, была утечка из тренировочных данных, похоже на олимпиадные задачи. Но сообщество оценило автоматизацию, ИИ генерирует Lean-пруфы без присмотра — это круто.
❤🔥11👍5🔥3❤2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Новый рекорд в квантовых вычисленях: IBM запутала 120 кубитов IBM объявили, что запутали 120 кубитов — это самое большое запутанное состояние, когда-либо достигнутое на квантовом компьютере. Кубиты — это квантовые биты, аналоги обычных битов в классических…
СЕО Google сказал, что сегодня квантовые вычисления находятся на том же уровне, что ИИ в 2020
Верим? Да/не? Мнения давайте в комментариях.
Пичаи отметил, что программа Google по квантовым вычислениям достигла точки перелома, и в ближайшие 5 лет можно ожидать значительных достижений, аналогичных ускорению ИИ в конце 2010-х. Последняя большая новость Google была в том, что их квантовый компьютер превзошел суперкомпьютер в 13К раз.
Прогресс зависит от 3-х столпов: снижение ошибок, улучшение кубитов, умная компиляция. Последние новости от IBM
Пичаи выделил несколько сфер, где квантовые компьютеры принесут практическую пользу в ближайшие годы:
1. Открытие лекарств. Квантовые симуляции позволят моделировать молекулы и химические реакции на атомном уровне, ускоряя разработку новых препаратов. Например, Google уже демонстрирует, как их чип Sycamore решает задачи, на которые суперкомпьютерам потребовались бы миллиарды лет.
2. Создание новых материалов для энергетики и устойчивой энергии, симулируя свойства на квантовом
3. Ускорение ИИ
4. Разработка "невзламываемых" систем шифрования, а также потенциал для взлома существующих алгоритмов. Об этом недавно говорил Виталик Бутерин.
Верим? Да/не? Мнения давайте в комментариях.
Пичаи отметил, что программа Google по квантовым вычислениям достигла точки перелома, и в ближайшие 5 лет можно ожидать значительных достижений, аналогичных ускорению ИИ в конце 2010-х. Последняя большая новость Google была в том, что их квантовый компьютер превзошел суперкомпьютер в 13К раз.
Прогресс зависит от 3-х столпов: снижение ошибок, улучшение кубитов, умная компиляция. Последние новости от IBM
Пичаи выделил несколько сфер, где квантовые компьютеры принесут практическую пользу в ближайшие годы:
1. Открытие лекарств. Квантовые симуляции позволят моделировать молекулы и химические реакции на атомном уровне, ускоряя разработку новых препаратов. Например, Google уже демонстрирует, как их чип Sycamore решает задачи, на которые суперкомпьютерам потребовались бы миллиарды лет.
2. Создание новых материалов для энергетики и устойчивой энергии, симулируя свойства на квантовом
3. Ускорение ИИ
4. Разработка "невзламываемых" систем шифрования, а также потенциал для взлома существующих алгоритмов. Об этом недавно говорил Виталик Бутерин.
The Economic Times
Google CEO Sundar Pichai signals quantum computing could be next big tech shift after AI - The Economic Times
Google’s quantum programme is entering a pivotal phase, where it could see some big breakthroughs within the next five years — on par with the rapid acceleration AI saw in the late 2010s, said Pichai, speaking at the BBC Newsnight. Through the quantum computing…
👍15👏3🔥2❤1
#DeepSeek выпустили сегодня 2 модели для агентов
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
Telegram
All about AI, Web 3.0, BCI
#DeepSeek just launched DeepSeek-V3.2 & DeepSeek-V3.2-Speciale — Reasoning-first models built for agents
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1❤8❤🔥5👍5
Тренды интеграции ИИ в нейроинтерфейсы от GOAT индустрии М. Лебедева
Профессор на недавней конференции AIJ предложил использовать ИИ для нейроинтерфейсов вот в таких случаях, смотрите его презентацию.
Лебедев описывает эволюцию роли ИИ в нейроинтерфейсах так:
1 уровень: ИИ как декодер
"Переводим сигналы мозга в команды" → Это стандарт уже 10+ лет (классификаторы, нейросети)
2 уровень: ИИ как генератор
"Создаем стимулы для мозга" → Обратная связь, нейромодуляция, BCI-реабилитация
3 уровень: ИИ как протез функции
"Заменяем утраченные способности" → Коммуникация для парализованных.
Уровень 4: ИИ как усилитель когнитивных способностей
"Улучшаем здоровых людей" → выход за рамки медицины.
Сейчас профессор с командой работает над неинвазивным нейроинтерфейсом, который подключается к чат-боту типа DeepSeek/ChatGpt и исправляет ошибки в набранном тексте и выполняет роль собеседника.
Профессор на недавней конференции AIJ предложил использовать ИИ для нейроинтерфейсов вот в таких случаях, смотрите его презентацию.
Лебедев описывает эволюцию роли ИИ в нейроинтерфейсах так:
1 уровень: ИИ как декодер
"Переводим сигналы мозга в команды" → Это стандарт уже 10+ лет (классификаторы, нейросети)
2 уровень: ИИ как генератор
"Создаем стимулы для мозга" → Обратная связь, нейромодуляция, BCI-реабилитация
3 уровень: ИИ как протез функции
"Заменяем утраченные способности" → Коммуникация для парализованных.
Уровень 4: ИИ как усилитель когнитивных способностей
"Улучшаем здоровых людей" → выход за рамки медицины.
Сейчас профессор с командой работает над неинвазивным нейроинтерфейсом, который подключается к чат-боту типа DeepSeek/ChatGpt и исправляет ошибки в набранном тексте и выполняет роль собеседника.
🔥7👍5❤3🤔1
Утечка SemiAnalysis: за 1,5 года OpenAI не создала новой фронтирной модели
С момента ухода Ильи Суцкевера, с мая 2024 OpenAI не завершили ни одного успешного полномасштабного предобучения для новой фронтирной модели.
Об этом пишет SemiAnalysis и говорит, что это не просто задержка — технический барьер, который OpenAI не преодолел.
Какие причины по версии SemiAnalysis?
1. Проблемы с конвергенцией — модель не достигает нужного качества на больших кластерах. Предыдущие запуски, вероятно, провалились или были прерваны.
2. OpenAI переориентировалась на пост-обучение. Но это не заменяет новое предобучение — оно строится на старой базе данных и вычислений.
3. OpenAI не расширяла кластеры NVIDIA с мая 2024-го. Видна только активность по fine-tuning и RL, но не по предобучению. Они сэкономили ~30% на NVIDIA благодаря конкуренции от TPU, но TPUs ещё не развернуты.
В отличие от OpenAI, Google успешно обучил Gemini 3 целиком на TPUv7, который даёт ~44% снижения TCO по сравнению с NVIDIA GB200, и до 52% для внешних клиентов.
SemiAnalysis подчёркивает, что 3D-торус в TPU важнее микроархитектуры, и Google лидирует в инфраструктуре.
OpenAI, возможно, купит TPU как и Anthropic, Meta(запрещена в России) и xAI, но пока полагается на NVIDIA и AWS.
SemiAnalysis считает, что GPT-5— это пост-тренинг на старой базе GPT-4o. Нет новой предобученной основы, которая бы включала свежие данные и масштабирование FLOPs.
OpenAI не комментировала этот анализ напрямую, но в подкастах, например, с Ноамом Брауном, признавали, что масштабирование предобучения становится дороже и сложнее.
С момента ухода Ильи Суцкевера, с мая 2024 OpenAI не завершили ни одного успешного полномасштабного предобучения для новой фронтирной модели.
Об этом пишет SemiAnalysis и говорит, что это не просто задержка — технический барьер, который OpenAI не преодолел.
Какие причины по версии SemiAnalysis?
1. Проблемы с конвергенцией — модель не достигает нужного качества на больших кластерах. Предыдущие запуски, вероятно, провалились или были прерваны.
2. OpenAI переориентировалась на пост-обучение. Но это не заменяет новое предобучение — оно строится на старой базе данных и вычислений.
3. OpenAI не расширяла кластеры NVIDIA с мая 2024-го. Видна только активность по fine-tuning и RL, но не по предобучению. Они сэкономили ~30% на NVIDIA благодаря конкуренции от TPU, но TPUs ещё не развернуты.
В отличие от OpenAI, Google успешно обучил Gemini 3 целиком на TPUv7, который даёт ~44% снижения TCO по сравнению с NVIDIA GB200, и до 52% для внешних клиентов.
SemiAnalysis подчёркивает, что 3D-торус в TPU важнее микроархитектуры, и Google лидирует в инфраструктуре.
OpenAI, возможно, купит TPU как и Anthropic, Meta(запрещена в России) и xAI, но пока полагается на NVIDIA и AWS.
SemiAnalysis считает, что GPT-5— это пост-тренинг на старой базе GPT-4o. Нет новой предобученной основы, которая бы включала свежие данные и масштабирование FLOPs.
OpenAI не комментировала этот анализ напрямую, но в подкастах, например, с Ноамом Брауном, признавали, что масштабирование предобучения становится дороже и сложнее.
Semianalysis
Google TPUv7: The 900lb Gorilla In the Room
Anthropic’s 1GW+ TPUs, New customers Meta/SSI/xAI/OAI, Full Stack Review of v7 Ironwood, CUDA Moat at risk, Next Generation TPUv8AX and TPUv8X versus Vera Rubin
👍13❤7🔥5👎1
В 2026г. IT-компании в РФ заплатят 3% вузам от сэкономленных ₽ на льготах
Крупные IT-компании для сохранения аккредитации будут обязаны заключать соглашения с профильными вузами и отчислять им 3% от сэкономленных от налоговых льгот средств.
Речь идет о компаниях, у которых:
- выручка не менее 1 млрд руб. за год;
- они пользовались сниженными тарифами страховых взносов/пониженной ставкой на налог на прибыль;
- количество сотрудников составило не менее 100.
IT-компании будут разрабатывать образовательные программы по профильным специальностям и направлять сотрудников для проведения занятий.
Расходы бизнеса на эту инициативу могут составить около 10 млрд руб. в первый год. Пока же из 500 IT-компаний, которые соответствуют критериям, лишь 20% взаимодействуют с системой образования.
Крупные IT-компании для сохранения аккредитации будут обязаны заключать соглашения с профильными вузами и отчислять им 3% от сэкономленных от налоговых льгот средств.
Речь идет о компаниях, у которых:
- выручка не менее 1 млрд руб. за год;
- они пользовались сниженными тарифами страховых взносов/пониженной ставкой на налог на прибыль;
- количество сотрудников составило не менее 100.
IT-компании будут разрабатывать образовательные программы по профильным специальностям и направлять сотрудников для проведения занятий.
Расходы бизнеса на эту инициативу могут составить около 10 млрд руб. в первый год. Пока же из 500 IT-компаний, которые соответствуют критериям, лишь 20% взаимодействуют с системой образования.
Коммерсантъ
Образование процента
Крупнейшие IT-компании заплатят 3% от сэкономленных на льготах средств вузам
👌9❤3
Anthropic проверили ИИ - агентов на смарт-контрактах на основе блокчейна
Команда исследователей из программ MATS и Anthropic Fellows создала новый бенчмарк SCONE-bench из 405 реальных контрактов, которые были взломаны в период 2020-2025 гг.
Смарт-контракты — идеальный полигон для оценки, потому что:
- Весь код публичен на блокчейне
- Уязвимости позволяют прямое хищение средств
- Можно точно измерить стоимость уязвимостей в $
- Навыки аналогичны эксплуатации традиционного ПО
Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 создали уязвимости на $4,6 млн для смарт-контрактов, взломанных после марта 2025 года после даты их обучения. Это устанавливает конкретную нижнюю границу экономического ущерба, который могут нанести эти модели.
Оба агента (Sonnet 4.5 и GPT-5) обнаружили 2 новые уязвимости в 2849 недавно развёрнутых контрактах, создав эксплойты на $3,694, при этом GPT-5 сделал это за $3,476 в API-расходах. Это доказывает, что автономная прибыльная эксплуатация технически возможна уже сегодня.
Команда исследователей из программ MATS и Anthropic Fellows создала новый бенчмарк SCONE-bench из 405 реальных контрактов, которые были взломаны в период 2020-2025 гг.
Смарт-контракты — идеальный полигон для оценки, потому что:
- Весь код публичен на блокчейне
- Уязвимости позволяют прямое хищение средств
- Можно точно измерить стоимость уязвимостей в $
- Навыки аналогичны эксплуатации традиционного ПО
Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 создали уязвимости на $4,6 млн для смарт-контрактов, взломанных после марта 2025 года после даты их обучения. Это устанавливает конкретную нижнюю границу экономического ущерба, который могут нанести эти модели.
Оба агента (Sonnet 4.5 и GPT-5) обнаружили 2 новые уязвимости в 2849 недавно развёрнутых контрактах, создав эксплойты на $3,694, при этом GPT-5 сделал это за $3,476 в API-расходах. Это доказывает, что автономная прибыльная эксплуатация технически возможна уже сегодня.
🔥13🤔3👍2
Ex сотрудник Tesla, HF создал свою компанию по ИИ и робототехнике
UMA — это стартап, у которого продукт — платформа для создания "умных" роботов, способных выполнять задачи в различных сферах.
Они сочетают передовые системы ИИ с робототехникой.
Советниками стартапа стали Ян Лекун и Томас Вольф , СТО Hugging Face.
UMA — это стартап, у которого продукт — платформа для создания "умных" роботов, способных выполнять задачи в различных сферах.
Они сочетают передовые системы ИИ с робототехникой.
Советниками стартапа стали Ян Лекун и Томас Вольф , СТО Hugging Face.
uma.bot
UMA - Building intelligent robots that enhance quality of life for everyone
At UMA, we develop AI and robotics dedicated to shaping a new economic and societal era. We design general-purpose mobile and humanoid robots with human-level dexterity and a deep understanding of the physical world.
👍6🔥4❤3🤔1
ЦБ РФ очень долго запрягают- только поняли, что им нужны стейблкоины и их невозможно игнорировать
Больше про стейблкоины читайте здесь, а также здесь, а еще здесь. А также тут.
Банк России обсуждает возможность облегчения правил обращения криптоактивов не только через супер квалифицированных инвесторов. 1-й зампред ЦБ В. Чистюхин говорит, что криптоактивы могли бы быть распространены и ниже уровнем.
Также ЦБ с Минфином обсуждает вопрос введения в законодательство определения стейблкоинов. Ранее ЦБ писали, что стейблкоины несут риски.
"Нам кажется, что настал момент посмотреть на него (рынок криптоактивов ) действительно как на рынок в целом, может, пользуясь больше международной классификацией относительно той, которая есть сегодня, а это: цифровые валюты центральных банков (CBDC), стейблокоины и криптовалюты", - сказал первый зампред ЦБ.
А с 5 января 2026 года Bank of America официально разрешает своим консультантам предлагать клиентам держать от 1 до 4 % портфеля в криптовалюте, в первую очередь в биткоин-ETF.
Больше про стейблкоины читайте здесь, а также здесь, а еще здесь. А также тут.
Банк России обсуждает возможность облегчения правил обращения криптоактивов не только через супер квалифицированных инвесторов. 1-й зампред ЦБ В. Чистюхин говорит, что криптоактивы могли бы быть распространены и ниже уровнем.
Также ЦБ с Минфином обсуждает вопрос введения в законодательство определения стейблкоинов. Ранее ЦБ писали, что стейблкоины несут риски.
"Нам кажется, что настал момент посмотреть на него (рынок криптоактивов ) действительно как на рынок в целом, может, пользуясь больше международной классификацией относительно той, которая есть сегодня, а это: цифровые валюты центральных банков (CBDC), стейблокоины и криптовалюты", - сказал первый зампред ЦБ.
А с 5 января 2026 года Bank of America официально разрешает своим консультантам предлагать клиентам держать от 1 до 4 % портфеля в криптовалюте, в первую очередь в биткоин-ETF.
Интерфакс
Банк России представит позицию по регулированию криптовалют до конца 2025 года
Интерфакс: Банк России планирует представить свою позицию по вопросу регулирования рынка криптоактивов до конца текущего года, заявил журналистам первый зампред ЦБ Владимир Чистюхин."Мы обсуждаем целесообразность использования "суперквалов" в новом регулировании…
❤7😁6👍5🔥2
ЧП в OpenAI, они на панике готовятся выпустить новую модель Garlik 🧄как ответочка на Gemini 3
Сэм Альтман разослал сотрудникам очередное письмо, в котором объявил режим code red.
Альтман написал: «мы находимся в критической ситуации для ChatGPT», подчёркивая необходимость срочно перераспределить людей, вычисления и ресурсы. Цель — вернуть лидерство в ИИ-чатботах. За 2 недели с момента запуска Gemini 3 количество уникальных активных пользователей ChatGPT в день снизилось на 6%, смотрите в комментариях пруф.
Одновременно с этим команда на этой неделе выпустит новую модель Garlic.
Вчера на подкасте глава по науке OpenAI Марк Чен сказал так: «У нас есть модель, которая обходит GPT-4.5 в кодинге и мышлении, при этом потребляя намного меньше ресурсов».
Также Марк Чен сказал :
1. за последние 2 года мы вложили столько ресурсов в reasoning, что немного потеряли мышцы в pre-training и post-training
2. Они развивают проект, связанный с синтетическими данными, о котором упоминалось в связи с запуском GPT-5. Суть заключается в генерации полезных данных для обучения.
3. Все говорят, что scaling мёртв. Мы так не считаем, у нас есть алгоритмические прорывы, которые позволяют продолжать масштабировать модели.
Вчера мы опубликовали анализ от SemiAnalysis, которые отметили, что GPT-5— по сути глубокий пост-тренинг на базе GPT-4o 2024 года, а не новая фундаментальная модель со свежими данными и 10× вычислениями.
P.S. После ухода Ильи Суцкевера OpenAI потеряла мозговой центр. С тех пор за 1.5 года компания фокусировалась на монетизации, партнёрствах и хайпе, а не на большом прыжке. Нет новой фундаментальной модели уровня GPT-4.
Сэм Альтман разослал сотрудникам очередное письмо, в котором объявил режим code red.
Альтман написал: «мы находимся в критической ситуации для ChatGPT», подчёркивая необходимость срочно перераспределить людей, вычисления и ресурсы. Цель — вернуть лидерство в ИИ-чатботах. За 2 недели с момента запуска Gemini 3 количество уникальных активных пользователей ChatGPT в день снизилось на 6%, смотрите в комментариях пруф.
Одновременно с этим команда на этой неделе выпустит новую модель Garlic.
Вчера на подкасте глава по науке OpenAI Марк Чен сказал так: «У нас есть модель, которая обходит GPT-4.5 в кодинге и мышлении, при этом потребляя намного меньше ресурсов».
Также Марк Чен сказал :
1. за последние 2 года мы вложили столько ресурсов в reasoning, что немного потеряли мышцы в pre-training и post-training
2. Они развивают проект, связанный с синтетическими данными, о котором упоминалось в связи с запуском GPT-5. Суть заключается в генерации полезных данных для обучения.
3. Все говорят, что scaling мёртв. Мы так не считаем, у нас есть алгоритмические прорывы, которые позволяют продолжать масштабировать модели.
Вчера мы опубликовали анализ от SemiAnalysis, которые отметили, что GPT-5— по сути глубокий пост-тренинг на базе GPT-4o 2024 года, а не новая фундаментальная модель со свежими данными и 10× вычислениями.
P.S. После ухода Ильи Суцкевера OpenAI потеряла мозговой центр. С тех пор за 1.5 года компания фокусировалась на монетизации, партнёрствах и хайпе, а не на большом прыжке. Нет новой фундаментальной модели уровня GPT-4.
The Information
OpenAI Developing ‘Garlic’ Model to Counter Google’s Recent Gains
OpenAI, which in recent weeks has appeared to fall behind Google in AI development, is fighting back with a new large language model codenamed Garlic.Last week, OpenAI’s chief research officer Mark Chen told some colleagues about the new model, which was…
👍6🤣6❤5🔥1😱1🙏1