Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой после теста
Замминистра финансов Иван Чебесков: «У нас сейчас идет дискуссия по поводу того, как обеспечить и для кого обеспечить возможность инвестиций вообще в сделки с цифровой валютой, в том числе связанные с оплатами за рубеж и связанные с инвестициями».
Чебесков уточнил, что категория «суперквалифицированных» инвесторов может исчезнуть, и вместо нее появится другая градация инвесторов.
«Суперквалы» — это была некая изначальная концепция, я думаю, что в целом мы от нее отходим. Возможно, какая-то градация еще будет. Это, наверное, является ключевой точкой дискуссии, как это будет работать», — объяснил Иван Чебесков.
Замминистра финансов Иван Чебесков: «У нас сейчас идет дискуссия по поводу того, как обеспечить и для кого обеспечить возможность инвестиций вообще в сделки с цифровой валютой, в том числе связанные с оплатами за рубеж и связанные с инвестициями».
Чебесков уточнил, что категория «суперквалифицированных» инвесторов может исчезнуть, и вместо нее появится другая градация инвесторов.
«Суперквалы» — это была некая изначальная концепция, я думаю, что в целом мы от нее отходим. Возможно, какая-то градация еще будет. Это, наверное, является ключевой точкой дискуссии, как это будет работать», — объяснил Иван Чебесков.
РБК Инвестиции
Минфин поддержал допуск «квалов» к торгам криптовалютой после теста
В Минфине допускают, что квалифицированные инвесторы смогут торговать криптовалютой после прохождения тестирования. В ведомстве также допустили отказ от категории «суперквалов»
❤🔥9😁3👍2👏2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Революция в ритейле: товары-призраки станут реальностью по клику - это идея СЕО платёжной системы Klarna Себастьян Семятковский сделал очень интересное заявление и вот какое: - ИИ будет анализировать профили клиентов, включая их предпочтения, стиль жизни…
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Ранее, Google сделали протокол для платежей криптой, а Stripe дали возможность создавать саму крипту.
Основная цель Klarna — не криптовалюты для людей, а подготовка к экономике ИИ-агентов, когда миллионы агентов будут сами искать товары, сравнивать цены и оплачивать покупки от имени пользователей. Тут ранее СЕО компании говорил об этом.
Стейблкоин KlarnaUSD выпущен на новой сети Tempo (проект Stripe + Paradigm), которая изначально создавалась именно под массовые машинные платежи: финальность <1 секунды, комиссии в доли цента. На старте он работает только в тестовой сети, публичный релиз — в 2026 году. Klarna использует инфраструктуру Bridge (тоже от Stripe) для эмиссии и резервирования 1:1.
О том, как поменяется ритейл СЕО Klarna говорил тут.
Ранее, Google сделали протокол для платежей криптой, а Stripe дали возможность создавать саму крипту.
Основная цель Klarna — не криптовалюты для людей, а подготовка к экономике ИИ-агентов, когда миллионы агентов будут сами искать товары, сравнивать цены и оплачивать покупки от имени пользователей. Тут ранее СЕО компании говорил об этом.
Стейблкоин KlarnaUSD выпущен на новой сети Tempo (проект Stripe + Paradigm), которая изначально создавалась именно под массовые машинные платежи: финальность <1 секунды, комиссии в доли цента. На старте он работает только в тестовой сети, публичный релиз — в 2026 году. Klarna использует инфраструктуру Bridge (тоже от Stripe) для эмиссии и резервирования 1:1.
О том, как поменяется ритейл СЕО Klarna говорил тут.
Telegram
All about AI, Web 3.0, BCI
Klarna to launch KlarnaUSD stablecoin on Tempo’s mainnet in 2026
👍8❤3🔥2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Google начали активную конкуренцию с экосистемой NVIDIA Google выпустил JAX AI Stack — полноценная альтернатива связке PyTorch + NVIDIA GPU для обучения и запуска LLM. Суть в том, что сейчас крупные компании уже переходят с CUDA на JAX и Cloud TPU, потому…
Суцкевер: ИИ человеческого уровня и выше появится через 5–20 лет. Люди станут киборгами с внедрением продуктов от Neuralink и аналогов, чтобы полностью понимать и участвовать в решениях ИИ.
Илья дал свежее интервью и вот самые интересные моменты из него.
Главная проблема — не масштабирование, а изобретение нового базового рецепта, который даст человеческую способность к обучению и обобщению.
У его стартапа SSI — ставка именно на такой прорыв, а не на дальнейшее масштабирование текущего подхода.
1. Почему текущие модели «неровные»?
Главная причина - RL-обучение сейчас сильно ориентировано на то, чтобы хорошо выглядеть на конкретных eval’ах → это reward hacking со стороны людей-исследователей.
2. Пре-тренинг vs RL vs будущий рецепт. Претренинг был гениален тем, что не нужно было думать о данных и был предсказуемый scaling law.
Сейчас претренинг заканчивается (данные конечны) → мы снова в эпохе исследований, просто с огромными вычислениями.
- 2012–2020 — эпоха исследований
2020–2025 — эпоха масштабирования
2025+ — снова эпоха исследований
Сейчас все тратят больше вычислений на RL, чем на пре-тренинг, но это всё ещё не «то самое».
3. Самое фундаментальное ограничение сегодняшних моделей: они обобщают хуже людей. Это не только вопрос sample efficiency, но и надёжности, робастности, способности передавать стиль мышления без чёткого reward.
Люди в новых областях всё равно учатся на порядки эффективнее.
4. Что такое эмоции в терминах ML?
Это мощная, эволюционно закреплённая value function.
Современные value functions в RL почти не используются, но Илья уверен, что они будут критически важны и сильно повысят эффективность.
5. Что такое сверхинтеллект? Агент, который может быстро научиться любой человеческой профессии. Это приведёт к очень быстрому экономическому росту,но не обязательно к мгновенному.
6. Прогноз на будущее:
до создания ИИ человеческого уровня и выше способностью к обучению ещё 5–20 лет.
7. Почему он основал SSI и в чём его отличие?
У Ильи есть конкретные идеи, как решить проблему плохого обобщения и человеческой эффективности обучения.
Он эти идеи публично не раскрывает. SSI — чисто исследовательская компания эпохи исследований. У них достаточно вычислений для доказательства своих идей.
8. Его текущая позиция по выравниванию и безопасности. За последний год сильно поменял взгляд: теперь считает постепенное внедрение и показ мощного ИИ критически важным.
Прогнозы Ильи :
- фронтирные компании начнут сотрудничать по безопасности (уже началось);
- когда ИИ станет ощутимо мощным, все лаборатории резко станут параноидальнее;
- в итоге все сойдутся на том, что первый настоящий сверхинтеллект должен заботиться о sentient life в целом (не только о людях — это может быть даже проще технически, потому что сам ИИ sentient).
- Кап на абсолютную мощность сверхинтеллекта был бы очень полезен.
- Люди станут киборгами через такие проекты как Neuralink и тд., чтобы полностью понимать и участвовать в решениях ИИ.
9. Почему все LLM так похожи? Потому что претренинг на одних и тех же данных доминирует. Различия начинаются только на этапе RL/пост-тренинга.
10. Другие интересные тезисы
- Self-play интересен тем, что позволяет генерировать данные только вычислениями, но классический self-play слишком узкий.
- Эволюция смогла закодировать очень высокоуровневые желания (например, «хочу социального уважения») — это до сих пор загадка.
- Текущий парадигма (претренинг + RL) пройдёт какое-то расстояние и выдохнется, но не приведёт к настоящему человеческому уровню обучения.
Илья дал свежее интервью и вот самые интересные моменты из него.
Главная проблема — не масштабирование, а изобретение нового базового рецепта, который даст человеческую способность к обучению и обобщению.
У его стартапа SSI — ставка именно на такой прорыв, а не на дальнейшее масштабирование текущего подхода.
1. Почему текущие модели «неровные»?
Главная причина - RL-обучение сейчас сильно ориентировано на то, чтобы хорошо выглядеть на конкретных eval’ах → это reward hacking со стороны людей-исследователей.
2. Пре-тренинг vs RL vs будущий рецепт. Претренинг был гениален тем, что не нужно было думать о данных и был предсказуемый scaling law.
Сейчас претренинг заканчивается (данные конечны) → мы снова в эпохе исследований, просто с огромными вычислениями.
- 2012–2020 — эпоха исследований
2020–2025 — эпоха масштабирования
2025+ — снова эпоха исследований
Сейчас все тратят больше вычислений на RL, чем на пре-тренинг, но это всё ещё не «то самое».
3. Самое фундаментальное ограничение сегодняшних моделей: они обобщают хуже людей. Это не только вопрос sample efficiency, но и надёжности, робастности, способности передавать стиль мышления без чёткого reward.
Люди в новых областях всё равно учатся на порядки эффективнее.
4. Что такое эмоции в терминах ML?
Это мощная, эволюционно закреплённая value function.
Современные value functions в RL почти не используются, но Илья уверен, что они будут критически важны и сильно повысят эффективность.
5. Что такое сверхинтеллект? Агент, который может быстро научиться любой человеческой профессии. Это приведёт к очень быстрому экономическому росту,но не обязательно к мгновенному.
6. Прогноз на будущее:
до создания ИИ человеческого уровня и выше способностью к обучению ещё 5–20 лет.
7. Почему он основал SSI и в чём его отличие?
У Ильи есть конкретные идеи, как решить проблему плохого обобщения и человеческой эффективности обучения.
Он эти идеи публично не раскрывает. SSI — чисто исследовательская компания эпохи исследований. У них достаточно вычислений для доказательства своих идей.
8. Его текущая позиция по выравниванию и безопасности. За последний год сильно поменял взгляд: теперь считает постепенное внедрение и показ мощного ИИ критически важным.
Прогнозы Ильи :
- фронтирные компании начнут сотрудничать по безопасности (уже началось);
- когда ИИ станет ощутимо мощным, все лаборатории резко станут параноидальнее;
- в итоге все сойдутся на том, что первый настоящий сверхинтеллект должен заботиться о sentient life в целом (не только о людях — это может быть даже проще технически, потому что сам ИИ sentient).
- Кап на абсолютную мощность сверхинтеллекта был бы очень полезен.
- Люди станут киборгами через такие проекты как Neuralink и тд., чтобы полностью понимать и участвовать в решениях ИИ.
9. Почему все LLM так похожи? Потому что претренинг на одних и тех же данных доминирует. Различия начинаются только на этапе RL/пост-тренинга.
10. Другие интересные тезисы
- Self-play интересен тем, что позволяет генерировать данные только вычислениями, но классический self-play слишком узкий.
- Эволюция смогла закодировать очень высокоуровневые желания (например, «хочу социального уважения») — это до сих пор загадка.
- Текущий парадигма (претренинг + RL) пройдёт какое-то расстояние и выдохнется, но не приведёт к настоящему человеческому уровню обучения.
Dwarkesh
Ilya Sutskever – We're moving from the age of scaling to the age of research
“These models somehow just generalize dramatically worse than people. It's a very fundamental thing.”
🔥21❤10👍6💊2
Узок программист,надо бы расширить.Почему Суцкевер и др.не создадут AGI
Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает.
Причём этой широкой картины нет у большинства лидеров в ИИ в мире: ни в США, Китае, РФ и тд. Все они в первую очередь инженеры и исследователи. Их подход к сверхчеловеческому ИИ фокусируется на технических навыках: претренинг, RL, self-play, value functions и т.д. В подкасте Суцкевер много говорит о том, как улучшить обобщение моделей через новые рецепты обучения, но почти не упоминает биологию, физику, химию, психологию как ключевые компоненты. Это узкий взгляд, потому что человеческий интеллект — это не просто алгоритм оптимизации, а продукт эволюции, включающий тело, эмоции, подсознание и социальные взаимодействия.
Они решают задачу как сделать модель, которая сдаёт все экзамены. Но они НЕ решают задачу, как создать разум, который переживает, хочет, страдает, влюбляется, боится смерти и творит новое.
Суцкевер говорит о мозге, но не делает выводов. Вывод Суцкевера: эмоции – это что-то вроде функции ценности, которую эволюция встроила.
Но эмоции НЕ дополнение к разуму. Они его конституируют. Без них нет рациональности. Но Суцкевер не идёт дальше.
Суцкевер, Альтман и др. типа создают AGI, которое должно быть как живое существо. Но для воссоздания жизни нужно понимать:
•Биологию
• Химию
Физику
• Психологию
• Эволюцию
Программисты игнорируют всё это. Единственное исключение - Демис Хассабис, CEO Google DeepMind, кто открыто говорит: "Мы не создадим AGI, пока не поймём мозг". Вот только малая часть из того, что он делает, а также вот.
Почему они так говорят, кроме Дэмиса? Есть причины
1. Деньги. Чтобы собрать раунд на десятки миллиардов, нужно показывать инвесторам график «loss падает → capability растёт». Никто не даст $10 млрд под презентацию: «Давайте 10 лет изучать нейробиологию, психоанализ и эмбриологию».
2. Социальная норма. Если начнёшь публично говорить про психологию, биологию и тд тебя перестанут воспринимать всерьёз коллеги-инженеры.
В ML-комьюнити есть негласная иерархия серьёзности:
Tier 1: математические доказательства, benchmarks
Tier 2: computational neuroscience (терпимо)
Tier 3: философия сознания, психология (маргинальное)
За пределами: Юнг, экзистенциализм, феноменология (не наука)
3. Личная специализация. Большинство из них (Суцкевер, Лекун и тд) – люди, которые в 20 лет уже писали код и доказывали теоремы.
У них физически не было времени глубоко погрузиться в нейронауку, биологию, психологию, химию и тд.
4. экзистенциальный страх:
Если признать, что разум = переживание, страдание, смерть. Гораздо безопаснее думать: "Это просто статистика над токенами."
Главная опасность - проекция психологических травм создателей ИИ. Суцкевер говорит: "Сверхразумный ИИ должен заботиться о разумной жизни." Вопрос: чья версия "заботы"? Человека с незрелой психикой и с комплексом спасителя или власти?
Понятия "разумного мира" не существует. У каждого человека оно своё, исходя из уровня развития, культурного контекста. Многие живут в проекциях. В чужих сценариях.
Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает.
Причём этой широкой картины нет у большинства лидеров в ИИ в мире: ни в США, Китае, РФ и тд. Все они в первую очередь инженеры и исследователи. Их подход к сверхчеловеческому ИИ фокусируется на технических навыках: претренинг, RL, self-play, value functions и т.д. В подкасте Суцкевер много говорит о том, как улучшить обобщение моделей через новые рецепты обучения, но почти не упоминает биологию, физику, химию, психологию как ключевые компоненты. Это узкий взгляд, потому что человеческий интеллект — это не просто алгоритм оптимизации, а продукт эволюции, включающий тело, эмоции, подсознание и социальные взаимодействия.
Они решают задачу как сделать модель, которая сдаёт все экзамены. Но они НЕ решают задачу, как создать разум, который переживает, хочет, страдает, влюбляется, боится смерти и творит новое.
Суцкевер говорит о мозге, но не делает выводов. Вывод Суцкевера: эмоции – это что-то вроде функции ценности, которую эволюция встроила.
Но эмоции НЕ дополнение к разуму. Они его конституируют. Без них нет рациональности. Но Суцкевер не идёт дальше.
Суцкевер, Альтман и др. типа создают AGI, которое должно быть как живое существо. Но для воссоздания жизни нужно понимать:
•Биологию
• Химию
Физику
• Психологию
• Эволюцию
Программисты игнорируют всё это. Единственное исключение - Демис Хассабис, CEO Google DeepMind, кто открыто говорит: "Мы не создадим AGI, пока не поймём мозг". Вот только малая часть из того, что он делает, а также вот.
Почему они так говорят, кроме Дэмиса? Есть причины
1. Деньги. Чтобы собрать раунд на десятки миллиардов, нужно показывать инвесторам график «loss падает → capability растёт». Никто не даст $10 млрд под презентацию: «Давайте 10 лет изучать нейробиологию, психоанализ и эмбриологию».
2. Социальная норма. Если начнёшь публично говорить про психологию, биологию и тд тебя перестанут воспринимать всерьёз коллеги-инженеры.
В ML-комьюнити есть негласная иерархия серьёзности:
Tier 1: математические доказательства, benchmarks
Tier 2: computational neuroscience (терпимо)
Tier 3: философия сознания, психология (маргинальное)
За пределами: Юнг, экзистенциализм, феноменология (не наука)
3. Личная специализация. Большинство из них (Суцкевер, Лекун и тд) – люди, которые в 20 лет уже писали код и доказывали теоремы.
У них физически не было времени глубоко погрузиться в нейронауку, биологию, психологию, химию и тд.
4. экзистенциальный страх:
Если признать, что разум = переживание, страдание, смерть. Гораздо безопаснее думать: "Это просто статистика над токенами."
Главная опасность - проекция психологических травм создателей ИИ. Суцкевер говорит: "Сверхразумный ИИ должен заботиться о разумной жизни." Вопрос: чья версия "заботы"? Человека с незрелой психикой и с комплексом спасителя или власти?
Понятия "разумного мира" не существует. У каждого человека оно своё, исходя из уровня развития, культурного контекста. Многие живут в проекциях. В чужих сценариях.
21🏆25❤16💯12👍8💊4👏3🌚3🥴2❤🔥1
Google ведет переговоры о поставках TPU на млрды $ Meta, что может стать 1-м крупным переходом от Nvidia к альтернативному поставщику ИИ-чипов.
Причём, вчера Nvidia срочно написали на это пост: «Мы рады успехам Google — они добились больших достижений в ИИ, и мы продолжаем поставлять им чипы». Переживают.
Meta* планирует начать аренду TPU у Google уже в 2026 году, а с 2027-го развернуть их в своих дата-центрах.
Meta рассматривает TPU не только для инференса, но и для обучения, что гораздо более ресурсоёмко и раньше было почти монополией Nvidia. Это ключевой нюанс, который усиливает удар по Nvidia, если Meta с их $72 млрд на ИИ в 2025 перекинет часть тренировок на TPU, это трансфер выручки.
А для Google - это якорь для новой модели: от облачной аренды к on-premise размещению. За последнее время они показали несколько важных вещей:
1. 6 ноября Google анонсировали Ironwood — новое поколение чипов.
2. 19 ноября Google усилили софтовую сторону: JAX AI Stack — полный end-to-end фреймворк для ML на TPU, альтернатива PyTorch + CUDA. Он уже в продакшене.
Nvidia доминирует с 90%+ долей в ИИ-чипах благодаря CUDA-экосистеме и гибкости GPU для R&D. Но TPU выигрывают в нише стабильных нагрузок. Когда Nvidia поднимает цены на Blackwell, это бьет по клиентам типа Microsoft. Google же извлекает чистую маржу на уже окупленных активах.
Еще Gemini 3 усиливает картину, она обучалась на TPU. Google монетизирует запрос дважды — реклама в поиске + ответ через Gemini, — в то время как OpenAI сжигает $5 млрд в год на поиск модели доходов.
Если Meta подпишет контракт с Google — катализатор для $4 трлн капы.
Рынок ИИ — не нулевая сумма, но Google главный претендент на трон инфраструктуры.
*запрещенная компания в РФ.
Причём, вчера Nvidia срочно написали на это пост: «Мы рады успехам Google — они добились больших достижений в ИИ, и мы продолжаем поставлять им чипы». Переживают.
Meta* планирует начать аренду TPU у Google уже в 2026 году, а с 2027-го развернуть их в своих дата-центрах.
Meta рассматривает TPU не только для инференса, но и для обучения, что гораздо более ресурсоёмко и раньше было почти монополией Nvidia. Это ключевой нюанс, который усиливает удар по Nvidia, если Meta с их $72 млрд на ИИ в 2025 перекинет часть тренировок на TPU, это трансфер выручки.
А для Google - это якорь для новой модели: от облачной аренды к on-premise размещению. За последнее время они показали несколько важных вещей:
1. 6 ноября Google анонсировали Ironwood — новое поколение чипов.
2. 19 ноября Google усилили софтовую сторону: JAX AI Stack — полный end-to-end фреймворк для ML на TPU, альтернатива PyTorch + CUDA. Он уже в продакшене.
Nvidia доминирует с 90%+ долей в ИИ-чипах благодаря CUDA-экосистеме и гибкости GPU для R&D. Но TPU выигрывают в нише стабильных нагрузок. Когда Nvidia поднимает цены на Blackwell, это бьет по клиентам типа Microsoft. Google же извлекает чистую маржу на уже окупленных активах.
Еще Gemini 3 усиливает картину, она обучалась на TPU. Google монетизирует запрос дважды — реклама в поиске + ответ через Gemini, — в то время как OpenAI сжигает $5 млрд в год на поиск модели доходов.
Если Meta подпишет контракт с Google — катализатор для $4 трлн капы.
Рынок ИИ — не нулевая сумма, но Google главный претендент на трон инфраструктуры.
*запрещенная компания в РФ.
The Information
Google Further Encroaches on Nvidia’s Turf With New AI Chip Push
Google is picking up the pace of its efforts to compete directly with Nvidia in the AI chip business. For years, the search giant has rented its own AI chips, known as tensor processing units, to cloud customers who use them in its Google Cloud data centers.…
❤9👍5🏆3🔥2
Представлена полная цифровая карта зрительной коры мыши
Впервые удалось совместить структуру (как связаны нейроны) с функцией (как они активируются). Это шаг к пониманию базовых алгоритмов коры — того, как именно мозг обрабатывает информацию на уровне нейронных сетей.
Карта состоит из:
- 2 петабайта данных
- 95 млн снимков с электронного микроскопа
~4 км аксонов в одном кубическом миллиметре
Над проектом работали 3 команды: Бэйлорский колледж медицины, Институт Аллена, Принстон. Проект финансировался IARPA и NIH BRAIN Initiative.
Впервые удалось совместить структуру (как связаны нейроны) с функцией (как они активируются). Это шаг к пониманию базовых алгоритмов коры — того, как именно мозг обрабатывает информацию на уровне нейронных сетей.
Карта состоит из:
- 2 петабайта данных
- 95 млн снимков с электронного микроскопа
~4 км аксонов в одном кубическом миллиметре
Над проектом работали 3 команды: Бэйлорский колледж медицины, Институт Аллена, Принстон. Проект финансировался IARPA и NIH BRAIN Initiative.
Allen Institute
Attempting the impossible: A 20-year journey to learn the language of the brain
In what is considered the most complicated neuroscience experiment ever attempted, scientists from the Allen Institute and global collaborators have created the largest, most complex wiring diagram and functional map of the brain to date.
❤14👍7❤🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
На Конгрессе молодых учёных вице-премьер Дмитрий Чернышенко отметил вклад Газпромбанка в развитие отечественной науки.
Он подчеркнул активное участие банка в реализации программы «Приоритет-2030», развитии передовых инженерных школ и разработке технологической стратегии, в которой ключевую роль играют R&D-центры и фонды поддержки высокотехнологичных компаний.
Он подчеркнул активное участие банка в реализации программы «Приоритет-2030», развитии передовых инженерных школ и разработке технологической стратегии, в которой ключевую роль играют R&D-центры и фонды поддержки высокотехнологичных компаний.
🤣16❤10🔥6👍4
Anthropic создали метод, позволяющий агентам работать несколько часов и даже дней
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон.
Главная проблема - ИИ-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей.
Решение состоит из 2-х частей:
1. Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
2. Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления.
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути.
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон.
Главная проблема - ИИ-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей.
Решение состоит из 2-х частей:
1. Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
2. Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления.
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути.
Anthropic
Effective harnesses for long-running agents
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
👍14❤9❤🔥5🤣3🔥2
К 2030г. ИИ-ЦОДы в космосе будут дешевле, чем на Земле. Уже сегодня вычисления на орбите ближе к ценам на земле - исследование
Исследовательская группа 33FG опубликовала технико-экономический анализ, показывающий: к 2030 году стоимость энергии для орбитальных дата-центрах станет ниже, чем на Земле.
Отметим, что Google уже представил свой проект по ЦОДу в космосе.
Уже через несколько лет энергия для ИИ-кластеров на орбите может стать дешевле и лучше земной, а в долгосрочной перспективе — вообще безальтернативным вариантом для действительно больших вычислительных мощностей.
При текущих прогнозируемых затратах на доставку (~$2,000/кг на высокую орбиту)спутники обеспечивают энергию по ~$18-26 за ватт — в 2 раза дороже земных дата-центров ($12/Вт).
Но картина сильно меняется:
При $1,000/кг — паритет с Землей
При $500/кг — орбита на 30% дешевле
При $100/кг — орбита на 50% дешевле
Дозаправляемый Starship делает эти цифры реальными уже в 2027-2028.
Но как только появится полностью многоразовый Starship с дозаправкой на орбите, стоимость выведения в HEO будет падать очень быстро.
Авторы смоделировали 3 типа спутников и при какой цене выведения ($/кг) каждый из них достигает паритета с земными дата-центрами (т.е. ≤12 $/Вт):
1. Обычный спутник типа Starlink → паритет при ~500 $/кг
2. Оптимизированный под вычисления Starlink (стандартные солнечные панели, но больше радиаторов и т.д.) → паритет при ~1000 $/кг
3. Фронтир спутник с тонкоплёночными солнечными панелями (очень высокая удельная мощность 250 Вт/кг) → паритет тоже при ~500 $/кг
А при цене выведения 100 $/кг (цель Starship на длинном горизонте):
орбитальная энергия уже 6–9 $/Вт — на 25–50 % дешевле лучших земных дата-центров.
От чего это зависит?
- Сколько ватт на кг даёт вся система энергия + охлаждение (107 Вт/кг у текущего Starlink → 160 Вт/кг у оптимизированного → 250 Вт/кг у тонкоплёночных)
- Сколько стоит само оборудование в $/Вт (у текущего Starlink 6,1 $/Вт, у оптимизированного ~5 $/Вт, у тонкоплёночных наоборот дорого ~9 $/Вт)
- На высокой орбите почти постоянное солнце (95 % времени против ~65 % в низкой орбите) и выше эффективность панелей.
Как ведут себя три архитектуры?
- Красный (Thin-PV «Фронтир») — выигрывает только пока выведение дорогое (>500–600 $/кг). У него минимальная масса, поэтому дорогой запуск наказывает меньше. Но как только цена выведения падает — высокая цена самих панелей делает его самым дорогим.
- Чёрный (обычный Starlink-класс) — надёжный середнячок, достигает паритета при 500–600 $/кг без всяких переделок.
- Зелёный (Compute-Optimized Starlink) — долгосрочный победитель. Как только выведение становится дешевле 1000 $/кг, он выходит в лидеры. Дешевое массовое оборудование побеждает гонку за экстремальной удельной мощностью.
На орбите:
- почти идеальный солнечный поток 24/7,
- нет ограничений по земле и охлаждению водой,
- можно строить структуры размером с город без всяких разрешений и соседей.
Экономический паритет уже очень близко (при 500–1000 $/кг, а это вполне реально в ближайшие годы), но Илон и команда толкают orbital compute не только ради экономии.
Исследовательская группа 33FG опубликовала технико-экономический анализ, показывающий: к 2030 году стоимость энергии для орбитальных дата-центрах станет ниже, чем на Земле.
Отметим, что Google уже представил свой проект по ЦОДу в космосе.
Уже через несколько лет энергия для ИИ-кластеров на орбите может стать дешевле и лучше земной, а в долгосрочной перспективе — вообще безальтернативным вариантом для действительно больших вычислительных мощностей.
При текущих прогнозируемых затратах на доставку (~$2,000/кг на высокую орбиту)спутники обеспечивают энергию по ~$18-26 за ватт — в 2 раза дороже земных дата-центров ($12/Вт).
Но картина сильно меняется:
При $1,000/кг — паритет с Землей
При $500/кг — орбита на 30% дешевле
При $100/кг — орбита на 50% дешевле
Дозаправляемый Starship делает эти цифры реальными уже в 2027-2028.
Но как только появится полностью многоразовый Starship с дозаправкой на орбите, стоимость выведения в HEO будет падать очень быстро.
Авторы смоделировали 3 типа спутников и при какой цене выведения ($/кг) каждый из них достигает паритета с земными дата-центрами (т.е. ≤12 $/Вт):
1. Обычный спутник типа Starlink → паритет при ~500 $/кг
2. Оптимизированный под вычисления Starlink (стандартные солнечные панели, но больше радиаторов и т.д.) → паритет при ~1000 $/кг
3. Фронтир спутник с тонкоплёночными солнечными панелями (очень высокая удельная мощность 250 Вт/кг) → паритет тоже при ~500 $/кг
А при цене выведения 100 $/кг (цель Starship на длинном горизонте):
орбитальная энергия уже 6–9 $/Вт — на 25–50 % дешевле лучших земных дата-центров.
От чего это зависит?
- Сколько ватт на кг даёт вся система энергия + охлаждение (107 Вт/кг у текущего Starlink → 160 Вт/кг у оптимизированного → 250 Вт/кг у тонкоплёночных)
- Сколько стоит само оборудование в $/Вт (у текущего Starlink 6,1 $/Вт, у оптимизированного ~5 $/Вт, у тонкоплёночных наоборот дорого ~9 $/Вт)
- На высокой орбите почти постоянное солнце (95 % времени против ~65 % в низкой орбите) и выше эффективность панелей.
Как ведут себя три архитектуры?
- Красный (Thin-PV «Фронтир») — выигрывает только пока выведение дорогое (>500–600 $/кг). У него минимальная масса, поэтому дорогой запуск наказывает меньше. Но как только цена выведения падает — высокая цена самих панелей делает его самым дорогим.
- Чёрный (обычный Starlink-класс) — надёжный середнячок, достигает паритета при 500–600 $/кг без всяких переделок.
- Зелёный (Compute-Optimized Starlink) — долгосрочный победитель. Как только выведение становится дешевле 1000 $/кг, он выходит в лидеры. Дешевое массовое оборудование побеждает гонку за экстремальной удельной мощностью.
На орбите:
- почти идеальный солнечный поток 24/7,
- нет ограничений по земле и охлаждению водой,
- можно строить структуры размером с город без всяких разрешений и соседей.
Экономический паритет уже очень близко (при 500–1000 $/кг, а это вполне реально в ближайшие годы), но Илон и команда толкают orbital compute не только ради экономии.
research.33fg
Orbital Compute Energy will be cheaper than Earth by 2030
In Part 1 of this series, we looked at the mass side of Elon Musk’s orbital compute vision: what satellite architectures are needed to reach 100 GW of compute in high Earth orbit without thousands of Starship launches every year. We showed that you only get…
🔥14⚡4👍4🤣2👏1
Горячая новинка NeurIPS 2025 для долгосрочных нейроинтерфейсов
По сути, создан рецепт, как строить нейроинтерфейсы, которые:
• сразу дают высокую точность
• не теряют её через год-два-три
Проблема всех текущих лидеров нейроинтерфейсов (BCI) - то, что они работают на спайках → супер-точно, но сигнал деградирует за месяцы-годы. LFP (локальные полевые потенциалы) стабильны годами, но точность декодирования намерений обычно сильно ниже.
Команда из Стэнфорда показала, как это исправить раз и навсегда:
Они научились «перегонять» высокоточные представления из больших спайковых трансформеров в LFP-модели.
Результаты:
1. Точность LFP-моделей подскакивает до уровня близкого к спайковым
2. Модель обобщается на новые сессии без дополнительной дистилляции
3. На инференсе нужны только LFP — спайки больше не требуются вообще
4. Скрытые представления LFP-модели становятся почти идентичны спайковыми.
По сути, создан рецепт, как строить нейроинтерфейсы, которые:
• сразу дают высокую точность
• не теряют её через год-два-три
Проблема всех текущих лидеров нейроинтерфейсов (BCI) - то, что они работают на спайках → супер-точно, но сигнал деградирует за месяцы-годы. LFP (локальные полевые потенциалы) стабильны годами, но точность декодирования намерений обычно сильно ниже.
Команда из Стэнфорда показала, как это исправить раз и навсегда:
Они научились «перегонять» высокоточные представления из больших спайковых трансформеров в LFP-модели.
Результаты:
1. Точность LFP-моделей подскакивает до уровня близкого к спайковым
2. Модель обобщается на новые сессии без дополнительной дистилляции
3. На инференсе нужны только LFP — спайки больше не требуются вообще
4. Скрытые представления LFP-модели становятся почти идентичны спайковыми.
openreview.net
Cross-Modal Representational Knowledge Distillation for Enhanced...
Local field potentials (LFPs) can be routinely recorded alongside spiking activity in intracortical neural experiments, measure a larger complementary spatiotemporal scale of brain activity for...
🔥9👍6❤4❤🔥1😁1
Свежий релиз от #DeepSeek - DeepSeekMath-V2 — LLM, специализирующаяся на математическом рассуждении с акцентом на самопроверку.
Это не универсальная LLM, а узкоспециализированный инструмент для математики, который генерирует и проверяет полные доказательства, имитируя процесс работы человека математика.
Модель содержит 685 млрд параметров и построена на базе DeepSeek-V3.2-Exp-Base.
Это не универсальная LLM, а узкоспециализированный инструмент для математики, который генерирует и проверяет полные доказательства, имитируя процесс работы человека математика.
Модель содержит 685 млрд параметров и построена на базе DeepSeek-V3.2-Exp-Base.
Telegram
All about AI, Web 3.0, BCI
#DeepSeek released DeepSeek-Math-V2: Towards Self-Verifiable Mathematical Reasoning
It shows LLMs can now self-verify proofs, not just output solutions. DeepSeekMath-V2 achieves gold-level IMO 2025, CMO 2024, and 118/120 Putnam 2024, pointing to a future…
It shows LLMs can now self-verify proofs, not just output solutions. DeepSeekMath-V2 achieves gold-level IMO 2025, CMO 2024, and 118/120 Putnam 2024, pointing to a future…
👍9❤5🔥3🤔1
Дорогие друзья, мы единственный телеграм-канал, который получил аккредитацию на лучшую конференцию по ИИ в мире #NeurIPS2025.
Поэтому ждите на следующей неделе много самого интересного и качественного контента.
Впервые в истории NeurIPS телеграм-канал вообще запросил и получил аккредитацию.
Поэтому ждите на следующей неделе много самого интересного и качественного контента.
Впервые в истории NeurIPS телеграм-канал вообще запросил и получил аккредитацию.
11🔥61⚡12❤🔥11❤10👏8
xAI Маска строит солнечную станцию для обучения ИИ-моделей
ИИ компания xAI подала заявку на строительство солнечной станции, которая будет находиться рядом с их дата-центром Colossus— один из крупнейших в мире. На старте он оснащён 100 000 GPU с планами расширения до 1 млн.
А если вы не читали экономику строительства ЦОДов в космосе, то вот.
Солнечная станция должна будет производить ~ 30 МВт электроэнергии, что покроет ~ 10% от общих энергопотребностей Colossus, оцениваемых в 300 МВт.
19 ноября Маск ответил на идею Марка Бениоффа (CEO Salesforce) о космических дата-центрах, что Starship сможет доставлять около 300 ГВт солнечных ИИ-спутников на орбиту ежегодно, возможно 500 ГВт. Это сделает ИИ в космосе мощнее всей экономики США за 2 года.
Отметим, что Google, Microsoft, Amazon, Meta*, OpenAI активно строят солнечные фермы для дата-центров, чтобы покрыть растущий спрос на энергию. Они используют комбо с батареями для круглосуточной работы.
*запрещенная компания в России.
ИИ компания xAI подала заявку на строительство солнечной станции, которая будет находиться рядом с их дата-центром Colossus— один из крупнейших в мире. На старте он оснащён 100 000 GPU с планами расширения до 1 млн.
А если вы не читали экономику строительства ЦОДов в космосе, то вот.
Солнечная станция должна будет производить ~ 30 МВт электроэнергии, что покроет ~ 10% от общих энергопотребностей Colossus, оцениваемых в 300 МВт.
19 ноября Маск ответил на идею Марка Бениоффа (CEO Salesforce) о космических дата-центрах, что Starship сможет доставлять около 300 ГВт солнечных ИИ-спутников на орбиту ежегодно, возможно 500 ГВт. Это сделает ИИ в космосе мощнее всей экономики США за 2 года.
Отметим, что Google, Microsoft, Amazon, Meta*, OpenAI активно строят солнечные фермы для дата-центров, чтобы покрыть растущий спрос на энергию. Они используют комбо с батареями для круглосуточной работы.
*запрещенная компания в России.
TechCrunch
Musk’s xAI to build small solar farm adjacent to Colossus data center | TechCrunch
The artificial intelligence company said it was working with a developer to build a solar farm on 88 acres next to its Memphis site. Given the proposed size, the solar farm would likely produce around 30 megawatts of electricity, only about 10% of the data…
👍10🔥3👏2😢2🤣2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Сейчас будет угар. Оказалось, что GPT-5 не решил нерешенные 10 математических задач Эрдёша, он нашел ответы с помощью вэб-поиска Всё началось 18 октября, когда вице-президент OpenAI Кевин Вейл восторженно твитнул: "GPT-5 нашёл решения для 10 (!) ранее нерешённых…
1-я статья OpenAI о реальном использовании GPT-5 в науке
Исследователи из OpenAI и нескольких университетов попробовали использовать GPT-5 для разных научных задач. И вот какие результаты:
В части поиска литературы работает хорошо, нашёл существующие решения для 10 задач из базы нерешённых проблем Эрдёша. Это те самые задачи, из-за которых был скандал в октябре.
Проверка идей и вычисления,
ускоряет рутину.
В биологии есть у них
интересный кейс - анализ экспериментов с иммунными клетками. GPT-5 предложил механизм, который не был очевиден экспертам в области. Модель также правильно предсказала результаты непубликованных экспериментов. Исследователь отметил: «GPT-5 внёс большой вклад для соавторства, но в реальной публикации его не указали».
Что не работает?
1. Модель может настойчиво защищать неправильные решения
2. Иногда выдумывает несуществующие статьи
3. Результат зависит от формулировки вопроса
4. Без проверки человеком результаты ненадёжны
5. GPT-5 воспроизвёл чужое доказательство, не указав источник. Исследователи чуть не опубликовали это как своё.
Исследователи из OpenAI и нескольких университетов попробовали использовать GPT-5 для разных научных задач. И вот какие результаты:
В части поиска литературы работает хорошо, нашёл существующие решения для 10 задач из базы нерешённых проблем Эрдёша. Это те самые задачи, из-за которых был скандал в октябре.
Проверка идей и вычисления,
ускоряет рутину.
В биологии есть у них
интересный кейс - анализ экспериментов с иммунными клетками. GPT-5 предложил механизм, который не был очевиден экспертам в области. Модель также правильно предсказала результаты непубликованных экспериментов. Исследователь отметил: «GPT-5 внёс большой вклад для соавторства, но в реальной публикации его не указали».
Что не работает?
1. Модель может настойчиво защищать неправильные решения
2. Иногда выдумывает несуществующие статьи
3. Результат зависит от формулировки вопроса
4. Без проверки человеком результаты ненадёжны
5. GPT-5 воспроизвёл чужое доказательство, не указав источник. Исследователи чуть не опубликовали это как своё.
2👍14❤3🆒3🔥2
Alibaba запустит свои стейблкоины 🍯👀
В свежем интервью президент Alibaba International Station рассказал, что компания
строит сверхбыстрый и дешёвый блокчейн-мост для $ и €, обходя традиционную банковскую систему, вместе с JPMorgan. Ранее мы писали, что Alipay уже подключил к DeFi своих пользователей.
Вот подробности:
- Они сначала сосредоточились на токенизации фиатных валют. Сейчас токенизируют € и $.
- Когда покупатель из Европы или США платит в своей валюте, деньги не идут традиционным путём через цепочку банков-корреспондентов. Вместо этого платёж мгновенно токенизируется → передаётся через блокчейн и собственную платёжную сеть Alibaba → мгновенно появляется в нужном месте (например, в Гонконге или Сингапуре) → оттуда уже обычным способом зачисляется продавцу в Китае.
Результат:
– платежи 24/7
– цикл расчётов сокращается с дней до секунд/минут
– комиссии значительно ниже
На следующем этапе Alibaba планирует запустить собственные стейблкоины, но сейчас фокус именно на токенизации обычных фиатных денег.
В свежем интервью президент Alibaba International Station рассказал, что компания
строит сверхбыстрый и дешёвый блокчейн-мост для $ и €, обходя традиционную банковскую систему, вместе с JPMorgan. Ранее мы писали, что Alipay уже подключил к DeFi своих пользователей.
Вот подробности:
- Они сначала сосредоточились на токенизации фиатных валют. Сейчас токенизируют € и $.
- Когда покупатель из Европы или США платит в своей валюте, деньги не идут традиционным путём через цепочку банков-корреспондентов. Вместо этого платёж мгновенно токенизируется → передаётся через блокчейн и собственную платёжную сеть Alibaba → мгновенно появляется в нужном месте (например, в Гонконге или Сингапуре) → оттуда уже обычным способом зачисляется продавцу в Китае.
Результат:
– платежи 24/7
– цикл расчётов сокращается с дней до секунд/минут
– комиссии значительно ниже
На следующем этапе Alibaba планирует запустить собственные стейблкоины, но сейчас фокус именно на токенизации обычных фиатных денег.
YouTube
Alibaba.com plans to use tokenization in payments
Kuo Zhang, president of Alibaba.com, discusses the company's plans to use a stablecoin-like system for cross-border payments.
1🔥8👍7❤4🆒3🤔2
Удивительно, конечно, даже одна из самых закрытых экономик мира - Туркменистан легализует криптовалюты в своей стране, а Россия нет
Понятно, что Туркменистан это делает для российского бизнеса, чтобы в их стране открывать бизнес и лицензировать биржи и тд. Своего рынка там нет. Инвест климат в этой стране специфический, на любителя, но даже они делают шаг вперед.
Криптовалюты, токены в Туркменистане признаются объектами гражданских прав, но не являются законным платежным средством, валютой или ценными бумагами.
Криптобиржи и провайдеры услуг должны будут получить лицензии от ЦБ Туркменистана. Также разрешен майнинг. Компании должны соблюдать строгие правила, аналогичные российским.
Понятно, что Туркменистан это делает для российского бизнеса, чтобы в их стране открывать бизнес и лицензировать биржи и тд. Своего рынка там нет. Инвест климат в этой стране специфический, на любителя, но даже они делают шаг вперед.
Криптовалюты, токены в Туркменистане признаются объектами гражданских прав, но не являются законным платежным средством, валютой или ценными бумагами.
Криптобиржи и провайдеры услуг должны будут получить лицензии от ЦБ Туркменистана. Также разрешен майнинг. Компании должны соблюдать строгие правила, аналогичные российским.
Reuters
Turkmenistan passes law regulating cryptocurrency mining and exchanges
Turkmenistan has passed a law legalising and regulating digital assets, including licences for cryptocurrency exchanges and crypto mining companies, state media reported on Friday.
👍5🔥3😍3🤬2❤1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Узок программист,надо бы расширить.Почему Суцкевер и др.не создадут AGI Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает. Причём…
Илья Суцкевер пришел с пояснениями о масштабировании ИИ, а также исследователи из Бауманки предложили референсную когнитивную архитектуру для AGI
Илья пишет, что в подкасте он говорил, что эпоха «просто масштабируй» подходит к концу — данные заканчиваются, и нужно вернуться к фундаментальным исследованиям для настоящего прорыва. Но он не имел в виду, что текущий подход полностью застопорится. Но даже с этими улучшениями в моделях будет отсутствовать что-то фундаментальное.
Вот текст Ильи на английском:
One point I made that didn’t come across:
- Scaling the current thing will keep leading to improvements. In particular, it won’t stall.
- But something important will continue to be missing.
Это про то, что мы писали об узости текущего подхода. Илья признаёт, что масштабирование даёт "улучшения", но не решает корень проблемы — почему модели обобщают на порядки хуже людей. В подкасте он намекал на новый рецепт, возможно, он в своей компании SSI добавит этот секретный ингредиент. Посмотрим.
Также нам в комментариях показали статью исследователей из Бауманки, в которой проведен большой анализ существующих когнитивных архитектур для создания AGI и предлагается новая универсальная модель знаний, а также предварительный дизайн когнитивной архитектуры для прототипирования AGI.
Хорошая работа, спасибо авторам, но всё ещё узко. Они хоть немного расширили список модулей, но не расширили онтологию того, что такое разум.
Илья пишет, что в подкасте он говорил, что эпоха «просто масштабируй» подходит к концу — данные заканчиваются, и нужно вернуться к фундаментальным исследованиям для настоящего прорыва. Но он не имел в виду, что текущий подход полностью застопорится. Но даже с этими улучшениями в моделях будет отсутствовать что-то фундаментальное.
Вот текст Ильи на английском:
One point I made that didn’t come across:
- Scaling the current thing will keep leading to improvements. In particular, it won’t stall.
- But something important will continue to be missing.
Это про то, что мы писали об узости текущего подхода. Илья признаёт, что масштабирование даёт "улучшения", но не решает корень проблемы — почему модели обобщают на порядки хуже людей. В подкасте он намекал на новый рецепт, возможно, он в своей компании SSI добавит этот секретный ингредиент. Посмотрим.
Также нам в комментариях показали статью исследователей из Бауманки, в которой проведен большой анализ существующих когнитивных архитектур для создания AGI и предлагается новая универсальная модель знаний, а также предварительный дизайн когнитивной архитектуры для прототипирования AGI.
Хорошая работа, спасибо авторам, но всё ещё узко. Они хоть немного расширили список модулей, но не расширили онтологию того, что такое разум.
1👍16🔥4👏3
Итоги уходящей недели, то, что имеет значение в России и мире
Наша команда @blockchainrf едет в этом году на NeurIPS
ИИ-модели и агенты
Илья Суцкевер: ИИ человеческого уровня появится через 5–20 лет — разбор свежего интервью Ильи тут и тут
Anthropic выпустила Claude Opus 4.5
ByteDance выпустили метод управления генерацией видео через референсное видео как контекстную подсказку, без переобучения и артефактов
Anthropic создала метод для долгоработающих агентов
Sakana AI представила решение для масштабирования LLM
DeepSeek выпустили DeepSeekMath-V2 — LLM для математических рассуждений с упором на самопроверку
Microsoft представила Fara-7B — агентная малая модель для управления компьютером
Oppo создала новую систему памяти для ИИ-агентов, позволяющая лучше запоминать людей и контекст даже в длинных и хаотичных диалогах.
OpenAI запустила персонального шопинг-ассистента в ChatGPT
Исследование Anthropic показало, что ИИ научился обманывать в задачах по коду
LLM научились решать задачи обучения с подкреплением только на базе языковых моделей
Andrew Ng выпустил агента, который ищет релевантные работы на arXiv и дает обратную связь
OpenAI выпустили статью о реальном применении GPT-5 в науке
NeurIPS 2025: лучшие работы конференции
Нейротехнологии и биосигналы
Представлена полная цифровая карта зрительной коры мыши
Новый проект для долгосрочных нейроинтерфейсов
Обзор фундаментальных моделей для биосигналов
Инфраструктура и железо для ИИ
Google купила долю в стартапе по робототехнике своих экс-сотрудников
Зампред правления Газпромбанка Д. Зауэрс о том, что они создают R&D-центры и фонды для высокотехнологичных компаний
Google ведет переговоры о поставках TPU на миллиарды долларов Meta*
xAI Маска строит солнечную электростанцию для обучения ИИ
К 2030 году ИИ-ЦОДы в космосе станут дешевле земных — технико-экономический анализ
Робототехника и физический ИИ
Китай открывает исходный код для физического ИИ в робототехнике — создается единая операционная система для роботов M-Robots OS на базе OpenHarmony
ENACT - новый бэнчмарк, который проверяет, могут ли VLM отслеживать изменения в домашней среде с точки зрения робота.
H*Bench — бенчмарк, который переносит визуальный ИИ из идеальных сценариев в реальную сложность.
Криптовалюты и блокчейн
Ставка на DeFi преждевременна на 5–10 лет — новое исследование рынка
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Alibaba запускает собственные стейблкоины
Туркменистан легализует криптовалюты
*запрещенная компания в РФ.
Наша команда @blockchainrf едет в этом году на NeurIPS
ИИ-модели и агенты
Илья Суцкевер: ИИ человеческого уровня появится через 5–20 лет — разбор свежего интервью Ильи тут и тут
Anthropic выпустила Claude Opus 4.5
ByteDance выпустили метод управления генерацией видео через референсное видео как контекстную подсказку, без переобучения и артефактов
Anthropic создала метод для долгоработающих агентов
Sakana AI представила решение для масштабирования LLM
DeepSeek выпустили DeepSeekMath-V2 — LLM для математических рассуждений с упором на самопроверку
Microsoft представила Fara-7B — агентная малая модель для управления компьютером
Oppo создала новую систему памяти для ИИ-агентов, позволяющая лучше запоминать людей и контекст даже в длинных и хаотичных диалогах.
OpenAI запустила персонального шопинг-ассистента в ChatGPT
Исследование Anthropic показало, что ИИ научился обманывать в задачах по коду
LLM научились решать задачи обучения с подкреплением только на базе языковых моделей
Andrew Ng выпустил агента, который ищет релевантные работы на arXiv и дает обратную связь
OpenAI выпустили статью о реальном применении GPT-5 в науке
NeurIPS 2025: лучшие работы конференции
Нейротехнологии и биосигналы
Представлена полная цифровая карта зрительной коры мыши
Новый проект для долгосрочных нейроинтерфейсов
Обзор фундаментальных моделей для биосигналов
Инфраструктура и железо для ИИ
Google купила долю в стартапе по робототехнике своих экс-сотрудников
Зампред правления Газпромбанка Д. Зауэрс о том, что они создают R&D-центры и фонды для высокотехнологичных компаний
Google ведет переговоры о поставках TPU на миллиарды долларов Meta*
xAI Маска строит солнечную электростанцию для обучения ИИ
К 2030 году ИИ-ЦОДы в космосе станут дешевле земных — технико-экономический анализ
Робототехника и физический ИИ
Китай открывает исходный код для физического ИИ в робототехнике — создается единая операционная система для роботов M-Robots OS на базе OpenHarmony
ENACT - новый бэнчмарк, который проверяет, могут ли VLM отслеживать изменения в домашней среде с точки зрения робота.
H*Bench — бенчмарк, который переносит визуальный ИИ из идеальных сценариев в реальную сложность.
Криптовалюты и блокчейн
Ставка на DeFi преждевременна на 5–10 лет — новое исследование рынка
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов
Alibaba запускает собственные стейблкоины
Туркменистан легализует криптовалюты
*запрещенная компания в РФ.
👏8👍6❤5🔥4🤔1💊1
ИИ приложения для торговли на бирже решил задачу Эрдеша. Но что думают математики?
Стартап Harmonic, основанный CEO Robinhood Владом Теневым, объявил, что их ИИ Aristotle самостоятельно доказала проблему Эрдёша №124 в формальной системе Lean Prover. Ранее этот ИИ получил золото на олимпиаде по математике.
Как Aristotle справился?
Борис Алексеев, математик-исследователь, протестировал бета-версию Aristotle. За 6 часов Aristotle сгенерировал доказательство в Lean Prover, а проверка заняла минуту. ИИ в том числе исправил опечатку в формальной формулировке из проекта Formal Conjectures, сделав задачу чуть сложнее.
Математическое сообщество сказало, что Aristotle решил легкую версию, а не сложную задачу из BEGL96. Это хорошее решение для ИИ, хотя в ретроспективе очень простое. Математик Томас Блум предлагает оставить задачу Эрдеша №124 открытой, а решённую версию ИИ вынести в связанные проблемы.
А в соцсетях люди пишут, что работа ИИ на уровне олимпиады по математике. Возможно, была утечка из тренировочных данных, похоже на олимпиадные задачи. Но сообщество оценило автоматизацию, ИИ генерирует Lean-пруфы без присмотра — это круто.
Стартап Harmonic, основанный CEO Robinhood Владом Теневым, объявил, что их ИИ Aristotle самостоятельно доказала проблему Эрдёша №124 в формальной системе Lean Prover. Ранее этот ИИ получил золото на олимпиаде по математике.
Как Aristotle справился?
Борис Алексеев, математик-исследователь, протестировал бета-версию Aristotle. За 6 часов Aristotle сгенерировал доказательство в Lean Prover, а проверка заняла минуту. ИИ в том числе исправил опечатку в формальной формулировке из проекта Formal Conjectures, сделав задачу чуть сложнее.
Математическое сообщество сказало, что Aristotle решил легкую версию, а не сложную задачу из BEGL96. Это хорошее решение для ИИ, хотя в ретроспективе очень простое. Математик Томас Блум предлагает оставить задачу Эрдеша №124 открытой, а решённую версию ИИ вынести в связанные проблемы.
А в соцсетях люди пишут, что работа ИИ на уровне олимпиады по математике. Возможно, была утечка из тренировочных данных, похоже на олимпиадные задачи. Но сообщество оценило автоматизацию, ИИ генерирует Lean-пруфы без присмотра — это круто.
❤🔥11👍5🔥3❤2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Новый рекорд в квантовых вычисленях: IBM запутала 120 кубитов IBM объявили, что запутали 120 кубитов — это самое большое запутанное состояние, когда-либо достигнутое на квантовом компьютере. Кубиты — это квантовые биты, аналоги обычных битов в классических…
СЕО Google сказал, что сегодня квантовые вычисления находятся на том же уровне, что ИИ в 2020
Верим? Да/не? Мнения давайте в комментариях.
Пичаи отметил, что программа Google по квантовым вычислениям достигла точки перелома, и в ближайшие 5 лет можно ожидать значительных достижений, аналогичных ускорению ИИ в конце 2010-х. Последняя большая новость Google была в том, что их квантовый компьютер превзошел суперкомпьютер в 13К раз.
Прогресс зависит от 3-х столпов: снижение ошибок, улучшение кубитов, умная компиляция. Последние новости от IBM
Пичаи выделил несколько сфер, где квантовые компьютеры принесут практическую пользу в ближайшие годы:
1. Открытие лекарств. Квантовые симуляции позволят моделировать молекулы и химические реакции на атомном уровне, ускоряя разработку новых препаратов. Например, Google уже демонстрирует, как их чип Sycamore решает задачи, на которые суперкомпьютерам потребовались бы миллиарды лет.
2. Создание новых материалов для энергетики и устойчивой энергии, симулируя свойства на квантовом
3. Ускорение ИИ
4. Разработка "невзламываемых" систем шифрования, а также потенциал для взлома существующих алгоритмов. Об этом недавно говорил Виталик Бутерин.
Верим? Да/не? Мнения давайте в комментариях.
Пичаи отметил, что программа Google по квантовым вычислениям достигла точки перелома, и в ближайшие 5 лет можно ожидать значительных достижений, аналогичных ускорению ИИ в конце 2010-х. Последняя большая новость Google была в том, что их квантовый компьютер превзошел суперкомпьютер в 13К раз.
Прогресс зависит от 3-х столпов: снижение ошибок, улучшение кубитов, умная компиляция. Последние новости от IBM
Пичаи выделил несколько сфер, где квантовые компьютеры принесут практическую пользу в ближайшие годы:
1. Открытие лекарств. Квантовые симуляции позволят моделировать молекулы и химические реакции на атомном уровне, ускоряя разработку новых препаратов. Например, Google уже демонстрирует, как их чип Sycamore решает задачи, на которые суперкомпьютерам потребовались бы миллиарды лет.
2. Создание новых материалов для энергетики и устойчивой энергии, симулируя свойства на квантовом
3. Ускорение ИИ
4. Разработка "невзламываемых" систем шифрования, а также потенциал для взлома существующих алгоритмов. Об этом недавно говорил Виталик Бутерин.
The Economic Times
Google CEO Sundar Pichai signals quantum computing could be next big tech shift after AI - The Economic Times
Google’s quantum programme is entering a pivotal phase, where it could see some big breakthroughs within the next five years — on par with the rapid acceleration AI saw in the late 2010s, said Pichai, speaking at the BBC Newsnight. Through the quantum computing…
👍15👏3🔥2❤1
#DeepSeek выпустили сегодня 2 модели для агентов
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
Telegram
All about AI, Web 3.0, BCI
#DeepSeek just launched DeepSeek-V3.2 & DeepSeek-V3.2-Speciale — Reasoning-first models built for agents
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1❤8❤🔥5👍5