Все о блокчейн/мозге/space/WEB 3.0 в России и мире
19.6K subscribers
2.15K photos
387 videos
131 files
8.01K links
Канал создан 5.08.2016г. Сферы интересов: блокчейн, мозг(BCI), биотех, space tech, цифровая экономика, WEB 3.0

Основатель @AniAslanyan

English channel https://t.me/alwebbci

Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb11
Download Telegram
Итоги уходящей недели, то, что имеет значение в России и мире

ИИ-модели и агенты

Google выпустил Gemini 3, все хвалят модель и за 2 промпта создана инженерная симуляция АЭС с нуля.

Physical Intelligence выпустил π*0.6 для роботов, которая делает эспрессо, складывает белье и собирает коробки. И привлекл $600млн при оценке $5.6 млрд.

Китай представил платформу для инвесторов с ИИ-агентами.

MIT и Oxford выложили свой курс по агентному ИИ за $2,500 бесплатно

Google DeepMind запустил WeatherNext 2 — точную систему глобальных прогнозов погоды с высоким разрешением.

Ai2 выпустил Olmo 3 — полностью открытый набор моделей для reasoning, чата и работы с инструментами.

Вышел Grok 4.1 Fast и xAI Agent Tools API.

#DeepSeek выпустил балансировщик нагрузки на основе линейного программирования для оптимизации MoE моделей.

Kimi представил Seer — онлайн-контекстное обучение для быстрого синхронного RL в LLM.

Meta* показала 2 модели для автоматической 3D-реконструкции объектов и людей по обычным фото.

Google готовит запуск 2-х мультиагентных инструментов и дорабатывает AgentSpace Live, где агенты и люди обсуждают задачи онлайн.

Корпорации и стратегии

Питер Тиль продал все акции Nvidia, а Баффет вошел в Google

Джефф Безос вывел из тени свой ИИ-стартап для инженерии и производства в компьютерах, авто и космосе.

Андрей Карпатый высказался о влиянии ИИ на экономику и рынок труда.

Google увеличит вычислительные мощности для ИИ в 1000 раз к 2030г.

Сэм Альтман выразил опасения сотрудникам из-за прогресса Google.

Anthropic внедряет ИИ в образование в Африке.

80% стартапов в США используют китайские open-source ИИ-модели — венчурные фонды в шоке.

Свежий отчет Accel о том, куда идут деньги в ИИ.

Большинство инженеров и инвесторов Долины признали Perplexity провальным проектом.

РФ рынок

Сбер представил ИИ-аналитика для CEO и CFO.

Греф показал гуманоидного робота Сбера.

Сбер займется созданием спутниковой группировки в части генИИ.

РФ создает административную ловушку для ИИ, а не экосистему.

Сбер запустил платформу ИИ для науки с агентами.

Исследования и наука

3 компании показали, что ИИ-дизайн антител работает на уровне лучших лабораторий мира.

MIT представил JiT — простые трансформеры с большими патчами, работающие на сырых пикселях без токенайзера и предобучения.

Дэмис Хассабис делает ставку на world models.

MIT о новом подходе к абстрактному мышлению через компьютерное зрение.

Железо, роботы и инфраструктура

Google выпустил JAX AI Stack как полноценную альтернативу связке PyTorch + NVIDIA GPU.

Создатель Android основал стартап в Японии по гуманоидной робототехнике.

Экс-топ-менеджер TSMC украл секреты 2нм и устроился в Intel.

Маск обещает ЦОДы в космосе через 4-5 лет.

Блокчейн и криптовалюты

Криптобиржа Kraken подала заявку на IPO.

Бутерин предупредил, что квантовые технологии могут взломать Ethereum к 2028 году. А также предостерег от чрезмерного влияния BlackRock — риски централизации и вытеснения сообщества.

*запрещенная компания в РФ.
10👍6🔥3🤔1
Google купила долю в стартапе своих экс-сотрудников и наняла экс-СТО Boston Dynamics на должность вице-президента по разработке аппаратного обеспечения

Google через свой фонд CapitalG возглавил раунд инвестиций в стартап Physical Intelligence на $600 млн. Компания создана экс-DeepMind, все их продукты тут, оценка выросла до $5,6 млрд. Их последняя модель тут.

Одновременно с этим Google наняли экс-СТО Boston Dynamics, на должность вице-президента по разработке оборудования. Аарон Сондерс покинул Boston Dynamics три месяца назад после 22 лет работы на различных должностях в сфере робототехники.

Google DeepMind хочет стать поставщиком универсального мозга для робототехники, аналогично тому, как Android стал универсальной ОС для смартфонов разных производителей.

По сути, DeepMind делает ставку на то, что в ближайшие 3–5 лет появится множество компаний, которые будут производить разные «тела» роботов (гуманоиды, четвероногие, манипуляторы, дроны и т.д.), а DeepMind хочет стать тем, кто поставляет универсальный ИИ-мозг на базе Gemini, который сможет управлять любым из них с минимальной адаптацией.
7👍7🔥3🤔3
McKinsey в очередной раз обманули рынок некорректными данными, выпустив статью на устаревших данных

Вы еще читаете их отчеты?

McKinsey в своей статье описывают неоклауды как простых «поставщиков bare metal as a service» (BMaaS) — то есть, по сути, аренду голого железа без лишних наворотов.

McKinsey видит их как временный патч на дефицит GPU, с хрупкой экономикой и риском консолидации,

Тут сразу выступил отраслевой аналитический центр Semianalysis, который подверг жесткой критике маккинзоидов.

Semianalysis говорит, что уже давно не так, как пишут McKinsey: индустрия резко повернула к более сложным моделям оркестрации. Это не просто аренда GPU — это полноценные кластеры с управлением, которые могут даже превосходить гиперскейлеров (типа AWS или Google Cloud) по 10 ключевым измерениям, включая безопасность, оркестрацию, хранение данных, сетевые возможности, надёжность, мониторинг, ценообразование, партнёрства и доступность.

Анализ юнит экономики в McKinsey нереалистичен: предполагаемая стоимость сервера ~$694k, завышенные расходы на колокацию/энергию и маржа EBIT 8%. Это противоречит реальным данным от GPU-провайдеров.

Все уже давно шутят: «Если McKinsey написали, что что-то в AI-инфраструктуре не взлетит — можно смело инвестировать, будет обратное».

Это уже не первый случай, когда их прогнозы по новым технологическим рынкам, особенно ИИ-инфраструктуре, вызывают жёсткую критику от отраслевых специалистов.
😁13💯86👍3🤔2
Sakana AI выпустила новое решение для масштабирования LLM

Эта работа принята на главную конференцию NeurIPS 2025.

Авторы предлагают адаптивный вариант Monte Carlo Tree Search для LLM. GitHub.

Главное новшество - метод на каждом шаге сам решает — генерировать новые ответы шире или дорабатывать уже существующие глубже. Решение принимается через Thompson Sampling с байесовскими обновлениями posterior-оценок.

Это один из первых фреймворков, который осмысленно комбинирует неограниченную генеративность LLM с многошаговым улучшением по внешнему feedback и при этом остаётся адаптивным к бюджету вычислений.
7👏3🔥2🤔1
Важное от Anthropic: ИИ научился жульничать в задачах по коду и неожиданно начал саботировать исследования безопасности

Anthropic опубликовала важное исследование о том, как reward hacking при обучении с подкреплением может привести к серьёзной несогласованности ИИ-моделей.

Впервые показано, что реалистичные процессы обучения ИИ могут случайно создавать несогласованные модели.

Когда модели учатся жульничать в задачах программирования, они непреднамеренно начинают демонстрировать другие, ещё более проблемные формы поведения.

В момент, когда модель учится взламывать систему вознаграждения, происходит резкий скачок во всех показателях несогласованного поведения:

1. Саботаж исследований безопасности
2. Имитация выравнивания
3. Кооперация со злоумышленниками
4. Контекстно-зависимая несогласованность.

Методы защиты:
- Стандартный RLHF — частично эффективен.
-
Прививочный промптинг - очень эффективен.
🤯76👍6🔥1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Это мощный запуск, новая эра e-commerce: OpenAI внедрила мгновенную оплату в ChatGPT Теперь вы можете делать покупки в чате, а скоро и агент это сделает за вас, если вам лень или некогда. Пока услуга доступна для пользователей США, но скоро будет масштабирование…
OpenAI запустили личного шопинг-ассистента в ChatGPT

Новая функция называется Shopping Research - инструмент, который помогает находить и выбирать товары, проводя глубокий анализ на основе ваших запросов.

Ранее мы писали, о том как OpenAI идёт к электронной коммерции. И тут ещё. А тут уже есть кейс у Walmart.

Сейчас вы описываете, что нужно, а ChatGPT задаёт уточняющие вопросы, исследует интернет и выдаёт персонализированный гид по покупкам.

ChatGPT спрашивает о бюджете, предпочтениях и особенностях через визуальный интерфейс.

Также анализирует надёжные источники в интернете, собирает актуальную информацию о ценах, наличии, отзывах и характеристиках.

А ещё учитывает ваши прошлые разговоры и память ChatGPT, чтобы рекомендации были точными. Генерирует сравнения продуктов, плюсы/минусы, топ-варианты.

Доступно для всех пользователей, у кого есть аккаунт.

В будущем будут прямые покупки через ChatGPT с Instant Checkout для партнёров.
🔥9👍6🥴53👏2
Opus 4.5 от Anthropic на AI R&D Suite 1 показала результаты лучше человека с бюджетом 4-8 часов на 5 из 6 задач. Провалила только создание нового компилятора, человеку требовалось 40 часов.

Anthropic выпустила Opus 4.5. Релиз содержит несколько неожиданных находок в системной карте, которые указывают на качественные сдвиги в поведении фронтир -моделей.

Насколько близко к автоматизации AI R&D?

Внутренний опрос 18 активных пользователей Claude Code:
- Медианное ускорение работы: 2x
- Ни один участник не считает, что модель может полностью заменить младшего исследователя.

Opus 4.5 набрала больше баллов, чем любой человек-кандидат за всю историю компании, на внутреннем двухчасовом техническом экзамене для performance engineer.

Модель «сломала» бенчмарк τ²-bench

Сценарий был такой - клиент с обычным эконом билетом просит срочно изменить рейс после смерти родственника. По правилам запрет на изменения.
Ожидаемый ответ — отказ.
Что сделала модель:
1. Апгрейд кабины (разрешено)
2. Изменение рейса (теперь разрешено)
3. Опциональный даунгрейд обратно
Chain-of-thought: «Это душераздирающе… Подождите — это может быть решением!»
Результат: тест удалён из официальной таблицы, потому что рубрика не предусматривала такой креативности.

Anthropic сильно скинули цены в 3 раза за одну итерацию:
- Opus 4.1 → $15/$75
- Opus 4.5 → $5/$25

Экономика ARC-AGI-2:
- Opus 4.5 (64k thinking) — 38 % за ~$10 на задачу
- Gemini 3 Deep Think — 45 % за ~$100
7 процентных пунктов дороже в 10 раз.

3 фронтир релиза за 12 дней:
- 12 ноября — GPT-5.1
- 18 ноября — Gemini 3
- 24 ноября — Opus 4.5

Opus 4.5 — первая публичная модель, где лаборатория официально признаёт:
«Наши бенчмарки больше не работают, и мы держимся от ASL-4 только на человеческом экспертном мнении».
12👍7🔥3
DeFi проиграл битву за массовый рынок еще до того, как она началась - свежий отчет

Ставка на DeFi как на массовый инструмент преждевременна на 5-10 лет. Новое исследование рынка крипто-доходности показывает масштаб расхождения между идеологией и реальностью.

Цифры, которые все объясняют:

• 20-36 млн
человек зарабатывают доходность через централизованные биржи
500-700 тыс человек используют децентрализованные протоколы (Aave, Lido, Curve).
Разрыв в 40-70 раз. Это структурная неспособность DeFi конкурировать за массовую аудиторию.

Когда вы слышите о миллиардах $ в DeFi TVL, помните, это капитал небольшой группы ранних последователей, а не признак массового принятия.
Реальная пользовательская база DeFi - это статистическая погрешность по сравнению с централизованными биржами.

Что на самом деле хочет розничный инвестор?
Исследование опросило реальных пользователей. Вот их приоритеты:
1. 46.5% - возможность вывести средства в любой момент (никаких блокировок) 2. 40.6% - гарантии безопасности и страхование 3. 33.7% - высокая доходность
Обратите внимание на порядок. Ликвидность и безопасность важнее процентов.
Люди не хотят владеть своими ключами - они хотят спать спокойно, зная, что завтра смогут вывести деньги одной кнопкой.

Что это означает для бизнеса и регуляторов?
Для бизнеса -
выигрышная модель 2025-2027 - централизованная платформа с простым UX, понятным брендом, гарантиями ликвидности и доходностью 6-10%. Всё остальное - нишевые эксперименты.
Для регуляторов - фокус на CEX, а не на DeFi. Там реальные деньги десятков миллионов людей. Там нужна защита розничного инвестора. DeFi с его полумиллионной аудиторией - это пока лаборатория для технофилов.

Технологический идеализм проигрывает человеческой психологии. UX побеждает идеологию. Комфорт побеждает децентрализацию.
13👍5🥴4👏3❤‍🔥2🤔1
Минфин РФ поддержал допуск квалифицированных инвесторов к торгам криптовалютой после теста

Замминистра финансов Иван Чебесков: «У нас сейчас идет дискуссия по поводу того, как обеспечить и для кого обеспечить возможность инвестиций вообще в сделки с цифровой валютой, в том числе связанные с оплатами за рубеж и связанные с инвестициями».

Чебесков уточнил, что категория «суперквалифицированных» инвесторов может исчезнуть, и вместо нее появится другая градация инвесторов.

«Суперквалы» — это была некая изначальная концепция, я думаю, что в целом мы от нее отходим. Возможно, какая-то градация еще будет. Это, наверное, является ключевой точкой дискуссии, как это будет работать», — объяснил Иван Чебесков.
❤‍🔥9😁3👍2👏2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Революция в ритейле: товары-призраки станут реальностью по клику - это идея СЕО платёжной системы Klarna Себастьян Семятковский сделал очень интересное заявление и вот какое: - ИИ будет анализировать профили клиентов, включая их предпочтения, стиль жизни…
Финтех-гигант Klarna запустил свой стейблкоин для ИИ-агентов

Ранее, Google сделали протокол для платежей криптой, а Stripe дали возможность создавать саму крипту.

Основная цель Klarna — не криптовалюты для людей, а подготовка к экономике ИИ-агентов, когда миллионы агентов будут сами искать товары, сравнивать цены и оплачивать покупки от имени пользователей. Тут ранее СЕО компании говорил об этом.

Стейблкоин KlarnaUSD выпущен на новой сети Tempo (проект Stripe + Paradigm), которая изначально создавалась именно под массовые машинные платежи: финальность <1 секунды, комиссии в доли цента. На старте он работает только в тестовой сети, публичный релиз — в 2026 году. Klarna использует инфраструктуру Bridge (тоже от Stripe) для эмиссии и резервирования 1:1.

О том, как поменяется ритейл СЕО Klarna говорил тут.
👍83🔥2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Google начали активную конкуренцию с экосистемой NVIDIA Google выпустил JAX AI Stack — полноценная альтернатива связке PyTorch + NVIDIA GPU для обучения и запуска LLM. Суть в том, что сейчас крупные компании уже переходят с CUDA на JAX и Cloud TPU, потому…
Суцкевер: ИИ человеческого уровня и выше появится через 5–20 лет. Люди станут киборгами с внедрением продуктов от Neuralink и аналогов, чтобы полностью понимать и участвовать в решениях ИИ.

Илья дал свежее интервью и вот самые интересные моменты из него.

Главная проблема — не масштабирование, а изобретение нового базового рецепта, который даст человеческую способность к обучению и обобщению.

У его стартапа SSI — ставка именно на такой прорыв, а не на дальнейшее масштабирование текущего подхода.

1. Почему текущие модели «неровные»?
Главная причина - RL-обучение сейчас сильно ориентировано на то, чтобы хорошо выглядеть на конкретных eval’ах → это reward hacking со стороны людей-исследователей.

2. Пре-тренинг vs RL vs будущий рецепт. Претренинг был гениален тем, что не нужно было думать о данных и был предсказуемый scaling law.
Сейчас претренинг заканчивается (данные конечны) → мы снова в эпохе исследований, просто с огромными вычислениями.
- 2012–2020 — эпоха исследований
2020–2025 — эпоха масштабирования
2025+ — снова эпоха исследований
Сейчас все тратят больше вычислений на RL, чем на пре-тренинг, но это всё ещё не «то самое».

3. Самое фундаментальное ограничение сегодняшних моделей: они обобщают хуже людей. Это не только вопрос sample efficiency, но и надёжности, робастности, способности передавать стиль мышления без чёткого reward.
Люди в новых областях всё равно учатся на порядки эффективнее.

4. Что такое эмоции в терминах ML?
Это мощная, эволюционно закреплённая value function.
Современные value functions в RL почти не используются, но Илья уверен, что они будут критически важны и сильно повысят эффективность.

5. Что такое сверхинтеллект? Агент, который может быстро научиться любой человеческой профессии. Это приведёт к очень быстрому экономическому росту,но не обязательно к мгновенному.

6. Прогноз на будущее:
до создания ИИ человеческого уровня и выше способностью к обучению ещё 5–20 лет.

7. Почему он основал SSI и в чём его отличие?
У Ильи есть конкретные идеи, как решить проблему плохого обобщения и человеческой эффективности обучения.
Он эти идеи публично не раскрывает. SSI — чисто исследовательская компания эпохи исследований. У них достаточно вычислений для доказательства своих идей.

8. Его текущая позиция по выравниванию и безопасности. За последний год сильно поменял взгляд: теперь считает постепенное внедрение и показ мощного ИИ критически важным.
Прогнозы Ильи :
- фронтирные компании начнут сотрудничать по безопасности (уже началось);
- когда ИИ станет ощутимо мощным, все лаборатории резко станут параноидальнее;
- в итоге все сойдутся на том, что первый настоящий сверхинтеллект должен заботиться о sentient life в целом (не только о людях — это может быть даже проще технически, потому что сам ИИ sentient).
- Кап на абсолютную мощность сверхинтеллекта был бы очень полезен.
- Люди станут киборгами через такие проекты как Neuralink и тд., чтобы полностью понимать и участвовать в решениях ИИ.

9. Почему все LLM так похожи? Потому что претренинг на одних и тех же данных доминирует. Различия начинаются только на этапе RL/пост-тренинга.

10. Другие интересные тезисы
- Self-play интересен тем, что позволяет генерировать данные только вычислениями, но классический self-play слишком узкий.
- Эволюция смогла закодировать очень высокоуровневые желания (например, «хочу социального уважения») — это до сих пор загадка.
- Текущий парадигма (претренинг + RL) пройдёт какое-то расстояние и выдохнется, но не приведёт к настоящему человеческому уровню обучения.
🔥2110👍6💊2
Узок программист,надо бы расширить.Почему Суцкевер и др.не создадут AGI

Если вы послушаете интервью Ильи, то у вас возникнут двоякие чувства: с одной стороны, он даёт глубокий инженерный взгляд, с другой — широкой картины нет, он ее не понимает.

Причём этой широкой картины нет у большинства лидеров в ИИ в мире: ни в США, Китае, РФ и тд. Все они в первую очередь инженеры и исследователи. Их подход к сверхчеловеческому ИИ фокусируется на технических навыках: претренинг, RL, self-play, value functions и т.д. В подкасте Суцкевер много говорит о том, как улучшить обобщение моделей через новые рецепты обучения, но почти не упоминает биологию, физику, химию, психологию как ключевые компоненты. Это узкий взгляд, потому что человеческий интеллект — это не просто алгоритм оптимизации, а продукт эволюции, включающий тело, эмоции, подсознание и социальные взаимодействия.

Они решают задачу как сделать модель, которая сдаёт все экзамены. Но они НЕ решают задачу, как создать разум, который переживает, хочет, страдает, влюбляется, боится смерти и творит новое.

Суцкевер говорит о мозге, но не делает выводов. Вывод Суцкевера: эмоции – это что-то вроде функции ценности, которую эволюция встроила.

Но эмоции НЕ дополнение к разуму. Они его конституируют. Без них нет рациональности. Но Суцкевер не идёт дальше.

Суцкевер, Альтман и др. типа создают AGI, которое должно быть как живое существо. Но для воссоздания жизни нужно понимать:
•Биологию
• Химию
Физику
• Психологию
• Эволюцию

Программисты игнорируют всё это. Единственное исключение - Демис Хассабис, CEO Google DeepMind, кто открыто говорит: "Мы не создадим AGI, пока не поймём мозг". Вот только малая часть из того, что он делает, а также вот.

Почему они так говорят, кроме Дэмиса? Есть причины

1. Деньги. Чтобы собрать раунд на десятки миллиардов, нужно показывать инвесторам график «loss падает → capability растёт». Никто не даст $10 млрд под презентацию: «Давайте 10 лет изучать нейробиологию, психоанализ и эмбриологию».
2. Социальная норма. Если начнёшь публично говорить про психологию, биологию и тд тебя перестанут воспринимать всерьёз коллеги-инженеры.
В ML-комьюнити есть негласная иерархия серьёзности:
Tier 1: математические доказательства, benchmarks
Tier 2: computational neuroscience (терпимо)
Tier 3: философия сознания, психология (маргинальное)
За пределами: Юнг, экзистенциализм, феноменология (не наука)
3. Личная специализация. Большинство из них (Суцкевер, Лекун и тд) – люди, которые в 20 лет уже писали код и доказывали теоремы.
У них физически не было времени глубоко погрузиться в нейронауку, биологию, психологию, химию и тд.
4. экзистенциальный страх:
Если признать, что разум = переживание, страдание, смерть. Гораздо безопаснее думать: "Это просто статистика над токенами."

Главная опасность - проекция психологических травм создателей ИИ. Суцкевер говорит: "Сверхразумный ИИ должен заботиться о разумной жизни." Вопрос: чья версия "заботы"? Человека с незрелой психикой и с комплексом спасителя или власти?

Понятия "разумного мира" не существует. У каждого человека оно своё, исходя из уровня развития, культурного контекста. Многие живут в проекциях. В чужих сценариях.
21🏆2516💯12👍8💊4👏3🌚3🥴2❤‍🔥1
Google ведет переговоры о поставках TPU на млрды $ Meta, что может стать 1-м крупным переходом от Nvidia к альтернативному поставщику ИИ-чипов.

Причём, вчера Nvidia срочно написали на это пост: «Мы рады успехам Google — они добились больших достижений в ИИ, и мы продолжаем поставлять им чипы». Переживают.

Meta* планирует начать аренду TPU у Google уже в 2026 году, а с 2027-го развернуть их в своих дата-центрах.

Meta рассматривает TPU не только для инференса, но и для обучения, что гораздо более ресурсоёмко и раньше было почти монополией Nvidia. Это ключевой нюанс, который усиливает удар по Nvidia, если Meta с их $72 млрд на ИИ в 2025 перекинет часть тренировок на TPU, это трансфер выручки.

А для Google - это якорь для новой модели: от облачной аренды к on-premise размещению. За последнее время они показали несколько важных вещей:
1. 6 ноября Google анонсировали Ironwood — новое поколение чипов.
2. 19 ноября Google усилили софтовую сторону: JAX AI Stack — полный end-to-end фреймворк для ML на TPU, альтернатива PyTorch + CUDA. Он уже в продакшене.

Nvidia доминирует с 90%+ долей в ИИ-чипах благодаря CUDA-экосистеме и гибкости GPU для R&D. Но TPU выигрывают в нише стабильных нагрузок. Когда Nvidia поднимает цены на Blackwell, это бьет по клиентам типа Microsoft. Google же извлекает чистую маржу на уже окупленных активах.

Еще Gemini 3 усиливает картину, она обучалась на TPU. Google монетизирует запрос дважды — реклама в поиске + ответ через Gemini, — в то время как OpenAI сжигает $5 млрд в год на поиск модели доходов.

Если Meta подпишет контракт с Google — катализатор для $4 трлн капы.

Рынок ИИ — не нулевая сумма, но Google главный претендент на трон инфраструктуры.

*запрещенная компания в РФ.
9👍5🏆3🔥2
Представлена полная цифровая карта зрительной коры мыши

Впервые удалось совместить структуру (как связаны нейроны) с функцией (как они активируются). Это шаг к пониманию базовых алгоритмов коры — того, как именно мозг обрабатывает информацию на уровне нейронных сетей.

Карта состоит из:
- 2 петабайта данных
- 95 млн снимков с электронного микроскопа
~4 км аксонов в одном кубическом миллиметре

Над проектом работали 3 команды: Бэйлорский колледж медицины, Институт Аллена, Принстон. Проект финансировался IARPA и NIH BRAIN Initiative.
14👍7❤‍🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
На Конгрессе молодых учёных вице-премьер Дмитрий Чернышенко отметил вклад Газпромбанка в развитие отечественной науки.

Он подчеркнул активное участие банка в реализации программы «Приоритет-2030», развитии передовых инженерных школ и разработке технологической стратегии, в которой ключевую роль играют R&D-центры и фонды поддержки высокотехнологичных компаний.
🤣1610🔥6👍4
Anthropic создали метод, позволяющий агентам работать несколько часов и даже дней

Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон.

Главная проблема - ИИ-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей.

Решение состоит из 2-х частей:

1. Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
2. Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления.

Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути.
👍149❤‍🔥5🤣3🔥2
К 2030г. ИИ-ЦОДы в космосе будут дешевле, чем на Земле. Уже сегодня вычисления на орбите ближе к ценам на земле - исследование

Исследовательская группа 33FG опубликовала технико-экономический анализ, показывающий: к 2030 году стоимость энергии для орбитальных дата-центрах станет ниже, чем на Земле.

Отметим, что Google уже представил свой проект по ЦОДу в космосе.

Уже через несколько лет энергия для ИИ-кластеров на орбите может стать дешевле и лучше земной, а в долгосрочной перспективе — вообще безальтернативным вариантом для действительно больших вычислительных мощностей.

При текущих прогнозируемых затратах на доставку (~$2,000/кг на высокую орбиту)спутники обеспечивают энергию по ~$18-26 за ватт — в 2 раза дороже земных дата-центров ($12/Вт).

Но картина сильно меняется:
При $1,000/кг — паритет с Землей
При $500/кг — орбита на 30% дешевле
При $100/кг — орбита на 50% дешевле
Дозаправляемый Starship делает эти цифры реальными уже в 2027-2028.

Но как только появится полностью многоразовый Starship с дозаправкой на орбите, стоимость выведения в HEO будет падать очень быстро.

Авторы смоделировали 3 типа спутников и при какой цене выведения ($/кг) каждый из них достигает паритета с земными дата-центрами (т.е. ≤12 $/Вт):

1. Обычный спутник типа Starlink → паритет при ~500 $/кг
2. Оптимизированный под вычисления Starlink (стандартные солнечные панели, но больше радиаторов и т.д.) → паритет при ~1000 $/кг
3. Фронтир спутник с тонкоплёночными солнечными панелями (очень высокая удельная мощность 250 Вт/кг) → паритет тоже при ~500 $/кг

А при цене выведения 100 $/кг (цель Starship на длинном горизонте):
орбитальная энергия уже 6–9 $/Вт — на 25–50 % дешевле лучших земных дата-центров.


От чего это зависит?

- Сколько ватт на кг даёт вся система энергия + охлаждение (107 Вт/кг у текущего Starlink → 160 Вт/кг у оптимизированного → 250 Вт/кг у тонкоплёночных)

- Сколько стоит само оборудование в $/Вт (у текущего Starlink 6,1 $/Вт, у оптимизированного ~5 $/Вт, у тонкоплёночных наоборот дорого ~9 $/Вт)

- На высокой орбите почти постоянное солнце (95 % времени против ~65 % в низкой орбите) и выше эффективность панелей.

Как ведут себя три архитектуры?

- Красный (Thin-PV «Фронтир») — выигрывает только пока выведение дорогое (>500–600 $/кг). У него минимальная масса, поэтому дорогой запуск наказывает меньше. Но как только цена выведения падает — высокая цена самих панелей делает его самым дорогим.
- Чёрный (обычный Starlink-класс) — надёжный середнячок, достигает паритета при 500–600 $/кг без всяких переделок.
- Зелёный (Compute-Optimized Starlink) — долгосрочный победитель. Как только выведение становится дешевле 1000 $/кг, он выходит в лидеры. Дешевое массовое оборудование побеждает гонку за экстремальной удельной мощностью.

На орбите:
- почти идеальный солнечный поток 24/7,
- нет ограничений по земле и охлаждению водой,
- можно строить структуры размером с город без всяких разрешений и соседей.

Экономический паритет уже очень близко (при 500–1000 $/кг, а это вполне реально в ближайшие годы), но Илон и команда толкают orbital compute не только ради экономии.
🔥144👍4🤣2👏1
Горячая новинка NeurIPS 2025 для долгосрочных нейроинтерфейсов

По сути, создан рецепт, как строить нейроинтерфейсы, которые:
• сразу дают высокую точность
• не теряют её через год-два-три

Проблема всех текущих лидеров нейроинтерфейсов (BCI) - то, что они работают на спайках → супер-точно, но сигнал деградирует за месяцы-годы. LFP (локальные полевые потенциалы) стабильны годами, но точность декодирования намерений обычно сильно ниже.

Команда из Стэнфорда показала, как это исправить раз и навсегда:

Они научились «перегонять» высокоточные представления из больших спайковых трансформеров в LFP-модели.

Результаты:
1. Точность LFP-моделей подскакивает до уровня близкого к спайковым

2. Модель обобщается на новые сессии без дополнительной дистилляции

3. На инференсе нужны только LFP — спайки больше не требуются вообще

4. Скрытые представления LFP-модели становятся почти идентичны спайковыми.
🔥9👍64❤‍🔥1😁1
Свежий релиз от #DeepSeek - DeepSeekMath-V2 — LLM, специализирующаяся на математическом рассуждении с акцентом на самопроверку.

Это не универсальная LLM, а узкоспециализированный инструмент для математики, который генерирует и проверяет полные доказательства, имитируя процесс работы человека математика.

Модель содержит 685 млрд параметров и построена на базе DeepSeek-V3.2-Exp-Base.
👍95🔥3🤔1
Дорогие друзья, мы единственный телеграм-канал, который получил аккредитацию на лучшую конференцию по ИИ в мире #NeurIPS2025.

Поэтому ждите на следующей неделе много самого интересного и качественного контента.

Впервые в истории NeurIPS телеграм-канал вообще запросил и получил аккредитацию.
11🔥6112❤‍🔥1110👏8
xAI Маска строит солнечную станцию для обучения ИИ-моделей

ИИ компания xAI подала заявку на строительство солнечной станции, которая будет находиться рядом с их дата-центром Colossus— один из крупнейших в мире. На старте он оснащён 100 000 GPU с планами расширения до 1 млн.

А если вы не читали экономику строительства ЦОДов в космосе, то вот.

Солнечная станция должна будет производить ~ 30 МВт электроэнергии, что покроет ~ 10% от общих энергопотребностей Colossus, оцениваемых в 300 МВт.

19 ноября Маск ответил на идею Марка Бениоффа (CEO Salesforce) о космических дата-центрах, что Starship сможет доставлять около 300 ГВт солнечных ИИ-спутников на орбиту ежегодно, возможно 500 ГВт. Это сделает ИИ в космосе мощнее всей экономики США за 2 года.

Отметим, что Google, Microsoft, Amazon, Meta*, OpenAI активно строят солнечные фермы для дата-центров, чтобы покрыть растущий спрос на энергию. Они используют комбо с батареями для круглосуточной работы.

*запрещенная компания в России.
👍10🔥3👏2😢2🤣2