Анализ OpenRouter на собственных данных доказывает что нет никакой "доминации китайских ИИ моделей" или "победы китайцев" - большинство все равно использует проприетарные американские модели.
В среднем китайские открытые модели (они выпускают почти только открытые модели) имеют около 13% "рынка", на уровне с открытыми моделями не из Китая. И даже во время крупных релизов доля китайских моделей доходила только примерно до 20%. [1]
Да и сам "рынок" открытых моделей стал очень динамичным, примерно пол года назад лидером являлся почти только DeepSeek, но уже к концу лета его влияние начало падать и начали появляться другие игроки. [2]
В среднем китайские открытые модели (они выпускают почти только открытые модели) имеют около 13% "рынка", на уровне с открытыми моделями не из Китая. И даже во время крупных релизов доля китайских моделей доходила только примерно до 20%. [1]
Да и сам "рынок" открытых моделей стал очень динамичным, примерно пол года назад лидером являлся почти только DeepSeek, но уже к концу лета его влияние начало падать и начали появляться другие игроки. [2]
Future Insider
Photo
Выпущенна Flux.2 Max - самая крупная модель доступна только через API.
В слепых тестах модель довольно близка по качеству к Nano Banana 2 Pro. Из интересных особенностей можно выделить Grounded Generations - модель перед генерацией изображения найдет в интернете необходимый для данной генерации контекст.
В слепых тестах модель довольно близка по качеству к Nano Banana 2 Pro. Из интересных особенностей можно выделить Grounded Generations - модель перед генерацией изображения найдет в интернете необходимый для данной генерации контекст.
Через пару часов выпуск imagen V2.
Однако скорее всего перебить по качеству Nano Banana 2 Pro у них не выйдет. В том числе это можно связать из-за того, что сама модель была более менее готова в начале апреля но OpenAI решили продолжить "оптимизацию" и выпустить позже. Схожая ситуация была с первой версией генерации изображений которая демонстрировалась вместе с релизом gpt-4o но была выпущена почти через год.
Однако скорее всего перебить по качеству Nano Banana 2 Pro у них не выйдет. В том числе это можно связать из-за того, что сама модель была более менее готова в начале апреля но OpenAI решили продолжить "оптимизацию" и выпустить позже. Схожая ситуация была с первой версией генерации изображений которая демонстрировалась вместе с релизом gpt-4o но была выпущена почти через год.
Telegram
Future Insider
Imagen V2 подтвержден.
Вот и он. Что интересно, он назвается GPT Image 1.5, то есть это даже не вторая версия. Скорее всего данная модель все еще основана на 4o поэтому название "2.0" они оставили для перехода на GPT 5.x.
Примеры работы можно посмотреть в блоге, ничего "вау" нет, просто "обычное" улучшение генерации изображений под новые реалии. Но OpenAI говорят что данная модель генерирует изображения до 4 раз быстрее.
Модель уже развертывается для всех (а те кому повезло имели модель уже час-два назад).
Примеры работы можно посмотреть в блоге, ничего "вау" нет, просто "обычное" улучшение генерации изображений под новые реалии. Но OpenAI говорят что данная модель генерирует изображения до 4 раз быстрее.
Модель уже развертывается для всех (а те кому повезло имели модель уже час-два назад).
Openai
The new ChatGPT Images is here
The new ChatGPT Images is powered by our flagship image generation model, delivering more precise edits, consistent details, and image generation up to 4× faster. The upgraded model is rolling out to all ChatGPT users today and is also available in the API…
Future Insider
Однако скорее всего перебить по качеству Nano Banana 2 Pro у них не выйдет.
Либо они тестировали более "слабый" чекпоинт модели, либо просто тестировали плохо. Однако как слепые тесты [1, 2] показывают хороший отрыв от Nano Banana 2 Pro, так и результаты которые публикуют в сети доказывают что модель может и не идеальная, но и вправду опережает модель от Google, как в генерации так и в редактировании. Однако сами OpenAI предупредили что некоторые стили могут генерироваться хуже, в том числе по сравнению с GPT Image 1.
Немного удивительно, учитывая то сколько времени назад эта модель была готова.
Немного удивительно, учитывая то сколько времени назад эта модель была готова.
Future Insider
А, нет — это всего лишь реклама 💀
This media is not supported in your browser
VIEW IN TELEGRAM
Всё-таки не только реклама, Google интегрировали Opal в Gemini. Все сценарии созданные в Opal доступны в Gemini, как и создание новых. Однако как и сам Opal, данная функция доступна не всем.
Opal — наш инструмент для создания мини-приложений на базе искусственного интеллекта — теперь напрямую доступен в веб-приложении Gemini как способ создания экспериментальных Gems. Вы можете найти его в своём менеджере Gems и начать создавать многоразовые мини-приложения, чтобы разблокировать ещё более индивидуальные впечатления от Gemini.
Opal — наш инструмент для создания мини-приложений на базе искусственного интеллекта — теперь напрямую доступен в веб-приложении Gemini как способ создания экспериментальных Gems. Вы можете найти его в своём менеджере Gems и начать создавать многоразовые мини-приложения, чтобы разблокировать ещё более индивидуальные впечатления от Gemini.
Forwarded from Чёрный Треугольник
This media is not supported in your browser
VIEW IN TELEGRAM
☝🏻Meta* представила SAM Audio — первую унифицированную ИИ-модель для сегментации звука
ИИ умеет изолировать любой звук из сложных аудиомиксов. По сути это «Segment Anything», но для звука.
Модель поддерживает три типа промптов: текстовые (описываете нужный звук словами), визуальные (кликаете на объект в видео, чтобы изолировать его звук) и span-prompting — совершенно новый подход, позволяющий отметить временной отрезок, где впервые появляется целевой звук.
Все три метода можно комбинировать для максимально точного контроля. 🎯
Meta уже работает над практическими применениями и вероятно она будет внедрена во все AR и VR очки корпорации.
ИИ доступна в открытом доступе — код выложен на GitHub, а попробовать её можно прямо сейчас в Segment Anything Playground.
*признана экстремистской и запрещена в России
================
💎 мMм | 👁 Soft | 👁 Gear | 🌐 Links
ИИ умеет изолировать любой звук из сложных аудиомиксов. По сути это «Segment Anything», но для звука.
Модель поддерживает три типа промптов: текстовые (описываете нужный звук словами), визуальные (кликаете на объект в видео, чтобы изолировать его звук) и span-prompting — совершенно новый подход, позволяющий отметить временной отрезок, где впервые появляется целевой звук.
Все три метода можно комбинировать для максимально точного контроля. 🎯
Meta уже работает над практическими применениями и вероятно она будет внедрена во все AR и VR очки корпорации.
ИИ доступна в открытом доступе — код выложен на GitHub, а попробовать её можно прямо сейчас в Segment Anything Playground.
*признана экстремистской и запрещена в России
================
Please open Telegram to view this post
VIEW IN TELEGRAM
Future Insider
Сегодня должен состоятся релиз Gemini 3 Flash, в том числе Nano Banana 2 Flash
Немного смещенный релиз, но всё-таки Gemini 3 Flash вышел.
Вся основная информация в таблице - модель значительно лучше чем Gemini 2.5 Flash и лишь немного дороже, при этом на некоторых тестах даже может сравняться с Gemini 3 Pro или GPT-5.2 (xhigh). Также отличную производительность подтверждают люди которые получили доступ к модели раньше релиза.
Модель уже доступна везде, на сайте Gemini, AI Studio, Gemini CLI и так далее. В Gemini есть две версии - быстрая и думающая.
Вся основная информация в таблице - модель значительно лучше чем Gemini 2.5 Flash и лишь немного дороже, при этом на некоторых тестах даже может сравняться с Gemini 3 Pro или GPT-5.2 (xhigh). Также отличную производительность подтверждают люди которые получили доступ к модели раньше релиза.
Модель уже доступна везде, на сайте Gemini, AI Studio, Gemini CLI и так далее. В Gemini есть две версии - быстрая и думающая.
Future Insider
Сегодня, или в ближайшие пару дней Google выпустят новую open-source модель. Есть предположения что это Gemma 4 (что довольно логично), но никаких подтверждений или намеков на то, что это будет за модель - нет.
К сожалению не Gemma 4 а functiongemma.
Это крошечная модель (270M) которая предназначена для дообучения на конкретных задачах "вызова инструментов" - т.е. для быстрого и качественного использования разных инструментов в определённой сфере.
Дополнено: в скором времени ожидаются ещё модели.
Это крошечная модель (270M) которая предназначена для дообучения на конкретных задачах "вызова инструментов" - т.е. для быстрого и качественного использования разных инструментов в определённой сфере.
Дополнено: в скором времени ожидаются ещё модели.
Сводка недавнего саммита NVidia. Сама встреча была закрытой и пользователь который это опубликовал сам не знает как\откуда это попало в сеть и точность не гарантирует. Также позже пост был удален, сохранилась только архивная не полная версия, неизвестно потому-что оказалось фейком или потомуу-что "сболтнул лишнего".
Протокол закрытого саммита NVIDIA «Кризис энергоснабжения ИИ»
Дата: 17 декабря 2025
Место: штаб-квартира NVIDIA, Санта-Клара, Калифорния, США
Тема встречи: решения проблемы дефицита электроэнергии для ИИ-дата-центров
Ведущий: Дженсен Хуанг
Участники: около 25 ведущих стартапов в энергетической сфере (в основном из портфеля NVIDIA), включая жидкостное охлаждение, твердотельные трансформаторы, топливные элементы, локальное производство водорода, микросети, накопители энергии и т.д.; встреча была строго закрытой — без СМИ и без записи.
I. Ключевые «бомбы» (избранные «оригинальные цитаты Дженсена Хуанга»)
• К 2027 году GPU-кластеры, поставляемые одной лишь NVIDIA, будут потреблять 150–200 ГВт глобальной мощности, что эквивалентно 1,5–2-кратному потреблению электроэнергии всей Франции.
• Дефицит электроэнергии стал главным узким местом развития ИИ.
• Если энергетическую проблему не решить, все передовые чипы и мощные модели — это лишь «пустые оболочки, которые невозможно запустить», и ИИ-революция упрётся прямо в уровень энергии.
• Установленная мощность генерации в Китае вдвое превышает американскую, и это его ключевое преимущество в ИИ-инфраструктуре; к 2028 году дефицит мощности дата-центров в США достигнет 47 ГВт, что эквивалентно выработке 44 стандартных АЭС. Если ничего не предпринять, США потеряют лидерство в вычислениях.
• NVIDIA не может оставаться только поставщиком чипов; она должна стать провайдером полнофункциональных решений «вычисления + энергия». 800V HVDC — это не вопрос выбора, это вопрос выживания для ИИ-дата-центров.
• Атомная энергия, зелёная генерация и накопители энергии — не замены друг другу, а «троица». ИИ нужна стабильная, безуглеродная и масштабируемая энергия. В этом базовая логика инвестиций в TerraPower.
II. Консенсус по кризису и ключевые данные
• Экстремальное энергопотребление одного кластера: сегодня кластер из 10 000 GPU потребляет 300 млн кВт·ч в год, как небольшой город; в 2027 году стойки Kyber будут превышать 1 МВт на шкаф, более чем в 5 раз выше традиционных стоек.
• Глобальное предупреждение о разрыве: в 2025–2028 годах мировой дефицит мощности для ИИ-дата-центров вырастет с 47 ГВт до 100+ ГВт; даже если США введут в строй все проекты, находящиеся в строительстве, всё равно останется незакрытый разрыв в 5–15 ГВт.
• Крах традиционной архитектуры: при традиционной 54V-архитектуре для передачи 1 МВт требуется ток свыше 18 кА; объём меди превышает 1 тонну на шкаф, КПД всего около 90%, что полностью несовместимо с вычислениями мегаваттного уровня.
III. Ключевые решения (формирование траектории)
(1) Революция силовой архитектуры:внедрение 800V HVDC
• Цель: завершить переход на 400V в 2026 году; в 2027 году синхронизироваться со стойками Kyber и выйти на масштабное массовое производство 800V HVDC, доведя сквозной КПД до 98%+.
• Ключевые преимущества: за счёт одноступенчатого преобразования «сеть 13,8 кВ → прямая подача 800 VDC» сократить промежуточные звенья, уменьшить потери энергии на 40% и снизить потребность в медных кабелях на 45%.
• Выпуск стандартов: опубликован white paper «800 VDC Architecture for Next-Generation AI Infrastructure» для унификации отраслевых технических интерфейсов.
(2) Прорывы в ключевых технологиях: совместная оптимизация железа и энергии
• Твердотельный трансформатор (SST): КПД преобразования 10 кВ / 800 В достигает 98,5%, объём уменьшен на 60–90%; дата-центр Kaohsiung K-1 — первый демонстрационный проект.
• Жидкостное охлаждение становится обязательным стандартом: в 2025 году его проникновение достигло 40%; в сочетании с архитектурой 800V энергопотребление на охлаждение снижается ещё на 25%, целевой PUE — ниже 1,1.
• Управление питанием на уровне чипа: GPU серии Blackwell будут поддерживать интеллектуальные режимы Max-Q (высокая эффективность) и Max-P (высокая производительность), обеспечивая экономию энергии до 15% при сохранении 97%+ производительности.
(3) Микс источников энергии: поэтапное восполнение
• Краткосрочно (0–2 года): газовые турбины + LFP-накопители для аварийных режимов; переоборудование биткоин-майнинга… [конец текста]
This media is not supported in your browser
VIEW IN TELEGRAM
Qwen выпустили новую модель генерации изображений - Qwen-Image-Layered.
Отличительной особенностью данной модель от других - генерация изображений слоями. Можно отдельно добавлять определённые слои, редактировать существующие и так далее.
Отличительной особенностью данной модель от других - генерация изображений слоями. Можно отдельно добавлять определённые слои, редактировать существующие и так далее.
Оказалось что GPT-5.2 имеет под собой не Garlic, данная модель выйдет, судя по словам Сэма Альтмана, в первой четверти следующего года, т.к он ожидает в это время ещё больше улучшений.
Человек который связан с разработкой модели говорит что GPT-5.2 основан не на основном Garlic, а на его более ранней версии, поэтому больше улучшений будет позже за счёт более мощной "базовой" модели.
Человек который связан с разработкой модели говорит что GPT-5.2 основан не на основном Garlic, а на его более ранней версии, поэтому больше улучшений будет позже за счёт более мощной "базовой" модели.
На некоторых тестах, например SWE-Bench, Gemini 3 Flash обходит Pro версию. Это прокомментировал один из старших сотрудников Deepmind в (уже удаленном наврали, пост все ещё существует, никто его не удалял) посте - в Flash есть новые наработки в сфере агентного RL которые было слишком поздно интегрировать в Pro, поэтому в скором будущем Pro версию также ждёт как минимум одно улучшение.
CATL Внедряет Роботов Xiaomo для Автоматизации Производства Аккумуляторов
• Компания CATL первой успешно внедрила роботов Xiaomo, разработанных Spirit AI при её поддержке, на производственные линии для выполнения завершающих функциональных тестов аккумуляторных батарей, таких как окончательная проверка (EOL) и измерение внутреннего сопротивления постоянному току (DCR).
• Робот Xiaomo, оснащенный комплексной моделью «Зрение-Язык-Действие» (VLA), способен автономно воспринимать окружающую среду, адаптироваться к изменениям и выполнять операции с показателем успешного подключения более 99%, что сравнимо по времени с опытными специалистами и снижает процент брака.
• Внедрение роботов Xiaomo и увеличение объемов выпуска аккумуляторов привело к почти трехкратному росту ежедневной производительности по сравнению с ручным трудом, что позволяет CATL поддерживать высокую стабильность и эффективность производства, укрепляя её лидерство на мировом рынке аккумуляторов для электромобилей с долей 38,1%.
• Компания CATL первой успешно внедрила роботов Xiaomo, разработанных Spirit AI при её поддержке, на производственные линии для выполнения завершающих функциональных тестов аккумуляторных батарей, таких как окончательная проверка (EOL) и измерение внутреннего сопротивления постоянному току (DCR).
• Робот Xiaomo, оснащенный комплексной моделью «Зрение-Язык-Действие» (VLA), способен автономно воспринимать окружающую среду, адаптироваться к изменениям и выполнять операции с показателем успешного подключения более 99%, что сравнимо по времени с опытными специалистами и снижает процент брака.
• Внедрение роботов Xiaomo и увеличение объемов выпуска аккумуляторов привело к почти трехкратному росту ежедневной производительности по сравнению с ручным трудом, что позволяет CATL поддерживать высокую стабильность и эффективность производства, укрепляя её лидерство на мировом рынке аккумуляторов для электромобилей с долей 38,1%.
Хайтек+
CATL первой успешно внедрила андроидов в производство аккумуляторов
CATL, крупнейший в мире производитель аккумуляторов, впервые в истории <a href="https://cnevpost.com/2025/12/18/catl-launches-humanoid-robot-powered-battery-pack-line/" target="_blank">запустил</a> производственную линию, где критически важные финальные проверки…
Future Insider
а Veo 4, если верить информации, должна выйти к концу этого года.
Неизвестно остался ли в силе план релиза в декабре, но на арене появилась новая видео-модель которая давольно похожа на Veo и показывает результаты лучше чем Veo 3. Также некоторые намёки от инсайдера только подливают масла в огонь.
Не исключено что релиз может сместится на январь, но и до конца декабря ещё время есть.
Не исключено что релиз может сместится на январь, но и до конца декабря ещё время есть.
Future Insider
Случайно обнаружил некий новый функционал в ChatGPT который, похоже, называет "Writing Block". Он представляет собой поле в котором можно редактировать написанный текст, на подобии Canvas, но этот блок появляется непосредственно в чате. Если текст в нем…
This media is not supported in your browser
VIEW IN TELEGRAM
Так называемый Writing Block начинает развёртку. Writing Block можно назвать продвинутым Canvas предназначенным для определенных задач (описаны в посте ранее).
Хоть сейчас говорят конкретно про email, скорее всего будут доступны все "режимы".
Дополнено: пока похоже что развертка идёт только для типа "email".
Хоть сейчас говорят конкретно про email, скорее всего будут доступны все "режимы".
Дополнено: пока похоже что развертка идёт только для типа "email".
Forwarded from @nadvorie
17 декабря 2025 года Национальное управление океанических и атмосферных исследований — NOAA объявило о вводе в эксплуатацию нового набора оперативных глобальных моделей погоды, основанных на искусственном интеллекте (ИИ).
Это является одним из самых серьёзных шагов США в сторону модернизации систем численного прогноза погоды и сокращения зависимости от традиционных численных суперкомпьютерных моделей.
Традиционные модели погоды (например, GFS — Global Forecast System) используют физические уравнения движения атмосферы, гидросферы и пр., и требуют огромных вычислительных ресурсов. Новые ИИ-модели прогнозируют погоду по обученным шаблонам, что позволяет:
– резко ускорить расчёты;
– снизить потребление вычислительных ресурсов до долей от того, что требуется для обычных моделей;
– поставлять прогнозы раньше и чаще, что критично для оперативных служб и служб предупреждения стихийных бедствий.
Итак, вот они:
1. AIGFS — Artificial Intelligence Global Forecast System
Главная ИИ-глобальная модель прогноза погоды. Работает аналогично традиционному GFS, но применяет машинное обучение для ускорения расчётов.
2. AIGEFS — Artificial Intelligence Global Ensemble Forecast System
Ансамблевый ИИ-прогноз: выдает не один сценарий, а набор возможных вариантов развития погоды.
3. HGEFS — Hybrid Global Ensemble Forecast System
Гибридная система, которая объединяет ИИ-модели и традиционный физический GEFS. На ранних испытаниях показывает улучшение над обоими отдельными прогнозами AIGFS и AIGEFS.
Интересно, что расчёт AIGFS занимает всего 0.3% мощностей, требуемых для расчета классической GFS по выпуску 16-дневных прогнозов. Расчёт длится примерно 40 минут вместо часов на суперкомпьютере.
Доступ к данным AIGFS/AIGEFS/HGEFS уже реально есть на серверах NOAA/NCEP (NOMADS, NCO, NODD) — там и разрешение, и описание форматов, и сами GRIB-файлы.
Ссылка, например https://nomads.ncep.noaa.gov/pub/data/nccf/com/aigfs/prod/. Там 4 расчета с данными в метеоформате GRIB.
Это является одним из самых серьёзных шагов США в сторону модернизации систем численного прогноза погоды и сокращения зависимости от традиционных численных суперкомпьютерных моделей.
Традиционные модели погоды (например, GFS — Global Forecast System) используют физические уравнения движения атмосферы, гидросферы и пр., и требуют огромных вычислительных ресурсов. Новые ИИ-модели прогнозируют погоду по обученным шаблонам, что позволяет:
– резко ускорить расчёты;
– снизить потребление вычислительных ресурсов до долей от того, что требуется для обычных моделей;
– поставлять прогнозы раньше и чаще, что критично для оперативных служб и служб предупреждения стихийных бедствий.
Итак, вот они:
1. AIGFS — Artificial Intelligence Global Forecast System
Главная ИИ-глобальная модель прогноза погоды. Работает аналогично традиционному GFS, но применяет машинное обучение для ускорения расчётов.
2. AIGEFS — Artificial Intelligence Global Ensemble Forecast System
Ансамблевый ИИ-прогноз: выдает не один сценарий, а набор возможных вариантов развития погоды.
3. HGEFS — Hybrid Global Ensemble Forecast System
Гибридная система, которая объединяет ИИ-модели и традиционный физический GEFS. На ранних испытаниях показывает улучшение над обоими отдельными прогнозами AIGFS и AIGEFS.
Интересно, что расчёт AIGFS занимает всего 0.3% мощностей, требуемых для расчета классической GFS по выпуску 16-дневных прогнозов. Расчёт длится примерно 40 минут вместо часов на суперкомпьютере.
Доступ к данным AIGFS/AIGEFS/HGEFS уже реально есть на серверах NOAA/NCEP (NOMADS, NCO, NODD) — там и разрешение, и описание форматов, и сами GRIB-файлы.
Ссылка, например https://nomads.ncep.noaa.gov/pub/data/nccf/com/aigfs/prod/. Там 4 расчета с данными в метеоформате GRIB.
METR оценили временной горизонт для Claude Opus 4.5 и результат довольно интересный.
По итогу получился результат в огромные 4 часа 49 минут (у прошлого лидера - GPT-5.1-Codex-Max результат в 2 часа 53 минуты). Но в этом и кроется проблема - а именно в очень большой погрешности. 95% Confidence Interval варьируется от 1 часа 49 минут до целых 20 часов 25 минут.
Причины этому две. Первая - в тесте не сильно много задач на такой большой горизонт, поэтому оценка может быть не точной. Исследователи также говорят что после использования модели были бы удивлены если это подтвердится. Вторая - специфика модели. Интересный момент, что график [1] показывает 50% успех, а если брать 80% то тут Opus справляется немного хуже чем GPT - 27 минут про 32 минут [2]. И причина этому видна при детальном рассмотрении успеха модели на разных задачах. Opus хоть и более успешен на длительных и сложных задачах, он может ошибаться на более коротких и простых, в то время как GPT их выполнял без ошибок [3].
По итогу получился результат в огромные 4 часа 49 минут (у прошлого лидера - GPT-5.1-Codex-Max результат в 2 часа 53 минуты). Но в этом и кроется проблема - а именно в очень большой погрешности. 95% Confidence Interval варьируется от 1 часа 49 минут до целых 20 часов 25 минут.
Причины этому две. Первая - в тесте не сильно много задач на такой большой горизонт, поэтому оценка может быть не точной. Исследователи также говорят что после использования модели были бы удивлены если это подтвердится. Вторая - специфика модели. Интересный момент, что график [1] показывает 50% успех, а если брать 80% то тут Opus справляется немного хуже чем GPT - 27 минут про 32 минут [2]. И причина этому видна при детальном рассмотрении успеха модели на разных задачах. Opus хоть и более успешен на длительных и сложных задачах, он может ошибаться на более коротких и простых, в то время как GPT их выполнял без ошибок [3].