Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion* 2026! 💙
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
➡ Не пропустите, регистрируйтесь.
*Data Fusion — Объединение данных
Информация о рекламодателе
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
*Data Fusion — Объединение данных
Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍7🗿5🔥1
Data Secrets
Кстати, ровно год назад Anthropic выпустили Sonnet 3.7 и Claude Code
Сравниваем прогресс за год на сложных бенчмарках (это только серия Sonnet):
– SWE bench: год назад 62.3%, сегодня – 79.6%
– GPQA: год назад 68%, сегодня – 89.9%
– MMMLU: 83.2% тогда, 89.3% сейчас
Это не говоря уже о computer use, например. Год назад это была еще сказка (и даже бенчей соответствующих почти не было), а сегодня вот Sonnet легко работает со сложными таблицами.
А по случаю дня рождения Claude Code антропики, кстати, даже вечеринку специальную закатывают. Если вы в SF, можете посетить.
Сравниваем прогресс за год на сложных бенчмарках (это только серия Sonnet):
– SWE bench: год назад 62.3%, сегодня – 79.6%
– GPQA: год назад 68%, сегодня – 89.9%
– MMMLU: 83.2% тогда, 89.3% сейчас
Это не говоря уже о computer use, например. Год назад это была еще сказка (и даже бенчей соответствующих почти не было), а сегодня вот Sonnet легко работает со сложными таблицами.
А по случаю дня рождения Claude Code антропики, кстати, даже вечеринку специальную закатывают. Если вы в SF, можете посетить.
😁79🔥47❤25🎉8👍4
Минутка впечатляющих цифр: Яндекс повысил эффективность обучения LLM почти на 5 млрд рублей в год
Это примерно 400 миллионов в месяц. Про часть оптимизации компания уже рассказывала в техрепорте, а сейчас раскрыла цифры. Итак, за счет чего удалось повысить эффективность:
1. Собственная разработка Яндекса – библиотека YCCL (Yet Another Collective Communication Library). С ее помощью удалось в 2 раза ускорить обмен данными между графическими процессорами и сократить объем передаваемой информации. В мире подобные системы есть только у Meta, AMD и пары китайских IT‑гигантов.
2. Переход на FP8 и увеличение размера батча. Применение FP8 ускорило обучение моделей на 30% и сократило коммуникации в 2 раза. Батч увеличили до 16–32 млн токенов, что позволило обучать модели без простоев GPU, и благодаря исследованиям это даже не замедлило обучение.
3. А также оптимизация кода, аппаратной инфраструктуры и усовершенствование архитектур.
Это примерно 400 миллионов в месяц. Про часть оптимизации компания уже рассказывала в техрепорте, а сейчас раскрыла цифры. Итак, за счет чего удалось повысить эффективность:
1. Собственная разработка Яндекса – библиотека YCCL (Yet Another Collective Communication Library). С ее помощью удалось в 2 раза ускорить обмен данными между графическими процессорами и сократить объем передаваемой информации. В мире подобные системы есть только у Meta, AMD и пары китайских IT‑гигантов.
2. Переход на FP8 и увеличение размера батча. Применение FP8 ускорило обучение моделей на 30% и сократило коммуникации в 2 раза. Батч увеличили до 16–32 млн токенов, что позволило обучать модели без простоев GPU, и благодаря исследованиям это даже не замедлило обучение.
3. А также оптимизация кода, аппаратной инфраструктуры и усовершенствование архитектур.
👍166🗿69❤24😁18🤯9🔥5👨💻5🤨4🦄2⚡1
Unity встраивает генерацию игр прямо в движок
Компания на созвоне с инвесторами подтвердила, что готовит обновление Unity AI, где можно будет описать игру текстом и получить собранный казуальный прототип внутри Unity. Бету обещают показать на GDC в марте 2026.
Здесь важна не сама идея (игры по промпту уже пробовали делать десятки стартапов), а то, что Unity делает ставку на генерацию проекта как структуры: сцены, базовая логика, UI, компоненты, связки между ними. То есть модель работает не в вакууме, а внутри реального пайплайна движка.
Пока упоминаются только казуальные форматы. Но если Unity действительно научит модель собирать проект целиком, то прототипирование станет очень быстрой задачей, а дальше начинается обычная разработка: доводка, баланс, визуал, контент.
https://www.gamedeveloper.com/programming/unity-says-its-ai-tech-will-soon-be-able-to-prompt-full-casual-games-into-existence-
Компания на созвоне с инвесторами подтвердила, что готовит обновление Unity AI, где можно будет описать игру текстом и получить собранный казуальный прототип внутри Unity. Бету обещают показать на GDC в марте 2026.
Здесь важна не сама идея (игры по промпту уже пробовали делать десятки стартапов), а то, что Unity делает ставку на генерацию проекта как структуры: сцены, базовая логика, UI, компоненты, связки между ними. То есть модель работает не в вакууме, а внутри реального пайплайна движка.
Пока упоминаются только казуальные форматы. Но если Unity действительно научит модель собирать проект целиком, то прототипирование станет очень быстрой задачей, а дальше начинается обычная разработка: доводка, баланс, визуал, контент.
https://www.gamedeveloper.com/programming/unity-says-its-ai-tech-will-soon-be-able-to-prompt-full-casual-games-into-existence-
😁58👍37🔥17❤7 7
Принципы работы Nested Learning и Titans вдохновлены идеями российских ученых
Google идет по дорожке, заданной учениками Михаила Бурцева — Юрием Куратовыи и Айдаром Булатовым из AIRI. Речь об их идеях по RMT, использованных при создании нового подхода к архитектурам.
У большинства мировых команд по созданию ИИ есть проблема с контекстом — модели забывают почти всё, что было дальше условных 50 страниц. При этом новые данные часто стирают старые. Недавно Google предложили рассматривать модели как набор вложенных оптимизационных задач. Их архитектура HOPE учится не просто предсказывать слова, но решать, что забыть, а что помнить вечно.
Звучит знакомо?
Одними из первых архитектур, реально работающих с длинным контекстом, были RMT/ARMT, начальную идею которых в 2020 году предложил Михаил Бурцев. А уже в 2022 году ребята из AIRI показали, что контекст можно расширять не в лоб, а архитектурно — через рекуррентные механизмы памяти. Смотрим в литературу, на которую ссылаются в Google, и видим те же тезисы.
В общем, парадигма развития разработки нейросетей не создается в вакууме — у неё есть авторы.
Google идет по дорожке, заданной учениками Михаила Бурцева — Юрием Куратовыи и Айдаром Булатовым из AIRI. Речь об их идеях по RMT, использованных при создании нового подхода к архитектурам.
У большинства мировых команд по созданию ИИ есть проблема с контекстом — модели забывают почти всё, что было дальше условных 50 страниц. При этом новые данные часто стирают старые. Недавно Google предложили рассматривать модели как набор вложенных оптимизационных задач. Их архитектура HOPE учится не просто предсказывать слова, но решать, что забыть, а что помнить вечно.
Звучит знакомо?
Одними из первых архитектур, реально работающих с длинным контекстом, были RMT/ARMT, начальную идею которых в 2020 году предложил Михаил Бурцев. А уже в 2022 году ребята из AIRI показали, что контекст можно расширять не в лоб, а архитектурно — через рекуррентные механизмы памяти. Смотрим в литературу, на которую ссылаются в Google, и видим те же тезисы.
В общем, парадигма развития разработки нейросетей не создается в вакууме — у неё есть авторы.
2❤118🔥41👍33😁13🗿13 5🤔4⚡1
История о том, что будет, если не ревьюить вайб-код: DeFi‑протокол Moonwel потерял около 1.78 млн долларов из-за ошибки в коде, которую сделал Opus 4.6
В PR, который был помечен, как «Co-Authored-By Claude Opus 4.6», оказалась неправильно прописана формула подсчета цены на cbETH (это обертка над Ethereum).
В итоге вместо положенных 2200$ фактическая цена некоторое составляла чуть больше одного доллара.
Арбитражные боты среагировали бодро: погасили кучу долгов за копейки и накупили cbETH на кругленькую сумму. К тому времени, как разработчики заметили баг, сумма ущерба уже составляла ≈ 1.78 млн долларов.
F
В PR, который был помечен, как «Co-Authored-By Claude Opus 4.6», оказалась неправильно прописана формула подсчета цены на cbETH (это обертка над Ethereum).
В итоге вместо положенных 2200$ фактическая цена некоторое составляла чуть больше одного доллара.
Арбитражные боты среагировали бодро: погасили кучу долгов за копейки и накупили cbETH на кругленькую сумму. К тому времени, как разработчики заметили баг, сумма ущерба уже составляла ≈ 1.78 млн долларов.
F
😁326 87👍23🫡18❤13🔥8🤯5👏3🕊1
Data Secrets
История о том, что будет, если не ревьюить вайб-код: DeFi‑протокол Moonwel потерял около 1.78 млн долларов из-за ошибки в коде, которую сделал Opus 4.6 В PR, который был помечен, как «Co-Authored-By Claude Opus 4.6», оказалась неправильно прописана формула…
This media is not supported in your browser
VIEW IN TELEGRAM
Тот самый разработчик из Moonwell ревьюит PR от Claude Code перед релизом в прод:
😁356🔥15❤9🏆6
На t-sync инженеры обсудили как сделать данные управляемыми по модели SRE. В Т-Технологиях называли это DRE - Data Relibility Engineering.
В рамках инженерного контура Data T-Технологии показали как удалось внутри крупного бизнеса с террабайтами данных сделать данные SRE-продуктом с прозрачной ответственностью и измеримостью.
Когда речь идет о данных обычно акцентируют внимание на lakehouse, AI и ускорении пайплайнов. В T Data Platform инженеры формализовали критичность данных (BC+, BC и т.д.), задали SLO, допустимый простой и время реакции. Через Data Contracts c более 9000 контрактов и DQ Tools, которые реализуют свыше 34 000 проверок, считается кумулятивная критичность по data-графу, есть контракт с бизнесом на качество и актуальность. Инцидент теперь — не просто "упала таблица", а нарушение бизнес-ожидания, с возможностью эскалации до уровня data-продукта. Цена падения — не просто ошибка в DAG. Это потеря доверия, срыв SLA бизнеса, финансовые и репутационные риски. DRE позволяет считать и минимизировать эту цену.
Data Incident Management обеспечивает оповещения, прозрачность и аналитику по 985 дата-процессам от 38 бизнес-линий внутри Т-Технологий.
T Data Platform за 18 лет эволюционировала от ETL в полноценный продукт: Sources, Storage (LakeHouse на Spark/Trino+S3), Governance с observability. Подробный разбор как устроена T Data Platform
В рамках инженерного контура Data T-Технологии показали как удалось внутри крупного бизнеса с террабайтами данных сделать данные SRE-продуктом с прозрачной ответственностью и измеримостью.
Когда речь идет о данных обычно акцентируют внимание на lakehouse, AI и ускорении пайплайнов. В T Data Platform инженеры формализовали критичность данных (BC+, BC и т.д.), задали SLO, допустимый простой и время реакции. Через Data Contracts c более 9000 контрактов и DQ Tools, которые реализуют свыше 34 000 проверок, считается кумулятивная критичность по data-графу, есть контракт с бизнесом на качество и актуальность. Инцидент теперь — не просто "упала таблица", а нарушение бизнес-ожидания, с возможностью эскалации до уровня data-продукта. Цена падения — не просто ошибка в DAG. Это потеря доверия, срыв SLA бизнеса, финансовые и репутационные риски. DRE позволяет считать и минимизировать эту цену.
Data Incident Management обеспечивает оповещения, прозрачность и аналитику по 985 дата-процессам от 38 бизнес-линий внутри Т-Технологий.
T Data Platform за 18 лет эволюционировала от ETL в полноценный продукт: Sources, Storage (LakeHouse на Spark/Trino+S3), Governance с observability. Подробный разбор как устроена T Data Platform
1❤25👍10🗿8🔥5😁2🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
Google представили Lyria 3 для генерации музыки
Самое интересное в модельке, – пожалуй, то, что она мультимодальная. Трек можно создать не только по промпту, но и из фото или видео.
То есть вы можете просто молча (или вместе с текстом) загрузить изображение или видео, и сгенерируется музыка, подходящая по атмосфере и смыслу.
Попробовать уже можно в Gemini app и на десктоп, скоро раскатят на всех. Длина треков – до 30 секунд.
Короче, новой волне ИИ-слопа – быть. Хотя, Google пишут, что каждая композиция генерируется с невидимым водяным знаком. Может это хоть немного спасет стриминги от «музыкантов».
Самое интересное в модельке, – пожалуй, то, что она мультимодальная. Трек можно создать не только по промпту, но и из фото или видео.
То есть вы можете просто молча (или вместе с текстом) загрузить изображение или видео, и сгенерируется музыка, подходящая по атмосфере и смыслу.
Попробовать уже можно в Gemini app и на десктоп, скоро раскатят на всех. Длина треков – до 30 секунд.
Короче, новой волне ИИ-слопа – быть. Хотя, Google пишут, что каждая композиция генерируется с невидимым водяным знаком. Может это хоть немного спасет стриминги от «музыкантов».
❤90 33👍12🤯7🤨4🔥3😁3
Яндекс Карты стали умнее за счет новой ML-модели ранжирования
Задача навигации – не только построить маршрут, но и выбрать, какой из нескольких разумных вариантов путей между А и Б показать пользователю первым. Раньше это работало просто по времени пути: кто быстрее, тот и выше.
Но те, кто передвигаются на машине, знают: самый быстрый маршрут – далеко не всегда самый логичный и удобный.
Так что теперь ранжирование в Картах устроено иначе. ML-модель учитывает не только время, но и то, по каким маршрутам водители доезжают до конца, а с каких сходят. Вот как это работает:
➖ Каждый маршрут описывается вектором признаков (время, исторические данные о поведении пользователей на его участках, количество поворотов и тд);
➖ По этим признакам модель выдает каждому маршруту скор, который отражает вероятность того, что пользователь успешно доедет по нему до конца;
➖ В выдаче маршруты теперь сортируются не просто по времени, а именно по этому скору.
В итоге теперь первый маршрут на экране – тот, который действительно бы выбрал опытный водитель, и по которому вы вероятнее всего проедете от начала до конца. Подробности — на Хабре.
Задача навигации – не только построить маршрут, но и выбрать, какой из нескольких разумных вариантов путей между А и Б показать пользователю первым. Раньше это работало просто по времени пути: кто быстрее, тот и выше.
Но те, кто передвигаются на машине, знают: самый быстрый маршрут – далеко не всегда самый логичный и удобный.
Так что теперь ранжирование в Картах устроено иначе. ML-модель учитывает не только время, но и то, по каким маршрутам водители доезжают до конца, а с каких сходят. Вот как это работает:
В итоге теперь первый маршрут на экране – тот, который действительно бы выбрал опытный водитель, и по которому вы вероятнее всего проедете от начала до конца. Подробности — на Хабре.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥119👍29🗿21❤14 7😁6 5🤔4👨💻1
OpenAI завершила первые коммитменты по новому мега-раунду финансирования
Ожидается, что в общей сложности компания получит 100 миллиардов долларов и по итогам раунда будет оцениваться примерно в $830 млрд.
Эта сделка станет крупнейшей в истории частного финансирования. При этом, напоминаем: OpenAI все еще зарабатывает ровным счетом 0 долларов в год и уходит в огромный убыток. Доходы превысят расходы компании только к 2029, и то – может быть.
Среди главных инвесторов – SoftBank, Nvidia, Amazon и Microsoft. Обратите внимание, что деньги (как это принято в ИИ-пузыре) в основном вернутся этим же компаниям, потому что OpenAI собирается закупать мощности именно у них.
Ожидается, что в общей сложности компания получит 100 миллиардов долларов и по итогам раунда будет оцениваться примерно в $830 млрд.
Эта сделка станет крупнейшей в истории частного финансирования. При этом, напоминаем: OpenAI все еще зарабатывает ровным счетом 0 долларов в год и уходит в огромный убыток. Доходы превысят расходы компании только к 2029, и то – может быть.
Среди главных инвесторов – SoftBank, Nvidia, Amazon и Microsoft. Обратите внимание, что деньги (как это принято в ИИ-пузыре) в основном вернутся этим же компаниям, потому что OpenAI собирается закупать мощности именно у них.
❤42🤔24 23🔥13👍6😁3🤯3🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Мем дня: Сэм Альтман и Дарио Амодеи отказались держаться за руки
Во время AI саммита в Дели премьер-министр Индии затеял так называемый Unity Raise: довольно распространенная «церемония», когда участники берутся за руки, поднимают их вверх и как бы демонстрируют солидарность.
За руки взялись все до одного, кроме… Сэма и Дарио, которые случайно оказались рядом.
Напоминаем, что раньше эти двое работали вместе и Дарио занимал пост вице-президента по исследованиям в OpenAI. Но из-за разногласий с руководством в 2020 году он покинул стартап и основал Anthropic. С тех пор они с Альтманом – прямые конкуренты, а окончательно отношения с Сэмом разладились, вероятно, после той самой рекламы про рекламу на Super Bowl✨
Во время AI саммита в Дели премьер-министр Индии затеял так называемый Unity Raise: довольно распространенная «церемония», когда участники берутся за руки, поднимают их вверх и как бы демонстрируют солидарность.
За руки взялись все до одного, кроме… Сэма и Дарио, которые случайно оказались рядом.
Напоминаем, что раньше эти двое работали вместе и Дарио занимал пост вице-президента по исследованиям в OpenAI. Но из-за разногласий с руководством в 2020 году он покинул стартап и основал Anthropic. С тех пор они с Альтманом – прямые конкуренты, а окончательно отношения с Сэмом разладились, вероятно, после той самой рекламы про рекламу на Super Bowl
Please open Telegram to view this post
VIEW IN TELEGRAM
😁344 42🏆13🤗9 8❤4🤯2🦄2😎1
Сегодня ИИ становится частью разработки. Компании ждут не экспериментов, а рабочих решений, которые можно встроить в продукт и масштабировать.
На программе «ИИ-разработчик» от МТУСИ и Нетологии учат создавать такие решения. За 6 месяцев вы пройдёте полный цикл ИИ-разработки: от работы с API и векторными базами данных до продакшена, агентов и MLOps.
В программе много практики. Вы разработаете ИИ-помощников, чат-ботов с контекстом, RAG-системы и агентные решения. В портфолио будет 5 проектов, которые покажет реальный уровень навыков.
Обучение проходит онлайн, в формате вебинаров и практических заданий с проверкой. По итогам вы получите два диплома о профессиональной переподготовке — от МТУСИ и Нетологии.
Промокод AIDEVNETO дает скидку 10 000 на курс.
Подробная программа и условия обучения – https://netolo.gy
Реклама. ООО "Нетология" ОГРН 1207700135884 Erid: 2VSb5xU7mpm
На программе «ИИ-разработчик» от МТУСИ и Нетологии учат создавать такие решения. За 6 месяцев вы пройдёте полный цикл ИИ-разработки: от работы с API и векторными базами данных до продакшена, агентов и MLOps.
В программе много практики. Вы разработаете ИИ-помощников, чат-ботов с контекстом, RAG-системы и агентные решения. В портфолио будет 5 проектов, которые покажет реальный уровень навыков.
Обучение проходит онлайн, в формате вебинаров и практических заданий с проверкой. По итогам вы получите два диплома о профессиональной переподготовке — от МТУСИ и Нетологии.
Промокод AIDEVNETO дает скидку 10 000 на курс.
Подробная программа и условия обучения – https://netolo.gy
Реклама. ООО "Нетология" ОГРН 1207700135884 Erid: 2VSb5xU7mpm
🗿28😁12🤨8❤2😍1
Большой обзор того, как сегодня обучают фронтирные LLMы
djdumpling.github.io/2026/01/31/frontier_training.html
Вышел свежий материал от инженера из Prime Intellect (писали о них много раз). Автор берет несколько открытых или условно открытых проектов – вроде SmolLM3, Intellect 3, Kimi K2, DeepSeek‑R1, gpt‑oss‑120b и Hermes 4 – и на их примере проходит по всему жизненному циклу моделей.
Текст абсолютно не похож на блоги компаний и тех.репорты, а скорее представляет из себя очень плотную дистилляцию реальной практики.
Внутри есть как и база в оригинальной ультра-практической обработке:
– Сбор и очистка данных
– Как именно выглядит претрен, mid‑training и post‑training
– Как выбирают архитектуру, гиперпараметры и токенизаторы
... так и то, о чем на самом деле мало где пишут:
– Схемы безопасности, и где они ломаются
– Где компании экономят компьют, а где, наоборот, жгут его ради качественных сдвигов
– Как заводится RL и как добиться стабильности обучения в целом
Если вы в теме – это мастрид.
* Ссылку на отчет увидели у коллеги с канала @lovedeathtransformers
djdumpling.github.io/2026/01/31/frontier_training.html
Вышел свежий материал от инженера из Prime Intellect (писали о них много раз). Автор берет несколько открытых или условно открытых проектов – вроде SmolLM3, Intellect 3, Kimi K2, DeepSeek‑R1, gpt‑oss‑120b и Hermes 4 – и на их примере проходит по всему жизненному циклу моделей.
Текст абсолютно не похож на блоги компаний и тех.репорты, а скорее представляет из себя очень плотную дистилляцию реальной практики.
Внутри есть как и база в оригинальной ультра-практической обработке:
– Сбор и очистка данных
– Как именно выглядит претрен, mid‑training и post‑training
– Как выбирают архитектуру, гиперпараметры и токенизаторы
... так и то, о чем на самом деле мало где пишут:
– Схемы безопасности, и где они ломаются
– Где компании экономят компьют, а где, наоборот, жгут его ради качественных сдвигов
– Как заводится RL и как добиться стабильности обучения в целом
Если вы в теме – это мастрид.
* Ссылку на отчет увидели у коллеги с канала @lovedeathtransformers
❤45🔥11👍7😁1🤯1🗿1
Google выпустили Gemini 3.1 Pro
Обновленную модельку очень прилично качнули на кодинге, ризонинге и агентных задачках. Сравните:
– 77.1% на ARC-AGI-2 вместо 31.1 у Gemini 3
– 80.6% на SWE Verified против 76.2
– на BrowseComp (агентный поиск) выбили аж 85.9 вместо ранних 59.2 (ждем мега мощный Deep Research на базе этой модели)
Теперь Gemini снова полноценный игрок на кодинг-арене, это радует.
Пока моделька доступна в превью через Gemini API, Gemini app и в AI Studio (бесплатно тоже). Пробуем-пробуем-пробуем🔥
blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/
Обновленную модельку очень прилично качнули на кодинге, ризонинге и агентных задачках. Сравните:
– 77.1% на ARC-AGI-2 вместо 31.1 у Gemini 3
– 80.6% на SWE Verified против 76.2
– на BrowseComp (агентный поиск) выбили аж 85.9 вместо ранних 59.2 (ждем мега мощный Deep Research на базе этой модели)
Теперь Gemini снова полноценный игрок на кодинг-арене, это радует.
Пока моделька доступна в превью через Gemini API, Gemini app и в AI Studio (бесплатно тоже). Пробуем-пробуем-пробуем
blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤74🤯19👍12⚡4🔥3🦄3❤🔥1👏1