Довольно интересную тему поднял Андрей Карпаты в соц сети о различии форм интеллекта: животного и LLM-like.
Перевод, кстати, есть у ребят в @data_secrets.
А я, прочитав, вспомнил, как в этом году дискутировали с коллегой в рамках дня науки на тему эмоций у ИИ. И речь шла примерно в таком же ключе: у человека развитие базируется на выживании в любой ситуации, а ИИ решает задачи так, как ближе к тому, на чём он учился - это ни что иное как имитация (вспоминается фильм 5й элемент, когда Лилу через гигантские объёмы видеоконтента изучала мировую историю).
Эмоции человек «проявляет» по принципу соблюдения заданных в течение жизни шаблонов: родители, друзья, окружение. В процессе жизни только гормоны, необходимость «выжить» в социальном и физическом смысле вносят коррективу в проявление эмоций и формируют отличие homo sapiens от ИИ. Если отключить эти факторы, то будет ли разница между человеком и ИИ?🤔
Перевод, кстати, есть у ребят в @data_secrets.
А я, прочитав, вспомнил, как в этом году дискутировали с коллегой в рамках дня науки на тему эмоций у ИИ. И речь шла примерно в таком же ключе: у человека развитие базируется на выживании в любой ситуации, а ИИ решает задачи так, как ближе к тому, на чём он учился - это ни что иное как имитация (вспоминается фильм 5й элемент, когда Лилу через гигантские объёмы видеоконтента изучала мировую историю).
Эмоции человек «проявляет» по принципу соблюдения заданных в течение жизни шаблонов: родители, друзья, окружение. В процессе жизни только гормоны, необходимость «выжить» в социальном и физическом смысле вносят коррективу в проявление эмоций и формируют отличие homo sapiens от ИИ. Если отключить эти факторы, то будет ли разница между человеком и ИИ?🤔
🔥9🤔8😁2😱2
🔥Ну вот и долгожданный тех репорт о GigaEvo подоспел
https://arxiv.org/abs/2511.17592
GitHub: https://github.com/FusionBrainLab/gigaevo-core
Всем приятного изучения, чуть позже доделаем Хабр💪
Чуть выше делился новостью о релизе фреймворка👆
UPD: ссылка из тех репорта заработала — https://github.com/AIRI-Institute/gigaevo-core
https://arxiv.org/abs/2511.17592
GitHub: https://github.com/FusionBrainLab/gigaevo-core
Всем приятного изучения, чуть позже доделаем Хабр💪
Чуть выше делился новостью о релизе фреймворка👆
UPD: ссылка из тех репорта заработала — https://github.com/AIRI-Institute/gigaevo-core
1🔥21🏆8🎉5
10 декабря Сбер проводит «Салют, Гига!» — мероприятие для тех, кто делает AI на практике.
Доклады про последние релизы GigaChat, Kandinsky и GigaData, постерная сессия с командами, воркшопы и карьерная зона.
Если работаете с ML, данными или инфраструктурой — присоединяйтесь!
Участие бесплатное, нужна регистрация.
Доклады про последние релизы GigaChat, Kandinsky и GigaData, постерная сессия с командами, воркшопы и карьерная зона.
Если работаете с ML, данными или инфраструктурой — присоединяйтесь!
Участие бесплатное, нужна регистрация.
❤🔥10👏5⚡1
Complete AI
🔥Ну вот и долгожданный тех репорт о GigaEvo подоспел https://arxiv.org/abs/2511.17592 GitHub: https://github.com/FusionBrainLab/gigaevo-core Всем приятного изучения, чуть позже доделаем Хабр💪 Чуть выше делился новостью о релизе фреймворка👆 UPD: ссылка…
Выложили нашу работу на Hugging Face для участия в выборе статьи дня, а может и недели, а может и месяца🦾
Будем рады вашим апвоутам и поддержке🙏❤️
https://huggingface.co/papers/2511.17592
Будем рады вашим апвоутам и поддержке🙏❤️
https://huggingface.co/papers/2511.17592
huggingface.co
Paper page - GigaEvo: An Open Source Optimization Framework Powered By LLMs And Evolution Algorithms
Join the discussion on this paper page
❤23🔥8🏆6
GigaChat в космосе 🚀
С космодрома Байконур стартовала ракета-носитель «Союз-2.1а» с пилотируемым кораблем «Союз МС-28» и тремя членами экипажа 74-й долговременной экспедиции. Вместе с экипажем в космос отправился GigaChat — он будет формировать отчеты и работать с базами данных, облегчая рутинные задачи экипажа.
На изображениях логотип GigaChat и рисунки детей с онкозаболеваниями. Дети наблюдали за запуском своими глазами!
С космодрома Байконур стартовала ракета-носитель «Союз-2.1а» с пилотируемым кораблем «Союз МС-28» и тремя членами экипажа 74-й долговременной экспедиции. Вместе с экипажем в космос отправился GigaChat — он будет формировать отчеты и работать с базами данных, облегчая рутинные задачи экипажа.
На изображениях логотип GigaChat и рисунки детей с онкозаболеваниями. Дети наблюдали за запуском своими глазами!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍17🤓6❤3🦄2
А вот я не в космосе был, а на ивенте индустрии недвижимости Domclick Digital Forum. Участвовал в дискуссии «Главные тренды в ИИ: что ждёт рынок и бизнес завтра?» 🦾
Затронули важную для меня тему ИИ в строительстве: какие технологии сейчас используются, можно ли им полностью доверять, с чем ИИ уже справляется, а где без человека не обойтись. Также обсудили ускорение бизнес-процессов, вызовы, сложности при внедрении технологий, обменялись примерами удачных и неудачных кейсов.
Спасибо коллегам за крутой ивент!
Затронули важную для меня тему ИИ в строительстве: какие технологии сейчас используются, можно ли им полностью доверять, с чем ИИ уже справляется, а где без человека не обойтись. Также обсудили ускорение бизнес-процессов, вызовы, сложности при внедрении технологий, обменялись примерами удачных и неудачных кейсов.
Спасибо коллегам за крутой ивент!
❤🔥16🔥7👍6🏆2⚡1
Forwarded from Институт AIRI
Приглашаем на следующий #AIRI_Seminars, который пройдёт 3 декабря в 17:00 ⤵️
Тема: «Фреймворк Каппа для управления датасетами и бенчмаркинга моделей».
Докладчик: Евгений Павловский, кандидат физико-математических наук, ведущий научный сотрудник Центра ИИ НГУ, заведующий лабораторией аналитики потоковых данных и машинного обучения ММФ НГУ
Оппонент: Андрей Кузнецов, кандидат технических наук, директор лаборатории FusionBrain Института AIRI
Подробное описание и регистрация на офлайн-формат на сайте.
YouTube | VK Видео
Тема: «Фреймворк Каппа для управления датасетами и бенчмаркинга моделей».
Докладчик: Евгений Павловский, кандидат физико-математических наук, ведущий научный сотрудник Центра ИИ НГУ, заведующий лабораторией аналитики потоковых данных и машинного обучения ММФ НГУ
Оппонент: Андрей Кузнецов, кандидат технических наук, директор лаборатории FusionBrain Института AIRI
Подробное описание и регистрация на офлайн-формат на сайте.
YouTube | VK Видео
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤13🔥5🏆3👀1
В эти выходные прошёл финал международной олимпиады по искусственному интеллекту и анализу данных AIDAO от Яндекс Образования и ФКН НИУ ВШЭ. В ней принял участие с командой мой сотрудник Матвей Скрипкин из группы Multimodality, Александр Югай из МФТИ и Даниил Окунев из ИТМО.
Задача ребят была обучить модель строить карту статических препятствий по четырём изображениям — по сути аналог упрощённого BEV-представления, используемого в автономной навигации.
Они экспериментировали с разными способами кодирования мультикамерного входа, перебрали разные архитектуры для кодирования изображений (классические сверточные модели, Swin Transformer, SigLip2, а также фичи из SAM2), сравнивали их качество и устойчивость, тестировали разные лоссы, использовали LSS для учёта параметров камер, а после получения сильных моделей применили blending. Качество оценивалось по средней IoU. Считался IoU для класса 0 (свободная область, по которой можно ехать) и класса 1 (занятая область, препятствия), после чего брали среднее значение.
Финальная модель на приватном тесте показала значение IoU 0.5609, а у первого места отрыв в третьем знаке — 0.5640.
Ребята, поздравляю! 💪💪💪
Задача ребят была обучить модель строить карту статических препятствий по четырём изображениям — по сути аналог упрощённого BEV-представления, используемого в автономной навигации.
Они экспериментировали с разными способами кодирования мультикамерного входа, перебрали разные архитектуры для кодирования изображений (классические сверточные модели, Swin Transformer, SigLip2, а также фичи из SAM2), сравнивали их качество и устойчивость, тестировали разные лоссы, использовали LSS для учёта параметров камер, а после получения сильных моделей применили blending. Качество оценивалось по средней IoU. Считался IoU для класса 0 (свободная область, по которой можно ехать) и класса 1 (занятая область, препятствия), после чего брали среднее значение.
Финальная модель на приватном тесте показала значение IoU 0.5609, а у первого места отрыв в третьем знаке — 0.5640.
Ребята, поздравляю! 💪💪💪
1⚡29🏆12❤7❤🔥5🔥2🦄1
Forwarded from Ivan Oseledets’ Channel
Вчера завершилась наша традиционная четырёхдневная научная отчётная сессия AIRI. Это важное событие, где все — от младших сотрудников до руководителей лабораторий — поделились итогами года и планами на будущее. За это время прошло 53 устных доклада и представлено 198 постеров.
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
1❤🔥27❤11👏5👍4🏆4
Forwarded from AbstractDL
OLMo 3
Это, пожалуй, самый честный и воспроизводимый релиз года. Тут выкатили вообще всё: от исходного кода и 6T токенов (Dolma 3) до каждого промежуточного чекпоинта и точного порядка данных в батчах.
Для тех, кто занимается ресёрчем, это не просто модель, а идеальный полигон для экспериментов.
В техрепорте много «вкусного» (и спорного):
- Delta-DPO: Авторы подтвердили гипотезу, что для ризонинга важнее не качество выбранного ответа, а дельта между ним и отвергнутым. Они брали ответы от Qwen-3 32B (chosen) и сталкивали их с ответами мелкой Qwen-3 0.6B (rejected). Да, выходит off-policy, но видимо когда данных дофига, то норм. Результат: обучение на контрасте между ними работает лучше, чем классическое SFT на идеальных данных.
- OlmoRL: Они переписали инфру для RLVR, разогнав её в 4 раза. Из крутых фишек — Inflight updates (обновление весов акторов прямо во время генерации в vLLM) и Active sampling (динамический добор задач в батч, чтобы градиент не занулялся на слишком простых примерах). KL-дивергенцию из лосса просто выкинули — говорят, так стабильнее.
- Model Souping: Почти на каждом этапе (мидтрейн, лонг-контекст) авторы мерджили чекпоинты налево и направо. Выглядит так, будто основной рецепт обучения всё ещё не супер стабилен, и его приходится полировать различными костылями.
По метрикам флагманская 32B-Think получилась сильно перекошенной в математику. В ризонинге на MATH и AIME приближается к Qwen-3 32B. Но на общих знаниях (MMLU) модель немного проседает. Думаю, ценность тут не в SOTA цифрах, а в возможности увидеть весь цикл обучения изнутри.
Обучение 32B модели заняло 56 дней на кластере из 1024xH100 и обошлось примерно в $2.75M. Почти 9 дней из этого срока ушло на пост-трейнинг (SFT/DPO/RL).
Статья, GitHub
Это, пожалуй, самый честный и воспроизводимый релиз года. Тут выкатили вообще всё: от исходного кода и 6T токенов (Dolma 3) до каждого промежуточного чекпоинта и точного порядка данных в батчах.
Для тех, кто занимается ресёрчем, это не просто модель, а идеальный полигон для экспериментов.
В техрепорте много «вкусного» (и спорного):
- Delta-DPO: Авторы подтвердили гипотезу, что для ризонинга важнее не качество выбранного ответа, а дельта между ним и отвергнутым. Они брали ответы от Qwen-3 32B (chosen) и сталкивали их с ответами мелкой Qwen-3 0.6B (rejected). Да, выходит off-policy, но видимо когда данных дофига, то норм. Результат: обучение на контрасте между ними работает лучше, чем классическое SFT на идеальных данных.
- OlmoRL: Они переписали инфру для RLVR, разогнав её в 4 раза. Из крутых фишек — Inflight updates (обновление весов акторов прямо во время генерации в vLLM) и Active sampling (динамический добор задач в батч, чтобы градиент не занулялся на слишком простых примерах). KL-дивергенцию из лосса просто выкинули — говорят, так стабильнее.
- Model Souping: Почти на каждом этапе (мидтрейн, лонг-контекст) авторы мерджили чекпоинты налево и направо. Выглядит так, будто основной рецепт обучения всё ещё не супер стабилен, и его приходится полировать различными костылями.
По метрикам флагманская 32B-Think получилась сильно перекошенной в математику. В ризонинге на MATH и AIME приближается к Qwen-3 32B. Но на общих знаниях (MMLU) модель немного проседает. Думаю, ценность тут не в SOTA цифрах, а в возможности увидеть весь цикл обучения изнутри.
Обучение 32B модели заняло 56 дней на кластере из 1024xH100 и обошлось примерно в $2.75M. Почти 9 дней из этого срока ушло на пост-трейнинг (SFT/DPO/RL).
Статья, GitHub
1❤🔥12👍5🔥5❤1
Forwarded from Институт AIRI
О том, как российские учёные создали открытую систему GigaEvo для решения сложных математических задач — читайте в интервью для «Ъ-Науки» ⤵️
Валентин Хрульков, руководитель научной группы «Генеративное проектирование» лаборатории FusionBrain Института AIRI, рассказывает:
⚫️ что такое эволюционные алгоритмы и почему они важны для науки
⚫️ как GigaEvo помогает автоматизировать доказательство теорем
⚫️ почему языковые модели не решают задачи напрямую, а учатся вместе с алгоритмами
⚫️ какие вызовы стоят перед разработчиками и пользователями таких систем
📎 Читайте материал по ссылке.
Валентин Хрульков, руководитель научной группы «Генеративное проектирование» лаборатории FusionBrain Института AIRI, рассказывает:
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥14❤6🏆2