За этот год ИИ в России стал заметно приземлённее
И это, пожалуй, главный сдвиг. Всё меньше разговоров «про потенциал» и всё больше решений, которые встраиваются в уже работающие процессы и дают быстрые результаты.
Вот несколько российских ИИ-стартапов из этой сферы:
CyberPhysics научили ИИ предсказывать поломки оборудования без установки дополнительных датчиков, только по данным, которые уже есть у завода.
Bitrobotics создали CV-роботов, которые помогают автоматизировать рутину на производстве.
«Синтелли» разработали ИИ‑платформу, которая быстро анализирует для химиков и фармацевтов колоссальные объёмы молекул и реакций.
Slider AI запустили ИИ для сбора презентаций из данных пользователя.
HiveTrace придумали, как в режиме реального времени защищать GenAI-приложения от атак и утечек.
Эти кейсы показывают текущее состояние рынка: ИИ становится частью инфраструктуры. Подробный разбор этих проектов и общей логики рынка — в блоге Яндекса.
Кстати, для команд с рабочими прототипами это ещё и сигнал, что вокруг таких решений постепенно формируется поддержка — в том числе через индустриальные программы и акселераторы.
И это, пожалуй, главный сдвиг. Всё меньше разговоров «про потенциал» и всё больше решений, которые встраиваются в уже работающие процессы и дают быстрые результаты.
Вот несколько российских ИИ-стартапов из этой сферы:
CyberPhysics научили ИИ предсказывать поломки оборудования без установки дополнительных датчиков, только по данным, которые уже есть у завода.
Bitrobotics создали CV-роботов, которые помогают автоматизировать рутину на производстве.
«Синтелли» разработали ИИ‑платформу, которая быстро анализирует для химиков и фармацевтов колоссальные объёмы молекул и реакций.
Slider AI запустили ИИ для сбора презентаций из данных пользователя.
HiveTrace придумали, как в режиме реального времени защищать GenAI-приложения от атак и утечек.
Эти кейсы показывают текущее состояние рынка: ИИ становится частью инфраструктуры. Подробный разбор этих проектов и общей логики рынка — в блоге Яндекса.
Кстати, для команд с рабочими прототипами это ещё и сигнал, что вокруг таких решений постепенно формируется поддержка — в том числе через индустриальные программы и акселераторы.
🗿77❤38😁16🔥14👍7🆒2
Data Secrets
Андрей Карпаты заявил, что чувствует себя отстающим программистом в мире ИИ Вот что он написал: Я никогда не чувствовал себя настолько отстающим как программист. Профессия радикально переписывается: вклад человека в код становится все более разреженным…
Ну и добивочка от Андрея под тем же постом: «Если вы не следите за новостями хотя бы 30 дней, ваши взгляды уже устарели»
Это вам на случай, если вы хотели устроить диджитал детокс на январских🙄
P.S. Эти два сообщения пахнут, как еще +20 миллиардов к стоимости Anthropic
Это вам на случай, если вы хотели устроить диджитал детокс на январских
P.S. Эти два сообщения пахнут, как еще +20 миллиардов к стоимости Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
😁207❤36🔥23👍9🤯4🗿3🐳2🤝1
Meta* под конец года выпустили прекрасную статью, в которой предложили новый способ обучения агентов
Современный ИИ все еще напрямую зависит от человеческой разметки и человеческих данных в целом. И с этим куча проблем: дорого, долго, "данные кончаются" и тд.
В Meta к тому же уверены, что это в принципе жеский потолок на пути к AGI: если учить агентов только на человеческом следе, то обучение сводится к шлифовке человеческого опыта. Тогда можно ли быть на 100% уверенным, что такие системы могут научиться чему-то вне распределения и стать умнее нас? Особенно это относится к таким областям, как кодинг, о котором дальше и пойдет речь.
Исследователи предложили Self-Play SWE-RL – способ обучать агентов так, чтобы они самосовершенствовались на своих же данных.
Состоит Self-Play SWE-RL из двух сущностей: Bug-injector и Bug-solver. На вход системе поступает какой-то репозиторий с кодом, Bug-injector изучает его, ломает код и ослабляет тесты так, чтобы баг спрятался.
Задача Bug-solver очевидна: починить код, и при этом без issue-текста, без подсказок, без готовых тест-раннеров. И если в процессе он сам что-то поломал, этот кейс тоже становится частью датасета и расширяет выборку.
Нужно понимать, что это не просто синтетические баги. Тут ломает и чинит код одна и та же политика (то есть это просто разные роли одного агента). В этом смысле подход чем-то напоминает GAN: солвер учится за счет того, что инджектор становится умнее, и наоборот.
Результаты следующие:
– Code World Model (CWM) на 32B, которая уже прошла этап sft и которую обучали таким образом, вышла на +10.4% на SWE-bench Verified и на +7.8% на SWE-bench Pro
– Если сравнивать с обычным RL, то такой подход дает +2.4% на SWE-bench Verified и на +3.6% на SWE-bench Pro
Не прорыв, конечно, но редко какой пайплайн сегодня дает такие ощутимые приросты, так что довольно интересно (но код, к сожалению, не дали).
https://arxiv.org/pdf/2512.18552
Современный ИИ все еще напрямую зависит от человеческой разметки и человеческих данных в целом. И с этим куча проблем: дорого, долго, "данные кончаются" и тд.
В Meta к тому же уверены, что это в принципе жеский потолок на пути к AGI: если учить агентов только на человеческом следе, то обучение сводится к шлифовке человеческого опыта. Тогда можно ли быть на 100% уверенным, что такие системы могут научиться чему-то вне распределения и стать умнее нас? Особенно это относится к таким областям, как кодинг, о котором дальше и пойдет речь.
Исследователи предложили Self-Play SWE-RL – способ обучать агентов так, чтобы они самосовершенствовались на своих же данных.
Состоит Self-Play SWE-RL из двух сущностей: Bug-injector и Bug-solver. На вход системе поступает какой-то репозиторий с кодом, Bug-injector изучает его, ломает код и ослабляет тесты так, чтобы баг спрятался.
Задача Bug-solver очевидна: починить код, и при этом без issue-текста, без подсказок, без готовых тест-раннеров. И если в процессе он сам что-то поломал, этот кейс тоже становится частью датасета и расширяет выборку.
Нужно понимать, что это не просто синтетические баги. Тут ломает и чинит код одна и та же политика (то есть это просто разные роли одного агента). В этом смысле подход чем-то напоминает GAN: солвер учится за счет того, что инджектор становится умнее, и наоборот.
Результаты следующие:
– Code World Model (CWM) на 32B, которая уже прошла этап sft и которую обучали таким образом, вышла на +10.4% на SWE-bench Verified и на +7.8% на SWE-bench Pro
– Если сравнивать с обычным RL, то такой подход дает +2.4% на SWE-bench Verified и на +3.6% на SWE-bench Pro
Не прорыв, конечно, но редко какой пайплайн сегодня дает такие ощутимые приросты, так что довольно интересно (но код, к сожалению, не дали).
https://arxiv.org/pdf/2512.18552
❤97👍35🔥11😁5⚡2 2👌1🗿1
OpenAI нанимает Head of Preparedness – человека, который будет готовиться к рискам ИИ
Это абсолютно новая для стартапа роль, и это будет позиция не про элаймент, а про моделирование мира после релиза моделей.
То есть Head of Preparedness будет отвечать на вопросы про будущее: что плохого может произойти после релиза модели, чего не отловишь в экспериментах, в каких неочевидных областях она может быть опасна, какие есть долгоиграющие угрозы, ну и тд.
Альтман пишет, что в 2025 году они увидели первый тревожный сигнал – влияние моделей на психическое здоровье людей (помните эти истории про самоубийства из-за ChatGPT?). Плюс модели достигли довольно серьезного уровня к кодинге, а значит представляют потенциальную опасность в сфере кибератак.
Собственно, это все и стало поводом к найму такого человека. (Хочется верить, что нанимают реально для дела, а не маркетинга ради).
Платить обещают $555k с учетом бонусов. Не Цукерберговские цифры, конечно, но на жизнь вроде хватит😐
openai.com/careers/head-of-preparedness-san-francisco/
Это абсолютно новая для стартапа роль, и это будет позиция не про элаймент, а про моделирование мира после релиза моделей.
То есть Head of Preparedness будет отвечать на вопросы про будущее: что плохого может произойти после релиза модели, чего не отловишь в экспериментах, в каких неочевидных областях она может быть опасна, какие есть долгоиграющие угрозы, ну и тд.
Альтман пишет, что в 2025 году они увидели первый тревожный сигнал – влияние моделей на психическое здоровье людей (помните эти истории про самоубийства из-за ChatGPT?). Плюс модели достигли довольно серьезного уровня к кодинге, а значит представляют потенциальную опасность в сфере кибератак.
Собственно, это все и стало поводом к найму такого человека. (Хочется верить, что нанимают реально для дела, а не маркетинга ради).
Платить обещают $555k с учетом бонусов. Не Цукерберговские цифры, конечно, но на жизнь вроде хватит
openai.com/careers/head-of-preparedness-san-francisco/
Please open Telegram to view this post
VIEW IN TELEGRAM
😁71👍14🔥6❤3 3🤨2
Про ошибки обычно молчат, всем больше нравится оглашать успехи. Но в канале Яндекс Образование пошли другим путём: к Новому году команда запустила спецпроект, где ребята из Яндекса рассказывают о том, как росли через ошибки в 2025.
И это, в целом, хорошо описывает сам канал. В нём говорят про технологии с фокусом на людей, которые их создают. Здесь можно услышать мысли инженеров и исследователей, с которыми обычно сталкиваешься разве что на Хабре.
Яндексоиды разбирают, как устроены продукты и алгоритмы изнутри. Студенты делятся тем, как учатся на новых направлениях. Параллельно появляется много вменяемого контекста про образование и технологии в мире.
Кажется, канал постепенно обрастает живым комьюнити — если судить по тому, какие ребята там учатся и как они разговаривают. Там удобно наблюдать за технологиями, думать, спорить и разбираться. А ещё можно поучаствовать в конкурсе на лучшую ошибку — расскажите о свой в комментариях под этим постом и получите шанс выиграть новогодний подарок.
Реклама. ООО "ФРОМ СКРЭТЧ", ИНН 9724205560, erid 2VtzqxRpzCa
И это, в целом, хорошо описывает сам канал. В нём говорят про технологии с фокусом на людей, которые их создают. Здесь можно услышать мысли инженеров и исследователей, с которыми обычно сталкиваешься разве что на Хабре.
Яндексоиды разбирают, как устроены продукты и алгоритмы изнутри. Студенты делятся тем, как учатся на новых направлениях. Параллельно появляется много вменяемого контекста про образование и технологии в мире.
Кажется, канал постепенно обрастает живым комьюнити — если судить по тому, какие ребята там учатся и как они разговаривают. Там удобно наблюдать за технологиями, думать, спорить и разбираться. А ещё можно поучаствовать в конкурсе на лучшую ошибку — расскажите о свой в комментариях под этим постом и получите шанс выиграть новогодний подарок.
Реклама. ООО "ФРОМ СКРЭТЧ", ИНН 9724205560, erid 2VtzqxRpzCa
🗿51❤15😁15👍6🤓1
Разработчик Claude Code признался, что последние 30 дней 100% его контрибьютов в Claude Code были написаны самим Claude Code
И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был его сторонний проект, а во что он вырос – видите сами).
Невольно вспомнился этот мем⬆️ ⬆️
И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был его сторонний проект, а во что он вырос – видите сами).
За последние тридцать дней я успешно залил 259 PR - - 497 коммитов, 40 тысяч строк добавлено, 38 тысяч строк удалено. Каждая строка была написана Claude Code + Opus 4.5.
Claude стабильно работает минуты, часы и даже дни подряд (с использованием Stop hooks). Разработка ПО меняется, и мы вступаем в новую эру в истории программирования. И это все еще только начало.
Невольно вспомнился этот мем
Please open Telegram to view this post
VIEW IN TELEGRAM
4❤155😁76 32🔥14👍3 3🕊2🗿2🤨1
Data Secrets
Разработчик Claude Code признался, что последние 30 дней 100% его контрибьютов в Claude Code были написаны самим Claude Code И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был…
Джунам посвящается
😁364🤓41🔥17🫡5🤝3❤1
Nvidia официально отказалась от идеи построить облачный сервис
DGX Cloud, фактически, перестал существовать. Как структура, он остается, но теперь будет обслуживать исключительно внутренний спрос Nvidia. Команда же переместилась в основном в R&D блок.
Будем честны: вряд ли кто-то сильно опечален. Спрос на DGX Cloud был мизерный: собственно, поэтому его и закрывают.
С другой стороны, Хуанг таким образом публично отказался от конкуренции с AWS. Ранее AWS наотрез отказалась участвовать в программе DGX Cloud и Хуанг, видимо, передумал раздражать своих крупнейших клиентов.
DGX Cloud, фактически, перестал существовать. Как структура, он остается, но теперь будет обслуживать исключительно внутренний спрос Nvidia. Команда же переместилась в основном в R&D блок.
Будем честны: вряд ли кто-то сильно опечален. Спрос на DGX Cloud был мизерный: собственно, поэтому его и закрывают.
С другой стороны, Хуанг таким образом публично отказался от конкуренции с AWS. Ранее AWS наотрез отказалась участвовать в программе DGX Cloud и Хуанг, видимо, передумал раздражать своих крупнейших клиентов.
👍45🤯13❤11🤔6😁1👾1
Почему ваш RAG ломается в продакшне?
Часто проблема в том, что обычному скрипту не хватает автономности. Чтобы система работала стабильно, нужно управлять её состоянием и следить за метриками.
Proglib Academy запустила самый полный курс «Разработка ИИ-агентов». В программе есть всё — от поиска в векторных БД до сложных мультиагентных систем.
Внутри много практики:
➡️ продвинутый RAG и векторные базы данных;
➡️ оркестрация в LangGraph, CrewAI и AutoGen;
➡️ протокол MCP для обмена данными;
➡️ мониторинг, трассировка и безопасность;
➡️ оценка качества и A/B-тесты.
Для тех, кто хочет копнуть глубже, есть академический факультатив по анатомии агентов. В конце обучения вы сделаете готовую систему с защитой и логами, которую не страшно выпускать в прод.
🔗 Записаться на курс
Реклама. ИП Дрёмов А.С., ИНН 771391651571, erid 2VtzqvWkdmk
Часто проблема в том, что обычному скрипту не хватает автономности. Чтобы система работала стабильно, нужно управлять её состоянием и следить за метриками.
Proglib Academy запустила самый полный курс «Разработка ИИ-агентов». В программе есть всё — от поиска в векторных БД до сложных мультиагентных систем.
Внутри много практики:
Для тех, кто хочет копнуть глубже, есть академический факультатив по анатомии агентов. В конце обучения вы сделаете готовую систему с защитой и логами, которую не страшно выпускать в прод.
Реклама. ИП Дрёмов А.С., ИНН 771391651571, erid 2VtzqvWkdmk
Please open Telegram to view this post
VIEW IN TELEGRAM
😁30🗿9❤5👍5 5👾1
Теперь вы знаете, кого винить, если ИИ захватит мир
P.S. GPU действительно исторически появились для Quake и Half-Life 2. А, например, Демис Хассабис, глава ИИ в Google, начинал свою карьеру как геймдейвер. Вклад геймеров недооценен!⌨️
P.S. GPU действительно исторически появились для Quake и Half-Life 2. А, например, Демис Хассабис, глава ИИ в Google, начинал свою карьеру как геймдейвер. Вклад геймеров недооценен!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤154 53😁38🔥13💯8🆒2
Вау: Meta купила китайский стартап Manus
Это разработчики того самого агента Manus, который хайпанул в марте этого года. К слову, он до сих пор выбивает соту на нескольких бенчмарках, и пользователей у них куча.
Вообще, компания базировалась в Китае, но после покупки связи со страной будут разорваны (в том числе с крупными инвесторами типа Tencent и Hongshan), и Manus продолжит независимо работать из Сингапура.
Сумму сделки не раскрывают, но аналитики оценивают ее примерно в два миллиарда долларов. И это еще не сильно дорого для стартапа, который всего за 8 месяцев достиг ARR в 100–125 млн долларов.
Самого агента Manus планируется интегрировать в продукты Meta. В целом, для Meta это логичная покупка: у них у единственных до сих пор нет своего ИИ-продукта, и это сильно отодвигает назад. Может, теперь мы наконец увидим крутого агента уже под флагом Цукерберга?
Это разработчики того самого агента Manus, который хайпанул в марте этого года. К слову, он до сих пор выбивает соту на нескольких бенчмарках, и пользователей у них куча.
Вообще, компания базировалась в Китае, но после покупки связи со страной будут разорваны (в том числе с крупными инвесторами типа Tencent и Hongshan), и Manus продолжит независимо работать из Сингапура.
Сумму сделки не раскрывают, но аналитики оценивают ее примерно в два миллиарда долларов. И это еще не сильно дорого для стартапа, который всего за 8 месяцев достиг ARR в 100–125 млн долларов.
Самого агента Manus планируется интегрировать в продукты Meta. В целом, для Meta это логичная покупка: у них у единственных до сих пор нет своего ИИ-продукта, и это сильно отодвигает назад. Может, теперь мы наконец увидим крутого агента уже под флагом Цукерберга?
❤50🔥25🤔13👍8 6 5