Anthropic выпустили Claude Haiku 4.5
Это мини-версия Claude в новом поколении. На SWE-bench модель набирает 73.3%. Это больше, чем у Claude Sonnet 4 (72.7%). А ведь эту модель выпустили всего пол года назад, и она долго считалась SOTA для кодинга. Теперь такое же качество можно получать в три раза дешевле и в два раза быстрее.
Также модель превосходит Sonnet 4 в метриках на Computer Use. В общем, это полноценная замена не только предыдущего малыша Haiku 3.5, но и Sonnet 4 (которая, предположительно, в несколько раз больше по количеству параметров).
Модель уже раскатили в Claude Code, Claude для Chrome, в чат и API. Блогпост.
Осталось дождаться только Claude Opus 4.5
Это мини-версия Claude в новом поколении. На SWE-bench модель набирает 73.3%. Это больше, чем у Claude Sonnet 4 (72.7%). А ведь эту модель выпустили всего пол года назад, и она долго считалась SOTA для кодинга. Теперь такое же качество можно получать в три раза дешевле и в два раза быстрее.
Также модель превосходит Sonnet 4 в метриках на Computer Use. В общем, это полноценная замена не только предыдущего малыша Haiku 3.5, но и Sonnet 4 (которая, предположительно, в несколько раз больше по количеству параметров).
Модель уже раскатили в Claude Code, Claude для Chrome, в чат и API. Блогпост.
Осталось дождаться только Claude Opus 4.5
❤77👍30🔥15😁3⚡1
Новая открытая модель от Google сгенерировала правдоподобную гипотезу, которая может привести нас к лекарству от рака
Сегодня Google релизнули модель C2S-Scale 27B, разработанную совместно с Йельским университетом. Она основана на Gemma-2 и предназначена для "понимания" поведения отдельных биологических клеток.
За основу Google берут идею о том, что подобные биологические модели можно масштабировать также, как и LLM, если использовать тот же подход. Они структурируют данные о клетке в виде так называемого Cell sentence: это строка, содержащая транскриптомы – данные об активности тысяч генов в клетке.
Модель может обрабатывать такие данные как текст и воспринимать задачу как языковую: прогнозировать тип клетки, описывать поведение, генерировать гипотетические сценарии и др. Это делает модель почти универсальной. Плюс, такой подход дал возможность загрузить в модель, помимо последовательностей генов, еще и научные тексты.
Работает тактика, мягко говоря, неплохо. Главный на данный момент результат: модель сгенерировала новую гипотезу о поведении раковых клеток, которую на первом этапе уже экспериментально подтвердили в лаборатории. Конкретно, C2S обнаружила препарат, который может делать опухоль заметнее для иммунной системы, и, как следствие, иммунные клетки могут лучше её атаковать.
При проведении дополнительных испытаний это открытие может открыть новый многообещающий путь к разработке лекарства от рака. Представляете?
Блогпост | HuggingFace | Код | Статья
Сегодня Google релизнули модель C2S-Scale 27B, разработанную совместно с Йельским университетом. Она основана на Gemma-2 и предназначена для "понимания" поведения отдельных биологических клеток.
За основу Google берут идею о том, что подобные биологические модели можно масштабировать также, как и LLM, если использовать тот же подход. Они структурируют данные о клетке в виде так называемого Cell sentence: это строка, содержащая транскриптомы – данные об активности тысяч генов в клетке.
Модель может обрабатывать такие данные как текст и воспринимать задачу как языковую: прогнозировать тип клетки, описывать поведение, генерировать гипотетические сценарии и др. Это делает модель почти универсальной. Плюс, такой подход дал возможность загрузить в модель, помимо последовательностей генов, еще и научные тексты.
Работает тактика, мягко говоря, неплохо. Главный на данный момент результат: модель сгенерировала новую гипотезу о поведении раковых клеток, которую на первом этапе уже экспериментально подтвердили в лаборатории. Конкретно, C2S обнаружила препарат, который может делать опухоль заметнее для иммунной системы, и, как следствие, иммунные клетки могут лучше её атаковать.
При проведении дополнительных испытаний это открытие может открыть новый многообещающий путь к разработке лекарства от рака. Представляете?
Блогпост | HuggingFace | Код | Статья
1👀141⚡74❤67👍17🤯17🔥11🗿6 4😁2🤔1 1
Data Secrets
О, новый релиз от Андрея Карпаты Это один из самых безумных репозиториев, которые я когда-либо писал Сразу ссылка: github.com/karpathy/nanochat nanochat – это что-то типа продолжения легендарного nanoGPT. Но если nanoGPT – это, по сути, только предобучение…
Готовый мини-ChatGPT с нуля от Андрея Карпаты
Помните, наверное, что на днях Андрей выложил продолжение проекта nanoGPT – nanochat. Это готовый конвейер для обучения и инференса целого мини-клона ChatGPT. Мы о нем вот тут подробно писали.
Так вот теперь инженер сообщил, что закончил обучать на этом коде первую более крупную версию модели nanochat d32. Самые маленькие модельки на этом пайплайне можно обучить примерно за 100 долларов (учитывая средние цены аренды GPU). nanochat d32 же стоил примерно 1000 долларов и обучался 33 часа.
Можно посмотреть на метрики. Они очень даже неплохие для 32 слоев и 1к долларов (что еще раз подтверждает качество кода).
– На CORE score результат 0.31. Это лучше, чем у GPT-2 (≈0.26)
– На GSM8K (математика) метрика выросла с 8% до 20%
Чудес, конечно, ждать не стоит. Это все еще ультра маленькая моделька. Карпаты говорит, что она как дошкольник. И тем не менее, результаты улучшились, и с инженерной точки зрения это все еще модель, которая прошла все этапы обучения с нуля: претрейн, мидтрейн, SFT и RL. В ней даже есть tool use.
Возможно, скоро Андрей даже выложит веб-версию.
https://github.com/karpathy/nanochat/discussions/8
Помните, наверное, что на днях Андрей выложил продолжение проекта nanoGPT – nanochat. Это готовый конвейер для обучения и инференса целого мини-клона ChatGPT. Мы о нем вот тут подробно писали.
Так вот теперь инженер сообщил, что закончил обучать на этом коде первую более крупную версию модели nanochat d32. Самые маленькие модельки на этом пайплайне можно обучить примерно за 100 долларов (учитывая средние цены аренды GPU). nanochat d32 же стоил примерно 1000 долларов и обучался 33 часа.
Можно посмотреть на метрики. Они очень даже неплохие для 32 слоев и 1к долларов (что еще раз подтверждает качество кода).
– На CORE score результат 0.31. Это лучше, чем у GPT-2 (≈0.26)
– На GSM8K (математика) метрика выросла с 8% до 20%
Чудес, конечно, ждать не стоит. Это все еще ультра маленькая моделька. Карпаты говорит, что она как дошкольник. И тем не менее, результаты улучшились, и с инженерной точки зрения это все еще модель, которая прошла все этапы обучения с нуля: претрейн, мидтрейн, SFT и RL. В ней даже есть tool use.
Возможно, скоро Андрей даже выложит веб-версию.
https://github.com/karpathy/nanochat/discussions/8
❤121👏38👍10🤯10⚡5🔥5❤🔥3🗿2🤓1
Media is too big
VIEW IN TELEGRAM
Вышла Veo 3.1
1. Первое и главное обновление – улучшили гибкость и контролируемость (и немножно качество). Например, можно убирать элементы из сцены или дорисовывать что-то прямо в кадр. Плюс, теперь доступна загрузка референсов для сохранения стиля, персонажей или даже одежды.
2. Поработали со звуком. Теперь аудио-сопровождение звучит естественнее, а липсинки выглядят более синхронными. Даже на русском языке работает норм.
3. Доступная длина генераций не изменилась, но добавили Scene Extension: можно продолжать видео с последних кадров.
Google сегодня в ударе.
Блогпост | Попробовать
1. Первое и главное обновление – улучшили гибкость и контролируемость (и немножно качество). Например, можно убирать элементы из сцены или дорисовывать что-то прямо в кадр. Плюс, теперь доступна загрузка референсов для сохранения стиля, персонажей или даже одежды.
2. Поработали со звуком. Теперь аудио-сопровождение звучит естественнее, а липсинки выглядят более синхронными. Даже на русском языке работает норм.
3. Доступная длина генераций не изменилась, но добавили Scene Extension: можно продолжать видео с последних кадров.
Google сегодня в ударе.
Блогпост | Попробовать
🔥77❤25🤯6👍3 3😁1
Почему генеративный ИИ все еще не изменил мир
Генеральный директор MWS AI (входит в МТС) Денис Филиппов дал неплохое интервью Коммерсанту, в котором озвучил довольно нестандартную мысль: зрелых продуктов и готовых кейсов в ИИ все еще мало, даже на международном рынке.
Да, у нас есть LLM и все такое. НО какого бы уровня ни достигла технология, на практике это пока лишь единицы процентов внедрений, которые стали бизнес-критичными. А тем временем для большинства компаний огромный пласт возможностей лежит именно в развитии узких продуктовых решений на базе опенсорса, а не в разработке собственных языковых моделей.
В качестве примера он привел кейс о разработке и внедрении командой MWS AI сервиса речевой аналитики в процесс проверки технического состояния горного транспорта в крупной горно-металлургической компании.
–> Специалист проводит осмотр техники и записывает свои заключения на диктофон
–> Запись передается на сервер, где автоматически транскрибируется и улучшается LLM
–> На основе транскрипта LLM заполняет анкету по технической готовности транспорта и отправляет готовый док ответственному
Итог: процесс теперь занимает минуту вместо часа человеческого труда. На рутинных проверках при 100 осмотрах в день может достигать более 15 000 часов. Как раз такие решения в понятной для бизнеса форме и меняют индустрию.
Полное интервью тут
Генеральный директор MWS AI (входит в МТС) Денис Филиппов дал неплохое интервью Коммерсанту, в котором озвучил довольно нестандартную мысль: зрелых продуктов и готовых кейсов в ИИ все еще мало, даже на международном рынке.
Да, у нас есть LLM и все такое. НО какого бы уровня ни достигла технология, на практике это пока лишь единицы процентов внедрений, которые стали бизнес-критичными. А тем временем для большинства компаний огромный пласт возможностей лежит именно в развитии узких продуктовых решений на базе опенсорса, а не в разработке собственных языковых моделей.
В качестве примера он привел кейс о разработке и внедрении командой MWS AI сервиса речевой аналитики в процесс проверки технического состояния горного транспорта в крупной горно-металлургической компании.
–> Специалист проводит осмотр техники и записывает свои заключения на диктофон
–> Запись передается на сервер, где автоматически транскрибируется и улучшается LLM
–> На основе транскрипта LLM заполняет анкету по технической готовности транспорта и отправляет готовый док ответственному
Итог: процесс теперь занимает минуту вместо часа человеческого труда. На рутинных проверках при 100 осмотрах в день может достигать более 15 000 часов. Как раз такие решения в понятной для бизнеса форме и меняют индустрию.
Полное интервью тут
❤105😁34🔥19💯14🗿11👍9🤨7🤔5🤝1
О, вышел PyTorch 2.9
Что новенького:
🟦 FlexAttention стал доступен еще шире. Добавили на Intel GPU, плюс появились flash-decoding оптимизации на x86 CPU (ускорения инференса трансформеров без спец. CUDA-ядер).
🟦 В torch.compile теперь можно переключать поведение на graph breaks, то есть выбирать, падать с ошибкой или продолжать.
🟦 Официальные бинарники теперь выходят сразу с вариантами для ROCm (AMD), XPU (Intel GPU) и CUDA 13. Это сильно упрощает GPU-старт из коробки вне NVIDIA, особенно на ROCm.
🟦 Обновили стабильный libtorch ABI. Теперь должно быть меньше сюрпризов при сборке и обновлении сторонних C++/CUDA экстеншнов.
🟦 Выкатили symmetric memory – новую модель памяти, которая должна облегчить написание multi-GPU ядер и кода.
Кстати, релиз собрали из 3216 коммитов от 452 контрибьюторов. Опенсорс – сила💪
pytorch.org/blog/pytorch-2-9/
Что новенького:
Кстати, релиз собрали из 3216 коммитов от 452 контрибьюторов. Опенсорс – сила
pytorch.org/blog/pytorch-2-9/
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥132❤41👍14😁6🤝1
Data Secrets
Сэм Альтман пообещал, что в ChatGPT станет меньше цензуры После выхода GPT-5 пользователи начали массово жаловаться на то, что модель перестала быть человечной, что теперь с ней нельзя поговорить как с другом, что они потеряли в ее лице психолога и тд. …
Когда OpenAI в декабре раскатит эротику, помните о главном
4😁623🔥53🍓20❤15👍14👏6💯5 5😎4🤔2💘1
Data Secrets
В соцсетях бурно обсуждают только что вышедшего агента Manus: это Operator, Deep Research и Cursor в одном флаконе Его выпустила одноименная китайская лаборатория и этот релиз уже называют DeepSeek moment v2. Чем он цепляет: 1. Он действительно автономный.…
Тот самый китайский агент Manus AI обновился до версии 1.5
Что интересного:
– Средняя продолжительность выполнения задач снизилась до 4 минут вместо 15 благодаря переработанному движку. То есть теперь система работает примерно в 4 раза бодрее.
– Качество выросло на ~15%. Удовлетворенность пользователей – на 6. Система теперь умеет справляться с более сложными составными тасками.
– Безлимитный контекст!
– Добавили Collaboration (совместная работа нескольких пользователей в одной сессии) и Library (единое хранилище для всех файлов и артефактов, созданных агентом).
– Отдельно хвастаются тем, как прокачали веб-разработку. Агент якобы впервые поддерживает создание и деплой production-ready full-stack приложений с одного промпта: с бэкендом, базами данных, авторизацией, встроенным ИИ, аналитикой и системой версий. Вряд ли в реальности это такая сказка, но звучит интересно, надо тестить.
Попробовать можно тут, вроде есть бесплатный trial
Что интересного:
– Средняя продолжительность выполнения задач снизилась до 4 минут вместо 15 благодаря переработанному движку. То есть теперь система работает примерно в 4 раза бодрее.
– Качество выросло на ~15%. Удовлетворенность пользователей – на 6. Система теперь умеет справляться с более сложными составными тасками.
– Безлимитный контекст!
– Добавили Collaboration (совместная работа нескольких пользователей в одной сессии) и Library (единое хранилище для всех файлов и артефактов, созданных агентом).
– Отдельно хвастаются тем, как прокачали веб-разработку. Агент якобы впервые поддерживает создание и деплой production-ready full-stack приложений с одного промпта: с бэкендом, базами данных, авторизацией, встроенным ИИ, аналитикой и системой версий. Вряд ли в реальности это такая сказка, но звучит интересно, надо тестить.
Попробовать можно тут, вроде есть бесплатный trial
1❤60👍23🔥13😁3💘1
Google объединяются с одной из крупнейших компаний в области ядерного синтеза, чтобы вырабатывать энергию с помощью ИИ
CFS, с которыми Google заключили сделку, уже много лет занимаются выработкой термоядерной энергии. Она считается самым чистым из возможных видов топлива: экологично, безопасно и неисчерпаемо – три в одном. Но пока человечество только пытается научиться ее добывать.
Один из основных подходов к синтезу такой энергии – это контролируемое движение сверхгорячего ионизированного газа (плазмы) внутри специальной трубы – токамака.
Но чтобы управлять плазмой, нужно очень точно моделировать, как тепло, ток и вещество движутся через газ и взаимодействуют с ним. Это очень сложные расчеты, с которыми не справляются даже суперкомпьютеры. Google надеются, что именно эту задачу возьмет на себя их моделька под названием Torax.
Torax – это специальный симулятор транспорта плазмы / RL-агент (опенсорсный, кстати), который позволяет быстро и эффективно проводить много виртуальных экспериментов без потребления энергии токамака, за счет чего преодолевается точка безубыточности.
Кроме того, агент как бы сам может управлять плазмой и распределением тепла, быстро находя лучшие стабильные конфигурации. Это буквально выработка сверхмощной энергии под управлением ИИ. Звучит как будущее.
deepmind.google/discover/blog/bringing-ai-to-the-next-generation-of-fusion-energy/
CFS, с которыми Google заключили сделку, уже много лет занимаются выработкой термоядерной энергии. Она считается самым чистым из возможных видов топлива: экологично, безопасно и неисчерпаемо – три в одном. Но пока человечество только пытается научиться ее добывать.
Один из основных подходов к синтезу такой энергии – это контролируемое движение сверхгорячего ионизированного газа (плазмы) внутри специальной трубы – токамака.
Но чтобы управлять плазмой, нужно очень точно моделировать, как тепло, ток и вещество движутся через газ и взаимодействуют с ним. Это очень сложные расчеты, с которыми не справляются даже суперкомпьютеры. Google надеются, что именно эту задачу возьмет на себя их моделька под названием Torax.
Torax – это специальный симулятор транспорта плазмы / RL-агент (опенсорсный, кстати), который позволяет быстро и эффективно проводить много виртуальных экспериментов без потребления энергии токамака, за счет чего преодолевается точка безубыточности.
Кроме того, агент как бы сам может управлять плазмой и распределением тепла, быстро находя лучшие стабильные конфигурации. Это буквально выработка сверхмощной энергии под управлением ИИ. Звучит как будущее.
deepmind.google/discover/blog/bringing-ai-to-the-next-generation-of-fusion-energy/
2🤯144❤72👍44🔥13⚡10😁9🗿1
Media is too big
VIEW IN TELEGRAM
Microsoft выкатили ОС для экстравертов
Они прикрутили к Windows 11 Copilot и назвали это «компьютером, с которым можно разговаривать».
Пока это похоже на чуть улучшенную версию Siri. Агент реагирует на «Hey, Copilot» и может помочь с какой-нибудь не очень сложной задачей: типа разобраться в работе приложения или найти какой-нибудь файл.
Отличная новость, но мы пошли дальше молча стучать по клавиатуре самостоятельно🎮
Они прикрутили к Windows 11 Copilot и назвали это «компьютером, с которым можно разговаривать».
Пока это похоже на чуть улучшенную версию Siri. Агент реагирует на «Hey, Copilot» и может помочь с какой-нибудь не очень сложной задачей: типа разобраться в работе приложения или найти какой-нибудь файл.
Отличная новость, но мы пошли дальше молча стучать по клавиатуре самостоятельно
Please open Telegram to view this post
VIEW IN TELEGRAM
😁156 18🤯11❤9⚡6🗿5👍4 2👀1
МТС Web Services запустила продукт для управления ПО и лицензиями.
Продукт MWS Softora способен сократить расходы на программное обеспечение и снизить нагрузку на IT-поддержку. Система автоматизирует всю работу с ПО от планирования и закупки до контроля использования и списания, объединяя данные из различных источников.
Пользователи могут воспользоваться витриной приложений. Оттуда сотрудники могут сами установить программы без участия IT-отдела, чем ускоряют весь процесс на 76%. А количество заявок на согласование падает сразу на 70%.
Еще один важный аспект – точность данных повышается до 95%. Также предусмотрены контроль лицензий, борьба с нелегальным ПО и перерасходом бюджета. Всего в каталоге более 10 тысяч приложений, в том числе альтернативы санкционным программам.
Больше плюшек – по ссылке.
Продукт MWS Softora способен сократить расходы на программное обеспечение и снизить нагрузку на IT-поддержку. Система автоматизирует всю работу с ПО от планирования и закупки до контроля использования и списания, объединяя данные из различных источников.
Пользователи могут воспользоваться витриной приложений. Оттуда сотрудники могут сами установить программы без участия IT-отдела, чем ускоряют весь процесс на 76%. А количество заявок на согласование падает сразу на 70%.
Еще один важный аспект – точность данных повышается до 95%. Также предусмотрены контроль лицензий, борьба с нелегальным ПО и перерасходом бюджета. Всего в каталоге более 10 тысяч приложений, в том числе альтернативы санкционным программам.
Больше плюшек – по ссылке.
🗿25😁12👍8✍6❤2🔥1👨💻1
GPT-5 всего на 58 процентров близка к AGI
Исследовали из 28 крупных влиятельных лабораторий объединились, чтобы наконец-то дать четкое определение AGI. Это первая научная работа, в которой это понятие смогли истолковать не просто как-то там, а количественно. И, между прочим, среди авторов – Йошуа Бенджио, один из отцов ИИ.
Итак, определение (короткое, но очень емкое):
Но как это можно измерить? Все просто и изящно.
В психометрии есть такая широко признанная модель человеческого мышления: Cattell-Horn-Carroll (CHC). CHC разбивает интеллект на 10 основных когнитивных способностей: фактические знания и здравый смысл, понимание и написание текста, математика, способность решать новые задачи и делать выводы, удержание и обработка информации в кратковременной памяти, долговременное запоминание и обучение новому, извлечение знаний, понимание и создание изображений, работа с музыкой и речью, скорость обработки информации.
По каждому из этих параметров можно оценить и человека, и, следовательно, модель. Что, собственно, и сделали ученые. В итоге получилось, что GPT-4 является AGI всего на 27%, а GPT-5 – на 58% – что само по себе очень неплохой скачок, НО все еще лишь чуть больше половины когнитивного профиля образованного взрослого.
Самые слабые стороны, в целом, предсказумые: долговременная память, визуальное и аудио восприятие, скорость реакции и гибкое мышление.
Вроде как определение получилось объективно неплохое (главное, что измеримое). Ну и точно лучше чем у OpenAI и Microsoft. Напоминаем, что они определили AGI как ИИ, приносящий $100 млрд прибыли в год💀
Исследовали из 28 крупных влиятельных лабораторий объединились, чтобы наконец-то дать четкое определение AGI. Это первая научная работа, в которой это понятие смогли истолковать не просто как-то там, а количественно. И, между прочим, среди авторов – Йошуа Бенджио, один из отцов ИИ.
Итак, определение (короткое, но очень емкое):
AGI – это ИИ, который может сопоставимо с образованным взрослым человеком проявлять широту (versatility) и глубину (proficiency) когнитивных способностей.
Но как это можно измерить? Все просто и изящно.
В психометрии есть такая широко признанная модель человеческого мышления: Cattell-Horn-Carroll (CHC). CHC разбивает интеллект на 10 основных когнитивных способностей: фактические знания и здравый смысл, понимание и написание текста, математика, способность решать новые задачи и делать выводы, удержание и обработка информации в кратковременной памяти, долговременное запоминание и обучение новому, извлечение знаний, понимание и создание изображений, работа с музыкой и речью, скорость обработки информации.
По каждому из этих параметров можно оценить и человека, и, следовательно, модель. Что, собственно, и сделали ученые. В итоге получилось, что GPT-4 является AGI всего на 27%, а GPT-5 – на 58% – что само по себе очень неплохой скачок, НО все еще лишь чуть больше половины когнитивного профиля образованного взрослого.
Самые слабые стороны, в целом, предсказумые: долговременная память, визуальное и аудио восприятие, скорость реакции и гибкое мышление.
Вроде как определение получилось объективно неплохое (главное, что измеримое). Ну и точно лучше чем у OpenAI и Microsoft. Напоминаем, что они определили AGI как ИИ, приносящий $100 млрд прибыли в год
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍210😁105❤53🔥18 7😍4🦄3👀2✍1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
У Дваркеша Пателя вышло огромное интервью с Андреем Карпаты
Естественно, там есть что обсудить. Поехали по самым ярким цитатам и мыслям:
⚪️ До AGI еще десятилетия, несмотря на то, что прогнозируют нам CEO стартапов. Агенты еще долго не смогут никого заменить полноценно: не хватает интеллекта, мультимодальности, надёжного компьютер-юза, долгой памяти/континуума обучения.
⚪️ RL – костыль. Он работает «через соломинку»: слишком мало полезного сигнала для слишком большого количества действий. То есть мы совершаем длинную цепочку действий, а в конце получаем в качестве реварда всего одно число. Этот сигнал размазывается на всю последовательность, даже если некоторые шаги были удачные, а другие нет. Получается огромный шум и слабое обучение.
⚪️ Скайнета не будет, но из-за ИИ человечество рискует потерять контроль. По мере автоматизации люди будут все меньше и меньше принимать решения, и в конце концов мы вообще перестанем понимать, что происходит: весь мир станет для человечества черным ящиком. Think about it, как говорится.
Обязательно смотрим полностью здесь -> youtu.be/lXUZvyajciY
Естественно, там есть что обсудить. Поехали по самым ярким цитатам и мыслям:
Обязательно смотрим полностью здесь -> youtu.be/lXUZvyajciY
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤193👍50🔥24 16✍6🤔6🗿4💯3😁1🤯1
Школа Высшей Математики открывает набор на курс по созданию AI агентов
Обычно подобные курсы часто заканчиваются на этапе теории (ну либо вся практика – это просто no-code инструменты). Но ШВМ сделали практично и хардово, так что смело можно рекомендовать.
– Начнется все с быстрого напоминания того, что вообще такое LLM – с акцентом на особенности и ограничения их как алгоритма
– Дальше будет подробный разбор RAG, алгоритмов векторного поиска и метрик
– А потом начнется основная часть и все самое актуальное: мультиагентные системы, LangGraph и LangChain, MCP, обучение и подкреплением и так далее.
Что особенно нравится: каждую тему объясняют буквально From first principles, то есть математично. Например, когда вы будете проходить мультиагентные системы, то будете анализировать их совместные статистические распределения. Настоящая редкость в индустрии курсов.
Ну и практика, практика, и еще раз практика. В рамках курса вы сами напишете несколько агентных систем – в том числе для ваших собственных задач.
Автор курса и спикер – исследователь данных в Sber, Глеб Шевчук-Генне. Он много занимался файн-тюнингом LLM (в т.ч. GigaChat), внедрением RAG в корпоративные системы, а также проектами в области NLP, CV и мультиагентных систем.
Регистрироваться нужно здесь: ссылка
P.S. Для наших подписиков дали промокод на -25%: DS25🎁
Обычно подобные курсы часто заканчиваются на этапе теории (ну либо вся практика – это просто no-code инструменты). Но ШВМ сделали практично и хардово, так что смело можно рекомендовать.
– Начнется все с быстрого напоминания того, что вообще такое LLM – с акцентом на особенности и ограничения их как алгоритма
– Дальше будет подробный разбор RAG, алгоритмов векторного поиска и метрик
– А потом начнется основная часть и все самое актуальное: мультиагентные системы, LangGraph и LangChain, MCP, обучение и подкреплением и так далее.
Что особенно нравится: каждую тему объясняют буквально From first principles, то есть математично. Например, когда вы будете проходить мультиагентные системы, то будете анализировать их совместные статистические распределения. Настоящая редкость в индустрии курсов.
Ну и практика, практика, и еще раз практика. В рамках курса вы сами напишете несколько агентных систем – в том числе для ваших собственных задач.
Автор курса и спикер – исследователь данных в Sber, Глеб Шевчук-Генне. Он много занимался файн-тюнингом LLM (в т.ч. GigaChat), внедрением RAG в корпоративные системы, а также проектами в области NLP, CV и мультиагентных систем.
Регистрироваться нужно здесь: ссылка
P.S. Для наших подписиков дали промокод на -25%: DS25
Please open Telegram to view this post
VIEW IN TELEGRAM
😁53🗿30❤15👍7🤔3 1
Как Google оптимизируют датацентры с помощью ИИ
Вспомните тетрис. Там нужно уложить фигурки как можно плотнее, чтобы не было пустого места. В облачных датацентрах типа Google Cloud возникает очень похожая задача.
Есть физические сервера, на которых запускаются виртуальные машины для разных задач. Эти ВМ появляются, работают какое-то время и исчезают. При этом кто-то берет ВМ под тест, и она работает 15-20 минут, а кто-то хостит на ней БД месяцами.
Заранее узнать, сколько будет жить ВМ, нельзя. При этом есть конкретная опиимизационная задача: уложить их так, чтобы максимально эффективно и плотно использовать ресурсы. Как в тетрисе.
Простая оптимизация тут не сработает именно из-за наличия неопределенности. Так что Google подумали и прикрутили вероятностную ML-модель.
Она предсказывает распределение вероятностей срока жизни ВМ, основываясь на генеральном распределении (оно, кстати, сильно скошенное), метаданных ВМ, поведении пользователя, способе создания и тд. На выходе мы получаем что-то типа «С вероятностью 80% эта ВМ проживет час, с вероятностью 15% – день, и 5% – дольше недели». Это называется survival analysis.
Занятно, что прогноз динамический и обновляется со временем. Например, если виртуалка всё ещё работает через 10 дней, модель пересматривает оценку.
И вот основываясь на таком предсказанном распределении уже работают опимизационные алгоритмы. Например, планировщик, который пытается переложить несколько одинаковых ВМ на один сервер, чтобы освободить его полностью позже. Или алгоритм, который наоборот ставит короткоживущие ВМ на сервера с долгоживущими, чтобы заполнить мелкие пробелы, которые иначе были бы потеряны.
Ну и метрики. Google уже протестили подход на своих серверах и (внимание!) простои оборудования снизились в среднем на 5%. Представьте, сколько это в долларах🙂
Отличная работа и крутой кейс
research.google/blog/solving-virtual-machine-puzzles-how-ai-is-optimizing-cloud-computing/
Вспомните тетрис. Там нужно уложить фигурки как можно плотнее, чтобы не было пустого места. В облачных датацентрах типа Google Cloud возникает очень похожая задача.
Есть физические сервера, на которых запускаются виртуальные машины для разных задач. Эти ВМ появляются, работают какое-то время и исчезают. При этом кто-то берет ВМ под тест, и она работает 15-20 минут, а кто-то хостит на ней БД месяцами.
Заранее узнать, сколько будет жить ВМ, нельзя. При этом есть конкретная опиимизационная задача: уложить их так, чтобы максимально эффективно и плотно использовать ресурсы. Как в тетрисе.
Простая оптимизация тут не сработает именно из-за наличия неопределенности. Так что Google подумали и прикрутили вероятностную ML-модель.
Она предсказывает распределение вероятностей срока жизни ВМ, основываясь на генеральном распределении (оно, кстати, сильно скошенное), метаданных ВМ, поведении пользователя, способе создания и тд. На выходе мы получаем что-то типа «С вероятностью 80% эта ВМ проживет час, с вероятностью 15% – день, и 5% – дольше недели». Это называется survival analysis.
Занятно, что прогноз динамический и обновляется со временем. Например, если виртуалка всё ещё работает через 10 дней, модель пересматривает оценку.
И вот основываясь на таком предсказанном распределении уже работают опимизационные алгоритмы. Например, планировщик, который пытается переложить несколько одинаковых ВМ на один сервер, чтобы освободить его полностью позже. Или алгоритм, который наоборот ставит короткоживущие ВМ на сервера с долгоживущими, чтобы заполнить мелкие пробелы, которые иначе были бы потеряны.
Ну и метрики. Google уже протестили подход на своих серверах и (внимание!) простои оборудования снизились в среднем на 5%. Представьте, сколько это в долларах
Отличная работа и крутой кейс
research.google/blog/solving-virtual-machine-puzzles-how-ai-is-optimizing-cloud-computing/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤151👍55⚡17🔥12🤯9✍3😁1 1