Книжный куб
11.1K subscribers
2.66K photos
6 videos
3 files
1.96K links
Рекомендации интересных книг, статей и выступлений от Александра Поломодова (@apolomodov), технического директора и эксперта в архитектуре
Download Telegram
У меня даже собака тянется к знаниям:) Ей нравится мое кресло в библиотеке
144👍23🔥12🥰4👎1
Can you prove AI ROI in Software Engineering? (Рубрика #AI)

Буквально недавно Егор Денисов-Бланш (Yegor Denisov-Blanch) выступил на конференции AI Engineer Code Summit 2025 в Нью-Йорке с таким провокационным докладом:) По-факту, это тизер результатов двухлетнего исследования влияния AI-инструментов на продуктивность разработчиков, охватывающего 120 000+ разработчиков в 600+ компаниях (такой охват как минимум внушает доверие). Кстати, предыдущее выступление Егора "Does AI Actually Boost Developer Productivity?" я уже разбирал и часть тезисов полностью повторяются, а точнее вопросы вида
1. Почему существующие оценки продуктивности ненадёжны?
2. Как выглядела методология ребят из Stanford?
3. Главные численные выводы исследования

Но в этом докладе есть и новенькие результаты

1. Медианный прирост продуктивности составляет ~10%, но разброс между лидерами и отстающими постоянно увеличивается.
2. Качество использования AI важнее объёма. Корреляция между количеством потраченных токенов и ростом продуктивности слабая (R² = 0.20). Более того, наблюдается эффект "долины смерти" на уровне 10 млн токенов на инженера в месяц - команды, использующие такой объём, показывают результаты хуже, чем те, кто использует меньше.​
3. Чистота кодовой базы критична для AI. Индекс "чистоты окружения" (Environment Cleanliness Index), учитывающий тесты, типы, документацию, модульность и качество кода, показывает корреляцию R² = 0.40 с приростом продуктивности от AI. Чистый код усиливает эффект от AI, а технический долг его нивелирует.​
4. AI ускоряет энтропию кодовой базы. Бесконтрольное использование AI ускоряет накопление технического долга, что сдвигает кодовую базу в зону, где AI менее эффективен. Требуется активное управление качеством кода для сохранения преимуществ.​
5. Доступ к AI ≠ эффективное использование. В кейсе с двумя бизнес-юнитами одной компании при равном доступе к инструментам использование было сильно разное. Важно измерять не только факт использования, но и как инженеры применяют AI.

Ну и собственно автор предлагает свою методологию для измерения ROI из двух частей
1. Измерение использования
Access-based (кто получил доступ) vs usage-based (телеметрия API). Usage-based - золотой стандарт, позволяющий ретроспективный анализ через git-историю.​
2. Измерение инженерных результатов
- Primary metric: Engineering Output - ML-модель, реплицирующая оценку панели из 10-15 независимых экспертов по сложности, времени реализации и поддерживаемости​
- Guardrail metrics: Rework & Refactoring, Code Quality & Risk, People & DevOps - метрики, которые нужно держать на здоровом уровне, но не максимизировать​

Забавно, что автор категорически против использования PR counts, lines of code и даже DORA как основных метрик продуктивности.​

Ну и если анализировать подход автора, то он содержит сильные и слабые стороны
(+) Исследовательская методология выглядит солидно. ML-модель, реплицирующая экспертные оценки, проверенная на корреляцию с реальными панельными данными - это правильный подход к измерению сложных качественных аспектов кода.
(+) Понимание системных эффектов. Концепция управления энтропией кодовой базы, связь между чистотой кода и эффективностью AI, понимание, что инженеры должны знать, когда не использовать AI
(+) Критика DORA как primary metric обоснована. DORA - это индикаторы процесса, а не результата. Их максимизация может вредить (вспомним Goodhart's Law)
(+)AI Practices Benchmark с уровнями зрелости (от личного использования до агентной оркестрации) показывает понимание эволюции практик.​
(-) Background автора не в чистой разработке - у него отсутствует опыт и образование как инженера
(-) ML-модель как чёрный ящик. Хотя утверждается, что модель коррелирует с экспертными оценками, детали методологии, датасет для обучения, метрики качества модели не раскрыты в докладе
(-) Environment Cleanliness Index экспериментальный. Как именно взвешиваются компоненты индекса? Как он валидирован кроме корреляции с продуктивностью?​

#Engineering #AI #Metrics #Software #DevEx #Productivity
🔥105👍4
Code of Leadership #58 - Interview with Vladimir Malov about tech management and vibe coding (Рубрика #Management)

Интервью с Владимиром Маловым, исполнительным директором финтех‑сервиса рассрочек +7 pay, который прошёл путь от iOS‑разработчика до СТО/СРО в e‑grocery и собрал крупные ИТ‑команды. В этом интервью мы обсудили с Владимиром его карьеру в общем, а также поговорили про подход к вайб-кодингу новых продуктов, а также Владиимир показал мини-демку создания приложения в Lovable. Итого, за полтора часа мы успели обсудить следующие темы

- Введение и знакомство с гостем
- Ранние карьера и "зигзагообразный" путь: Санлайт, Перекрёсток, Лента, Утконос и ценность горизонтальных переходов
- Детство, семья и образование
- Университет и первые уроки ответственности
- Вход в мобайл и первая продуктовая практика в Санлайт.
- Ритейл и онлайн‑доставка: Санлайт, Перекрёсток и Лента
- Переход из разработки в продакт‑менеджмент
- Роли техдира, предпринимательство и риск
- Бигтехи, ожидания и "синдром троечника"
- Любовь к созданию продуктов и появление новых инструментов
- Вайб‑кодинг в продакшене и демо
- Будущее вайб‑кодинга и агентский режим
- Личное, здоровье, фокус и нетворкинг

Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.

P.S.
Владимир ведет интересный канал https://t.me/malov_tech/

#Career #Engineering #Software #Management #Leadership
👍4🔥32
[1/2] AI, DevOps, and Kubernetes: Kelsey Hightower on What's Next (Рубрика #PlatformEngineering)

Посмотрел интервью Келси Хайтауэра с командой JetBrains про состояние индустрии в 2025 году. Помню как лет 7 назад изучал Kubernetes по его репозиторию Kubernetes The Hard Way, который был не прост, но помог мне сдать лабы для получения шилдика CKA (Certified Kubernetes Administrator) первым в компании. Это было в те времена, когда мы с моим коллегой Стасом (гостем из первого выпуска подкаста Code of Leadership), Андреем (гостем 43 выпуска Code ...) и Антоном (гостем 17 выпуска Code ..) продумывали как будем переезжать в Kubernetes с виртуалок:)

Но если возвращаться к Келси, то он уже завершил активную карьеру в Google и теперь может философски размышлять про devops и не только. Я выделил 5 тем, что были интересны мне в этом обсуждении

1️⃣ DevOps: Эволюция или провал?
Келси критически оценивает то, во что превратился DevOps во многих компаниях.
- "Футболка вместо навыков": Многие компании просто переименовали системных администраторов в DevOps-инженеров, не изменив суть работы. "О, теперь я DevOps-инженер, дадут ли мне за это футболку?" — иронизирует Келси.
- Правильная имплементация: DevOps был задуман как "чертеж" (blueprint), предполагающий расширение компетенций. Сисадмины должны были научиться программировать, а разработчики - понимать, как работает операционная система (например, тюнить JVM под ядро Linux).
- Проблема опыта: Келси упоминает людей, у которых "20 лет опыта, состоящих из одного и того же года, повторенного 20 раз" (20 years of one-year experience). Это те, кто просто чинит серверы, не пытаясь автоматизировать или изменить подход.
- Platform Engineering: Это не что-то принципиально новое, а эволюция DevOps. Это переход от "я починю сервер, когда он сломается" к созданию продукта (платформы) для внутренних клиентов.

2️⃣ Kubernetes и «скучные» технологии
- Kubernetes - это скучно (и это хорошо): Для stateless (веб) приложений Kubernetes стал скучным еще 6-7 лет назад. Келси сравнивает инфраструктуру с полетом на самолете: "Самолеты интересны только тогда, когда они делают не то, что мы ожидаем. Если при посадке люди хлопают - значит, что-то пошло не так. Мы хотим просто выйти из самолета и не думать о полете".
- Инфраструктура не должна вызывать восторг: Если ваша инфраструктура вызывает у вас сильные эмоции, значит, вы боретесь с поломками или трением. Восторг должен вызывать продукт, который вы строите поверх неё.
- Будущее Kubernetes: Если через 20–30 лет мы всё еще будем обсуждать Kubernetes, это будет провалом индустрии. Мы должны придумать что-то лучшее. Kubernetes должен стать просто деталью реализации (как BIOS или машинный код), скрытой под более удобными абстракциями.

3️⃣ API, Silos (Колодцы) и взаимодействие команд
Келси делает контринтуитивное заявление: "Мне нравятся silos (изолированные команды)", но при наличии четкого API.
- Аналогия с авиабилетом: Когда вы летите в другую страну, вы не идете в кабину пилота обсуждать маршрут. Вы покупаете билет. Билет - это API (контракт). Вы садитесь в кресло, засыпаете и просыпаетесь в другом месте.
- API как контракт: Платформенная команда и разработчики не должны сидеть рядом и постоянно разговаривать. Они должны взаимодействовать через четкий контракт (API): "Мне нужно столько-то памяти, такой-то регион, такая-то версия".
- Когда нужно общение: Разговаривать нужно только тогда, когда вы хотите изменить API или добавить новую фичу в платформу. Для рутинного деплоя общение - это лишние накладные расходы.
Забавно, что примерно эти же моменты про взаимодествие команд мы разбирали со Стасом Халупом в первом выпуске Code of Leadership.

Оставшиеся темы про AI и важность soft skills обсудим в продолжении разбора этого крутого интервью.

#Management #Leadership #PlatformEngineering #Software #SoftwareDevelopment #Architecture #Processes
10👍6🔥5
[2/2] AI, DevOps, and Kubernetes: Kelsey Hightower on What's Next (Рубрика #PlatformEngineering)

В продолжении разбора интервью Келси нужно упомянуть темы AI и важности soft skills

4️⃣ Искусственный интеллект (AI)
Хайтауэр скептичен к хайпу, но видит фундаментальную пользу.
- AI как новый DSL: Келси смеется над "Prompt Engineering", когда люди чекинят в git 500 markdown-файлов с промптами и версионируют их. По сути, мы изобрели еще один, очень нестабильный язык программирования.
- Недетерминированность: Всю карьеру инженеры боролись за предсказуемость (тесты, идемпотентность), а теперь мы внедряем AI, который по своей природе вероятностный ("Зачем гадать, если можно знать наверняка?").
- Главная польза AI: Он заставил вендоров и разработчиков наконец-то написать нормальные API и документацию, чтобы LLM могли с ними работать. То, что мы должны были сделать для людей (хорошие доки и интерфейсы), мы теперь делаем для роботов.
- Guardrails (Ограничения): В итоге все равно все сводится к созданию жестких рамок (guardrails), чтобы заставить AI выдавать предсказуемый, "скучный" результат.

5️⃣Развитие: Человек vs Инженер
В конце интервью фокус смещается на soft skills и личностный рост.
- Командный спорт: Келси сравнивает работу в IT с баскетболом или футболом, а не с легкой атлетикой. В беге ты побеждаешь или проигрываешь один. В IT, каким бы крутым инженером ты ни был, ты зависишь от команды.
- Эмпатия: Это не просто "быть милым". Это понимание того, что если разработчик боится деплоить в пятницу, проблема может быть не в его трусости, а в ненадежности платформы, которую вы построили.
- Профессионализм и «Ящик с инструментами»: Не будьте просто «коллекционером» инструментов. Профессионал регулярно перебирает свой ящик с инструментами (toolbox), чистит их и выбрасывает ненужные.
- Дисциплина важнее любопытства: В профессиональной среде нельзя тащить в продакшн Rust или новую технологию только потому, что вам "любопытно". Выбирайте инструменты, которые решают задачу бизнеса, а не тешают эго инженера.

#Management #Leadership #PlatformEngineering #Software #SoftwareDevelopment #Architecture #Processes
🔥106👍42
Вселенная. Путешествие во времени (Рубрика #PopularScience)

Прочитал с большим удовольствием эту книгу Сергея Арктуровича Язева, российского астронома, что много лет руководит Астрономической обсерваторией Иркутского государственного университета и связан с Институтом солнечно‑земной физики СО РАН. Интересно, что Сергей - потомственный астроном и практически живет в своей предметной области, умеет ее популяризировать и держать дисциплину научного метода.

Сама книга вышла в 2020 году в издательстве Питер и была задумана как путешествие по разным научным парадигмам восприятия космоса от древнего мира к текущим концепциям:) Автор умеет показывать как менялись взгляды человечества, и отдельно проговаривает, почему базовым физическим законам имеет смысл доверять (смысл примерно как в поговорке "доверяй, но проверяй").

Сама книга обладает рядом плюсов
- Онасостоит из двух частей и развивается от простого к сложному
- Через весь текст проходит таймлайн, связывающий события мировой истории и астрономические открытия
- В книге превосходные иллюстрации Евгения Муретова, которые отлично поддерживают повествование
Вообще, история и усложнение концепций напоминает мне progressive jpeg, когда детали картины отрисовываются постепенно.

Часть 1: от Вселенной древнего мира к Вселенной, управляемой физикой
Первая часть - это путь от концепций мира древних и философских конструкций к миру, где начинают работать:
- Наблюдение и измерение (вместо авторитетов и мифов)
- Математика как язык модели
- Универсальные законы (одни и те же правила для яблока, Луны и планет -это ключевой перелом мышления).
Книга буквально ставит вехи от главы «Вселенная Древнего мира» к главе "Вселенная, управляемая физикой", причем если проводить параллели, то
- Древняя картина мира - это “монолит”, где объяснение часто неотделимо от культуры и веры
- Научная картина выглядит модульно, состоя из цикла: измерения → гипотеза → модель → предсказания → проверка → рефакторинг модели

Отдельно круто, что Язев не просто перечисляет открытия, а показывает почему без научного метода тысячелетиями нельзя было достоверно узнать устройство мира - то есть объясняет сам механизм прогресса, а не только результаты.

Часть 2: от относительной Вселенной к разгоняющейся - и дальше, к открытым вопросам
Вторая часть начинается с качественного скачка сложности: мы больше не пытаемся "подкрутить старую модель", а меняем базовые предпосылки, что похоже на смену платформы (на эту тему можно почитать книгу Томаса Куна "Структура научных революций"). Начинается все с главы "Вселенная относительная", а дальше история проходит через ключевые “релизы” современной космологии - расширение, горячее начало (Большой взрыв), инфляция - и выходит к главе "Вселенная разгоняющаяся", а финализируется все Вселенной открытых вопросов. Здесь особенно хорошо ощущается логика
- Относительность меняет то, что считаем “базовым API” пространства‑времени
- Расширение переводит космологию из статической картинки в динамическую систему (с параметрами, которые нужно измерять, а не “объявлять”)
- Инфляция - попытка закрыть конкретные баги стандартной модели (плоскостность/горизонт и т. п.) с помощью гипотезы, которая должна быть совместима с наблюдениями
- Ускоренное расширение (“разгоняющаяся Вселенная”) добавляет в модель компоненту, природа которой понятна не до конца - и это честно выводит читателя к границе знания

В итоге, книга мне безусловно понравилась - автор интересно, последовательно и понятно объясняет сложные концепции. Я бы хотел уметь в таком стиле рассказывать их своим детям:)


#PopularScience #Physics #Science #Math
18🔥7👍5
Искусственный интеллект в России — 2025: тренды и перспективы (Рубрика #AI)

В эти выходные я внимательно прочитал полный отчет, который подготовили консалтинговая компания «Яков и Партнёры» совместно с Яндексом (бизнес-взгляд + технологическая экспертиза). Отчет опирается на три источника данных: опрос 150 технических директоров крупных компаний (из 16 отраслей), опрос 150 вендоров AI решений, опрос 3500+ жителей России. Кроме этого были проведены глубинные интервью с лидерами индустрий - чтобы заглянуть под поверхность цифр. Краткий разбор результатов есть на лендинге организаторов, где есть цитаты вида
Согласно опросу СТО, за два года генеративный ИИ вышел далеко за рамки точечных экспериментов: среднее количество функций, где запущены пилоты или полное внедрение, выросло с 2,4 в 2023 г. до 3,1 в 2025-м, а сама технология используется уже в 80% ключевых бизнес-функций

Про восприятие таких цитат я уже упоминал в посте "Опросы руководителей и связь с реальностью", но сегодня я расскажу про общую структуру отчета и те моменты, что показались мне интересными:
- Авторы исследовали четыре ключевых направления развития ИИ к 2025 году: genAI, NLP & Speech, CV, RecSys. Эти технологии используются в компаниях и являются драйверами роста. В самом отчете разюираются тренды по каждому из этих направлений
- Структура отчета примечательна
-- Сначала приводится картина общего состояния рынка AI в России и уровня внедрения технологий, с оценкой экономических эффектов от внедрения ИИ
-- Далее следуют детальные главы по каждой из 4 технологий: где используются, как прогрессируют, какие кейсы наиболее популярны
-- В заключении авторы делятся общим саммари и своим взглядом на будущее, а также приводят рекомендации для всех
Основные выводы можно почерпнуть из заключения и я попробую их тезисно рассказать

Генеративный ИИ - это горизонтальная платформа
Авторы подчёркивают, что GenAI теперь рассматривается не как отдельная технология, а как горизонтальная основа, которая пронизывает и преобразует все остальные направления (NLP, CV, RecSys). GenAI становятся универсальной средой, на базе которой можно решать самые разные задачи.

Эра foundation-моделей и агентных систем.
Рынок вступает в новую фазу, где на сцене доминируют базовые модели (foundation models) и автономные ИИ-агенты. Современные большие модели больше не пассивные хранилища знаний - они превращаются в активных исполнителей. Появляются протоколы взаимодействия между ними, и вместо привычных приложений мы всё чаще будем работать с умными сервисами, которые действуют от нашего имени.

Барьеры внедрения AI уже на только в “железе”
Если раньше главными ограничениями были технологии и доступ к мощностям, то теперь ключевые барьеры - организационные и инфраструктурные. Внедрению ИИ мешают не отсутствующие алгоритмы, а стоимость масштабирования (инфраструктура, инференс, перестройка процессов) и консерватизм компаний и пользователей.

Будущее AI в РФ по версии авторов: перспективы весьма оптимистичные
Российская AI-экосистема входит в фазу масштабирования. По оценкам, к 2030 году эффект от ИИ для экономики РФ может достигнуть 7,9–12,8 трлн ₽ в год (≈5,5% ВВП) - это сопоставимо с прибылью всей банковской отрасли! При этом дело не только в снижении затрат, но и в росте выручки за счёт новых продуктов и персонализации сервисов. Авторы уверены: через несколько лет внедрение ИИ станет вопросом выживания для большинства компаний

В конце авторы отчета раздали советы всем
- Бизнесу - строить единые AI-платформы для моделей/данных/инструментов, по возможности в облаке для гибкости. Фокусироваться на нескольких приоритетных кейсах внедрения и трезво планировать эффект (12–24 мес на окупаемость, а не ждать чудес завтра).
- Государству - расширить меры поддержки AI-инициатив: гранты, субсидии на R&D, налоговые льготы и доступное финансирование, ...
- Пользователям - не отставать: системно осваивать AI-инструменты в учёбе и работе, прокачивать навыки работы с данными и критически оценивать результаты работы моделей.

#Engineering #AI #Metrics #Software #Productivity #Economics
👍86🔥3🏆1
Утром я рассказывал про отчет "Искусственный интеллект в России — 2025: тренды и перспективы", который у бывших ребят из McKinsey и Yandex вышел на целых 120 страниц. Размер конечно внушает, но полный отчет редко кто читает - обычно читают краткое саммари с лендинга.

А вот я люблю читать оригинальные версии, чтобы понимать методологию, сами результаты и самому составлять мнение о выводах. Иногда такая методичность позволяет находить абсурдное содержимое (иногда в методологии, иногда в неакурратном копи-пастинге). В этот раз copy-paste был кривоват и в разделе про NLP был приведен абсурдный кейс "Поиск товаров по фото (маркетинг и продажи)" с описанием вида
Система с помощью ИИ анализирует тексты отзывов и обращений, выявляет темы, эмоции и причины недовольства. Отчеты формируются автоматически и помогают выявлять проблемные зоны и точки роста сервиса

Явно видно, что тут был кейс про выделение интентов, но copy paste прошел неудачно - забыли заменить название кейса из раздела CV, что приведен через 15 страниц с правильным описанием. Похожая проблема есть и в других частях, где график показывает финансовые эффекты от внедрения технологий, а заголовок описывает график как сложности, которые видит компании во внедрении технологий.

В общем, читайте расширенные версии отчетов и анализируете что именно делают авторы и не ограничивайте себя executive summary с лендингов:)

#Engineering #AI #Metrics #Software #Productivity #Economics
👍8😁63🔥2
Основы глубокого обучения (Fundamentals of Deep Learning) (Рубрика #AI)

Недавно я дочитал первое изданние этой книги, что вышла на английском еще в далеком 2017 году:) Автор в 20 лет закончил MIT, в 2016 стартанул компанию Remedy для применения ИИ в здравоохранении, а в 2020 году - Ambience Healthcare, разрабатывающую «ambient AI» платформу, помогающую врачам автоматизировать рутинную документацию. Еще он известен в сообществе ИИ как автор одной из первых популярных книг по глубокому обучению.

Если говорить про книгу, то я прикупил ее лет 5 назад, потому, что мне понравилось доступность изложения, я полистал ее, а потом отложил, прочитав половину книги и дальше никак не мог дочитать. За время "чтения" вышло второе обновленное издание книги в мае 2022 года, а я дочитал ее только вчера. В первом издании книги хорошо раскрыты многие начальные моменты и "state of the art" до момента появления "Attention is all you need", поэтому с одной стороны она серьезно подустарела, а с другой она неплохо охватывает уже классические темы от основ математического аппарата до построения и обучения разных типов нейросетей. В начале рассматриваются необходимые элементы линейной алгебры и теории вероятностей, после чего вводится понятие нейронных сетей и алгоритм обратного распространения ошибки. После этотго автор знакомит читателей с классическими архитектурами: полносвязные сети и вопросы их обучения (градиентный спуск, проблема переобучения и т.п.), сверточные нейронные сети для анализа изображений, модели для анализа последовательностей (рекуррентные сети, обработка естественного языка), а также методы снижения размерности (например, автоэнкодеры). Отдельные главы посвящены генеративным моделям (включая основы GAN/Variational Autoencoder), интерпретируемости моделей и даже обсуждаются базовые идеи обучения с подкреплением.

Книга носит прикладной характер: ключевые идеи подкреплены примерами кода на Python. В первом издании (2017) для иллюстраций использовалась библиотека TensorFlow, а во втором издании 2022 года примеры обновлены на PyTorch (что отражено в добавленной главе об имплементации сетей в PyTorch). Код примеров открыт - читатель может не только изучить теорию, но и сразу попробовать реализовать основные модели нейросетей своими руками.

В целом, тематический охват книги достаточно широкий, позволяя получить цельное представление о глубоком обучении: от базовой математики до основных типов нейросетевых архитектур и их применения на практике. В 2017 году книга была хорошо принята аудиторией и общее мнение было таким, что Будума смог объяснить сложные вещи простым языком. Но если говорить про актуальность информации, то даже второе издание не содержит обзора cutting-edge технологий 2020-х годов. С другой стороны, имея фундаментальные знания из "Основ глубокого обучения", читателю будет гораздо легче освоить и трансформеры по материалам интернета или специализированным главам других книг. В общем, для начинающих второе издание книги от 2022 года может быть полезно.

#AI #ML #Data #Engineering #Software
👍115🔥4
Code World Model: Building World Models for Computation (Рубрика #Software)

Посмотрел интересный доклад Jacob Kahn, исследователя из FAIR (что является частью запрещенной в России компании Meta). В этом докладе Якоб представляет сдвиг парадигмы в обучении моделей для генерации кода: переход от обучения на синтаксисе к обучению на семантике через world modeling. Расширенную версию этого концепта можно почитать в whitepaper, а также потрогать в репо на GitHub. Если же говорить про ключевые идеи выступления, то они такие

1️⃣ Критика текущего подхода
Большинство нейронных моделей для кода учатся на самом коде - последовательностях токенов, которые отражают синтаксис, а не вычисления. Это позволяет моделям освоить "форму" кода, но настоящее рассуждение о программах требует понимания исполнения и динамики вычислений.

2️⃣ World modeling для кода

CWM (code world model) воплощает подход, где модель обучается не только на статическом коде, но и на данных исполнения программ (observation-action trajectories). Это включает трейсы выполнения Python (где действия - это Python-выражения, а наблюдения - содержимое локальных переменных) и агентные взаимодействия в Docker-окружениях.

3️⃣ Архитектура модели и ее обучение

Модель имеет 32 миллиарда параметров с уникальной системой чередующегося внимания (local attention с окном 8192 токена и global attention с окном 131072 токена в соотношении 3:1). Обучение состоит из трёх этапов: pre-training, mid-training на 5 триллионах токенов данных world modeling, и post-training с reinforcement learning через GRPO на ~172 миллиардах токенов.

4️⃣ Новые возможности
CWM может служить "нейронным отладчиком" - симулировать исполнение кода шаг за шагом, предсказывать значения переменных без реального запуска, самостоятельно тестировать и исправлять код.

Меня заинтересовала история амбициозного названия про "world model" и оказалось, что это название обусловлено несколькими причинами
- Название отсылает к классической работе Ha & Schmidhuber (2018) "World Models", которая предложила обучать модели на сжатых пространственных и временных представлениях среды в reinforcement learning. CWM переносит эту идею в область кода - среда теперь это вычислительная система.
- Доклад и статья позиционируют CWM как "фундамент для будущих исследований и прототипирования в AI-driven software systems". Это заявка на создание новой исследовательской парадигмы, а не просто улучшенной модели.
- Meta активно продвигает концепцию world models через разные проекты команды - от Chameleon (multimodal early-fusion модели) до Transfusion (комбинация language modeling и diffusion). Причем Jacob Kahn, спикер этого доклада, был соавтором обоих этих проектов:)

Если добавить немного дегтя во все саммари, то пока неясно насколько возможности world modeling capabilities переносятся на языки программирования, что модель не видела, на сложные кодовые базы и на долгосрочную поддержку созданного кода.Необходимость трёхэтапного RL с self-bootstrapping для достижения заявленных результатов поднимает вопрос: это фундаментальное преимущество или просто следствие масштаба и тщательной работы с данными. Но в любом случае это интересная научная работа, которая обладает большим потенциалом и будет интересно следить за развитием этой идеи.

#Engineering #AI #Software #ML #Whitepaper
5🔥4👍1
Meta’s Yann LeCun targets €3bn valuation for AI start-up (Рубрика #AI)

В статье рассказывается про новый стартап Яна Лекуна, одного из двух главных учёных по ИИ в запрещенной в России компании Meta. С 2013 года он возглавлял исследовательскую лабораторию FAIR в Facebook/Meta, которая под его руководством стала одной из ведущих в мире, но в конце этого года он уходит. А уходит он в свой стартап Advanced Machine Intelligence Labs (AMI Labs) и поднимает на него €500 млн при оценке порядка €3 млрд. Основной замысел - построить "следующее поколение" ИИ, которое будет лучше понимать физический и причинно-следственный мир, а не просто предсказывать следующий токен, как это делают современные LLM.

Интересно, что уход Лекуна происходит на фоне крупной реорганизации внутри Meta, которую я уже разбирал. Если кратко, то Марк Цукерберг переориентировал Meta AI с долгосрочных исследований на быструю коммерциализацию ИИ-продуктов. Летом 2025 года в компании появилось новое подразделение - Meta Superintelligence Labs под руководством приглашенного извне специалиста Александра Вана. А дальше Meta направила огромные ресурсы на разработку больших языковых моделей, активно переманивая ведущих экспертов. Одновременно было сокращено или переведено около 600 сотрудников исследовательского подразделения, и компания лишилась нескольких ключевых ученых. В такой обстановке фундаментальные проекты Лекуна отошли на периферию, и ему стало значительно труднее получить ресурсы на свою работу. Его уход символизирует конфликт между погоней за мгновенным результатом и долгосрочными амбициями в исследованиях ИИ

Если говорить про Advanced Machine Intelligence Labs, то стартап планирует официально объявить о себе публично в начале 2026 года и стать одним из ключевых игроков нового поколения в AI-индустрии, конкурируя не только технологиями, но и видением того, каким должен быть интеллект в машинах.

P.S.
Кстати, Code World Model, про которую я писал сегодня - это пример работы FAIR на тему "world model", за которые топит Ян Лекун

#AI #ML #Software #Economics #Engineering #Management #Leadership #Future #Startup
👍5🔥42