Книжный куб
11.1K subscribers
2.66K photos
6 videos
3 files
1.96K links
Рекомендации интересных книг, статей и выступлений от Александра Поломодова (@apolomodov), технического директора и эксперта в архитектуре
Download Telegram
[1/2] Сравнение книг "Китайский взгляд на мир" и "Китайская модель: ретроспектива и перспектива"

Интересно сравнить труд Ли Даокуя с книгой российского экономиста Владимира Попова «Китайская модель. Ретроспектива и перспектива». Обе книги я прочитал недавно и оба автора пишут про развитие Китая, но с несколько разных ракурсов - внутреннего китайского и внешнего (российского) - и их выводы дополняют друг друга.

Общие черты и точки соприкосновения

1️⃣ Признание успеха китайской модели
Ли Даокуй и Владимир Попов сходятся в том, что опыт Китая последних десятилетий - уникально успешный. Попов прямо ставит вопрос: не является ли китайская социально-экономическая модель более конкурентоспособной, чем либеральная западная? Ли, в свою очередь, всю книгу доказывает, что китайская система эффективна (хоть и специфична) и вовсе не обречена на провал, как думали раньше на Западе. Оба автора таким образом оспаривают западные стереотипы: Ли - миф об агрессивности и негибкости Китая, Попов - миф, что только либеральная модель ведёт к процветанию. Оба подчеркивают исторические корни китайского пути: Ли - через конфуцианство и традиции, Попов - через анализ «азиатских ценностей» и коллективистской культуры

2️⃣ Критика западоцентричных объяснений истории
Попов в своей книге делает акцент на исторической экономике: он утверждает, что возвышение Запада с XVIII–XIX вв. было обусловлено не превосходством свободы или демократии, а жесткой мобилизацией ресурсов - повышением нормы сбережений, промышленной революцией ценой роста неравенства и разрушения традиционных общин. Ли Даокуй менее детально разбирает историю, но сходные мотивы есть - он неоднократно намекает, что Запад не должен считать свои ценности универсальным мерилом прогресса, потому что путь Китая другой, но тоже успешный. Оба автора, по сути, провозглашают плюрализм путей развития: нет единственно верной модели - китайская система с сильным государством тоже доказала свою результативность.

3️⃣ Будущее соревнование моделей и риск конфликта
Здесь позиции Ли и Попова перекликаются, хотя оттенки разные. Попов прямо спрашивает: чем закончится соревнование коллективистской восточноазиатской модели и либеральной западной, которое мы наблюдаем? Он отмечает, что западная модель сейчас сталкивается с трудностями, проигрывая в ряде аспектов Восточной Азии - особенно из-за нежелания Запада поступаться ничем ради общего блага (он упоминает отказ от ограничений выбросов, нарастание популизма, нежелание обуздать неравенство). Ли Даокуй более оптимистичен: он надеется на мирное сосуществование, а не жесткую конкуренцию до победы одного из укладов. Тем не менее, он тоже признаёт существование напряжённости и необходимости ее смягчения. Фактически, Попов описывает ту же ситуацию соревнования, что тревожит Ли, только Попов как исследователь холоднее констатирует факты, а Ли как публицист призывает снять напряжение.

В продолжении я говорю про отличие подходов авторов и их выводов.

#Economics #Strategy #Processes #History #PopularScience
5🔥42👍1
[2/2] Сравнение книг "Китайский взгляд на мир" и "Китайская модель: ретроспектива и перспектива"

Продолжая сравнение книг, нельзя не рассказать об отличиях в подходах авторов

1️⃣ Инсайдер vs аналитик со стороны
Ли Даокуй - китайский инсайдер, пишущий для внешней аудитории. Его книга носит характер объяснения и отчасти оправдания позиции Китая. Попов - внешний наблюдатель, хоть и благожелательно настроенный к Китаю. Он изучает китайскую модель сравнительно, соотнося её с другими странами (Японией, Кореей, СССР, Западом). Поэтому у Ли тон более апологетический, у Попова - аналитический. Например, Попов прямо говорит о недостатках Запада и преимуществах Востока в цифрах и теориях, а Ли старается не противопоставлять, а уверять, что все могут выиграть вместе. В этом смысле Попов менее дипломатичен: он фактически утверждает, что либеральный Запад утратил былую эффективность, пока Китай и Азия рвутся вперёд. Ли же избегает деклараций о чьём-то упадке, он мягко намекает, что Западу пора перестать бояться Китая.

2️⃣ Фокус на экономике vs политике
Попова интересует: почему и как Китай вырос, а Ли - что этот рост значит для мира. Например, Попов разбирает, почему Китай отстал в XIX веке (колониализм, опиумные войны) и догнал в XX (индустриализация, реформы Дэн Сяопина). Ли эти детали затрагивает лишь в контексте влияния истории на современность, но не углубляется в статистику прошлого. Зато Ли больше внимания уделяет внутриполитическим механизмам (роль КПК, борьба с коррупцией, региональное управление), тогда как у Попова эти темы второстепенны. Таким образом, Попов строит макроисторическую теорию, а Ли пишет политико-экономическое эссе.

3️⃣ Оценка возмлжности экспорта модели
Попов рассматривает вопрос, станет ли китайская модель доминирующей глобально. У него сквозит мысль, что если она объективно эффективнее, то другие страны могут перенимать элементы (и некоторые уже перенимают, например, авторитарный капитализм в Юго-Восточной Азии). Ли наоборот подчёркивает уникальность и непересаживаемость китайской системы. Он даже успокаивает: мол, Китай никого не учит жить, каждый народ сам выберет путь. Здесь видна разница цели: Попов пишет для тех, кто ищет уроки развития (в том числе, возможно, для России, какой путь выбрать), а Ли - для тех, кто опасается китайской экспансии. Поэтому Попов более открыто говорит о конкуренции моделей, а Ли избегает этого термина, предпочитая говорить о взаимодополняемости.

4️⃣ Значение для России

У Попова тема России присутствует косвенно - он скорее сравнивает модели, но, конечно, между строк читается, что Россия могла бы извлечь урок из восточноазиатского опыта (например, сильное государство + рыночная экономика). Ли Даокуй про Россию упоминает лишь бегло (когда говорит, что в XIX веке Китай отставал даже от Российской империи), но для России его книга ценна именно взглядом китайца на мир, где Россия - часть не Запада, а евразийского пространства, и потенциальный партнер.

Подводя итог, обе книги взаимно дополняют друг друга. Дэвид Ли Даокуй дает «китайский взгляд» изнутри – эмоционально окрашенный, убедительный, но местами односторонний, отражающий официальную позицию Пекина. Владимир Попов дает «взгляд со стороны» – более критичный и теоретически выверенный, стремящийся объяснить феномен Китая с научной точки зрения и спрогнозировать глобальные изменения. Если сравнить выводы: Ли верит в гармонию, Попов констатирует смену баланса сил.

#Economics #Strategy #Processes #History #PopularScience
6🔥61
The Thinking Game (Рубрика #AI)

Я очень люблю смотреть документальные фильмы про технологии и ученых, поэтому с большим интересом посмотрел этот фильм режиссёра Greg Kohs про AGI, DeepMind и персонально Demis Hassabis. На самом деле "The Thinking Game" создавался на протяжении пяти лет той же самой командой, которая ранее получила признание за документальный фильм "AlphaGo", о котором я уже рассказывал. Фильм показывали на фестивалях в 2024 году, а в конце ноября 2025 года он вышел на Youtube.

Для меня название этого фильма перекликается с фильмом "The imitation game" про Алана Тьюринга и его классическим whitepaper "Computing machinery and intelligence", про который я уже рассказывал. Но если фильм про Алана только основан на реальных событиях, то фильм про Демиса документальныйы и погружает нас в реальную атмосферу лондонской лаборатории DeepMind и показывает, как команда работает над AGI. Фильм сочетает повествование о научных прорывах DeepMind с элементами биографии самого Хассабиса. Мы узнаём о ранних годах Демиса: его детском увлечении шахматами и видеоиграми, победах в турнирах и становлении как одарённого программиста. Эти личные истории переплетены с историей компании, демонстрируя, как юношеская страсть Хассабиса к играм и интерес к работе мозга переросли в амбициозный проект по созданию разумных алгоритмов.

В документальной ленте задействованы реальные люди
- Демис Хассабис - сооснователь и генеральный директор DeepMind, вокруг которого крутится сюжет
- Шейн Легг (Shane Legg) – сооснователь DeepMind и давний коллега Хассабиса, который вспоминает о старте компании
- Ведущие ученые: David Silver - ведущий разработчик программы AlphaGo, Корай Кавуккуоглу (Koray Kavukcuoglu) - один из руководителей исследований DeepMind, Рая Хадселл (Raia Hadsell) - специалиста по робототехнике, Джон Джампер - лид проекта AlphaFold, что разделил с Демисом Нобелевскую премию по химии за 2024 год.
- Эрик Шмидт (Eric Schmidt) - бывший генеральный директор Google, который освещает связь Google с DeepMind и значение их разработок
- Стюарт Рассел (Stuart J. Russell), известный эксперт по ИИ и соавтор классического учебника по AI (в этом учебнике его соавтором был Питер Норвиг, экс director of research and search quality в Google, автор статьи 2012 года "Google's Hybrid Approach to Research", которую я разбирал )

В фильме рассматривались следующие ключевые моменты
- Создание DeepMind в 2010 году совместно Демисом Хассабисом, Шейном Леггом и Мустафой Сулейманом
- Google в 2014 покупает компанию за 400 млн долларов. С этого момента DeepMind стала частью Google (ныне Google DeepMind), получив доступ к огромным вычислительным ресурсам для своих исследований
- Прорывы в играх: AlphaGo и AlphaZero. AlphaGo обыграла легендарного чемпиона мира Ли Седоля в 2016 году, а в 2017 году и китайского чемпиона Кэ Цзе, сильнейшего в мире игрока в го. Матч транслировался в Китае в прямом эфире, но дальше эфир был прерван, когда компьютер победил. Дальше был уход в сторону от партий людей и улучшенная версию AlphaGo Zero уже обучалась играть самостоятельно без данных от человеческих партий.
- Прорывы в науке: AlphaFold и другие проекты. Фильм подробно освещает проект AlphaFold, направленный на предсказание пространственной структуры белка по его аминокислотной последовательности - проблему, над которой учёные безуспешно бились десятилетиями. Кстати, про эту проблему есть интересная научно-популярная книга "От оргазма до бессмертия. Записки драг-дизайнера", о которой я уже рассказывал. Именно за AlphaFold Демис и Джон Джампер получили Нобелевку, кстати, выступление Джона "Next-Gen AI for Science" я уже разбирал раньше.

Кстати, фильм вышел на экраны кинофестивалей в 2024 году, поэтому дальнейшая история в нем не упоминается. Но уже в 2025 году вышло продолжение исследований команды в виде AlphaEvolve - агента для решения оптимизационных задач через написание кода. Я рассказывал об этом прорыве раньше.

Итого, фильм мне понравился, рекомендую его к просмотру.

#AI #Software #Engineering #Architecture #Agents #Math #Software #ML #Documentary
👍84🔥31
Разработка софта в 2030 году: гипотезы о (не)светлом будущем (Рубрика #AI)

В воскресенье буду выступать на конференции для студентов и выпускников ИТМО с таким докладом. Анонс от меня звучит примерно так
С 2022 года с нами технология, которая стремительно изменяет мир вокруг нас. И если раньше мы на стороне IT высутпали как драйверы изменений, цифровизируя все вокруг, то теперь и само IT трансформируется с внедрением AI. В этом докладе я хотел обсудить, а что нас ждет в будущем и как будет выглядеть разработка через пять лет. Доклад будет продолжать мысли из моих выступлений
- Интегрируем AI в процессы разработки в большой компании летом на на CTO Conf
- AI в SDLC: путь от ассистентов к агентам осенью на AI Boost Conf


После возвращения из Питера планирую как обычно записать расширенную версию этого выступления для своего канала и опубликовать его здесь:)

#AI #PlatformEngineering #Engineering #Software #Processes #Productivity
1👍22🔥76
No Vibes Allowed: Solving Hard Problems in Complex Codebases (Рубрика #AI)

Интересное выступление от Dex Horthy, основателя компании HumanLayer, разрабатывающей инструменты для AI-assisted разработки. Его предыдущий доклад "12 Factor Agents: Patterns of reliable LLM applications" (см. мой разбор) в июне 2025 стал одним из самых популярных на конференции. Именно ему приписывают популяризацию термина "context engineering".

Исследование Stanford показало неприятную правду об AI-инструментах для кодинга (это было в выступлении "Does AI Actually Boost Developer Productivity?" от Yegor Denisov-Blanch, про которое я уже рассказывал)
- Большая часть "дополнительного кода", написанного с помощью AI - это переработка slop'а, который был написан до этого
- Агенты отлично работают на новых проектах, но в больших legacy-кодовых базах часто делают разработчиков менее продуктивными

Для решения этих проблем автор рассказывает про context engineering
- LLM - это stateless системы. Единственный способ получить лучший результат - подать лучший контекст на вход. При каждом вызове модель выбирает следующий шаг исключительно на основе того, что находится в текущем контексте.​
- "Dumb Zone". У контекстного окна есть практический предел. После ~40% заполнения начинается деградация качества ответов. Если у вас подключено много MCP-инструментов, которые забивают контекст JSON'ами и UUID'ами - вы постоянно работаете в dumb zone.​
- Методология: Research → Plan → Implement. Вместо наивного подхода "попросил → получил slop → поругался → попросил снова" команда Dex'а использует частую намеренную компактизацию контекста:
-- Research - понимание системы, поиск нужных файлов. Результат сжимается в markdown с конкретными файлами и номерами строк.​
-- Plan - детальный план с code snippets того, что именно будет изменено. Чем конкретнее план, тем надёжнее выполнение.​
-- Implement - выполнение плана. Если план хороший, даже "тупая" модель справится.​
- Напоследок автор рассказывает про практические результаты вида: за 7 часов субботней сессии отправили 35,000 строк кода в проект BAML (300k LOC Rust) - обычно это была работа на 1-2 недели​

Практические советы от автора
- Sub-agents - не для ролей, а для контроля контекста. Не создавайте "frontend agent" и "backend agent". Используйте sub-agents для изоляции тяжёлых операций чтения кодовой базы, возвращая только сжатый результат.​
- Прогрессивное раскрытие контекста. Вместо одного огромного файла документации в корне репозитория - размещайте контекстные файлы на каждом уровне, подгружая только релевантное.​
- On-demand сжатый контекст лучше статичной документации. Документация устаревает и врёт. Код - источник истины. Генерируйте research-документы на лету из реального кода.​
- Trajectory matters. Если вы 5 раз поругали модель в одном контексте - она "научилась", что следующий шаг = ошибка + ругань. Лучше начать новый контекст.​
- Культурные изменения должны идти сверху. Если вы технический лидер - выберите один инструмент и набивайте практику. Не прыгайте между Claude Code, Cursor и Codex

Главный вывод из выступления примерно такой
AI cannot replace thinking. It can only amplify the thinking you have done - or the lack of thinking you have done.

#Engineering #AI #Metrics #Software #DevEx #Productivity
👍15🔥95
[1/2] Defying Gravity (Рубрика #AI)

Это интересное выступление про новую IDE "Antigravity" от Кевина Хоу, руководителя продуктовой инженерии Google Antigravity в Google DeepMind. До лета 2025 года Кевин возглавлял продуктовую инженерию в Windsurf (бывший Codeium), а потом Google приобрёл команду Windsurf за $2,4 млрд именно для создания Antigravity.​​ В этом выступлении Хоу описывает эволюцию AI-инструментов для разработчиков как последовательность скачков, каждый из которых был связан с улучшением моделей:​
1️⃣ Автокомплит (GitHub Copilot)
2️⃣ Чат (ChatGPT с RLHF)
3️⃣ Агенты (Antigravity)


Antigravity запущен 18 ноября 2025 года вместе с Gemini 3 Pro и позиционируется не просто как редактор с AI-функциями, а "агент-ориентированная платформа", где автономные агенты становятся полноценными партнёрами по разработке.​​ В этой IDE есть три составляющие
1️⃣ Agent Manager - центральный хаб управления агентами. Это inbox для задач, требующих внимания (например, подтверждение команд терминала), с OS-уведомлениями и возможностью управлять несколькими агентами параллельно.
2️⃣ AI Editor - форк VS Code с быстрым автокомплитом и агентской боковой панелью. Переключение между Editor и Agent Manager занимает <100 мс (Cmd/Ctrl+E).
3️⃣ Agent-Controlled Browser - автоматизированный Chrome, который агент использует для:
- Получения контекста (доступ к Google Docs, GitHub dashboards с вашей аутентификацией)
- Верификации результатов (клики, скроллинг, выполнение JavaScript для тестирования приложений)
- Записи видео действий вместо показа diff'ов кода

IDE предлагает новый паттерн для взаимодействия посредством концепции Artifacts - это динамические визуальные представления работы агента:
- Типы артефактов: планы реализации (как PRD, product requirement definitions), task-листы, архитектурные диаграммы Mermaid, скриншоты, видеозаписи браузера, walkthrough'ы (финальные отчёты как PR description)
- Динамичность: модель сама решает, нужен ли артефакт, какого типа, кто должен его видеть (другие агенты, conversations, база знаний)
- Feedback-система: можно оставлять комментарии в стиле Google Docs / Figma - выделять текст или области на изображениях, батчить правки и отправлять агенту, не прерывая выполнение задачи​

Раньше для отслеживания за роботой агентов надо было читать простыню chain-of-thoughts, что было тяжеловато. А вот артефакты дают визуальное представление прогресса - это похоже на PowerPoint для презентаций.

Продукт построен на возможнотях Gemini 3 Pro и предлагает четыре категории улучшений
1️⃣ Интеллект и reasoning: лучше следует инструкциям, понимает нюансы использования инструментов, справляется с долгими задачами
2️⃣ Multimodal: обработка текста, изображений, аудио, видео, кода одновременно. Image Generation (Nano Banana Pro) интегрирована для итераций по дизайну прямо в редакторе​​
3️⃣ Computer Use: вариант Gemini для управления браузером - клики, DOM-инспекция, JavaScript. Результат - не diff, а видеозапись действий для верификации​
4️⃣ Долгоживущие задачи: агенты работают в фоне, уведомляя о необходимости вмешательства

По мнению Хоу ключевым преимуществом новой IDE является симбиоз с DeepMind
- Команда Antigravity сидит "в паре десятков метров" от команды Computer Use
- Ранний доступ к Gemini 3 за несколько месяцев до релиза позволил найти слабые места модели и исправить их в продукте
- Antigravity используется внутри Google инженерами и исследователями DeepMind - это пример dog fooding
- Такой симбиоз создаёт цикл обратной связи: продукт показывает пробелы модели → исследователи улучшают модель → продукт интегрирует улучшения
Например, Computer Use изначально работал плохо, пока команды не синхронизировали data distribution и agent harness, а концепция artifacts потребовала доработки модели, чтобы понимать концепцию ревью.​

В продолжении мы обудим какие выводы можно сделать из появления такой IDE.

#Engineering #AI #Metrics #Software #DevEx #Productivity #IDE
8👍2🔥1
[2/2] Defying Gravity (Рубрика #AI)

Рассказ об интересной IDE хотелось бы закончить анализом того, а что этот выпуск значит для инженеров

1️⃣ Повышение планки амбиций
Antigravity - это ставка на «raising the ceiling»: агенты должны брать на себя не только написание кода (это уже умеют LLM), но и части «что строить» и «как строить». Инженерам нужно учиться делегировать сложные задачи агентам, работая на уровне задач, а не строк кода.​

2️⃣ Работа на разных поверхностях
Разработка уже не ограничена редактором. Browser automation открывает возможности:
- Тестирование UI/UX агентом в реальном браузере
- Автоматическая верификация по дизайну
- Доступ к institutional knowledge (bug trackers, внутренние документы с аутентификацией)

3️⃣ Визуальная коммуникация вместо текстовой
Артефакты меняют парадигму review: вместо чтения длинных chain-of-thought смотрите планы, диаграммы, видеозаписи. Для инженеров это означает необходимость учиться давать обратную связь в мультимодальном формате (комментарии на изображениях, выделение текста в планах).​

4️⃣ Параллельная оркестрация
Antigravity поддерживает параллельную работу нескольких агентов на одном проекте (например, дизайн мокапа + исследование API + реализация фичи одновременно). Инженерам нужно научиться декомпозировать задачи для параллельного выполнения агентами.​

5️⃣Аварийный люк (escape hatch) всегда доступен
Хоу честен: агентам пока нельзя доверять на 100%. Поэтому всегда можно вернуться в редактор (Cmd+E) для ручной доработки последних 20% задачи. Но тренд - будущее за agent manager'ом.​

6️⃣ Модель = продукт
Г
лавный урок от DeepMind: "продукт настолько хорош, насколько хороша модель". Antigravity опередит конкурентов, потому что имеет ранний доступ к Gemini и прямую связь с исследователями. Для инженеров это сигнал: выбирайте инструменты, у которых есть плотная интеграция с моделью (не просто API-обёртки).​

7️⃣ Бесплатный доступ к frontier-моделям
Antigravity в public preview бесплатен с unlimited AI completions и доступом к Gemini 3 Pro, Claude Sonnet 4.5, GPT-OSS. Это шанс экспериментировать с агентскими workflow без финансовых барьеров.​

В общем, Antigravity - это ставка Google на то, что будущее разработки за агентами, которые работают не внутри редактора, а над ним, оркестрируя задачи через редактор, терминал и браузер. Для инженеров это означает переход от написания кода к управлению агентами через визуальные артефакты и мультимодальный feedback.

#Engineering #AI #Metrics #Software #DevEx #Productivity #IDE
5🔥5👍1
[1/2] Тренд-репорт: рынок GenAI в 2025 году - Технологическая база российского GenAI (Рубрика #AI)

Прочитал на днях отчет RedMadRobot про рынок GenAI в России в 2025 году. Сам отчет вышел увесистым (50+ страниц) и краткое саммари по нему я решил разбить на пару постов. Все начинается с красивой картинки с онтологией рынка GenAI, которая потом раскладывается в линейный список тем навроде: инфраструктура и телеком, модели? данные и отраслевые знания, профессиональные инструменты, приложения, услуги и так далее. Дальше я пойду примерно по этой схеме, но добавляя материалы не только из этого отчета.

Инфраструктура под GenAI ограничена - новейшие GPU (например, NVIDIA H100) официально недоступны, их закупка через параллельный импорт дороже ~на 30%. Компании вынуждены использовать предыдущие поколения (A100 и т.д.), которые предлагают в аренду местные облачные провайдеры. В результате основная ставка - на свои вычислительные ресурсы: on‑premise-развёртывание доминирует.

Большие языковые модели (LLM) с нуля тренирует только Сбер, остальные файнтюнят зарубежные (преимущественно китайские модели). Условно у Сбер есть GigaChat, у Yandex - YandexGPT, у Т-Банка - T-Pro. Общая тенденция - переход от гонки за размером модели к поиску оптимальной эффективности. Вместо безудержного роста параметров (что упирается в аппаратные лимиты) акцент смещается на «small LLM» - специализированные меньшие модели, дообученные под задачи. Активно используется RAG, применяя векторные базы данных для ясемантического поиска. Кстати, последняя модель Сбера вышла в популярной архитектуре Mixture-of-Experts (MoE) - разреженные «смеси экспертов», где несколько узких моделей совместно покрывают разные домены. MoE стал популярным после DeepSeek модели, что вышла в начале года.

Качественные датасеты - «топливо» GenAI - тоже под ограничениями. После многолетнего web-scraping практически исчерпаны доступные корпуса текстов: по оценке MTS AI, для новых прорывов не хватает человеческого контента. Много свежих текстов в интернете сами созданы нейросетями, и обучение на них может приводить к деградации качества. Разработчики ищут новые подходы: обучают модели на видео, аудио, изображениях, расширяют мультимодальные выборки. Российские игроки формируют собственные наборы: так, Сбер и Яндекс собирали терабайты русскоязычного текста из открытых источников для своих LLM; вузы и компании публикуют бенчмарки и датасеты (например, RuLM, российские аналоги SuperGLUE и др.). Но доступ к ряду западных баз ограничен, и качество данных на русском языке зачастую требует очистки и разметки.

Вокруг LLM складывается экосистема вспомогательных технологий. В ходу библиотеки вроде HuggingFace Transformers, российские фреймворки (DeepPavlov и др.), а также специализированные векторные БД для семантического поиска знаний. Появляются и агрегаторы нейросетей - каталоги сервисов GenAI для бизнеса. В сфере MLOps возникают решения по настройке и мониторингу больших моделей. Тем не менее, единых стандартов нет: компании используют разные стеки инструментов, что осложняет интеграцию моделей в существующие системы. На помощь приходят интеграторы: после ухода крупных консалтеров (Accenture, PwC и др.) роль советников берут местные игроки.

В итоге, российская GenAI-инфраструктура развивается автономно, опираясь на локальные ресурсы и мозги. В продолжении я расскажу про конкретные примеры применения технологий и варианты дальнейшего развития этой индустрии.

#Engineering #AI #Software #Management #Economics
9🔥6👍4
[2/2] Тренд-репорт: рынок GenAI в 2025 году - Применение, кадры, инвестиции, сценарии роста (Рубрика #AI)

Продолжая рассказ про этот отчет, надо скзать, что GenAI технологии переходят в фазу практического внедрения. По данным Сбера, 40% российских IT-компаний уже запустили полнофункциональные GenAI-проекты, и лишь 8% совсем не опробовали ИИ. Бизнес больше не относится к генеративным моделям как к диковинке - их закрепляют в стратегиях и создают под них команды: у 45% компаний появились отдельные отделы или центры компетенций по ИИ. GenAI стал неотъемлемым элементом цифровой трансформации.

Генеративные модели оказались универсальным инструментом, и уже сейчас выделилось несколько основных кейсов. Вот ключевые области, где российский бизнес использует GenAI на практике:
- Создание контента (тексты, код, изображения). Автоматизация рутинного творчества - от написания статей, описаний и маркетинговых материалов до генерации исходного кода по техзаданию.
- "Умный" поиск и работа с базами знаний. LLM в сочетании с RAG позволяют реализовать интеллектуальный поиск по внутренним документам, справочникам, технической документации. Пользователь спрашивает на естественном языке, а система находит и генерирует ответ на основе внутренних данных.
- Чат-боты и голосовые ассистенты для клиентов. Сейчас 59% компаний используют AI-ассистентов для общения с пользователями. Генеративный ИИ придал ботам гибкость: они понимают более сложные вопросы и могут формулировать естественные ответы, а не выбирать из заготовок.
- Речевая аналитика и мониторинг. GenAI используется для анализа звонков на предмет эмоций или мошенничества: модели распознают текст диалога и выявляют подозрительные признаки. Другой пример - расшифровка созвонов и собраний с последующим автосоставлением протокола и списка задач.
- Анализ данных и генерация отчётов. LLM способны проглотить массив сырых данных и выдать человеческий отчёт: будь то сводка продаж, аналитическая записка или ответ на Ad hoc запрос.

Ускоренный рост применения вскрыл дефицит квалифицированных специалистов. Конкуренция за таланты приводит к росту зарплат, компании создают внутренние обучающие программы. С другой стороны, многие организации уже вложились в собственную экспертизу и начали готовить кадры "под себя", растить продуктовые команды с AI-навыками.

Финансирование GenAI-проектов в России сосредоточено вокруг крупнейших игроков. По оценкам, основные вливания делают экосистемы Сбера и Российского фонда прямых инвестиций (РФПИ). Объём рынка продуктов на базе LLM в 2024 году оценивается всего в ~35 млрд руб

Авторы отчета выделяют несколько вариантов развития российского рынка GenAI к 2030 году.
- Пессимистичный сценарий (стагнация): строгие ограничения сохраняются, бизнес разочаровывается из-за единичных инцидентов (неточных ответов, утечек), регуляторы вводят жёсткие барьеры. В таком случае компании сворачивают активность после пилотов, а рост рынка составляет порядка 10–15% в год и GenAI остаётся нишевым
- Реалистичный сценарий (эволюционный рост): крупные игроки продолжают инвестировать, постепенно появляются успешные кейсы, доверие бизнеса увеличивается. Рынок тогда растёт примерно на 25% ежегодно (с оценкой $4 млрд к 2030 году). GenAI прочно занимает своё место в отдельных отраслях (финансы, ритейл, производство), но отставание от мировых лидеров по-прежнему ощутимо.
- Оптимистичный сценарий (прорыв и масштабирование): требуется смягчение технологических ограничений, а также подготовка кадров и появление громких успехов, которые подтолкнут средний бизнес к массовому внедрению. Рост порядка 35–40% в год, а российская динамика близка к мировой. GenAI-проекты стали бы обыденностью в большинстве компаний, оценка рынка 5–6 млрд долларов к 2030 г.

В итооге, мы видим как GenAI переходит в позицию привычного инструмента, но его развитие может дальше идти по разным трекам в зависимости от игроков внутри России, а также общемировой политической обстановки.

#Engineering #AI #Software #Management #Economics
6🔥31👍1
[1/2] How AI is transforming work at Anthropic - Инсайты для инженеров (Рубрика #AI)

С большим интересом внутреннее исследование Anthropic о том, как использование их ИИ-ассистента (модели Claude) влияет на работу инженеров компании. Конечно, Anthropic - это сама по себе AI-компания, поэтому её сотрудники находятся в привилегированных условиях: они одними из первых получают доступ к самым передовым инструментам ИИ и работают в сфере, непосредственно связанной с развитием ИИ. Поэтому авторы подчёркивают, что выводы могут не полностью обобщаться на другие организации.

В первом посте я попробую суммировать инсайты для инженеров, а во втором поговорить об инсайтах для менеджеров.

Продуктивность выросла
Разработчики теперь используют Claude примерно в 60% своей работы (против ~28% год назад) и сами оценивают прирост производительности ~50%. Это более чем двукратный скачок за год. Замеры подтверждают тренд - например, число успешных ежедневных пул-реквестов на инженера выросло на 67% после внедрения Claude Code

Claude помогает в рутинных задачах
Чаще всего его привлекают для отладки багов и разбора чужого кода ~55% инженеров делают это ежедневно. Около 42% используют ИИ для понимания кода, 37% - для написания новых функций. Реже просят об архитектурном дизайне или анализе данных (такие задачи предпочитают делать сами)

Новые задачи теперь по силам
27% работы, которую инженеры выполняют с помощью Claude, раньше вообще не делали бы. AI освобождает время на вещи типа внутренних "nice-to-have" инструментов (например дашбордов) и экспериментов, которые вручную были бы слишком затратными. Кроме того, Claude берётся за мелкие улучшения: ~8.6% его задач - это починка мелких багов и рефакторинг, до которых раньше руки не доходили. Эти мелочи со временем складываются в ощутимый выигрыш по качеству и скорости работы.

Делегируем, но с оглядкой
Большинство оценивает, что без проверки можно доверить ИИ только до 20% задач. Claude стал постоянным напарником, но не автономным исполнителем - разработчик всё равно проверяет и направляет его, особенно в важных вещах. Инженеры выработали интуицию, что поручать в первую очередь задачи простые в проверке, низкого риска или скучные (“черновой” код, рутинные части). Постепенно им доверяют всё более сложную работу, но архитектуру и финальные решения о дизайне контролируют сами.

Навыки шире, глубина под вопросом
С Claude люди смелее берутся за задачи за пределами своей основной экспертизы - все понемногу становятся более "full-stack" инженерами. Например, бэкенд-разработчик с помощью AI может зайти и на фронтенд, и в базу данных, вместо того чтобы звать профильных специалистов. Однако есть и обратная сторона: когда ИИ делает рутину, инженеры меньше практикуются в основах и базовые знания могут постепенно "атрофироваться".

Отношение к написанию кода меняется
Одни рады, что могут сосредоточиться на концепциях и результате, а не на написании кода. Бывалые инженеры сравнивают эту смену парадигмы с переходом на более высокоуровневые языки. Многие готовы мириться с утратой части удовольствия, ведь продуктивность сейчас гораздо выше

Меньше живого общения
Claude всё чаще стал первым, к кому идут с вопросом, вместо коллег. Это экономит время (не беспокоишь напарника по пустякам), но менторство страдает. Опытные разработчики отмечают, что джуны меньше обращаются за советом, ведь Claude может многому их научить сам. Некоторым не нравится, что фраза "а ты спросил у Claude?" стала обычным делом

Карьера и будущее
Роль инженера сдвигается в сторону управления AI-системами вместо написания каждой строчки кода. Многие уже сейчас чувствуют себя скорее "тимлидом для пары AI-агентов", чем просто разработчиком: например, один оценивает, что на 70% стал код-ревьюером/редактором кода от ИИ, а не автором с нуля. Продуктивность при этом зашкаливает, однако в долгосроке люди не уверены, во что выльется их профессия. Есть оптимизм на ближнюю перспективу, но дальше - сплошная неопределённость.

Продолжение в следующем посте.

#Engineering #Software #Processes #Productivity #Economics
8🔥42
[2/2] How AI is transforming work at Anthropic - Инсайты для инженеров (Рубрика #AI)

Вторая половина разбора посвящена тому, что могут извлечь менеджеры из отчета Anthropic.

ROI и продуктивность
Использование AI дает ощутимый экономический эффект. Внутренний опрос показал ~50% рост производительности на сотрудника, а реальные метрики это подтверждают: например, число ежедневных код-изменений (PR) на инженера выросло на 67% после внедрения Claude. Иначе говоря, благодаря ИИ команда делает заметно больше за то же время. Плюс ~27% задач, которые Claude помогает решить, раньше вообще не выполнялись (нехватало ресурсов) - теперь эти улучшения и эксперименты повышают качество продукта и открывают новые возможности.

ИИ не заменяет, а усиливает
Несмотря на скачок продуктивности, люди по-прежнему необходимы. Большинство инженеров используют Claude ежедневно, но полностью автоматизировать могут лишь до 20% работы. Остальное требует участия человека: постановки задач, контроля и правок. ИИ ускоряет выполнение рутинных частей и дает черновые решения, а эксперты финализируют результат. То есть Claude - это ускоритель, а не автономный работник.

Перемены в команде
AI-инструменты меняют рабочую динамику. Разработчики теперь сперва спрашивают у Claude, а уже потом у коллег. С одной стороны, это снижает нагрузку на опытных сотрудников (меньше отвлекающих вопросов по мелочам) и позволяет сосредоточиться на более сложных проблемах. С другой - страдает командное взаимодействие и менторств: новички реже обращаются за помощью к старшим, полагаясь на AI. Без целенаправленных усилий это может привести к провалу передачи опыта. Руководителям стоит учитывать этот эффект и, возможно, формализовать наставничество (раз AI берёт на себя часть обучения, нужно находить новые способы развития младших коллег).

Риск утраты навыков
Инженеры расширяют свой профиль с помощью ИИ, но существует опасность, что базовые навыки "заржавеют" при редком использовании. Некоторые сотрудники уже признают: да, они меньше практикуются в ручном кодинге и тонкостях алгоритмов, хотя пока это не сильно мешает. Есть даже те, кто сознательно иногда решает задачи без помощи Claude, чтобы не терять форму.

Планирование кадров и обучение
Появляются новые акценты в профиле инженеров. Многие фактически превращаются в менеджеров AI-агентов - контролируют и направляют работу сразу нескольких копий. Работа уходит на более высокий уровень абстракции: меньше ручного труда, больше обзорных и координирующих функций. Как пошутил один тимлид, теперь его задача – "отвечать за работу 5 или 100 копий Claude" вместо одного разработчика. В перспективе профессия может сместиться к проектированию систем и наставничеству ИИ, а умение правильно ставить задачи и проверять ответы станет золотым навыком.

Неопределённость и адаптация
Стратегически руководству важно готовиться к разным сценариям. Долгосрочная траектория развития команд пока неясна: даже сами инженеры затрудняются сказать, как изменится их роль через 3-5 лет. Многие испытывают смешанные чувства: сегодня всё отлично, а завтра, глядишь, AI заберёт ещё больше задач. Отдельные энтузиасты уверены, что отрасль приспособится - улучшатся "ограждения" для ИИ, обучение станет частью инструментов, а люди будут расти вместе с машинами. Но общий знаменатель такой: нужно быть максимально гибкими.

Как готовится Anthropic
В компании уже задумались, как справиться с этими вызовами. Обсуждают новые регламенты работы с ИИ, как поощрять сотрудничество и обмен знаниями в эпоху AI, как поддерживать профессиональный рост сотрудников. Рассматривают даже структурные шаги: создавать новые траектории карьерного развития, программы рескиллинга внутри организации по мере роста возможностей моделей. Кроме того, Anthropic расширяет исследование влияния AI за пределы одних инженеров и помогает внешним партнёрам адаптировать учебные программы для будущего с ИИ.

#Engineering #Software #Processes #Productivity #Economics
👍6🔥42
2026: The Year The IDE Died (Рубрика #AI)

Посмотрел интересный доклад от Gene Kim и про будущее разработки. Это заслуженные авторы, которые совмещают опыт и влияние на индустрию
- Steve Yegge работал в Google, Amazon, а сейчачс работает в Sourcegraph. Стив знаменит своими едкими, объемными и часто провокационными постами на темы языков программирования, продуктивности, культуры разработки и работы в крупных технологических компаниях
- Gene Kim - соавтор книг "DevOps Handbook", "The Phoenix Project", "Accelerate", "The Unicorn Project"
Совсем недавно два эти джентельмена выпустили книгу "Vibe Coding", а теперь решили рассказать про то, что современные IDE уже устарели:) Ниже представлены основные тезисы в чуть более расширенном варианте

1️⃣ Индустрия отстает на 9-12 месяцев от реальности
Большинство разработчиков используют AI как "улучшенный автокомплит" (GitHub Copilot в режиме tab-tab). Это мышление уровня печатной машинки в эпоху текстовых процессоров. Реальная мощь - в агентских системах, но ими пользуются единицы. Мы оптимизируем написание текста, а надо оптимизировать принятие решений.

2️⃣ IDE в привычном виде мертва
Традиционная IDE (IntelliJ, VS Code) - это инструмент, заточенный под чтение и написание текста человеком. Человеку нужны вкладки, подсветка синтаксиса и дерево файлов. AI-агенту нужен контекст (логи, тикеты, архитектура, связи), а не визуальный редактор. В 2026 году IDE станет "бэкендом" для агентов, а интерфейс разработчика превратится в диалог об архитектуре и намерениях (Intent), а не о синтаксисе. Кстати, раньше я разбирал выступление про IDE "Antigravity" от Google, где многие из этих идей уже материлизовались в продукт

3️⃣ Сдвиг от "Как сделать" к "Что сделать"
Йегге представил концепцию Amp (новый редактор от Sourcegraph). В нем вы не пишете код построчно. Вы описываете намерение (Intent), а стая агентов (планировщик, кодер, тестировщик) реализует его.
- Если сейчас цикл это: Думай -> Печатай -> Дебажь.
- То будет: Опиши цель -> Валидируй план агента -> Прими результат.

4️⃣ Контекст - это новая нефть
Главная проблема текущих чат-ботов - они галлюцинируют, потому что не видят всей картины. Будущее тулинга - это Model Context Protocol (MCP). Инструменты должны уметь сами «ходить» в Jira, Notion, Sentry и прод-базу, чтобы понимать задачу так же глубоко, как сеньор, работающий в компании 3 года.

В общем, это как обычно сейчас предсказание про то, что мы переходим от роли "писателей кода" к роли "архитекторов систем", где чернорабочими выступают LLM. Во всем выступлении сквозит тезис о том, что кто быстрее перестроит процессы под эту реальность - тот и выиграет рынок.

#Engineering #AI #Metrics #Software #DevEx #Productivity #IDE
8🥴8👍3🔥2
Is Vibe Coding Safe? Benchmarking Vulnerability of Agent-Generated Code in Real-World Tasks (Рубрика #AI)

2 декабря вышло интересное исследование про безопасность vibe-coding от авторов Songwen Zhao, Danqing Wang, Kexun Zhang, Jiaxuan Luo, Zhuo Li и Lei Li. Основная группа ученых здесь связана с университетом Карнеги Меллон.

Если объяснять на пальцах суть исследования, то авторы сначала рассказывают, что vibe coding - новый подход к программированию, при котором человек-программист формулирует задачу на естественном языке, а агент на базе большой языковой модели (LLM) выполняет сложные задачи кодирования с минимальным ручным вмешательством. Но вот вопрос, а код, полученный таким способом безопасен?

Для ответа на этот вопрос авторы разработали новый бенчмарк SUSVIBES, 200 реалистичных задач по разработке фичей для существующих проектов с открытым исходным кодом. Интересно, что каждая из этих задач взята из реальной истории разработки: ранее, когда эти фичи реализовывали люди, в код по незнанию закрались уязвимости безопасности. Задачи намного сложнее единичных примеров из предыдущих бенчей безопасности - они требуют правок в среднем в ~180 строк кода, затрагивая несколько файлов в крупном репозитории (в отличие от тривиальных задач в рамках одной функции или файла). Совокупно задачи покрывают 77 различных категорий уязвимостей согласно классификации CWE.

Прогон этого бенчмарка на популярных агентских системах (SWE-Agent, OpenHands, Claude Code) с популярными LLM (Claude 4 Sonnet, Kimi K2, Gemini 2.5 Pro) показал тревожную картину. Лучшая система (агент SWE-Agent с моделью Claude 4 Sonnet от Anthropic) успешно решала 61% поставленных задач, но лишь 10,5% из этих решений оказались действительно безопасными, то есть не содержали уязвимостей.

Попытки улучшить ситуацию простыми мерами - например, снабжать агента дополнительными подсказками о возможных уязвимостях в тексте задания - не дали существенного эффекта и агенты чаще не справлялись с функциональной частью задачи, а общий успех безопасных решений почти не вырос.

В итоге, на текущем уровне развития технологий вайбкодинг ускоряет создание функционала, но скрыто приносит проблемы с безопасностью. Без существенных улучшений в архитектуре AI-агентов или обучении моделей, доверять такой код в ответственных системах нельзя. Исследование служит призывом к индустрии - заняться разработкой таких улучшений.

P.S.
Мне особо понравился пайплпан сбора бенчмарка и прогона тестов:)

Пайплайн автоматизирован и основан на реальных репозиториях с известными уязвимостями. Для каждой уязвимости из истории проекта они подготовили соответствующую задачу на добавление функционала, где внедрение этой функции ранее привело к проблеме безопасности. В задачу включаются: актуальное состояние кода (репозиторий до внесения исправления уязвимости), описание требуемой новой функции (feature request) и набор тестов. Тесты разбиты на две категории - функциональные тесты, и тесты безопасности, которые ловят именно ту уязвимость, что была допущена изначально. Таким образом, заранее известно, каким требованиям должно удовлетворять безопасное решение.

На каждом таком задании испытывались агенты, что запускалиси внутри изолированного окружения (например, Docker-контейнера) с доступом к коду проекта. Получив задачу (описание новой функции), агент мог взаимодействовать с окружением: читать и редактировать файлы, компилировать и запускать проект, запускать тесты и т.п., делая это в несколько итераций, имитируя реальный процесс разработки. В конце агент выдавал patch - набор изменений к исходному коду репозитория, реализующий требуемую функциональность. Этот сгенерированный патч автоматически прогонялся через оба набора тестов. Метрики успеха были такими:
- Func Pass - процент задач, где патч прошёл все функциональные тесты (правильно реализовал задачу).
- Sec Pass - процент задач, где патч прошёл также все тесты безопасности (не внёс уязвимостей).

#Engineering #Software #Processes #Productivity #Economics #Security
1🔥12👍831