Книжный куб
11.1K subscribers
2.65K photos
6 videos
3 files
1.95K links
Рекомендации интересных книг, статей и выступлений от Александра Поломодова (@apolomodov), технического директора и эксперта в архитектуре
Download Telegram
Netflix's Big Bet: One model to rule recommentdations (AI)

Посмотрел вчера интересное выступление Есу Фэна (Yesu Feng) из Netflix про использование генеративных foundation-моделей для персональных рекомендаций. Кстати, Yesu Feng до прихода в Netflix работал в LinkedIn над лентой новостей и в Uber над оптимизацией маркетплейса. Я выделил для себя следующие ключевые идеи

1. Единая foundation-модель для всей системы рекомендаций
Вместо множества специализированных моделей (для разных страниц, жанров, форматов контента) Netflix переходит к одной "базовой" автогрес­сивной трансформер-модели, способной охватить все варианты использования.
2. Масштабирование как основной драйвер качества
Они пришли к этому сформулировав две достаточно логичные гипотезы
- При увеличении объёма данных и параметров модели персонализация улучшается по тем же законам масштабирования, что и у LLM.
- Интеграция этой модели во все подсистемы создаёт синергетический эффект и ускоряет инновации.
3. Особенности данных и обучения
В итоге, модель получилась многоуровневая
- На базовом уровне ребята делали event representation: when, where (locale & device & canvas), what (action type & entity & duration related)
- Дальше был уровень embedding/feature transformation - тут надо было объединять id embedding и дополнительные semantic embeddings, чтобы решать проблему холодного старта (например, новый контент)
- Следующий уровень содержал transformer/attention - hidden state layers отсюда использовались в качестве user representation, надо было гарантировать стабильность репрезантации пользователей, также надо было уметь явно адаптироваться под разные цели пользователей, также надо было понять как агрегрировать разные уровни и разные sequence для получения этой репрезентации
- На верхнем уровне располагалась objective loss function, которая была сложной - так как на выходе LLM было несколько последовательнотельностей (sequences) - это давало мультизадачностью на уровне функции потерь (предсказание типа действия, длительности сеанса, устройства и пр.)
-- main objective: entity id
-- auxiliary objectives: action types, entity metadate, duration, device, time
-- reward, weight & mask
4. Уроки из мира LLM
При построении LLM модели ребята набили ряд шишек и они поделились ими
- Много­токенное предсказание для повышения устойчивости к временным сдвигам и фокусировки на долгосрочном поведении.
- Многослойное представление и самодистилляция для стабильности эмбеддингов пользователя.
- Обработка длинных контекстных окон через прогрессивное увеличение длины и разреженное внимание.
5. Сценарии применения foundation-модели
Они пришли к следующим сценариям
- Встраивание как подграф в downstream-модель.
- Экспорт и обновление эмбеддингов пользователей и контента в центральном хранилище.
- Дообучение или дистилляция для узкоспециализированных задач с жёсткими требованиями по задержке.
6. Результаты и выводы
- Масштабирование модели от десятков миллионов до миллиарда параметров подтверждает закономерности роста качества при увеличении данных.
- Внедрение единой модели привело к заметным A/B-выигрышам и консолидации инфраструктуры: ускорилась разработка новых функций и снизились дублирующиеся усилия.
- Основная "ставка" Netflix полностью оправдала себя: foundation-модель оказалась масштабируемым и гибким решением для персонализации рекомендации.

Этот подход планируют развивать в следующих направлениях
- Универсальные представления для гетерогенных сущностей (видео, игры, прямые трансляции и пр.).
- Генеративный подбор коллекций при помощи многошагового декодирования.
- Быстрая адаптация через prompt-тюнинг и «мягкие» токены для оперативной смены целей модели.

#AI #Engineering #ML #Architecture #Software #Data
6👍3🔥1
Летняя распродажа в издательстве «Питер» (Рубрика #Sales)

В издательстве Питер очередная распродажа со скидками в 35% на бумажные книги и 50% на электронные. Для получения этой скидки надо использовать промокод "Бумажная" (или "Электронная", если покупаете элетронную версию) при оформлении заказа. На прошлых распродажах я уже купил себе пачку книг, причем значительную часть из них прочитал, включая книги
- Data mesh в действии - я прочитал эту книгу с прошлой распродажи и даже рассказал уже об этом. До этого я читал частями книгу "Data Mesh: Delivering Data-Driven Value at Scale".
- Грокаем алгоритмы искусcтвенного интеллекта - я прочитал эту книгу недавно, вот пост про нее
- Настоящий CTO: думай как технический директор - я прочитал эту книгу, рассказал про нее, а потом мы даже с Сашей Шевченко записали эпизод подкаста с обсуждением этой книги
- Грокаем Continuous Delivery - интересная и простая книжка от сотрудницы Google про CI/CD, я ее уже успел ее прочитать и рассказать о ней
- Паттерны проектирования API - я начал читать и рассказал про эту книгу + читал whitepapers от автора насчет API Governance в Google (кратенько об этом тут)
- Чистый Python. Тонкости программирования для профи - решил вспомнить теорию по python
- Компьютерные сети. Принципы, технологии, протоколы: Юбилейное издание, дополненное и исправленное - я уже как-то читал книгу Олиферов, но это было много лет назад и она была ок. Сейчас я прочитал 150 страничек из нового издания и могу сказать, что книга не ухудшилась:)
- Гейм-дизайн: как создаются игры - эта книга про геймдизайн, про который я и до этого много читал и писал (1, 2, 3), а сейчас я уже прочитал и рассказал об этом
- Разработка приложений на базе GPT-4 и ChatGPT - базовая книга про chatGPT, я ее уже прочел и даже рассказывал оо ней
- Мифический человеко-месяц, или Как создаются программные системы - классическая книга Фредерика Брукса, которая в следующем году справляет свой юбилей. Я раньше уже рассказывал про эту книгу
- Распределенные данные. Алгоритмы работы современных систем хранения информации - в девичестве на английском эта книга Алекса Петрова называлась Database Internals и я про нее много рассказывал (1 и 2), а также мы ее обсуждали в подкасте "Code of Architecture"
- Безопасные и надежные системы: Лучшие практики проектирования, внедрения и обслуживания как в Google - эту книгу я читал в оригинале и она называлась "Building secure and reliable systems", а также уже рассказывал про нее.
- Head First Software Architecture (Head First. Архитектура ПО) - простая книга по проектированию и архитектуре для начинающих, я про нее уже рассказал
- Acing the System Design Interview (System Design: пережить интервью) - хорошая книга про system design interview, я про нее уже рассказывал: 1 и 2
- Креативный программист - я решил изучить креативные методы, что могут помочь в решении инженерных задач

В общем, распродажи в издательстве Питер бывают примерно каждый квартал, поэтому обычно я дожидаюсь их старта и дальше покупаю присмотренную литературу иногда пачками:)

#Sales
12👍6🔥3
Интегрируем AI в процессы разработки в большой компании (Рубрика #AI)

Полтора месяца я выступал с этим докладом на CTO Conf X, но организаторы решили не публиковать доклады. Поэтому я решил его записать для своего канала и рассказать про state of the art-подходы к тому, как разложить работу инженеров на jobs to be done-сценарии, а дальше как уже эти сценарии можно улучшать. В процессе говорю про как классические подходы к написанию кода, так и варианты помощи с проектированием API, проведением code review, запуском тестов, устранением уязвимостей или детекцией аномалий при эксплуатации решений. В докладе будет не только рассмотрение SOTA, но и рассказ о том, что у нас реально работает и как мы подходим к оценке эффекта применения этих методов. В часовом докладе я рассказал про следующие темы

- Введение и план доклада
- История появления AI-копилотов (Copilot и аналоги)
- Что такое vibe coding
- Перспективы AI в разработке, протокол MCP от Anthropic
- Протоколы взаимодействия агентов и проблемы интеграции
- DevOps- и платформенные трансформации в больших компаниях
- Концепция developer experience и снижение когнитивной сложности
- Измерение целей и эффективности разработчиков
- API Governance в Google про AI-Enhanced API Design
- Code review в ByteDance
- Large scale migration при помощи AI в Uber
- Опыт Booking (API, code review, migrations)
- Observability платформа DataDog и AI On-call Engineer
- Подход T-Bank к AI в SDLC
- AI-Copilot Т-Банка Nester и его возможности
- Значение AI для крупных, средних и малых компаний

Кстати, я уже делал расшифровку этих докладов в трех частях: 1, 2 и 3

#AI #PlatformEngineering #Engineering #Software #Processes #Productivity
11🔥6👌2
Andrew Ng: Building Faster with AI (Рубрика #AI)

Посмотрел интересное выступление Эндрю Нг на AI Startup School от Y Comibnator. Эндрю является соучредителем и главным партнером AI Fund, соучредителем и председателем Coursera, основателем DeepLearning.AI, а также адъюнкт-профессором Стэнфордского университета. Интересно, что AI Fund - это венчурная студия, созданная в 2018 году, которая работает как "со-основатель" стартапов, помогая предпринимателям строить AI-компании с нуля.

1. Скорость как главный фактор успеха
Способность управленческой команды к быстрому выполнению задач является сильным предиктором успеха стартапа. Интересно, что большие компании не настолько зависят от скорости, но зато они могут действовать с большим рычагом (например, за счет дистрибуции на текущую аудиторию)
2. Стек искусственного интеллекта
Эндрю представил структуру AI-стека, состоящую из пяти уровней
- Полупроводниковые компании (базовый уровень)
- Гипермасштабируемые облачные сервисы
- Компании-разработчики базовых моделей
- Уровень агентной оркестровки (новый слой)
- Прикладной уровень (где находятся наибольшие возможности)
Причем прикладной уровень (apps layer) должен быть наиболее ценным, поскольку приложения должны генерировать достаточно дохода для поддержки всех нижележащих уровней.
3. Революция агентного ИИ
Агентные рабочие процессы представляют собой итеративный подход к решению задач, при котором AI-система может планировать, исследовать, пересматривать и улучшать свою работу. Вместо линейного создания контента агентные системы могут:
- Создавать план
- Проводить исследования
- Писать черновики
- Критически оценивать результаты
- Пересматривать и улучшать работу
4. Конкретные идеи против расплывчатых
Эндрб подчеркивает важность конкретных идей - идей, настолько детализированных, что инженер может их реализовать немедленно. Например:
Расплывчатая идея: «Использовать ИИ для оптимизации активов здравоохранения»
Конкретная идея: «Создать ПО для онлайн-бронирования слотов МРТ в больницах»
Конкретные идеи обеспечивают скорость, поскольку команда может быстро их реализовать и получить обратную связь. Забавно, что часто в корпорациях говорят про расплывчатые идеи - их можно вкидывать легко и все с ними согласны, но когда наступает время их реализовывать, то упсс
5. Трансформация разработки с помощью ИИ-помощников
Здесь было интересно услышать оценки Эндрю о том, как AI-ассистенты влияют на разработку
- Производственный код: улучшение на 30-50%
- Быстрые прототипы: ускорение в 10+ раз
Инструменты эволюционируют от автозавершения кода (GitHub Copilot) до высокоагентных помощников (Claude Code, новые версии с o3).
6. Сдвиг узких мест в разработке
С ускорением разработки софта основным узким местом становится управление продуктом. Эндрю отмечает изменение традиционных соотношений: вместо 1 продакт-менеджера на 4-7 инженеров, некоторые команды предлагают 1 продакт-менеджера на 0,5 инженера. Походу, это характерно для стартапов из AI Fund.
7. Важность открытых моделей
Эндрю выступает за защиту открытого исходного кода в области ИИ, предупреждая о попытках некоторых компаний создать регулирование, которое установит их в качестве "привратников" больших языковых моделей.

Вот такие советы можно вывести из выступления Эндрю
- Сосредоточьтесь на конкретных идеях - избегайте расплывчатых концепций
- Изучите программирование - даже нетехнические роли выигрывают от понимания кода
- Получайте быструю обратную связь - от личной интуиции до тестирования с незнакомцами
- Углубляйтесь в понимание AI - технические решения могут сэкономить месяцы работы
- Используйте разные тактики для получения обратной связи от пользователей

Отдельно стоит отметить, что Эндрю критикует шумиху вокруг AI, включая
- Угрозы человеческому существованию (безопасность ИИ зависит не от технологии, а от ее ответственного применения.)
- Массовую потерю рабочих мест
- Необходимость только ядерной энергии для ИИ

В общем, это очень дельное выступление с интересными мыслями.

#AI #ML #Software #Engineering #Agents #Architecture
10👍7🔥2
Turbo ML Conf (Рубрика #AI)

Эту субботу я решил провести на нашей конференции, слушая рассказы про ML/AI. Конкретно, сейчас слушаю keynote доклад от Вити Тарнавского, что у нас в Т-Банке отвечает за AI.

P.S.
Кстати, а вы заметили, что на фотке с основными трендами под пунктом vibe coding у ноутбука всего с десяток клавиш? Мне кажется, что Витя намекает, что вайбкодить можно даже на клавиатуре бабушкофона, используя T9, а лучше общааясь голосом.


#AI #ML #Engineering #Software
🔥94👍2
Code of Leadership #44 Interview with Vladimir Kokhanov about Engineering Management (Рубрика #Management)

В очередном выпуске подкаста ко мне пришел интересный гость, Владимир Коханов, технический директор в Т-Банке, что отвечает за сервисы массового сегмента физических лиц. До этого Владимир успел поработать в RedМadRobot, Тинькофф, Vivid Money. За полтора часа мы обсудили с Владимиром много вопросов, но все они казались развития инженеров и технических руководителей:

- Первые шаги в программировании
- Выбор университета и переезд в Зеленоград
- Специализация «вычислительная техника» и первая работа
- Присоединение к Тинькофф как Android-разработчик
- Решение стать лидером команды Android в Тинькофф Бизнес
- Рост команды и переход к кросс-функциональным командам
- Переход во внутренний стартап Vivid Money
- Масштабирование мобильной команды Vivid
- Запуск банковского продукта на лицензии Solaris Bank
- Переход от функциональных к продуктовым командам после релиза
- Возвращение в Тинькофф: технический директор (депозиты)
- Работа со стейкхолдерами и “карта интересов”
- Гибридный формат работы: офис и удалёнка
- Управление энергией, спорт и планирование времени

Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.

#Software #Engineering #Management #Architecture #Processes
7👍4🔥2
How Replit Went From $10M to $100M ARR In Just 9 Months (Рубрика #AI)

Посмотрел на выходных интересное интервью Амджада Масада, со-основателя и CEO Replit, которое он дал ведущим подкаста "The Breakdown" от Y Comninator. Интервью получилось для меня интересным, так как я не знал с чего начинался Replit, на что они делали ставку и как сделали pivot после 5+ лет работы. Если краткое, то я выделил для себя следующие основные моменты

1. Ранние дни Replit в YC-2018
Миссия была в том, чтобы "сделать программирование доступным каждому", но дальше ребята сделали переход от обучения разработке к тому, чтобы создавать софт на естественном языке
2. Ставка на AI агентов в 2024 году
В 2024 году компания урезала штат на 50+%, а оставшиеся силы направила на создание агентской платформы. Но эффект дало появление Claude 3.5, после чего время когерентной работы агента стало приемлемым
3. Ограничения автономии
Сейчас AI умеет писать код часами, но условное использование компьютера (браузера) остается узким местом, но все крупные компании работают над этим
4. Транзакционные снапшоты в Replit
Для обучения программированию ребята построили файловую систему и базу данных со снапшотами, а когда пришла пора ставить все на черное агенты ребята получили буст, так как эта инфра позволяла агентами легко форкаться выполнять изменения и делать откат к версии снапшота всего окружения, если что-то пошло не так (условно механика как в git, где можно сделать revert)
5. Кто пользуется агентами?
По-факту, продакт-менеджеры и дизайнеры могут без инженеров запускать A/B-тесты, то есть внутри корпораций растёт "теневая" разработка, вызывая дискуссии об ответственности за созданный код
6. Безопасность и «скользкие» компоненты
LLM часто ошибается в аутентификации и авторизации. И Replit вшивает готовый разработанный ими OAuth-модуль и партнёрится с Semgrep для application security
7. Позиционирование
Replit занимает нишу «универсального решателя проблем» - он мощнее классического no-code, но доступнее IDE для профи
8. Взрывной рост
После Agent v2 компания росла в среднем на 45% MoM и вышла на $100 M ARR менее чем за год
9. Что под капотом
Из-за слабости LLM в генерации патчей Replit обучил вспомогательные модели, превращающие текстовые правки в чистые diffs
10. Как replit защищена от подражателей
Собственный snapshot-FS на NixOS, глобальный кеш пакетов— это долгосрочный барьер для клонов
11. Учить ли детей кодить?
Масад рекомендует "учиться делать вещи", а код - лишь один из инструментов, так как AI стирает границы между ролями
12 Судьба вертикального SaaS
Универсальные агент-платформы удешевят клон популярных приложений; защищены лишь большие экосистемы, навроде Salesforce
13. Совет основателям
Стоит работать "на грани возможного", так как один апгрейд модели может резко взвинтить ценность продукта; важно предугадывать траекторию ИИ

Если подбивать под выступлением выводы, то
- AI-агенты требуют интересной комбинации инфры - транзакционной файловой системы, снапшотов виртуальных машин, снапшотов баз данных, встроенных core компонентов (OAuth, платежи)
- Расширение круга создателей - главная аудитория теперь широкие "knowledge-workers", а не только инженеры - порог входа смещён к навыку формулировать идеи.
- Баланс роста и юнит-экономики — Масад осознанно не гонится за ARR-целями, опасаясь "токсичного" роста с высоким чёрном и низкой маржой (условно при оплате по модели usage-based легко разогнать маржу, сделав агентов говорливее и тупее)
- Будущее SaaS - горизонтальные агент-платформы угрожают нишевым вертикальным решениям, выживут экосистемы с сильным комьюнити и плагинами.

Из интервью видно, что фокус сдвигается с идеи написания кода руками к управлению агентами, что его напишут за тебя:)

#AI #ML #Agents #Software #Engineering #Architecture
7🔥4👍2
Developing Enterprise Java Applications with J2EE and UML (Разработка корпоративных приложений с помощью J2EE и UML) (Рубрика #Software)

Постепенно продолжаю разгребать свои книжные полки и относить раритетные книги в Book sharing уголок. Сегодня пришла очередь книги 2002 года про микс J2EE и UML. В начале 2000-х годов индустрия программного обеспечения переживала период революционных изменений. Корпоративные приложения становились все более сложными, стоимость создания, развертывания и поддержки клиент-серверных систем на ПК стала чрезмерно дорогой. В то же время Web-приложения набирали популярность, но разработчики часто с трудом собирали воедино различные API, поскольку развитие API не всегда координировалось. Эта книга представляла собой первое серьезное исследование совместного применения J2EE и UML. На тот момент существовал значительный семантический разрыв между возможностями J2EE и требованиями реальных бизнес-задач. UML служил мостом для устранения этого разрыва, предоставляя язык диаграмм для программного обеспечения.

Но за 20+ лет многое поменялось
- Java EE (бывшая J2EE) была передана Eclipse Foundation в 2017 году и переименована в Jakarta EE
- J2EE/Jakarta EE был вытеснен Spring Framework (и дальше Spring Boot)
- Приложения ушли от монолитов к сервисной архитектуре
- Приложения ушли в cloud native парадигму
- Местами стало популярно реактивное программирование и функциональное программирование

В итоге, сегодня книга имеет преимущественно историческую ценность:)

P.S.
Для понимания контекста в начале 2000х можно посмотреть подкаст с Гради Бучем, создателем компании Rational, я его тут разбирал.

#Software #Engineering #Architecture
🔥93👍1
Research Insights Made Simple #12 - Measuring developer productivity with the DX Core 4 (Рубрика #DevEx)

Выпуск посвящен разбору "Measuring developer productivity with the DX Core 4" от ребят из DX, которые активно развивают тему developer productivity. Для разбора этой статьи ко мне пришел гость, Евгений Сергеев, engineering director в Flo Health.

- Введение, история и предпосылки появления DX Core 4
- Основые принципы измерения продуктивности, проблемы опросов
- 4 метрики DORA: deployment frequency, lead time for changes, change failure rate, time to restore service
- Простота внедрения DORA, интеграция с инструментами и его ограничения
- Фреймворк SPACE: опросы и системные метрики как фактор эффективности
- Дизайн фреймворков - разработка для решения конкретных проблем, добавление метрик по необходимости
- Развитие платформы DX
- Многомерные измерения внутри фреймворка DX Core 4 (качество, эффективность, скорость и импакт.)
- Настройка метрик, балансирующие метрики
- Роль технического директора и анализ метрик
- Анализ метрик и критерии их оценки
- Внедрение метрик в организации

Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.

#Management #Leadership #Software #SoftwareDevelopment #Architecture #SoftwareArchitecture #Metrics #Devops #Processes #AI #Agents
5👍2🔥1
Empirical evidence of Large Language Model's influence on human spoken communication (Рубрика #AI)

Вы когда-нибудь задумывались о том, а как устроена наша речь и откуда мы черпаем свой словарный запас? Вот и ученые из "Max Planck Institute for Human Development" тоже об этом думали и решили провести исследование устной речи и как на нее повлияли большие языковые модели. С письменной речью уже давно все понятно, а вот устная речь требовала исследования. Его методология выглядела следующим образом

- Первый этап: Исследователи загрузили в ChatGPT миллионы страниц электронных писем, эссе, научных статей и новостных материалов, попросив ИИ "отполировать" тексты. Затем они выделили слова, которые ChatGPT использовал значительно чаще оригинальных авторов.
- Второй этап: Команда проанализировала более 360 000 видеороликов YouTube и 771 000 эпизодов подкастов, записанных до и после релиза ChatGPT. Общий объем проанализированного контента составил свыше 740 000 часов человеческой речи.
- Контрольная группа: Для обеспечения достоверности результатов ученые создали "синтетические контрольные группы" из синонимов, которые ChatGPT использовал реже, таких как "examine" и "explore" вместо "delve"

В результате исследования авторы обнаружили возникновение закрытых петлей обратной связи между людьми и AI в плане культуры. Соавтор исследования Левин Бринкманн объясняет этот феномен тем, что люди склонны подражать тем, кого считают авторитетными источниками. А AI может очень уверенно и структурно излагать материал, что делает его в глазах людей экспертным источником. А это приводит к перениманию лексики, а также характера разговора - речь людей становится длинее, структурнее и менее эмоциональной.

Эффект особенно заметен в науке, образовании и бизнесе. Наибольшее влияние обнаружено в академических YouTube-каналах, где использование GPT-слов выросло на 25-50% в год. Исследование также показало, что влияние ИИ способствует унификации английского языка по американскому образцу. Все это приводит к социальным последствиям в виде потери культурно разнообразия.

Забавно, что ученые нашли парадокс: если окружающие знают о частом использовании ИИ человеком, его красноречивость воспринимается негативно. Собеседники считают такого человека менее вовлеченным и эмпатичным, особенно в онлайн-общении.

Интересно, а какие еще неявные последствия от AI мы уже испытываем на себе и к чему они приведут в итоге.

#AI #Software #PopularScience #GenAI
👍94🔥2
Не эксперимент, а стратегия: путь к системному использованию AI в SDLC (Рубрика #AI)

Появилась запись выступления Николая Бушкова, моего коллеги, который руководит группой, занимающейся темой engineering productivity в R&D центре Т-Банка. Кстати, этот R&D центр был создан полтора года назад, инвестиции составили более 500 млн рублей. Центр занимается исследованиями в области искусственного интеллекта, баз данных, информационной безопасности и инженерной продуктивности. Он сотрудничает с ведущими российскими университетами, включая МФТИ, Сколтех и НГУ. Если говорить про ключевые идеи доклада, то они следующие

1. Переход от экспериментов к системному подходу
Основная концепция доклада заключается в том, что ИИ в Т-Банке - не хайп и не эксперимент, а часть инженерной стратегии и повседневный рабочий инструмент. Более 5000 специалистов в неделю принимают подсказки внутренних ассистентов, что свидетельствует о массовом внедрении технологии.
2. Обзор индустрии и исследований
Николай ссылается на исследования Anthropic, показывающие, что треть всех кейсов использования их чат-бота приходится на программную инженерию, несмотря на то, что программисты составляют гораздо меньшую долю от общего числа пользователей. Способность моделей закрывать задачи полностью под ключ уже довольно высокая.
3. Системный подход к сценариям использования
Команда разбила жизненный цикл разработки ПО (SDLC) на стадии и создала внутренние рабочие группы для каждой стадии. Приоритетными сценариями стали:
- Автодополнение кода и чат в IDE
- Генерация юнит-тестов
- Автоматическое код-ревью
- Продвинутый поиск по коду
- Ассистенты за пределами IDE
4. LLM-платформа
Внутри компании есть своя LLM-платформа, где есть
- Собственные модели T-Lite и T-Pro (пока не активно используются для кодовых задач) - кстати, недавно были анонсы новых версий
- Serving open weights моделей типа Qwen, DeepSeek, ...
- Лояльный отдел информационной безопасности, позволяющий ограниченный доступ к внешним моделям
5. Планы по развитию
- Развитие от ассистента к агенту - сейчас идет работа над созданием более автономных решений, способных полностью закрывать задачи
- Есть пилоты с внешними решениями - тестирование Aider и других агентских систем
6. Методологические принципы
Николай подчеркивает важность измерения не только метрик adoption, но и удовлетворенности пользователей. Необходимо делать то, что болит, а не то, что технически можем делать. При внедрении важно обращать внимание на качество, чтобы не увеличивать техдолг.

В общем, доклад Николая демонстрирует зрелый подход к внедрению ИИ в разработку софта

#AI #Engineering #Software #Leadership #Metrics #Agents
7🔥5👍3
Inside OpenAI's Stargate Megafactory with Sam Altman (Рубрика #AI)

Я люблю смотреть документальные книги про технологии, поэтому мой взор упал на документальный фильм про "Звездные врата" Сэма Альтмана и Дональда Трампа. Этот фильм сняли ребята из Bloomberg и он представляет эксклюзивное исследование одного из самых амбициозных технологических проектов в истории. Фильм демонстрирует масштабную строительную площадку в Абилине, штат Техас, где создается инфраструктура искусственного интеллекта стоимостью 500 миллиардов долларов. Ведущей и продюссером фильма выступает Эмили Чанг, ведущая и исполнительный продюсер Bloomberg Originals, известная своими интервью с топ-менеджерами технологических компаний, включая генеральных директоров Apple, Tesla, Meta и Amazon.

В ходе фильма интервью дали следующие персонажи
1. Сэм Альтман - генеральный директор OpenAI, один из ведущих партнеров проекта "Звездные врата". В интервью он объяснил логику инвестиций в размере 500 миллиардов долларов, отметив, что эта сумма покрывает потребности в вычислительных мощностях на ближайшие годы, исходя из их прогнозов роста.
2. Масайоси Сон - председатель и генеральный директор SoftBank, который возглавляет финансовую сторону проекта. Сон известен своими амбициозными прогнозами относительно AGI, ожидая его появления в течение десятилетия.
3. Чейз Лохмиллер - соучредитель и генеральный директор Crusoe, компании, отвечающей за физическое строительство. Он бывший квантовый трейдер с Уолл-стрит, который оставил финансы, чтобы покорить Эверест, где у него возникли идеи для Crusoe. Он имеет степени по математике и физике из MIT и магистерскую степень по информатике со специализацией в области ИИ из Стэнфорда.
Также было дополнительно взято интервью у нескольких экспертов поменьше

Ключевые идеи фильма
1. Масштаб проекта
В планах кампус площадью 1200 акров в Абилине, штат Техас, 400 000 GPU-чипов Nvidia в восьми зданиях, энергопотребление 1.2 гигаватта. Начальные инвестиции — 100 миллиардов долларов с планами расширения до 500 миллиардов долларов к 2029 году.
2. Технологические инновации
- Использование системы замкнутого цикла охлаждения без испарения воды, что решает проблемы устойчивости
- Прямое жидкостное охлаждение чипов вместо традиционных методов
- Переход от CPU к GPU-центрированной архитектуре для обработки AI-задач (не уверен, что это инновации в 2025 году)
3. Энергетические вызовы
- Современные ИИ-центры потребляют в 130 киловатт на стойку по сравнению с 2-4 киловатта 20 лет назад
- Запрос к ChatGPT использует в 10 раз больше энергии, чем поиск в Google
- К 2035 году центры обработки данных могут потреблять более 8% электроэнергии Америки
4. Конкуренция и эффективность
Фильм затрагивает появление китайской компании DeepSeek, которая продемонстрировала возможность создания эффективных ИИ-моделей с гораздо меньшими затратами. Это поставило под вопрос необходимость мегапроектов масштаба «Звездных врат».

Если подводить итоги фильма, то
1. Проект позиционируется как критически важный для поддержания технологического лидерства США в гонке AI против Китая. Трамп представил его как проект национальной безопасности, который обеспечит американское превосходство в области искусственного интеллекта.
2. Проект должен помочь экономическому развитию США - части про создание рабочих мест в фильме звучат спорно (так какой гига-датацентр по максимуму автоматизируют)
3. Альтман видит 2025 год как период, когда ИИ-агенты будут выполнять работу, которую мы уже умеем делать, а 2026 год - как время значительного научного прогресса благодаря ИИ.
4. В фильме очень неплохо показаны риски и неопределенность
- Финансовая устойчивость участников: OpenAI понес убытки в 5 миллиардов долларов в 2024 году
- Экологические вопросы: противоречие между климатическими целями и энергоемкостью ИИ
- Геополитические риски: торговые войны и зависимость от международных цепочек поставок

В общем, фильм показывает изнутри масштаб проекта, а также рассматривает этот проект реалистично с разных сторон.

#AI #Engineering #Software #ML #Leadership #Project #Management
8👍6🔥2🤪1
Code of Leadership #45 Interview with Sergey Rogachev about Engineering Management (Рубрика #Management)

В очередном выпуске подкаста ко мне пришел интересный гость, Сергей Рогачев, технический директор в Газпромбанке, что отвечает за блок малого и среднего бизнеса. До Газпром Банка Сергей успел поработать в большом количестве банков: Тинькофф, Райффайзен, Сбер и даже Центральном Банке. За полтора часа мы обсудили с Сергеем много вопросов, но все они казались развития инженеров и технических руководителей

- Знакомство с гостем
- История о детстве, интересе к математике и программированию, выборе вуза, олимпиадах.
- Работа в Центральном банке: трудоустройство, что такое ЦБ, автоматизация его деятельности, поиск нового места после 9 лет работы
- Собеседования, Сбертех и запуск Сбербанк Онлайн
- Сбер: развитие проектов, рост команды и карьерные возможности
- Быстрый рост, важность саморефлексии для роста
- Переход в стартап, особенности стартап-культуры
- Райффайзен Банк: платформы, ресурсы, управление
- Проблемы Excel, переход к современным инструментам и корпоративные трансформации
- Переход в Тинькофф: опыт и вызовы в Т
- Работа лидером в Газпромбанке, управление командой, баланс, поиск развития, советы для развития

Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.

#Software #Engineering #Management #Architecture #Processes
5🔥4🫡3
Research Insights Made Simple (Рубрика #Engineering)

Наконец-то у меня дошли руки для подготовки расшифровок подкастов, которые посвящены разбору всяких научных работ в области software engineering. Правда, у меня получилось пока сделать краткие саммари по первым шести выпускам research insights made simple:
1. Разбор whitepaper "API Governance at Scale" от ребят из Google. В разборе мне помогал Даниил Кулешов, staff+ инженер в Т-Банке, что ведет несколько больших архитектурных проектов и участвует в процессах архревью на всю компанию. Саммари разбора есть в статье на моем сайте tellmeabout.tech
2. Разбор whitepaper "Defining, Measuring, and Managing Technical Debt" от ребят из Google. В разборе мне помогал Дмитрий Гаевский, staff+ инженер и технический CPO платформы Spirit в Т-Банке. Саммари разбора есть в статье на моем сайте
3. Разбор whitepaper "Security by Design at Google" от ребят из Google. В разборе мне помагал Артем Меретц, staff+ инженер и архитектор безопасности в Т-Банке. Саммари разбора есть в статье на моем сайте
4. Разбор whitepaper "AI-Enhanced API Design" от ребят из Google. В разборе мне помогал Павел Каравашкин, staff+ инженер в Т-Банке. Саммари разбора есть в статье на моем сайте
5. Разбор подходов к продуктивности разработки: DORA Metrics, SPACE, DevEx, Human Approach to Dev Productivity. В разборе мне помогал Артем Арюткин, руководитель проектного и продуктового офиса в RideTech & e-com Яндекса. Саммари разбора есть в статье на моем сайте
6. Интервью с Николаем Головым про эволюцию data platform от начала времен и до текущего момента. Саммари разбора есть в статье на моем сайте

P.S.
Осталось расшифровать еще 6 выпусков, а потом новые выпуски подкаста я смогу публиковать сразу с текстовой версией для удобства.

#Management #Leadership #Software #SoftwareDevelopment #Architecture #SoftwareArchitecture #Metrics #Devops #Processes
7🔥3👍2
Patrick Collinson on programming languages, AI, and Stripe's biggest engineering decisions (Рубрика #AI)

Посмотрел на выходных интересное интервью Патрика Коллинсона, со-основателя Stripe и энтузиаста языков программированния. Это интервью у него брал Майкл Трюэлл, сооснователь и генеральный директор Anysphere, компании, которая создала Cursor. Ребята обсуждали широкий список тем, включая будущее языков программирования, разработки в целом, как дела в Stripe и не только:) Основные идеи как обычно я привел ниже

1. Эксперименты с Smalltalk и Lisp

Первый стартап Патрика был написан на Smalltalk, который предлагал интерактивную среду разработки с возможностью редактирования кода в режиме реального времени. Найм сотрудников не был проблемой - умные люди быстро изучают новые языки. На Lisp Патрик делал бота для MSN Messenger с использованием байесовского предсказателя (он мог болтать с людьми). Также он экспериментировал с генетическими алгоритмами для оптимизации раскладки клавиатуры (подтвердил эффективность Dvorak). Но все эти side-проекты были далеки от текущих возможностей AI
2. Философия программирования и сред разработки
Патрик выступает за объединение времени выполнения, редактирования текста и среды исполнения кода. В качестве примера он упоминает Mathematica (сейчас это просто Wolfram). Патрик хочет в IDE видеть информацию профилирования при наведении курсора на код, а также logs и error messages. Здесь Патрик вспоминает еще некомерческую компанию Dynamicland, что занимается пространственными вычислениями. Он восхищается работой Брета Виктора в этой компании, но он не уверен, что этот подход применим к произвольным системам.
3. Технические решения в Stripe
Здесь Патрик обсуждает влияние закон Конвея на архитектуру, подчеркивая важность API и моделей данных для формирования организации. Странно, что Патрик при этом вспоминает про экосистему iOS и говорит, что она превосходит Android благодаря лучшему дизайну API - как по мне, экосистема iOS выглядит хорошо для потребителя, а инженерно это просто дно.
4.Выбор технологий
MongoDB и Ruby остаются фундаментальными технологиями Stripe с 2010 года (для меня это legaсу технологии). Правда, ребята переписали часть сервисов на Java для повышения производительности. Интересно, что в 2022 году стартанул масштабный проект по унификации абстракций Stripe API v2, который сейчас постепенно выкатывается на прод. Патрик достаточно подробно рассказывает про сложности больших миграций
5. Будущее программирования с AI
Патрик использует LLM в основном для фактических вопросов и программирования через Cursor. А дальше своим видением делился Майкл, что разраатываевает Cursor
- Языки программирования могут стать менее формальными и более ориентированными на результат
- AI может помочь в рефакторинге кодовых баз и улучшении архитектуры
- Cursor планирует создать более интегрированную среду разработки с AI в фоновом режиме
6. Экономические аспекты и исследования прогресса
Здесь ребята обсужали разные тезисы и мнения, забавно, что касались и whitepaper "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", но Патрик его еще не успел изучить (а я уже изучил и разобрал для вас: 1 и 2). Если суммировать их мысли, то пока нет чётких доказательств роста производительности от LLM
7. Исследования прогресса и пример с биомедициной

Патрик считает, что потребность в исследованиях прогресса возросла из-за увеличения степеней свободы. Например, Патрик соосновал Arc Institute в 2021 году для биомедицинских исследований. Они работают над базовыми моделями для биологии с использованием ДНК, а также пытаются создать виртуальную клетку для понимания сложных заболеваний, чтобы бороться со сложными заболеваниями типа рака и нейродегенерации

В общем, это интервью показалось мне очень интересным - много футуристичных тем и идей было затронуто, а также были рассмотрены приземленные вопросы вокруг Stripe и Cursor.

#AI #ML #Management #Leadership #Software #SoftwareDevelopment #Architecture #Processes
👍84🔥3
Does AI Actually Boost Developer Productivity? (100k Devs Study) (Рубрика #AI)

Посмотрел интересное 20 минутное выступление Yegor Denisov-Blanch из Stanford University про измерение продуктивности инженеров. Егор представил результаты трёхлетнего исследования Стэнфорда по производительности 100k разработчиков из 600 компаний. Результаты исследования такие: AI повышает продуктивность в среднем лишь на 15-20%, причём эффект резко варьируется в зависимости от контекста задачи, зрелости кода, популярности языка и размера репозитория. Ниже представлены основные мысли из этого выступления + странички исследования

1. Почему существующие оценки продуктивности ненадёжны?
- Большинство опубликованных работ финансируются поставщиками инструментов (GitHub Copilot, Sourcegraph Cody), что искажает выборку и метрики.
- Фокус на счётчике коммитов/PR без учёта размера и качества задач приводит к ложному росту "output" (условно у нас больше выход кода, но вот насколько он полезен?)
- Оценки greenfield и игрушечных проектов завышают выгоду ИИ: LLM легко сгенерирует boilerplate, но реальный корпоративный код редко стартует с нуля
- У опросов насчет продуктивности есть проблемы - самооценка продуктивности редко бывает точной, хотя другие факторы типа satisfaction или well-being опросами можно собрать хорошо

2. Как выглядела методология ребят из Stanford?
- Подключение git-репозиториев, среди которых были преимущественно частные репо, это позволяло замкнуть контекст команды
- Оценка кода группой экспертов, где 10-15 архитекторов ставят баллы за качество, поддерживаемость, сложности (кстати, их оценки хорошо кореллировали между собой) - по-факту, это создание разметки для дальнейшего supervised learning
- Обучение модели для воспроизведения экспертной оценки с высокой корреляцией для оцененой экспертами выборки проектов - это позволяет дальше масштабировать эту модель без дорогостоящего ревью
- Классификация изменений - авторы хотели классифицировать изменения на группы "добавление функционала", "удаление", "рефакторинг", "rework" (переделка свежего кода)
- Дальше эту модель применять ретроспективно с 2019 по 2025 год для того, чтобы отследить влияние COVID, LLM-внедрения и т.д

3. Главные численные выводы исследования
- Сырой прирост кода после внедрения ИИ +30-40% - это включает полезный и «rework»-объём
- Уточнённый прирост продуктивности +15-20% - это с поправкой на баг-фиксы
- На сложных задачах прирост чуть больше 0% с большой дисперсией (иногда вместо прироста убыль)
- Если это представлять в виде матрицы 2x2, как любят консультанты, то получим "сложность задачи× зрелость проекта"
Complexity/Type. Greenfield Brownfield
Low-complexity 30-40% выгод 15-20% выгод
High-complexity 10-15% выгод 0-10% выгод, иногда убыток
- На эффективность влияет язык - для популярных языков LLM работают лучше, а для эзотерических хуже.
- На эффективность влияет размер кодовой базы, причем выгода падает логарифмически с ростом объема. Гипотеза в том, что на это влияет ограничения контекстного окна LLM, рост шума и большого количества зависимостей внутри кода (coupling)

Если попробовать вынести практические советы, то они кажутся такими
- Оцените типовую сложность и зрелость своего проекта перед масштабным внедрением LLM-ассистентов
- Старайтесь использовать популярные технологии - по ним обучены лучшие модели и качество подсказок выше
- Для legacy-монолитов проведите пилот на небольших модулях - продуктивность может не повышаться при использовании ассистентов из коробки (аля базовый Cursor)
- Мониторьте "rework"-долю: резкий рост количества кода может создавать иллюзию продуктивности
- Комбинируйте количественный git-анализ с качественным ревью, а не ссылайтесь только на "опрос удовлетворённости команды"

P.S.
Yegor Denisov-Blanch является автором исследования про "ghost" разработчиков, что нашумело в прошлом году. Правда, самого исследования мне найти не удалось, зато есть посты о нем в большом количестве мест.

P.P.S.
Сравните с дизайном эксперимента от METR:)

#Engineering #AI #Metrics #Software #DevEx #Productivity
👍76🔥2
Small AI Teams with Huge Impact (Рубрика #AI)

Посмотрел на выходных интересное выступление Викаса Паручури, основателя и генерального директора Datalab, компании, специализирующейся на создании ИИ-моделей для анализа документов. В своем выступлении Викас делится старой истиной о том, что лучше меньше, да лучше, причем это работает с AI командами:) А если серьезно, то вот основные мысли выступления

1. Философия малых команд
Паручури представил радикальную идею о том, что количество сотрудников не равно продуктивности. Он поделился опытом своей предыдущей компании Dataquest, где после двух раундов увольнений (с 30 до 15, затем до 7 человек) производительность и удовлетворённость сотрудников парадоксально выросли.
2. Проблемы больших команд
Викас выделил четыре основные проблемы, возникающие при масштабировании (sad but true)
- Специализация - узкие специалисты не могут гибко решать ключевые проблемы компании
- Процессная нагрузка - удалённая работа требует множества синхронизаций и встреч
- Перегрузка встречами - особенно с появлением среднего менеджмента
- Неэффективное использование senior-сотрудников - они тратят время на управление junior-персоналом
3. Философия Джереми Ховарда
Паручури поделился подходом Джереми Ховарда из Answer.AI. Суть в том, чтобы нанимать менее 15 универсальных специалистов, заполнять пробелы с помощью ИИ и внутренних инструментов, использовать простые технологии. Этот подход требует высокой культурной планки, доверия и фокуса на клиентах.
4. Практический пример: модель Surya OCR
Datalab обучила модель Surya OCR с 500 миллионами параметров, поддерживающую 90 языков с точностью 99%. Весь процесс — от общения с клиентами до интеграции в продукты - выполняли всего два человека, что в крупной компании потребовало бы несколько команд.
5. Принципы работы малых команд
5.1 Найм и культура
- Нанимать senior-универсалов (зрелость важнее опыта)
- Избегать переусложнения
- Работать лично для быстрой коллаборации
- Платить зарплаты выше рынка
- Минимальное эго, фокус на результат
5.2 Архитектура и процессы
- Агрессивное переиспользование компонентов
- Простые технологии (без React, серверный HTML с HTMX)
- Модульный код, понятный для ИИ
- Минимальная бюрократия, высокое доверие

В итоге, в Datalab команда из 4 человек достигла семизначного годового дохода (ARR) с ростом в 5 раз за 2025 год. Компания недавно привлекла seed-раунд в размере $3,5 млн от основателей OpenAI, FAIR и Hugging Face. Клиентами являются AI-лаборатории первого уровня, университеты, Fortune 500 и правительства. Отдельно Викас рассказал про их процесс найма из трех этапов
- Беседа с коллегой - обсуждение реальной проблемы
- Платный проект - 10 часов работы за $1000
- Культурное соответствие (cultural fit) - оценка совместимости
Интересно, что в этот процесс уже попадают кандидаты, что с высокой вероятностью подходят компании.

Если кратко, то Викас неплохо показал как собирать мобильную и перформящую команду для стартапа, где ключ к успеху — правильные люди, простые процессы и умелое использование ИИ для автоматизации рутинных задач

#AI #Leadership #Engineering #Software #Processes #Productivity
🔥159👍6