Turbo ML Conf (Рубрика #AI)
Эту субботу я решил провести на нашей конференции, слушая рассказы про ML/AI. Конкретно, сейчас слушаю keynote доклад от Вити Тарнавского, что у нас в Т-Банке отвечает за AI.
P.S.
Кстати, а вы заметили, что на фотке с основными трендами под пунктом vibe coding у ноутбука всего с десяток клавиш? Мне кажется, что Витя намекает, что вайбкодить можно даже на клавиатуре бабушкофона, используя T9, а лучше общааясь голосом.
#AI #ML #Engineering #Software
Эту субботу я решил провести на нашей конференции, слушая рассказы про ML/AI. Конкретно, сейчас слушаю keynote доклад от Вити Тарнавского, что у нас в Т-Банке отвечает за AI.
P.S.
Кстати, а вы заметили, что на фотке с основными трендами под пунктом vibe coding у ноутбука всего с десяток клавиш? Мне кажется, что Витя намекает, что вайбкодить можно даже на клавиатуре бабушкофона, используя T9, а лучше общааясь голосом.
#AI #ML #Engineering #Software
🔥9❤4👍2
Code of Leadership #44 Interview with Vladimir Kokhanov about Engineering Management (Рубрика #Management)
В очередном выпуске подкаста ко мне пришел интересный гость, Владимир Коханов, технический директор в Т-Банке, что отвечает за сервисы массового сегмента физических лиц. До этого Владимир успел поработать в RedМadRobot, Тинькофф, Vivid Money. За полтора часа мы обсудили с Владимиром много вопросов, но все они казались развития инженеров и технических руководителей:
- Первые шаги в программировании
- Выбор университета и переезд в Зеленоград
- Специализация «вычислительная техника» и первая работа
- Присоединение к Тинькофф как Android-разработчик
- Решение стать лидером команды Android в Тинькофф Бизнес
- Рост команды и переход к кросс-функциональным командам
- Переход во внутренний стартап Vivid Money
- Масштабирование мобильной команды Vivid
- Запуск банковского продукта на лицензии Solaris Bank
- Переход от функциональных к продуктовым командам после релиза
- Возвращение в Тинькофф: технический директор (депозиты)
- Работа со стейкхолдерами и “карта интересов”
- Гибридный формат работы: офис и удалёнка
- Управление энергией, спорт и планирование времени
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Architecture #Processes
В очередном выпуске подкаста ко мне пришел интересный гость, Владимир Коханов, технический директор в Т-Банке, что отвечает за сервисы массового сегмента физических лиц. До этого Владимир успел поработать в RedМadRobot, Тинькофф, Vivid Money. За полтора часа мы обсудили с Владимиром много вопросов, но все они казались развития инженеров и технических руководителей:
- Первые шаги в программировании
- Выбор университета и переезд в Зеленоград
- Специализация «вычислительная техника» и первая работа
- Присоединение к Тинькофф как Android-разработчик
- Решение стать лидером команды Android в Тинькофф Бизнес
- Рост команды и переход к кросс-функциональным командам
- Переход во внутренний стартап Vivid Money
- Масштабирование мобильной команды Vivid
- Запуск банковского продукта на лицензии Solaris Bank
- Переход от функциональных к продуктовым командам после релиза
- Возвращение в Тинькофф: технический директор (депозиты)
- Работа со стейкхолдерами и “карта интересов”
- Гибридный формат работы: офис и удалёнка
- Управление энергией, спорт и планирование времени
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Architecture #Processes
YouTube
Code of Leadership #44 Interview with Vladimir Kokhanov about Engineering Management
В очередном выпуске подкаста ко мне пришел интересный гость, Владимир Коханов, технический директор в Т-Банке, что отвечает за сервисы массового сегмента физических лиц. До этого Владимир успел поработать в RedМadRobot, Тинькофф, Vivid Money. За полтора часа…
❤7👍4🔥2
How Replit Went From $10M to $100M ARR In Just 9 Months (Рубрика #AI)
Посмотрел на выходных интересное интервью Амджада Масада, со-основателя и CEO Replit, которое он дал ведущим подкаста "The Breakdown" от Y Comninator. Интервью получилось для меня интересным, так как я не знал с чего начинался Replit, на что они делали ставку и как сделали pivot после 5+ лет работы. Если краткое, то я выделил для себя следующие основные моменты
1. Ранние дни Replit в YC-2018
Миссия была в том, чтобы "сделать программирование доступным каждому", но дальше ребята сделали переход от обучения разработке к тому, чтобы создавать софт на естественном языке
2. Ставка на AI агентов в 2024 году
В 2024 году компания урезала штат на 50+%, а оставшиеся силы направила на создание агентской платформы. Но эффект дало появление Claude 3.5, после чего время когерентной работы агента стало приемлемым
3. Ограничения автономии
Сейчас AI умеет писать код часами, но условное использование компьютера (браузера) остается узким местом, но все крупные компании работают над этим
4. Транзакционные снапшоты в Replit
Для обучения программированию ребята построили файловую систему и базу данных со снапшотами, а когда пришла пора ставить всена черное агенты ребята получили буст, так как эта инфра позволяла агентами легко форкаться выполнять изменения и делать откат к версии снапшота всего окружения, если что-то пошло не так (условно механика как в git, где можно сделать revert)
5. Кто пользуется агентами?
По-факту, продакт-менеджеры и дизайнеры могут без инженеров запускать A/B-тесты, то есть внутри корпораций растёт "теневая" разработка, вызывая дискуссии об ответственности за созданный код
6. Безопасность и «скользкие» компоненты
LLM часто ошибается в аутентификации и авторизации. И Replit вшивает готовый разработанный ими OAuth-модуль и партнёрится с Semgrep для application security
7. Позиционирование
Replit занимает нишу «универсального решателя проблем» - он мощнее классического no-code, но доступнее IDE для профи
8. Взрывной рост
После Agent v2 компания росла в среднем на 45% MoM и вышла на $100 M ARR менее чем за год
9. Что под капотом
Из-за слабости LLM в генерации патчей Replit обучил вспомогательные модели, превращающие текстовые правки в чистые diffs
10. Как replit защищена от подражателей
Собственный snapshot-FS на NixOS, глобальный кеш пакетов— это долгосрочный барьер для клонов
11. Учить ли детей кодить?
Масад рекомендует "учиться делать вещи", а код - лишь один из инструментов, так как AI стирает границы между ролями
12 Судьба вертикального SaaS
Универсальные агент-платформы удешевят клон популярных приложений; защищены лишь большие экосистемы, навроде Salesforce
13. Совет основателям
Стоит работать "на грани возможного", так как один апгрейд модели может резко взвинтить ценность продукта; важно предугадывать траекторию ИИ
Если подбивать под выступлением выводы, то
- AI-агенты требуют интересной комбинации инфры - транзакционной файловой системы, снапшотов виртуальных машин, снапшотов баз данных, встроенных core компонентов (OAuth, платежи)
- Расширение круга создателей - главная аудитория теперь широкие "knowledge-workers", а не только инженеры - порог входа смещён к навыку формулировать идеи.
- Баланс роста и юнит-экономики — Масад осознанно не гонится за ARR-целями, опасаясь "токсичного" роста с высоким чёрном и низкой маржой (условно при оплате по модели usage-based легко разогнать маржу, сделав агентов говорливее и тупее)
- Будущее SaaS - горизонтальные агент-платформы угрожают нишевым вертикальным решениям, выживут экосистемы с сильным комьюнити и плагинами.
Из интервью видно, что фокус сдвигается с идеи написания кода руками к управлению агентами, что его напишут за тебя:)
#AI #ML #Agents #Software #Engineering #Architecture
Посмотрел на выходных интересное интервью Амджада Масада, со-основателя и CEO Replit, которое он дал ведущим подкаста "The Breakdown" от Y Comninator. Интервью получилось для меня интересным, так как я не знал с чего начинался Replit, на что они делали ставку и как сделали pivot после 5+ лет работы. Если краткое, то я выделил для себя следующие основные моменты
1. Ранние дни Replit в YC-2018
Миссия была в том, чтобы "сделать программирование доступным каждому", но дальше ребята сделали переход от обучения разработке к тому, чтобы создавать софт на естественном языке
2. Ставка на AI агентов в 2024 году
В 2024 году компания урезала штат на 50+%, а оставшиеся силы направила на создание агентской платформы. Но эффект дало появление Claude 3.5, после чего время когерентной работы агента стало приемлемым
3. Ограничения автономии
Сейчас AI умеет писать код часами, но условное использование компьютера (браузера) остается узким местом, но все крупные компании работают над этим
4. Транзакционные снапшоты в Replit
Для обучения программированию ребята построили файловую систему и базу данных со снапшотами, а когда пришла пора ставить все
5. Кто пользуется агентами?
По-факту, продакт-менеджеры и дизайнеры могут без инженеров запускать A/B-тесты, то есть внутри корпораций растёт "теневая" разработка, вызывая дискуссии об ответственности за созданный код
6. Безопасность и «скользкие» компоненты
LLM часто ошибается в аутентификации и авторизации. И Replit вшивает готовый разработанный ими OAuth-модуль и партнёрится с Semgrep для application security
7. Позиционирование
Replit занимает нишу «универсального решателя проблем» - он мощнее классического no-code, но доступнее IDE для профи
8. Взрывной рост
После Agent v2 компания росла в среднем на 45% MoM и вышла на $100 M ARR менее чем за год
9. Что под капотом
Из-за слабости LLM в генерации патчей Replit обучил вспомогательные модели, превращающие текстовые правки в чистые diffs
10. Как replit защищена от подражателей
Собственный snapshot-FS на NixOS, глобальный кеш пакетов— это долгосрочный барьер для клонов
11. Учить ли детей кодить?
Масад рекомендует "учиться делать вещи", а код - лишь один из инструментов, так как AI стирает границы между ролями
12 Судьба вертикального SaaS
Универсальные агент-платформы удешевят клон популярных приложений; защищены лишь большие экосистемы, навроде Salesforce
13. Совет основателям
Стоит работать "на грани возможного", так как один апгрейд модели может резко взвинтить ценность продукта; важно предугадывать траекторию ИИ
Если подбивать под выступлением выводы, то
- AI-агенты требуют интересной комбинации инфры - транзакционной файловой системы, снапшотов виртуальных машин, снапшотов баз данных, встроенных core компонентов (OAuth, платежи)
- Расширение круга создателей - главная аудитория теперь широкие "knowledge-workers", а не только инженеры - порог входа смещён к навыку формулировать идеи.
- Баланс роста и юнит-экономики — Масад осознанно не гонится за ARR-целями, опасаясь "токсичного" роста с высоким чёрном и низкой маржой (условно при оплате по модели usage-based легко разогнать маржу, сделав агентов говорливее и тупее)
- Будущее SaaS - горизонтальные агент-платформы угрожают нишевым вертикальным решениям, выживут экосистемы с сильным комьюнити и плагинами.
Из интервью видно, что фокус сдвигается с идеи написания кода руками к управлению агентами, что его напишут за тебя:)
#AI #ML #Agents #Software #Engineering #Architecture
YouTube
How Replit Went From $10M to $100M ARR In Just 9 Months
Amjad Masad started Replit to make programming accessible to anyone, anywhere. What began as a tool for learning to code has grown into a platform pushing the limits of AI-assisted software creation and recently surpassed $100M in ARR.
On The Breakdown with…
On The Breakdown with…
❤7🔥4👍2
Developing Enterprise Java Applications with J2EE and UML (Разработка корпоративных приложений с помощью J2EE и UML) (Рубрика #Software)
Постепенно продолжаю разгребать свои книжные полки и относить раритетные книги в Book sharing уголок. Сегодня пришла очередь книги 2002 года про микс J2EE и UML. В начале 2000-х годов индустрия программного обеспечения переживала период революционных изменений. Корпоративные приложения становились все более сложными, стоимость создания, развертывания и поддержки клиент-серверных систем на ПК стала чрезмерно дорогой. В то же время Web-приложения набирали популярность, но разработчики часто с трудом собирали воедино различные API, поскольку развитие API не всегда координировалось. Эта книга представляла собой первое серьезное исследование совместного применения J2EE и UML. На тот момент существовал значительный семантический разрыв между возможностями J2EE и требованиями реальных бизнес-задач. UML служил мостом для устранения этого разрыва, предоставляя язык диаграмм для программного обеспечения.
Но за 20+ лет многое поменялось
- Java EE (бывшая J2EE) была передана Eclipse Foundation в 2017 году и переименована в Jakarta EE
- J2EE/Jakarta EE был вытеснен Spring Framework (и дальше Spring Boot)
- Приложения ушли от монолитов к сервисной архитектуре
- Приложения ушли в cloud native парадигму
- Местами стало популярно реактивное программирование и функциональное программирование
В итоге, сегодня книга имеет преимущественно историческую ценность:)
P.S.
Для понимания контекста в начале 2000х можно посмотреть подкаст с Гради Бучем, создателем компании Rational, я его тут разбирал.
#Software #Engineering #Architecture
Постепенно продолжаю разгребать свои книжные полки и относить раритетные книги в Book sharing уголок. Сегодня пришла очередь книги 2002 года про микс J2EE и UML. В начале 2000-х годов индустрия программного обеспечения переживала период революционных изменений. Корпоративные приложения становились все более сложными, стоимость создания, развертывания и поддержки клиент-серверных систем на ПК стала чрезмерно дорогой. В то же время Web-приложения набирали популярность, но разработчики часто с трудом собирали воедино различные API, поскольку развитие API не всегда координировалось. Эта книга представляла собой первое серьезное исследование совместного применения J2EE и UML. На тот момент существовал значительный семантический разрыв между возможностями J2EE и требованиями реальных бизнес-задач. UML служил мостом для устранения этого разрыва, предоставляя язык диаграмм для программного обеспечения.
Но за 20+ лет многое поменялось
- Java EE (бывшая J2EE) была передана Eclipse Foundation в 2017 году и переименована в Jakarta EE
- J2EE/Jakarta EE был вытеснен Spring Framework (и дальше Spring Boot)
- Приложения ушли от монолитов к сервисной архитектуре
- Приложения ушли в cloud native парадигму
- Местами стало популярно реактивное программирование и функциональное программирование
В итоге, сегодня книга имеет преимущественно историческую ценность:)
P.S.
Для понимания контекста в начале 2000х можно посмотреть подкаст с Гради Бучем, создателем компании Rational, я его тут разбирал.
#Software #Engineering #Architecture
🔥9❤3👍1
Research Insights Made Simple #12 - Measuring developer productivity with the DX Core 4 (Рубрика #DevEx)
Выпуск посвящен разбору "Measuring developer productivity with the DX Core 4" от ребят из DX, которые активно развивают тему developer productivity. Для разбора этой статьи ко мне пришел гость, Евгений Сергеев, engineering director в Flo Health.
- Введение, история и предпосылки появления DX Core 4
- Основые принципы измерения продуктивности, проблемы опросов
- 4 метрики DORA: deployment frequency, lead time for changes, change failure rate, time to restore service
- Простота внедрения DORA, интеграция с инструментами и его ограничения
- Фреймворк SPACE: опросы и системные метрики как фактор эффективности
- Дизайн фреймворков - разработка для решения конкретных проблем, добавление метрик по необходимости
- Развитие платформы DX
- Многомерные измерения внутри фреймворка DX Core 4 (качество, эффективность, скорость и импакт.)
- Настройка метрик, балансирующие метрики
- Роль технического директора и анализ метрик
- Анализ метрик и критерии их оценки
- Внедрение метрик в организации
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Management #Leadership #Software #SoftwareDevelopment #Architecture #SoftwareArchitecture #Metrics #Devops #Processes #AI #Agents
Выпуск посвящен разбору "Measuring developer productivity with the DX Core 4" от ребят из DX, которые активно развивают тему developer productivity. Для разбора этой статьи ко мне пришел гость, Евгений Сергеев, engineering director в Flo Health.
- Введение, история и предпосылки появления DX Core 4
- Основые принципы измерения продуктивности, проблемы опросов
- 4 метрики DORA: deployment frequency, lead time for changes, change failure rate, time to restore service
- Простота внедрения DORA, интеграция с инструментами и его ограничения
- Фреймворк SPACE: опросы и системные метрики как фактор эффективности
- Дизайн фреймворков - разработка для решения конкретных проблем, добавление метрик по необходимости
- Развитие платформы DX
- Многомерные измерения внутри фреймворка DX Core 4 (качество, эффективность, скорость и импакт.)
- Настройка метрик, балансирующие метрики
- Роль технического директора и анализ метрик
- Анализ метрик и критерии их оценки
- Внедрение метрик в организации
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Management #Leadership #Software #SoftwareDevelopment #Architecture #SoftwareArchitecture #Metrics #Devops #Processes #AI #Agents
YouTube
Research Insights Made Simple #12 Measuring developer productivity with the DX Core 4
Очередной выпуск подкаста с разбором whitepaper "Measuring developer productivity with the DX Core 4" посвящен разбору измерения продуктивности разработчиков. Этот отчет интересен, так как ребята из DX являются одними из законодателей мод в мире developer…
❤5👍2🔥1
Empirical evidence of Large Language Model's influence on human spoken communication (Рубрика #AI)
Вы когда-нибудь задумывались о том, а как устроена наша речь и откуда мы черпаем свой словарный запас? Вот и ученые из "Max Planck Institute for Human Development" тоже об этом думали и решили провести исследование устной речи и как на нее повлияли большие языковые модели. С письменной речью уже давно все понятно, а вот устная речь требовала исследования. Его методология выглядела следующим образом
- Первый этап: Исследователи загрузили в ChatGPT миллионы страниц электронных писем, эссе, научных статей и новостных материалов, попросив ИИ "отполировать" тексты. Затем они выделили слова, которые ChatGPT использовал значительно чаще оригинальных авторов.
- Второй этап: Команда проанализировала более 360 000 видеороликов YouTube и 771 000 эпизодов подкастов, записанных до и после релиза ChatGPT. Общий объем проанализированного контента составил свыше 740 000 часов человеческой речи.
- Контрольная группа: Для обеспечения достоверности результатов ученые создали "синтетические контрольные группы" из синонимов, которые ChatGPT использовал реже, таких как "examine" и "explore" вместо "delve"
В результате исследования авторы обнаружили возникновение закрытых петлей обратной связи между людьми и AI в плане культуры. Соавтор исследования Левин Бринкманн объясняет этот феномен тем, что люди склонны подражать тем, кого считают авторитетными источниками. А AI может очень уверенно и структурно излагать материал, что делает его в глазах людей экспертным источником. А это приводит к перениманию лексики, а также характера разговора - речь людей становится длинее, структурнее и менее эмоциональной.
Эффект особенно заметен в науке, образовании и бизнесе. Наибольшее влияние обнаружено в академических YouTube-каналах, где использование GPT-слов выросло на 25-50% в год. Исследование также показало, что влияние ИИ способствует унификации английского языка по американскому образцу. Все это приводит к социальным последствиям в виде потери культурно разнообразия.
Забавно, что ученые нашли парадокс: если окружающие знают о частом использовании ИИ человеком, его красноречивость воспринимается негативно. Собеседники считают такого человека менее вовлеченным и эмпатичным, особенно в онлайн-общении.
Интересно, а какие еще неявные последствия от AI мы уже испытываем на себе и к чему они приведут в итоге.
#AI #Software #PopularScience #GenAI
Вы когда-нибудь задумывались о том, а как устроена наша речь и откуда мы черпаем свой словарный запас? Вот и ученые из "Max Planck Institute for Human Development" тоже об этом думали и решили провести исследование устной речи и как на нее повлияли большие языковые модели. С письменной речью уже давно все понятно, а вот устная речь требовала исследования. Его методология выглядела следующим образом
- Первый этап: Исследователи загрузили в ChatGPT миллионы страниц электронных писем, эссе, научных статей и новостных материалов, попросив ИИ "отполировать" тексты. Затем они выделили слова, которые ChatGPT использовал значительно чаще оригинальных авторов.
- Второй этап: Команда проанализировала более 360 000 видеороликов YouTube и 771 000 эпизодов подкастов, записанных до и после релиза ChatGPT. Общий объем проанализированного контента составил свыше 740 000 часов человеческой речи.
- Контрольная группа: Для обеспечения достоверности результатов ученые создали "синтетические контрольные группы" из синонимов, которые ChatGPT использовал реже, таких как "examine" и "explore" вместо "delve"
В результате исследования авторы обнаружили возникновение закрытых петлей обратной связи между людьми и AI в плане культуры. Соавтор исследования Левин Бринкманн объясняет этот феномен тем, что люди склонны подражать тем, кого считают авторитетными источниками. А AI может очень уверенно и структурно излагать материал, что делает его в глазах людей экспертным источником. А это приводит к перениманию лексики, а также характера разговора - речь людей становится длинее, структурнее и менее эмоциональной.
Эффект особенно заметен в науке, образовании и бизнесе. Наибольшее влияние обнаружено в академических YouTube-каналах, где использование GPT-слов выросло на 25-50% в год. Исследование также показало, что влияние ИИ способствует унификации английского языка по американскому образцу. Все это приводит к социальным последствиям в виде потери культурно разнообразия.
Забавно, что ученые нашли парадокс: если окружающие знают о частом использовании ИИ человеком, его красноречивость воспринимается негативно. Собеседники считают такого человека менее вовлеченным и эмпатичным, особенно в онлайн-общении.
Интересно, а какие еще неявные последствия от AI мы уже испытываем на себе и к чему они приведут в итоге.
#AI #Software #PopularScience #GenAI
arXiv.org
Empirical evidence of Large Language Model's influence on...
From the invention of writing and the printing press, to television and social media, human history is punctuated by major innovations in communication technology, which fundamentally altered how...
👍9❤4🔥2
Не эксперимент, а стратегия: путь к системному использованию AI в SDLC (Рубрика #AI)
Появилась запись выступления Николая Бушкова, моего коллеги, который руководит группой, занимающейся темой engineering productivity в R&D центре Т-Банка. Кстати, этот R&D центр был создан полтора года назад, инвестиции составили более 500 млн рублей. Центр занимается исследованиями в области искусственного интеллекта, баз данных, информационной безопасности и инженерной продуктивности. Он сотрудничает с ведущими российскими университетами, включая МФТИ, Сколтех и НГУ. Если говорить про ключевые идеи доклада, то они следующие
1. Переход от экспериментов к системному подходу
Основная концепция доклада заключается в том, что ИИ в Т-Банке - не хайп и не эксперимент, а часть инженерной стратегии и повседневный рабочий инструмент. Более 5000 специалистов в неделю принимают подсказки внутренних ассистентов, что свидетельствует о массовом внедрении технологии.
2. Обзор индустрии и исследований
Николай ссылается на исследования Anthropic, показывающие, что треть всех кейсов использования их чат-бота приходится на программную инженерию, несмотря на то, что программисты составляют гораздо меньшую долю от общего числа пользователей. Способность моделей закрывать задачи полностью под ключ уже довольно высокая.
3. Системный подход к сценариям использования
Команда разбила жизненный цикл разработки ПО (SDLC) на стадии и создала внутренние рабочие группы для каждой стадии. Приоритетными сценариями стали:
- Автодополнение кода и чат в IDE
- Генерация юнит-тестов
- Автоматическое код-ревью
- Продвинутый поиск по коду
- Ассистенты за пределами IDE
4. LLM-платформа
Внутри компании есть своя LLM-платформа, где есть
- Собственные модели T-Lite и T-Pro (пока не активно используются для кодовых задач) - кстати, недавно были анонсы новых версий
- Serving open weights моделей типа Qwen, DeepSeek, ...
- Лояльный отдел информационной безопасности, позволяющий ограниченный доступ к внешним моделям
5. Планы по развитию
- Развитие от ассистента к агенту - сейчас идет работа над созданием более автономных решений, способных полностью закрывать задачи
- Есть пилоты с внешними решениями - тестирование Aider и других агентских систем
6. Методологические принципы
Николай подчеркивает важность измерения не только метрик adoption, но и удовлетворенности пользователей. Необходимо делать то, что болит, а не то, что технически можем делать. При внедрении важно обращать внимание на качество, чтобы не увеличивать техдолг.
В общем, доклад Николая демонстрирует зрелый подход к внедрению ИИ в разработку софта
#AI #Engineering #Software #Leadership #Metrics #Agents
Появилась запись выступления Николая Бушкова, моего коллеги, который руководит группой, занимающейся темой engineering productivity в R&D центре Т-Банка. Кстати, этот R&D центр был создан полтора года назад, инвестиции составили более 500 млн рублей. Центр занимается исследованиями в области искусственного интеллекта, баз данных, информационной безопасности и инженерной продуктивности. Он сотрудничает с ведущими российскими университетами, включая МФТИ, Сколтех и НГУ. Если говорить про ключевые идеи доклада, то они следующие
1. Переход от экспериментов к системному подходу
Основная концепция доклада заключается в том, что ИИ в Т-Банке - не хайп и не эксперимент, а часть инженерной стратегии и повседневный рабочий инструмент. Более 5000 специалистов в неделю принимают подсказки внутренних ассистентов, что свидетельствует о массовом внедрении технологии.
2. Обзор индустрии и исследований
Николай ссылается на исследования Anthropic, показывающие, что треть всех кейсов использования их чат-бота приходится на программную инженерию, несмотря на то, что программисты составляют гораздо меньшую долю от общего числа пользователей. Способность моделей закрывать задачи полностью под ключ уже довольно высокая.
3. Системный подход к сценариям использования
Команда разбила жизненный цикл разработки ПО (SDLC) на стадии и создала внутренние рабочие группы для каждой стадии. Приоритетными сценариями стали:
- Автодополнение кода и чат в IDE
- Генерация юнит-тестов
- Автоматическое код-ревью
- Продвинутый поиск по коду
- Ассистенты за пределами IDE
4. LLM-платформа
Внутри компании есть своя LLM-платформа, где есть
- Собственные модели T-Lite и T-Pro (пока не активно используются для кодовых задач) - кстати, недавно были анонсы новых версий
- Serving open weights моделей типа Qwen, DeepSeek, ...
- Лояльный отдел информационной безопасности, позволяющий ограниченный доступ к внешним моделям
5. Планы по развитию
- Развитие от ассистента к агенту - сейчас идет работа над созданием более автономных решений, способных полностью закрывать задачи
- Есть пилоты с внешними решениями - тестирование Aider и других агентских систем
6. Методологические принципы
Николай подчеркивает важность измерения не только метрик adoption, но и удовлетворенности пользователей. Необходимо делать то, что болит, а не то, что технически можем делать. При внедрении важно обращать внимание на качество, чтобы не увеличивать техдолг.
В общем, доклад Николая демонстрирует зрелый подход к внедрению ИИ в разработку софта
#AI #Engineering #Software #Leadership #Metrics #Agents
❤7🔥5👍3
Inside OpenAI's Stargate Megafactory with Sam Altman (Рубрика #AI)
Я люблю смотреть документальные книги про технологии, поэтому мой взор упал на документальный фильм про "Звездные врата" Сэма Альтмана и Дональда Трампа. Этот фильм сняли ребята из Bloomberg и он представляет эксклюзивное исследование одного из самых амбициозных технологических проектов в истории. Фильм демонстрирует масштабную строительную площадку в Абилине, штат Техас, где создается инфраструктура искусственного интеллекта стоимостью 500 миллиардов долларов. Ведущей и продюссером фильма выступает Эмили Чанг, ведущая и исполнительный продюсер Bloomberg Originals, известная своими интервью с топ-менеджерами технологических компаний, включая генеральных директоров Apple, Tesla, Meta и Amazon.
В ходе фильма интервью дали следующие персонажи
1. Сэм Альтман - генеральный директор OpenAI, один из ведущих партнеров проекта "Звездные врата". В интервью он объяснил логику инвестиций в размере 500 миллиардов долларов, отметив, что эта сумма покрывает потребности в вычислительных мощностях на ближайшие годы, исходя из их прогнозов роста.
2. Масайоси Сон - председатель и генеральный директор SoftBank, который возглавляет финансовую сторону проекта. Сон известен своими амбициозными прогнозами относительно AGI, ожидая его появления в течение десятилетия.
3. Чейз Лохмиллер - соучредитель и генеральный директор Crusoe, компании, отвечающей за физическое строительство. Он бывший квантовый трейдер с Уолл-стрит, который оставил финансы, чтобы покорить Эверест, где у него возникли идеи для Crusoe. Он имеет степени по математике и физике из MIT и магистерскую степень по информатике со специализацией в области ИИ из Стэнфорда.
Также было дополнительно взято интервью у нескольких экспертов поменьше
Ключевые идеи фильма
1. Масштаб проекта
В планах кампус площадью 1200 акров в Абилине, штат Техас, 400 000 GPU-чипов Nvidia в восьми зданиях, энергопотребление 1.2 гигаватта. Начальные инвестиции — 100 миллиардов долларов с планами расширения до 500 миллиардов долларов к 2029 году.
2. Технологические инновации
- Использование системы замкнутого цикла охлаждения без испарения воды, что решает проблемы устойчивости
- Прямое жидкостное охлаждение чипов вместо традиционных методов
- Переход от CPU к GPU-центрированной архитектуре для обработки AI-задач (не уверен, что это инновации в 2025 году)
3. Энергетические вызовы
- Современные ИИ-центры потребляют в 130 киловатт на стойку по сравнению с 2-4 киловатта 20 лет назад
- Запрос к ChatGPT использует в 10 раз больше энергии, чем поиск в Google
- К 2035 году центры обработки данных могут потреблять более 8% электроэнергии Америки
4. Конкуренция и эффективность
Фильм затрагивает появление китайской компании DeepSeek, которая продемонстрировала возможность создания эффективных ИИ-моделей с гораздо меньшими затратами. Это поставило под вопрос необходимость мегапроектов масштаба «Звездных врат».
Если подводить итоги фильма, то
1. Проект позиционируется как критически важный для поддержания технологического лидерства США в гонке AI против Китая. Трамп представил его как проект национальной безопасности, который обеспечит американское превосходство в области искусственного интеллекта.
2. Проект должен помочь экономическому развитию США - части про создание рабочих мест в фильме звучат спорно (так какой гига-датацентр по максимуму автоматизируют)
3. Альтман видит 2025 год как период, когда ИИ-агенты будут выполнять работу, которую мы уже умеем делать, а 2026 год - как время значительного научного прогресса благодаря ИИ.
4. В фильме очень неплохо показаны риски и неопределенность
- Финансовая устойчивость участников: OpenAI понес убытки в 5 миллиардов долларов в 2024 году
- Экологические вопросы: противоречие между климатическими целями и энергоемкостью ИИ
- Геополитические риски: торговые войны и зависимость от международных цепочек поставок
В общем, фильм показывает изнутри масштаб проекта, а также рассматривает этот проект реалистично с разных сторон.
#AI #Engineering #Software #ML #Leadership #Project #Management
Я люблю смотреть документальные книги про технологии, поэтому мой взор упал на документальный фильм про "Звездные врата" Сэма Альтмана и Дональда Трампа. Этот фильм сняли ребята из Bloomberg и он представляет эксклюзивное исследование одного из самых амбициозных технологических проектов в истории. Фильм демонстрирует масштабную строительную площадку в Абилине, штат Техас, где создается инфраструктура искусственного интеллекта стоимостью 500 миллиардов долларов. Ведущей и продюссером фильма выступает Эмили Чанг, ведущая и исполнительный продюсер Bloomberg Originals, известная своими интервью с топ-менеджерами технологических компаний, включая генеральных директоров Apple, Tesla, Meta и Amazon.
В ходе фильма интервью дали следующие персонажи
1. Сэм Альтман - генеральный директор OpenAI, один из ведущих партнеров проекта "Звездные врата". В интервью он объяснил логику инвестиций в размере 500 миллиардов долларов, отметив, что эта сумма покрывает потребности в вычислительных мощностях на ближайшие годы, исходя из их прогнозов роста.
2. Масайоси Сон - председатель и генеральный директор SoftBank, который возглавляет финансовую сторону проекта. Сон известен своими амбициозными прогнозами относительно AGI, ожидая его появления в течение десятилетия.
3. Чейз Лохмиллер - соучредитель и генеральный директор Crusoe, компании, отвечающей за физическое строительство. Он бывший квантовый трейдер с Уолл-стрит, который оставил финансы, чтобы покорить Эверест, где у него возникли идеи для Crusoe. Он имеет степени по математике и физике из MIT и магистерскую степень по информатике со специализацией в области ИИ из Стэнфорда.
Также было дополнительно взято интервью у нескольких экспертов поменьше
Ключевые идеи фильма
1. Масштаб проекта
В планах кампус площадью 1200 акров в Абилине, штат Техас, 400 000 GPU-чипов Nvidia в восьми зданиях, энергопотребление 1.2 гигаватта. Начальные инвестиции — 100 миллиардов долларов с планами расширения до 500 миллиардов долларов к 2029 году.
2. Технологические инновации
- Использование системы замкнутого цикла охлаждения без испарения воды, что решает проблемы устойчивости
- Прямое жидкостное охлаждение чипов вместо традиционных методов
- Переход от CPU к GPU-центрированной архитектуре для обработки AI-задач (не уверен, что это инновации в 2025 году)
3. Энергетические вызовы
- Современные ИИ-центры потребляют в 130 киловатт на стойку по сравнению с 2-4 киловатта 20 лет назад
- Запрос к ChatGPT использует в 10 раз больше энергии, чем поиск в Google
- К 2035 году центры обработки данных могут потреблять более 8% электроэнергии Америки
4. Конкуренция и эффективность
Фильм затрагивает появление китайской компании DeepSeek, которая продемонстрировала возможность создания эффективных ИИ-моделей с гораздо меньшими затратами. Это поставило под вопрос необходимость мегапроектов масштаба «Звездных врат».
Если подводить итоги фильма, то
1. Проект позиционируется как критически важный для поддержания технологического лидерства США в гонке AI против Китая. Трамп представил его как проект национальной безопасности, который обеспечит американское превосходство в области искусственного интеллекта.
2. Проект должен помочь экономическому развитию США - части про создание рабочих мест в фильме звучат спорно (так какой гига-датацентр по максимуму автоматизируют)
3. Альтман видит 2025 год как период, когда ИИ-агенты будут выполнять работу, которую мы уже умеем делать, а 2026 год - как время значительного научного прогресса благодаря ИИ.
4. В фильме очень неплохо показаны риски и неопределенность
- Финансовая устойчивость участников: OpenAI понес убытки в 5 миллиардов долларов в 2024 году
- Экологические вопросы: противоречие между климатическими целями и энергоемкостью ИИ
- Геополитические риски: торговые войны и зависимость от международных цепочек поставок
В общем, фильм показывает изнутри масштаб проекта, а также рассматривает этот проект реалистично с разных сторон.
#AI #Engineering #Software #ML #Leadership #Project #Management
YouTube
Inside OpenAI's Stargate Megafactory with Sam Altman | The Circuit
Emily Chang visits the Stargate site in Abilene, Texas for an exclusive first look at the historic $500 billion bet on the future of AI, announced by President Trump the day after his inauguration. She speaks with OpenAI CEO Sam Altman & Softbank CEO Masayoshi…
❤8👍6🔥2🤪1
Code of Leadership #45 Interview with Sergey Rogachev about Engineering Management (Рубрика #Management)
В очередном выпуске подкаста ко мне пришел интересный гость, Сергей Рогачев, технический директор в Газпромбанке, что отвечает за блок малого и среднего бизнеса. До Газпром Банка Сергей успел поработать в большом количестве банков: Тинькофф, Райффайзен, Сбер и даже Центральном Банке. За полтора часа мы обсудили с Сергеем много вопросов, но все они казались развития инженеров и технических руководителей
- Знакомство с гостем
- История о детстве, интересе к математике и программированию, выборе вуза, олимпиадах.
- Работа в Центральном банке: трудоустройство, что такое ЦБ, автоматизация его деятельности, поиск нового места после 9 лет работы
- Собеседования, Сбертех и запуск Сбербанк Онлайн
- Сбер: развитие проектов, рост команды и карьерные возможности
- Быстрый рост, важность саморефлексии для роста
- Переход в стартап, особенности стартап-культуры
- Райффайзен Банк: платформы, ресурсы, управление
- Проблемы Excel, переход к современным инструментам и корпоративные трансформации
- Переход в Тинькофф: опыт и вызовы в Т
- Работа лидером в Газпромбанке, управление командой, баланс, поиск развития, советы для развития
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Architecture #Processes
В очередном выпуске подкаста ко мне пришел интересный гость, Сергей Рогачев, технический директор в Газпромбанке, что отвечает за блок малого и среднего бизнеса. До Газпром Банка Сергей успел поработать в большом количестве банков: Тинькофф, Райффайзен, Сбер и даже Центральном Банке. За полтора часа мы обсудили с Сергеем много вопросов, но все они казались развития инженеров и технических руководителей
- Знакомство с гостем
- История о детстве, интересе к математике и программированию, выборе вуза, олимпиадах.
- Работа в Центральном банке: трудоустройство, что такое ЦБ, автоматизация его деятельности, поиск нового места после 9 лет работы
- Собеседования, Сбертех и запуск Сбербанк Онлайн
- Сбер: развитие проектов, рост команды и карьерные возможности
- Быстрый рост, важность саморефлексии для роста
- Переход в стартап, особенности стартап-культуры
- Райффайзен Банк: платформы, ресурсы, управление
- Проблемы Excel, переход к современным инструментам и корпоративные трансформации
- Переход в Тинькофф: опыт и вызовы в Т
- Работа лидером в Газпромбанке, управление командой, баланс, поиск развития, советы для развития
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Architecture #Processes
YouTube
Code of Leadership #45 Interview with Sergey Rogachev about Engineering Management
В очередном выпуске подкаста ко мне пришел интересный гость, Сергей Рогачев, технический директор в Газпромбанке, что отвечает за блок малого и среднего бизнеса. До Газпром Банка Сергей успел поработать в большом количестве банков: Тинькофф, Райффайзен, Сбер…
❤5🔥4🫡3
Research Insights Made Simple (Рубрика #Engineering)
Наконец-то у меня дошли руки для подготовки расшифровок подкастов, которые посвящены разбору всяких научных работ в области software engineering. Правда, у меня получилось пока сделать краткие саммари по первым шести выпускам research insights made simple:
1. Разбор whitepaper "API Governance at Scale" от ребят из Google. В разборе мне помогал Даниил Кулешов, staff+ инженер в Т-Банке, что ведет несколько больших архитектурных проектов и участвует в процессах архревью на всю компанию. Саммари разбора есть в статье на моем сайте tellmeabout.tech
2. Разбор whitepaper "Defining, Measuring, and Managing Technical Debt" от ребят из Google. В разборе мне помогал Дмитрий Гаевский, staff+ инженер и технический CPO платформы Spirit в Т-Банке. Саммари разбора есть в статье на моем сайте
3. Разбор whitepaper "Security by Design at Google" от ребят из Google. В разборе мне помагал Артем Меретц, staff+ инженер и архитектор безопасности в Т-Банке. Саммари разбора есть в статье на моем сайте
4. Разбор whitepaper "AI-Enhanced API Design" от ребят из Google. В разборе мне помогал Павел Каравашкин, staff+ инженер в Т-Банке. Саммари разбора есть в статье на моем сайте
5. Разбор подходов к продуктивности разработки: DORA Metrics, SPACE, DevEx, Human Approach to Dev Productivity. В разборе мне помогал Артем Арюткин, руководитель проектного и продуктового офиса в RideTech & e-com Яндекса. Саммари разбора есть в статье на моем сайте
6. Интервью с Николаем Головым про эволюцию data platform от начала времен и до текущего момента. Саммари разбора есть в статье на моем сайте
P.S.
Осталось расшифровать еще 6 выпусков, а потом новые выпуски подкаста я смогу публиковать сразу с текстовой версией для удобства.
#Management #Leadership #Software #SoftwareDevelopment #Architecture #SoftwareArchitecture #Metrics #Devops #Processes
Наконец-то у меня дошли руки для подготовки расшифровок подкастов, которые посвящены разбору всяких научных работ в области software engineering. Правда, у меня получилось пока сделать краткие саммари по первым шести выпускам research insights made simple:
1. Разбор whitepaper "API Governance at Scale" от ребят из Google. В разборе мне помогал Даниил Кулешов, staff+ инженер в Т-Банке, что ведет несколько больших архитектурных проектов и участвует в процессах архревью на всю компанию. Саммари разбора есть в статье на моем сайте tellmeabout.tech
2. Разбор whitepaper "Defining, Measuring, and Managing Technical Debt" от ребят из Google. В разборе мне помогал Дмитрий Гаевский, staff+ инженер и технический CPO платформы Spirit в Т-Банке. Саммари разбора есть в статье на моем сайте
3. Разбор whitepaper "Security by Design at Google" от ребят из Google. В разборе мне помагал Артем Меретц, staff+ инженер и архитектор безопасности в Т-Банке. Саммари разбора есть в статье на моем сайте
4. Разбор whitepaper "AI-Enhanced API Design" от ребят из Google. В разборе мне помогал Павел Каравашкин, staff+ инженер в Т-Банке. Саммари разбора есть в статье на моем сайте
5. Разбор подходов к продуктивности разработки: DORA Metrics, SPACE, DevEx, Human Approach to Dev Productivity. В разборе мне помогал Артем Арюткин, руководитель проектного и продуктового офиса в RideTech & e-com Яндекса. Саммари разбора есть в статье на моем сайте
6. Интервью с Николаем Головым про эволюцию data platform от начала времен и до текущего момента. Саммари разбора есть в статье на моем сайте
P.S.
Осталось расшифровать еще 6 выпусков, а потом новые выпуски подкаста я смогу публиковать сразу с текстовой версией для удобства.
#Management #Leadership #Software #SoftwareDevelopment #Architecture #SoftwareArchitecture #Metrics #Devops #Processes
❤7🔥3👍2
Patrick Collinson on programming languages, AI, and Stripe's biggest engineering decisions (Рубрика #AI)
Посмотрел на выходных интересное интервью Патрика Коллинсона, со-основателя Stripe и энтузиаста языков программированния. Это интервью у него брал Майкл Трюэлл, сооснователь и генеральный директор Anysphere, компании, которая создала Cursor. Ребята обсуждали широкий список тем, включая будущее языков программирования, разработки в целом, как дела в Stripe и не только:) Основные идеи как обычно я привел ниже
1. Эксперименты с Smalltalk и Lisp
Первый стартап Патрика был написан на Smalltalk, который предлагал интерактивную среду разработки с возможностью редактирования кода в режиме реального времени. Найм сотрудников не был проблемой - умные люди быстро изучают новые языки. На Lisp Патрик делал бота для MSN Messenger с использованием байесовского предсказателя (он мог болтать с людьми). Также он экспериментировал с генетическими алгоритмами для оптимизации раскладки клавиатуры (подтвердил эффективность Dvorak). Но все эти side-проекты были далеки от текущих возможностей AI
2. Философия программирования и сред разработки
Патрик выступает за объединение времени выполнения, редактирования текста и среды исполнения кода. В качестве примера он упоминает Mathematica (сейчас это просто Wolfram). Патрик хочет в IDE видеть информацию профилирования при наведении курсора на код, а также logs и error messages. Здесь Патрик вспоминает еще некомерческую компанию Dynamicland, что занимается пространственными вычислениями. Он восхищается работой Брета Виктора в этой компании, но он не уверен, что этот подход применим к произвольным системам.
3. Технические решения в Stripe
Здесь Патрик обсуждает влияние закон Конвея на архитектуру, подчеркивая важность API и моделей данных для формирования организации. Странно, что Патрик при этом вспоминает про экосистему iOS и говорит, что она превосходит Android благодаря лучшему дизайну API - как по мне, экосистема iOS выглядит хорошо для потребителя, а инженерно это просто дно.
4.Выбор технологий
MongoDB и Ruby остаются фундаментальными технологиями Stripe с 2010 года (для меня это legaсу технологии ). Правда, ребята переписали часть сервисов на Java для повышения производительности. Интересно, что в 2022 году стартанул масштабный проект по унификации абстракций Stripe API v2, который сейчас постепенно выкатывается на прод. Патрик достаточно подробно рассказывает про сложности больших миграций
5. Будущее программирования с AI
Патрик использует LLM в основном для фактических вопросов и программирования через Cursor. А дальше своим видением делился Майкл, что разраатываевает Cursor
- Языки программирования могут стать менее формальными и более ориентированными на результат
- AI может помочь в рефакторинге кодовых баз и улучшении архитектуры
- Cursor планирует создать более интегрированную среду разработки с AI в фоновом режиме
6. Экономические аспекты и исследования прогресса
Здесь ребята обсужали разные тезисы и мнения, забавно, что касались и whitepaper "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", но Патрик его еще не успел изучить (а я уже изучил и разобрал для вас: 1 и 2). Если суммировать их мысли, то пока нет чётких доказательств роста производительности от LLM
7. Исследования прогресса и пример с биомедициной
Патрик считает, что потребность в исследованиях прогресса возросла из-за увеличения степеней свободы. Например, Патрик соосновал Arc Institute в 2021 году для биомедицинских исследований. Они работают над базовыми моделями для биологии с использованием ДНК, а также пытаются создать виртуальную клетку для понимания сложных заболеваний, чтобы бороться со сложными заболеваниями типа рака и нейродегенерации
В общем, это интервью показалось мне очень интересным - много футуристичных тем и идей было затронуто, а также были рассмотрены приземленные вопросы вокруг Stripe и Cursor.
#AI #ML #Management #Leadership #Software #SoftwareDevelopment #Architecture #Processes
Посмотрел на выходных интересное интервью Патрика Коллинсона, со-основателя Stripe и энтузиаста языков программированния. Это интервью у него брал Майкл Трюэлл, сооснователь и генеральный директор Anysphere, компании, которая создала Cursor. Ребята обсуждали широкий список тем, включая будущее языков программирования, разработки в целом, как дела в Stripe и не только:) Основные идеи как обычно я привел ниже
1. Эксперименты с Smalltalk и Lisp
Первый стартап Патрика был написан на Smalltalk, который предлагал интерактивную среду разработки с возможностью редактирования кода в режиме реального времени. Найм сотрудников не был проблемой - умные люди быстро изучают новые языки. На Lisp Патрик делал бота для MSN Messenger с использованием байесовского предсказателя (он мог болтать с людьми). Также он экспериментировал с генетическими алгоритмами для оптимизации раскладки клавиатуры (подтвердил эффективность Dvorak). Но все эти side-проекты были далеки от текущих возможностей AI
2. Философия программирования и сред разработки
Патрик выступает за объединение времени выполнения, редактирования текста и среды исполнения кода. В качестве примера он упоминает Mathematica (сейчас это просто Wolfram). Патрик хочет в IDE видеть информацию профилирования при наведении курсора на код, а также logs и error messages. Здесь Патрик вспоминает еще некомерческую компанию Dynamicland, что занимается пространственными вычислениями. Он восхищается работой Брета Виктора в этой компании, но он не уверен, что этот подход применим к произвольным системам.
3. Технические решения в Stripe
Здесь Патрик обсуждает влияние закон Конвея на архитектуру, подчеркивая важность API и моделей данных для формирования организации. Странно, что Патрик при этом вспоминает про экосистему iOS и говорит, что она превосходит Android благодаря лучшему дизайну API - как по мне, экосистема iOS выглядит хорошо для потребителя, а инженерно это просто дно.
4.Выбор технологий
MongoDB и Ruby остаются фундаментальными технологиями Stripe с 2010 года (
5. Будущее программирования с AI
Патрик использует LLM в основном для фактических вопросов и программирования через Cursor. А дальше своим видением делился Майкл, что разраатываевает Cursor
- Языки программирования могут стать менее формальными и более ориентированными на результат
- AI может помочь в рефакторинге кодовых баз и улучшении архитектуры
- Cursor планирует создать более интегрированную среду разработки с AI в фоновом режиме
6. Экономические аспекты и исследования прогресса
Здесь ребята обсужали разные тезисы и мнения, забавно, что касались и whitepaper "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", но Патрик его еще не успел изучить (а я уже изучил и разобрал для вас: 1 и 2). Если суммировать их мысли, то пока нет чётких доказательств роста производительности от LLM
7. Исследования прогресса и пример с биомедициной
Патрик считает, что потребность в исследованиях прогресса возросла из-за увеличения степеней свободы. Например, Патрик соосновал Arc Institute в 2021 году для биомедицинских исследований. Они работают над базовыми моделями для биологии с использованием ДНК, а также пытаются создать виртуальную клетку для понимания сложных заболеваний, чтобы бороться со сложными заболеваниями типа рака и нейродегенерации
В общем, это интервью показалось мне очень интересным - много футуристичных тем и идей было затронуто, а также были рассмотрены приземленные вопросы вокруг Stripe и Cursor.
#AI #ML #Management #Leadership #Software #SoftwareDevelopment #Architecture #Processes
YouTube
Patrick Collison on programming languages, AI, and Stripe's biggest engineering decisions
Michael Truell (CEO of Cursor) sits down with Patrick Collison (CEO of Stripe) to discuss programming languages, the role of AI in programming, and building long-lasting software.
00:00 Patrick's first startup in Smalltalk
03:35 LISP chatbots
06:09 Ideas…
00:00 Patrick's first startup in Smalltalk
03:35 LISP chatbots
06:09 Ideas…
👍8❤4🔥3
Does AI Actually Boost Developer Productivity? (100k Devs Study) (Рубрика #AI)
Посмотрел интересное 20 минутное выступление Yegor Denisov-Blanch из Stanford University про измерение продуктивности инженеров. Егор представил результаты трёхлетнего исследования Стэнфорда по производительности 100k разработчиков из 600 компаний. Результаты исследования такие: AI повышает продуктивность в среднем лишь на 15-20%, причём эффект резко варьируется в зависимости от контекста задачи, зрелости кода, популярности языка и размера репозитория. Ниже представлены основные мысли из этого выступления + странички исследования
1. Почему существующие оценки продуктивности ненадёжны?
- Большинство опубликованных работ финансируются поставщиками инструментов (GitHub Copilot, Sourcegraph Cody), что искажает выборку и метрики.
- Фокус на счётчике коммитов/PR без учёта размера и качества задач приводит к ложному росту "output" (условно у нас больше выход кода, но вот насколько он полезен?)
- Оценки greenfield и игрушечных проектов завышают выгоду ИИ: LLM легко сгенерирует boilerplate, но реальный корпоративный код редко стартует с нуля
- У опросов насчет продуктивности есть проблемы - самооценка продуктивности редко бывает точной, хотя другие факторы типа satisfaction или well-being опросами можно собрать хорошо
2. Как выглядела методология ребят из Stanford?
- Подключение git-репозиториев, среди которых были преимущественно частные репо, это позволяло замкнуть контекст команды
- Оценка кода группой экспертов, где 10-15 архитекторов ставят баллы за качество, поддерживаемость, сложности (кстати, их оценки хорошо кореллировали между собой) - по-факту, это создание разметки для дальнейшего supervised learning
- Обучение модели для воспроизведения экспертной оценки с высокой корреляцией для оцененой экспертами выборки проектов - это позволяет дальше масштабировать эту модель без дорогостоящего ревью
- Классификация изменений - авторы хотели классифицировать изменения на группы "добавление функционала", "удаление", "рефакторинг", "rework" (переделка свежего кода)
- Дальше эту модель применять ретроспективно с 2019 по 2025 год для того, чтобы отследить влияние COVID, LLM-внедрения и т.д
3. Главные численные выводы исследования
- Сырой прирост кода после внедрения ИИ +30-40% - это включает полезный и «rework»-объём
- Уточнённый прирост продуктивности +15-20% - это с поправкой на баг-фиксы
- На сложных задачах прирост чуть больше 0% с большой дисперсией (иногда вместо прироста убыль)
- Если это представлять в виде матрицы 2x2,как любят консультанты , то получим "сложность задачи× зрелость проекта"
- На эффективность влияет размер кодовой базы, причем выгода падает логарифмически с ростом объема. Гипотеза в том, что на это влияет ограничения контекстного окна LLM, рост шума и большого количества зависимостей внутри кода (coupling)
Если попробовать вынести практические советы, то они кажутся такими
- Оцените типовую сложность и зрелость своего проекта перед масштабным внедрением LLM-ассистентов
- Старайтесь использовать популярные технологии - по ним обучены лучшие модели и качество подсказок выше
- Для legacy-монолитов проведите пилот на небольших модулях - продуктивность может не повышаться при использовании ассистентов из коробки (аля базовый Cursor)
- Мониторьте "rework"-долю: резкий рост количества кода может создавать иллюзию продуктивности
- Комбинируйте количественный git-анализ с качественным ревью, а не ссылайтесь только на "опрос удовлетворённости команды"
P.S.
Yegor Denisov-Blanch является автором исследования про "ghost" разработчиков, что нашумело в прошлом году. Правда, самого исследования мне найти не удалось, зато есть посты о нем в большом количестве мест.
P.P.S.
Сравните с дизайном эксперимента от METR:)
#Engineering #AI #Metrics #Software #DevEx #Productivity
Посмотрел интересное 20 минутное выступление Yegor Denisov-Blanch из Stanford University про измерение продуктивности инженеров. Егор представил результаты трёхлетнего исследования Стэнфорда по производительности 100k разработчиков из 600 компаний. Результаты исследования такие: AI повышает продуктивность в среднем лишь на 15-20%, причём эффект резко варьируется в зависимости от контекста задачи, зрелости кода, популярности языка и размера репозитория. Ниже представлены основные мысли из этого выступления + странички исследования
1. Почему существующие оценки продуктивности ненадёжны?
- Большинство опубликованных работ финансируются поставщиками инструментов (GitHub Copilot, Sourcegraph Cody), что искажает выборку и метрики.
- Фокус на счётчике коммитов/PR без учёта размера и качества задач приводит к ложному росту "output" (условно у нас больше выход кода, но вот насколько он полезен?)
- Оценки greenfield и игрушечных проектов завышают выгоду ИИ: LLM легко сгенерирует boilerplate, но реальный корпоративный код редко стартует с нуля
- У опросов насчет продуктивности есть проблемы - самооценка продуктивности редко бывает точной, хотя другие факторы типа satisfaction или well-being опросами можно собрать хорошо
2. Как выглядела методология ребят из Stanford?
- Подключение git-репозиториев, среди которых были преимущественно частные репо, это позволяло замкнуть контекст команды
- Оценка кода группой экспертов, где 10-15 архитекторов ставят баллы за качество, поддерживаемость, сложности (кстати, их оценки хорошо кореллировали между собой) - по-факту, это создание разметки для дальнейшего supervised learning
- Обучение модели для воспроизведения экспертной оценки с высокой корреляцией для оцененой экспертами выборки проектов - это позволяет дальше масштабировать эту модель без дорогостоящего ревью
- Классификация изменений - авторы хотели классифицировать изменения на группы "добавление функционала", "удаление", "рефакторинг", "rework" (переделка свежего кода)
- Дальше эту модель применять ретроспективно с 2019 по 2025 год для того, чтобы отследить влияние COVID, LLM-внедрения и т.д
3. Главные численные выводы исследования
- Сырой прирост кода после внедрения ИИ +30-40% - это включает полезный и «rework»-объём
- Уточнённый прирост продуктивности +15-20% - это с поправкой на баг-фиксы
- На сложных задачах прирост чуть больше 0% с большой дисперсией (иногда вместо прироста убыль)
- Если это представлять в виде матрицы 2x2,
Complexity/Type. Greenfield Brownfield- На эффективность влияет язык - для популярных языков LLM работают лучше, а для эзотерических хуже.
Low-complexity 30-40% выгод 15-20% выгод
High-complexity 10-15% выгод 0-10% выгод, иногда убыток
- На эффективность влияет размер кодовой базы, причем выгода падает логарифмически с ростом объема. Гипотеза в том, что на это влияет ограничения контекстного окна LLM, рост шума и большого количества зависимостей внутри кода (coupling)
Если попробовать вынести практические советы, то они кажутся такими
- Оцените типовую сложность и зрелость своего проекта перед масштабным внедрением LLM-ассистентов
- Старайтесь использовать популярные технологии - по ним обучены лучшие модели и качество подсказок выше
- Для legacy-монолитов проведите пилот на небольших модулях - продуктивность может не повышаться при использовании ассистентов из коробки (аля базовый Cursor)
- Мониторьте "rework"-долю: резкий рост количества кода может создавать иллюзию продуктивности
- Комбинируйте количественный git-анализ с качественным ревью, а не ссылайтесь только на "опрос удовлетворённости команды"
P.S.
Yegor Denisov-Blanch является автором исследования про "ghost" разработчиков, что нашумело в прошлом году. Правда, самого исследования мне найти не удалось, зато есть посты о нем в большом количестве мест.
P.P.S.
Сравните с дизайном эксперимента от METR:)
#Engineering #AI #Metrics #Software #DevEx #Productivity
YouTube
Does AI Actually Boost Developer Productivity? (100k Devs Study) - Yegor Denisov-Blanch, Stanford
Forget vendor hype: Is AI actually boosting developer productivity, or just shifting bottlenecks? Stop guessing.
Our study at Stanford cuts through the noise, analyzing real-world productivity data from nearly 100,000 developers across hundreds of companies.…
Our study at Stanford cuts through the noise, analyzing real-world productivity data from nearly 100,000 developers across hundreds of companies.…
👍7❤6🔥2
Small AI Teams with Huge Impact (Рубрика #AI)
Посмотрел на выходных интересное выступление Викаса Паручури, основателя и генерального директора Datalab, компании, специализирующейся на создании ИИ-моделей для анализа документов. В своем выступлении Викас делится старой истиной о том, что лучше меньше, да лучше, причем это работает с AI командами:) А если серьезно, то вот основные мысли выступления
1. Философия малых команд
Паручури представил радикальную идею о том, что количество сотрудников не равно продуктивности. Он поделился опытом своей предыдущей компании Dataquest, где после двух раундов увольнений (с 30 до 15, затем до 7 человек) производительность и удовлетворённость сотрудников парадоксально выросли.
2. Проблемы больших команд
Викас выделил четыре основные проблемы, возникающие при масштабировании (sad but true)
- Специализация - узкие специалисты не могут гибко решать ключевые проблемы компании
- Процессная нагрузка - удалённая работа требует множества синхронизаций и встреч
- Перегрузка встречами - особенно с появлением среднего менеджмента
- Неэффективное использование senior-сотрудников - они тратят время на управление junior-персоналом
3. Философия Джереми Ховарда
Паручури поделился подходом Джереми Ховарда из Answer.AI. Суть в том, чтобы нанимать менее 15 универсальных специалистов, заполнять пробелы с помощью ИИ и внутренних инструментов, использовать простые технологии. Этот подход требует высокой культурной планки, доверия и фокуса на клиентах.
4. Практический пример: модель Surya OCR
Datalab обучила модель Surya OCR с 500 миллионами параметров, поддерживающую 90 языков с точностью 99%. Весь процесс — от общения с клиентами до интеграции в продукты - выполняли всего два человека, что в крупной компании потребовало бы несколько команд.
5. Принципы работы малых команд
5.1 Найм и культура
- Нанимать senior-универсалов (зрелость важнее опыта)
- Избегать переусложнения
- Работать лично для быстрой коллаборации
- Платить зарплаты выше рынка
- Минимальное эго, фокус на результат
5.2 Архитектура и процессы
- Агрессивное переиспользование компонентов
- Простые технологии (без React, серверный HTML с HTMX)
- Модульный код, понятный для ИИ
- Минимальная бюрократия, высокое доверие
В итоге, в Datalab команда из 4 человек достигла семизначного годового дохода (ARR) с ростом в 5 раз за 2025 год. Компания недавно привлекла seed-раунд в размере $3,5 млн от основателей OpenAI, FAIR и Hugging Face. Клиентами являются AI-лаборатории первого уровня, университеты, Fortune 500 и правительства. Отдельно Викас рассказал про их процесс найма из трех этапов
- Беседа с коллегой - обсуждение реальной проблемы
- Платный проект - 10 часов работы за $1000
- Культурное соответствие (cultural fit) - оценка совместимости
Интересно, что в этот процесс уже попадают кандидаты, что с высокой вероятностью подходят компании.
Если кратко, то Викас неплохо показал как собирать мобильную и перформящую команду для стартапа, где ключ к успеху — правильные люди, простые процессы и умелое использование ИИ для автоматизации рутинных задач
#AI #Leadership #Engineering #Software #Processes #Productivity
Посмотрел на выходных интересное выступление Викаса Паручури, основателя и генерального директора Datalab, компании, специализирующейся на создании ИИ-моделей для анализа документов. В своем выступлении Викас делится старой истиной о том, что лучше меньше, да лучше, причем это работает с AI командами:) А если серьезно, то вот основные мысли выступления
1. Философия малых команд
Паручури представил радикальную идею о том, что количество сотрудников не равно продуктивности. Он поделился опытом своей предыдущей компании Dataquest, где после двух раундов увольнений (с 30 до 15, затем до 7 человек) производительность и удовлетворённость сотрудников парадоксально выросли.
2. Проблемы больших команд
Викас выделил четыре основные проблемы, возникающие при масштабировании (sad but true)
- Специализация - узкие специалисты не могут гибко решать ключевые проблемы компании
- Процессная нагрузка - удалённая работа требует множества синхронизаций и встреч
- Перегрузка встречами - особенно с появлением среднего менеджмента
- Неэффективное использование senior-сотрудников - они тратят время на управление junior-персоналом
3. Философия Джереми Ховарда
Паручури поделился подходом Джереми Ховарда из Answer.AI. Суть в том, чтобы нанимать менее 15 универсальных специалистов, заполнять пробелы с помощью ИИ и внутренних инструментов, использовать простые технологии. Этот подход требует высокой культурной планки, доверия и фокуса на клиентах.
4. Практический пример: модель Surya OCR
Datalab обучила модель Surya OCR с 500 миллионами параметров, поддерживающую 90 языков с точностью 99%. Весь процесс — от общения с клиентами до интеграции в продукты - выполняли всего два человека, что в крупной компании потребовало бы несколько команд.
5. Принципы работы малых команд
5.1 Найм и культура
- Нанимать senior-универсалов (зрелость важнее опыта)
- Избегать переусложнения
- Работать лично для быстрой коллаборации
- Платить зарплаты выше рынка
- Минимальное эго, фокус на результат
5.2 Архитектура и процессы
- Агрессивное переиспользование компонентов
- Простые технологии (без React, серверный HTML с HTMX)
- Модульный код, понятный для ИИ
- Минимальная бюрократия, высокое доверие
В итоге, в Datalab команда из 4 человек достигла семизначного годового дохода (ARR) с ростом в 5 раз за 2025 год. Компания недавно привлекла seed-раунд в размере $3,5 млн от основателей OpenAI, FAIR и Hugging Face. Клиентами являются AI-лаборатории первого уровня, университеты, Fortune 500 и правительства. Отдельно Викас рассказал про их процесс найма из трех этапов
- Беседа с коллегой - обсуждение реальной проблемы
- Платный проект - 10 часов работы за $1000
- Культурное соответствие (cultural fit) - оценка совместимости
Интересно, что в этот процесс уже попадают кандидаты, что с высокой вероятностью подходят компании.
Если кратко, то Викас неплохо показал как собирать мобильную и перформящую команду для стартапа, где ключ к успеху — правильные люди, простые процессы и умелое использование ИИ для автоматизации рутинных задач
#AI #Leadership #Engineering #Software #Processes #Productivity
YouTube
Small AI Teams with Huge Impact — Vik Paruchuri, Datalab
We scaled Datalab 5x this year - to 7-figure ARR, with customers that include tier 1 AI labs. We train custom models for document intelligence (OCR, layout), with popular repos surya and marker.
I'll talk about a new approach to building AI teams, including…
I'll talk about a new approach to building AI teams, including…
🔥15❤9👍6
Да будет свет... и тепло! Сколько стоит энергия (Рубрика #PopularScience)
В наше время роста AI технологий и связанного с этим взрывного увеличения энергопотребления, понимание принципов работы электросетей стало необходимостью ... поэтому я решил прочитать научно-популярную книгу Андрея Косько на эту тему. Книга была опубликована в далеком 2019 году, когда AI датацентры еще не были на повестке дня, но ее актуальность только стала выше. Так как это научпоп, то книга на пальцах отвечает на вопросы вида
- Что представляет собой энергия и откуда она берется?
- Когда на самом деле закончится нефть?
- Пересядем ли мы в электроавтомобили с солнечными панелями?
- Что такое атомная и возобновляемая энергетика
- Насколько реально глобальное потепление и какие бывают энергетические кризисы
Интересно, что после выпуска первой книги Андрей написал продолжение "Большая энергетика. Что почем и как с этим жить?", которая была опубликована в 2022 году (я заказал ее себе после прочтения первой книги).
Если выделить ключевые идеи, полезные для технических руководителей, то они такие
1. Основы энергосистем
Автор систематично объясняет базовые принципы работы электросетей, которые критически важны для понимания инфраструктурных ограничений.
- Балансировка спроса и предложения: ключевая задача управления любой электросетью - постоянное поддержание баланса между производством и потреблением энергии. Любые дисбалансы вызывают серьезные проблемы, которые обычно проявляются в изменении частоты сети. Когда частота внезапно повышается или понижается, это может привести к повреждению электрооборудования и, в конечном итоге, к отключениям электроэнергии.
- Трехуровневая структура электросистемы: генерация, передача энергии и ее распределения. Автор интересно объясняет как это работает в масштабе.
2. Вызовы для электросетей от AI нагрузок
- Нестабильность потребления: AI workloads (особенно deep learning) могут создавать колебания мощности в сотни мегаватт в течение секунд. Эти быстрые изменения в спросе создают уникальные проблемы для операторов сетей.
- Ограничения сетевой инфраструктуры: большинство линий передачи в США старше 25 лет, а 70% приближаются к концу своего полезного срока службы. Отключения электроэнергии и связанные с ними проблемы становятся все более частыми из-за устаревшей инфраструктуры. В России вроде с этим тоже есть проблемы
3. Планирование инфраструктуры
- Выбор локации дата-центров: понимание региональных ограничений электросетей становится критически важным. Некоторые регионы могут испытывать давление и сталкиваться с потенциальным дефицитом резервов. Интересно, что не всегда просто унести рабочие нагрузки к дешевому электричеству, но те, у кого получается получают конкуретные преимущества (вспоминаем майнеров)
- Понимание smart grid технологий: они позволяют управлять потреблением электричества для сдвига наиболее ресурсоемких задач на периоды низкого спроса, что может привести к экономии эффективности и снижению нагрузки на энергосистемы.
В общем, это интересный топик для изучения хотя бы в таком научно-популярном виде.
#PopularScience #Physics #Engineering
В наше время роста AI технологий и связанного с этим взрывного увеличения энергопотребления, понимание принципов работы электросетей стало необходимостью ... поэтому я решил прочитать научно-популярную книгу Андрея Косько на эту тему. Книга была опубликована в далеком 2019 году, когда AI датацентры еще не были на повестке дня, но ее актуальность только стала выше. Так как это научпоп, то книга на пальцах отвечает на вопросы вида
- Что представляет собой энергия и откуда она берется?
- Когда на самом деле закончится нефть?
- Пересядем ли мы в электроавтомобили с солнечными панелями?
- Что такое атомная и возобновляемая энергетика
- Насколько реально глобальное потепление и какие бывают энергетические кризисы
Интересно, что после выпуска первой книги Андрей написал продолжение "Большая энергетика. Что почем и как с этим жить?", которая была опубликована в 2022 году (я заказал ее себе после прочтения первой книги).
Если выделить ключевые идеи, полезные для технических руководителей, то они такие
1. Основы энергосистем
Автор систематично объясняет базовые принципы работы электросетей, которые критически важны для понимания инфраструктурных ограничений.
- Балансировка спроса и предложения: ключевая задача управления любой электросетью - постоянное поддержание баланса между производством и потреблением энергии. Любые дисбалансы вызывают серьезные проблемы, которые обычно проявляются в изменении частоты сети. Когда частота внезапно повышается или понижается, это может привести к повреждению электрооборудования и, в конечном итоге, к отключениям электроэнергии.
- Трехуровневая структура электросистемы: генерация, передача энергии и ее распределения. Автор интересно объясняет как это работает в масштабе.
2. Вызовы для электросетей от AI нагрузок
- Нестабильность потребления: AI workloads (особенно deep learning) могут создавать колебания мощности в сотни мегаватт в течение секунд. Эти быстрые изменения в спросе создают уникальные проблемы для операторов сетей.
- Ограничения сетевой инфраструктуры: большинство линий передачи в США старше 25 лет, а 70% приближаются к концу своего полезного срока службы. Отключения электроэнергии и связанные с ними проблемы становятся все более частыми из-за устаревшей инфраструктуры. В России вроде с этим тоже есть проблемы
3. Планирование инфраструктуры
- Выбор локации дата-центров: понимание региональных ограничений электросетей становится критически важным. Некоторые регионы могут испытывать давление и сталкиваться с потенциальным дефицитом резервов. Интересно, что не всегда просто унести рабочие нагрузки к дешевому электричеству, но те, у кого получается получают конкуретные преимущества (вспоминаем майнеров)
- Понимание smart grid технологий: они позволяют управлять потреблением электричества для сдвига наиболее ресурсоемких задач на периоды низкого спроса, что может привести к экономии эффективности и снижению нагрузки на энергосистемы.
В общем, это интересный топик для изучения хотя бы в таком научно-популярном виде.
#PopularScience #Physics #Engineering
❤5👍4🔥3
Иллюстрации для книги "Да будет свет... и тепло! Сколько стоит энергия"
🔥11👍5❤3