Книжный куб
11.1K subscribers
2.65K photos
6 videos
3 files
1.95K links
Рекомендации интересных книг, статей и выступлений от Александра Поломодова (@apolomodov), технического директора и эксперта в архитектуре
Download Telegram
ML-платформа: всеобщее благо или лучше не надо (Рубрика #AI)

Посмотрел интересное интервью моих коллег на тему ML платформы. Мне нравится и ML и platform engineering, а тут собралось комбо, поэтому я не мог пройти мимо этого выпуска "Желтый AI Club Talks". В нем участвуют два человека:
- Даниил Гаврилов — ведущий, руководитель Research-команды
- Михаил Чебаков — гость, руководитель разработки платформ ML

Вот основные идеи интервью
1. Философия ML-платформы
Михаиил представил концепцию идеальной ML-платформы через метафору канализации — она должна быть незаметной в работе, но критически важной для функционирования. Платформа должна инкапсулировать операционные затраты, связанные с масштабированием, предоставлением ресурсов, мониторингом и обеспечением отказоустойчивости, позволяя разработчикам сосредоточиться на основной работе.
2. Эволюция платформы
Развитие ML-платформы в Т-Банке началось с классической проблемы — кластера серверов с SSH-доступом, который перестал справляться с растущими потребностями команд. Первым решением стало внедрение простого оркестратора, что повысило утилизацию серверов.
3. Самая важная функция
По мнению Михаила, ключевой особенностью платформы стала возможность управления данными — создание папок, доступных из любой точки кластера, с автоматическим резервным копированием. Эта функция позволяет командам легко обрабатывать нестандартные данные, генерировать промежуточные артефакты и переносить работу между кластерами.
4. Проблемы с пользовательским опытом
Миша привел пример фичи, где пользователи просили добавить папки для организации своей работы. Ребята подумали и придумали максимально общую систему организации работы через лейблы — решение получилось технически правильным. Через фильтрацию лейблов можно было делать любые представления, но это было не user friendly с точки discovery этой фичи, а также дальше в процессе использования. В итоге, Михаил подчеркнул важность создания интуитивно понятного интерфейса, где функционал можно найти без изучения документации.
5. Сопротивление переходу на платформу
Многие разработчики предпочитают работать через SSH из-за ощущения контроля, прозрачности процессов и совместимости с большинством open-source проектов. Однако такой подход создает проблемы с воспроизводимостью результатов, потерей данных и масштабированием.
6. Три ключевых домена ML платформы
- Инженерный опыт — интерактивная работа одного разработчика с минимальным циклом обратной связи
- Производственные конвейеры — автоматизация устоявшихся процессов с акцентом на воспроизводимость
- Развертывание и эксплуатация — обеспечение эффективности и полезности готовых решений
7. Принципы проектирования
Основной принцип — делать правильные пути простыми, а неправильные — сложными. Это предотвращает ошибки и направляет пользователей к оптимальным решениям.
8. Методы оценки эффективности
- Базовые метрики: количество пользователей, команд, retention
- Регулярные опросы и замеры удовлетворенности
- Догфудинг — использование платформы для собственных внутренних задач разработки платформы
- Плотное взаимодействие с командами в режиме co-development
9. Разнообразие ML-направлений
Платформа обслуживает десять различных направлений: R&D, RecSys, CV, генерацию изображений, LLMs, прикладное NLP, антифрод, рисковые скоринги, распознавание и синтез речи. Каждое направление имеет уникальные требования к данным, воспроизводимости и аппаратуре.
10. Видение будущего
Михаил видит идеальное будущее платформы в полном воспроизведении опыта работы с SSH-серверами, но с преимуществами платформенного подхода — все необходимые функции должны быть доступны "из коробки" без необходимости изучения документации.

Ключевой вызов заключается в том, что команда разработки платформы работает как "вторая производная" от продукта — они создают инструменты для технологий, которые затем используются для создания продуктов. Это требует постоянного мониторинга индустриальных трендов и опережающего развития функционала.

#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops #DistributedSystems
👍63🔥1
Measuring AI code assistants and agents (Рубрика #AI)

Прочитал свежий (вчерашний) research на тему измерения эффекта от AI в разработке от Abi Noda, кофаундера и CEO платформы DX для измерения продуктивности разработки. Этот отчет интересен, так как ребята из DX являются одними из законодателей мод в мире developer productivity:
- Они запилили модель DevEx, которую я уже разбирал "DevEx: What Actually Drives Productivity" и "DevEx in Action"
- В команду платформы входит Nicole Forsgren, которая драйвила развитие DORA метрик, была автором книги "Accelerate", приложила руку к фреймворку SPACE

Теперь, когда ясно почему ребят интересно изучать, давайте заглянем в сам отчет и выделим основные идеи

1. Влияние AI на разработку
AI кардинально меняет подход к инженерной деятельности в технологических компаниях - компании больше не ограничены количеством инженеров, а скорее степенью аугментации их возможностей с помощью AI. Упоминаются такие результаты нескольких компаний
- Booking.com, внедрив AI-инструменты для более чем 3500 инженеров, достигла 16% увеличения throughput за несколько месяцев
- Intercom, почти удвоив использование AI-ассистентов кода, добилась 41% увеличения экономии времени разработчиков.
AI также расширяет понятие "разработчика" - продакт-менеджеры, дизайнеры и бизнес-аналитики теперь могут создавать работающее программное обеспечение с помощью AI, размывая границы между техническими и нетехническими ролями. Вспоминаем про vibe coding:)

2. Ключевые метрики для измерения
Авторы отчета расширяют свой DX фреймворк отдельным направлением DX AI, где фокус на трех вещах
- Utilization - отслеживание внедрения и использования AI-инструментов. Исследования показывают, что даже ведущие организации достигают лишь около 60% активного использования AI-инструментов.
- Impact - измерение реального эффекта на производительность. Рекомендуется сочетать:
-- Прямые метрики: экономия времени разработчиков
-- Косвенные метрики: анализ DX Core 4 показателей (PR throughput, percieved rate of delivery, developer experience index)
- Cost - отслеживание затрат, чистой прибыли (сэкономленное время разработчиков - затраты)
Интересно, что у ребят есть бенчмарки по этим метрикам, которые они предоставляют клиентам DX платформы

3. Баланс скорости и качества
Организации должны балансировать метрики эффективности с показателями качества, чтобы избежать подрыва долгосрочной скорости разработки. AI-генерированный код может быть менее интуитивным для понимания человеком, что создает потенциальные проблемы.

4. Измерение AI-агентов
Исследование рекомендует рассматривать автономных агентов как расширения команд разработчиков, а не как независимых участников. Каждый разработчик будет все больше работать как "менеджер" команды AI-агентов, а оценивать его результаты надо будет по результатам работы этой команды AI агентов

5. Подходы к внедрению системы измерений
Важно правильно коммуницировать цели вндерения метрик, связанных с использованием AI. Авторы рекомендуют четко подчеркивать три ключевых момента:
- Метрики не будут использоваться для индивидуальной оценки производительности сотрудников (ведь не будут же?)
- Цель измерения - понять, как AI-assisted работа влияет на опыт разработчиков и качество программного обеспечения, а не микроменеджмент
- Данные необходимы для принятия инвестиционных решений, помогая определить, какие инструменты и рабочие процессы приносят реальную ценность

6. Избежание ловушек

Отчет категорически предостерегает от директивных мандатов сверху или использования метрик для индивидуальной оценки производительности. Такие метрики, как объем генерации кода, особенно подвержены манипуляциям. Проактивная коммуникация является ключевой - без неё спекуляции и страхи могут заполнить информационный вакуум.

В общем, этот отчет показывает важность сочетания AI-специфических рекомендаций с измерением общей производительности разработчиков, чтобы получить полную картину того, как AI влияет на организационную эффективность.

#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
6👍5🔥2
Почему ИИ не работает без настоящего инженера (Рубрика #AI)

Посмотрел интересный выпуск подкаста "Организованное программирование" Кирилла Мокевина, куда он позвал интересного гостя, Андрея Татаринова, поговорить про AI не только с точки зрения концепций, но и практического применения. Сам Андрей — опытный инженер (ex-Yandex, ex-Google) с бэкграундом в области машинного обучения. После работы в найме он основал собственную команду "Эпоха 8" (Epoch 8), которая специализируется на решении задач методами машинного обучения и помогает стартапам внедрять ИИ в реальные продукты (кстати, в блоге на сайте Андрея интересно почитать кейсы внедрения AI решений). Ниже представлены основные моменты обсуждения, что длилось около 2.5 часов:)

1. ИИ как "волшебные API-вызовы"
Андрей отмечает, что сложная тематика машинного обучения превратилась в классические API-вызовы к сервисам. Для большинства разработчиков современный ИИ — это не самостоятельное обучение моделей с нуля, а умелое использование готовых решений через API.
2. Пределы экспоненциального роста
Андерй считает, что мы близки к возможному насыщению в развитии AI. Он сравнивает текущую ситуацию с космическими технологиями: после бурного роста наступает плато, требующее качественно новых подходов. Быстрая смена лидеров на бенчмарках указывает на приближение к теоретическому пределу качества.
3. Техническая архитектура LLM
Инференс и рантаймы: Нейросети представляют собой последовательность матричных перемножений и нелинейностей. Выбор рантайма критически важен для эффективности, особенно для больших моделей. Языковые модели генерируют токены по одному, запуская инференс многократно для получения полного ответа. Это объясняет стриминговый характер вывода.
4. Практические вызовы внедрения
Fine tuning и prompt engineering - это технологии для масс, так как обучение с нуля имеет "заградительный ценник" для обычных компаний. Причем начинать рекомендуется начинать с написания лучшего промта и его тестирования. Отдельно Андрей отметил проблемы совместимости - кастомизация моделей часто приводит к несовместимости с различными рантаймами. Конвертация между рантаймами аналогична кросс-компиляции программ. А вообще, рантаймов много и для LLM есть помимо общих вида PyTorch существуют llama.cpp, Ollama, Llamafile, ...
5. RAG и векторные базы знаний
RAG (Retrieval Augmented Generation) решает проблему ограничений промтов по объему. Система использует векторную базу знаний для поиска релевантной информации и "насыщения" промта целевыми данными. Очень популярная техника в текущий момент
6. Ограничения современных моделей
Даже с четкими правилами модели могут выдавать неточную информацию из-за своей вероятностной природы. Это особенно критично для специализированных задач, таких как рекомендательные системы в e-commerce. Количество информации, что может усвоить модель на претрейне ограничено количеством гипер-параметров. Дообучение модели иногда приводит к забыванию знаний в других областях, что были усвоены во время тренировок.
7. Будущее ИИ-агентов
Стандарт MCP (Model Control Protocol) открывает возможности для создания бизнес-ассистентов. Однако ограничивающим фактором остается способность к многошаговому рассуждению. Андрей скептично относится к возможности создания универсального ассистента, который разумно решал бы многостадийные задачи в ближайшем будущем.

По результатам общения можно выделить ряд практических советов для решения задач с помощью LLM
- Начинайте с промт-инжиниринга вместо попыток обучить модель с нуля
- Используйте RAG для работы с большими объемами специализированных данных
- Тестируйте качество итеративно, как в классическом ML
- Учитывайте ограничения рантаймов при планировании архитектуры
- Реалистично оценивайте возможности текущих ИИ-решений

#AI #Software #Architecture #Metrics #Engineering #ML #Agents
9👍7🔥2
Engineering Leadership Report 2025 от LeadDev (Рубрика #Management)

С интересом изучил мартовский отчет от LeadDev на тему инженерного лидерства, который был основан на опросе 600+ лидеров, что проводился в марте этого года. Начать стоит с того, что компания LeadDev, создатель отчета, была основана в 2013 году и специализируется на развитии engineering leadership. Компания проводит конференции и митапы по всему миру в технологических хабах. Их миссия в том, чтобы помогать инженерным лидерам становиться более эффективными, где под лидерами понимаются технические руководители, lead engineers, технические директора.

Исследование проводилось в период с 14 по 27 марта 2025 года и имело следующие параметры
- Количество респондентов - 617
- Географическое распределение: USA (34%), UK (20%), Germay (10%), Canada (6%), Asia (4%), Others (6%)
- Профили участников: менеджеры инженеров (37%), менеджеры менеджеров (18%), advanced engineers (14%), software engineers (12%), techleads (9%), CTO (6%), others (3%)
- Размер организаций: компании [1000, 5000) - 21%, компании [5000, ∞) - 21%, [100, 250) - 16% и так далее до 5% на стартапы до 20 человек

Если смотреть на ключевые результаты исследования, то они такие
- 65% респондентов обеспокоены рецессией, что отражает общую тревогу в технологическом секторе. Страхи о сокращении доступных рабочих мест выросли с 48% в 2024 году до 53% в 2025 году.
- Снижение волны увольнений и замораживания найма на 17 процентных пунктов по сравнению с предыдущим годом. Если в 2024 году 67% компаний сталкивались с увольнениями или заморозкой найма, то в 2025 году этот показатель снизился до 50%.
- Изменения в управленческой структуре. Наблюдается продолжение тенденции "выравнивания" организационных структур. Среди компаний, которые сократили количество менеджеров:
-- 67% сократили линейных менеджеров
-- 56% сократили менеджеров среднего звена
-- 18% затронули высшее управление
- Трансформация роли инженерных лидеров. 65% респондентов сообщили о расширении своих обязанностей, включая более широкие области ответственности. 40% получили дополнительных подчиненных. Это привело к тому, что 38% инженерных лидеров стали работать больше часов. Похожие показатели были и в 2024 году, но все параметры выросли на 3-4 процентных пункта. 58% респондентов тратят больше времени на коммуникацию с командами, клиентами и заинтересованными сторонами, в то время как 26% сократили время на написание и ревью кода.
- Кризис мотивации и выгорание. 40% респондентов считают, что их команды менее мотивированы приходить на работу, чем 12 месяцев назад.
- Воздействие искусственного интеллекта. 53% респондентов внедрили AI-функции в свои продукты за последние 12 месяцев. 58% инженерных лидеров рассматривают инвестиции в AI-инструменты для кодирования. Однако 60% не верят, что AI значительно повысил продуктивность их команд.
- Изменения в отношении к DEI. Только 5% организаций ликвидировали программы разнообразия, справедливости и инклюзивности в прошлом году, несмотря на громкие заголовки о сворачивании их в Bigtech компаниях

Если подумать о советах, что можно дать по итогам исследования, то стоит их поделить на категории
Для инженерных лидеров
- Развивайте навыки коммуникации и управления изменениями, так как лидерам приходиться тратить больше времени на коммуникацию
- Боритесь с выгоранием проактивно
- Пересмотрите подход к мотивации команды

Для организаций
- Инвестируйте в развитие менеджеров. Поскольку компании продолжают сокращать управленческие позиции, оставшиеся менеджеры несут повышенную нагрузку. Обеспечьте им необходимые инструменты и поддержку для эффективного управления расширенными командами.
- Реалистично оценивайте потенциал AI и правильно коммуницируйте его командам
- Сохраняйте баланс между эффективностью и благополучием сотрудников

В общем, интересный отчет, но никаких особых инсайтов у меня от него не возникло.

#Leadership #Engineering #Management #Software #Processes
7👍4🔥4🤔2
Детский лагерь "Пески времени" (Рубрика #ForKids)

Сегодня хотел рассказать про лагерь "Пески времени" для детей от 7 до 12 лет, который пройдет с 20 по 27 июля в Истринском районе Московской области. В организации этого лагеря помогает Настя, моя жена, а также она выступает там в качестве вожатой одного из отрядов (обычно это старший отряд девочек). Она занимается этим уже третий год подряд, причем с ней в лагерь вместе отправляется Максим, наш средний сын. В этом году лагерь будет посвящен археологии, год назад он был про журналистику, а два года назад детишки попали в Нарнию. В этом году ключевая тема звучит так: как понять, что ты откопал (реальную ценность или подделку). В общем, там есть еще несколько мест в разных возрастных группах, так что есть желание можно отправить своего ребенка на раскопки, чтобы он смог себя почувствовать Индианой Джонсом.

#ForKids #ForParents
👍5🔥54
Letting AI Interface with your App with MCP — Kent C Dodds (Рубрика #AI)

Посмотрел интересное выступление с World's Fair AI конференции от Kent C. Dodds, веб-разработчика, преподавателя и предпринимателя из Юты. Он является создателем нескольких образовательных платформ: EpicWeb.dev, EpicAI.pro, EpicReact.dev и TestingJavaScript.com. Он активно участвует в сообществе разработчиков как автор сотен популярных npm-пакетов с открытым исходным кодом, инструктор на платформах egghead.io и Frontend Masters, Microsoft MVP и спикер на многочисленных конференциях. Ранее работал в крупных компаниях, включая PayPal, где представлял компанию в комитете TC-39, ответственном за стандартизацию JavaScript.

Ниже представлены ключевые идеи выступления
1. Эволюция пользовательского взаимодействия
Kent начинает с тезиса о том, что мы входим в новую эру пользовательского взаимодействия, где каждый получит своего собственного "Джарвиса" — AI-помощника, способного выполнять реальные задачи. Он демонстрирует отрывок из фильма "Железный человек", где Тони Старк взаимодействует с Джарвисом, анализируя возможности этого AI-помощника: компиляция баз данных, генерация пользовательского интерфейса, доступ к публичным записям, анализ данных и создание планов действий.

2. Три фазы развития AI-помощников
Kent выделяет три этапа эволюции AI-технологий:
- Фаза 1 - она началась примерно 3 года назад с появления ChatGPT с возможностью отвечать на вопросы, но требующее ручного ввода контекста и копирования результатов.
- Фаза 2 - потом хост-приложения начали предоставлять AI доступ к дополнительному контексту через интеграции (поисковые системы, календари, Slack и т.д.), но эти интеграции оставались ограниченными возможностями разработчиков крупных компаний.
- Фаза 3 - эта фаза началась с появления Model Context Protocol (MCP), стандартного протокола, который позволяет AI-помощникам взаимодействовать с любыми системами и сервисами.

3. Model Context Protocol
MCP - это открытый стандарт, разработанный компанией Anthropic в ноябре 2024 года. Протокол решает фундаментальную проблему интеграций: вместо необходимости создавать отдельные коннекторы для каждой комбинации AI-приложения и источника данных, MCP предоставляет универсальный интерфейс.
Архитектура MCP включает три компонента:

4. Демка ассистента
Kent демонстрирует работу MCP на примере создания записи в журнале в Claude Desktop с использованием трех MCP-серверов:
- Locationator — для определения текущего местоположения
- Сервер погоды — для получения актуальных погодных условий
- EpicMe — для аутентификации и работы с журналом
Демонстрация показывает, как AI может динамически использовать различные сервисы, аутентифицироваться через OAuth 2.1, создавать и управлять данными, а также форматировать ответы в удобном для пользователя виде.

Если суммаризировать, то Кент считает, что MCP представляет собой фундаментальный сдвиг в взаимодействии пользователей с технологиями. Пользователи больше не будут ограничены браузерным интерфейсом и сложными поисковыми запросами — они смогут естественным образом формулировать задачи, а AI будет не только понимать намерения, но и выполнять конкретные действия. Эта трансформация означает переход от парадигмы "поиска информации" к парадигме "выполнения задач". Вместо того чтобы учить пользователей формулировать правильные поисковые запросы, технология адаптируется к естественному способу человеческого общения. По мнению автора, мы находимся всего в одном качественном пользовательском интерфейсе от реализации мечты о персональном Джарвисе для каждого пользователя.

#AI #Software #Architecture #Metrics #Engineering #ML #Agents
👍75🔥3
Траблшутинг. Как решать нерешаемые задачи, посмотрев на проблему с другой стороны (Рубрика #Management)

Прочитал недавно покетбук про траблшутинг от Сергея Фаера, который на самом деле оказался тизером системы ТРИЗ (плюс большая доля саморекламы автора). Книга изначально середины 2010х годов, но я купил переиздание 2025 года. Автор давний адепт ТРИЗа причем применяет он эту теорию в нетехнической сфере, с начала 90х годов, консультируя компании разного масштаба, например, по вопросам избирательных компаний (часть историй уровня фильма "День выборов"). Как указывает сам Сергей Фаер среди его клиентов также были такие крупные корпорации как Газпром нефть, СИБУР, РУСАЛ, АЛРОСА, Росатом, Сбербанк, ВТБ24 и многие другие.

Дальше я расскажу немного про ключевые идеи:
1. ТРИЗ и бизнес
ТРИЗ была создана изобретателем Генрихом Альтшуллером и его последователями для решения технических задач, но Фаер показал, как эти инструменты можно применить в бизнесе, управлении, маркетинге и других областях.
2. Основные принципы ТРИЗ от Сергея
- Стремление к идеальности — любая система развивается в направлении уменьшения затрат при сохранении полезной функции
- Противоречие как основа решения — для нахождения сильного решения нужно не искать компромисс, а обострить формулировку задачи и разрешить противоречие
- Объективные законы развития систем — системы развиваются не случайно, а по предсказуемым законам
- Использование ресурсов — поиск решений с минимальными затратами, используя доступные ресурсы
3. Ключевые инструменты траблшутинга, подхода, которым делится Сергей в этой книге
- Идеальный конечный результат (ИКР) — формулирование наилучшего решения
- Метод парадоксов — превращение недостатков в достоинства
- Алгоритмы решения изобретательских задач (АРИЗ)
- Стратагемы траблшутера — система согласованных тактических приёмов

Если говорить про применимость подходов автора, то она подтверждается
- Примера внедрения ТРИЗ в крупных компаниях
- Конкретными кейсами что выглядят +/- рабочими
- Развитием латерального мышления и способностью находить нестандартные решения

Если говорить про ограничения применимости, то
- Мне кажется, что материала книги недостаточно для самостоятельного освоения методологии (стоит еще почитать "Найти Идею. Введение в ТРИЗ - теорию решения изобретательских задач", про которую я рассказывал)
- Книга местами напоминает "рекламу автора" (особенно мне нравятся куски с самоинтервью автора)
- Не все примеры актуальны для современных условий (выборные механики начала 2000х годов остались в начале 2000х)

В общем и целом, книга читается легко и весело, но содержит отсылки к сложным темам, поэтому совсем легким чтивом ее не назовешь. Но она отлично подходит для формата покетбука, который можно почитать по дороге на работу.

#SystemDesign #SystemThinking #TRIZ #Architecture #Management #Thinking
👍104👎4🔥2🫡1
Architecting Agent Memory: Principles, Patterns and Best Practices (Рубрика #Architecture)

Посмотрел интересный доклад Richmond Alake из MongoDB про ключевую роль памяти в создании надежных, правдоподобных и мощных AI-агентов. Ну и в качестве памяти лучше использовать MongoDB, ведь Ричмонду надо было рассказать не просто про все хорошее, а еще и притянуть туда свое вендорское решение. Собственно, Richmond Alake - опытный инженер по машинному обучению и архитектор ИИ в MongoDB Inc., которая разрабатывает и предоставляет коммерческую поддержку для базы данных с открытым исходным кодом MongoDB, а также SaaS-версию продукта под названием Atlas. В феврале 2025 года MongoDB объявила о приобретении Voyage AI - компании-пионера в области создания современных моделей векторных представлений и переранжирования. Voyage AI привлекла 20 миллионов долларов в октябре 2024 года при участии Snowflake. Это приобретение направлено на повышение точности и надежности ИИ-приложений за счет интеграции высококачественных возможностей поиска и извлечения данных непосредственно в платформу баз данных MongoDB.

Ну а теперь поговорим про ключевые идеи выступления

1. Эволюция ИИ-систем
Richmond проследил эволюцию от чат-ботов на основе больших языковых моделей к RAG-системам (Retrieval-Augmented Generation), а затем к современным агентным системам. Он подчеркнул, что агентность - это спектр, и различные уровни автономности требуют разных подходов к управлению памятью.
2. Типы памяти агентов
В выступлении были рассмотрены различные типы памяти, необходимые для создания интеллектных агентов:
- Краткосрочная память для оперативного контекста
- Долгосрочная память для сохранения опыта между сеансами
- Семантическая память для хранения фактических знаний и концепций
- Эпизодическая память для записи последовательностей прошлых событий и взаимодействий
- Процедурная память для изученных поведений и паттернов действий
- Память персоны для поддержания постоянной личности агента
- Память рабочих процессов для сохранения опыта выполнения задач
- Память инструментов для управления доступными функциями
3. Библиотека Memoriz
Автор представил экспериментальную библиотеку с открытым исходным кодом Memorizz. Библиотека содержит паттерны проектирования и типы памяти для ИИ-агентов, предоставляя гибкие фреймворки для одно- и многоагентных систем. Memoriz интегрирует MongoDB с возможностями векторных вложений, обеспечивая семантический поиск по всей сохраненной информации.
4. MongoDB как поставщик памяти
Ключевой тезис выступления - MongoDB является поставщиком памяти для агентных систем. Компания предоставляет разработчикам все необходимые возможности для превращения данных в память, делая агентов надежными, правдоподобными и способными. MongoDB Atlas Vector Search позволяет избежать "налога на синхронизацию", сохраняя операционные и векторные данные в одном месте.
5. Управление памятью как ключевая компетенция
Richmond предсказал, что в ближайшие месяцы инженеры по ИИ станут инженерами памяти ИИ, фокусируясь на систематическом процессе организации информации для эффективного извлечения и структурирования. Основные компоненты управления памятью включают: генерацию, хранение, извлечение, интеграцию, обновление и реализацию механизмов забывания.
6. Вдохновение из нейробиологии
В заключение автор подчеркнул важность изучения природы как лучшего архитектора интеллекта. Он упомянул исследования Хьюбела и Визеля о зрительной коре кошек 1981 года, которые вдохновили создание сверточных нейронных сетей. И MongoDB сотрудничает с нейробиологами и создателями таких проектов, как MemGPT для продвижения к искусственному общему интеллекту.

Выступление Richmond Alake демонстрирует, как MongoDB ловит хайп и стремится стать неотъемлемой частью стека технологий ИИ, предоставляя разработчикам инструменты для создания агентов нового поколения, способных помнить, адаптироваться и совершенствоваться со временем.

#AI #Architecture #Brain #Software #Engineering #Agents
👍7🔥64
How CFOs are navigating growth, pricing, and forecasting in an AI world (Рубрика #AI)

Прочитал интересную рассылку от фонда a16z по теме fintech, в которой обсуждались вопросы роста, прайсинга и предсказаний в нашем новом AI мире. Своими мнениями поделились уважаемые джентельмены из уважаемых компани (особенно Databricks)
- Dave Conte, CFO в Databricks — платформа для аналитики и ИИ-решений корпоративного уровня
- Maciej Mylik, Finance в ElevenLabs — компания по исследованию и развертыванию ИИ-аудио технологий
- Hanson Hermsmeier, VP Corporate Finance в Together AI — облачная платформа для разработчиков и исследователей ИИ
- Matthieu Hafemeister, сооснователь Concourse — компания, создающая ИИ-агентов для корпоративных финансовых команд
- Noah Barr, CFO в Ambient.ai — компания компьютерного зрения для автоматизированной безопасности

Эти джентельмены поделились своими идеями на темы
1. Переосмысление ценообразования: переход от подписки к потреблению и результатам
ИИ стимулирует сдвиг к ценообразованию, основанному на результатах. Databricks использует модель, где "ценообразование и признание выручки полностью основаны на выходных данных, в отличие от моделей потребления, основанных на входных данных". ElevenLabs применяет динамическое ценообразование — снижает удельные цены при увеличении обязательств клиентов для стимулирования больших контрактов. В общем, похоже на модельки с revshare или скидочную модель для оптовых потребителей
2. ARR (Annual Recurring Revenue) требует переосмысления
Традиционные метрики ARR не отражают реальность моделей ценообразования на основе использования. Компании внедряют гибридные метрики:
- ElevenLabs отслеживает «ARR плюс аннуализированное использование» для корректного учета превышения квот корпоративными клиентами (условно, потребители превышают свои квоты в подписках, а значит лучше учитывать не подписку на год, а потребление с учетом превышений)
- Databricks использует свою же дата платформу для понимания и прогнозирования истинного ARR на основе потребления
3. Давление на валовую маржу и управление затратами
Построение на базе foundation-моделей вводит значительные переменные затраты, масштабируемые с использованием ИИ. Предельная стоимость дополнительного пользователя больше не равна нулю и варьируется по пользователям. Ключевыми вызовами являются
- Мониторинг инфраструктурных расходов - ElevenLabs отслеживает рост затрат относительно использования
- Управление фиксированными GPU-затратами - Together AI отслеживает простои GPU как потери эффективности
- Новые типы затрат - Ambient.ai включает команду "human in the loop" в себестоимость
4. Оценка ROI в мире ИИ
По мере коммодитизации некоторых ИИ-функций инвестиции в будущее становятся критичными. Компании фокусируются на
- Долгосрочной дифференциации через исследовательские проекты
- Создании сложных продуктовых слоев для увеличения стоимости переключения (switch cost)
- Предиктивной аналитике для измерения влияния возможностей на рост клиентов
5. Использование ИИ для продвинутого финансового прогнозирования
Планирование на 12 месяцев в ИИ остается вызовом из-за постоянных инноваций. Решения включают
- Databricks использует собственную платформу для прогнозирования моделей потребления на уровне клиентов и продуктов
- Применение продвинутой аналитики и машинного обучения вместо традиционных инструментов как Excel
- Признание, что надежное прогнозирование выручки для ИИ еще не решено полностью

В общем, создателям продуктов с AI для крупных пользователей приходится решать вопросы роста, прайсинга и предсказаний в изменившемся AI мире.

#AI #Management #ML #Software #Engineering
7👍2🔥1
Review of "AI Engineering Book" #1 - Preface & Intro Chapter (Рубрика #AI)

Это первая серия с разбором крутой книги "AI Engineering", которая дает представление о создании gen AI приложений. Книгу разбирает Александр Поломодов, технический директор Т-Банка, а также Евгений Сергеев, engineering director в Flo.

В первой серии мы обсудили книгу в общем, а также разобрали первую главу. Если выделять крупные темы, то они сгруппированы так
- Введение в обзор книги "AI Engineering"
- Разбор структуры книги из 10 глав
- Переход от ML к Gen AI и его преимущества
- Токены и их роль в работе языковых моделей
- Мультимодальность - комбинирование текста, изображений и других модальностей
- Сентимент-анализ и модерация контента с помощью LLM
- Хайп вокруг LLM и влияние на бизнес-ожидания
- AI как ключ к эффективной стратегии развития внутренних платформ разработки (aka platform engineering)
- Анализ трендов AI проектов на GitHub
- Примеры использования в корпорациях
- Интеграция инструментов MCP и Claude Desktop
- Стоимость и качество моделей - тенденции развития
- Промт-инжиниринг и демократизация разработки

Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.

#Architecture #Software #AI #Engineering #ML #Data #SystemDesign #DistributedSystems
👍95🔥1
Эксперимент с джемом о трудностях выбора (Рубрика #Economics)

Есть такой классический эксперимент про сложность выбора, который провели и опубликаовали в whitepaper "When Choice is Demotivating: Can One Desire Too Much of a Good Thing?" 25 лет назад. Этот эксперимент часто используют для аргументации создания сервисов для помощи в выборе чего угодно. Но кажется, что стоит заглянуть внутрь эксперимента и последующих исследований на эту тему. Начнем с оригинального эксперимента с дегустацией джема в элитном продуктовом магазине.

Условия эксперимента:
- Стенд с 24 различными видами джема Wilkin & Sons
- Стенд с 6 видами джема той же марки
- Покупатели получали купон на $1 при дегустации
- Варианты проведения теста были разнесены во времени
Результаты оригинального исследования:
- 60% покупателей подходили к стенду с 24 видами джема
- 40% подходили к стенду с 6 видами
- Но только 3% покупателей купили джем после дегустации широкого ассортимента
- В то время как 30% купили джем после дегустации ограниченного выбора
Это исследование стало основой для теории "парадокса выбора" Барри Шварца и получило широкую популярность.

Этот парадокс выбора оказался горячей темой и другие ученые пытались его анализировать и/или повторять. Достаточно интересный мета-анлиз сделал Бенджамин Шайбехенне и остальные в статье "Can There Ever Be Too Many Options? A Meta-Analytic Review of Choice Overload" 2010 года. Если говорить о ключевых выводах этого метаисследования, то они такие
- Средний размер эффекта перегрузки выбора (choice overload) составил практически ноль
- Обнаружена значительная вариативность между исследованиями
- Не удалось идентифицировать достаточные условия для возникновения перегрузки выбора
- Многие попытки репликации оригинального эксперимента с джемом не увенчались успехом

Дальше эту тему продолжали исследолать и стало ясно, что на эффект choice overload влияли следующие факторы
- Тип решения и сложность опций
- Наличие четких предпочтений у потребителей
- Контекст принятия решения (например, давление по времени)
- Индивидуальные различия между принимающими решения

Кстати, метаанализ выявил, что больше выбора явно полезнее:
- Когда потребители имеют четко определенные предпочтения
- При выборе количества потребления (size, quantity, ...)
- В ситуациях, где дополнительные опции воспринимаются как релевантные и различимые

В итоге, если вам рассказывают эксперимент про джем и говорят про сложность выбора, то знайте, что современное понимание предполагает, что влияние количества выбора на поведение потребителей гораздо более сложное и контекстно-зависимое, чем предполагалось изначально. Простая формула "меньше выбора = больше покупок" оказалась слишком упрощенной для объяснения реального поведения потребителей

#Economics #Brain #Psychology #Management
9👍5🔥4
Software engineering with LLMs in 2025: reality check (Рубрика #AI)

Посмотрел интересное выступление Gergely Orosz, инженера и автора рассылки "The Pragmatic Engineer" на Substack и автора книги "The Software Engineer's Guidebook". Он выступал с этим докладом на конференции LDX3 (LeadDev London) 16 июня 2025 года, крупнейшем фестивале engineering leadership, где было 2000 участников. Кстати, я недавно рассказывал про отчет "Engineering Leadership Report 2025" от этой компании LeadDev. Но если возвращаться к самому докладу, то ниже саммари его ключевых идей

1. Orosz провел качественное исследование для анализа реальной ситуации с Gen AI. Он решил заняться этим, так как существует большой разрыв между оптимистичными заявлениями CEO крупных компаний: Microsoft CEO утверждает, что 30% кода пишется ИИ, Anthropic CEO прогнозирует 90% ИИ-кода через год (я рассказывал про это выступление) и реальными проблемами на практике, включая дорогостоящие ошибки AI-инструментов и неудачные публичные демонстрации. Для этого Orosz решил опросить лично инженеров из разных контекстов

Стартапы, что делают AI инструменты
- Инженеры Anthropic говорят, что 90% их продукта Claude Code написано с использованием его же самого
- Инженеры Windsurf заявляют о 95% кода, написанного с их помощью
- Инженеры Cursor дают более осторожные оценки - около 40-50% успешности

Big Tech компании
- Google: Используют собственную IDE Cider с интегрированными LLM-инструментами. SRE внутри готовятся к 10-кратному увеличению количества строк кода в production, расширяя инфраструктуру и review tooling.
- Amazon: Почти все разработчики используют Amazon Q Developer Pro, особенно для AWS-разработки. Amazon становится пионером MCP и большинство внутренних инструментов уже имеют MCP support, что позволяет автоматизировать множество рабочих процессов.

AI стартапы (но не те, что делают сам тулинг)

Смешанные результаты. Например, incident.io активно использует AI для ускорения работы команды и делится практиками в Slack. Однако биотехнологический стартап сообщил, что LLM не прижились - быстрее писать корректный код самостоятельно, чем проверять и исправлять AI-код.

Опытные инженеры (independent software engineers)
- Armin Ronacher (создатель Flask): после 17 лет кодирования снова воодушевлен благодаря Claude Code, считает что "AI меняет всё"
- Peter Steinberger (создатель PSPDFKit): отмечает, что языки и фреймворки стали менее важными благодаря AI-инструментам
- Simon Willison (создатель Django): подтверждает, что coding agents действительно работают, и улучшения моделей за последние 6 месяцев стали переломным моментом

Мнения легенд индустрии
- Martin Fowler сравнил появление LLM с переходом от ассемблера к языкам высокого уровня - такой же революционный прирост производительности, но впервые с недетерминированными инструментами.
- Kent Beck: "Я получаю больше удовольствия от программирования, чем когда-либо за 52 года". Он сравнивает влияние LLM с микропроцессорами (1970s), интернетом (2000s) и смартфонами (2010s).

Если говорить про статистику, что собирается через опросы, то по данным опросов платформы DX (я недавно разбирал их отчет "Measuring AI code assistants and agents")
- В среднем 50% разработчиков в организациях используют AI-инструменты еженедельно, в топовых компаниях — до 60%.
- Экономия времени составляет 3-5 часов в неделю, что далеко от заявленных 10-20x improvements
Эти результаты опросов показывают результаты, что отличаются от воодушевления CEO крупных компаний. Но можно заметить, что опытные независимые инженеры воодушевлены этим тулингом - Orosz считает, что текущие AI-инструменты пока лучше работают для индивидуальных разработчиков, чем для команд внутри крупных компаний.

В конце Orosz говорит о значительных изменениях в software development, и индустрии нужно больше экспериментировать, как это делают стартапы. Ключевая рекомендация: пробовать то, что работает, понимать что стало дешевым, а что дорогим, и адаптироваться к новому ландшафту технологий.

#AI #ML #PlatformEngineering #Software #Architecture #Processes #DevEx #Devops
👍8🔥85
Спорткомплекс для сынишек (Рубрика #ForKids)

Моя жена, Настя, очень креативная. В начале года она решила сделать в большой детской редизайн и превратить ее в большой спорт-комплекс. Для этого она обратилась к ребятам с канала "Спорткомплексы Чистовых-Павловых". Они вместе спроектировали решение под наши нужды (для детей 4 и 9 лет), а потом и изготовили спроектированное. Буквально пару дней на установку и монтаж и спорткомплекс занял положенное место в нашей квартире. Поначалу я сомневался в этой затее, но когда увидел результат и довольных детей, которые качаются на гамаках, ползают по лестницам и рукоходам, а также валяются в гамаках под потолком, поменял свое мнение. Спорткомплекс получился огненный и он очень нравится детишкам, да и я иногда могу покачаться в гамаке, отдыхая от сложного дня. В общем, очень рекомендую ребят - они спроектировали комплекс очень эргономично - наши сорванцы даже когда бесятся в нем вдвоем не сталкиваются ни друг с другом, ни со стенами.

#ForKids #ForParents
🔥22👍87🙊1
Fei-Fei Li: Spatial Intelligence is the Next Frontier in AI (Рубрика #AI)

Посмотрел интересный доклад Фей-Фей Ли, которая широко известна как «крёстная мать ИИ» (Godmother of AI). . Она известна прежде всего как создатель ImageNet — революционного проекта, который заложил основы современного глубокого обучения. В 2017-2018 годах работала в Google Cloud в качестве главного научного сотрудника по AI/ML. А сейчас она является профессором компьютерных наук в Стэнфордском университете и соучредителем Stanford Institute for Human-Centered AI. В 2024 году Фей-Фей Ли основала стартап World Labs и эта компания занимается разработкой пространственного интеллекта и привлекла $230 млн инвестиций, достигнув оценки свыше $1 млрд. По-факту, ребята делают свой тип моделей Large World Models (LWMs), которые способны воспринимать, генерировать и взаимодействовать с трёхмерным миром. Ниже представлены ключевые идеи выступления

1. История создания ImageNet
Фей-Фей Ли рассказала о зарождении ImageNet в 2007 году, когда она была ассистентом профессора в Принстоне. В то время в области компьютерного зрения катастрофически не хватало данных, алгоритмы работали плохо, и индустрии практически не существовало. Её команда приняла смелое решение создать беспрецедентный датасет, загрузив миллиард изображений из интернета для создания всемирной визуальной таксономии
2. Прорыв 2012 года: AlexNet
Переломный момент наступил в 2012 году, когда команда под руководством Джеффри Хинтона представила AlexNet — сверточную нейронную сеть, которая кардинально превзошла все существующие алгоритмы в ImageNet Challenge. Это событие положило начало революции глубокого обучения, объединив три ключевых компонента: данные (ImageNet), алгоритмы (CNN) и вычислительную мощность (GPU)
3. Эволюция компьютерного зрения
Фей-Фей Ли проследила эволюцию от распознавания объектов к описанию сцен. Работая с учениками, включая Andrej Karpathy, она добилась создания алгоритмов, способных описывать целые сцены — мечты, которую она считала задачей на всю жизнь. К 2015 году команда опубликовала работы по автоматическому созданию подписей к изображениям.
4. Пространственный интеллект как новый рубеж
Фей-Фей Ли обосновала важность пространственного интеллекта через эволюционную перспективу. Развитие человеческого языка заняло менее 500 тысяч лет, в то время как зрение развивалось 540 миллионов лет, начиная с первых трилобитов. Именно зрение запустило эволюционную гонку вооружений, сделав животных более сложными и интеллектуальными.
5. Сложность пространственного интеллекта
Фей-Фей Ли объяснила, почему пространственный интеллект сложнее языковых моделей
- Язык одномерен - слова идут в последовательности, тогда как реальный мир трёхмерен (или четырёхмерен с учётом времени)
- Язык чисто генеративен - он создаётся в головах людей, в то время как физический мир подчиняется законам физики
- Визуальное восприятие - это всегда проекция 3D в 2D, что создаёт математически интересную задачу
- Данные о пространственном интеллекте менее доступны по сравнению с языковыми данными в интернете

Если подводить итоги, то Фей-Фей Ли считает, что
- AGI невозможно без пространственного интеллекта - это фундаментальная проблема для достижения искусственного общего интеллекта
- Пространственный интеллект имеет широкие применения: от создания контента (дизайнеры, архитекторы, разработчики игр) до робототехники и метавселенных
- Ключевое качество для успеха в области ИИ - это отсутствие страха перед сложными задачами (intellectual fearless), которое Фей-Фей Ли ищет в студентах и сотрудниках
- Междисциплинарный подход критически важен для будущих исследований в области ИИ, особенно для научных открытий
- Открытый исходный код должен защищаться как важная составляющая предпринимательской экосистемы

Фей-Фей Ли считает, что пространственный интеллект представляет собой безумно сложный вызов, возможно, самый сложный в современном ИИ, но ей привычно решать задачи такого масштаба.

#AI #ML #Management #Leadership #Architecture
🔥8👍53👌1