Книжный куб
11.1K subscribers
2.66K photos
6 videos
3 files
1.96K links
Рекомендации интересных книг, статей и выступлений от Александра Поломодова (@apolomodov), технического директора и эксперта в архитектуре
Download Telegram
Super Blocks (Рубрика #ForKids)

Недавно приехала очередная прикольная игрушка от компании Giiker, раньше я уже рассказывал про тх игру "4 в ряд в трехмерном пространстве". В супер блоках концепт чуть попроще - надо собирать звгаданные формы из блоков, что есть в комплекте. Чем-то это напоминает тетрис, но блоки не летят сверху вниз, а находятся в коробке, а собрать надо не полные ряды, а фигуру загаданной формы.

В общем, игра мне понравилась, а также зашла жене и сыну 5 лет, который любит логические игры.

#Games #Brain
8👍1🔥1
The Truth About The AI Bubble (Рубрика #AI)

Очередной эпизод подкаста Lightcone от ребят из Y Combinator был посвящен теме пузыря AI, поэтому я посмотрел его с большим интересом. Ребята успели обсудить следующие темы

1️⃣ Anthropic стал №1 среди YC-стартапов
Стартапы из Winter 26 batch YC стали использовать чаще Anthropic модели, а не OpenAI:
​- Anthropic Claude: 52% (был ~20-25% в 2024)
- OpenAI: упал с 90%+ до <50%
- Google Gemini: 23% (был в single-digit)

Гипотезы авторов о том, почему Claude впереди
- Лучшая модель для coding
​- Enterprise market share: 32% vs OpenAI 25%
- ​Фокус на safety и надежности для корпораций
- Целенаправленная оптимизация под coding (northstar eval от Tom Brown, co-founder Anthropic)

2️⃣ Vibe Coding стал мейнстримом
Выглядит это как
- ​Разработка через описание задачи на естественном языке LLM
- Генерация кода без детального review
- Фокус на итерациях и результате, а не на структуре кода

Популярные инструменты:
​- Cursor (VS Code + GPT-4o/Claude)
- Claude Code от Anthropic
​- GitHub Copilot, Lovable, Replit, Bolt

3️⃣ AI-экономика стабилизировалась
По мнению одного из партнеров нс Jared Friedman: "Самое удивительное для меня — насколько стабилизировалась AI-экономика. У нас есть компании модельного слоя, прикладного слоя и инфраструктурного слоя. Кажется, что все будут зарабатывать много денег, и есть относительно понятный playbook для построения AI-native компании поверх моделей."

Что изменилось:
- Раньше каждые несколько месяцев новые релизы моделей делали возможными совершенно новые идеи → легко было pivot
- Теперь поиск стартап-идей вернулся к "нормальному уровню сложности"

4️⃣ Модели превращают друг друга в commodity
​Стартапы строят orchestration layer и переключаются между моделями:
- Используют Gemini 2.0 для context engineering
- Затем передают в OpenAI для execution
Выбор модели основан на proprietary evals для specific задач
Аналогия: как эпоха Intel/AMD — конкуренция архитектур, но пользователи могут их взаимно заменять

Что это значит:
- Ценность смещается с моделей на application layer
- Модельные компании коммодитизируют друг друга
- Application-layer стартапы получают преимущество

5️⃣ AI Bubble — это хорошая новость для стартапов
Ребята вспоминают пузырь доткомов, что привел к инвестициям в инфру, а дальше поверх этого пришел условный YouTube и смог существовать — дешевый bandwidth был результатом пузыря
Сейчас:
- Большие компании (Meta, Google, OpenAI) должны инвестировать capex в GPU и дата-центры
- Если спрос упадет — это их capex, не стартапов
- Инфраструктура останется и будет дешевой
Ребята вспоминают про фреймворк Carlota Perez, в котором есть две фазы: installation phase (сейчас), deployment phase (следующие x лет). В первой фазе CAPEX расходы, а во второй создание экономической ценности и появление новых bigtech компаний аля Google.

6️⃣ Космос как решение energy bottleneck
Как оказалось для AI bubble недостаточно электроэнергии на Земле - нечем запитать AI дата-центры. А дальше история
- Лето 2024: StarCloud предложила дата-центры в космосе → люди смеялись
- 18 месяцев спустя: Google и Elon Musk делают это

7️⃣ Больше стартапов делают специализированные модели
Harj отмечает рост интереса к созданию smaller, specialized models в последних YC batches:
- Edge device models
- Voice models для specific языков
- Domain-specific models
Аналогия: как в ранние дни YC знания о стартапах стали распространенными → explosion SaaS-компаний. Сейчас знания о training models становятся common knowledge.

#AI #Engineering #ML #Architecture #Software #Economics #Future
👍73🔥1
Atomic Heart: Далёкое светлое будущее (Рубрика #SciFi)

Прочитал этот сборник рассказов о мире Atomic Heart с большим интересом. Книга о том, каким был Союз Atomic Heart до старта игры: витрины утопии, роботы в быту, ощущение прогресса “всё под контролем”, где технологии не просто помогают — они становятся фоном жизни, новой нормой. Правда, есть ощущение, что ты читаешь лог системы прямо перед тем, как все пошло по наклонной и мир сошел с ума. Отдельно отмечу, что в книге нет спойлеров к сюжету игры, но все истории вполне могли бы быть правдой и они не противоречат официальному лору. Читая этот сборник чувствуешь переломный момент, когда понимаешь: утопия с роботами легко превращается в антиутопию ...

Интересно проводить параллели с текущим увлечением человеко-подобными роботами и стремлением к воплощению AGI. Появляются мысли про
- Доверие к автоматизации (когда “умно” ≠ “безопасно”),
- Человеческий фактор (главный баг всегда в интерфейсе между людьми и системами),
- Мир, где роботы — базовая инфраструктура, но не ясно какой план "Б"

В общем, эта книга хорошо подходит для любителей игры и не только.

#AI #Future #SciFi #Game
👍108🔥4
RepoSwarm - Giving AI Agents Architecture Context Across All Your Repos (Рубрика #Architecture)

Интересный доклад про восстановление архитектурного контекста при помощи AI агентов от Roy Osherove, Chief AI Architect в Verbit AI (компания с ~90 разработчиками, 12 командами и 400+ репозиториями). Интересно, что Roy написал три книги: The Art of Unit Testing, Elastic Leadership, Pipeline Driven (пока в разработке, но про его доклад с таким названием я уже рассказывал). У Роя есть и интересный блог robotpaper.ai, где он документирует AI-паттерны для разработчиков. Из интересного - его книги попали в обучающие датасеты LLM, поэтому промпт "review my tests in Roy Osherove style" работает из коробки в Cursor:)

Если же говорить про основные тезисы доклада изложены ниже

Документация в enterprise - проигрышная битва
В компаниях с 400+ репозиториями реальность такова
- 90% README-файлов устаревшие или неполные
- Архитектурные диаграммы существуют как кот Шредингера (пока не посмотришь не знаешь они еще живы или уже нет)
- Критические вопросы требуют недель ручного анализа: "что за инструменты мониторинга используются", "где хранятся определенные данные", "кто пользуется устаревшими API "

Не только люди страдают от такого качества документации - AI-агенты страдают тоже, так как им нужен контекст для правильных решений (какой UI-компонент использовать, как вызывать внутренний сервис).

Автор доклада в качестве решения создал RepoSwarm, живой архитектурный репозиторий, который доступен в виде open source. Он работает примерно следующим образом
1. Ежедневно сканирует GitHub-репозитории (приватные/публичные) с коммитами за последние 12 месяцев (это настраивается)
2. Генерирует markdown-документацию (один repo.md на репозиторий) через Claude Code SDK
3. Сохраняет в централизованный Architecture Hub — Git-репозиторий с полной историей изменений
4. Никогда не устаревает: при новом прогоне файлы полностью перезатираются (нет никакой backward compatibility)

Ключевое отличие от статической документации в том, что документы сделаны AI-readable (markdown) и у нас есть git-история

Если говорить про то, что автор решил добавить в repo.md, то это такой список инфомрации
- Базовая информация - High-level overview, Dependencies (package.json/requirements.txt), Security checks (top 10 OWASP), Monitoring tools
- Данные и API - Database schemas, API versioning, Events/messaging (pub/sub), Data mapping (GDPR/HIPAA flows)
- Инфраструктура - CI/CD deployment, Authentication/Authorization, Feature flags, ML/LLM usage (Gemini/Claude endpoints)
- Специализированные - Prompt security (injection checks), Mobile UI patterns (для repo_type: mobile), IaC analysis (для Terraform/K8s)

В каких реальных кейсах этот инструмент использовался автором

1. Cross-repo анализ - ответы на вопрос вида "какие monitoring tools используются?"
2. Large-scale migrations - обновление Python, консолидация API gateways (переход на Kong), deprecation внутреннего сервиса (поиск всех зависимостей)
3. Архитектурная история - генерация ретроспективно ADR с ответом на вопросы вида "why we moved to serverless in Q2 2024"
4. AI-агентам как контекст - использование Architecture Hub в Cursor → автоконтекст для features/bugs

Что использование значит для разработки
1. Смещение роли архитектора - от ручной работы к построению и использованию таких инструментов
2. Новый workflow для compliance - проще выстроить соответствие внешним требованиям
3. Эволюция AI-агентов - улучшениие AI-assisted разработки за счет интеграции архитектурной информации в контекст агентов
4. Следование философии "живой документации" - генерация ее из кода и гарантированный freshness

#DevOps #AI #Architecture #Culture #Engineering #ML #Future #Software #SystemDesign
🔥65👍21🎄1
Новогоднее шоу "Дядя Степа" (Рубрика #ForKids)

Вчера были на этом новогоднем шоу с детишками и нашими друзьями и нам очень понравилось и тому есть несколько причин

1. Перед самим шоу есть насыщенная программа для детей до него - лучше приезжать за час до представления и поучаствовать в этих активностях
2. Само представление начинается с Дяди Степы, но дальше мы наблюдаем за мистером Звездопадовым, что действует в стиле Джима Керри из фильма "Маска"
3. Само представление является скорее мюзиклом, чем простой театральной постановкой
4. В середине представления есть акробатические номера на батутах, что отдают цирком - очень динамично и красиво
5. Детям представление нравится, так как мистер Звездопадов озвучивает мысли детей насчет того, что родители своими указаниями и запретами мешают веселиться
6. Вся история заканчивается выверено с точки зрения морали и принятия последсьвий своих поступков и только Дядя Степа помогает в том, чтобы эти почледствия не стали фатальными

В общем, отличное представление. Рекомендую.

#Culture #Theater #ForParents
🔥65👍2👎1
С новым годом!

Рад, что вы подписаны и читаете мой канал. Надеюсь, что он вам бывает полезен, хотя я пишу обычно о том, что интересно именно мне. Для меня 2025 год прошел для меня под знаком AI в разработке софта, developer productivity, чтения научно-популярных книг и возврату к кодингу в паре с AI агентами (open ai codex), vibe code инструментами (lovable) и моими идеями проектов, что я долго откладывал на потом. В следующем году поделюсь с вами результатами этих проектов.

Желаю, чтобы у вас в 2026 году все сложилось удачно и все задуманное получилось!
119🎄16🔥53👍1🎉1
[1/2] Hard Won Lessons from Building Effective AI Coding Agents (Рубрика #Agents)

Интересный доклад от Nik Pash, Head of AI в Cline с основной мыслью в том, что надо перестать усложнять или почему умный scaffolding убивает AI-агентов. До Cline Ник работал инженером в Meta Reality Labs (2019-2021), Yandex (Image Search), Samsung Electronics. Основные тезисы доклада следующие

1️⃣ Горькая правда в том, что scaffolding устарел
Годами разработчики компенсировали слабость моделей clever scaffolding'ом: RAG-индексацией, search trees, хитрыми системами tool calling. Проблема в том, что сейчас frontier-модели побеждают без этих абстракций. То есть capability beats scaffolding. Ник приводит пример Gemini 3.0, что вышел недавно и сразу возглавил Terminal-Bench leaderboard с результатом 54.2% без какой-то агентской обвязки (если глянуть сейчас, то в лидер борде впереди все-таки agentic + model комбинации). Кстати, Terminal-Bench — это интересный "unopinionated generic stripped down harness". Там нет никакого graph search, RAG, индексации — только терминал и задача "разберись сам"

2️⃣ Context engineering tricks — played out

Ник откровенно говорит, что вместо отдельных трюков для контекста теперь есть стандартный playbook для поддержки каждой новой модели (Sonnet 4 → 4.5, Gemini 2.5 → 3.0, GPT-5 → 5.1). Tweaks тривиальны, выигрыши маргинальны. По мнению Ника эта тема исчерпана. Новизны в ней не осталось.

3️⃣ Настоящий bottleneck — это бенчмарки и среды для RL (reinforcement learning)
Собственно тут зарыта основная мысль доклада: можно построить cleanest agent в мире, но это не улучшит capability модели даже на 1%. Ник говорит
Models only get better when labs train on something hard. And benchmarks, not agent cleverness... determine what frontier models learn to do next.

По его мнению модели не "вдруг стали лучше" в использовании инструментов — они стали лучше, потому что построены RL environments, которые заставили их практиковать конкретные действия: обработку моделей отказов, повторов, обработки ошибок. Каждый скачок в reasoning пришел из benchmark'а. Каждый скачок в agent reliability — из RL environment.

Дальше Ник рассказывает как превратить задачи реального мира в данные для тренировок. Cline построил систему под названием "RL Environments Factory" — pipeline для автоматического превращения реальных coding задач в RL environments для обучения моделей. Выглядит это так

Phase 1: Qualification — фильтрация задач
Sub-агенты работают параллельно, проверяя, подходит ли задача для превращения в RL environment:
- Origins: существует ли репозиторий? Доступен ли starting commit? Open source?
- Journey: что пользователь на самом деле пытался решить? Какова была суть задачи?
- Outcome: можем ли найти commits/PRs, которые решили проблему в реальности?
Откидываются задачи вида: вайбкодинговвый slop, тривиальные задачи, задачи без надежных start/end states[4]

Phase 2: Building RL Environment
- Archaeology: реконструировать оба состояния (до/после) локально
- Documentation: задокументировать все obstacles и dependencies
- Containerization: упаковать в Docker, убрать Git (чтобы агенты не могли reward hack)
- Verifier: определить, как проверять результат

Интересно, что примерно этим же подходом пользовались ребята из whitepaper "Is Vibe Coding Safe? Benchmarking Vulnerability of Agent-Generated Code in Real-World Tasks", о котором я рассказывал раньше.

4️⃣ Все делают RL environments но никто ими не делится
И тут Ник открыто говорит о том, что каждая крупная agent lab собирает эти данные, то есть все делают какую-то версию RL environment building за кулисами. Но никто не говорит об этом. Эти компании ссылаются на internal benchmarks, но вы никогда не сможете их изучить, потому что они не публикуют их открыто. Эти данные настолько ценны, что их никто не шарит. Agent labs стоят между реальными инженерами, работающими над реальными задачами, и моделями — у них уникальная роль в истории.

В продолжении я расскажу, а что предлагают ребята из Cline, чтобы улучшить ситуацию

#AI #ML #Agents #Software #Engineering #Architecture
4👍2🔥1