Книжный куб
11.4K subscribers
2.72K photos
6 videos
3 files
2.02K links
Рекомендации интересных книг, статей и выступлений от Александра Поломодова (@apolomodov), технического директора и эксперта в архитектуре
Download Telegram
How we learn (Как мы учимся) (Рубрика #Brain)

Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.

Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"

Четыре столпа обучения, необходимых для обучения

1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.

2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.

3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".

4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.

Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.

Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).

Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.

В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)

#Brain #Learning #Thinking #SelfDevelopment
121👍6🔥5🙏1
How Claude Code Works - Как устроен Claude Code изнутри: разбор архитектуры от основателя PromptLayer, Jared Zoneraich (Рубрика #Agents)

Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,

✈️ Архитектура = один while-цикл + инструменты
# n0 master loop
while (tool_call):
execute_tool()
feed_results_to_model()

Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.

🤖 Инструменты копируют поведение разработчика в терминале
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.

🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.

🍬 Контекст-менеджмент через H2A и Compressor
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.

💯 Простота > сложности
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.

В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".

В общем, как говорит Джаред: "Less scaffolding, more model".

P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал

#AI #ML #Agents #Software #Engineering #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
13👍11🔥3
Lovable - внутренние компоненты и как они работают вместе (Рубрика #AI)

Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.

Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (<lov-write> и т.д.). LLM-vодель генерирует ответ, содержащий как объяснения, так и блоки изменений кода. Платформа парсит эти блоки: для каждого <lov-write> она знает, какой файл изменить или создать. Далее происходит процесс применения патчей - ведь Lovable не всегда посылает модели весь исходник файла – вместо этого модель может вернуть часть кода с пометками // ... keep existing code на местах, которые не менялись. Специальный механизм (отдельный сервис или скрипт) берёт старую версию файла из репозитория, накладывает изменения из ответа AI, заменяя комментарии на исходный код, и сохраняет новую версию файла. Благодаря такому подходу большие файлы можно править точечно, не перегружая контекст модели лишним текстом.

После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать console.log в коде для отладки (модель поощряется вставлять логи для отслеживания работы функций). Эта связка “AI <-> сборка <-> превью” работает интерактивно. Стоит отметить, что Lovable ориентирован на веб-приложения (SPA) – он генерирует фронтенд, который обращается к Supabase через REST или SDK.

Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".

Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.

Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).

#AI #Software #Engineering #Future #Architecture #Startup
👍155🔥2
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)

С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.

Основные тезисы этого рассказа такие

1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)

2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI

3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.

4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).

5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.

В продолжении я закончу рассказ про тезисы Марка о будущем AI.

#AI #ML #Trends #Software #Engineering #Future
👍106🔥2
[2/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)

Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.

6️⃣ Pricing: usage vs value-based

- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.

7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.

8️⃣ Подход a16z: инвестировать во все противоречивые стратегии

Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"

9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.

Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.

#AI #ML #Trends #Software #Engineering #Future
4🔥3👍1
Новогодние подарки и каникулы (Рубрика #Hardware)

На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)

P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.

#Hardware #Software #AI #Engineering #DevOps
🔥28😁53👏2
[1/4] Сравнительный анализ Octoverse 2023–2025 от GitHub (Рубрика #OpenSource)

Недавно я рассказывал про отчет Octoverse 2025 от GitHub, а дальше мне стало интересно глянуть на тренды за последние три года (с ChatGPT момента). Кажется, что это достаточный срок, чтобы увидеть изменения в процессах разработки, популярности инструментов, продуктивности инженеров и whatever else. Поэтому сегодня мы посмотрим на тренды из отчетов за года
- 2023 год - Octoverse: The state of open source and rise of AI in 2023
- 2024 год - Octoverse: AI leads Python to top language as the number of global developers surges
- 2025 год - Octoverse: A new developer joins GitHub every second as AI leads TypeScript to #1

Рост сообщества GitHub и объём разработки
За последние три года произошел бурный рост сообщества:
- В начале 2023 года количество зарегистрированных разработчиков на GitHub превысило 100 миллионов (рост ~26% год к году)
- В 2024 году темпы ускорились - за год на платформу пришло около 36 млн новых пользователей (в основном за счёт стран Азии, Африки и Латинской Америки)
- К октябрю 2025 года совокупное число разработчиков превысило 180 млн, что стало самым быстрым абсолютным ростом за всю историю GitHub. В среднем в 2025 году каждую секунду присоединялся как минимум один новый разработчик, что соответствует >36 млн новичков за год.

Репозитории и коммиты
Вместе с сообществом резко увеличился и объём разрабатываемого кода:
- В 2023 году на GitHub было зафиксировано порядка 4,5 млрд совокупных contributions (коммитов, пул-реквестов, комментариев и др.), из них ~4,2 млрд в приватных репо, а 0.31 млрд в публичных
- К 2024 году общий годовой вклад вырос до 5,2–5,6 млрд contributions, причём почти 1 млрд из них пришёлся на публичные проекты (видно, что вклад в публичные проекты вырос где-то в 3 раза, а в приватные остался +/- таким же)
- В 2025-м наблюдался новый рекорд: более 6 млрд contributions, в том числе 1,12 млрд - в open-source (рост +13% за год). Разработчики за 2025 год в сумме пушили около 1 млрд коммитов (+25% год к году), а среднее число слияний пул-реквестов достигло 43,2 млн в месяц (~519 млн за год, +23% год к году). Общее количество хостящихся на GitHub репозиториев достигло 630 млн к 2025 году против ~518 млн годом ранее.

Open-source vs private
Во все три года большая часть активности приходилась на частные репозитории.
- В 2023 около 80% всех вкладов было в приватных проектах
- В 2024 эта доля составила ~82% (4,3 млрд из 5,2 млрд)
- В 2025 –-около 81,5% (почти 5 млрд из 6 млрд)
Однако публичных репозиториев количественно больше: в 2025 году 63% всех проектов на платформе были публичными (≈395 млн открытых репозиториев, +72 млн за год). Это подчёркивает двойственную роль GitHub: активная повседневная работа идёт в частных репозиториях, но она во многом опирается на открытые библиотеки и фреймворки из open-source сообщества.

#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
7👍3🙏2
Обложки книг O'Reilly (Рубрика #Humor)

Издательство O'Reilly знаменито тем, что последние годы издают свои книги с животными на обложке. Похожая тема есть у Manning Publishing, но там люди в странных костюмах из исторических книг. Но сегодня я заметил одну особенность в обложках книг, что нес на работу (одну я уже прочел, а вторую пока читаю). Обе книги посвящены теме AI, но левая - содержит слово engineering, поэтому на обложке условный рабоче-крестьянский бык, а вот правая посвящена продукту и на обложке неведомая хтонь. Мне кажется, что авторы на что-то намекают:))

#Engineering #Product #Management #Leadership #AI #Software
😁45👍3🙏3
[2/4] Сравнительный анализ Octoverse 2023–2025 от GitHub (Рубрика #OpenSource)

Продолжим сравнительный разбор этих отчетов от GitHub обсуждение AI:)

Проекты с искусственным интеллектом
Здесь можно говорить про рост количества и проникновения.
- В 2023 году был дан взрывной старт ИИ-проектов. Количество проектов, связанных с генеративным ИИ, увеличилось на 248% по сравнению с 2022 годом. Уже к середине 2023-го число новых репозиториев с генеративным ИИ превысило итоговое значение всего 2022 года. Впервые такие проекты вошли в топ-10 самых популярных репозиториев по числу контрибьюторов (например, Stable Diffusion и LangChain). Кроме того, 2023 год стал переломным: open-source разработчики активно экспериментировали с моделями (OpenAI и другие), что выдвинуло ИИ-проекты из исследовательской ниши в мейнстрим. Число разработчиков, участвующих в генеритивных ИИ-проектах, выросло на 148% за год.
- В 2024 волна ИИ в разработке продолжила нарастать. На GitHub к концу 2024 г. насчитывалось около 137 000 публичных проектов, связанных с генеративным ИИ - почти двукратный рост (+98%) год к году. Объём вкладов в такие проекты тоже резко вырос: число совокупных contributions в ИИ-репозитории увеличилось на 59% по сравнению с предыдущим годом. Интересно, что 6 из 10 самых быстрорастущих open-source проектов по количеству контрибьюторов в 2024 году были связаны с инфраструктурой ИИ (модели, оркестрация, оптимизация). Это свидетельствует, что сообщество всё активнее вовлекается в разработку ИИ-инструментов, выходя за рамки одной лишь генерации кода.
- В 2025 ИИ-проекты уверенно перешли в категорию массовых. Всего на GitHub к 2025 г. насчитывалось ≈4,3 млн репозиториев, помеченных как связанные с ИИ (учитывая и приватные). Из них более 1,1 млн публичных репозиториев используют SDK больших языковых моделей (LLM), причём 693 тыс. таких проектов были созданы всего за последний год (+178% по сравнению с августом 2024). Другими словами, почти каждый четвёртый новый репозиторий в 2025 содержал ИИ/ML-компоненты. Более того, 60% из топ-10 самых популярных open-source проектов 2025 года (по числу участников) имеют ИИ-фокус.

В итоге можно сделать вывод о том, что с 2023 по 2025 год ИИ прошёл путь от экспериментального тренда до неотъемлемой части экосистемы разработки.

Внедрение ИИ-инструментов среди разработчиков
- В 2023 году 92% разработчиков так или иначе пробовали инструменты с ИИ для программирования (например, GitHub Copilot). Это указывает на почти полное проникновение ассистентов на базе ИИ в рабочие процессы разработчиков по всему миру. Кроме того, почти треть всех open-source проектов со звёздами на GitHub имела хотя бы одного мейнтейнера, использующего GitHub Copilot. GitHub предоставил бесплатный Copilot для поддерживающих OSS мейнтейнеров, и многие воспользовались этим: ИИ-автодополнение кода стало повсеместным помощником в open-source сообществе. Кажется, что это проникновение обусловлено тем, что Copilot был встроен в сам GitHub:)
- В 2024 году GitHub отметил, что более 1 000 000 студентов, преподавателей и open-source разработчиков воспользовались Copilot через бесплатную программу для образования и OSS. За год число таких пользователей выросло на 100%. В общем, ребята продолжили работать над расширением охвата Copilot внутри GitHib и начали прививать его новичкам с первых их дней на платформе.
- Выпуск GitHub Copilot Free в конце 2024-го привёл к заметному скачку регистраций и активности на платформе. В результате в 2025 году новые пользователи практически сразу начинают работать с ИИ: 80% разработчиков-новичков включали Copilot в работу в первую же неделю на GitHub. Иными словами, для нового поколения кодеров ИИ-ассистент стал ожидаемым по умолчанию инструментом. В итоге, в 2025 году почти каждый новичок сразу осваивает ИИ-кодогенерацию, закрепляя её роль как стандартной части рабочего процесса разработчика.

#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
5🔥21🤩1
AI Engineering Interviews (Рубрика #AI)

Наткнулся тут на новую книгу от издательства O'Reilly, которая сейчас находится в процессе написания и будет готовва к декабрю 2026 года. Но ее уже можно начинать читать на платформе, где доступны три главы Prompt Engineering, Machine Learning Foundations и Transformer Architecture. Аннотация книги говорит о том, что это руководство будет включать 300 реальных вопросов с интервью, которые помогут вам подготовиться к собеседованиям и проведет через все этапы интервью, предлагая инсайдерский взгляд, который поможет обрести уверенность и выделиться среди других кандидатов:)

Для каждого вопроса даётся чёткое описание того, каким должен быть хороший ответ, указаны распространённые ошибки, которых стоит избегать, и ключевые моменты, которые нельзя упустить. Книга выгодно отличается тем, что Мина Гашами и Али Торкамани умеют упрощать сложные концепции, превращая их в интуитивно понятные объяснения и дополняя наглядными иллюстрациями, делающими обучение увлекательным. Авторы обещают научить
- Уверенно проходить собеседования по GenAI - от базовых до продвинутых ролей
- Разбирать 300 реальных вопросов из индустрии с примерными ответами и подробными пояснениями
- Пошагово объяснять архитектуру, обучение, инференс и оценку моделей
- Получать практические инсайты, которые помогут выделиться даже в самых конкурентных процессах найма

В итоге, я почитал три доступные главы и понял, что мне напоминает такая книга - она напоминает мне методичку с вопросами и ответами, которую мы на Физтехе называли дебильник, в таких методичках часто была базовая теория и набор вопросов для экзамена. Такие дебильники были хороши для самопроверки, но не очень с точки зрения учебников. Они пользовались популярностью, так как напоминали волшебные таблетки, которые ищут студенты в ночь перед экзаменом, чтобы подучить заклинания и успешно воспроизвести их на экзаменах. С учетом того, что иногда собеседования сравнивают с экзаменами, я думаю, что эта книга будет пользоваться популярностью:)

#AI #Interview #ML #Careeer
😁224🔥3👍1💯1
[3/4] Сравнительный анализ Octoverse 2023–2025 от GitHub (Рубрика #OpenSource)

Продолжим сравнительный разбор отчетов Octoverse от GitHub темой developer productivity.

Влияние ИИ на продуктивность и процессы разработки
- В 2023 году подавляющее большинство разработчиков верило, что ИИ-инструменты улучшат эффективность командной работы, удовлетворённость и продуктивность. 81% респондентов считали, что ИИ-средства повышения кода сделают команды более сплочёнными, облегчат сотрудничество.
- В 2024 году Octoverse привёл конкретные данные о влиянии Copilot на работу. Предыдущее исследование показало до +55% роста продуктивности при решении задач у разработчиков, использующих ИИ-помощник. В самом отчёте отмечена корреляция: те, кто регулярно пользуется Copilot, демонстрируют большую активность на GitHub. Например, среди активно работающих на платформе разработчиков, применяющих Copilot, объём видимой работы (коммиты, пул-реквесты и т.д.) примерно на 12–15% выше (для ежедневно активных) по сравнению с их коллегами без ИИ. Это напрямую подтверждает и количественно, и по субъективным ощущениям, что ИИ-инструменты экономят время и увеличивают результативность разработки. При помощи ИИ инженеры успевают решать больше задач за единицу времени.
- В 2025 году влияние ИИ проявилось не только в количестве кода, но и в быстроте его доставки и исправления проблем. Благодаря новым функциям (например, Copilot Autofix) разработчики стали устранять уязвимости в коде значительно быстрее. По данным GitHub, автогенерируемые исправления снижали время на фиксы безопасности в разы: некоторые баги (SQL-инъекции, XSS) устранялись в 3–12 раз быстрее по сравнению с ручным исправлением (минуты вместо часов). Автоматизация обновлений зависимостей через Dependabot тоже стала нормой (разработчики сливают всё больше auto pull requests, ускоряя закрытие уязвимостей). В совокупности, 2025 год продемонстрировал рекордный объём выпусков: за месяц сливалось более 43 млн PR, а за год выполнено почти 520 млн слияний pull requests. Такой масштаб работы стал возможен во многом благодаря росту эффективности с ИИ.

Сдвиги в популярности языков под влиянием ИИ
Ежегодные отчёты Octoverse фиксируют заметные перемены в рейтинге языков программирования, связанные в том числе с влиянием ИИ.
- В 2023 году JavaScript сохранил звание самого популярного языка на GitHub, однако TypeScript стремительно набирал долю - впервые обогнав Java и заняв 3-е место по используемости в open-source (рост сообщества TS +37% за год)
- По итогам 2024 года Python вышел на первое место, обогнав JS. Этот сдвиг связывают с бумом анализа данных и машинного обучения на GitHub: Python доминирует в сферах AI/ML, научных вычислений, образования, что и подтолкнуло его на вершину. Одновременно отмечен всплеск популярности Jupyter Notebook на 92% – знак притока на GitHub специалистов по данным и исследователей.
- В 2025 году произошёл беспрецедентный сдвиг: TypeScript впервые стал языком №1 по количеству разработчиков на GitHub, обойдя и Python, и JavaScript. По данным отчёта, это крупнейшая перемена в рейтинге языков за десятилетие. Главная причина - влияние ИИ и «агентов» на выбор технологий. Типизированные языки вроде TS дают более надёжные подсказки и код при использовании ИИ-инструментов, особенно в production-системах. Разработчики переориентируют свой стек в пользу TypeScript, поскольку автодополнение и генерация кода работают точнее при строгой типизации. К тому же практически каждый современный фронтенд-фреймворк (React, Next.js и др.) теперь по умолчанию предлагает TypeScript, а не JavaScript. Важно: хотя TS вышел на первое место, экосистема JS/TS в целом продолжает доминировать (вместе они всё ещё генерируют активности больше, чем один Python). При этом Python остаётся безоговорочным лидером для проектов в области ИИ, анализа данных и научных исследований - эти области продолжили интенсивно расти на платформе.

#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
4👍2🔥2👏1
CS230: Deep Learning от Stanford (Рубрика #AI)

Начал смотреть лекции с курса CS230 про глубокие нейронные сети от Стэнфорда за 2025 год и пока мне все нравится. В курсе два преподавателя
- Andrew Ng - основатель DeepLearning.AI и сооснователь Coursera, экс-главный ученый Baidu, основатель Google Brain
- Kian Katanforoosh - CEO и основатель Workera (платформа для оценки AI-навыков), сооснователь deeplearning.ai
В курсе интересная структура - студенты смотрят лекции онлайн (из Deep Learning Specialization на Coursera), а очные занятия посвящены практическим разборам, дискуссиям и работе над проектами (собственно это можно видеть в лекциях на Youtube, что следуют за первой вводной).

Стурктура курса примерно такая

1️⃣ Основы нейросетей и Deep Learning
- Построение нейросети с нуля на Python (без фреймворков!)
​- Понимание внутреннего устройства, а не просто использование TensorFlow/PyTorch

2️⃣ Hyperparameter Tuning и оптимизация
Ng откровенно признается: "Каждый мой PhD-студент просиживал до 2-3 часов ночи, подбирая гиперпараметры". Навык быстрой настройки может сэкономить вам часы работы — разница между отладкой в 3 утра и в 7 утра.

3️⃣ Стратегии построения ML-проектов
Критически важно для инженеров:
- Как принимать системные решения в сложных проектах (распознавание лиц, security systems)
​- Дисциплинированный процесс разработки: разница между завершением за дни vs месяцы
​- Когда НЕ нужно собирать больше данных или покупать GPU (частая ошибка бизнеса)
​- Реальный пример из лекции: Ng рассказывает о встрече с CTO крупной компании, который купил кучу GPU и дал племяннику-студенту бюджет "делать AI". Без стратегии это пустая трата денег.

4️⃣ Convolutional Networks (Computer Vision)
Специализированные модели для работы с изображениями и видео.

5️⃣ Sequence Models и Transformers
- Работа с временными рядами и текстом
​- Архитектура Transformer - основа GenAI революции

Если говорить про интересные моменты именно первой лекции, то они такие

🔥 Почему Deep Learning доминирует
Ng объясняет через простую визуализацию:
​- Традиционный ML: производительность выходит на плато при увеличении данных
- Deep Learning: продолжает улучшаться с масштабированием данных и моделей
- Scaling Laws: производительность предсказуема - можно заранее рассчитать, сколько GPU купить для достижения целевой точности

🛠 Когда использовать Deep Learning vs GenAI
Промптинг LLM отлично работает для:
​- Текстовых задач
- Прототипирования ($20-100/месяц приемлемо)
Deep Learning нужен когда:
​- Промпты месяц не дают результата
- AI-биллинг становится слишком дорогим (с ростом пользователей)

🎯 Работа с аудио, изображениями, видео, структурированными данными
- Fine-tuning под специфичные задачи
- Цитата Ng: "Многие наши счета от LLM-провайдеров были действительно захватывающими. Не хочу называть цифры, но это значительно больше, чем мы хотели платить".

📊 Иерархия AI-навыков
CS Fundamentals (базис) -» Machine Learning (работа с данными) -» Deep Learning ← (курс CS230 здесь) -» Generative AI (Transformers, LLMs)
Ng подчеркивает: понимание CS-фундаментов критично даже при использовании AI-ассистентов кода (Cursor, Copilot).

В общем, я пока глянул пару лекций и могу сказать, что курс интересный, а преподаватели хорошо объясняют. Думаю, что и на специализацию подпишусь.

#Software #ML #AI #Engineering #Architecture
1👍23🔥53
[4/4] Сравнительный анализ Octoverse 2023–2025 от GitHub (Рубрика #OpenSource)

И зафиналим этим постом сравнительный разбор отчетов Octoverse за последние три года.

Помимо тройки лидеров (Typescript, Python Javascipt), отчёты отмечали рост интереса к системным языкам и языкам для работы с облачными технологиями.
- В 2023–2024 гг. заметно набирал популярность HashiCorp HCL (+36% за год) благодаря распространению Infrastructure-as-Code практик
- Язык Rust также демонстрировал высокие темпы (+40% в 2023) - его ценят за безопасность и производительность; Rust стал наиболее "любимым" языком по версии опросов разработчиков, а в 2024 продолжил рост за счёт использования в системном ПО и ядре Linux.
К 2025 году шесть языков фактически доминируют в новых репозиториях, покрывая ~80% проектов: это Python, JavaScript, TypeScript, Java, C++ и C#. Такой ландшафт указывает, что ИИ не заменил разработчиков (как некоторые опасались), но изменил их предпочтения и инструменты: сообщество адаптировалось, выбирая технологии, которые лучше сочетаются с ИИ-усилением разработки.

Если подводить итоги, то видно, что
- C 2023 по 2025 годы GitHub пережил рекордный приток новых разработчиков и проектов, во многом стимулированный распространением ИИ
- Open-source сообщество активно приняло ИИ-инструменты: к 2025 году они рассматриваются как неотъемлемая часть работы, повышающая продуктивность и позволяющая разрабатывать больше программ быстрее.
- Количество проектов, связанных с ИИ, выросло на порядки, а языковой ландшафт начал смещаться в сторону технологий, максимально эффективных при поддержке ИИ (это важный тренд и я думаю, что это будет происходить и внутри больших компаний).
- При этом общий тренд позитивный: данные GitHub показывают, что приток ИИ-инструментов не ухудшил качество вкладов или здоровье open-source сообщества - напротив, разработчики стали сотрудничать ещё активнее, осваивать новые области (AI/ML) и вместе двигать экосистему вперёд.

#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
5👍2🔥1
Head First. Паттерны проектирования (Head First. Паттерны проектирования) (Рубрика #Architecture)

Сегодня хотел вспомнить эту книгу про паттерны проектирования, которая вышла в серии Head First и выглядит как комикс:) Автор этой книги Эрик Фримен, экс-CTO Disney Online и один из создателей серии всей серии Head First.Сама книга вышла в середине 2000-х и быстро стала хитом среди разработчиков. В ней простым языком разбираются 23 классических шаблона проектирования. Авторы применили "визуально насыщенный формат, разработанный с учётом работы мозга", снабдив текст множеством иллюстраций, шуток и упражнений. Вместо сухой теории — живые примеры и головоломки. Уникальный стиль подачи сделал изучение паттернов увлекательным. Сравните эту подачу с классической "Паттерны объектно-ориентированного проектирования" от Gang of Four (Банды Четырех:)

Шаблоны в книге Head First объясняются на ярких метафорах из реальной жизни. Например, паттерн Стратегия иллюстрируется поведением разных уток 🦆, а паттерн Декоратор — добавками к базовому рецепту кофе ☕️. Такой подход помог читателям сразу увидеть практическую пользу шаблонов. Неудивительно, что книга уже помогла сотням тысяч разработчиков прокачать навыки проектирования.

Сейчас основные идеи книги остались такими же актуальными, хотя сами языки поменялись. Поэтому в 2019 году вышло обновлённое издание. Многие паттерны до сих пор в основе современного софта: одни встроены в языки (итераторы, наблюдатели событий), другие реализованы во фреймворках. Книга ценна и тем, что обучает базовым принципам ОО-дизайна (например, "программируйте на уровне интерфейсов, а не реализаций" и "предпочитайте композицию наследованию"). Эти идеи легли в основу более поздних правил вроде SOLID и не потеряли значимости.

Конечно, кое-что изменилось за годы. Некоторые классические приёмы сегодня реализуются иначе - например, Singleton всё чаще заменяют инъекцией зависимостей, а лямбда-функции упростили использование Strategy. Но сами концепции никуда не делись: понимание шаблонов по-прежнему помогает строить гибкую архитектуру и поддерживаемый код.

Если же в общем поговорить про развитие паттернов, то часть классических паттернов Gang of Four критиковалась экспертами за то, что многие из них лишь компенсируют ограничения языков. Так, Питер Норвиг выяснил, что 16 из 23 паттернов GoF фактически не нужны или упрощаются при реализации на Lisp. Но в то же время появились новые каталоги шаблонов для разных сфер. Шаблоны проникли на уровень архитектуры: от Enterprise Patterns для корпоративных систем, паттернов интеграции этих корп систем, и дальше до паттернов микросервисов для облачных сервисов. Сегодня инженеры широко применяют паттерны вроде API Gateway, Circuit Breaker и Event Sourcing - стандартные решения типовых проблем распределённых систем.

В итоге, книга Эрика Фримена и сегодня остаётся отличным путеводителем для тех, кто хочет научиться проектировать приложения. Книга показывает, что учиться архитектурным приёмам можно легко и с улыбкой. А знание паттернов - это тот самый багаж, который позволит инженеру уверенно строить сложные системы как вчера, так и сегодня.

#Patterns #Software #SoftwareArchitecture #SoftwareDevelopment #Architecture #SystemDesign
1🔥238👍61
Техкомьюнити №1: выпуск про космос (#Engineering)

Посмотрел пилот нового подкаста Сбера «Техкомьюнити №1» - его делают инженеры для инженеров. Ведёт Кирилл Меньшов (SVP Сбера, блок «Технологии»), а в гостях - Алексей Шелобков, CEO «ИКС Холдинг» (там «Ядро» - российское ИКТ/железо, и «Бюро 1440» - частная космическая история). В первом выпуске разговор шел про "новый космос", что больше похож на IT: ребята обсуждали: distributed systems, связь, надёжность, апгрейды. Ниже ключевые тезисы

1️⃣ Почему «Бюро 1440» и откуда коммерческий «бум»
1440 - символическое число: столько оборотов вокруг Земли сделал первый спутник Королёва (запуск 4 октября 1957).
Сейчас космос уходит от чисто гос/научных программ к коммерческому low‑orbit. Драйверы понятные:
- AI и вечный голод по данным
- "Always online" для людей и бизнеса
- Цифровые гос/банк/логистика, которым нужен интернет «везде»
- Автономный транспорт/логистика, где связь вне городов - не “nice to have”, а must.

2️⃣ «Старый» vs «новый» космос - как мэйнфрейм vs облачный дата-центр
Старый подход (геостационар):
- Один супернадёжный аппарат на 10–15 лет;
- Спец. радиационно-стойкая схемотехника;
- Долгие циклы и цена уровня «мэйнфрейма».

Новый подход (низкие орбиты):
- Спутник = нода в кластере (умер - неприятно, но не конец света);
- Надёжность даёт избыточность группировки + быстрые замены;
- Серийное производство и регулярные обновления (почти rolling upgrade).

3️⃣ Спутник сегодня - это базовая станция + роутер + автономный робот
Низкоорбитальный аппарат - "летающая базовая станция" и умный коммутатор одновременно:
- Uplink/downlink к абоненту + межспутниковые каналы (лазеры);
- На борту непрерывно считаются положение/ориентация (звёздные датчики + данные с Земли), крутятся контуры управления, коррекция орбиты, наведение лазерных линий
- Тестовые запуски 2023–2024 - чтобы вживую проверить модели и стандарты связи, в т.ч. 5G‑NTN.

4️⃣ Боли: энергия/тепло, latency, безопасность

- Edge computing “прямо на спутнике” пока сомнительно: мощность дорогая, а тепло в вакууме отводить - отдельный вид спорта.
- "Орбитальные дата-центры" звучат красиво, но упираются в КПД солнечных панелей и деградацию аккумуляторов.
- Latency: LEO даёт десятки миллисекунд - уже ок для realtime. А вот >300 мс - и живое общение становится мучением.
- Кибербезопасность: 100% защиты не бывает, поэтому важнее архитектура под резервирование и быстрое восстановление после сбоев/атак (resilience > "неуязвимость").

5️⃣ Практика и планы
Про РФ: чтобы покрыть страну, звучала оценка ~250 аппаратов, целевой горизонт - 2027. Идея - закрыть «белые пятна» даже в освоенных регионах и на длинных магистралях
Про глобальный рынок к 2029:
- «Околоземная экономика» может вырасти примерно с ~$600B до $1.8T за 7–8 лет;
- Сети будут срастаться: 5G‑NTN → 6G‑NTN, где связь станет реально «бесшовной»;
- Терминалы станут меньше, и в устройствах будет больше интеграции: связь + точное позиционирование.

6️⃣ Про инженеров: без гибрида "классика + IT" не поедет
Нужен микс: фундаментальная инженерия (системность, высокая цена ошибки) + IT‑культура (скорость, итерации, нормальное отношение к ошибкам).
Из цифр: у ИКС/«Ядра» - ~25 магистерских программ с вузами

Советы молодым инженерам:
- Найти трек, который реально драйвит
- Пробовать разные области и собирать T-Shape
- Качать soft skills наравне с hard
- Метанавык №1 - быстро учиться и адаптироваться

«Тёмная лошадка» по технике - гибридные штуки вроде нейроинтерфейсов + (возможно) новые открытия в физике, которые потом внезапно сделают “sci‑fi” рабочей реальностью.

7️⃣ Партнёрства
В конце обсудили, что стратегическим партнёрам пора уходить от модели «заказчик‑поставщик» к совместному R&D: общие команды, гипотезы, эксперименты и «мечты о будущем», где каждая сторона приносит свои суперсилы.

Если вы любите распределённые системы, связь и железо, которое реально летает, то рекомендую посмотреть выпуск - он реально стоит часа просмотра.

#Engineering #Leadership #AI #Space #Software #RnD
6👍4🔥3
Сайт по system design (Рубрика #Architecture)

Многие мои подписчики знают, что я планировал написать книгу ... но я не уточнял какую. Суть была в том, что я параллельно занимался работой над несколькими книгами. Ближе всего к готовности была книга по System Design (с фокусом на подготовке к интервью) - мне просто было проще всего ее собрать из своих материалов. Я работал по стартинке - сделал желаемое оглавление, собрал часть глав из своих материалов и получил большой Google Doc. Но на каникулах меня осенило, что цель-то не в книге, а в удобной компиляции моих мыслей. Поэтому я поменял подход - скормил google doc сервису Lovable для создания интерактивного сайта, а дальше инкрементально начал его дорабатывать. Я этим занимался больше месяца и получился такой вот сайт system-design.space. Конечно, нет предела совершенству и я собираюсь продолжить его наполнение, но думаю, что он уже может принести пользу тем, кто хочет прокачаться в проектировании.

Если найдете какие-то ошибки или опечатки, то пишите - я буду править их по мере своих сил. В ближайшие месяцы я планирую добавить еще рекомендованных книг, поработать над пулом задачек, чтобы тут были не только классические из других книг + сделаю побольше красивых визуализаций. На более далеком горизонте я планирую пойти в стороне не только классическо system design, но и других типов, что описаны в главе про специфику интервью.

#SystemDesign #Interview #Career #Architecture #DistributedSystems #Databases #Engineering #Software
2🔥154👍3326🏆1
Оливер Хьюз - про уход из Tinkoff Bank, Узбекистан и бизнес (Рубрика #Management)

Интересно было посмотреть интервью Оливера Хьза в подкасте Alter Ego, что вышел 14 января 2026. Оливер долго работал в Т, а потом ушел в TBC отвечать за рост и международный бизнес, включая тот, что в Узбекистане (собственно, подкаст Alter Ego как раз отсюда). Оливера всегда интересно слушать, но в этот раз интересно было интересно послушать рефлексию про его опыт, отъезд из России и новые вызовы в Узбекистане. Тезисно можно забрать из этого рассказа следующее

1️⃣ Лидерство = дисциплина + открытость

Лидер обязан держать темп и форму - не ради статуса, а чтобы команда видела: “мы в одном окопе”. И второе - реально слушать идеи снизу. Не «я самый умный», а «давайте найдём лучший ход».

2️⃣ Любовь важнее уважения
Провокационно, но точно: уважение легко превращается в дистанцию, а “любовь” - это когда люди с тобой, потому что “мы вместе в этом”. Его стиль - маленькая “d”-демократия: минимум рангов, максимум совместной ответственности.

3️⃣ Культура важнее стратегии
Стратегия - это roadmap, который устаревает быстрее, чем вы закрываете Q1. Культура - ваш runtime: как вы принимаете решения, спорите, меряете, учитесь и адаптируетесь. Фаундеры задают стартовую конфигурацию, дальше появляются подкультуры - и культурой нужно управлять осознанно, как системой.

4️⃣ Люди vs система - ложная дихотомия

Сильные люди без процессов не вывозят масштаб. Процессы без сильных людей не едут вообще. Модель TBC у него звучит просто: «сильные люди внутри понятной системы» (данные, процессы, IT-фундамент). Самое честное: собрать консистентную систему на масштабе адски сложно - всегда будут разрывы, где одна часть бизнеса убежала, а другая догоняет.

5️⃣ Скорость важна, но выигрывает качество
Оливер выбирает “быть лучшим”, а не “быть первым”. Early adopters (5–10%) дадут шум и фидбек, но бизнес - это следующие ~70%, которые покупают стабильность и качество. И да, он сам “поздний адоптер” - успех не требует быть техно-евангелистом первой волны.

6️⃣ Скепсис к MVP (особенно в финсфере

MVP показывает только, что идея “не мертвая”. Реальное понимание приходит по когортам и часто через 12–18 месяцев. Месседж: не паниковать от первых метрик, а “допушивать и дотягивать” продукт.

7️⃣ Скейлинг - «ад каждый день» + две смертельные ошибки
Ошибки такие
- Растянуться быстрее возможностей (часто через долг)
- “Порваться изнутри”, когда компания расплывается и метрики поплыли, а вы поздно заметили.
Слишком быстрый рост, по его мнению, опаснее стагнации.

Отдельно были интересные факты про Узбекистан/TBC:21 млн уникальных пользователей и 5,7 млн MAU; кредитный портфель порядка $905 млн. И сильный AI-фокус: узбекоязычные LLM, on‑prem развёртывание, voice agents закрывают >40% ранней просрочки.

Если попробовать сократить тезисы до чеклиста самопроверки, то получим примерно следующее
- Опишите “runtime” команды: какие решения принимаем только через данные, какие через принципы.
- Проверьте, не держится ли скорость на героизме. Если да - вам нужна система.
- Меряйте продукт когортами, а не эмоциями первой недели релиза.
- Инвестируйте в качество как в долгосрочный moat.

#Leadership #Management #Economics
👍3716🔥12💘3
🇨🇳 Китай строит «ИИ‑вертикаль» в образовании: от детсада до университета (Рубрика #AI)

В Forbes (12.01.2026) сделали разбор, как КНР делает ИИ массовым образовательным инструментом. По ощущениям инженера/CTO: это программа уровня платформы с регуляторикой и KPI. Собственно тезисы статьи примерно такие

🧭 Какие меры принимаются
1. Стратегия и дорожная карта
- «План развития ИИ нового поколения» (2017) с вехами 2020 → 2025 → 2030.
- Образование - ключевой полигон: после «Education Informatization 2.0» (2019) - десятки документов по AI‑in‑education; цель - к 2030 ИИ как повседневный инструмент во всех школах.
2. Масштабирование через пилоты
- В феврале 2024 Минобр КНР выбрал 184 пилотные школы/площадки для ИИ‑образования (эталонные практики для тиражирования).
3. «ИИ с пелёнок»: контент + инструменты
- Детсад: разовые занятия/игры с роботами‑ассистентами учителя.
- Начальная школа: учебники, где ИИ - «чудесный друг», далее - простые эксперименты/кейсы + этика.
- Средняя/старшая: виртуальные собеседники (пример - «Анна» для английского), персонализированное ДЗ, автопроверка части работ.
- Отдельно: ИИ‑поддержка обучения детей с РАС (адаптация темпа по эмоциям/состоянию).
4. Высшая школа: расширение кадров + участие BigTech
- В списке бакалаврских направлений (04.2025) - 845 AI‑связанных треков (29 новых); около 620 вузов предлагают бакалавриат «Искусственный интеллект».
- BigTech открывают лаборатории/институты и свои академии (Alibaba, ByteDance, Tencent, Huawei и др.).
5. Регулирование и академическая честность
- Китайская академия наук (09.2024): где ИИ допустим (поиск/структурирование, правка, перевод, графики) - и что запрещено; нужна маркировка/декларация и выбор «зарегистрированных» сервисов.
- Вузы вводят локальные правила (пример: Фудань - только «некреативные» задачи, с согласованием у научрука).

📈 Что видно по результатам (цифры из статьи)
- 1‑я половина 2025: 515 млн пользователей ген‑ИИ (36,5% населения).
- 83% в Китае считают, что у AI‑продуктов/сервисов больше плюсов, чем минусов.
- Зарегистрированные ИИ‑разработки: 117 (04.2024) → 801 (08.2025), +585%.
- Внедрение по регионам неравномерно: местами остаётся «просто цифровизация».
- Автопроверка не идеальна: в 2024 Zuoyebang на задачах уровня гаокао набирала <4/5.

⚠️ Обратная сторона
- AI‑плагиат и разрыв «домашки vs знания» (высокие баллы за письменное, слабое устное).
- Риск непроверенной/сгенерированной информации в науке и падение критического мышления - отсюда рост правил и контроля.

🧩 Насколько реально повторить вне Китая
Повторяемо
- Пилоты + измеримые метрики эффекта (успеваемость, нагрузка учителя, вовлечённость).
- Возрастной AI‑curriculum + этика/верификация.
- ИИ в рутину, но human‑in‑the‑loop на критичных точках.
- Политики «что можно/нельзя» + изменение формата оценивания (устное/практика/проекты).

Труднее
- Супер‑масштаб и скорость централизованной модели + единая инфраструктура/регуляторика.
- «Навязывание стандарта» (например, обязательность локальных/зарегистрированных сервисов).

#AI #ML #Education #Kids #Software #ML #Economics
6🔥51🤬1
Современные методы описания функциональных требований к системам (Writing Effective Use Cases) (Рубрика #Software)

Во время подготовки материалов для своего сайта по System Design (https://system-design.space/) наткнулся в своей библиотеке на книгу Алистера Кокберна про написание функциональных требования. Сам Алистер - один из соавторов Agile-манифеста 2001 года, а также один из главных популяризаторов метода вариантов использования (Use Cases) для описания требований. Самой книге в этом году исполнилось 25 лет, поэтому я решил вспомнить про нее, а заодно про эволюцию подходов к описанию требований.

К концу 1990-х варианты использования стали одним из основных способов описания требований к поведению системы. Однако писать действительно хорошие use case было нелегко - требовались чёткие формулировки и логичная структура, как при написании хорошего эссе. Коберн решил эту проблему на практике, выпустив своё руководство по написанию вариантов использования в 2001 году. Книга подробно разъяснила как документировать сценарии: как определить границы системы (scope), описать актёров, их цели и пошаговый ход взаимодействия. Автор включил реальные примеры и сформулировал ряд правил, помогающих создавать понятные и полезные описания. Такой прикладной подход сделал книгу популярной среди инженеров.

На текущий момент индустрия разработки существенно изменилась. С появлением Agile-команд громоздкие спецификации требований уступили место более лёгким артефактам - таким как user stories (пользовательские истории). Формальные же use case многими стали считаться устаревшими. Однако на практике варианты использования до сих пор применяются, особенно в крупных сложных проектах. Их структурированный формат с проработкой логики и исключений даёт разработчикам понятное техническое задание. Подготовка use case более трудоёмка, но впоследствии экономится время на реализации и отладке требований.

Если же говорить про эволюцию подходов, то с момента выхода книги Алистера появились другие, более гибкие методы, ориентированные на работу с требованиями пользователей

1️⃣ User Story
A user story is a short, informal explanation of a software feature, written from the perspective of the end user.

Этот формат зародился в Agile-разработке: требования формулируются кратко от лица пользователя (по шаблону “As a ..., I want ..., so that ...”). User stories акцентируют ценность для пользователя и благодаря простоте быстро завоевали популярность в Agile-разработке.

2️⃣ Jobs to be Done (JTBD)
Jobs to be Done is a framework that helps product teams understand what job a customer is hiring a product to do — what problem, challenge, or opportunity is so important to them that they're willing to hire your product to address it.

JTBD - концепция, рассматривающая, какую «работу» пользователь «нанимает» продукт выполнить для решения своей проблемы.

3️⃣ Job Story

An exciting alternative for some teams is the job story. A job story is focused less on the user performing some function than on the job to be done by that story.

Формат job story появился как развитие подхода Jobs to be Done. В job story акцент смещён с образа пользователя на саму задачу и контекст её выполнения. Используется шаблон: “When [ситуация], I want to [действие], so I can [результат].” Такой подход чётко обозначает ситуацию и мотивацию, позволяя сконцентрироваться на решении реальной задачи.

4️⃣ Design Thinking

Design thinking is a problem-solving approach that focuses on understanding users’ needs and creating innovative solutions.

Design thinking (дизайн-мышление) – человеко-ориентированный творческий процесс решения проблем: через эмпатию и эксперименты команда ищет нестандартные решения, отвечающие потребностям пользователей.

В общем, книга Алистера сейчас уже устарела, но сам подход к написанию use cases полезно знать, особенно как предшественников очередных модных подходов, которые обыгрывают похожие идеи косметически изменяя формулировки:)

#Software #Architect #SystemDesign #SoftwareArchitecture #Processes
12🔥6👍5