Retrospective on "In-Datacenter Performance Analysis of a Tensor Processing Unit" (Рубрика #AI)
Интересная заметка на две страницы про то, как и почему появился TPU в Google, продолжая тему прошлого поста про железо для ML/AI. TPU оказался отличным решением и поддерживал продуктовизацию deep learning инициатив внутри Google уже 10 лет подряд, начиная с начала 2015 года, когда он появился в проде. Завтра будет заметка побольше про всю историю эволюции TPU, а для завтравки рекомендую прочитать этот мини whitepaper, где есть такое объяснение старту проекта
#AI #Infrastructure #Engineering #Architecture
Интересная заметка на две страницы про то, как и почему появился TPU в Google, продолжая тему прошлого поста про железо для ML/AI. TPU оказался отличным решением и поддерживал продуктовизацию deep learning инициатив внутри Google уже 10 лет подряд, начиная с начала 2015 года, когда он появился в проде. Завтра будет заметка побольше про всю историю эволюции TPU, а для завтравки рекомендую прочитать этот мини whitepaper, где есть такое объяснение старту проекта
A key signal soon afterward was that matrix multiplication exceeded 1% of CPU fleet cycles in Google Wide Profiling. Another signal was the analysis by Jeff Dean (a Google Fellow, now the Chief Scientist) that processing a few minutes of speech or video by 100M users would require doubling or tripling the size of the CPU fleet. Other options were clearly required.
#AI #Infrastructure #Engineering #Architecture
🔥7❤1👍1
Code of Leadership #52 - Interview with Alexander Chernikov about Management and IC Track (Staff +)
В очередном выпуске подкаста ко мне пришел интересный гость, Александр Черников, staff+ engineer в Т-Банке. Мы с Александром поговорили про его интересный путь через увлечение технологиями после фильма "Хакеры", а дальше попадание в IT, развитие по менеджерскому треку в разных российских бигтехах, а потом попадание в Т-Банк. Именно здесь Саша перешел из ветки engineering managers в ветку staff+ engineers и это ему понравилось. Больше историй про стафф инженеров можно услышать в подкасте, причем за полтора часа мы успели обсудить много тем
- Введение и знакомство с гостем
- Переход от инженера к менеджеру: кейсы, страхи, структура карьерных путей IC и менеджера
- Роли и вызовы Staff+ IC: ключевые компетенции, драйверы мотивации
- Взаимодействие между Staff+ IC и менеджерами: ожидания, конфликты, преодоление барьеров
- Стратегическое влияние инженеров высокого уровня: как IC влияют на архитектуру и бизнес
- Ошибки и ловушки развития сотрудников: что мешает росту, способы выхода из тупика
- Советы по выбору трека (IC или менеджмент), разбор типичных сценариев
- Заключение и рекомендации для роста как инженерам и менеджерам
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Career #Science #Conference #Leadership
В очередном выпуске подкаста ко мне пришел интересный гость, Александр Черников, staff+ engineer в Т-Банке. Мы с Александром поговорили про его интересный путь через увлечение технологиями после фильма "Хакеры", а дальше попадание в IT, развитие по менеджерскому треку в разных российских бигтехах, а потом попадание в Т-Банк. Именно здесь Саша перешел из ветки engineering managers в ветку staff+ engineers и это ему понравилось. Больше историй про стафф инженеров можно услышать в подкасте, причем за полтора часа мы успели обсудить много тем
- Введение и знакомство с гостем
- Переход от инженера к менеджеру: кейсы, страхи, структура карьерных путей IC и менеджера
- Роли и вызовы Staff+ IC: ключевые компетенции, драйверы мотивации
- Взаимодействие между Staff+ IC и менеджерами: ожидания, конфликты, преодоление барьеров
- Стратегическое влияние инженеров высокого уровня: как IC влияют на архитектуру и бизнес
- Ошибки и ловушки развития сотрудников: что мешает росту, способы выхода из тупика
- Советы по выбору трека (IC или менеджмент), разбор типичных сценариев
- Заключение и рекомендации для роста как инженерам и менеджерам
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Career #Science #Conference #Leadership
YouTube
Code of Leadership #52 - Interview with Alexander Chernikov about Management and IC Track (Staff +)
В очередном выпуске подкаста ко мне пришел интересный гость, Александр Черников, staff+ engineer в Т-Банке. Мы с Александром поговорили про его интересный путь через увлечение технологиями после фильма "Хакеры", а дальше попадание в IT, развитие по менеджерскому…
🔥11👍7❤4
[1/2] История появления Google TPU и их эволюции (Рубрика #Engineering)
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения матриц. Собственно все начиналось еще в начале 2000х годов, когда Google активно внедряла ML модели к себе в продукты (поиск, переводчик, фото). Они делали это настолько успешно, что с появлением сложных нейронных сетей (а мы помним феерию с CNN сетями и ImageNet в 2012) захотели внедрить и их к себе в продукты, но вычислительная мощность как обучения, так и инференса расла экспоненциально. В 2013 году Google осознали, что если ничего не менять, то придется удваивать количество датацентров на существующем оборудовании (существующих тогда CPU и GPU). В итоге, ребята подумали и придумали проект создания TPU с такими целями
- Создать Application-Specific Integrated Circuit (ASIC), который обеспечит 10-кратное преимущество в соотношении стоимость/производительность при выполнении инференса по сравнению с GPU
- Построить решение быстро (ASAP или в сжатые сроки)
-Достичь высокой производительности на масштабе с новыми рабочими нагрузками "из коробки", оставаясь при этом экономически эффективным
Досталось рулить проектом Норману Джупи (Norman "Norm" Jouppi), выдающийся компьютерный архитектор и Google Fellow. Норман до этого успел отличиться в проектировании MIPS процессоров. А непосредственно до Google он он работал в HP Labs, где руководил лабораторией передовых архитектур. Интересно, что по словам Джонатана Росса, одного из первых инженеров TPU (впоследствии основателя компании Groq), три отдельные группы в Google разрабатывали ИИ-ускорители, но именно дизайн TPU был в итоге выбран для реализации.
Если говорить про результаты, то они получились хорошими, особенно, если учесть то, что уже доступна седьмая версия TPU. А вот как они выглядили в динамике (я ориентировался на статью "TPU transformation: A look back at 10 years of our AI-specialized chips" от Google Cloud)
1. TPU v1 (2015) - Инференс
Он разработан с рекордной скоростью - всего за 15 месяцев с момента начала проекта до развёртывания в дата-центрах Google в начале 2015 года. Такая скорость была достигнута благодаря использованию "устаревшего" 28-нанометрового техпроцесса и относительно низкой тактовой частоты 700 МГц, что позволило относительно просто уложиться в сроки. Энергопотребление было 40 Вт, а производительность 92 TOPS для 8-битных целых чисел. Этот процессор был предназначен только для инференса. Чип показал производительность в 15-30 раз выше, чем современные ему CPU и GPU, с 30-80-кратным преимуществом по энергоэффективности.
2. TPU v2 (2017) - Инференс + Обучение
Уже в конце 2014 года, когда TPU v1 находился в производстве, Google осознала, что возможность обучения становится ограничивающим фактором для создания моделей. TPU v2, представленный в 2017 году, стал революционным шагом — это была уже не просто микросхема, а полноценная суперкомпьютерная система. Ключевые нововведения TPU v2:
- Поддержка как обучения, так и инференса
- TPU Pod - сеть из 256 чипов TPU v2 с высокопропускной межсоединительной сетью
- Производительность: 180 TFLOPS
- Память: 64 ГБ HBM
3. TPU v3 (2018) - Жидкостное охлаждение
TPU v3 ввёл жидкостное охлаждение для эффективного управления теплом, что позволило работать на более высоких уровнях производительности. Производительность выросла до 420 TFLOPS, была улучшена межсоединительная сеть и пропускная способность памяти.
Продолжение истории в следующем посте.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения матриц. Собственно все начиналось еще в начале 2000х годов, когда Google активно внедряла ML модели к себе в продукты (поиск, переводчик, фото). Они делали это настолько успешно, что с появлением сложных нейронных сетей (а мы помним феерию с CNN сетями и ImageNet в 2012) захотели внедрить и их к себе в продукты, но вычислительная мощность как обучения, так и инференса расла экспоненциально. В 2013 году Google осознали, что если ничего не менять, то придется удваивать количество датацентров на существующем оборудовании (существующих тогда CPU и GPU). В итоге, ребята подумали и придумали проект создания TPU с такими целями
- Создать Application-Specific Integrated Circuit (ASIC), который обеспечит 10-кратное преимущество в соотношении стоимость/производительность при выполнении инференса по сравнению с GPU
- Построить решение быстро (ASAP или в сжатые сроки)
-Достичь высокой производительности на масштабе с новыми рабочими нагрузками "из коробки", оставаясь при этом экономически эффективным
Досталось рулить проектом Норману Джупи (Norman "Norm" Jouppi), выдающийся компьютерный архитектор и Google Fellow. Норман до этого успел отличиться в проектировании MIPS процессоров. А непосредственно до Google он он работал в HP Labs, где руководил лабораторией передовых архитектур. Интересно, что по словам Джонатана Росса, одного из первых инженеров TPU (впоследствии основателя компании Groq), три отдельные группы в Google разрабатывали ИИ-ускорители, но именно дизайн TPU был в итоге выбран для реализации.
Если говорить про результаты, то они получились хорошими, особенно, если учесть то, что уже доступна седьмая версия TPU. А вот как они выглядили в динамике (я ориентировался на статью "TPU transformation: A look back at 10 years of our AI-specialized chips" от Google Cloud)
1. TPU v1 (2015) - Инференс
Он разработан с рекордной скоростью - всего за 15 месяцев с момента начала проекта до развёртывания в дата-центрах Google в начале 2015 года. Такая скорость была достигнута благодаря использованию "устаревшего" 28-нанометрового техпроцесса и относительно низкой тактовой частоты 700 МГц, что позволило относительно просто уложиться в сроки. Энергопотребление было 40 Вт, а производительность 92 TOPS для 8-битных целых чисел. Этот процессор был предназначен только для инференса. Чип показал производительность в 15-30 раз выше, чем современные ему CPU и GPU, с 30-80-кратным преимуществом по энергоэффективности.
2. TPU v2 (2017) - Инференс + Обучение
Уже в конце 2014 года, когда TPU v1 находился в производстве, Google осознала, что возможность обучения становится ограничивающим фактором для создания моделей. TPU v2, представленный в 2017 году, стал революционным шагом — это была уже не просто микросхема, а полноценная суперкомпьютерная система. Ключевые нововведения TPU v2:
- Поддержка как обучения, так и инференса
- TPU Pod - сеть из 256 чипов TPU v2 с высокопропускной межсоединительной сетью
- Производительность: 180 TFLOPS
- Память: 64 ГБ HBM
3. TPU v3 (2018) - Жидкостное охлаждение
TPU v3 ввёл жидкостное охлаждение для эффективного управления теплом, что позволило работать на более высоких уровнях производительности. Производительность выросла до 420 TFLOPS, была улучшена межсоединительная сеть и пропускная способность памяти.
Продолжение истории в следующем посте.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Telegram
Книжный куб
CodeFest Russia: Куда катится железо для нейронок? (Рубрика #AI)
Интересное выступление Валентина Мамедов из Сбера, где он провел анализ рынка железа для AI. Начал он с рассказа про рыночные реалии, которые таковы
- ChatGPT - это сейчас 5-й по популярности…
Интересное выступление Валентина Мамедов из Сбера, где он провел анализ рынка железа для AI. Начал он с рассказа про рыночные реалии, которые таковы
- ChatGPT - это сейчас 5-й по популярности…
🔥8👍5❤4
[2/2] История появления Google TPU и их эволюции (Рубрика #Engineering)
Продолжу рассказ про TPU от Google с 2021 года, а точнее с TPU v4.
4. TPU v4 (2021) - Optical Circuit Switching
TPU v4 представил оптическое переключение цепей для ускорения связи между чипами, что критически важно для работы со всё более сложными ИИ-моделями. Производительность составила 275 TFLOPS на чип, с улучшенными оптическими межсоединениями.
5. TPU v5 и v5e (2023) - Оптимизация затрат
TPU v5e и v5p сфокусированы на экономически эффективном обучении на масштабе, с улучшенной энергоэффективностью, динамическим масштабированием и поддержкой разреженности.
6. TPU v6 Trillium (2024) - Оптимизация производительности
Trillium, шестое поколение TPU, предлагает впечатляющий скачок в 4.7 раза по вычислительной производительности на чип по сравнению с TPU v5e. А также обладает следующими характеристиками
- Удвоенная ёмкость и пропускная способность High Bandwidth Memory (HBM)
- Удвоенная пропускная способность межчиповых соединений
- На 67% более энергоэффективен, чем TPU v5e
- Масштабируется до 256 TPU в одном поде с низкой задержкой
7. TPU v7 Ironwood (2025) - опять инференс
Ironwood, представленный в апреле 2025 года, стал заново TPU, специально разработанным для инференса (как TPU v1). Революционные характеристики Ironwood:
- Масштабирование до 9,216 чипов с жидкостным охлаждением
- 42.5 экзафлопс вычислительной мощности (в 24 раза больше самого мощного суперкомпьютера El Capitan)
- 4,614 TFLOPS на чип с 192 ГБ HBM памяти (в 6 раз больше, чем у Trillium)
- 2-кратная энергоэффективность по сравнению с Trillium
Если суммировать то видно, что процессоры Google прошли большой путь. Правда, остается вопроса, а как они чувствуют себя в сравнении с NVidia? И ниже есть ответ на этот вопрос
- NVIDIA H100: 3,958 TFLOPS (FP8), 80 ГБ HBM3, пропускная способность памяти 3.35 ТБ/с
- NVIDIA H200: 3,958 TFLOPS (FP8), 141 ГБ HBM3e, пропускная способность памяти 4.8 ТБ/с
- TPU v6 Trillium: ~2 PFLOPS FP16 для тензорных операций
- TPU v7 Ironwood: 4,614 TFLOPS на чип, 192 ГБ HBM, 7.37 ТБ/с пропускной способности
Как видим по FLOPS все норм. А если смотреть на эффективность по независимым исследованиям, то TPU v5e показывает в 50-70% более низкую стоимость на миллиард токенов для обучения крупных моделей по сравнению с кластерами NVIDIA H100. TPU v5e также потребляет значительно меньше энергии, чем H100 для аналогичной рабочей нагрузки (H100 может потреблять в ~5 раз больше энергии, чем чип TPU v5e под нагрузкой). В реальных задачах показатели примерно такие
- Для обучения GPT-масштабных моделей: TPU более экономически эффективны в 4-10 раз по сравнению с GPU
- Для инференса: TPU v5e обеспечивает в 3 раза больше пропускной способности на доллар
- TPU v4 показал производительность 1.2-1.7 раза быстрее и использует 1.3-1.9 раза меньше энергии, чем NVIDIA A100
В итоге, у TPU есть как преимущества, так и недостатки
(+) Специализация для тензорных операций и глубокого обучения
(+) Высокая энергоэффективность и экономическая эффективность
(+) Интеграция с Google Cloud и оптимизация для TensorFlow/JAX
(+) Масштабируемость в экосистеме Google Cloud
(-) Доступность только через Google Cloud
(-) Меньшая гибкость по сравнению с GPU для различных типов вычислений
(-) Ограниченная экосистема разработки по сравнению с CUDA
(-) Меньший объём памяти на чип по сравнению с новейшими GPU (до недавнего времени)
Если подводить итоги, то кажется, что у Google все хорошо со своей линейкой процессоров для Gen AI / ML задач и они дальше продолжат отстраивать эту инфру, которая дает им значимое конкурентное преимущество в эпоху лета Gen AI приложений. А вот для остальных эти процессоры означают vendor lock при прямом использовании или ориентир, куда стоит стремиться, если смотреть в будущее.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Продолжу рассказ про TPU от Google с 2021 года, а точнее с TPU v4.
4. TPU v4 (2021) - Optical Circuit Switching
TPU v4 представил оптическое переключение цепей для ускорения связи между чипами, что критически важно для работы со всё более сложными ИИ-моделями. Производительность составила 275 TFLOPS на чип, с улучшенными оптическими межсоединениями.
5. TPU v5 и v5e (2023) - Оптимизация затрат
TPU v5e и v5p сфокусированы на экономически эффективном обучении на масштабе, с улучшенной энергоэффективностью, динамическим масштабированием и поддержкой разреженности.
6. TPU v6 Trillium (2024) - Оптимизация производительности
Trillium, шестое поколение TPU, предлагает впечатляющий скачок в 4.7 раза по вычислительной производительности на чип по сравнению с TPU v5e. А также обладает следующими характеристиками
- Удвоенная ёмкость и пропускная способность High Bandwidth Memory (HBM)
- Удвоенная пропускная способность межчиповых соединений
- На 67% более энергоэффективен, чем TPU v5e
- Масштабируется до 256 TPU в одном поде с низкой задержкой
7. TPU v7 Ironwood (2025) - опять инференс
Ironwood, представленный в апреле 2025 года, стал заново TPU, специально разработанным для инференса (как TPU v1). Революционные характеристики Ironwood:
- Масштабирование до 9,216 чипов с жидкостным охлаждением
- 42.5 экзафлопс вычислительной мощности (в 24 раза больше самого мощного суперкомпьютера El Capitan)
- 4,614 TFLOPS на чип с 192 ГБ HBM памяти (в 6 раз больше, чем у Trillium)
- 2-кратная энергоэффективность по сравнению с Trillium
Если суммировать то видно, что процессоры Google прошли большой путь. Правда, остается вопроса, а как они чувствуют себя в сравнении с NVidia? И ниже есть ответ на этот вопрос
- NVIDIA H100: 3,958 TFLOPS (FP8), 80 ГБ HBM3, пропускная способность памяти 3.35 ТБ/с
- NVIDIA H200: 3,958 TFLOPS (FP8), 141 ГБ HBM3e, пропускная способность памяти 4.8 ТБ/с
- TPU v6 Trillium: ~2 PFLOPS FP16 для тензорных операций
- TPU v7 Ironwood: 4,614 TFLOPS на чип, 192 ГБ HBM, 7.37 ТБ/с пропускной способности
Как видим по FLOPS все норм. А если смотреть на эффективность по независимым исследованиям, то TPU v5e показывает в 50-70% более низкую стоимость на миллиард токенов для обучения крупных моделей по сравнению с кластерами NVIDIA H100. TPU v5e также потребляет значительно меньше энергии, чем H100 для аналогичной рабочей нагрузки (H100 может потреблять в ~5 раз больше энергии, чем чип TPU v5e под нагрузкой). В реальных задачах показатели примерно такие
- Для обучения GPT-масштабных моделей: TPU более экономически эффективны в 4-10 раз по сравнению с GPU
- Для инференса: TPU v5e обеспечивает в 3 раза больше пропускной способности на доллар
- TPU v4 показал производительность 1.2-1.7 раза быстрее и использует 1.3-1.9 раза меньше энергии, чем NVIDIA A100
В итоге, у TPU есть как преимущества, так и недостатки
(+) Специализация для тензорных операций и глубокого обучения
(+) Высокая энергоэффективность и экономическая эффективность
(+) Интеграция с Google Cloud и оптимизация для TensorFlow/JAX
(+) Масштабируемость в экосистеме Google Cloud
(-) Доступность только через Google Cloud
(-) Меньшая гибкость по сравнению с GPU для различных типов вычислений
(-) Ограниченная экосистема разработки по сравнению с CUDA
(-) Меньший объём памяти на чип по сравнению с новейшими GPU (до недавнего времени)
Если подводить итоги, то кажется, что у Google все хорошо со своей линейкой процессоров для Gen AI / ML задач и они дальше продолжат отстраивать эту инфру, которая дает им значимое конкурентное преимущество в эпоху лета Gen AI приложений. А вот для остальных эти процессоры означают vendor lock при прямом использовании или ориентир, куда стоит стремиться, если смотреть в будущее.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Telegram
Книжный куб
[1/2] История появления Google TPU и их эволюции (Рубрика #Engineering)
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения…
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения…
❤6👍2🔥1
The future of agentic coding with Claude Code (Рубрика #AI)
Посмотрел интересное интервью Boris Cherny, создателя Claude Code, которое у него взял Alex Albert (Claude Relations). Ребята обсуждали текущее состояние и будущее агентного программирования, основываясь на скорости эволюции моделей, а также улучшениях продукта Claude Code с момента его появления. Если говорить про ключевые идеи, то вот они
1. Изменения за год похожи на революцию
Борис отметил кардинальные изменения в подходе к программированию: "Год назад программирование было совершенно другим". Если раньше разработчики работали с IDE, автокомплитом и копированием кода из чат-приложений, то теперь агенты стали неотъемлемой частью рабочего процесса.
2. Концепция "упряжки" для ИИ-модели
Одна из центральных метафор Бориса - это сравнение работы с ИИ-моделью с ездой на лошади. "Если вы едете на лошади, вам нужно седло. И это седло имеет огромное значение". Под "упряжкой" понимается весь комплекс Claude Code: системные промпты, управление контекстом, инструменты, возможность подключения MCP-серверов, настройки и разрешения.
3. Органичная коэволюция модели и продукта
Борис объяснил, что улучшение модели происходит через dogfooding: "В Anthropic все используют Claude Code. И это включает исследователей". Это позволяет выявлять естественные ограничения и улучшать возможности системы на основе реального опыта.
4. Подход к оценке производительности
Вместо формальных метрик команда полагается на "вайбы" - субъективное ощущение улучшений. Борис признается: "Честно говоря, это просто вайбы. Кажется ли модель умнее?". Этот подход обусловлен сложностью создания синтетических тестов, которые бы охватывали всю сложность программной инженерии, хотя от создателей фронтир моделей многие могли бы ждать более формализованного способа измерений:)
5. Расширяемость как основной принцип
Claude Code изначально проектировался как максимально расширяемая система. Среди ключевых возможностей кастомизации: CLAUDE.md (контекст для проектов), система хуков для интеграций, slash-команды, субагенты с изолированными контекстными окнами, MCP-сервера
6. Будущее профессии разработчика
Согласно прогнозам Бориса, через 6-12 месяцев работа разработчика будет включать два основных направления: более практическое программирование (но с использованием Claude для манипуляций с текстом) и менее прямое программирование, где Claude будет проактивно предлагать изменения, а разработчик - принимать решения об их внедрении.
7. Философия обучения в эру ИИ
Борис подчеркнул важность сохранения фундаментальных навыков: "Вам все еще нужно изучать ремесло — языки программирования, компиляторы, рантаймы, веб-разработку, системный дизайн". Однако теперь на первый план выходит креативность и способность быстро реализовывать идеи. Ключевое изменение - код больше не является "священным". Возможность многократного переписывания с помощью агентов смещает фокус с процесса создания на конечный результат.Интересно, а через 1-2 года нам все еще нужны будут знания основ? Или агенты будут настолько автономны, что большинство забудет эти знания и навыки, как большинство забыло про ассемблер?
8. Практические советы по использованию
Борис рекомендовал двухэтапный подход для новичков:
- Не писать код сразу - начинать с вопросов агенту по кодовой базе и архитектуре
- Переходить к написанию кода, но учитывать сложность
-- Простые задачи: одним промптом
-- Средние задачи: начинать с режима планирования, согласовывать план, а затем отдавать Claude
-- Сложные задачи: оставаться ведущим, а Claude отдать роль инструмента для исследования и прототипирования
Если подводить итог, то мы видим, как создатели AI инструментов меняют индустрию от инструментов автодополнения к полноценным агентам разработки. Это требует переосмысления рабочих процессов и подходов к обучению новых специалистов. Ну и они эту модель обкатывают на своих собственных процессах разработки, эффективно пилотируя собственный продукт. Это же ждет и остальных в будущем:)
#AI #Software #Engineering #Architecture #Agents #ML
Посмотрел интересное интервью Boris Cherny, создателя Claude Code, которое у него взял Alex Albert (Claude Relations). Ребята обсуждали текущее состояние и будущее агентного программирования, основываясь на скорости эволюции моделей, а также улучшениях продукта Claude Code с момента его появления. Если говорить про ключевые идеи, то вот они
1. Изменения за год похожи на революцию
Борис отметил кардинальные изменения в подходе к программированию: "Год назад программирование было совершенно другим". Если раньше разработчики работали с IDE, автокомплитом и копированием кода из чат-приложений, то теперь агенты стали неотъемлемой частью рабочего процесса.
2. Концепция "упряжки" для ИИ-модели
Одна из центральных метафор Бориса - это сравнение работы с ИИ-моделью с ездой на лошади. "Если вы едете на лошади, вам нужно седло. И это седло имеет огромное значение". Под "упряжкой" понимается весь комплекс Claude Code: системные промпты, управление контекстом, инструменты, возможность подключения MCP-серверов, настройки и разрешения.
3. Органичная коэволюция модели и продукта
Борис объяснил, что улучшение модели происходит через dogfooding: "В Anthropic все используют Claude Code. И это включает исследователей". Это позволяет выявлять естественные ограничения и улучшать возможности системы на основе реального опыта.
4. Подход к оценке производительности
Вместо формальных метрик команда полагается на "вайбы" - субъективное ощущение улучшений. Борис признается: "Честно говоря, это просто вайбы. Кажется ли модель умнее?". Этот подход обусловлен сложностью создания синтетических тестов, которые бы охватывали всю сложность программной инженерии, хотя от создателей фронтир моделей многие могли бы ждать более формализованного способа измерений:)
5. Расширяемость как основной принцип
Claude Code изначально проектировался как максимально расширяемая система. Среди ключевых возможностей кастомизации: CLAUDE.md (контекст для проектов), система хуков для интеграций, slash-команды, субагенты с изолированными контекстными окнами, MCP-сервера
6. Будущее профессии разработчика
Согласно прогнозам Бориса, через 6-12 месяцев работа разработчика будет включать два основных направления: более практическое программирование (но с использованием Claude для манипуляций с текстом) и менее прямое программирование, где Claude будет проактивно предлагать изменения, а разработчик - принимать решения об их внедрении.
7. Философия обучения в эру ИИ
Борис подчеркнул важность сохранения фундаментальных навыков: "Вам все еще нужно изучать ремесло — языки программирования, компиляторы, рантаймы, веб-разработку, системный дизайн". Однако теперь на первый план выходит креативность и способность быстро реализовывать идеи. Ключевое изменение - код больше не является "священным". Возможность многократного переписывания с помощью агентов смещает фокус с процесса создания на конечный результат.
8. Практические советы по использованию
Борис рекомендовал двухэтапный подход для новичков:
- Не писать код сразу - начинать с вопросов агенту по кодовой базе и архитектуре
- Переходить к написанию кода, но учитывать сложность
-- Простые задачи: одним промптом
-- Средние задачи: начинать с режима планирования, согласовывать план, а затем отдавать Claude
-- Сложные задачи: оставаться ведущим, а Claude отдать роль инструмента для исследования и прототипирования
Если подводить итог, то мы видим, как создатели AI инструментов меняют индустрию от инструментов автодополнения к полноценным агентам разработки. Это требует переосмысления рабочих процессов и подходов к обучению новых специалистов. Ну и они эту модель обкатывают на своих собственных процессах разработки, эффективно пилотируя собственный продукт. Это же ждет и остальных в будущем:)
#AI #Software #Engineering #Architecture #Agents #ML
YouTube
The future of agentic coding with Claude Code
Anthropic's Boris Cherny (Claude Code) and Alex Albert (Claude Relations) discuss the current and future state of agentic coding, the evolution of coding models, and designing Claude Code's "hackability." Boris also shares some of his favorite tips for using…
🔥10❤7👍6👎1
Code of Leadership #53 - Interview with Evgeniy Kokuykin about custom development and security in Gen AI (Рубрика #AI)
Интервью с Евгением Кокуйкиным, одним из сооснователей компании Raft (https://raftds.ru/), а также создателем продукта HiveTrace (https://hivetrace.ru/) для мониторинга безопасности LLM приложений. Мы обсудили с Женей его интересный карьерный путь от инженера до тимлида, потом engineering director. Дальше Женя стал CEO новой компании HiveTrace, которая работает в области безопасности Gen AI приложений. А вообще мы общались порядка 2х часов и успели обсудить следующие темы
- Введение и знакомство с Евгением.
- Школа, университет и первые пробы поиска работы
- Работа и рост в компании «Диасофт»
- Менторство и профессиональное развитие как инженера
- Работа с внутренним ПО, автоматизация, пайплайны или DevOps и платформенные команды
- Профессиональный рост через участие в конференциях и нетворкинг
- Проект по миграции Oracle/PostgreSQL, освоение новых технологий
- Переход в «Аквелон» и опыт с зарубежными клиентами
- Становление управленца и создание «Рафт»
- Начало проектов по gen AI ИИ, особенности внедрения и поиск клиентов
- Осознание и развитие темы AI Security, участие в активностях OWASP
- Рынок решений по безопасности ИИ и создание продукта HiveTrace
- Гибридный формат, развитие комьюнити и work/life balance
- Советы для саморазвития
Кстати, Женя упоминал интересную книгу "Driving the technical challenge", которая помогает не только придумать хорошую техническую идею, но и убедить всех вокруг, что ее нужно дотащить до прода:)
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #AI #ML #Security #Engineering #Management #Career #Leadership
Интервью с Евгением Кокуйкиным, одним из сооснователей компании Raft (https://raftds.ru/), а также создателем продукта HiveTrace (https://hivetrace.ru/) для мониторинга безопасности LLM приложений. Мы обсудили с Женей его интересный карьерный путь от инженера до тимлида, потом engineering director. Дальше Женя стал CEO новой компании HiveTrace, которая работает в области безопасности Gen AI приложений. А вообще мы общались порядка 2х часов и успели обсудить следующие темы
- Введение и знакомство с Евгением.
- Школа, университет и первые пробы поиска работы
- Работа и рост в компании «Диасофт»
- Менторство и профессиональное развитие как инженера
- Работа с внутренним ПО, автоматизация, пайплайны или DevOps и платформенные команды
- Профессиональный рост через участие в конференциях и нетворкинг
- Проект по миграции Oracle/PostgreSQL, освоение новых технологий
- Переход в «Аквелон» и опыт с зарубежными клиентами
- Становление управленца и создание «Рафт»
- Начало проектов по gen AI ИИ, особенности внедрения и поиск клиентов
- Осознание и развитие темы AI Security, участие в активностях OWASP
- Рынок решений по безопасности ИИ и создание продукта HiveTrace
- Гибридный формат, развитие комьюнити и work/life balance
- Советы для саморазвития
Кстати, Женя упоминал интересную книгу "Driving the technical challenge", которая помогает не только придумать хорошую техническую идею, но и убедить всех вокруг, что ее нужно дотащить до прода:)
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #AI #ML #Security #Engineering #Management #Career #Leadership
YouTube
Code of Leadership #53 Interview with Evgeniy Kokuykin about custom development & security in Gen AI
Интервью с Евгением Кокуйкиным, одним из сооснователей компании Raft (https://raftds.ru/), а также создателем продукта HiveTrace (https://hivetrace.ru/) для мониторинга безопасности LLM приложений. Мы обсудили с Женей его интересный карьерный путь от инженера…
❤8👍3🔥3
High Growth Handbook (Рубрика #Management)
За пару-тройку месяцев прочитал эту книгу Элада Гила, которая была издана в 2018 году в издательстве Stripe Press и создавалась в период, когда технологический сектор переживал устойчивый рост после восстановления от кризиса 2008-2009 годов. Это было время относительно дешевых денег, активного венчурного финансирования и оптимизма в стартап-экосистеме. Сейчас конечно условия поменялись, но базовые принципы остались все теми же:)
Для начала надо сказать про автора, который когда-то работал в McKinsey, затем перешел в Google, где помог запустить мобильную команду для Google Mobile Maps. Дальше он пошел делать стартап MixerLabs про социальные медиа и геолокационные сервисы, который был приобретен Twitter в 2009 году, где Гил занял должность вице-президента по корпоративной стратегии. Дальше он ушел в вентчур и как инвестор вложился в такие известные компании как Airbnb (когда в команде было менее 10 человек), Stripe, Square, Coinbase, Pinterest, Instacart, Gusto. В общем, Элад достаточно авторитетный автор в мире венчура:)
Если говорить про структуру книги, то в ней почти 350 страниц и девять глав
1. Роль CEO - эволюция руководителя от практика к визионеру, делегирование полномочий, управление временем
2. Управление советом директоров - выбор венчур-партнеров, независимых директоров, эволюция совета со временем
3. Рекрутинг, найм и управление талантами - стратегии привлечения и удержания ключевых сотрудников
4. Формирование исполнительной команды - найм C-level руководителей, управление топ-менеджментом
5. Организационная структура и гиперрост - реорганизации, процессы, структурные изменения
6. Маркетинг и PR - различия между дисциплинами, стратегии продвижения
7. Продуктовый менеджмент - лучшие практики управления продуктом
8. Финансирование и оценка - поздние раунды, IPO, вторичные продажи акций
9. Слияния и поглощения - стратегии M&A для растущих компаний
Книга также включает приложение "Чему просто сказать НЕТ" с практическими рекомендациями по избеганию антипарттернов:)
Отдельно стоит отметить, что Элад взял целую пачку интервью с лидерами индустрии, чтобы дополнить свои мысли практическими советами от уважаемых людей.
- Рид Хоффман (LinkedIn) - о стратегии и управлении советом директоров
- Марк Андриссен (Andreessen Horowitz) - о венчурном финансировании
- Сэм Альтман (Y Combinator) - о роли CEO и росте компаний
- Аарон Леви (Box) - об операционном масштабировании
- Патрик Коллисон (Stripe) - о платежных технологиях и росте
- Кит Рабойс - о найме и управлении руководителями
- Навал Равикант (AngelList) - об инвестициях и совете директоров
Если сравнивать книгу с современными условиями, то можно выделить такие ключевые отличия
1. В 2018 году стартапы работали в условиях низких процентных ставок и доступного капитала. К 2025 году экосистема прошла через несколько кризисов - пандемию COVID-19, инфляцию, повышение процентных ставок и "корректировку" рынка 2022-2023 годов. В общем, сейчас жечь деньги не принято (если ты не AI стартап ) и стартапы пытаются растянуть свои финансы на подольше
2. В 2018 году искусственный интеллект был перспективной технологией, а к 2025 году он стал ключевым дифференциатором. AI-ориентированные компании сейчас могут поднимать раунды финансифрования, а остальным приходится потуже затягивать пояса
3. Раньше стартапы агрессивно наращивали количество инженеров и смотрели на метрики роста компании, а теперь многие инвесторы смотрят на удельный вклад сотрудника в финансовые результаты компании. Поэтому основатели стартапов не стремятся раздувать штат, а оставляют команды небольшими, активно используя AI для выполнения части работы
В итоге, в свое время книга была отлично принята стартап-сообществом и даже несмотря на изменение условий она может быть полезна и сейчас - для этого надо понимать логику советом Элада и понимать как их менять, учитывая изменение стоимости денег и появлении game changer в виде фронтир моделей от OpenAI, Anthropic, Google и остальных.
#Management #Leadership #AI #Engineering #Software #Career
За пару-тройку месяцев прочитал эту книгу Элада Гила, которая была издана в 2018 году в издательстве Stripe Press и создавалась в период, когда технологический сектор переживал устойчивый рост после восстановления от кризиса 2008-2009 годов. Это было время относительно дешевых денег, активного венчурного финансирования и оптимизма в стартап-экосистеме. Сейчас конечно условия поменялись, но базовые принципы остались все теми же:)
Для начала надо сказать про автора, который когда-то работал в McKinsey, затем перешел в Google, где помог запустить мобильную команду для Google Mobile Maps. Дальше он пошел делать стартап MixerLabs про социальные медиа и геолокационные сервисы, который был приобретен Twitter в 2009 году, где Гил занял должность вице-президента по корпоративной стратегии. Дальше он ушел в вентчур и как инвестор вложился в такие известные компании как Airbnb (когда в команде было менее 10 человек), Stripe, Square, Coinbase, Pinterest, Instacart, Gusto. В общем, Элад достаточно авторитетный автор в мире венчура:)
Если говорить про структуру книги, то в ней почти 350 страниц и девять глав
1. Роль CEO - эволюция руководителя от практика к визионеру, делегирование полномочий, управление временем
2. Управление советом директоров - выбор венчур-партнеров, независимых директоров, эволюция совета со временем
3. Рекрутинг, найм и управление талантами - стратегии привлечения и удержания ключевых сотрудников
4. Формирование исполнительной команды - найм C-level руководителей, управление топ-менеджментом
5. Организационная структура и гиперрост - реорганизации, процессы, структурные изменения
6. Маркетинг и PR - различия между дисциплинами, стратегии продвижения
7. Продуктовый менеджмент - лучшие практики управления продуктом
8. Финансирование и оценка - поздние раунды, IPO, вторичные продажи акций
9. Слияния и поглощения - стратегии M&A для растущих компаний
Книга также включает приложение "Чему просто сказать НЕТ" с практическими рекомендациями по избеганию антипарттернов:)
Отдельно стоит отметить, что Элад взял целую пачку интервью с лидерами индустрии, чтобы дополнить свои мысли практическими советами от уважаемых людей.
- Рид Хоффман (LinkedIn) - о стратегии и управлении советом директоров
- Марк Андриссен (Andreessen Horowitz) - о венчурном финансировании
- Сэм Альтман (Y Combinator) - о роли CEO и росте компаний
- Аарон Леви (Box) - об операционном масштабировании
- Патрик Коллисон (Stripe) - о платежных технологиях и росте
- Кит Рабойс - о найме и управлении руководителями
- Навал Равикант (AngelList) - об инвестициях и совете директоров
Если сравнивать книгу с современными условиями, то можно выделить такие ключевые отличия
1. В 2018 году стартапы работали в условиях низких процентных ставок и доступного капитала. К 2025 году экосистема прошла через несколько кризисов - пандемию COVID-19, инфляцию, повышение процентных ставок и "корректировку" рынка 2022-2023 годов. В общем, сейчас жечь деньги не принято (
2. В 2018 году искусственный интеллект был перспективной технологией, а к 2025 году он стал ключевым дифференциатором. AI-ориентированные компании сейчас могут поднимать раунды финансифрования, а остальным приходится потуже затягивать пояса
3. Раньше стартапы агрессивно наращивали количество инженеров и смотрели на метрики роста компании, а теперь многие инвесторы смотрят на удельный вклад сотрудника в финансовые результаты компании. Поэтому основатели стартапов не стремятся раздувать штат, а оставляют команды небольшими, активно используя AI для выполнения части работы
В итоге, в свое время книга была отлично принята стартап-сообществом и даже несмотря на изменение условий она может быть полезна и сейчас - для этого надо понимать логику советом Элада и понимать как их менять, учитывая изменение стоимости денег и появлении game changer в виде фронтир моделей от OpenAI, Anthropic, Google и остальных.
#Management #Leadership #AI #Engineering #Software #Career
❤9🔥6👍4
Research Insights Made Simple #17 - Measuring the Impact of Early-2025 AI on Developer Productivity (Рубрика #DevEx)
Разбор отчета METR "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", где показано замедление разработчиков при использовании AI. Методология мне показалось хоть и интересной, но объем выборки аж в 16 инженеров казался мне маловатым для того, чтобы делать громкие заявления о замедлении разработки. Правда, такой размер выборки не помешал многим журналистом активно писать про это исследование. В итоге, я позвл в гости Артема Арюткина, СРО платформы для разработчиков в Городских сервисах Яндекса, вместе с которым мы обсудили все плюсы и минусы этого исследования.
Вот примерный список тем, что мы успели обсудить за 40+ минут
- Введение, анонс METR и бенчмарка
- Знакомство с гостем
- Спонсор исследования и возможная предвзятость
- Как устроен эксперимент
- Гипотезы о мотивах и дизайне исследования
- Оценка и самооценка задач участниками
- Набор участников и требования к ним
- Ограничения масштаба и методологии
- Цифры: 246 задачи от 1 до 8 часов по длительности, 16 инженеров в исследовании
- Пять факторов замедления работы
- Контекст, интеграция и коммуникации как узкое место
- Как работать с инструментом по уровням сложности
- Почему моделям сложно применять изменения в реальном коде
- Итоги бенчмарков и ограниченность генерализации
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
P.S.
На Big Tech Night в ближайшую пятницу Станислав Моисеев, мой коллега, что руководит RnD центром, расскажет про разные подходы к измерению developer productivity в общем, а также то, как померить влияние Gen AI на это. Если тема вам интересна, то регистрируйтесь и приходите послушать.
#Software #Engineering #Metrics #Databases #Architecture #Devops
Разбор отчета METR "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", где показано замедление разработчиков при использовании AI. Методология мне показалось хоть и интересной, но объем выборки аж в 16 инженеров казался мне маловатым для того, чтобы делать громкие заявления о замедлении разработки. Правда, такой размер выборки не помешал многим журналистом активно писать про это исследование. В итоге, я позвл в гости Артема Арюткина, СРО платформы для разработчиков в Городских сервисах Яндекса, вместе с которым мы обсудили все плюсы и минусы этого исследования.
Вот примерный список тем, что мы успели обсудить за 40+ минут
- Введение, анонс METR и бенчмарка
- Знакомство с гостем
- Спонсор исследования и возможная предвзятость
- Как устроен эксперимент
- Гипотезы о мотивах и дизайне исследования
- Оценка и самооценка задач участниками
- Набор участников и требования к ним
- Ограничения масштаба и методологии
- Цифры: 246 задачи от 1 до 8 часов по длительности, 16 инженеров в исследовании
- Пять факторов замедления работы
- Контекст, интеграция и коммуникации как узкое место
- Как работать с инструментом по уровням сложности
- Почему моделям сложно применять изменения в реальном коде
- Итоги бенчмарков и ограниченность генерализации
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
P.S.
На Big Tech Night в ближайшую пятницу Станислав Моисеев, мой коллега, что руководит RnD центром, расскажет про разные подходы к измерению developer productivity в общем, а также то, как померить влияние Gen AI на это. Если тема вам интересна, то регистрируйтесь и приходите послушать.
#Software #Engineering #Metrics #Databases #Architecture #Devops
YouTube
Research Insights Made Simple #17- Measuring the Impact of Early-2025 AI on Developer Productivity
Разбор отчета METR "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", где показано замедление разработчиков при использовании AI. Методология мне показалось хоть и интересной, но объем выборки аж в 16 инженеров казался…
❤6🔥5👍4
Бизнес для программистов. Как начать своё дело (Eric Sink on the Business of Software) (Рубрика #Bootstrapping)
Продолжая разбирать свою книжную полку от старых книг, наткнулся на этот сборник эссе от Эрика Синка про то, как программистам запускать и развивать продуктовый бизнес. Оригинал вышел в Apress в 2006 году, русское издание - в «Питере» в 2011‑м. Материал вырос из одноимённой колонки Синка на MSDN (2003–2005), то есть уже прошло порядка 20 лет. Эрик Синк - основатель SourceGear (Vault/Fortress, инструменты контроля версий), ранее руководил браузерной командой в Spyglass, которая делала ранние версии того, что стало Internet Explorer. Он также инициировал проект AbiWord. Позже команда SourceGear вывела кроссплатформенную интеграцию с TFS (Teamprise), которую продали Microsoft.
В этой книге Синк популяризировал концепцию соло-основателей маленьких и независимых вендоров софта. Во времена выхода книги это было не особо распространено, но книгу встретили хорошо, а предисловие к книге написал сам Джоэл Спольски, автор блога "Joel on Software", сооснователь Stack Overflow, создатель Trello.
Если говорить про контекст написания книги, то в те временя была эра shareware и коробок, блоги и форумы были главными в плане маркетинга, плюс многие размышляли про риски правильного выбора OS/фреймворка, условно Windows/Linux, Java/.net/etc. Сейчас конечно все по другому - у нас есть облака и маркетплейсы приложений, есть соцсети и коммьюнити вокруг софта, а главное есть AI-инсутрменты, что удешевляют разработку и позволяют приблизиться к концепции соло-предпринимателей.
Если говорить про основные идеи книги, товот они
1. Микровендорам стоит делать фокусный продукт на узкий рынок, часто силами 1–3 человек. Причем важно не путать инженерную любовь к фичам с рыночной ценностью. Сейчас код написать не проблема - важно найти product market fit для продукта и быстро его развивать, пока конкуренты не навайбкодили что-то похожее:)
2. Предпринимательство для разработчика: честная самооценка, создание плана на случае если не пойдет, выбор ниши с цифрами (юнит‑экономика), а не просто из-за увлечения
3. Finance for Geeks: простые отчёты, маржи, «почему open‑source‑монетизация сложна» и когда (не)брать деньги. Сейчас как считать финансы продукта написано многое, но open source монетизация до сих пор сложна
4. Люди: «нужны developers, not programmers», осторожность при найме, «великий хакер ≠ отличный найм». Сейчас это про то, что с ИИ‑ассистентами выигрывают не «кодеры», а те, кто умеет ставить задачи, валидировать ценность, строить систему продаж/позиционирования. Лейтмотив главы о людях стал ещё актуальнее.
5. Маркетинг - не постобработка: сначала позиционирование, затем продукт; выбирать конкурентов осознанно. Сейчас условный ChatGPT может стать следующим большим каналом дистрибуции (я уже подробно разбирал интервью Брайана Балфура)
6 Платформенные риски: «Be careful where you build» - взвешивайте зависимость от платформ/экосистем. Сейчас это про правильный выбор провайдера, лицензий, внезапное изменение правил тарификации
7. Прозрачность и продажи: блог, форумы, честность о проблемах, простой демо‑доступ, money‑back, внятная цена. Сейчас это про «build in public», changelog‑культуру и community‑led growth
8. Тактика той эпохи: трейд‑шоу и журнальная реклама - полезно как исторический контекст (но сейчас не работает)
В общем, книга определенно была интересной в свое время, а теперь ее тоже можно читать, но надо делать поправки в местах, которые поменялись за эти двадцать лет.
P.S.
А я как обычно отнесу в понедельник эту книжку в наш букшеринг уголок на нашей работе:)
#Management #Leadership #Startup #Engineering #Software #Business
Продолжая разбирать свою книжную полку от старых книг, наткнулся на этот сборник эссе от Эрика Синка про то, как программистам запускать и развивать продуктовый бизнес. Оригинал вышел в Apress в 2006 году, русское издание - в «Питере» в 2011‑м. Материал вырос из одноимённой колонки Синка на MSDN (2003–2005), то есть уже прошло порядка 20 лет. Эрик Синк - основатель SourceGear (Vault/Fortress, инструменты контроля версий), ранее руководил браузерной командой в Spyglass, которая делала ранние версии того, что стало Internet Explorer. Он также инициировал проект AbiWord. Позже команда SourceGear вывела кроссплатформенную интеграцию с TFS (Teamprise), которую продали Microsoft.
В этой книге Синк популяризировал концепцию соло-основателей маленьких и независимых вендоров софта. Во времена выхода книги это было не особо распространено, но книгу встретили хорошо, а предисловие к книге написал сам Джоэл Спольски, автор блога "Joel on Software", сооснователь Stack Overflow, создатель Trello.
Если говорить про контекст написания книги, то в те временя была эра shareware и коробок, блоги и форумы были главными в плане маркетинга, плюс многие размышляли про риски правильного выбора OS/фреймворка, условно Windows/Linux, Java/.net/etc. Сейчас конечно все по другому - у нас есть облака и маркетплейсы приложений, есть соцсети и коммьюнити вокруг софта, а главное есть AI-инсутрменты, что удешевляют разработку и позволяют приблизиться к концепции соло-предпринимателей.
Если говорить про основные идеи книги, товот они
1. Микровендорам стоит делать фокусный продукт на узкий рынок, часто силами 1–3 человек. Причем важно не путать инженерную любовь к фичам с рыночной ценностью. Сейчас код написать не проблема - важно найти product market fit для продукта и быстро его развивать, пока конкуренты не навайбкодили что-то похожее:)
2. Предпринимательство для разработчика: честная самооценка, создание плана на случае если не пойдет, выбор ниши с цифрами (юнит‑экономика), а не просто из-за увлечения
3. Finance for Geeks: простые отчёты, маржи, «почему open‑source‑монетизация сложна» и когда (не)брать деньги. Сейчас как считать финансы продукта написано многое, но open source монетизация до сих пор сложна
4. Люди: «нужны developers, not programmers», осторожность при найме, «великий хакер ≠ отличный найм». Сейчас это про то, что с ИИ‑ассистентами выигрывают не «кодеры», а те, кто умеет ставить задачи, валидировать ценность, строить систему продаж/позиционирования. Лейтмотив главы о людях стал ещё актуальнее.
5. Маркетинг - не постобработка: сначала позиционирование, затем продукт; выбирать конкурентов осознанно. Сейчас условный ChatGPT может стать следующим большим каналом дистрибуции (я уже подробно разбирал интервью Брайана Балфура)
6 Платформенные риски: «Be careful where you build» - взвешивайте зависимость от платформ/экосистем. Сейчас это про правильный выбор провайдера, лицензий, внезапное изменение правил тарификации
7. Прозрачность и продажи: блог, форумы, честность о проблемах, простой демо‑доступ, money‑back, внятная цена. Сейчас это про «build in public», changelog‑культуру и community‑led growth
8. Тактика той эпохи: трейд‑шоу и журнальная реклама - полезно как исторический контекст (но сейчас не работает)
В общем, книга определенно была интересной в свое время, а теперь ее тоже можно читать, но надо делать поправки в местах, которые поменялись за эти двадцать лет.
P.S.
А я как обычно отнесу в понедельник эту книжку в наш букшеринг уголок на нашей работе:)
#Management #Leadership #Startup #Engineering #Software #Business
👍10❤5🔥1
Обложки и иллюстрации из книг "Бизнес для программистов. Как начать своё дело" и "Eric Sink on the Business of Software"
❤8🔥5👍2
Добрался сегодня на конферецию InBetween, про которую рассказывал раньше и которую мы обсуждали с Лешей Федоровым, главным идеологом этой конфы.
❤9👍3🔥3