Примавера парк (Рубрика #Kids)
Выбрались с детишками в недавно открывшийся парк на берегу Москва-реки. Детишкам понравилась новизна игровых площадок с горками и песочком, а мне с женой хоть какое-то разнообразие. Утром мы уже успели прогуляться по парку на Ходынке и решили съездить в новое место.
#ForKids
Выбрались с детишками в недавно открывшийся парк на берегу Москва-реки. Детишкам понравилась новизна игровых площадок с горками и песочком, а мне с женой хоть какое-то разнообразие. Утром мы уже успели прогуляться по парку на Ходынке и решили съездить в новое место.
#ForKids
1❤10👍4🔥1🙏1
Силиконовые дали. Будущее, в котором мы живем сегодня (Рубрика #Startup)
Иногда вечером уходя с работы, я уже не способен читать сложные книги и тогда я снимаю с полки что-то попроще из серии попкорна для уставшей головы. На прошлой неделе я так начал читать книгу "Силиконовые дали" за авторством Владимира Смеркиса. Книга была издана в уже далеком 2022 году издательством "Альпина ПРО". Она представляет собой компиляцию идей Владимира, подкрепленных цитатами из 250+ интервью с успешными предпринимателями и топ-менеджерами. Книга напоминает о прошлом, когда
- Еще не случились события, приведшие к изоляции России
- Все еще не разочаровались в Web3 и NFT (автор как раз активно за эту тему топит)
- Все еще не наступила новая волна хайпа с Gen AI
- Все еще было модно говорить про digital transformation
В общем, автор привел в своей книге
- Практические рекомендации по построению цифрового будущего, щедро досыпав цитат от успешных предпринимателей
- Истории успеха и опыт российского интернет-бизнеса - в начале были истории про ранний Яндекс, Рамблер и даже Ozon
- Блокчейн-технологии и построение бизнеса на их основе - NFT должен был всех спасти на пару с блокчейном:)
- Экономику данных и ее перспективы - здесь тезисы в стиле "данные - это новая нефть"
- Цифровые стартапы: от поиска идей и инвесторов до типичных ошибок
В общем, я прочитал книгу быстро и скорее вспомнил
чем получил какие-то практические инсайты про будущее.
#Economics #Startup #Management #Leadership
Иногда вечером уходя с работы, я уже не способен читать сложные книги и тогда я снимаю с полки что-то попроще из серии попкорна для уставшей головы. На прошлой неделе я так начал читать книгу "Силиконовые дали" за авторством Владимира Смеркиса. Книга была издана в уже далеком 2022 году издательством "Альпина ПРО". Она представляет собой компиляцию идей Владимира, подкрепленных цитатами из 250+ интервью с успешными предпринимателями и топ-менеджерами. Книга напоминает о прошлом, когда
- Еще не случились события, приведшие к изоляции России
- Все еще не разочаровались в Web3 и NFT (автор как раз активно за эту тему топит)
- Все еще не наступила новая волна хайпа с Gen AI
- Все еще было модно говорить про digital transformation
В общем, автор привел в своей книге
- Практические рекомендации по построению цифрового будущего, щедро досыпав цитат от успешных предпринимателей
- Истории успеха и опыт российского интернет-бизнеса - в начале были истории про ранний Яндекс, Рамблер и даже Ozon
- Блокчейн-технологии и построение бизнеса на их основе - NFT должен был всех спасти на пару с блокчейном:)
- Экономику данных и ее перспективы - здесь тезисы в стиле "данные - это новая нефть"
- Цифровые стартапы: от поиска идей и инвесторов до типичных ошибок
В общем, я прочитал книгу быстро и скорее вспомнил
... как все начиналось
Все было впервые и вновь
Как строились лодки и лодки звались
чем получил какие-то практические инсайты про будущее.
#Economics #Startup #Management #Leadership
🔥7❤5👍2😁1
Why AI Isn’t Ready to Be a Real Coder? AI’s coding evolution hinges on collaboration and trust (Рубрика #AI)
Интересная статья от 26 августа из IEEE Spectrum про текущее состояние AI инструментов, которые по мнению авторов быстро прогрессируют, но до подной автономии им далеко. По мнению автора статьи они полезные как ассистенты, но не могут автономно решать задачи с большим контекстом, сложной логикой и длинным горизонтом планирования. В итоге, сейчас стоит стремиться не к замене разработчика, а к выстраиванию эффективного взаимодействия человек <-> AI.
Интересно, что эта статья основана на мартовском whitepaper "Challenges and Paths Towards AI for Software Engineering", представленной на ICML-2025 (Cornell, MIT CSAIL, Stanford, UC Berkeley, UPenn). В котором
- Даётся таксономия задач ИИ в разработке (не только генерация кода, но и тестирование, анализ, рефакторинг, сопровождение и т. д.);
- Перечисляются bottlenecks: оценивание и бенчмарки, эффективное пользование инструментами, коллаборация с человеком, долгосрочное планирование, огромный контекст, семантическое понимание кодовых баз, низкоресурсные языки/редкие библиотеки, обновления API/версий, высокая логическая сложность;
- Предлагаются пути вперёд: лучший сбор и курирование данных, RL-окружения для кода, быстрая адаптация к конкретным кодовым базам, обучение моделей совместной работе с людьми, семантически осведомлённый поиск/ретривал, глубокая интеграция с инструментами и процессами разработки
А в статье "Why AI Isn’t Ready to Be a Real Coder?" помимо опоры на эту статью приведены идеи и других ученых, которые поделились своими мыслями
- Armando Solar-Lezama (MIT CSAIL) рассказал о том, что нынешние интерфейсы и взаимодействие с ИИ ещё далеки от работы с живым коллегой.
- Koushik Sen (UC Berkeley) поговорил о трудностях поиска и правки сложных дефектов (например, проблем с безопасностью памяти) в больших кодовых базах.
- Shreya Kumar (University of Notre Dame) подняла вопрос о цене "промпт-инжиниринга": иногда проще написать код, чем объяснить его ИИ.
- Abhik Roychoudhury (National University of Singapore) высказался о критичности захвата пользовательского намерения при создании софта (архитекторы и аналитики обычно говорят об этом в формате problem space и solution space, а также функциональных и нефункциональных требований). Также Abhik поговорил о роли "агентного" ИИ и возникающем при этом вопросе доверия
Если суммировать, то вот основные выводы статьи
1. Полная автономия ещё не здесь: модели часто «галлюцинируют» причины багов, дают нерелевантные фиксы и плохо держат длинный контекст/план. Нужен обязательный human-in-the-loop.
2. Прорыв потребует не только больших моделей, но и правильной организации работы: новые интерфейсы взаимодействия, умение модели выражать неуверенность и проактивно уточнять требования, явный захват user intent.
3. Агентные и эволюционные подходы дают обнадёживающие сигналы, но проблема доверия и проверки останется центральной. Кстати, в статье упоминается AlphaEvolve, про который я рассказывал раньше
#AI #Engineering #Software #Metrics #Devops #DevEx #Architecture
Интересная статья от 26 августа из IEEE Spectrum про текущее состояние AI инструментов, которые по мнению авторов быстро прогрессируют, но до подной автономии им далеко. По мнению автора статьи они полезные как ассистенты, но не могут автономно решать задачи с большим контекстом, сложной логикой и длинным горизонтом планирования. В итоге, сейчас стоит стремиться не к замене разработчика, а к выстраиванию эффективного взаимодействия человек <-> AI.
Интересно, что эта статья основана на мартовском whitepaper "Challenges and Paths Towards AI for Software Engineering", представленной на ICML-2025 (Cornell, MIT CSAIL, Stanford, UC Berkeley, UPenn). В котором
- Даётся таксономия задач ИИ в разработке (не только генерация кода, но и тестирование, анализ, рефакторинг, сопровождение и т. д.);
- Перечисляются bottlenecks: оценивание и бенчмарки, эффективное пользование инструментами, коллаборация с человеком, долгосрочное планирование, огромный контекст, семантическое понимание кодовых баз, низкоресурсные языки/редкие библиотеки, обновления API/версий, высокая логическая сложность;
- Предлагаются пути вперёд: лучший сбор и курирование данных, RL-окружения для кода, быстрая адаптация к конкретным кодовым базам, обучение моделей совместной работе с людьми, семантически осведомлённый поиск/ретривал, глубокая интеграция с инструментами и процессами разработки
А в статье "Why AI Isn’t Ready to Be a Real Coder?" помимо опоры на эту статью приведены идеи и других ученых, которые поделились своими мыслями
- Armando Solar-Lezama (MIT CSAIL) рассказал о том, что нынешние интерфейсы и взаимодействие с ИИ ещё далеки от работы с живым коллегой.
- Koushik Sen (UC Berkeley) поговорил о трудностях поиска и правки сложных дефектов (например, проблем с безопасностью памяти) в больших кодовых базах.
- Shreya Kumar (University of Notre Dame) подняла вопрос о цене "промпт-инжиниринга": иногда проще написать код, чем объяснить его ИИ.
- Abhik Roychoudhury (National University of Singapore) высказался о критичности захвата пользовательского намерения при создании софта (архитекторы и аналитики обычно говорят об этом в формате problem space и solution space, а также функциональных и нефункциональных требований). Также Abhik поговорил о роли "агентного" ИИ и возникающем при этом вопросе доверия
Если суммировать, то вот основные выводы статьи
1. Полная автономия ещё не здесь: модели часто «галлюцинируют» причины багов, дают нерелевантные фиксы и плохо держат длинный контекст/план. Нужен обязательный human-in-the-loop.
2. Прорыв потребует не только больших моделей, но и правильной организации работы: новые интерфейсы взаимодействия, умение модели выражать неуверенность и проактивно уточнять требования, явный захват user intent.
3. Агентные и эволюционные подходы дают обнадёживающие сигналы, но проблема доверия и проверки останется центральной. Кстати, в статье упоминается AlphaEvolve, про который я рассказывал раньше
#AI #Engineering #Software #Metrics #Devops #DevEx #Architecture
IEEE Spectrum
Why AI Isn’t Ready to Be a Real Coder
Can AI truly collaborate with human coders? Researchers highlight the hurdles and potential solutions in AI-driven software engineering.
❤5👍4🔥2
День знаний в Высшей Школе Экономики (Рубрика #Edu)
Сегодня вечером я приезжал в гости на факультет компьютерных наук в ВШЭ, чтобы выступить перед первокурсниками прикладными математиками и замотивировать их на обучение. Это был интересный опыт выступления экспромтом (я не верю в выученные речи ). Тезисы выступления были примерно такие
Для начала я вспомнил как 23 года назад тоже был первокурсником по специальности прикладная математикаи физика , только не в Высшей Школе Экономике, а на Физтехе. Тогда тоже жизнь казалась полной динамизма и изменений и дальше были такие технологические эпохи
- Пузырь доткомов, который случился еще до моего поступления, но привел к дальнейшему развитию веба и сайты появились даже у шаурмячных
- Появление сенсорных мобильных телефонов и переход из веба в мобильные аппки, что опять заполонили планету
- Чуть позже мы увидели все возможности сетевых эффектов, как в социальных сетях, так и в платформах типа Amazon или App Store и Google Play
- Потом нас захватила волна уберизации индустрий и цифровой трансформации обычных предприятий
- Потом мы ушли на удаленку во времена Covid и цифровизация стала baseline, без которой компании не выживали
- В 2022 году случился ChatGPT момент и глубокое обучение захватило воображение всех без исключения
- В текущий момент мы находимся в ситуации неопределенности, когда старые подходы к работе заменяются новыми - фактически, мы до конца не знаем как будет выглядеть работа software engineer через четыре года, когда бакалавры закончат свое образование. Это создает неопределенность, но и новые возможности, особенно для молодых и умных:)
Если бы я сейчас был студентом-первокурсником, то я бы посоветовл сам себе же
- Максимально использовать ресурсы - все возможности, которые даёт обучение, включая получение знаний и опыта
- Набивать практический опыт через стажировки и решение реальных задач, предоставляемых компаниями-партнёрами, включая Т-Банк
- Участвовать в проектной работе во время обучения - этот тип обучения сейчас более популярен и доступен, чем 20 лет назад
- Растить нетворкинг - общение с однокурсниками и выстраивание взаимоотношений - это важная часть успеха(но обычно это понимаешь уже обучаясь на MBA программах)
- Активно вовлекаться в происходящее - следует участвовать во всех доступных активностях, пробовать новое и не терять время зря. Это должно быть похоже на приятную усталость после тренировки в фитнесе
Если смотреть в ближайшее будущее, то
- Преподаватели и партнёры вуза помогут студентам, предоставляя возможности для стажировок и решения практических задач.
- Если следовать советам выше, то через 4 года выпускники будут лучше подготовлены к будущим вызовам, чем текущие разработчики, многим из которых сложно успевать за меняющейся реальностью(и это мы раньше шутили про скорость появления js библиотек и фреймворков - а теперь посмотрите на gen AI инструменты)
#AI #Career #Edu #Future #Leadership #Software #Engineering
Сегодня вечером я приезжал в гости на факультет компьютерных наук в ВШЭ, чтобы выступить перед первокурсниками прикладными математиками и замотивировать их на обучение. Это был интересный опыт выступления экспромтом (
Для начала я вспомнил как 23 года назад тоже был первокурсником по специальности прикладная математика
- Пузырь доткомов, который случился еще до моего поступления, но привел к дальнейшему развитию веба и сайты появились даже у шаурмячных
- Появление сенсорных мобильных телефонов и переход из веба в мобильные аппки, что опять заполонили планету
- Чуть позже мы увидели все возможности сетевых эффектов, как в социальных сетях, так и в платформах типа Amazon или App Store и Google Play
- Потом нас захватила волна уберизации индустрий и цифровой трансформации обычных предприятий
- Потом мы ушли на удаленку во времена Covid и цифровизация стала baseline, без которой компании не выживали
- В 2022 году случился ChatGPT момент и глубокое обучение захватило воображение всех без исключения
- В текущий момент мы находимся в ситуации неопределенности, когда старые подходы к работе заменяются новыми - фактически, мы до конца не знаем как будет выглядеть работа software engineer через четыре года, когда бакалавры закончат свое образование. Это создает неопределенность, но и новые возможности, особенно для молодых и умных:)
Если бы я сейчас был студентом-первокурсником, то я бы посоветовл сам себе же
- Максимально использовать ресурсы - все возможности, которые даёт обучение, включая получение знаний и опыта
- Набивать практический опыт через стажировки и решение реальных задач, предоставляемых компаниями-партнёрами, включая Т-Банк
- Участвовать в проектной работе во время обучения - этот тип обучения сейчас более популярен и доступен, чем 20 лет назад
- Растить нетворкинг - общение с однокурсниками и выстраивание взаимоотношений - это важная часть успеха
- Активно вовлекаться в происходящее - следует участвовать во всех доступных активностях, пробовать новое и не терять время зря. Это должно быть похоже на приятную усталость после тренировки в фитнесе
Если смотреть в ближайшее будущее, то
- Преподаватели и партнёры вуза помогут студентам, предоставляя возможности для стажировок и решения практических задач.
- Если следовать советам выше, то через 4 года выпускники будут лучше подготовлены к будущим вызовам, чем текущие разработчики, многим из которых сложно успевать за меняющейся реальностью
#AI #Career #Edu #Future #Leadership #Software #Engineering
🔥9👍7❤3
Anthropic Threat Intelligence Report: August 2025 (Рубрика #Security)
Anthropic опубликиковали в августе интересный отчет про анализ угроз, а точнее о том, как злоумышленники злоупотребляют их ИИ-моделью Claude для проведения киберпреступлений. Отчет раскрывает несколько тревожных тенденций в эволюции киберугроз, где ИИ становится не просто консультантом, а активным участником атак. Вот основные случаи
1. "Vibe hacking" на базе Claude Code: один оператор с Kali Linux использовал Claude Code как движок для атаки — от массового рекона и подбора VPN до внедрения в AD/SQL-инъекций, разработки обходного софта (обфускация/анти-детект), эксфиляции и расчёта суммы выкупа. По оценке Anthropic, за месяц затронуто не менее 17 организаций (госструктуры, здравоохранение, экстренные службы, религиозные организации). Вымогательство шло через угрозу публикации украденных данных (без шифрования), суммы от $75k до $500k в BTC. Злоумышленник задавал Claude Code "операционный playbook" через CLAUDE.md, а агент помогал и тактически (эвейжн), и стратегически (что красть, как давить).
2. "Удалённые северокорейские айтишники": северокорейские ребята применяли Claude, чтобы выглядеть компетентными при устройстве на удалёнку, поддерживать перформанс на работе и обходить санкции, фактически масштабируя схему "фальшивого трудоустройства".Этакие корейские "волки":)
3. "No-code malware" / RaaS-операторы: один персонаж развивал и продавал AI-сгенерированный рансомвар с продвинутым обходом детектов на дарк-форумах (Dread, CryptBB, Nulled) - ИИ закрывал пробелы в имплементации даже у не самых сильных технарей. Отдельно описан русскоязычный девелопер, генерировавший продвинутые Windows-эвейжн техники через Claude.
4. Китайские ребята против критической инфраструктуры Вьетнама: систематическая интеграция Claude почти по всем тактикам MITRE ATT&CK (сканеры, fuzzing загрузок, WordPress-эксплойт-фреймворки, эскалации привилегий, прокси-цепи, data staging).
5. AI в экосистеме фрода: показаны кейсы по всему конвейеру - анализ stealer-логов через MCP для профайлинга жертв, кардинг-стор, роман-скам-бот, синтетические личности.
В итоге, если экстраполировать эту тенденцию, то увидим тренды
1. Один человек ≈ целая команда: агентные инструменты превращают соло-актора в «многостаночника» - автоматизация даёт одновременную работу по множеству жертв, а ИИ сам принимает и тактические, и бизнес-решения (что/где эксплуатировать, сколько требовать, как давить регуляторикой/репутацией). Примерно также это работает с software engineers:)
2. Порог входа стремительно падает: сложные операции (эвейжн, пост-эксплойт, монетизация) теперь доступны менее квалифицированным преступникам ("no-code malware", кардинг-платформы).
3. Оборона усложняется: атаки адаптивны в реальном времени, "шифровать" уже не обязательно - достаточно украсть и грамотно упаковать шантаж (персданные, финансы, медицинские записи, ITAR-документы).
Понятное дело, что Anthropic такое использование их инструментов не понравилось, поэтому они предприняли ряд шагов для фикса проблемы
1. Инженерные меры прямо по следам инцидентов
- Забанили связанные аккаунты;
- Развернули новые детекторы/классификаторы под этот класс активностей (в т.ч. обнаружение загрузки/правок/генерации малвари на платформе);
- Включили паттерны злоупотребления в "стандартный конвейер" enforcement’а;
- Поделились техиндикаторами с экосистемой/властями.
2. Структурные выводы о ландшафте угроз
- Агентные системы уже weaponized: модели не просто "советуют", а действуют
- Барьер к sophisticated-киберкриминалу снижен (быстрый доступ к опыту и код-генерации).
- Преступники встраивают ИИ во все стадии: разведка → эксплуатация → эксфиль → анализ → вымогательство/монетизация → саппорт-операций.
- Нужны новые рамки оценки рисков, где сложность атаки не равна квалификации атакующего - ИИ добавляет "искусственную компетентность"
- Эффективность проактивной безопасности: кейс с автоматическим срывом DPRK-кампании показал ценность risk-scoring и auto-enforcement до промптов
#Security #AI #Software #Engineering #Devops #DevEx
Anthropic опубликиковали в августе интересный отчет про анализ угроз, а точнее о том, как злоумышленники злоупотребляют их ИИ-моделью Claude для проведения киберпреступлений. Отчет раскрывает несколько тревожных тенденций в эволюции киберугроз, где ИИ становится не просто консультантом, а активным участником атак. Вот основные случаи
1. "Vibe hacking" на базе Claude Code: один оператор с Kali Linux использовал Claude Code как движок для атаки — от массового рекона и подбора VPN до внедрения в AD/SQL-инъекций, разработки обходного софта (обфускация/анти-детект), эксфиляции и расчёта суммы выкупа. По оценке Anthropic, за месяц затронуто не менее 17 организаций (госструктуры, здравоохранение, экстренные службы, религиозные организации). Вымогательство шло через угрозу публикации украденных данных (без шифрования), суммы от $75k до $500k в BTC. Злоумышленник задавал Claude Code "операционный playbook" через CLAUDE.md, а агент помогал и тактически (эвейжн), и стратегически (что красть, как давить).
2. "Удалённые северокорейские айтишники": северокорейские ребята применяли Claude, чтобы выглядеть компетентными при устройстве на удалёнку, поддерживать перформанс на работе и обходить санкции, фактически масштабируя схему "фальшивого трудоустройства".
3. "No-code malware" / RaaS-операторы: один персонаж развивал и продавал AI-сгенерированный рансомвар с продвинутым обходом детектов на дарк-форумах (Dread, CryptBB, Nulled) - ИИ закрывал пробелы в имплементации даже у не самых сильных технарей. Отдельно описан русскоязычный девелопер, генерировавший продвинутые Windows-эвейжн техники через Claude.
4. Китайские ребята против критической инфраструктуры Вьетнама: систематическая интеграция Claude почти по всем тактикам MITRE ATT&CK (сканеры, fuzzing загрузок, WordPress-эксплойт-фреймворки, эскалации привилегий, прокси-цепи, data staging).
5. AI в экосистеме фрода: показаны кейсы по всему конвейеру - анализ stealer-логов через MCP для профайлинга жертв, кардинг-стор, роман-скам-бот, синтетические личности.
В итоге, если экстраполировать эту тенденцию, то увидим тренды
1. Один человек ≈ целая команда: агентные инструменты превращают соло-актора в «многостаночника» - автоматизация даёт одновременную работу по множеству жертв, а ИИ сам принимает и тактические, и бизнес-решения (что/где эксплуатировать, сколько требовать, как давить регуляторикой/репутацией). Примерно также это работает с software engineers:)
2. Порог входа стремительно падает: сложные операции (эвейжн, пост-эксплойт, монетизация) теперь доступны менее квалифицированным преступникам ("no-code malware", кардинг-платформы).
3. Оборона усложняется: атаки адаптивны в реальном времени, "шифровать" уже не обязательно - достаточно украсть и грамотно упаковать шантаж (персданные, финансы, медицинские записи, ITAR-документы).
Понятное дело, что Anthropic такое использование их инструментов не понравилось, поэтому они предприняли ряд шагов для фикса проблемы
1. Инженерные меры прямо по следам инцидентов
- Забанили связанные аккаунты;
- Развернули новые детекторы/классификаторы под этот класс активностей (в т.ч. обнаружение загрузки/правок/генерации малвари на платформе);
- Включили паттерны злоупотребления в "стандартный конвейер" enforcement’а;
- Поделились техиндикаторами с экосистемой/властями.
2. Структурные выводы о ландшафте угроз
- Агентные системы уже weaponized: модели не просто "советуют", а действуют
- Барьер к sophisticated-киберкриминалу снижен (быстрый доступ к опыту и код-генерации).
- Преступники встраивают ИИ во все стадии: разведка → эксплуатация → эксфиль → анализ → вымогательство/монетизация → саппорт-операций.
- Нужны новые рамки оценки рисков, где сложность атаки не равна квалификации атакующего - ИИ добавляет "искусственную компетентность"
- Эффективность проактивной безопасности: кейс с автоматическим срывом DPRK-кампании показал ценность risk-scoring и auto-enforcement до промптов
#Security #AI #Software #Engineering #Devops #DevEx
👍10❤5🔥2🌚2🥴1
CodeFest Russia: Куда катится железо для нейронок? (Рубрика #AI)
Интересное выступление Валентина Мамедов из Сбера, где он провел анализ рынка железа для AI. Начал он с рассказа про рыночные реалии, которые таковы
- ChatGPT - это сейчас 5-й по популярности сайт в мире
- NVIDIA контролирует 92% рынка GPU для дата-центров
- H100 стоит $30,000, а стек из 8 таких карт - $250,000
Если сравнивать карты потребительского и серверного сегментов, то
- RTX 4090 стоит 2к$, а H100 порядка 30к - разница в 15 раз при схожей пиковой производительности
- Пропускная способность памяти RTX 4090 1 ТБ/с, а у H100 уже 3 ТБ/с
- H100 оптимизирована для вычислений с точностью BF16 - специального типа для нейросетей
Но основная проблема даже не в железе, а в экосистеме для разработки
- NVIDIA работала над этим последние 20 лет и у них отличные фреймворки, пофикшены баги и вот это все
- Flash Attention на AMD появился только через год после NVIDIA
- Переход на альтернативы = риски и потеря времени разработки
Если говорить про бюджетные альтернативы, то
- Ноутбук Apple M4 Pro сравним с RTX 4090 для многих ML-задач
- Apple M-кластер за $20,000 может запускать DeepSeek v3 со скоростью 20 токенов/сек
- Но потребительские GPU нельзя эффективно объединить в кластер для обучения (эта опция есть только в промышленных картах от NVidia)
Основные выводы доклада следующие
- Монополия NVIDIA держится на софте, не на железе - экосистема CUDA критически важна
- Но конкуренты растут - им не дает покоя маржа NVidia с промышленных карт, которая по оценкам достигает 57%(воистину во время золотой лихорадки выигрывает продавец лопат)
- Среди конкурентов есть Cerebras ($2.5M за чип), AWS Trainium и Google TPU v7(по оценке автора чипы TPU для Google стоят в два раза дешевле, чем использование NVidia карт)
- Для персонального инференса или даже для малого бизнеса достаточно RTX 4090
- Для инференса побольше подойдет кластер из Apple M
#AI #Engineering #Software #ML #Hardware #Future #DevEx
Интересное выступление Валентина Мамедов из Сбера, где он провел анализ рынка железа для AI. Начал он с рассказа про рыночные реалии, которые таковы
- ChatGPT - это сейчас 5-й по популярности сайт в мире
- NVIDIA контролирует 92% рынка GPU для дата-центров
- H100 стоит $30,000, а стек из 8 таких карт - $250,000
Если сравнивать карты потребительского и серверного сегментов, то
- RTX 4090 стоит 2к$, а H100 порядка 30к - разница в 15 раз при схожей пиковой производительности
- Пропускная способность памяти RTX 4090 1 ТБ/с, а у H100 уже 3 ТБ/с
- H100 оптимизирована для вычислений с точностью BF16 - специального типа для нейросетей
Но основная проблема даже не в железе, а в экосистеме для разработки
- NVIDIA работала над этим последние 20 лет и у них отличные фреймворки, пофикшены баги и вот это все
- Flash Attention на AMD появился только через год после NVIDIA
- Переход на альтернативы = риски и потеря времени разработки
Если говорить про бюджетные альтернативы, то
- Ноутбук Apple M4 Pro сравним с RTX 4090 для многих ML-задач
- Apple M-кластер за $20,000 может запускать DeepSeek v3 со скоростью 20 токенов/сек
- Но потребительские GPU нельзя эффективно объединить в кластер для обучения (эта опция есть только в промышленных картах от NVidia)
Основные выводы доклада следующие
- Монополия NVIDIA держится на софте, не на железе - экосистема CUDA критически важна
- Но конкуренты растут - им не дает покоя маржа NVidia с промышленных карт, которая по оценкам достигает 57%
- Среди конкурентов есть Cerebras ($2.5M за чип), AWS Trainium и Google TPU v7
- Для персонального инференса или даже для малого бизнеса достаточно RTX 4090
- Для инференса побольше подойдет кластер из Apple M
#AI #Engineering #Software #ML #Hardware #Future #DevEx
YouTube
Валентин Мамедов. Куда катится железо для нейронок?
Тезисы
Модели растут, требования к вычислениям — тоже. Пора разобраться, куда движется рынок AI-железа и что нас ждет дальше.
GPU vs ASIC: сравним плюсы и минусы NVIDIA и специализированных чипов вроде TPU и Trainium.
Почему GPU так популярны и в чём их…
Модели растут, требования к вычислениям — тоже. Пора разобраться, куда движется рынок AI-железа и что нас ждет дальше.
GPU vs ASIC: сравним плюсы и минусы NVIDIA и специализированных чипов вроде TPU и Trainium.
Почему GPU так популярны и в чём их…
👍15🔥8❤3
Retrospective on "In-Datacenter Performance Analysis of a Tensor Processing Unit" (Рубрика #AI)
Интересная заметка на две страницы про то, как и почему появился TPU в Google, продолжая тему прошлого поста про железо для ML/AI. TPU оказался отличным решением и поддерживал продуктовизацию deep learning инициатив внутри Google уже 10 лет подряд, начиная с начала 2015 года, когда он появился в проде. Завтра будет заметка побольше про всю историю эволюции TPU, а для завтравки рекомендую прочитать этот мини whitepaper, где есть такое объяснение старту проекта
#AI #Infrastructure #Engineering #Architecture
Интересная заметка на две страницы про то, как и почему появился TPU в Google, продолжая тему прошлого поста про железо для ML/AI. TPU оказался отличным решением и поддерживал продуктовизацию deep learning инициатив внутри Google уже 10 лет подряд, начиная с начала 2015 года, когда он появился в проде. Завтра будет заметка побольше про всю историю эволюции TPU, а для завтравки рекомендую прочитать этот мини whitepaper, где есть такое объяснение старту проекта
A key signal soon afterward was that matrix multiplication exceeded 1% of CPU fleet cycles in Google Wide Profiling. Another signal was the analysis by Jeff Dean (a Google Fellow, now the Chief Scientist) that processing a few minutes of speech or video by 100M users would require doubling or tripling the size of the CPU fleet. Other options were clearly required.
#AI #Infrastructure #Engineering #Architecture
🔥7❤1👍1
Code of Leadership #52 - Interview with Alexander Chernikov about Management and IC Track (Staff +)
В очередном выпуске подкаста ко мне пришел интересный гость, Александр Черников, staff+ engineer в Т-Банке. Мы с Александром поговорили про его интересный путь через увлечение технологиями после фильма "Хакеры", а дальше попадание в IT, развитие по менеджерскому треку в разных российских бигтехах, а потом попадание в Т-Банк. Именно здесь Саша перешел из ветки engineering managers в ветку staff+ engineers и это ему понравилось. Больше историй про стафф инженеров можно услышать в подкасте, причем за полтора часа мы успели обсудить много тем
- Введение и знакомство с гостем
- Переход от инженера к менеджеру: кейсы, страхи, структура карьерных путей IC и менеджера
- Роли и вызовы Staff+ IC: ключевые компетенции, драйверы мотивации
- Взаимодействие между Staff+ IC и менеджерами: ожидания, конфликты, преодоление барьеров
- Стратегическое влияние инженеров высокого уровня: как IC влияют на архитектуру и бизнес
- Ошибки и ловушки развития сотрудников: что мешает росту, способы выхода из тупика
- Советы по выбору трека (IC или менеджмент), разбор типичных сценариев
- Заключение и рекомендации для роста как инженерам и менеджерам
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Career #Science #Conference #Leadership
В очередном выпуске подкаста ко мне пришел интересный гость, Александр Черников, staff+ engineer в Т-Банке. Мы с Александром поговорили про его интересный путь через увлечение технологиями после фильма "Хакеры", а дальше попадание в IT, развитие по менеджерскому треку в разных российских бигтехах, а потом попадание в Т-Банк. Именно здесь Саша перешел из ветки engineering managers в ветку staff+ engineers и это ему понравилось. Больше историй про стафф инженеров можно услышать в подкасте, причем за полтора часа мы успели обсудить много тем
- Введение и знакомство с гостем
- Переход от инженера к менеджеру: кейсы, страхи, структура карьерных путей IC и менеджера
- Роли и вызовы Staff+ IC: ключевые компетенции, драйверы мотивации
- Взаимодействие между Staff+ IC и менеджерами: ожидания, конфликты, преодоление барьеров
- Стратегическое влияние инженеров высокого уровня: как IC влияют на архитектуру и бизнес
- Ошибки и ловушки развития сотрудников: что мешает росту, способы выхода из тупика
- Советы по выбору трека (IC или менеджмент), разбор типичных сценариев
- Заключение и рекомендации для роста как инженерам и менеджерам
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #Engineering #Management #Career #Science #Conference #Leadership
YouTube
Code of Leadership #52 - Interview with Alexander Chernikov about Management and IC Track (Staff +)
В очередном выпуске подкаста ко мне пришел интересный гость, Александр Черников, staff+ engineer в Т-Банке. Мы с Александром поговорили про его интересный путь через увлечение технологиями после фильма "Хакеры", а дальше попадание в IT, развитие по менеджерскому…
🔥11👍7❤4
[1/2] История появления Google TPU и их эволюции (Рубрика #Engineering)
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения матриц. Собственно все начиналось еще в начале 2000х годов, когда Google активно внедряла ML модели к себе в продукты (поиск, переводчик, фото). Они делали это настолько успешно, что с появлением сложных нейронных сетей (а мы помним феерию с CNN сетями и ImageNet в 2012) захотели внедрить и их к себе в продукты, но вычислительная мощность как обучения, так и инференса расла экспоненциально. В 2013 году Google осознали, что если ничего не менять, то придется удваивать количество датацентров на существующем оборудовании (существующих тогда CPU и GPU). В итоге, ребята подумали и придумали проект создания TPU с такими целями
- Создать Application-Specific Integrated Circuit (ASIC), который обеспечит 10-кратное преимущество в соотношении стоимость/производительность при выполнении инференса по сравнению с GPU
- Построить решение быстро (ASAP или в сжатые сроки)
-Достичь высокой производительности на масштабе с новыми рабочими нагрузками "из коробки", оставаясь при этом экономически эффективным
Досталось рулить проектом Норману Джупи (Norman "Norm" Jouppi), выдающийся компьютерный архитектор и Google Fellow. Норман до этого успел отличиться в проектировании MIPS процессоров. А непосредственно до Google он он работал в HP Labs, где руководил лабораторией передовых архитектур. Интересно, что по словам Джонатана Росса, одного из первых инженеров TPU (впоследствии основателя компании Groq), три отдельные группы в Google разрабатывали ИИ-ускорители, но именно дизайн TPU был в итоге выбран для реализации.
Если говорить про результаты, то они получились хорошими, особенно, если учесть то, что уже доступна седьмая версия TPU. А вот как они выглядили в динамике (я ориентировался на статью "TPU transformation: A look back at 10 years of our AI-specialized chips" от Google Cloud)
1. TPU v1 (2015) - Инференс
Он разработан с рекордной скоростью - всего за 15 месяцев с момента начала проекта до развёртывания в дата-центрах Google в начале 2015 года. Такая скорость была достигнута благодаря использованию "устаревшего" 28-нанометрового техпроцесса и относительно низкой тактовой частоты 700 МГц, что позволило относительно просто уложиться в сроки. Энергопотребление было 40 Вт, а производительность 92 TOPS для 8-битных целых чисел. Этот процессор был предназначен только для инференса. Чип показал производительность в 15-30 раз выше, чем современные ему CPU и GPU, с 30-80-кратным преимуществом по энергоэффективности.
2. TPU v2 (2017) - Инференс + Обучение
Уже в конце 2014 года, когда TPU v1 находился в производстве, Google осознала, что возможность обучения становится ограничивающим фактором для создания моделей. TPU v2, представленный в 2017 году, стал революционным шагом — это была уже не просто микросхема, а полноценная суперкомпьютерная система. Ключевые нововведения TPU v2:
- Поддержка как обучения, так и инференса
- TPU Pod - сеть из 256 чипов TPU v2 с высокопропускной межсоединительной сетью
- Производительность: 180 TFLOPS
- Память: 64 ГБ HBM
3. TPU v3 (2018) - Жидкостное охлаждение
TPU v3 ввёл жидкостное охлаждение для эффективного управления теплом, что позволило работать на более высоких уровнях производительности. Производительность выросла до 420 TFLOPS, была улучшена межсоединительная сеть и пропускная способность памяти.
Продолжение истории в следующем посте.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения матриц. Собственно все начиналось еще в начале 2000х годов, когда Google активно внедряла ML модели к себе в продукты (поиск, переводчик, фото). Они делали это настолько успешно, что с появлением сложных нейронных сетей (а мы помним феерию с CNN сетями и ImageNet в 2012) захотели внедрить и их к себе в продукты, но вычислительная мощность как обучения, так и инференса расла экспоненциально. В 2013 году Google осознали, что если ничего не менять, то придется удваивать количество датацентров на существующем оборудовании (существующих тогда CPU и GPU). В итоге, ребята подумали и придумали проект создания TPU с такими целями
- Создать Application-Specific Integrated Circuit (ASIC), который обеспечит 10-кратное преимущество в соотношении стоимость/производительность при выполнении инференса по сравнению с GPU
- Построить решение быстро (ASAP или в сжатые сроки)
-Достичь высокой производительности на масштабе с новыми рабочими нагрузками "из коробки", оставаясь при этом экономически эффективным
Досталось рулить проектом Норману Джупи (Norman "Norm" Jouppi), выдающийся компьютерный архитектор и Google Fellow. Норман до этого успел отличиться в проектировании MIPS процессоров. А непосредственно до Google он он работал в HP Labs, где руководил лабораторией передовых архитектур. Интересно, что по словам Джонатана Росса, одного из первых инженеров TPU (впоследствии основателя компании Groq), три отдельные группы в Google разрабатывали ИИ-ускорители, но именно дизайн TPU был в итоге выбран для реализации.
Если говорить про результаты, то они получились хорошими, особенно, если учесть то, что уже доступна седьмая версия TPU. А вот как они выглядили в динамике (я ориентировался на статью "TPU transformation: A look back at 10 years of our AI-specialized chips" от Google Cloud)
1. TPU v1 (2015) - Инференс
Он разработан с рекордной скоростью - всего за 15 месяцев с момента начала проекта до развёртывания в дата-центрах Google в начале 2015 года. Такая скорость была достигнута благодаря использованию "устаревшего" 28-нанометрового техпроцесса и относительно низкой тактовой частоты 700 МГц, что позволило относительно просто уложиться в сроки. Энергопотребление было 40 Вт, а производительность 92 TOPS для 8-битных целых чисел. Этот процессор был предназначен только для инференса. Чип показал производительность в 15-30 раз выше, чем современные ему CPU и GPU, с 30-80-кратным преимуществом по энергоэффективности.
2. TPU v2 (2017) - Инференс + Обучение
Уже в конце 2014 года, когда TPU v1 находился в производстве, Google осознала, что возможность обучения становится ограничивающим фактором для создания моделей. TPU v2, представленный в 2017 году, стал революционным шагом — это была уже не просто микросхема, а полноценная суперкомпьютерная система. Ключевые нововведения TPU v2:
- Поддержка как обучения, так и инференса
- TPU Pod - сеть из 256 чипов TPU v2 с высокопропускной межсоединительной сетью
- Производительность: 180 TFLOPS
- Память: 64 ГБ HBM
3. TPU v3 (2018) - Жидкостное охлаждение
TPU v3 ввёл жидкостное охлаждение для эффективного управления теплом, что позволило работать на более высоких уровнях производительности. Производительность выросла до 420 TFLOPS, была улучшена межсоединительная сеть и пропускная способность памяти.
Продолжение истории в следующем посте.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Telegram
Книжный куб
CodeFest Russia: Куда катится железо для нейронок? (Рубрика #AI)
Интересное выступление Валентина Мамедов из Сбера, где он провел анализ рынка железа для AI. Начал он с рассказа про рыночные реалии, которые таковы
- ChatGPT - это сейчас 5-й по популярности…
Интересное выступление Валентина Мамедов из Сбера, где он провел анализ рынка железа для AI. Начал он с рассказа про рыночные реалии, которые таковы
- ChatGPT - это сейчас 5-й по популярности…
🔥8👍5❤4
[2/2] История появления Google TPU и их эволюции (Рубрика #Engineering)
Продолжу рассказ про TPU от Google с 2021 года, а точнее с TPU v4.
4. TPU v4 (2021) - Optical Circuit Switching
TPU v4 представил оптическое переключение цепей для ускорения связи между чипами, что критически важно для работы со всё более сложными ИИ-моделями. Производительность составила 275 TFLOPS на чип, с улучшенными оптическими межсоединениями.
5. TPU v5 и v5e (2023) - Оптимизация затрат
TPU v5e и v5p сфокусированы на экономически эффективном обучении на масштабе, с улучшенной энергоэффективностью, динамическим масштабированием и поддержкой разреженности.
6. TPU v6 Trillium (2024) - Оптимизация производительности
Trillium, шестое поколение TPU, предлагает впечатляющий скачок в 4.7 раза по вычислительной производительности на чип по сравнению с TPU v5e. А также обладает следующими характеристиками
- Удвоенная ёмкость и пропускная способность High Bandwidth Memory (HBM)
- Удвоенная пропускная способность межчиповых соединений
- На 67% более энергоэффективен, чем TPU v5e
- Масштабируется до 256 TPU в одном поде с низкой задержкой
7. TPU v7 Ironwood (2025) - опять инференс
Ironwood, представленный в апреле 2025 года, стал заново TPU, специально разработанным для инференса (как TPU v1). Революционные характеристики Ironwood:
- Масштабирование до 9,216 чипов с жидкостным охлаждением
- 42.5 экзафлопс вычислительной мощности (в 24 раза больше самого мощного суперкомпьютера El Capitan)
- 4,614 TFLOPS на чип с 192 ГБ HBM памяти (в 6 раз больше, чем у Trillium)
- 2-кратная энергоэффективность по сравнению с Trillium
Если суммировать то видно, что процессоры Google прошли большой путь. Правда, остается вопроса, а как они чувствуют себя в сравнении с NVidia? И ниже есть ответ на этот вопрос
- NVIDIA H100: 3,958 TFLOPS (FP8), 80 ГБ HBM3, пропускная способность памяти 3.35 ТБ/с
- NVIDIA H200: 3,958 TFLOPS (FP8), 141 ГБ HBM3e, пропускная способность памяти 4.8 ТБ/с
- TPU v6 Trillium: ~2 PFLOPS FP16 для тензорных операций
- TPU v7 Ironwood: 4,614 TFLOPS на чип, 192 ГБ HBM, 7.37 ТБ/с пропускной способности
Как видим по FLOPS все норм. А если смотреть на эффективность по независимым исследованиям, то TPU v5e показывает в 50-70% более низкую стоимость на миллиард токенов для обучения крупных моделей по сравнению с кластерами NVIDIA H100. TPU v5e также потребляет значительно меньше энергии, чем H100 для аналогичной рабочей нагрузки (H100 может потреблять в ~5 раз больше энергии, чем чип TPU v5e под нагрузкой). В реальных задачах показатели примерно такие
- Для обучения GPT-масштабных моделей: TPU более экономически эффективны в 4-10 раз по сравнению с GPU
- Для инференса: TPU v5e обеспечивает в 3 раза больше пропускной способности на доллар
- TPU v4 показал производительность 1.2-1.7 раза быстрее и использует 1.3-1.9 раза меньше энергии, чем NVIDIA A100
В итоге, у TPU есть как преимущества, так и недостатки
(+) Специализация для тензорных операций и глубокого обучения
(+) Высокая энергоэффективность и экономическая эффективность
(+) Интеграция с Google Cloud и оптимизация для TensorFlow/JAX
(+) Масштабируемость в экосистеме Google Cloud
(-) Доступность только через Google Cloud
(-) Меньшая гибкость по сравнению с GPU для различных типов вычислений
(-) Ограниченная экосистема разработки по сравнению с CUDA
(-) Меньший объём памяти на чип по сравнению с новейшими GPU (до недавнего времени)
Если подводить итоги, то кажется, что у Google все хорошо со своей линейкой процессоров для Gen AI / ML задач и они дальше продолжат отстраивать эту инфру, которая дает им значимое конкурентное преимущество в эпоху лета Gen AI приложений. А вот для остальных эти процессоры означают vendor lock при прямом использовании или ориентир, куда стоит стремиться, если смотреть в будущее.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Продолжу рассказ про TPU от Google с 2021 года, а точнее с TPU v4.
4. TPU v4 (2021) - Optical Circuit Switching
TPU v4 представил оптическое переключение цепей для ускорения связи между чипами, что критически важно для работы со всё более сложными ИИ-моделями. Производительность составила 275 TFLOPS на чип, с улучшенными оптическими межсоединениями.
5. TPU v5 и v5e (2023) - Оптимизация затрат
TPU v5e и v5p сфокусированы на экономически эффективном обучении на масштабе, с улучшенной энергоэффективностью, динамическим масштабированием и поддержкой разреженности.
6. TPU v6 Trillium (2024) - Оптимизация производительности
Trillium, шестое поколение TPU, предлагает впечатляющий скачок в 4.7 раза по вычислительной производительности на чип по сравнению с TPU v5e. А также обладает следующими характеристиками
- Удвоенная ёмкость и пропускная способность High Bandwidth Memory (HBM)
- Удвоенная пропускная способность межчиповых соединений
- На 67% более энергоэффективен, чем TPU v5e
- Масштабируется до 256 TPU в одном поде с низкой задержкой
7. TPU v7 Ironwood (2025) - опять инференс
Ironwood, представленный в апреле 2025 года, стал заново TPU, специально разработанным для инференса (как TPU v1). Революционные характеристики Ironwood:
- Масштабирование до 9,216 чипов с жидкостным охлаждением
- 42.5 экзафлопс вычислительной мощности (в 24 раза больше самого мощного суперкомпьютера El Capitan)
- 4,614 TFLOPS на чип с 192 ГБ HBM памяти (в 6 раз больше, чем у Trillium)
- 2-кратная энергоэффективность по сравнению с Trillium
Если суммировать то видно, что процессоры Google прошли большой путь. Правда, остается вопроса, а как они чувствуют себя в сравнении с NVidia? И ниже есть ответ на этот вопрос
- NVIDIA H100: 3,958 TFLOPS (FP8), 80 ГБ HBM3, пропускная способность памяти 3.35 ТБ/с
- NVIDIA H200: 3,958 TFLOPS (FP8), 141 ГБ HBM3e, пропускная способность памяти 4.8 ТБ/с
- TPU v6 Trillium: ~2 PFLOPS FP16 для тензорных операций
- TPU v7 Ironwood: 4,614 TFLOPS на чип, 192 ГБ HBM, 7.37 ТБ/с пропускной способности
Как видим по FLOPS все норм. А если смотреть на эффективность по независимым исследованиям, то TPU v5e показывает в 50-70% более низкую стоимость на миллиард токенов для обучения крупных моделей по сравнению с кластерами NVIDIA H100. TPU v5e также потребляет значительно меньше энергии, чем H100 для аналогичной рабочей нагрузки (H100 может потреблять в ~5 раз больше энергии, чем чип TPU v5e под нагрузкой). В реальных задачах показатели примерно такие
- Для обучения GPT-масштабных моделей: TPU более экономически эффективны в 4-10 раз по сравнению с GPU
- Для инференса: TPU v5e обеспечивает в 3 раза больше пропускной способности на доллар
- TPU v4 показал производительность 1.2-1.7 раза быстрее и использует 1.3-1.9 раза меньше энергии, чем NVIDIA A100
В итоге, у TPU есть как преимущества, так и недостатки
(+) Специализация для тензорных операций и глубокого обучения
(+) Высокая энергоэффективность и экономическая эффективность
(+) Интеграция с Google Cloud и оптимизация для TensorFlow/JAX
(+) Масштабируемость в экосистеме Google Cloud
(-) Доступность только через Google Cloud
(-) Меньшая гибкость по сравнению с GPU для различных типов вычислений
(-) Ограниченная экосистема разработки по сравнению с CUDA
(-) Меньший объём памяти на чип по сравнению с новейшими GPU (до недавнего времени)
Если подводить итоги, то кажется, что у Google все хорошо со своей линейкой процессоров для Gen AI / ML задач и они дальше продолжат отстраивать эту инфру, которая дает им значимое конкурентное преимущество в эпоху лета Gen AI приложений. А вот для остальных эти процессоры означают vendor lock при прямом использовании или ориентир, куда стоит стремиться, если смотреть в будущее.
#AI #ML #Software #Engineering #Architecture #Infrastructure #Data
Telegram
Книжный куб
[1/2] История появления Google TPU и их эволюции (Рубрика #Engineering)
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения…
Буквально вчера я рассказывал про доклад "CodeFest Russia: Куда катится железо для нейронок?", а сегодня я решил рассказать про то, как у Google появились свои процессоры для перемножения…
❤6👍2🔥1
The future of agentic coding with Claude Code (Рубрика #AI)
Посмотрел интересное интервью Boris Cherny, создателя Claude Code, которое у него взял Alex Albert (Claude Relations). Ребята обсуждали текущее состояние и будущее агентного программирования, основываясь на скорости эволюции моделей, а также улучшениях продукта Claude Code с момента его появления. Если говорить про ключевые идеи, то вот они
1. Изменения за год похожи на революцию
Борис отметил кардинальные изменения в подходе к программированию: "Год назад программирование было совершенно другим". Если раньше разработчики работали с IDE, автокомплитом и копированием кода из чат-приложений, то теперь агенты стали неотъемлемой частью рабочего процесса.
2. Концепция "упряжки" для ИИ-модели
Одна из центральных метафор Бориса - это сравнение работы с ИИ-моделью с ездой на лошади. "Если вы едете на лошади, вам нужно седло. И это седло имеет огромное значение". Под "упряжкой" понимается весь комплекс Claude Code: системные промпты, управление контекстом, инструменты, возможность подключения MCP-серверов, настройки и разрешения.
3. Органичная коэволюция модели и продукта
Борис объяснил, что улучшение модели происходит через dogfooding: "В Anthropic все используют Claude Code. И это включает исследователей". Это позволяет выявлять естественные ограничения и улучшать возможности системы на основе реального опыта.
4. Подход к оценке производительности
Вместо формальных метрик команда полагается на "вайбы" - субъективное ощущение улучшений. Борис признается: "Честно говоря, это просто вайбы. Кажется ли модель умнее?". Этот подход обусловлен сложностью создания синтетических тестов, которые бы охватывали всю сложность программной инженерии, хотя от создателей фронтир моделей многие могли бы ждать более формализованного способа измерений:)
5. Расширяемость как основной принцип
Claude Code изначально проектировался как максимально расширяемая система. Среди ключевых возможностей кастомизации: CLAUDE.md (контекст для проектов), система хуков для интеграций, slash-команды, субагенты с изолированными контекстными окнами, MCP-сервера
6. Будущее профессии разработчика
Согласно прогнозам Бориса, через 6-12 месяцев работа разработчика будет включать два основных направления: более практическое программирование (но с использованием Claude для манипуляций с текстом) и менее прямое программирование, где Claude будет проактивно предлагать изменения, а разработчик - принимать решения об их внедрении.
7. Философия обучения в эру ИИ
Борис подчеркнул важность сохранения фундаментальных навыков: "Вам все еще нужно изучать ремесло — языки программирования, компиляторы, рантаймы, веб-разработку, системный дизайн". Однако теперь на первый план выходит креативность и способность быстро реализовывать идеи. Ключевое изменение - код больше не является "священным". Возможность многократного переписывания с помощью агентов смещает фокус с процесса создания на конечный результат.Интересно, а через 1-2 года нам все еще нужны будут знания основ? Или агенты будут настолько автономны, что большинство забудет эти знания и навыки, как большинство забыло про ассемблер?
8. Практические советы по использованию
Борис рекомендовал двухэтапный подход для новичков:
- Не писать код сразу - начинать с вопросов агенту по кодовой базе и архитектуре
- Переходить к написанию кода, но учитывать сложность
-- Простые задачи: одним промптом
-- Средние задачи: начинать с режима планирования, согласовывать план, а затем отдавать Claude
-- Сложные задачи: оставаться ведущим, а Claude отдать роль инструмента для исследования и прототипирования
Если подводить итог, то мы видим, как создатели AI инструментов меняют индустрию от инструментов автодополнения к полноценным агентам разработки. Это требует переосмысления рабочих процессов и подходов к обучению новых специалистов. Ну и они эту модель обкатывают на своих собственных процессах разработки, эффективно пилотируя собственный продукт. Это же ждет и остальных в будущем:)
#AI #Software #Engineering #Architecture #Agents #ML
Посмотрел интересное интервью Boris Cherny, создателя Claude Code, которое у него взял Alex Albert (Claude Relations). Ребята обсуждали текущее состояние и будущее агентного программирования, основываясь на скорости эволюции моделей, а также улучшениях продукта Claude Code с момента его появления. Если говорить про ключевые идеи, то вот они
1. Изменения за год похожи на революцию
Борис отметил кардинальные изменения в подходе к программированию: "Год назад программирование было совершенно другим". Если раньше разработчики работали с IDE, автокомплитом и копированием кода из чат-приложений, то теперь агенты стали неотъемлемой частью рабочего процесса.
2. Концепция "упряжки" для ИИ-модели
Одна из центральных метафор Бориса - это сравнение работы с ИИ-моделью с ездой на лошади. "Если вы едете на лошади, вам нужно седло. И это седло имеет огромное значение". Под "упряжкой" понимается весь комплекс Claude Code: системные промпты, управление контекстом, инструменты, возможность подключения MCP-серверов, настройки и разрешения.
3. Органичная коэволюция модели и продукта
Борис объяснил, что улучшение модели происходит через dogfooding: "В Anthropic все используют Claude Code. И это включает исследователей". Это позволяет выявлять естественные ограничения и улучшать возможности системы на основе реального опыта.
4. Подход к оценке производительности
Вместо формальных метрик команда полагается на "вайбы" - субъективное ощущение улучшений. Борис признается: "Честно говоря, это просто вайбы. Кажется ли модель умнее?". Этот подход обусловлен сложностью создания синтетических тестов, которые бы охватывали всю сложность программной инженерии, хотя от создателей фронтир моделей многие могли бы ждать более формализованного способа измерений:)
5. Расширяемость как основной принцип
Claude Code изначально проектировался как максимально расширяемая система. Среди ключевых возможностей кастомизации: CLAUDE.md (контекст для проектов), система хуков для интеграций, slash-команды, субагенты с изолированными контекстными окнами, MCP-сервера
6. Будущее профессии разработчика
Согласно прогнозам Бориса, через 6-12 месяцев работа разработчика будет включать два основных направления: более практическое программирование (но с использованием Claude для манипуляций с текстом) и менее прямое программирование, где Claude будет проактивно предлагать изменения, а разработчик - принимать решения об их внедрении.
7. Философия обучения в эру ИИ
Борис подчеркнул важность сохранения фундаментальных навыков: "Вам все еще нужно изучать ремесло — языки программирования, компиляторы, рантаймы, веб-разработку, системный дизайн". Однако теперь на первый план выходит креативность и способность быстро реализовывать идеи. Ключевое изменение - код больше не является "священным". Возможность многократного переписывания с помощью агентов смещает фокус с процесса создания на конечный результат.
8. Практические советы по использованию
Борис рекомендовал двухэтапный подход для новичков:
- Не писать код сразу - начинать с вопросов агенту по кодовой базе и архитектуре
- Переходить к написанию кода, но учитывать сложность
-- Простые задачи: одним промптом
-- Средние задачи: начинать с режима планирования, согласовывать план, а затем отдавать Claude
-- Сложные задачи: оставаться ведущим, а Claude отдать роль инструмента для исследования и прототипирования
Если подводить итог, то мы видим, как создатели AI инструментов меняют индустрию от инструментов автодополнения к полноценным агентам разработки. Это требует переосмысления рабочих процессов и подходов к обучению новых специалистов. Ну и они эту модель обкатывают на своих собственных процессах разработки, эффективно пилотируя собственный продукт. Это же ждет и остальных в будущем:)
#AI #Software #Engineering #Architecture #Agents #ML
YouTube
The future of agentic coding with Claude Code
Anthropic's Boris Cherny (Claude Code) and Alex Albert (Claude Relations) discuss the current and future state of agentic coding, the evolution of coding models, and designing Claude Code's "hackability." Boris also shares some of his favorite tips for using…
🔥10❤7👍6👎1
Code of Leadership #53 - Interview with Evgeniy Kokuykin about custom development and security in Gen AI (Рубрика #AI)
Интервью с Евгением Кокуйкиным, одним из сооснователей компании Raft (https://raftds.ru/), а также создателем продукта HiveTrace (https://hivetrace.ru/) для мониторинга безопасности LLM приложений. Мы обсудили с Женей его интересный карьерный путь от инженера до тимлида, потом engineering director. Дальше Женя стал CEO новой компании HiveTrace, которая работает в области безопасности Gen AI приложений. А вообще мы общались порядка 2х часов и успели обсудить следующие темы
- Введение и знакомство с Евгением.
- Школа, университет и первые пробы поиска работы
- Работа и рост в компании «Диасофт»
- Менторство и профессиональное развитие как инженера
- Работа с внутренним ПО, автоматизация, пайплайны или DevOps и платформенные команды
- Профессиональный рост через участие в конференциях и нетворкинг
- Проект по миграции Oracle/PostgreSQL, освоение новых технологий
- Переход в «Аквелон» и опыт с зарубежными клиентами
- Становление управленца и создание «Рафт»
- Начало проектов по gen AI ИИ, особенности внедрения и поиск клиентов
- Осознание и развитие темы AI Security, участие в активностях OWASP
- Рынок решений по безопасности ИИ и создание продукта HiveTrace
- Гибридный формат, развитие комьюнити и work/life balance
- Советы для саморазвития
Кстати, Женя упоминал интересную книгу "Driving the technical challenge", которая помогает не только придумать хорошую техническую идею, но и убедить всех вокруг, что ее нужно дотащить до прода:)
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #AI #ML #Security #Engineering #Management #Career #Leadership
Интервью с Евгением Кокуйкиным, одним из сооснователей компании Raft (https://raftds.ru/), а также создателем продукта HiveTrace (https://hivetrace.ru/) для мониторинга безопасности LLM приложений. Мы обсудили с Женей его интересный карьерный путь от инженера до тимлида, потом engineering director. Дальше Женя стал CEO новой компании HiveTrace, которая работает в области безопасности Gen AI приложений. А вообще мы общались порядка 2х часов и успели обсудить следующие темы
- Введение и знакомство с Евгением.
- Школа, университет и первые пробы поиска работы
- Работа и рост в компании «Диасофт»
- Менторство и профессиональное развитие как инженера
- Работа с внутренним ПО, автоматизация, пайплайны или DevOps и платформенные команды
- Профессиональный рост через участие в конференциях и нетворкинг
- Проект по миграции Oracle/PostgreSQL, освоение новых технологий
- Переход в «Аквелон» и опыт с зарубежными клиентами
- Становление управленца и создание «Рафт»
- Начало проектов по gen AI ИИ, особенности внедрения и поиск клиентов
- Осознание и развитие темы AI Security, участие в активностях OWASP
- Рынок решений по безопасности ИИ и создание продукта HiveTrace
- Гибридный формат, развитие комьюнити и work/life balance
- Советы для саморазвития
Кстати, Женя упоминал интересную книгу "Driving the technical challenge", которая помогает не только придумать хорошую техническую идею, но и убедить всех вокруг, что ее нужно дотащить до прода:)
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
#Software #AI #ML #Security #Engineering #Management #Career #Leadership
YouTube
Code of Leadership #53 Interview with Evgeniy Kokuykin about custom development & security in Gen AI
Интервью с Евгением Кокуйкиным, одним из сооснователей компании Raft (https://raftds.ru/), а также создателем продукта HiveTrace (https://hivetrace.ru/) для мониторинга безопасности LLM приложений. Мы обсудили с Женей его интересный карьерный путь от инженера…
❤8👍3🔥3
High Growth Handbook (Рубрика #Management)
За пару-тройку месяцев прочитал эту книгу Элада Гила, которая была издана в 2018 году в издательстве Stripe Press и создавалась в период, когда технологический сектор переживал устойчивый рост после восстановления от кризиса 2008-2009 годов. Это было время относительно дешевых денег, активного венчурного финансирования и оптимизма в стартап-экосистеме. Сейчас конечно условия поменялись, но базовые принципы остались все теми же:)
Для начала надо сказать про автора, который когда-то работал в McKinsey, затем перешел в Google, где помог запустить мобильную команду для Google Mobile Maps. Дальше он пошел делать стартап MixerLabs про социальные медиа и геолокационные сервисы, который был приобретен Twitter в 2009 году, где Гил занял должность вице-президента по корпоративной стратегии. Дальше он ушел в вентчур и как инвестор вложился в такие известные компании как Airbnb (когда в команде было менее 10 человек), Stripe, Square, Coinbase, Pinterest, Instacart, Gusto. В общем, Элад достаточно авторитетный автор в мире венчура:)
Если говорить про структуру книги, то в ней почти 350 страниц и девять глав
1. Роль CEO - эволюция руководителя от практика к визионеру, делегирование полномочий, управление временем
2. Управление советом директоров - выбор венчур-партнеров, независимых директоров, эволюция совета со временем
3. Рекрутинг, найм и управление талантами - стратегии привлечения и удержания ключевых сотрудников
4. Формирование исполнительной команды - найм C-level руководителей, управление топ-менеджментом
5. Организационная структура и гиперрост - реорганизации, процессы, структурные изменения
6. Маркетинг и PR - различия между дисциплинами, стратегии продвижения
7. Продуктовый менеджмент - лучшие практики управления продуктом
8. Финансирование и оценка - поздние раунды, IPO, вторичные продажи акций
9. Слияния и поглощения - стратегии M&A для растущих компаний
Книга также включает приложение "Чему просто сказать НЕТ" с практическими рекомендациями по избеганию антипарттернов:)
Отдельно стоит отметить, что Элад взял целую пачку интервью с лидерами индустрии, чтобы дополнить свои мысли практическими советами от уважаемых людей.
- Рид Хоффман (LinkedIn) - о стратегии и управлении советом директоров
- Марк Андриссен (Andreessen Horowitz) - о венчурном финансировании
- Сэм Альтман (Y Combinator) - о роли CEO и росте компаний
- Аарон Леви (Box) - об операционном масштабировании
- Патрик Коллисон (Stripe) - о платежных технологиях и росте
- Кит Рабойс - о найме и управлении руководителями
- Навал Равикант (AngelList) - об инвестициях и совете директоров
Если сравнивать книгу с современными условиями, то можно выделить такие ключевые отличия
1. В 2018 году стартапы работали в условиях низких процентных ставок и доступного капитала. К 2025 году экосистема прошла через несколько кризисов - пандемию COVID-19, инфляцию, повышение процентных ставок и "корректировку" рынка 2022-2023 годов. В общем, сейчас жечь деньги не принято (если ты не AI стартап ) и стартапы пытаются растянуть свои финансы на подольше
2. В 2018 году искусственный интеллект был перспективной технологией, а к 2025 году он стал ключевым дифференциатором. AI-ориентированные компании сейчас могут поднимать раунды финансифрования, а остальным приходится потуже затягивать пояса
3. Раньше стартапы агрессивно наращивали количество инженеров и смотрели на метрики роста компании, а теперь многие инвесторы смотрят на удельный вклад сотрудника в финансовые результаты компании. Поэтому основатели стартапов не стремятся раздувать штат, а оставляют команды небольшими, активно используя AI для выполнения части работы
В итоге, в свое время книга была отлично принята стартап-сообществом и даже несмотря на изменение условий она может быть полезна и сейчас - для этого надо понимать логику советом Элада и понимать как их менять, учитывая изменение стоимости денег и появлении game changer в виде фронтир моделей от OpenAI, Anthropic, Google и остальных.
#Management #Leadership #AI #Engineering #Software #Career
За пару-тройку месяцев прочитал эту книгу Элада Гила, которая была издана в 2018 году в издательстве Stripe Press и создавалась в период, когда технологический сектор переживал устойчивый рост после восстановления от кризиса 2008-2009 годов. Это было время относительно дешевых денег, активного венчурного финансирования и оптимизма в стартап-экосистеме. Сейчас конечно условия поменялись, но базовые принципы остались все теми же:)
Для начала надо сказать про автора, который когда-то работал в McKinsey, затем перешел в Google, где помог запустить мобильную команду для Google Mobile Maps. Дальше он пошел делать стартап MixerLabs про социальные медиа и геолокационные сервисы, который был приобретен Twitter в 2009 году, где Гил занял должность вице-президента по корпоративной стратегии. Дальше он ушел в вентчур и как инвестор вложился в такие известные компании как Airbnb (когда в команде было менее 10 человек), Stripe, Square, Coinbase, Pinterest, Instacart, Gusto. В общем, Элад достаточно авторитетный автор в мире венчура:)
Если говорить про структуру книги, то в ней почти 350 страниц и девять глав
1. Роль CEO - эволюция руководителя от практика к визионеру, делегирование полномочий, управление временем
2. Управление советом директоров - выбор венчур-партнеров, независимых директоров, эволюция совета со временем
3. Рекрутинг, найм и управление талантами - стратегии привлечения и удержания ключевых сотрудников
4. Формирование исполнительной команды - найм C-level руководителей, управление топ-менеджментом
5. Организационная структура и гиперрост - реорганизации, процессы, структурные изменения
6. Маркетинг и PR - различия между дисциплинами, стратегии продвижения
7. Продуктовый менеджмент - лучшие практики управления продуктом
8. Финансирование и оценка - поздние раунды, IPO, вторичные продажи акций
9. Слияния и поглощения - стратегии M&A для растущих компаний
Книга также включает приложение "Чему просто сказать НЕТ" с практическими рекомендациями по избеганию антипарттернов:)
Отдельно стоит отметить, что Элад взял целую пачку интервью с лидерами индустрии, чтобы дополнить свои мысли практическими советами от уважаемых людей.
- Рид Хоффман (LinkedIn) - о стратегии и управлении советом директоров
- Марк Андриссен (Andreessen Horowitz) - о венчурном финансировании
- Сэм Альтман (Y Combinator) - о роли CEO и росте компаний
- Аарон Леви (Box) - об операционном масштабировании
- Патрик Коллисон (Stripe) - о платежных технологиях и росте
- Кит Рабойс - о найме и управлении руководителями
- Навал Равикант (AngelList) - об инвестициях и совете директоров
Если сравнивать книгу с современными условиями, то можно выделить такие ключевые отличия
1. В 2018 году стартапы работали в условиях низких процентных ставок и доступного капитала. К 2025 году экосистема прошла через несколько кризисов - пандемию COVID-19, инфляцию, повышение процентных ставок и "корректировку" рынка 2022-2023 годов. В общем, сейчас жечь деньги не принято (
2. В 2018 году искусственный интеллект был перспективной технологией, а к 2025 году он стал ключевым дифференциатором. AI-ориентированные компании сейчас могут поднимать раунды финансифрования, а остальным приходится потуже затягивать пояса
3. Раньше стартапы агрессивно наращивали количество инженеров и смотрели на метрики роста компании, а теперь многие инвесторы смотрят на удельный вклад сотрудника в финансовые результаты компании. Поэтому основатели стартапов не стремятся раздувать штат, а оставляют команды небольшими, активно используя AI для выполнения части работы
В итоге, в свое время книга была отлично принята стартап-сообществом и даже несмотря на изменение условий она может быть полезна и сейчас - для этого надо понимать логику советом Элада и понимать как их менять, учитывая изменение стоимости денег и появлении game changer в виде фронтир моделей от OpenAI, Anthropic, Google и остальных.
#Management #Leadership #AI #Engineering #Software #Career
❤9🔥6👍4
Research Insights Made Simple #17 - Measuring the Impact of Early-2025 AI on Developer Productivity (Рубрика #DevEx)
Разбор отчета METR "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", где показано замедление разработчиков при использовании AI. Методология мне показалось хоть и интересной, но объем выборки аж в 16 инженеров казался мне маловатым для того, чтобы делать громкие заявления о замедлении разработки. Правда, такой размер выборки не помешал многим журналистом активно писать про это исследование. В итоге, я позвл в гости Артема Арюткина, СРО платформы для разработчиков в Городских сервисах Яндекса, вместе с которым мы обсудили все плюсы и минусы этого исследования.
Вот примерный список тем, что мы успели обсудить за 40+ минут
- Введение, анонс METR и бенчмарка
- Знакомство с гостем
- Спонсор исследования и возможная предвзятость
- Как устроен эксперимент
- Гипотезы о мотивах и дизайне исследования
- Оценка и самооценка задач участниками
- Набор участников и требования к ним
- Ограничения масштаба и методологии
- Цифры: 246 задачи от 1 до 8 часов по длительности, 16 инженеров в исследовании
- Пять факторов замедления работы
- Контекст, интеграция и коммуникации как узкое место
- Как работать с инструментом по уровням сложности
- Почему моделям сложно применять изменения в реальном коде
- Итоги бенчмарков и ограниченность генерализации
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
P.S.
На Big Tech Night в ближайшую пятницу Станислав Моисеев, мой коллега, что руководит RnD центром, расскажет про разные подходы к измерению developer productivity в общем, а также то, как померить влияние Gen AI на это. Если тема вам интересна, то регистрируйтесь и приходите послушать.
#Software #Engineering #Metrics #Databases #Architecture #Devops
Разбор отчета METR "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", где показано замедление разработчиков при использовании AI. Методология мне показалось хоть и интересной, но объем выборки аж в 16 инженеров казался мне маловатым для того, чтобы делать громкие заявления о замедлении разработки. Правда, такой размер выборки не помешал многим журналистом активно писать про это исследование. В итоге, я позвл в гости Артема Арюткина, СРО платформы для разработчиков в Городских сервисах Яндекса, вместе с которым мы обсудили все плюсы и минусы этого исследования.
Вот примерный список тем, что мы успели обсудить за 40+ минут
- Введение, анонс METR и бенчмарка
- Знакомство с гостем
- Спонсор исследования и возможная предвзятость
- Как устроен эксперимент
- Гипотезы о мотивах и дизайне исследования
- Оценка и самооценка задач участниками
- Набор участников и требования к ним
- Ограничения масштаба и методологии
- Цифры: 246 задачи от 1 до 8 часов по длительности, 16 инженеров в исследовании
- Пять факторов замедления работы
- Контекст, интеграция и коммуникации как узкое место
- Как работать с инструментом по уровням сложности
- Почему моделям сложно применять изменения в реальном коде
- Итоги бенчмарков и ограниченность генерализации
Выпуск подкаста доступен в Youtube, VK Video, Podster.fm, Ya Music.
P.S.
На Big Tech Night в ближайшую пятницу Станислав Моисеев, мой коллега, что руководит RnD центром, расскажет про разные подходы к измерению developer productivity в общем, а также то, как померить влияние Gen AI на это. Если тема вам интересна, то регистрируйтесь и приходите послушать.
#Software #Engineering #Metrics #Databases #Architecture #Devops
YouTube
Research Insights Made Simple #17- Measuring the Impact of Early-2025 AI on Developer Productivity
Разбор отчета METR "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity", где показано замедление разработчиков при использовании AI. Методология мне показалось хоть и интересной, но объем выборки аж в 16 инженеров казался…
❤6🔥5👍4
Бизнес для программистов. Как начать своё дело (Eric Sink on the Business of Software) (Рубрика #Bootstrapping)
Продолжая разбирать свою книжную полку от старых книг, наткнулся на этот сборник эссе от Эрика Синка про то, как программистам запускать и развивать продуктовый бизнес. Оригинал вышел в Apress в 2006 году, русское издание - в «Питере» в 2011‑м. Материал вырос из одноимённой колонки Синка на MSDN (2003–2005), то есть уже прошло порядка 20 лет. Эрик Синк - основатель SourceGear (Vault/Fortress, инструменты контроля версий), ранее руководил браузерной командой в Spyglass, которая делала ранние версии того, что стало Internet Explorer. Он также инициировал проект AbiWord. Позже команда SourceGear вывела кроссплатформенную интеграцию с TFS (Teamprise), которую продали Microsoft.
В этой книге Синк популяризировал концепцию соло-основателей маленьких и независимых вендоров софта. Во времена выхода книги это было не особо распространено, но книгу встретили хорошо, а предисловие к книге написал сам Джоэл Спольски, автор блога "Joel on Software", сооснователь Stack Overflow, создатель Trello.
Если говорить про контекст написания книги, то в те временя была эра shareware и коробок, блоги и форумы были главными в плане маркетинга, плюс многие размышляли про риски правильного выбора OS/фреймворка, условно Windows/Linux, Java/.net/etc. Сейчас конечно все по другому - у нас есть облака и маркетплейсы приложений, есть соцсети и коммьюнити вокруг софта, а главное есть AI-инсутрменты, что удешевляют разработку и позволяют приблизиться к концепции соло-предпринимателей.
Если говорить про основные идеи книги, товот они
1. Микровендорам стоит делать фокусный продукт на узкий рынок, часто силами 1–3 человек. Причем важно не путать инженерную любовь к фичам с рыночной ценностью. Сейчас код написать не проблема - важно найти product market fit для продукта и быстро его развивать, пока конкуренты не навайбкодили что-то похожее:)
2. Предпринимательство для разработчика: честная самооценка, создание плана на случае если не пойдет, выбор ниши с цифрами (юнит‑экономика), а не просто из-за увлечения
3. Finance for Geeks: простые отчёты, маржи, «почему open‑source‑монетизация сложна» и когда (не)брать деньги. Сейчас как считать финансы продукта написано многое, но open source монетизация до сих пор сложна
4. Люди: «нужны developers, not programmers», осторожность при найме, «великий хакер ≠ отличный найм». Сейчас это про то, что с ИИ‑ассистентами выигрывают не «кодеры», а те, кто умеет ставить задачи, валидировать ценность, строить систему продаж/позиционирования. Лейтмотив главы о людях стал ещё актуальнее.
5. Маркетинг - не постобработка: сначала позиционирование, затем продукт; выбирать конкурентов осознанно. Сейчас условный ChatGPT может стать следующим большим каналом дистрибуции (я уже подробно разбирал интервью Брайана Балфура)
6 Платформенные риски: «Be careful where you build» - взвешивайте зависимость от платформ/экосистем. Сейчас это про правильный выбор провайдера, лицензий, внезапное изменение правил тарификации
7. Прозрачность и продажи: блог, форумы, честность о проблемах, простой демо‑доступ, money‑back, внятная цена. Сейчас это про «build in public», changelog‑культуру и community‑led growth
8. Тактика той эпохи: трейд‑шоу и журнальная реклама - полезно как исторический контекст (но сейчас не работает)
В общем, книга определенно была интересной в свое время, а теперь ее тоже можно читать, но надо делать поправки в местах, которые поменялись за эти двадцать лет.
P.S.
А я как обычно отнесу в понедельник эту книжку в наш букшеринг уголок на нашей работе:)
#Management #Leadership #Startup #Engineering #Software #Business
Продолжая разбирать свою книжную полку от старых книг, наткнулся на этот сборник эссе от Эрика Синка про то, как программистам запускать и развивать продуктовый бизнес. Оригинал вышел в Apress в 2006 году, русское издание - в «Питере» в 2011‑м. Материал вырос из одноимённой колонки Синка на MSDN (2003–2005), то есть уже прошло порядка 20 лет. Эрик Синк - основатель SourceGear (Vault/Fortress, инструменты контроля версий), ранее руководил браузерной командой в Spyglass, которая делала ранние версии того, что стало Internet Explorer. Он также инициировал проект AbiWord. Позже команда SourceGear вывела кроссплатформенную интеграцию с TFS (Teamprise), которую продали Microsoft.
В этой книге Синк популяризировал концепцию соло-основателей маленьких и независимых вендоров софта. Во времена выхода книги это было не особо распространено, но книгу встретили хорошо, а предисловие к книге написал сам Джоэл Спольски, автор блога "Joel on Software", сооснователь Stack Overflow, создатель Trello.
Если говорить про контекст написания книги, то в те временя была эра shareware и коробок, блоги и форумы были главными в плане маркетинга, плюс многие размышляли про риски правильного выбора OS/фреймворка, условно Windows/Linux, Java/.net/etc. Сейчас конечно все по другому - у нас есть облака и маркетплейсы приложений, есть соцсети и коммьюнити вокруг софта, а главное есть AI-инсутрменты, что удешевляют разработку и позволяют приблизиться к концепции соло-предпринимателей.
Если говорить про основные идеи книги, товот они
1. Микровендорам стоит делать фокусный продукт на узкий рынок, часто силами 1–3 человек. Причем важно не путать инженерную любовь к фичам с рыночной ценностью. Сейчас код написать не проблема - важно найти product market fit для продукта и быстро его развивать, пока конкуренты не навайбкодили что-то похожее:)
2. Предпринимательство для разработчика: честная самооценка, создание плана на случае если не пойдет, выбор ниши с цифрами (юнит‑экономика), а не просто из-за увлечения
3. Finance for Geeks: простые отчёты, маржи, «почему open‑source‑монетизация сложна» и когда (не)брать деньги. Сейчас как считать финансы продукта написано многое, но open source монетизация до сих пор сложна
4. Люди: «нужны developers, not programmers», осторожность при найме, «великий хакер ≠ отличный найм». Сейчас это про то, что с ИИ‑ассистентами выигрывают не «кодеры», а те, кто умеет ставить задачи, валидировать ценность, строить систему продаж/позиционирования. Лейтмотив главы о людях стал ещё актуальнее.
5. Маркетинг - не постобработка: сначала позиционирование, затем продукт; выбирать конкурентов осознанно. Сейчас условный ChatGPT может стать следующим большим каналом дистрибуции (я уже подробно разбирал интервью Брайана Балфура)
6 Платформенные риски: «Be careful where you build» - взвешивайте зависимость от платформ/экосистем. Сейчас это про правильный выбор провайдера, лицензий, внезапное изменение правил тарификации
7. Прозрачность и продажи: блог, форумы, честность о проблемах, простой демо‑доступ, money‑back, внятная цена. Сейчас это про «build in public», changelog‑культуру и community‑led growth
8. Тактика той эпохи: трейд‑шоу и журнальная реклама - полезно как исторический контекст (но сейчас не работает)
В общем, книга определенно была интересной в свое время, а теперь ее тоже можно читать, но надо делать поправки в местах, которые поменялись за эти двадцать лет.
P.S.
А я как обычно отнесу в понедельник эту книжку в наш букшеринг уголок на нашей работе:)
#Management #Leadership #Startup #Engineering #Software #Business
👍10❤5🔥1
Обложки и иллюстрации из книг "Бизнес для программистов. Как начать своё дело" и "Eric Sink on the Business of Software"
❤8🔥5👍2