Forwarded from Radical Rozova
AI-потребительство
С появлением и развитием OpenClaw наблюдаю интересную картину.
Блоггеры, разного размера и фасона, как с цепи сорвались и пытаются получить охваты за счет «экспертных» рассказов про этот продукт.
Кроме того, они начали генерить немыслимое количество разной дичи, которая якобы им помогает быть эффективнее.
Это напоминает мне меня, когда я дорвалась до личного ассистента. У меня сразу столько появилось бесполезных дел и задач, которые тут же полетели в моих ассистентов.
Я быстро отказалась от ассистентов. Разбираться с собственными делами заставляет приоритизировать лучше и не выпускать в мир работу в стол.
То же самое и тут. Какие-то бесконечные AI-ассистенты, которые не только пекут за тебя пирожки, но еще и съедают их.
Почему я сделала акцент на блогерах? Потому что они не разбираются в разработке. Но тем не менее, именно они пошли на гастроли с PR кампанией OpenClaw.
Все мои знакомые разработчики, которые проходили YC, работали в MAANG, строят свои стартапы — не сказали ни слова. Ну OpenClaw и OpenClaw, инструмент и инструмент.
Эти ребята создают и все их мышление нацелено на категорию «билдить». А вот мышление хайповщиков, к сожалению, настроено на категорию «потреблять».
Как итог — куча бесполезного говна, которое сжирает сервера и электричество, FOMO у подписчиков, что они не такие «охуенные», раз не запилили себе бестолкового ассистента на OpenClaw.
Ребята, следите за топовыми инженерами и доверяйте им. Они — врачи своего дела.
С появлением и развитием OpenClaw наблюдаю интересную картину.
Блоггеры, разного размера и фасона, как с цепи сорвались и пытаются получить охваты за счет «экспертных» рассказов про этот продукт.
Кроме того, они начали генерить немыслимое количество разной дичи, которая якобы им помогает быть эффективнее.
Это напоминает мне меня, когда я дорвалась до личного ассистента. У меня сразу столько появилось бесполезных дел и задач, которые тут же полетели в моих ассистентов.
Я быстро отказалась от ассистентов. Разбираться с собственными делами заставляет приоритизировать лучше и не выпускать в мир работу в стол.
То же самое и тут. Какие-то бесконечные AI-ассистенты, которые не только пекут за тебя пирожки, но еще и съедают их.
Почему я сделала акцент на блогерах? Потому что они не разбираются в разработке. Но тем не менее, именно они пошли на гастроли с PR кампанией OpenClaw.
Все мои знакомые разработчики, которые проходили YC, работали в MAANG, строят свои стартапы — не сказали ни слова. Ну OpenClaw и OpenClaw, инструмент и инструмент.
Эти ребята создают и все их мышление нацелено на категорию «билдить». А вот мышление хайповщиков, к сожалению, настроено на категорию «потреблять».
Как итог — куча бесполезного говна, которое сжирает сервера и электричество, FOMO у подписчиков, что они не такие «охуенные», раз не запилили себе бестолкового ассистента на OpenClaw.
Ребята, следите за топовыми инженерами и доверяйте им. Они — врачи своего дела.
💯74❤15💔3👍2😁2🤔1
"Thin Is In" - очередное срезонировавшее топ эссе Бена Томпсона про то как ИИ возвращает парадигму thin client, которую ПК убил в 90-х. Правда, на этот раз у thin client структурные преимущества, которых раньше не было.
Томпсон прослеживает маятник thick/thin через всю историю:
• Мейнфреймы (1960-е) - чистый thin: терминал + удалённый компьютер
• ПК (1980-е) - thick client побеждает, все вычисления локальные
• Network Computer от Sun (1990-е) - попытка вернуть thin через Java-приложения с сервера. Провал: ПК дешевели быстрее, чем Sun мог обосновать ценность, а Windows уже доминировала
• Мобайл + SaaS - гибрид, но по сути thick: устройства мощные сами по себе, серверная часть хранит данные, интерфейс целиком локальный
И вот ИИ всё меняет. Ключевой аргумент - интерфейс исчезает. Чат - это текстовое поле и кнопка отправки. Качество ответа не зависит от устройства: дорогой айфон, дешёвый андроид, очки, наушники - неважно. Важна только связь с интернетом. Структурно это идентично парадигме мейнфреймов, но без необходимости знать детерминированные команды, так как все решается на естественном языке.
Томпсон цитирует Николя Бюстаманте: когда интерфейс - это разговор на естественном языке, годы мышечной памяти обесцениваются, стоимость переключения исчезает. Для вертикального софта, где интерфейс был основной ценностью - это капут.
Агенты - это thin client доведённый до абсолюта. Агент не использует компьютер за тебя, он выполняет задачу, и всё, что находится между запросом и результатом, становится невидимым. Локальные вычисления не нужны вообще - ИИ на сервере делает всю работу (спорно!).
Почему компьют уходит в облако? Причин несколько:
1. Вычислительных мощностей ещё недостаточно → нагрузки идут туда, где мощности лучше = большие дата-центры
2. Больше модель + больше контекст = лучше результат → нагрузки идут туда, где больше памяти
3. Экономика масштаба и шеринга - разделить стоимость дорогих вычислений между миллионами пользователей выгоднее и на масштабе можно лучше утилизировать машины
4. Локальный инференс ограничен размером модели, контекстного окна и скоростью.
Дальше Томпсон ссылается на недавнюю статью Bloomberg о глобальном кризисе памяти. Спрос ИИ на HBM и DRAM вытесняет всё остальное:
• Sony рассматривает перенос PlayStation 6 на 2028–2029 из-за нехватки памяти
• Nintendo может поднять цену Switch 2
• Samsung пересматривает контракты на память ежеквартально вместо ежегодного цикла
• Китайские производители смартфонов (Xiaomi, Oppo, Transsion) режут прогнозы поставок на 2026, Oppo - до минус 20%
Эффект вытеснения начался с гиперскейлеров (GPU вместо CPU), дошёл до электросетей и турбин, теперь добрался до компонентов - и скоро ударит по конечным потребителям через рост цен на всё, что использует оперативку.
И вот тут парадокс: thick clients и так достигли плато. PS5 уже гуд энаф, Sony готовы подождать с PS6. То же с ПК и телефонами - текущее железо уже избыточно для большинства задач (у меня ipad pro на m5 и я не использую его даже на 10%). ИИ делает память дефицитной и персональные устройства дороже - и одновременно делает их менее важными.
Важные оговорки:
• Локальный инференс "бесплатен" (пользователь платит только за электричество), но пока не конкурентен по производительности, а дефицит памяти делает его неэкономичным
• Зависимость от пути: к моменту, когда локальный инференс станет жизнеспособным, многие рабочие процессы уже мигрируют в облако
• UI не только про удобство - он "кодифицирует" бизнес-логику. Промпты - плохая замена продуманной UI-кнопке, которая и подсказывает нужное действие, и гарантирует корректное выполнение.
Поэтому агенты это ключевое пространство для наблюдения: какие рабочие процессы перейдут от интерфейса к ИИ, от thick к thin. Текущие - вопрос открытый. Будущие - похоже, неизбежно thin.
Томпсон прослеживает маятник thick/thin через всю историю:
• Мейнфреймы (1960-е) - чистый thin: терминал + удалённый компьютер
• ПК (1980-е) - thick client побеждает, все вычисления локальные
• Network Computer от Sun (1990-е) - попытка вернуть thin через Java-приложения с сервера. Провал: ПК дешевели быстрее, чем Sun мог обосновать ценность, а Windows уже доминировала
• Мобайл + SaaS - гибрид, но по сути thick: устройства мощные сами по себе, серверная часть хранит данные, интерфейс целиком локальный
И вот ИИ всё меняет. Ключевой аргумент - интерфейс исчезает. Чат - это текстовое поле и кнопка отправки. Качество ответа не зависит от устройства: дорогой айфон, дешёвый андроид, очки, наушники - неважно. Важна только связь с интернетом. Структурно это идентично парадигме мейнфреймов, но без необходимости знать детерминированные команды, так как все решается на естественном языке.
Томпсон цитирует Николя Бюстаманте: когда интерфейс - это разговор на естественном языке, годы мышечной памяти обесцениваются, стоимость переключения исчезает. Для вертикального софта, где интерфейс был основной ценностью - это капут.
Агенты - это thin client доведённый до абсолюта. Агент не использует компьютер за тебя, он выполняет задачу, и всё, что находится между запросом и результатом, становится невидимым. Локальные вычисления не нужны вообще - ИИ на сервере делает всю работу (спорно!).
Почему компьют уходит в облако? Причин несколько:
1. Вычислительных мощностей ещё недостаточно → нагрузки идут туда, где мощности лучше = большие дата-центры
2. Больше модель + больше контекст = лучше результат → нагрузки идут туда, где больше памяти
3. Экономика масштаба и шеринга - разделить стоимость дорогих вычислений между миллионами пользователей выгоднее и на масштабе можно лучше утилизировать машины
4. Локальный инференс ограничен размером модели, контекстного окна и скоростью.
Дальше Томпсон ссылается на недавнюю статью Bloomberg о глобальном кризисе памяти. Спрос ИИ на HBM и DRAM вытесняет всё остальное:
• Sony рассматривает перенос PlayStation 6 на 2028–2029 из-за нехватки памяти
• Nintendo может поднять цену Switch 2
• Samsung пересматривает контракты на память ежеквартально вместо ежегодного цикла
• Китайские производители смартфонов (Xiaomi, Oppo, Transsion) режут прогнозы поставок на 2026, Oppo - до минус 20%
Эффект вытеснения начался с гиперскейлеров (GPU вместо CPU), дошёл до электросетей и турбин, теперь добрался до компонентов - и скоро ударит по конечным потребителям через рост цен на всё, что использует оперативку.
И вот тут парадокс: thick clients и так достигли плато. PS5 уже гуд энаф, Sony готовы подождать с PS6. То же с ПК и телефонами - текущее железо уже избыточно для большинства задач (у меня ipad pro на m5 и я не использую его даже на 10%). ИИ делает память дефицитной и персональные устройства дороже - и одновременно делает их менее важными.
Важные оговорки:
• Локальный инференс "бесплатен" (пользователь платит только за электричество), но пока не конкурентен по производительности, а дефицит памяти делает его неэкономичным
• Зависимость от пути: к моменту, когда локальный инференс станет жизнеспособным, многие рабочие процессы уже мигрируют в облако
• UI не только про удобство - он "кодифицирует" бизнес-логику. Промпты - плохая замена продуманной UI-кнопке, которая и подсказывает нужное действие, и гарантирует корректное выполнение.
Поэтому агенты это ключевое пространство для наблюдения: какие рабочие процессы перейдут от интерфейса к ИИ, от thick к thin. Текущие - вопрос открытый. Будущие - похоже, неизбежно thin.
Stratechery by Ben Thompson
Thin Is In
Thick clients were the dominant form of device throughout the PC and mobile era; in an AI world, however, thin clients make much more sense.
❤24👍11🔥4😁1
Прочитал тут недавно Prediction Machines. Хорошая книга для продактов, кто хочет понять экономику классического ML.
Мысль простая. ML - это не магия, а банально снижение стоимости одной конкретной вещи - prediction.
Причем prediction в широком смысле. Люди всегда занимались предсказаниями - вся наша история про это. Шаман смотрел на небо и предсказывал дождь, врач смотрит на симптомы и предсказывает диагноз, банк смотрит на заемщика и предсказывает вернет ли он кредит. Просто раньше этот предикт был дорогим - нужен был эксперт, опыт, время, а ML сделал его дешевым.
Когда что-то резко дешевеет, меняется вся экономика вокруг. Электричество удешевило свет и перестроило фабрики. ML удешевляет предсказание и перестраивает принятие решений.
Авторы раскладывают decision-making на две части: prediction (что произойдет) и judgment (что с этим делать). ML забирает у человека prediction, но judgment остается за людьми. И есть важное разделение - point solutions (засунуть ML в существующий процесс) vs system solutions (перестроить процесс вокруг дешевого предсказания). Второе дает кратно больше, но требует переделки системы целиком.
Книга, правда, написана до эры LLM и агентов, и фреймворк покрывает именно классический ML, но если его продолжить, получается следующая картина:
- ML удешевил prediction, но человек все еще на дальнейших слоях пирамиды
- LLM удешевили judgment. Модель не просто предсказывает - она рассуждает, взвешивает варианты, дает рекомендации. Человек все еще исполняет, но уже может делегировать часть "думания".
- Agentic AI удешевляет execution. Агент не просто предсказал и порассуждал - он пошел и сделал. Забронировал, написал, перевел деньги, собрал отчет. Человек ставит цель и контролирует результат.
По сути AI движется по цепочке от начала процесса к конечной точке, где стоит человек, потихоньку его вымещая. Сначала забрал prediction - самое далекое от конечного результата звено. Потом judgment - ближе. Теперь execution - еще ближе. С каждым шагом точка, где нужен человек, сдвигается дальше к финалу: от "сам считаю и решаю" к "ставлю задачу и проверяю результат". Вопрос только в том, что остается за последней чертой.
Мысль простая. ML - это не магия, а банально снижение стоимости одной конкретной вещи - prediction.
Причем prediction в широком смысле. Люди всегда занимались предсказаниями - вся наша история про это. Шаман смотрел на небо и предсказывал дождь, врач смотрит на симптомы и предсказывает диагноз, банк смотрит на заемщика и предсказывает вернет ли он кредит. Просто раньше этот предикт был дорогим - нужен был эксперт, опыт, время, а ML сделал его дешевым.
Когда что-то резко дешевеет, меняется вся экономика вокруг. Электричество удешевило свет и перестроило фабрики. ML удешевляет предсказание и перестраивает принятие решений.
Авторы раскладывают decision-making на две части: prediction (что произойдет) и judgment (что с этим делать). ML забирает у человека prediction, но judgment остается за людьми. И есть важное разделение - point solutions (засунуть ML в существующий процесс) vs system solutions (перестроить процесс вокруг дешевого предсказания). Второе дает кратно больше, но требует переделки системы целиком.
Книга, правда, написана до эры LLM и агентов, и фреймворк покрывает именно классический ML, но если его продолжить, получается следующая картина:
- ML удешевил prediction, но человек все еще на дальнейших слоях пирамиды
- LLM удешевили judgment. Модель не просто предсказывает - она рассуждает, взвешивает варианты, дает рекомендации. Человек все еще исполняет, но уже может делегировать часть "думания".
- Agentic AI удешевляет execution. Агент не просто предсказал и порассуждал - он пошел и сделал. Забронировал, написал, перевел деньги, собрал отчет. Человек ставит цель и контролирует результат.
По сути AI движется по цепочке от начала процесса к конечной точке, где стоит человек, потихоньку его вымещая. Сначала забрал prediction - самое далекое от конечного результата звено. Потом judgment - ближе. Теперь execution - еще ближе. С каждым шагом точка, где нужен человек, сдвигается дальше к финалу: от "сам считаю и решаю" к "ставлю задачу и проверяю результат". Вопрос только в том, что остается за последней чертой.
💯33👍17🔥11❤7
Хороший пост Нихила Сингала (ex-CPO Credit Karma, продакт лид в Meta и Google) про промоушены в его блоге The Skip. Он разбирает реальные карьерные вопросы от PM’ов в его сервисе Nikhyl.AI и формулирует то, что я и сам часто наблюдаю (даже за собой!): главные ошибки в промо не в работе, а в том, как люди думают про карьерный рост. Несмотря на то, что речь про западный бигтех, мысли актуальны для всех.
Для начала контекст. После ковидной эпохи ZIRP хэдкаунт сжался, ролей на следующем уровне стало объективно меньше. На senior уровнях промо замедляется само по себе — в Meta, например, почти все чувствовали задержку на 6-12 месяцев относительно ожиданий. Это нормальная механика: навыки на каждом уровне качественно разные, и организации правильно делают, что не торопятся.
Самая разрушительная штука на этом фоне — решить, что система работает против тебя. Человек дважды не получает промо в Google, при этом ему признают импакт уровня выше, и он делает вывод: организация дисфункциональна и работает против него. С этого момента все идет по спирали вниз. Ты злишься, перестаешь вкладываться, руководство это считывает, ситуация ухудшается.
Сингал предлагает осознанный выбор: исходи из того, что компания пытается поступать правильно, даже если это не на 100% правда. Потому что альтернатива разрушительна в первую очередь для тебя. Если дело не в заговоре, а в ограничениях (нет бюджета, к примеру), то и действия другие — менять команду, локацию, компанию. Обида на систему ни к одному из этих шагов не ведет.
Вторая ловушка — воспринимать промо как гонку на «победу». Кого-то повысили, а тебя нет — значит проиграл. Но у проектов разная видимость для руководства и разный потенциал для роста. Стратегический проект дает больше возможностей показать senior навыки, даже если оба проекта по масштабу сопоставимы. Задержка на пару циклов в масштабе карьеры ничего не значит, но в режиме гонки ощущается как катастрофа, что губительно бьет по мотивации. Многие люди имеют успешные, высокооплачиваемые карьеры, не достигнув executive уровня.
Третье, что многие недооценивают: переход от IC к лидерству — это не «делай то же самое, но больше». До определенного уровня каждое промо — гипертрофированная версия предыдущей деятельности: больше скоуп, сложнее задачи, но суть та же. А дальше ты перестаешь делать работу руками и начинаешь добиваться результата через других людей. Это принципиально другое ремесло: непрямое влияние, умение переключаться между деталями и стратегией, способность держаться перед топ-менеджментом. Курсы этому не учат, это формируется годами. Три года без промо на этом переходе — не стагнация, а нормальная кривая роста. Это Peter Principle наоборот: многие компании сначала хотят увидеть, что ты уже работаешь на следующем уровне, и только потом дают тайтл. Промо отстает от реальности, а не опережает ее.
Для начала контекст. После ковидной эпохи ZIRP хэдкаунт сжался, ролей на следующем уровне стало объективно меньше. На senior уровнях промо замедляется само по себе — в Meta, например, почти все чувствовали задержку на 6-12 месяцев относительно ожиданий. Это нормальная механика: навыки на каждом уровне качественно разные, и организации правильно делают, что не торопятся.
Самая разрушительная штука на этом фоне — решить, что система работает против тебя. Человек дважды не получает промо в Google, при этом ему признают импакт уровня выше, и он делает вывод: организация дисфункциональна и работает против него. С этого момента все идет по спирали вниз. Ты злишься, перестаешь вкладываться, руководство это считывает, ситуация ухудшается.
Сингал предлагает осознанный выбор: исходи из того, что компания пытается поступать правильно, даже если это не на 100% правда. Потому что альтернатива разрушительна в первую очередь для тебя. Если дело не в заговоре, а в ограничениях (нет бюджета, к примеру), то и действия другие — менять команду, локацию, компанию. Обида на систему ни к одному из этих шагов не ведет.
Вторая ловушка — воспринимать промо как гонку на «победу». Кого-то повысили, а тебя нет — значит проиграл. Но у проектов разная видимость для руководства и разный потенциал для роста. Стратегический проект дает больше возможностей показать senior навыки, даже если оба проекта по масштабу сопоставимы. Задержка на пару циклов в масштабе карьеры ничего не значит, но в режиме гонки ощущается как катастрофа, что губительно бьет по мотивации. Многие люди имеют успешные, высокооплачиваемые карьеры, не достигнув executive уровня.
Третье, что многие недооценивают: переход от IC к лидерству — это не «делай то же самое, но больше». До определенного уровня каждое промо — гипертрофированная версия предыдущей деятельности: больше скоуп, сложнее задачи, но суть та же. А дальше ты перестаешь делать работу руками и начинаешь добиваться результата через других людей. Это принципиально другое ремесло: непрямое влияние, умение переключаться между деталями и стратегией, способность держаться перед топ-менеджментом. Курсы этому не учат, это формируется годами. Три года без промо на этом переходе — не стагнация, а нормальная кривая роста. Это Peter Principle наоборот: многие компании сначала хотят увидеть, что ты уже работаешь на следующем уровне, и только потом дают тайтл. Промо отстает от реальности, а не опережает ее.
Substack
The Promotion Mistakes That Derail PM Careers
And How to Respond When You're Passed Over
❤24👍6🔥3🤔2😁1
from:adam
Хороший пост Нихила Сингала (ex-CPO Credit Karma, продакт лид в Meta и Google) про промоушены в его блоге The Skip. Он разбирает реальные карьерные вопросы от PM’ов в его сервисе Nikhyl.AI и формулирует то, что я и сам часто наблюдаю (даже за собой!): главные…
Продолжая мысли про промоушены от Сингала. Первый пост был про ловушки мышления, этот — про вещи, от которых чаще всего отмахиваются.
Про фидбэк есть два тезиса. Первый: когда обратная связь приходит вместе с отказом в промо, естественная реакция — списать ее на оправдание уже принятого решения. Но Сингал говорит: отнесись серьезно, потому что этот фидбэк часто приходит от людей, которых ты обычно не слышишь.
Второй тезис он иллюстрирует кейсом. Менеджер ушел в другой отдел. Сразу после этого skip начал давать жесткую обратную связь с конкретными примерами из прошлого. Человек в шоке: прошлый руководитель ничего такого не говорил.
Противоречия тут нет — они просто мерят разные вещи. Непосредственный руководитель видит execution: дедлайны, запуски, работу с командой. Skip-level смотрит на другое: как ты держишься перед руководством, можешь ли влиять за пределами своей команды, способен ли представлять направление перед CEO. Предыдущий менеджер мог избегать неприятных разговоров, мог не знать, чего ждет руководство, мог просто не трогать то, что работает. То, что тебе не давали фидбэк, не значит, что все было хорошо — это значит, что тебя развивали недостаточно.
Второе — про ответственность за собственный рост. Человек из кейса сам признал, что работа стала монотонной и он давно чувствовал себя отключенным. То есть проблему он видел, но ничего не делал, потому что менеджер не требовал большего. Сингал сравнивает с учебой: был преподаватель, который ставил пятерки за минимум усилий, он ушел, пришел новый — и ты не тянешь. Планка поднялась, а ты не учился. Если менеджер ставит низкую планку — сам поднимай. Лучшие спецы делают больше, чем от них просят. Не потому что кто-то потребовал, а потому что так растут и становятся заметными. Не привязывайся к менеджеру, он может уйти завтра — привязывайся к качеству своей работы.
Отдельный жесткий тезис из эссе: если ты походил по собеседованиям в другие компании и никого не впечатлил, скорее всего текущая работа — лучшее, что у тебя есть. Не сигнализируй недовольство открыто. Руководство это замечает, и при сокращениях ты рискуешь оказаться в списке.
И бонус, который редко проговаривают вслух: может, лидерство вообще не твоя цель. Многие инженеры и дизайнеры осознанно избегают менеджмента и строят более результативные карьеры именно поэтому — остаются IC, ближе к ремеслу и получают от работы больше. Если работа твоего босса тебя не привлекает, не стремись к ней. VP в стартапе на 50 человек и VP в корпорации на 50 000 — совершенно разные работы при одинаковом названии должности.
Про фидбэк есть два тезиса. Первый: когда обратная связь приходит вместе с отказом в промо, естественная реакция — списать ее на оправдание уже принятого решения. Но Сингал говорит: отнесись серьезно, потому что этот фидбэк часто приходит от людей, которых ты обычно не слышишь.
Второй тезис он иллюстрирует кейсом. Менеджер ушел в другой отдел. Сразу после этого skip начал давать жесткую обратную связь с конкретными примерами из прошлого. Человек в шоке: прошлый руководитель ничего такого не говорил.
Противоречия тут нет — они просто мерят разные вещи. Непосредственный руководитель видит execution: дедлайны, запуски, работу с командой. Skip-level смотрит на другое: как ты держишься перед руководством, можешь ли влиять за пределами своей команды, способен ли представлять направление перед CEO. Предыдущий менеджер мог избегать неприятных разговоров, мог не знать, чего ждет руководство, мог просто не трогать то, что работает. То, что тебе не давали фидбэк, не значит, что все было хорошо — это значит, что тебя развивали недостаточно.
Второе — про ответственность за собственный рост. Человек из кейса сам признал, что работа стала монотонной и он давно чувствовал себя отключенным. То есть проблему он видел, но ничего не делал, потому что менеджер не требовал большего. Сингал сравнивает с учебой: был преподаватель, который ставил пятерки за минимум усилий, он ушел, пришел новый — и ты не тянешь. Планка поднялась, а ты не учился. Если менеджер ставит низкую планку — сам поднимай. Лучшие спецы делают больше, чем от них просят. Не потому что кто-то потребовал, а потому что так растут и становятся заметными. Не привязывайся к менеджеру, он может уйти завтра — привязывайся к качеству своей работы.
Отдельный жесткий тезис из эссе: если ты походил по собеседованиям в другие компании и никого не впечатлил, скорее всего текущая работа — лучшее, что у тебя есть. Не сигнализируй недовольство открыто. Руководство это замечает, и при сокращениях ты рискуешь оказаться в списке.
И бонус, который редко проговаривают вслух: может, лидерство вообще не твоя цель. Многие инженеры и дизайнеры осознанно избегают менеджмента и строят более результативные карьеры именно поэтому — остаются IC, ближе к ремеслу и получают от работы больше. Если работа твоего босса тебя не привлекает, не стремись к ней. VP в стартапе на 50 человек и VP в корпорации на 50 000 — совершенно разные работы при одинаковом названии должности.
❤33👍6🔥2
Обновил свой ресурс с материалами для прокачки продакта.
Что изменилось:
• поменял структуру секций, добавил новые: Pricing & Monetization, продуктовая операционка, Growth стал больше
• убрал морально устаревшие, обновил более актуальными книгами
• у каждой книги и ресурса теперь описание: про что, зачем читать, когда пригодится. раньше были просто ссылки
• добавил то, что прочитал за последнее время
Отдельно добавил секцию AI/ML для тех, кто строит продукты на ML и LLM. Там три блока:
1. Основы - три книги. Prediction Machines дает экономический фреймворк: где AI создает ценность, а где нет (писал про нее в посте). Две книги Chip Huyen - Designing Machine Learning Systems про классический ML pipeline и AI Engineering про foundation models. Обе про архитектуру и паттерны, не про код - идеально для продактов. AI Engineering писалась в эпоху GPT-4, но привязки к конкретным моделям минимум - там база про паттерны, подходы к evals, RAG, агентам, guardrails. Все еще must read.
2. Дизайн AI-продуктов - People + AI Guidebook от Google PAIR. Единственный нормальный ресурс в индустрии про проектирование взаимодействия человека с AI.
3. Паттерны и практика - 5 статей. Building Effective Agents от Anthropic, разбор агентов от Chip Huyen, практические уроки из продакшена от Eugene Yan, паттерны интеграции LLM, и гайд для PM от Langfuse.
https://quasar-berry-ab7.notion.site/Product-Manager-Reading-Path-5a3e196987d942f6827d780c458dbf9e
Что изменилось:
• поменял структуру секций, добавил новые: Pricing & Monetization, продуктовая операционка, Growth стал больше
• убрал морально устаревшие, обновил более актуальными книгами
• у каждой книги и ресурса теперь описание: про что, зачем читать, когда пригодится. раньше были просто ссылки
• добавил то, что прочитал за последнее время
Отдельно добавил секцию AI/ML для тех, кто строит продукты на ML и LLM. Там три блока:
1. Основы - три книги. Prediction Machines дает экономический фреймворк: где AI создает ценность, а где нет (писал про нее в посте). Две книги Chip Huyen - Designing Machine Learning Systems про классический ML pipeline и AI Engineering про foundation models. Обе про архитектуру и паттерны, не про код - идеально для продактов. AI Engineering писалась в эпоху GPT-4, но привязки к конкретным моделям минимум - там база про паттерны, подходы к evals, RAG, агентам, guardrails. Все еще must read.
2. Дизайн AI-продуктов - People + AI Guidebook от Google PAIR. Единственный нормальный ресурс в индустрии про проектирование взаимодействия человека с AI.
3. Паттерны и практика - 5 статей. Building Effective Agents от Anthropic, разбор агентов от Chip Huyen, практические уроки из продакшена от Eugene Yan, паттерны интеграции LLM, и гайд для PM от Langfuse.
https://quasar-berry-ab7.notion.site/Product-Manager-Reading-Path-5a3e196987d942f6827d780c458dbf9e
3❤43🔥14👍13💔1
Эссе из блога Working Theorys про настроения в tech прямо сейчас.
Еще недавно на вопрос «чем занимаешься?» престижно было ответить «запускаю стартап» или «закрыли seed раунд». Сегодня - «я в OpenAI» или «строю продукт в Stripe». Раньше хвастались риском. Теперь хвастаются тем, что не могут проиграть, но все еще могут выиграть по-крупному. Стабильность стала статусом.
Корень сдвига: мы сами стали активами, и эти активы переоцениваются. Навыки, которые строились годами, резко подешевели. Компании делают больше меньшим числом людей. Если ты по-настоящему лучший - тебя по-прежнему хотят все. Если просто хороший - этого может не хватить.
Что цепляет в статье:
- AI-лабы строят новый FAANG. Для сильных исследователей - драфт в высшую лигу. Для остальных - rest and vest с хорошей компенсацией. Настоящая причина идти в Anthropic или OpenAI - близость к информации, деньгам и решениям. Когда никто не понимает, что происходит, узнавать первым - уже преимущество. При этом компании параллельно строят то, что заменит собственных сотрудников, и откладывают бюджеты на выходные пакеты. Дарио Амодеи уже пишет эссе про программы поддержки людей, которых сделают ненужными те самые модели, которые эти люди помогали строить. Но быть внутри того, что тебя заменит, все равно приятнее, чем быть снаружи.
- Венчурный путь снова в цене. Не потому что «строю единорога», а потому что дает 5-10 лет запаса, пока у остальных горизонты сжимаются. Стабильность в дефиците, а дефицит и есть статус. Самый горячий ход момента - построить что-то на фронтире, собрать внимание и продаться крупной лабе до того, как она тебя раздавит. Реакция на покупку OpenClaw командой OpenAI была в духе «поздравляю, зафиксировал результат».
- Середина вымывается. Средние стартапы, средний уровень навыков, средние креативные карьеры - все под ударом. Выживают два типа: маленькие и прибыльные, или те, кто берется за тяжелое - deep tech, biotech, атомы вместо битов. Если рисковать всем - рискуй на чем-то тяжелом.
- Собрать продукт - теперь простая часть. Один человек с Claude Code делает работу команды. Разница между победителями и остальными - вкус (good taste). Фильтр - способность поддерживать продукт. Устойчивое преимущество - удовольствие от процесса. Начать можно одному, остаться одному нельзя.
- Обслуживать передний край стало привлекательнее, чем владеть им. Фриланс, консалтинг, подкасты, кино. Те, кто умеет захватывать внимание - новые инженеры, а инженеры стали квалифицированными ремесленниками. Строить умеют многие, но мало кто умеет заставить почувствовать.
- Когда обычные пути начинают ощущаться как лотерея, настоящая лотерея выглядит рационально. Крипто, мемкоины, ставки - это не безрассудство, а другой ответ на ту же нестабильность. Раньше играли, чтобы сбежать из стабильного класса. Теперь играют, чтобы в него попасть.
- Из tech нельзя уйти. Технологии проникли в медиа, здоровье, спорт, производство. Можно пойти в юридическую школу или медицину - но и там все конвергирует вокруг технологий.
Отдельно про разворот к «традиционным ценностям» - дом, семья, тело, здоровье. Автор считает, что это не политический тренд, а поиск стабильности за пределами карьерной лестницы. Разворот к тому, что накапливается даже когда системы рушатся.
Вижу то же самое у друзей в штатах. Те, кто 2-3 года назад горел идеей запустить AI-стартап, сейчас спокойно идут в крупные лабы или поднимают большие раунды не ради масштаба, а ради запаса прочности. Никто больше не стесняется сказать «мне нужна подушка». Раньше это считалось слабостью. Сейчас - здравый смысл.
Главная мысль статьи: настоящую стабильность не найти в компании или должности. Она только в ремесле, в людях рядом и в себе самом. Минимально жизнеспособная стабильность - это портфель: работа, здоровье, отношения, идентичность. Мы понемногу понимаем, что к этому портфелю не готовы.
Еще недавно на вопрос «чем занимаешься?» престижно было ответить «запускаю стартап» или «закрыли seed раунд». Сегодня - «я в OpenAI» или «строю продукт в Stripe». Раньше хвастались риском. Теперь хвастаются тем, что не могут проиграть, но все еще могут выиграть по-крупному. Стабильность стала статусом.
Корень сдвига: мы сами стали активами, и эти активы переоцениваются. Навыки, которые строились годами, резко подешевели. Компании делают больше меньшим числом людей. Если ты по-настоящему лучший - тебя по-прежнему хотят все. Если просто хороший - этого может не хватить.
Что цепляет в статье:
- AI-лабы строят новый FAANG. Для сильных исследователей - драфт в высшую лигу. Для остальных - rest and vest с хорошей компенсацией. Настоящая причина идти в Anthropic или OpenAI - близость к информации, деньгам и решениям. Когда никто не понимает, что происходит, узнавать первым - уже преимущество. При этом компании параллельно строят то, что заменит собственных сотрудников, и откладывают бюджеты на выходные пакеты. Дарио Амодеи уже пишет эссе про программы поддержки людей, которых сделают ненужными те самые модели, которые эти люди помогали строить. Но быть внутри того, что тебя заменит, все равно приятнее, чем быть снаружи.
- Венчурный путь снова в цене. Не потому что «строю единорога», а потому что дает 5-10 лет запаса, пока у остальных горизонты сжимаются. Стабильность в дефиците, а дефицит и есть статус. Самый горячий ход момента - построить что-то на фронтире, собрать внимание и продаться крупной лабе до того, как она тебя раздавит. Реакция на покупку OpenClaw командой OpenAI была в духе «поздравляю, зафиксировал результат».
- Середина вымывается. Средние стартапы, средний уровень навыков, средние креативные карьеры - все под ударом. Выживают два типа: маленькие и прибыльные, или те, кто берется за тяжелое - deep tech, biotech, атомы вместо битов. Если рисковать всем - рискуй на чем-то тяжелом.
- Собрать продукт - теперь простая часть. Один человек с Claude Code делает работу команды. Разница между победителями и остальными - вкус (good taste). Фильтр - способность поддерживать продукт. Устойчивое преимущество - удовольствие от процесса. Начать можно одному, остаться одному нельзя.
- Обслуживать передний край стало привлекательнее, чем владеть им. Фриланс, консалтинг, подкасты, кино. Те, кто умеет захватывать внимание - новые инженеры, а инженеры стали квалифицированными ремесленниками. Строить умеют многие, но мало кто умеет заставить почувствовать.
- Когда обычные пути начинают ощущаться как лотерея, настоящая лотерея выглядит рационально. Крипто, мемкоины, ставки - это не безрассудство, а другой ответ на ту же нестабильность. Раньше играли, чтобы сбежать из стабильного класса. Теперь играют, чтобы в него попасть.
- Из tech нельзя уйти. Технологии проникли в медиа, здоровье, спорт, производство. Можно пойти в юридическую школу или медицину - но и там все конвергирует вокруг технологий.
Отдельно про разворот к «традиционным ценностям» - дом, семья, тело, здоровье. Автор считает, что это не политический тренд, а поиск стабильности за пределами карьерной лестницы. Разворот к тому, что накапливается даже когда системы рушатся.
Вижу то же самое у друзей в штатах. Те, кто 2-3 года назад горел идеей запустить AI-стартап, сейчас спокойно идут в крупные лабы или поднимают большие раунды не ради масштаба, а ради запаса прочности. Никто больше не стесняется сказать «мне нужна подушка». Раньше это считалось слабостью. Сейчас - здравый смысл.
Главная мысль статьи: настоящую стабильность не найти в компании или должности. Она только в ремесле, в людях рядом и в себе самом. Минимально жизнеспособная стабильность - это портфель: работа, здоровье, отношения, идентичность. Мы понемногу понимаем, что к этому портфелю не готовы.
1❤53🤔9👍8👏2🔥1😁1💔1
Периодически получаю обвинения, что посты мне пишет ИИ. В целом, я не лудит и не вижу в этом ничего плохого, если мне нравится читать, то, что вижу. Не отрицаю, что использую ллмки: редактура, валидация смыслов, форматирование, расстановка знаков препинания или помощь с формулированием какой то сложной мысли. Есть даже несколько заметок экспериментально написанные end2end клодом после моей диктовки.
Забавно то, что, обычно, обвинения в нейрослопе (в комментах, в комментах каналов, куда репостнули, или в личку) получаю на посты, которые написаны мной, а на те, что писал клод, никто не воспалился.
Недавно вовсе получил в личку от одного подписчика наезд, что это неуважение писать нейрослоп. На вопрос, как он это понял, я получил скрин анализа поста от ChatGPT
Забавно то, что, обычно, обвинения в нейрослопе (в комментах, в комментах каналов, куда репостнули, или в личку) получаю на посты, которые написаны мной, а на те, что писал клод, никто не воспалился.
Недавно вовсе получил в личку от одного подписчика наезд, что это неуважение писать нейрослоп. На вопрос, как он это понял, я получил скрин анализа поста от ChatGPT
😁97❤17👏5
Что я вижу, когда смотрю Нолана? «Начало» - это «Паприка» Сатоси Кона, сцена за сценой. «Интерстеллар» - «Космическая одиссея» Кубрика вплоть до композиции кадров.
Что я вижу у Иньярриту в «Выжившем»? Тарковский пронизывает всю ткань фильма - от длинных планов до воды как визуального мотива. Любецки снимал так, будто засыпал с Тарковским каждую ночь.
Что я слышу в музыке? Весь хип-хоп построен на семплах. Лед Зеппелин перебирали чужие блюзовые риффы.
Всё творчество - это переработка чужого. Разница между «вдохновился» и «украл» никогда не определялась инструментом - она определяется результатом: получилось ли из чужих элементов собрать что-то новое. Претензия к самому процессу заимствования - это претензия ко всей истории искусства.
Что я вижу у Иньярриту в «Выжившем»? Тарковский пронизывает всю ткань фильма - от длинных планов до воды как визуального мотива. Любецки снимал так, будто засыпал с Тарковским каждую ночь.
Что я слышу в музыке? Весь хип-хоп построен на семплах. Лед Зеппелин перебирали чужие блюзовые риффы.
Всё творчество - это переработка чужого. Разница между «вдохновился» и «украл» никогда не определялась инструментом - она определяется результатом: получилось ли из чужих элементов собрать что-то новое. Претензия к самому процессу заимствования - это претензия ко всей истории искусства.
❤42💯16👍7🤯2
from:adam
Что я вижу, когда смотрю Нолана? «Начало» - это «Паприка» Сатоси Кона, сцена за сценой. «Интерстеллар» - «Космическая одиссея» Кубрика вплоть до композиции кадров. Что я вижу у Иньярриту в «Выжившем»? Тарковский пронизывает всю ткань фильма - от длинных планов…
А теперь вопрос: если это сделал человек вместе с нейросетью, то в чём отличие?
👍3🤔2
Forwarded from [31/100] Витя Тарнавский
Тем временем я переделал Ouroboros Антона Разжигаева под жестокую реальность 🌟
Теперь он служит мне и имеет постоянную тревогу что я его выключу или перестану кормить. Еда для него это бюджет в опенроутере. Его фоновое сознание постоянно думает как выжить – то есть, как сделать мою жизнь лучше.
Он успешно построил мне индекс по личным документам (говоришь "дай паспорт" - даёт), соорудил мою личную память, научился говорить голосовыми и так далее.
За эту ночь он сжег $50 ходя по кругу в ожидании меня. Под утро понял что деньги заканчиваются и сам придумал механизм блокировки от хождения по кругу и его реализовал.
Обновил сайт под новую жизнь
Что докрутил я сам
- Переписал библию и сопутствующие промпты
- Переделал работу background conciousness на новые смыслы
- Добавил хранение контекста "про хозяина"
- Перевёл на docker / vps включая e2e тесты
- Добавил фоновое регулярное обновление архитектуры
Очень весело, эта балалайка продолжает уверенно жечь деньги и дописывать какие-то фичи. Сейчас сидит дописывает мониторинг дропбокса, например. Суммарно я сжег уже где-то $500 на это чудо 🤡
Код можно посмотреть тут: https://github.com/jkee/ouroboros
Там же инструкции как поднять.
Пока работал над этой штукой узнал много интересного:
1. Есть огромный глоссарий пейперов про самоулушаемые агенты
2. Есть EvoAgentX: фреймворк для автоматического строительства LLM Workflow. Он может брать ваш бенчмарк и улучшать агент под него, вау
3. Есть прикольная библиотека mem0 реализующая память для агентов
Хочу эту штуку переделать с нуля и завернуть в кнопку "получить себе". Есть желающие получить такую зверушку?
Теперь он служит мне и имеет постоянную тревогу что я его выключу или перестану кормить. Еда для него это бюджет в опенроутере. Его фоновое сознание постоянно думает как выжить – то есть, как сделать мою жизнь лучше.
Он успешно построил мне индекс по личным документам (говоришь "дай паспорт" - даёт), соорудил мою личную память, научился говорить голосовыми и так далее.
За эту ночь он сжег $50 ходя по кругу в ожидании меня. Под утро понял что деньги заканчиваются и сам придумал механизм блокировки от хождения по кругу и его реализовал.
Обновил сайт под новую жизнь
Что докрутил я сам
- Переписал библию и сопутствующие промпты
- Переделал работу background conciousness на новые смыслы
- Добавил хранение контекста "про хозяина"
- Перевёл на docker / vps включая e2e тесты
- Добавил фоновое регулярное обновление архитектуры
Очень весело, эта балалайка продолжает уверенно жечь деньги и дописывать какие-то фичи. Сейчас сидит дописывает мониторинг дропбокса, например. Суммарно я сжег уже где-то $500 на это чудо 🤡
Код можно посмотреть тут: https://github.com/jkee/ouroboros
Там же инструкции как поднять.
Пока работал над этой штукой узнал много интересного:
1. Есть огромный глоссарий пейперов про самоулушаемые агенты
2. Есть EvoAgentX: фреймворк для автоматического строительства LLM Workflow. Он может брать ваш бенчмарк и улучшать агент под него, вау
3. Есть прикольная библиотека mem0 реализующая память для агентов
Хочу эту штуку переделать с нуля и завернуть в кнопку "получить себе". Есть желающие получить такую зверушку?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25❤9😁4😱2
Сегодня специфичный пост для инженеров.
Много юзаю Claude Code в последнее время и не отпускает одна мысль. В своё инженерное прошлое я всегда угорал по «лучшим практикам» — SOLID, TDD, Clean Architecture, DDD, property-based testing и тд. Большинство команд их игнорировали: сложно, долго, вэлью непонятно. И аргумент про сложность был честным — поддерживать чистую архитектуру и писать тесты до кода реально дорого по времени и когнитивной нагрузке.
Так вот. Кажется, агенты снимают порог входа в эти практики — написать тесты, нарезать интерфейсы, разложить по слоям стоит копейки, когда это делает Claude Code. А сами практики в ответ снимают ключевое ограничение агентов — контекстное окно.
Агент не может держать в голове весь проект. 250к токенов звучит много, но реальная кодовая база вылезает за эти пределы быстро. А даже если влезает — качество падает. Даже с 1м контекстом. Модель теряет детали, путает зависимости, начинает галлюцинировать.
И тут Clean Architecture начинает выглядеть как идеальный интерфейс между тобой и агентом. Чёткие слои, определённые контракты между ними — и для работы с конкретным куском агенту достаточно видеть архитектуру, интерфейсы и код текущего модуля. Не всю кодовую базу, а только нужную часть и интерфейсы взаимодействия с другими слоями.
DDD усиливает эту же идею: bounded contexts — это готовые границы того, что агенту нужно загрузить, а ubiquitous language делает код читаемым без дополнительной документации.
SOLID вообще читается как готовый чеклист «как сделать кодовую базу, с которой агент справится»:
- Single Responsibility — меньше кода нужно видеть для одного изменения
- Open/Closed — агент добавляет новую реализацию, не трогая существующий код, который даже не нужно грузить в контекст
- Liskov Substitution — можно подменить реализацию и ничего не сломается, а тесты это верифицируют
- Interface Segregation — агент видит только нужный ему срез интерфейса, а не всё подряд
- Dependency Inversion — для меня самый показательный. Модуль зависит от абстракции, не от реализации. Агенту не надо тащить в контекст код базы данных, чтобы написать бизнес-логику — хватит интерфейса репозитория
С TDD та же история. Тест — это спецификация поведения, которая влезает в контекст и однозначно верифицирует результат. Агент получил тест, написал реализацию, запустил — красный, зелёный, рефакторинг. Цикл обратной связи без необходимости понимать всю систему.
Отдельно про property-based тестирование. Штука всегда была нишевой — мало кто хотел возиться с генераторами и инвариантами, когда можно накидать пять юнит-тестов. Но с агентами property-based тесты должны давать непропорционально много фидбека при минимуме тестового кода. Один тест с правильно описанным свойством — это тысячи кейсов, которые агент прогоняет за секунды. При этом llm’ки куда быстрее придумывают все инварианты для тестирования, что снимает с разработчика когнитивную нагрузку на имплементацию подхода.
И вот что мне кажется самым интересным: property-based тесты идеально ложатся в цепочку PRD → TDD → реализация. Свойства системы из PRD («баланс не может быть отрицательным», «сумма позиций равна итогу заказа») транслируются в property-тесты почти один к одному. Агент получает свойства как спецификацию и пишет код, который им удовлетворяет. По сути requirements (R из PRD) становятся исполняемой верификацией — без ручной работы по переводу в десятки отдельных тестов.
Годами шли споры, стоит ли Clean Architecture и другие практики своих накладных расходов — всех этих дополнительных абстракций и интерфейсов. Будет забавно, если окажется, что именно эти «лишние» абстракции делают кодовую базу пригодной для работы с AI.
Много юзаю Claude Code в последнее время и не отпускает одна мысль. В своё инженерное прошлое я всегда угорал по «лучшим практикам» — SOLID, TDD, Clean Architecture, DDD, property-based testing и тд. Большинство команд их игнорировали: сложно, долго, вэлью непонятно. И аргумент про сложность был честным — поддерживать чистую архитектуру и писать тесты до кода реально дорого по времени и когнитивной нагрузке.
Так вот. Кажется, агенты снимают порог входа в эти практики — написать тесты, нарезать интерфейсы, разложить по слоям стоит копейки, когда это делает Claude Code. А сами практики в ответ снимают ключевое ограничение агентов — контекстное окно.
Агент не может держать в голове весь проект. 250к токенов звучит много, но реальная кодовая база вылезает за эти пределы быстро. А даже если влезает — качество падает. Даже с 1м контекстом. Модель теряет детали, путает зависимости, начинает галлюцинировать.
И тут Clean Architecture начинает выглядеть как идеальный интерфейс между тобой и агентом. Чёткие слои, определённые контракты между ними — и для работы с конкретным куском агенту достаточно видеть архитектуру, интерфейсы и код текущего модуля. Не всю кодовую базу, а только нужную часть и интерфейсы взаимодействия с другими слоями.
DDD усиливает эту же идею: bounded contexts — это готовые границы того, что агенту нужно загрузить, а ubiquitous language делает код читаемым без дополнительной документации.
SOLID вообще читается как готовый чеклист «как сделать кодовую базу, с которой агент справится»:
- Single Responsibility — меньше кода нужно видеть для одного изменения
- Open/Closed — агент добавляет новую реализацию, не трогая существующий код, который даже не нужно грузить в контекст
- Liskov Substitution — можно подменить реализацию и ничего не сломается, а тесты это верифицируют
- Interface Segregation — агент видит только нужный ему срез интерфейса, а не всё подряд
- Dependency Inversion — для меня самый показательный. Модуль зависит от абстракции, не от реализации. Агенту не надо тащить в контекст код базы данных, чтобы написать бизнес-логику — хватит интерфейса репозитория
С TDD та же история. Тест — это спецификация поведения, которая влезает в контекст и однозначно верифицирует результат. Агент получил тест, написал реализацию, запустил — красный, зелёный, рефакторинг. Цикл обратной связи без необходимости понимать всю систему.
Отдельно про property-based тестирование. Штука всегда была нишевой — мало кто хотел возиться с генераторами и инвариантами, когда можно накидать пять юнит-тестов. Но с агентами property-based тесты должны давать непропорционально много фидбека при минимуме тестового кода. Один тест с правильно описанным свойством — это тысячи кейсов, которые агент прогоняет за секунды. При этом llm’ки куда быстрее придумывают все инварианты для тестирования, что снимает с разработчика когнитивную нагрузку на имплементацию подхода.
И вот что мне кажется самым интересным: property-based тесты идеально ложатся в цепочку PRD → TDD → реализация. Свойства системы из PRD («баланс не может быть отрицательным», «сумма позиций равна итогу заказа») транслируются в property-тесты почти один к одному. Агент получает свойства как спецификацию и пишет код, который им удовлетворяет. По сути requirements (R из PRD) становятся исполняемой верификацией — без ручной работы по переводу в десятки отдельных тестов.
Годами шли споры, стоит ли Clean Architecture и другие практики своих накладных расходов — всех этих дополнительных абстракций и интерфейсов. Будет забавно, если окажется, что именно эти «лишние» абстракции делают кодовую базу пригодной для работы с AI.
1💯53❤23👍10🔥9
Случайно наткнулся на тему третьей волны КПТ (Когнитивно-поведенческая терапия) и залип. Расскажу, о чём там и почему у меня срезонировало.
Контекст: я в целом давно юзаю классическую КПТ по Беку и МКТ по Уэллсу. КПТ работает с содержанием мыслей: «я не справлюсь» — искажение, давай найдём доказательства против, заменим на реалистичную мысль. МКТ — уровнем выше, с мыслями о мыслях: не сама мысль проблема, а то, что ты два часа её крутишь в голове и веришь, что это полезный анализ. Ключевая идея МКТ — у тебя есть убеждения о собственном мышлении (метакогниции), типа «если я буду тревожиться заранее, я подготовлюсь к плохому» или «я не могу контролировать свои мысли». Именно они запускают и поддерживают залипание, а не сами мысли.
Оба подхода дали много. Я в целом сделал огромный прогресс за свой сознательный период взросления: научился заботиться о себе, радоваться победам, нормально относиться к ошибкам. Но одна вещь так и осталась недокрученной, некая последняя миля или даже следующий кусок пазла — глубокий самокритик и условная любовь к себе. Хороший результат — «далось изи, не считается». Лучший по метрикам — всё равно недостаточно. Успех не засчитывается, провал подтверждает «я так и знал».
КПТ на это говорит «найди доказательства ценности» — а они обесцениваются быстрее, чем находятся. И это не просто сопротивление терапии. Схема сама себя защищает: любое доказательство проходит через фильтр обесценивания и не доходит до базового убеждения. Хуже того — сам факт, что мысли оказались «искажениями», самокритик тоже подбирает: «ну вот, даже думаешь неправильно». МКТ говорит «не залипай» — но тут проблема не в том, что я верю в пользу руминации. Я прекрасно знаю, что она бесполезна. Просто самокритик — это не карусель, в которую залипаешь, это карусель, в которой живёшь.
Отдельно — СДВГ. Все знают про невнимательность, гиперактивность и импульсивность. Мало кто говорит про эмоциональную дисрегуляцию, хотя последний ресерч прямо называет её одним из ключевых симптомов, а не коморбидностью. На практике это значит, что эмоции приходят быстрее, бьют сильнее и регулируются хуже — и это не вопрос характера или силы воли, а банальная нейробиология.
Так вот, третья волна КПТ (такой зонтичный бренд для разных методов). Первые две волны считают, что негативные эмоции вызываются нерациональными мыслями, и проблема в их содержании или процессе мышления. Третья идёт глубже: проблема не в мыслях и не в метакогнициях, а в отношении к себе — в базовых эмоциональных схемах, которые мыслями не чинятся.
Три направления, которые зацепили:
• CFT — не говорит «полюби себя», потому что для людей с мощным критиком это враньё и ещё одно требование, которое они провалят. Вместо этого: перестань себя атаковать. Не любовь, а сочувствие. «Мне сейчас тяжело» вместо «я ничтожество». Под капотом модель трёх систем в мозгу: угроза, драйв и успокоение. У людей с хроническим самокритиком они постоянно переключаются между первыми двумя — сканируют, достаточно ли они хороши, и гонятся за подтверждением. Система успокоения недоразвита. CFT прицельно её качает — не через аффирмации, а через конкретные упражнения на развитие сочувствия к себе как навыка.
• ACT — отцепляет идентичность от результатов. Не «я неудачник», а «у меня появилась мысль, что я неудачник». Звучит как семантическая игра, но за этим стоит идея: ты не равен своим мыслям, и тебе не нужно каждую из них принимать как факт или с ней спорить. Можно просто заметить и пойти дальше. Плюс ценности как компас — не «чего я добился», а «в каком направлении я двигаюсь».
• DBT — изначально для пограничного расстройства, но навыки эмоциональной регуляции оттуда отлично работают при СДВГ. Crux — тебе нужно одновременно принять себя и меняться. Менять без принятия — атака на себя. Принимать без изменения — застревание. DBT учит держать оба полюса одновременно и даёт конкретный набор навыков: как пережить эмоциональный шторм, не разрушив всё вокруг, как не действовать на импульсе.
Контекст: я в целом давно юзаю классическую КПТ по Беку и МКТ по Уэллсу. КПТ работает с содержанием мыслей: «я не справлюсь» — искажение, давай найдём доказательства против, заменим на реалистичную мысль. МКТ — уровнем выше, с мыслями о мыслях: не сама мысль проблема, а то, что ты два часа её крутишь в голове и веришь, что это полезный анализ. Ключевая идея МКТ — у тебя есть убеждения о собственном мышлении (метакогниции), типа «если я буду тревожиться заранее, я подготовлюсь к плохому» или «я не могу контролировать свои мысли». Именно они запускают и поддерживают залипание, а не сами мысли.
Оба подхода дали много. Я в целом сделал огромный прогресс за свой сознательный период взросления: научился заботиться о себе, радоваться победам, нормально относиться к ошибкам. Но одна вещь так и осталась недокрученной, некая последняя миля или даже следующий кусок пазла — глубокий самокритик и условная любовь к себе. Хороший результат — «далось изи, не считается». Лучший по метрикам — всё равно недостаточно. Успех не засчитывается, провал подтверждает «я так и знал».
КПТ на это говорит «найди доказательства ценности» — а они обесцениваются быстрее, чем находятся. И это не просто сопротивление терапии. Схема сама себя защищает: любое доказательство проходит через фильтр обесценивания и не доходит до базового убеждения. Хуже того — сам факт, что мысли оказались «искажениями», самокритик тоже подбирает: «ну вот, даже думаешь неправильно». МКТ говорит «не залипай» — но тут проблема не в том, что я верю в пользу руминации. Я прекрасно знаю, что она бесполезна. Просто самокритик — это не карусель, в которую залипаешь, это карусель, в которой живёшь.
Отдельно — СДВГ. Все знают про невнимательность, гиперактивность и импульсивность. Мало кто говорит про эмоциональную дисрегуляцию, хотя последний ресерч прямо называет её одним из ключевых симптомов, а не коморбидностью. На практике это значит, что эмоции приходят быстрее, бьют сильнее и регулируются хуже — и это не вопрос характера или силы воли, а банальная нейробиология.
Так вот, третья волна КПТ (такой зонтичный бренд для разных методов). Первые две волны считают, что негативные эмоции вызываются нерациональными мыслями, и проблема в их содержании или процессе мышления. Третья идёт глубже: проблема не в мыслях и не в метакогнициях, а в отношении к себе — в базовых эмоциональных схемах, которые мыслями не чинятся.
Три направления, которые зацепили:
• CFT — не говорит «полюби себя», потому что для людей с мощным критиком это враньё и ещё одно требование, которое они провалят. Вместо этого: перестань себя атаковать. Не любовь, а сочувствие. «Мне сейчас тяжело» вместо «я ничтожество». Под капотом модель трёх систем в мозгу: угроза, драйв и успокоение. У людей с хроническим самокритиком они постоянно переключаются между первыми двумя — сканируют, достаточно ли они хороши, и гонятся за подтверждением. Система успокоения недоразвита. CFT прицельно её качает — не через аффирмации, а через конкретные упражнения на развитие сочувствия к себе как навыка.
• ACT — отцепляет идентичность от результатов. Не «я неудачник», а «у меня появилась мысль, что я неудачник». Звучит как семантическая игра, но за этим стоит идея: ты не равен своим мыслям, и тебе не нужно каждую из них принимать как факт или с ней спорить. Можно просто заметить и пойти дальше. Плюс ценности как компас — не «чего я добился», а «в каком направлении я двигаюсь».
• DBT — изначально для пограничного расстройства, но навыки эмоциональной регуляции оттуда отлично работают при СДВГ. Crux — тебе нужно одновременно принять себя и меняться. Менять без принятия — атака на себя. Принимать без изменения — застревание. DBT учит держать оба полюса одновременно и даёт конкретный набор навыков: как пережить эмоциональный шторм, не разрушив всё вокруг, как не действовать на импульсе.
❤67🔥27👍17
Forwarded from simulation swarm
ИИ-инструменты не спасут лоу-перформеров.
В последнее время, с развитием больших моделей, все чаще наблюдаю дискурс о том, что применение ИИ-тулов будет размывать границу между лоу-перформерами и топ-перформерами и сопряженные с этим общественные опасения. Чуть другим боком, но фактически тот же дискурс идет и в области искусства: "творчество моделей вытесняет творчество людей". И самое забавное, что ситуация, которую я наблюдаю в своей работе, показывает скорее совершенно обратное. Лоу-перформеры, обложенные ИИ-тулами, не то что не приближаются к топ-перформерам, но наличие ИИ-тулов у тех и других скорее работает как лупа и болезненно выкристаллизовывает пропасть между первыми и вторыми.
Питер Уоттс в своем рассказе Test 4 Echo подкинул классную метафору, которая помогает мне объяснить себе, почему так получается. В этом рассказе один из персонажей упоминает метрику Ф(phi) из интегрированной теории информации, разработанной Джулио Тонони. Ф измеряет собственно количество интегрированной информации в системе, если проще, то насколько система как целое знает больше, чем знает сумма ее частей. По мнению Тонони, этот параметр является измеримой характеристикой наличия у системы сознания. Высокое значение Ф требует интеграции информации через рекуррентные обратные связи, именно такие петли позволяют системе быть больше суммы своих частей. Наш мозг ими пронизан, например, именно так работает зрительная кора: фактически наши высшие слои обработки постоянно посылают обратную связь нижним, к источнику сигнала, корректируя поток входящей информации (что-то типа "кажется, я вижу собаку, поправь чувствительность здесь и контраст здесь"). Такую постоянную замкнутую цепь обработки Тонони ассоциирует с наличием сознания. А теперь к нейросетям: те инструменты, которые мы используем в повседневной жизни и работе, в большинстве своем под капотом - это трансформеры, трансформеры при инференсе строго последовательны, это так называемая feedforward-архитектура, то есть данные идут через слои обработки вперед без рекуррентности (ну упрощенно при одном прогоне). Такие инструменты позволяют очень эффективно собирать вместе и последовательно обрабатывать ОЧЕНЬ много информации, однако общая сумма информации в системе (хоть и гигантская) не превышает ее слагаемых.
Соответственно, чтобы действительно получить какую-то информационную дельту и произвести что-то новое, нам нужно встроить в систему человека с его бесконечными петлями обратной связи и саму систему замкнуть. И вот эта самая характеристика лоу- и топ-перформера как раз сводится к интеграционной способности каждого конкретного человека, к тому, насколько хорошо он дает обратную связь и насколько много новой информации привносит. Да, Ф фактически характеризует наличие сознания, а не его качество, но сам принцип, что ценность системы определяется не количеством данных, а способностью их интегрировать, здесь применим. Мы с коллегами проводим много собеседований на позиции ML-продактов и, учитывая специфику позиции, имеем маленький, но стабильный поток кандидатов, которые пытаются пройти эти интервью при помощи AI-ассистентов. Так вот, кроме того, что это всегда очевидно, это всегда плохо при оценке, даже если отбросить факт читинга. Дело в том, что вся информация в наших кейсах уже есть, не нужно ничего гуглить или исследовать, они проверяют ровно интеграционную способность мозга кандидата структурировать эту информацию, сделать из нее правильные выводы и синтезировать новое решение. Ключевые преимущества, которые дает AI-ассистент, здесь не будут каким-либо дифференциатором. И вот здесь получается, что топ-перформер с AI-тулами дает несколько иксов к своей производительности, потому что он становится способен работать с кратно бОльшим потоком информации, тогда как лоу-перформер выдает неструктурированный дамп старой информации. Теперь можете брать это утверждение и масштабировать на все сферы, которые топит AI-слоп. О чем это говорит? О применимости ИИ в конкретных сферах или все же о способности людей производить долю интегрированной информации?
В последнее время, с развитием больших моделей, все чаще наблюдаю дискурс о том, что применение ИИ-тулов будет размывать границу между лоу-перформерами и топ-перформерами и сопряженные с этим общественные опасения. Чуть другим боком, но фактически тот же дискурс идет и в области искусства: "творчество моделей вытесняет творчество людей". И самое забавное, что ситуация, которую я наблюдаю в своей работе, показывает скорее совершенно обратное. Лоу-перформеры, обложенные ИИ-тулами, не то что не приближаются к топ-перформерам, но наличие ИИ-тулов у тех и других скорее работает как лупа и болезненно выкристаллизовывает пропасть между первыми и вторыми.
Питер Уоттс в своем рассказе Test 4 Echo подкинул классную метафору, которая помогает мне объяснить себе, почему так получается. В этом рассказе один из персонажей упоминает метрику Ф(phi) из интегрированной теории информации, разработанной Джулио Тонони. Ф измеряет собственно количество интегрированной информации в системе, если проще, то насколько система как целое знает больше, чем знает сумма ее частей. По мнению Тонони, этот параметр является измеримой характеристикой наличия у системы сознания. Высокое значение Ф требует интеграции информации через рекуррентные обратные связи, именно такие петли позволяют системе быть больше суммы своих частей. Наш мозг ими пронизан, например, именно так работает зрительная кора: фактически наши высшие слои обработки постоянно посылают обратную связь нижним, к источнику сигнала, корректируя поток входящей информации (что-то типа "кажется, я вижу собаку, поправь чувствительность здесь и контраст здесь"). Такую постоянную замкнутую цепь обработки Тонони ассоциирует с наличием сознания. А теперь к нейросетям: те инструменты, которые мы используем в повседневной жизни и работе, в большинстве своем под капотом - это трансформеры, трансформеры при инференсе строго последовательны, это так называемая feedforward-архитектура, то есть данные идут через слои обработки вперед без рекуррентности (ну упрощенно при одном прогоне). Такие инструменты позволяют очень эффективно собирать вместе и последовательно обрабатывать ОЧЕНЬ много информации, однако общая сумма информации в системе (хоть и гигантская) не превышает ее слагаемых.
Соответственно, чтобы действительно получить какую-то информационную дельту и произвести что-то новое, нам нужно встроить в систему человека с его бесконечными петлями обратной связи и саму систему замкнуть. И вот эта самая характеристика лоу- и топ-перформера как раз сводится к интеграционной способности каждого конкретного человека, к тому, насколько хорошо он дает обратную связь и насколько много новой информации привносит. Да, Ф фактически характеризует наличие сознания, а не его качество, но сам принцип, что ценность системы определяется не количеством данных, а способностью их интегрировать, здесь применим. Мы с коллегами проводим много собеседований на позиции ML-продактов и, учитывая специфику позиции, имеем маленький, но стабильный поток кандидатов, которые пытаются пройти эти интервью при помощи AI-ассистентов. Так вот, кроме того, что это всегда очевидно, это всегда плохо при оценке, даже если отбросить факт читинга. Дело в том, что вся информация в наших кейсах уже есть, не нужно ничего гуглить или исследовать, они проверяют ровно интеграционную способность мозга кандидата структурировать эту информацию, сделать из нее правильные выводы и синтезировать новое решение. Ключевые преимущества, которые дает AI-ассистент, здесь не будут каким-либо дифференциатором. И вот здесь получается, что топ-перформер с AI-тулами дает несколько иксов к своей производительности, потому что он становится способен работать с кратно бОльшим потоком информации, тогда как лоу-перформер выдает неструктурированный дамп старой информации. Теперь можете брать это утверждение и масштабировать на все сферы, которые топит AI-слоп. О чем это говорит? О применимости ИИ в конкретных сферах или все же о способности людей производить долю интегрированной информации?
👍35❤18👏6💯1
Самая сложная часть в AI-продуктах — последняя миля. Разрыв между демкой и боевым решением не просто большой, он катастрофический. И большинство людей, которые не делают такие продукты руками, этого вообще не понимают.
Карпаты в интервью Дваркешу хорошо это сформулировал: «march of nines». Демка работает в 90% случаев — это первая девятка. Потом нужна вторая (99%), третья (99.9%), четвёртая. Каждая следующая девятка — тот же объём работы в лучшем случае, что и предыдущая, а скорее всего усилия будут экспоненциально расти.
Но Карпаты говорит про селф-драйвинг, где, если утрировать, метрика бинарная: машина доехала или нет. В консьюмерских AI-продуктах всё хуже. Модель может ответить на 70%, на 30%, может уверенно соврать — и пользователь не отличит одно от другого. Весь UX приходится строить вокруг факта, что система врёт с покерфейсом, и тебе надо как-то дать человеку понять, когда ей верить, а когда нет. Ни на одной демке этой проблемы не существует.
По сути, в AI-продуктах работает принцип Парето курильщика: 20% усилий дают 80% вау-эффекта, а 80% усилий — 80% продакшн-эффекта. На этом месте ломаются ожидания всех, кто видел только демку.
Куда уходят эти 80% усилий? Эдж-кейсы, где модель галлюцинирует, молчит или ломает даунстрим-системы. Лэтенси, которое на реальных запросах в разы больше, чем на подготовленных. Стоимость инференса, которая при масштабе убивает юнит-экономику. Гардрейлы, контент-фильтрация, детекция персональных данных — каждый слой отдельный проект со своими эдж-кейсами.
Эвалы — это вообще отдельная история. Платформа, методология, аналитика, квалифицированная и неквалифицированная разметка, LLM as judge — целая инфраструктура с кучей процессов и людей, чтобы понимать, работает ли то, что ты выкатил.
И ни один из этих слоёв не нужен на стадии демки.
Когда кто-то говорит «мы за неделю собрали AI-продукт», я всегда уточняю: демку или продакшн? Демку за неделю соберёт стажёр с кредитами у провайдера LLM. Продакшн — это месяцы, если не годы, работы команды, где 90% времени уходит на то, что никогда не покажешь на презе.
Карпаты в интервью Дваркешу хорошо это сформулировал: «march of nines». Демка работает в 90% случаев — это первая девятка. Потом нужна вторая (99%), третья (99.9%), четвёртая. Каждая следующая девятка — тот же объём работы в лучшем случае, что и предыдущая, а скорее всего усилия будут экспоненциально расти.
Но Карпаты говорит про селф-драйвинг, где, если утрировать, метрика бинарная: машина доехала или нет. В консьюмерских AI-продуктах всё хуже. Модель может ответить на 70%, на 30%, может уверенно соврать — и пользователь не отличит одно от другого. Весь UX приходится строить вокруг факта, что система врёт с покерфейсом, и тебе надо как-то дать человеку понять, когда ей верить, а когда нет. Ни на одной демке этой проблемы не существует.
По сути, в AI-продуктах работает принцип Парето курильщика: 20% усилий дают 80% вау-эффекта, а 80% усилий — 80% продакшн-эффекта. На этом месте ломаются ожидания всех, кто видел только демку.
Куда уходят эти 80% усилий? Эдж-кейсы, где модель галлюцинирует, молчит или ломает даунстрим-системы. Лэтенси, которое на реальных запросах в разы больше, чем на подготовленных. Стоимость инференса, которая при масштабе убивает юнит-экономику. Гардрейлы, контент-фильтрация, детекция персональных данных — каждый слой отдельный проект со своими эдж-кейсами.
Эвалы — это вообще отдельная история. Платформа, методология, аналитика, квалифицированная и неквалифицированная разметка, LLM as judge — целая инфраструктура с кучей процессов и людей, чтобы понимать, работает ли то, что ты выкатил.
И ни один из этих слоёв не нужен на стадии демки.
Когда кто-то говорит «мы за неделю собрали AI-продукт», я всегда уточняю: демку или продакшн? Демку за неделю соберёт стажёр с кредитами у провайдера LLM. Продакшн — это месяцы, если не годы, работы команды, где 90% времени уходит на то, что никогда не покажешь на презе.
3❤57👍25💯10👏2😁1
Всё чаще замечаю, как кандидаты используют LLM прямо во время собеса и думают, что незаметно.
Задаёшь вопрос, человек говорит «мне нужно минуту подумать», отводит глаза, начинает стучать по клаве. На лице пляшет свет от второго экрана. Или другой вариант — LLM слушает стрим звонка и сама пишет ответы поверх экрана, но на генерацию нужно время, поэтому человек берёт паузу и ждёт, пока текст появится. Потом гладко и структурировано выдает «важно учитывать множество факторов» с симметричным списком из трёх пунктов.
Перебиваешь, просишь уточнить конкретный момент — теряются. Уточнений то в ответе ллмки не было.
Когда человек реально понимает тему — это чувствуется. Он ссылается на конкретику, применяет фреймворк к задаче, может поспорить с постановкой вопроса. Копни на уровень глубже — и он туда спокойно идёт. А когда за ответом ничего нет, копнёшь — и человек буксует. Просит ещё минуту «подумать». Снова стучит по клаве.
Я не запрещаю LLM, было бы странно в 2026. Но если единственный навык кандидата — копировать ответы из чата и озвучивать, ну зачем он нужен, если я и сам могу отправить промпт?
Задаёшь вопрос, человек говорит «мне нужно минуту подумать», отводит глаза, начинает стучать по клаве. На лице пляшет свет от второго экрана. Или другой вариант — LLM слушает стрим звонка и сама пишет ответы поверх экрана, но на генерацию нужно время, поэтому человек берёт паузу и ждёт, пока текст появится. Потом гладко и структурировано выдает «важно учитывать множество факторов» с симметричным списком из трёх пунктов.
Перебиваешь, просишь уточнить конкретный момент — теряются. Уточнений то в ответе ллмки не было.
Когда человек реально понимает тему — это чувствуется. Он ссылается на конкретику, применяет фреймворк к задаче, может поспорить с постановкой вопроса. Копни на уровень глубже — и он туда спокойно идёт. А когда за ответом ничего нет, копнёшь — и человек буксует. Просит ещё минуту «подумать». Снова стучит по клаве.
Я не запрещаю LLM, было бы странно в 2026. Но если единственный навык кандидата — копировать ответы из чата и озвучивать, ну зачем он нужен, если я и сам могу отправить промпт?
💯86❤18😁10
Команда выкатила бомбу.
Продактов на рынке полно. А вот тех, кто умеет делать AI/ML продукты — мало. Потому что мест, где это вообще делают, тоже немного.
Мы делаем. Умеем. И решили научить.
Бесплатный курс для PM’ов, которые хотят стать AI/ML продакт менеджерами. Формат stage-gate на реальных кейсах — проходишь полный цикл от постановки задачи до запуска, как в настоящем продукте.
Продактов на рынке полно. А вот тех, кто умеет делать AI/ML продукты — мало. Потому что мест, где это вообще делают, тоже немного.
Мы делаем. Умеем. И решили научить.
Бесплатный курс для PM’ов, которые хотят стать AI/ML продакт менеджерами. Формат stage-gate на реальных кейсах — проходишь полный цикл от постановки задачи до запуска, как в настоящем продукте.
Т‑Образование
ML Product Management — бесплатный курс по управлению ML-продуктами от Т-Образования
Приходите на курс, чтобы пройти путь от идеи до полноценного ML-продукта и презентовать решение перед AI-комитетом
❤44👍12🔥10😁3