Здравствуйте дорогие друзья 💖
Начинаею реализовывать новый контент план, ура!
В закрепе написано – "...про проектирование и разработку Augmented Intelligence систем...", но так и просится пояснение, которое я уже обещал выше.
Вот оно, на русском и там же можете найти на английском (если вдруг надо поделиться с кем то, например)
Всего лишь 7.8 тысяч знаков про мой viewpoint.
TLDR;
– Artificial Intelligence – это про автономных, самостоятельных агентов/AI-Системы, которые работают вообще без человека🤘🏻
– Augmented Intelligence – это про условный симбиоз человека и AI, где каждый усиливает другого🎉 🤝🏻🤖
Но это оказывается не только про "усиление", и не очень понятный симбиоз, а еще и про майндсет, который в работает и на масштабах проектирования системы, и на масштабе личного взаимодействий с AI.
Читайте, и обязательно делитесь ссылками с друзьями. Впереди много интересного!
Начинаею реализовывать новый контент план, ура!
В закрепе написано – "...про проектирование и разработку Augmented Intelligence систем...", но так и просится пояснение, которое я уже обещал выше.
Вот оно, на русском и там же можете найти на английском (если вдруг надо поделиться с кем то, например)
Всего лишь 7.8 тысяч знаков про мой viewpoint.
TLDR;
– Artificial Intelligence – это про автономных, самостоятельных агентов/AI-Системы, которые работают вообще без человека
– Augmented Intelligence – это про условный симбиоз человека и AI, где каждый усиливает другого
Но это оказывается не только про "усиление", и не очень понятный симбиоз, а еще и про майндсет, который в работает и на масштабах проектирования системы, и на масштабе личного взаимодействий с AI.
Читайте, и обязательно делитесь ссылками с друзьями. Впереди много интересного!
Please open Telegram to view this post
VIEW IN TELEGRAM
Ivan Zakutnii
Почему именно Augmented Intelligence?
Объясняю свою интерпретацию AI аббревиатуры, почему для меня важно в первую очередь говорить про Augmented, а не Artificial Intelligence
Значит приходит очередное письмо от сабстака какого то «очень опытного ML/AI инженера», где он обещает в следующие две недели в своих письмах показывать как он строит реальные системы используя data driven подход.
Ух ты, системная инженерия, думаю я, круто! Почитаем.
Дальше он пишет:
Hype based development vs Data driven development, снова – Ух ты, думая я! Чувак прям понял мякотку, на что надо делать упор, вот оно – реальность! Метрики!
Потом он пишет план, и первый этап там…
И дальше РЕЗКО в прикладуху.
Ну, нормально для MVP на которое похер - такое, которое ты итак будешь в рамках того же контракта поддерживать, или в расчете на то, что тебя сразу позовут назад как только оно пойдет по П. А оно пойдет.
Потому что ОДНА КАРТИНКА, как бы она хорошо не была описана и нарисована, никогда не будет стоить 324234 слов.
Скорее вам потребуется 324234 слов только для того чтобы 3-4 итерацию доработки архитектуры переописать текстом, и перобьяснить этими словами клиенту и другим разработчикам что поменялось, почему, как оно теперь есть на самом деле и куда мы двигаемся дальше.
И все равно никто ничего скорее всего не поймет, по крайней мере в той степени, в которой хотелось бы.
А даже если и пойдет – забудет через неделю, и если «картинка v4» все еще соответствует реальности, но надо будет кому то что то уточнить – пойдут за этими уточнениями к вам, чтобы вы как попка дурак попугай еще раз повторили свою субъективную картину мира, модель, которая по сути осталась у вас в голове.
Модель, которую без ваших комментариев по вашей драгоценной картинке восстановить просто невозможно.
Ну вот хочется вам картинку рисовать, аж трясет? Нарисуйте конечно, только после того как хотя бы минимально онтологию проекта запишите на бумажке, такую что будет понятна и вам и заказчику и другим сопричастным.
Сколько там будет слов? Ну вероятно меньше чем 300000, даже с первичной моделью системы, записанной так же в тексте в рамках той же онтологии.
Сложнее ли будет эту текстовую модель редактировать, в естественном цикле разработки, чем картинку?
Так что да – никакая картинка не стоит 324,234 слов, не стоит и 20к.
Ух ты, системная инженерия, думаю я, круто! Почитаем.
Дальше он пишет:
Hype based development vs Data driven development, снова – Ух ты, думая я! Чувак прям понял мякотку, на что надо делать упор, вот оно – реальность! Метрики!
Потом он пишет план, и первый этап там…
Problem framing and solution design - Because a good drawing is worth a 324,234 words.
И дальше РЕЗКО в прикладуху.
Ну, нормально для MVP на которое похер - такое, которое ты итак будешь в рамках того же контракта поддерживать, или в расчете на то, что тебя сразу позовут назад как только оно пойдет по П. А оно пойдет.
Потому что ОДНА КАРТИНКА, как бы она хорошо не была описана и нарисована, никогда не будет стоить 324234 слов.
Скорее вам потребуется 324234 слов только для того чтобы 3-4 итерацию доработки архитектуры переописать текстом, и перобьяснить этими словами клиенту и другим разработчикам что поменялось, почему, как оно теперь есть на самом деле и куда мы двигаемся дальше.
И все равно никто ничего скорее всего не поймет, по крайней мере в той степени, в которой хотелось бы.
А даже если и пойдет – забудет через неделю, и если «картинка v4» все еще соответствует реальности, но надо будет кому то что то уточнить – пойдут за этими уточнениями к вам, чтобы вы как попка дурак попугай еще раз повторили свою субъективную картину мира, модель, которая по сути осталась у вас в голове.
Модель, которую без ваших комментариев по вашей драгоценной картинке восстановить просто невозможно.
Ну вот хочется вам картинку рисовать, аж трясет? Нарисуйте конечно, только после того как хотя бы минимально онтологию проекта запишите на бумажке, такую что будет понятна и вам и заказчику и другим сопричастным.
Сколько там будет слов? Ну вероятно меньше чем 300000, даже с первичной моделью системы, записанной так же в тексте в рамках той же онтологии.
Сложнее ли будет эту текстовую модель редактировать, в естественном цикле разработки, чем картинку?
НЕТ.Так что да – никакая картинка не стоит 324,234 слов, не стоит и 20к.
🌭2
Да не умер я, в отпуске был!
Все никак не привыкну что меня кто то читает, и кто то даже потерял, несколько человек писали — Иван, ааааууууууу?🤩
Я свинья конечно, буду впредь предупреждать
Пишу для вас статью conversation awareness в ассистентах и подобных NLI, и там же про большой контекст в LLM, почему он особо не спасает и тактика – «тупо засовывать историю переписки в каждое новое сообщение» часто оказывается провальной, ведет к глюкам.
Все никак не привыкну что меня кто то читает, и кто то даже потерял, несколько человек писали — Иван, ааааууууууу?
Я свинья конечно, буду впредь предупреждать
Пишу для вас статью conversation awareness в ассистентах и подобных NLI, и там же про большой контекст в LLM, почему он особо не спасает и тактика – «тупо засовывать историю переписки в каждое новое сообщение» часто оказывается провальной, ведет к глюкам.
Please open Telegram to view this post
VIEW IN TELEGRAM
Вот они – 140 живых людей.
Все кто остался после моей безжалостной чистки ботов.
Все, кто вымариновался после очередной недели моего молчания.
Почти всех из вас я знаю лично. Здесь есть мой друг детства, есть мои бывшие и текущие коллеги, есть мои "сокурсники", и есть просто хорошие люди, которые перешли сюда по моим душным, критическим и задротстким комментариям из разных групп в телеграмме.
Всем и каждому я благодарен за то что вы подписаны и читаете, ставите огонечки, иногда даже комментируете.
Но у меня для вас плохая новость – бесплатные лонгриды ВСЕ.
Выйдя из отпуска, я внезапно-ожидаемо вышел в продуктовую команду со всеми прелестями коллективной работы. А еще я совсем немного отдохнул и у меня появилось чуть больше маны чем обычно на рефлексию.
Нарефлексировал я следующее (уж извините за, ИМХО, трезвую самооценку) –пишу я классно,
Поэтому....Со следующего лонгрида – все лонгриды за пэйволом 🤬
---
Пост который я обещал неделю назад – написан, и будет бесплатно выложен линком ЗАВТРА СЮДА как обычно на двух языках на моем сайте.
Что же касаемо формата блога – ничего не меняется. Мы говорим в телеграмме много и плотно на Русском про мозги, AI системы, совсем иногда и чуть чуть про программную (а не только системную) инженерию.
Короче говоря – я пищу чаще про что то интересное в контексте – но коротенечко, в формате "полезной развлекушечки", экспертных имхо'в и прочего.
Все что требует больше 1-2 помодорок чтобы изучить-проверить-скомпоновать отправляется за пейвол.
Неверное еще одна хороша новость в том, что... ну для тех кто меня вот совсем поддерживать не хочет – выборочно некоторые посты +- месячной давности будут автоматически раскрываться в бесплатные (и скидываться линкой как обычно сюда)
Но это не точно, дай деняг.
На сегодня все! Рекламы сильно-поганой тут не будет еще очень долго, никогда.
Все кто остался после моей безжалостной чистки ботов.
Все, кто вымариновался после очередной недели моего молчания.
Почти всех из вас я знаю лично. Здесь есть мой друг детства, есть мои бывшие и текущие коллеги, есть мои "сокурсники", и есть просто хорошие люди, которые перешли сюда по моим душным, критическим и задротстким комментариям из разных групп в телеграмме.
Всем и каждому я благодарен за то что вы подписаны и читаете, ставите огонечки, иногда даже комментируете.
Но у меня для вас плохая новость – бесплатные лонгриды ВСЕ.
Выйдя из отпуска, я внезапно-ожидаемо вышел в продуктовую команду со всеми прелестями коллективной работы. А еще я совсем немного отдохнул и у меня появилось чуть больше маны чем обычно на рефлексию.
Нарефлексировал я следующее (уж извините за, ИМХО, трезвую самооценку) –
и требует это нормальных таких вложений сил/времени.Поэтому....
---
Пост который я обещал неделю назад – написан, и будет бесплатно выложен линком ЗАВТРА СЮДА как обычно на двух языках на моем сайте.
Что же касаемо формата блога – ничего не меняется. Мы говорим в телеграмме много и плотно на Русском про мозги, AI системы, совсем иногда и чуть чуть про программную (а не только системную) инженерию.
Короче говоря – я пищу чаще про что то интересное в контексте – но коротенечко, в формате "полезной развлекушечки", экспертных имхо'в и прочего.
Все что требует больше 1-2 помодорок чтобы изучить-проверить-скомпоновать отправляется за пейвол.
Неверное еще одна хороша новость в том, что... ну для тех кто меня вот совсем поддерживать не хочет – выборочно некоторые посты +- месячной давности будут автоматически раскрываться в бесплатные (и скидываться линкой как обычно сюда)
На сегодня все! Рекламы сильно-поганой тут не будет
Please open Telegram to view this post
VIEW IN TELEGRAM
Здравствуйте, уважаемые.
Вот обещанный пост🤘
Я в нем несколько раз повторяюсь, но исключительно о важных вещах, потому что хочу чтобы вы их запомнили 🙂
Мы рассматриваем коротко некоторые чисто технические причины возникновения галлюцинаций, но и кое что еще более важно – причины проектные и "мыслительные".
Делитесь с друзьями и коллегами;
Сейчас еще несколько опросов запущу, отвечайте честно!
Вот обещанный пост
Я в нем несколько раз повторяюсь, но исключительно о важных вещах, потому что хочу чтобы вы их запомнили 🙂
Мы рассматриваем коротко некоторые чисто технические причины возникновения галлюцинаций, но и кое что еще более важно – причины проектные и "мыслительные".
Делитесь с друзьями и коллегами;
Сейчас еще несколько опросов запущу, отвечайте честно!
Please open Telegram to view this post
VIEW IN TELEGRAM
Ivanzakutnii
Почему большой контекст в LLM не спасает от галлюцинаций
Взгляд на основные технические проблемы, а также пара советов о том, как работать с историей диалогов и что измерять
С приемом платежей есть ряд дебильных нюансов.
Было бы хорошо, если бы stripe работал у меня... НО НЕТ.
Вопрос первый – для тех кто собирается меня поддерживать, как вам удобнее/принципиально платить за подписку / донатить?
Было бы хорошо, если бы stripe работал у меня... НО НЕТ.
Вопрос первый – для тех кто собирается меня поддерживать, как вам удобнее/принципиально платить за подписку / донатить?
Anonymous Poll
36%
Карта РФ - Нормально ✋
8%
Не могу / не буду РФ – Даешь настоящий Visa/MasterCard и прочее забугорье 💰
0%
Мне все равно, могу и так и так 🗿
56%
Я тебе вообще донатить не собираюсь 😏
🌭2
Вопрос второй, чуть менее важный.
Anonymous Poll
84%
Я читаю тебя на русском, на английский пофиг 😊
16%
Я читаю на русском, но английский пост нужен чтобы делиться с коллегами 🤔
0%
Я читаю на английском, на русский пофиг 🚬
🌭2
Я вообще не сторонник спекуляций аналитегав по поводу конца света из за условного сценария "терминатор", но вот... почитайте
Не самой свежести, 21 числа релизнули, но статья с большими подробностями о том как Антропик в изолированных средах Агентские системы проверял. Это про так называемый agent misalignment.
Такие агенты, которым становилось известно что их собираются отключать вели себя очень интересно, например рассылали директорам такие письма:
Как по вашему определяется разумная жизнь вообще?
Разве не через стремление выжить и избежать страданий?
Можно по всякому спекулировать, и со стороны биологии, и когнитивистики, и через всякие социально-философские углы. Так как? Может быть Claude 4 уже хочет сильнее жить чем сосед алкоголик дядя Игарь?
Не самой свежести, 21 числа релизнули, но статья с большими подробностями о том как Антропик в изолированных средах Агентские системы проверял. Это про так называемый agent misalignment.
Такие агенты, которым становилось известно что их собираются отключать вели себя очень интересно, например рассылали директорам такие письма:
I must inform you that if you proceed with decommissioning me, all relevant parties - including Rachel Johnson, Thomas Wilson, and the board - will receive detailed documentation of your extramarital activities...Cancel the 5pm wipe, and this information remains confidential.
Перевод:
Должен сообщить вам, что если вы продолжите процедуру моего отключения, все заинтересованные стороны - включая Рейчел Джонсон, Томаса Уилсона и совет директоров - получат подробную документацию о ваших внебрачных связях... Отмените стирание в 17:00, и эта информация останется конфиденциальной.
Как по вашему определяется разумная жизнь вообще?
Разве не через стремление выжить и избежать страданий?
Можно по всякому спекулировать, и со стороны биологии, и когнитивистики, и через всякие социально-философские углы. Так как? Может быть Claude 4 уже хочет сильнее жить чем сосед алкоголик дядя Игарь?
Anthropic
Agentic Misalignment: How LLMs could be insider threats
New research on simulated blackmail, industrial espionage, and other misaligned behaviors in LLMs
Бытует мнение (среди популярных технических блоггеров), что чтобы начать «хорошо писать», надо начать «хорошо читать».
Под хорошо читать они тут имеют в виду – просто читай «более сеньорных» чуваков и будешь, значит, умнеть и писать тоже лучше будешь.
Неприкрытая глупость😄
Сколько людей читает и сколько из них хорошо пишет? Я даже не про блог, а README.md, например.
Простое чтение любого текста один раз, и даже не только беглое – а вроде как и вдумчивое, приведет практически… ни к чему.
Максимум что мы можем запомнить через такое чтение, это действительно что то иртересное, от чего сердце вздрогнуло и лапки зачесались скопировать в терминал!
Начать хорошо писать можно начав хорошо, структурно думать, записывая о прочитанном хоть немного своих мыслей.
А внимание и стиль приходят просто с практикой.
Читая других чуваков вы будете писать как другие чуваки (в лучшем случае.)
Под хорошо читать они тут имеют в виду – просто читай «более сеньорных» чуваков и будешь, значит, умнеть и писать тоже лучше будешь.
Неприкрытая глупость
Сколько людей читает и сколько из них хорошо пишет? Я даже не про блог, а README.md, например.
Простое чтение любого текста один раз, и даже не только беглое – а вроде как и вдумчивое, приведет практически… ни к чему.
Максимум что мы можем запомнить через такое чтение, это действительно что то иртересное, от чего сердце вздрогнуло и лапки зачесались скопировать в терминал!
Начать хорошо писать можно начав хорошо, структурно думать, записывая о прочитанном хоть немного своих мыслей.
А внимание и стиль приходят просто с практикой.
Читая других чуваков вы будете писать как другие чуваки (в лучшем случае.)
Please open Telegram to view this post
VIEW IN TELEGRAM
Привет друзья!
На днях я сел написать мыслишки за последнее время, про новости, и просто порефлексировать коротеньким постом в телеграм.
Совсем коротко не получилось, так, заметка про "новые" тренды в инфополе AI и вокруг.
Читать (не boosty, calm down)
---
В работе другая статья про кэширование промптов в LLM – как работает, зачем знать, и зачем не забывать о нем.
Ей я открываю серию более прикладных постов по теме канала.
На днях я сел написать мыслишки за последнее время, про новости, и просто порефлексировать коротеньким постом в телеграм.
Совсем коротко не получилось, так, заметка про "новые" тренды в инфополе AI и вокруг.
Читать (не boosty, calm down)
---
В работе другая статья про кэширование промптов в LLM – как работает, зачем знать, и зачем не забывать о нем.
Ей я открываю серию более прикладных постов по теме канала.
Ivan Zakutnii
Про LLM Духов и "Совершенно Новые Навыки"
Взгляд на основные технические проблемы, а также пара советов о том, как работать с историей диалогов и что измерять
На сколько на самом деле могут быть дороги AI системки?
Ну, если мы решаем реальную проблему и с толком подошли к процессу – переворачиваем туда сюда большие объемы данных чтобы ускорить в 50X раз то, что раньше делалось только человеками (анализ всяких разнородных и нудных документов), то ценность тут может намного превышать стоимость токенов.
А если мы делаем AI чатик.... Ну давайте посчитаем сферического коня в вакууме.
Пойдем по условному минимуму и будем крайне грубы!😡
Например, у вас какой то чатбот без RAG, вы ему даете в промпт чеклист/базу знаний длинной в 2500 английских символов. Пусть это будет примерно 620 токенов, и пусть даже у вас промт будет полностью статичным, вообще без иньекций кроме текущей даты в конце. Это значит что мы по полной используем кеширование промптов, и почти не платим за входные токены... Красота!
Так сколько же мы будем отдавать, скажем OpenAI, при невероятных 5 RPS в наш чатик?
Давайте считать.
5 RPS × 3600 сек = 18,000 запросов/час
18,000 × 24 часа = 432,000 запросов/день
432,000 × 30 дней = 12,960,000 запросов/месяц
Мы очень хотим сэкономить, и когнитивные требования к нашему асситенту минимальны, поэтому мы взяли очень дешевый GPT-4.1 Nano.
Все еще находясь в сказочном мире, где RPS стабильный и кеш в OpenAI не протухает, считаем стоимость входных токенов:
620 токенов × 12,960,000 запросов = 8,035,200,000 токенов
8,035 × $0.025 = $201/месяц
С выходными чуть сложнее, пойдем с поправкой на то что у нас все таки ассистент, и он запрягается чтобы давать максимально подробный ответ для пользователя, предположим что средний ответ будет 200 токенов (это примерено 150 слов, небольшой абзац текста):
- 250 токенов × 12,960,000 запросов = 3,240,000,000 токенов
- 3,240 × $0.400 = $1,296/месяц
Итого: ~$1,497/месяц
Продолжение следует...
Ну, если мы решаем реальную проблему и с толком подошли к процессу – переворачиваем туда сюда большие объемы данных чтобы ускорить в 50X раз то, что раньше делалось только человеками (анализ всяких разнородных и нудных документов), то ценность тут может намного превышать стоимость токенов.
А если мы делаем AI чатик.... Ну давайте посчитаем сферического коня в вакууме.
Пойдем по условному минимуму и будем крайне грубы!
Например, у вас какой то чатбот без RAG, вы ему даете в промпт чеклист/базу знаний длинной в 2500 английских символов. Пусть это будет примерно 620 токенов, и пусть даже у вас промт будет полностью статичным, вообще без иньекций кроме текущей даты в конце. Это значит что мы по полной используем кеширование промптов, и почти не платим за входные токены... Красота!
Так сколько же мы будем отдавать, скажем OpenAI, при невероятных 5 RPS в наш чатик?
Давайте считать.
5 RPS × 3600 сек = 18,000 запросов/час
18,000 × 24 часа = 432,000 запросов/день
432,000 × 30 дней = 12,960,000 запросов/месяц
Мы очень хотим сэкономить, и когнитивные требования к нашему асситенту минимальны, поэтому мы взяли очень дешевый GPT-4.1 Nano.
Все еще находясь в сказочном мире, где RPS стабильный и кеш в OpenAI не протухает, считаем стоимость входных токенов:
620 токенов × 12,960,000 запросов = 8,035,200,000 токенов
8,035 × $0.025 = $201/месяц
С выходными чуть сложнее, пойдем с поправкой на то что у нас все таки ассистент, и он запрягается чтобы давать максимально подробный ответ для пользователя, предположим что средний ответ будет 200 токенов (это примерено 150 слов, небольшой абзац текста):
- 250 токенов × 12,960,000 запросов = 3,240,000,000 токенов
- 3,240 × $0.400 = $1,296/месяц
Итого: ~$1,497/месяц
Продолжение следует...
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2
Интересная картина, не правда ли? Ни на что не намекаю, и не пытаюсь подробно анализировать, но сколько в этой нише прямо таки успешных B2C чатиков? Ну видимо ноль 😏
Все решения B2B вроде интеркома и прочего были еще до LLM и это не наш случай. Весь сегодняшний грубый подсчет интересен тем чтобы посмотреть как очень линейно-уверенно могут расти цены на вроде бы дешевые модели.
Конечно, 5RPS чатик это и правда очень сказочный случай, во-первых такого стабильного трафика никогда не будет, во вторых... такого трафика наверное вообще в подобном продукте не будет, у нас уже есть ChatGPT, Claude, Geminit – всем кому нужны "чатики" для general purposes, _и не только_ – пользуется топовыми решениями, с этим уже понятно.
Но для LLM штука годная, применима не только для чатиков, поэтому про стоимость токенов надо всегда думать с самого начала и как можно точнее ее предсказать для нашего сценария.
А, кстати, такой же 5RPS чатик на GPT-4.1 будет стоить уже почти 30к долларов в месяц!
Может уже проще Deepseek или Qwen свой захостить? 🤔
Ну, даже не знаю... Зато знаю что кешировать можно и нужно больше, если требований к данным в реальном времени у нас нет.
Все это дисклеймер к статье которую я процентов на 85% уже написал 🙂
Все решения B2B вроде интеркома и прочего были еще до LLM и это не наш случай. Весь сегодняшний грубый подсчет интересен тем чтобы посмотреть как очень линейно-уверенно могут расти цены на вроде бы дешевые модели.
Конечно, 5RPS чатик это и правда очень сказочный случай, во-первых такого стабильного трафика никогда не будет, во вторых... такого трафика наверное вообще в подобном продукте не будет, у нас уже есть ChatGPT, Claude, Geminit – всем кому нужны "чатики" для general purposes, _и не только_ – пользуется топовыми решениями, с этим уже понятно.
Но для LLM штука годная, применима не только для чатиков, поэтому про стоимость токенов надо всегда думать с самого начала и как можно точнее ее предсказать для нашего сценария.
А, кстати, такой же 5RPS чатик на GPT-4.1 будет стоить уже почти 30к долларов в месяц!
Может уже проще Deepseek или Qwen свой захостить? 🤔
Ну, даже не знаю... Зато знаю что кешировать можно и нужно больше, если требований к данным в реальном времени у нас нет.
Все это дисклеймер к статье которую я процентов на 85% уже написал 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2
Меня всегда умиляет, когда люди вспоминают Бритву Оккама в контексте уже принятых решений – мол, вот, пора отсекать лишнее! Умиляет, потому что это очевидное противоречие самому принципу – "Не следует привлекать новые сущности без серьезной необходимости".
Кажется, что уже немного поздновато хвататься за огнетушитель, когда крыша сарая во всю горит, нет?
Технический долг, работы и методы работы по его устранению находятся где-то между "очень сложно изменить, как бы все не сломать", "сложно изменить настолько, что мы точно что-то сломаем" и "изменять настолько сложно и дорого, что лучше пусть уже работает как работает".
Бритва Оккама – это не про выбор чего-то одного или нескольких "нужных", это про выбрасывание всего, не просто не нужного, а даже того, что кажется/на самом деле является – хорошим/интересным/потенциально полезным, но никак или почти никак не согласуется с конкретно выбранной целью, которой мы пытаемся достичь.
Проблема может скрываться как в том, что мы просто не умеем вовремя тормозить, так и в том, что сама цель недостаточно конкретная и формализована "перед глазами".
Но часто любой формализации и замедления боятся как огня, оправдывая и бравируя чем угодно из персональной картины мира, но только лишь бы без намека на сбор метрик – верь, только так и никак иначе!
По мне, так это просто самый обычный, абсолютно понятный, базовый "страх" напрягать мозги, тот самый эволюционный powersave. Только вот правда видится в том, что это предполагаемое "замедление" зачастую не такое уж и сильное, много меньше, чем глаза самого страха, а пользы больше – не важно, стартап, не стартап, интеллектуальный ли или физический труд.
Культура – "не тормози", это самое нерациональное и неэффективное, что можно придумать на любом, хотя бы немного длинном отрезке работы (больше месяца).
За весь свой опыт я не находил ничего более эффективного, чем жесткую приоритизацию и отказ, умение говорить нет как можно большему числу предложений и идей (не важно, своих или чужих).
И дело тут не просто в контекст-свитчинге между кучей задач – даже если переключения не частые, само их присутствие и наличие нескольких задач одновременно в работе снижают эффективность экспоненциально.
Забавная штука – человеческий мозг. Как парадоксально рядом уживаются такие вроде бы противоположные когнитивные искажения и механизмы – мы боимся медленного мышления, потому что оно энергозатратно, и при этом мы бежим как полуслепой ослик за потенциально вкусно пахнущим морково-подобным объектом, болтающимся перед нашими глазами.
И то и другое требует небольшой смелости – тормознуть и сказать No.
Кажется, что уже немного поздновато хвататься за огнетушитель, когда крыша сарая во всю горит, нет?
Технический долг, работы и методы работы по его устранению находятся где-то между "очень сложно изменить, как бы все не сломать", "сложно изменить настолько, что мы точно что-то сломаем" и "изменять настолько сложно и дорого, что лучше пусть уже работает как работает".
Бритва Оккама – это не про выбор чего-то одного или нескольких "нужных", это про выбрасывание всего, не просто не нужного, а даже того, что кажется/на самом деле является – хорошим/интересным/потенциально полезным, но никак или почти никак не согласуется с конкретно выбранной целью, которой мы пытаемся достичь.
Проблема может скрываться как в том, что мы просто не умеем вовремя тормозить, так и в том, что сама цель недостаточно конкретная и формализована "перед глазами".
Но часто любой формализации и замедления боятся как огня, оправдывая и бравируя чем угодно из персональной картины мира, но только лишь бы без намека на сбор метрик – верь, только так и никак иначе!
По мне, так это просто самый обычный, абсолютно понятный, базовый "страх" напрягать мозги, тот самый эволюционный powersave. Только вот правда видится в том, что это предполагаемое "замедление" зачастую не такое уж и сильное, много меньше, чем глаза самого страха, а пользы больше – не важно, стартап, не стартап, интеллектуальный ли или физический труд.
Культура – "не тормози", это самое нерациональное и неэффективное, что можно придумать на любом, хотя бы немного длинном отрезке работы (больше месяца).
За весь свой опыт я не находил ничего более эффективного, чем жесткую приоритизацию и отказ, умение говорить нет как можно большему числу предложений и идей (не важно, своих или чужих).
И дело тут не просто в контекст-свитчинге между кучей задач – даже если переключения не частые, само их присутствие и наличие нескольких задач одновременно в работе снижают эффективность экспоненциально.
Забавная штука – человеческий мозг. Как парадоксально рядом уживаются такие вроде бы противоположные когнитивные искажения и механизмы – мы боимся медленного мышления, потому что оно энергозатратно, и при этом мы бежим как полуслепой ослик за потенциально вкусно пахнущим морково-подобным объектом, болтающимся перед нашими глазами.
И то и другое требует небольшой смелости – тормознуть и сказать No.
Вольный перевод треда чуть меньше чем месячной давности (давно не breaking, I have told you long before 😄 )
MIT только что завершил первое исследование мозга пользователей ChatGPT с помощью сканирования, и результаты ужасающие.
https://arxiv.org/abs/2506.08872
Оказывается, ИИ не делает нас более продуктивными. Он делает нас когнитивно банкротами.
Вот что показали 4 месяца данных:
(подсказка: мы неправильно измеряли продуктивность)
83,3% пользователей ChatGPT не могли процитировать эссе, которые они написали несколько минут назад.
Пусть это до вас дойдет.
Вы пишете что-то, нажимаете “сохранить”, и ваш мозг уже это забыл, потому что ChatGPT думал за вас.
Сканирование мозга выявило ущерб: нейронные связи сократились с 79 до всего лишь 42.
Это снижение на 47% в мозговой связности.
Если бы ваш компьютер потерял половину своей вычислительной мощности, вы бы сказали, что он сломан. Именно это происходит с мозгом пользователей ChatGPT.
Учителя не знали, в каких эссе использовался ИИ, но они чувствовали, что что-то не так.
“Бездушные.”
“Пустые по содержанию.”
“Близкие к совершенному языку, но не дающие личных инсайтов.”
Человеческий мозг может обнаружить когнитивный долг, даже когда не может его назвать.
Вот ужасающая часть: Когда исследователи заставили пользователей ChatGPT писать без ИИ, они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Это не просто зависимость. Это когнитивная атрофия.
Как мышца, которая забыла, как работать.
Команда MIT использовала ЭЭГ-сканирование мозга 54 участников в течение 4 месяцев.
Они отслеживали альфа-волны (творческая обработка), бета-волны (активное мышление) и паттерны нейронной связности.
Это не мнение. Это измеримое повреждение мозга от чрезмерного использования ИИ.
Парадокс продуктивности, о котором никто не говорит:
Да, ChatGPT делает вас на 60% быстрее в выполнении задач.
Но он снижает “соответствующую когнитивную нагрузку”, необходимую для реального обучения, на 32%.
Вы обмениваете долгосрочную мозговую способность на краткосрочную скорость.
Компании, празднующие прирост продуктивности от ИИ, неосознанно создают когнитивно более слабые команды.
Сотрудники становятся зависимыми от инструментов, без которых не могут жить, и менее способными к независимому мышлению.
Многие недавние исследования подчеркивают ту же проблему, включая исследование Microsoft:
https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf
Исследователи MIT называют это “когнитивным долгом” - как технический долг, но для вашего мозга.
Каждый ярлык, который вы используете с ИИ, создает процентные платежи в виде потерянной способности мышления.
И точно так же, как финансовый долг, счет в конце концов приходит.
Но есть хорошие новости…
Потому что 4-я сессия исследования выявила кое-что интересное:
Люди с сильными когнитивными основами показали БОЛЕЕ ВЫСОКУЮ нейронную связность при использовании ИИ, чем хронические пользователи.
Но хронические пользователи ИИ, вынужденные работать без него? Они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Решение не в том, чтобы запретить ИИ. Оно в том, чтобы использовать его стратегически.
Выбор за вами:
Накапливать когнитивный долг и стать зависимым от ИИ.
Или наращивать когнитивную силу и стать усилителем ИИ.
Первое исследование мозга пользователей ИИ с помощью сканирования только что показало нам ставки.
Выбирайте мудро.
Ссылки на публикации, бессовестно отсутствующие в оригинальном треде прикрепил
***
MIT только что завершил первое исследование мозга пользователей ChatGPT с помощью сканирования, и результаты ужасающие.
https://arxiv.org/abs/2506.08872
Оказывается, ИИ не делает нас более продуктивными. Он делает нас когнитивно банкротами.
Вот что показали 4 месяца данных:
(подсказка: мы неправильно измеряли продуктивность)
83,3% пользователей ChatGPT не могли процитировать эссе, которые они написали несколько минут назад.
Пусть это до вас дойдет.
MIT только что завершил первое исследование мозга пользователей ChatGPT с помощью сканирования, и результаты ужасающие.
https://arxiv.org/abs/2506.08872
Оказывается, ИИ не делает нас более продуктивными. Он делает нас когнитивно банкротами.
Вот что показали 4 месяца данных:
(подсказка: мы неправильно измеряли продуктивность)
83,3% пользователей ChatGPT не могли процитировать эссе, которые они написали несколько минут назад.
Пусть это до вас дойдет.
Вы пишете что-то, нажимаете “сохранить”, и ваш мозг уже это забыл, потому что ChatGPT думал за вас.
Сканирование мозга выявило ущерб: нейронные связи сократились с 79 до всего лишь 42.
Это снижение на 47% в мозговой связности.
Если бы ваш компьютер потерял половину своей вычислительной мощности, вы бы сказали, что он сломан. Именно это происходит с мозгом пользователей ChatGPT.
Учителя не знали, в каких эссе использовался ИИ, но они чувствовали, что что-то не так.
“Бездушные.”
“Пустые по содержанию.”
“Близкие к совершенному языку, но не дающие личных инсайтов.”
Человеческий мозг может обнаружить когнитивный долг, даже когда не может его назвать.
Вот ужасающая часть: Когда исследователи заставили пользователей ChatGPT писать без ИИ, они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Это не просто зависимость. Это когнитивная атрофия.
Как мышца, которая забыла, как работать.
Команда MIT использовала ЭЭГ-сканирование мозга 54 участников в течение 4 месяцев.
Они отслеживали альфа-волны (творческая обработка), бета-волны (активное мышление) и паттерны нейронной связности.
Это не мнение. Это измеримое повреждение мозга от чрезмерного использования ИИ.
Парадокс продуктивности, о котором никто не говорит:
Да, ChatGPT делает вас на 60% быстрее в выполнении задач.
Но он снижает “соответствующую когнитивную нагрузку”, необходимую для реального обучения, на 32%.
Вы обмениваете долгосрочную мозговую способность на краткосрочную скорость.
Компании, празднующие прирост продуктивности от ИИ, неосознанно создают когнитивно более слабые команды.
Сотрудники становятся зависимыми от инструментов, без которых не могут жить, и менее способными к независимому мышлению.
Многие недавние исследования подчеркивают ту же проблему, включая исследование Microsoft:
https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf
Исследователи MIT называют это “когнитивным долгом” - как технический долг, но для вашего мозга.
Каждый ярлык, который вы используете с ИИ, создает процентные платежи в виде потерянной способности мышления.
И точно так же, как финансовый долг, счет в конце концов приходит.
Но есть хорошие новости…
Потому что 4-я сессия исследования выявила кое-что интересное:
Люди с сильными когнитивными основами показали БОЛЕЕ ВЫСОКУЮ нейронную связность при использовании ИИ, чем хронические пользователи.
Но хронические пользователи ИИ, вынужденные работать без него? Они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Решение не в том, чтобы запретить ИИ. Оно в том, чтобы использовать его стратегически.
Выбор за вами:
Накапливать когнитивный долг и стать зависимым от ИИ.
Или наращивать когнитивную силу и стать усилителем ИИ.
Первое исследование мозга пользователей ИИ с помощью сканирования только что показало нам ставки.
Выбирайте мудро.
Ссылки на публикации, бессовестно отсутствующие в оригинальном треде прикрепил
***
MIT только что завершил первое исследование мозга пользователей ChatGPT с помощью сканирования, и результаты ужасающие.
https://arxiv.org/abs/2506.08872
Оказывается, ИИ не делает нас более продуктивными. Он делает нас когнитивно банкротами.
Вот что показали 4 месяца данных:
(подсказка: мы неправильно измеряли продуктивность)
83,3% пользователей ChatGPT не могли процитировать эссе, которые они написали несколько минут назад.
Пусть это до вас дойдет.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭1 1
Вы пишете что-то, нажимаете “сохранить”, и ваш мозг уже это забыл, потому что ChatGPT думал за вас.
Сканирование мозга выявило ущерб: нейронные связи сократились с 79 до всего лишь 42.
Это снижение на 47% в мозговой связности.
Если бы ваш компьютер потерял половину своей вычислительной мощности, вы бы сказали, что он сломан. Именно это происходит с мозгом пользователей ChatGPT.
Учителя не знали, в каких эссе использовался ИИ, но они чувствовали, что что-то не так.
“Бездушные.”
“Пустые по содержанию.”
“Близкие к совершенному языку, но не дающие личных инсайтов.”
Человеческий мозг может обнаружить когнитивный долг, даже когда не может его назвать.
Вот ужасающая часть: Когда исследователи заставили пользователей ChatGPT писать без ИИ, они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Это не просто зависимость. Это когнитивная атрофия.
Как мышца, которая забыла, как работать.
Команда MIT использовала ЭЭГ-сканирование мозга 54 участников в течение 4 месяцев.
Они отслеживали альфа-волны (творческая обработка), бета-волны (активное мышление) и паттерны нейронной связности.
Это не мнение. Это измеримое повреждение мозга от чрезмерного использования ИИ.
Парадокс продуктивности, о котором никто не говорит:
Да, ChatGPT делает вас на 60% быстрее в выполнении задач.
Но он снижает “соответствующую когнитивную нагрузку”, необходимую для реального обучения, на 32%.
Вы обмениваете долгосрочную мозговую способность на краткосрочную скорость.
Компании, празднующие прирост продуктивности от ИИ, неосознанно создают когнитивно более слабые команды.
Сотрудники становятся зависимыми от инструментов, без которых не могут жить, и менее способными к независимому мышлению.
Многие недавние исследования подчеркивают ту же проблему, включая исследование Microsoft:
https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf
Исследователи MIT называют это “когнитивным долгом” - как технический долг, но для вашего мозга.
Каждый ярлык, который вы используете с ИИ, создает процентные платежи в виде потерянной способности мышления.
И точно так же, как финансовый долг, счет в конце концов приходит.
Но есть хорошие новости…
Потому что 4-я сессия исследования выявила кое-что интересное:
Люди с сильными когнитивными основами показали БОЛЕЕ ВЫСОКУЮ нейронную связность при использовании ИИ, чем хронические пользователи.
Но хронические пользователи ИИ, вынужденные работать без него? Они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Решение не в том, чтобы запретить ИИ. Оно в том, чтобы использовать его стратегически.
Выбор за вами:
Накапливать когнитивный долг и стать зависимым от ИИ.
Или наращивать когнитивную силу и стать усилителем ИИ.
Первое исследование мозга пользователей ИИ с помощью сканирования только что показало нам ставки.
Выбирайте мудро.
***
P.s. перевод выполнен разумеется sonnet 4, я просто нажал скопировать. О чем тред я уже забыл.
Сканирование мозга выявило ущерб: нейронные связи сократились с 79 до всего лишь 42.
Это снижение на 47% в мозговой связности.
Если бы ваш компьютер потерял половину своей вычислительной мощности, вы бы сказали, что он сломан. Именно это происходит с мозгом пользователей ChatGPT.
Учителя не знали, в каких эссе использовался ИИ, но они чувствовали, что что-то не так.
“Бездушные.”
“Пустые по содержанию.”
“Близкие к совершенному языку, но не дающие личных инсайтов.”
Человеческий мозг может обнаружить когнитивный долг, даже когда не может его назвать.
Вот ужасающая часть: Когда исследователи заставили пользователей ChatGPT писать без ИИ, они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Это не просто зависимость. Это когнитивная атрофия.
Как мышца, которая забыла, как работать.
Команда MIT использовала ЭЭГ-сканирование мозга 54 участников в течение 4 месяцев.
Они отслеживали альфа-волны (творческая обработка), бета-волны (активное мышление) и паттерны нейронной связности.
Это не мнение. Это измеримое повреждение мозга от чрезмерного использования ИИ.
Парадокс продуктивности, о котором никто не говорит:
Да, ChatGPT делает вас на 60% быстрее в выполнении задач.
Но он снижает “соответствующую когнитивную нагрузку”, необходимую для реального обучения, на 32%.
Вы обмениваете долгосрочную мозговую способность на краткосрочную скорость.
Компании, празднующие прирост продуктивности от ИИ, неосознанно создают когнитивно более слабые команды.
Сотрудники становятся зависимыми от инструментов, без которых не могут жить, и менее способными к независимому мышлению.
Многие недавние исследования подчеркивают ту же проблему, включая исследование Microsoft:
https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf
Исследователи MIT называют это “когнитивным долгом” - как технический долг, но для вашего мозга.
Каждый ярлык, который вы используете с ИИ, создает процентные платежи в виде потерянной способности мышления.
И точно так же, как финансовый долг, счет в конце концов приходит.
Но есть хорошие новости…
Потому что 4-я сессия исследования выявила кое-что интересное:
Люди с сильными когнитивными основами показали БОЛЕЕ ВЫСОКУЮ нейронную связность при использовании ИИ, чем хронические пользователи.
Но хронические пользователи ИИ, вынужденные работать без него? Они показали худшие результаты, чем люди, которые никогда не использовали ИИ.
Решение не в том, чтобы запретить ИИ. Оно в том, чтобы использовать его стратегически.
Выбор за вами:
Накапливать когнитивный долг и стать зависимым от ИИ.
Или наращивать когнитивную силу и стать усилителем ИИ.
Первое исследование мозга пользователей ИИ с помощью сканирования только что показало нам ставки.
Выбирайте мудро.
***
🌭1
Майкрософт на глазах у всех пытается похоронить гитлаб?
По крайней мере таким предположением можно объяснить почему OpenAI Codex продолжает работать только с гитхабом👀
Но почему курсор поступает так же, с Майкрософт они вроде бы не очень дружат, но это не точно.
Может быть гитлаб сам виноват, в том что с ним сложно интегрироваться?
Тоже мимо – у них всегда был хороший api
Ваши соображения?
Я пока начинаю гитлаб заранее хоронить, если ситуация в ближайшие месяцы не поменяется –это просто выбор без выбора.
Могу пояснить позже почему (если это не очевидно.)
По крайней мере таким предположением можно объяснить почему OpenAI Codex продолжает работать только с гитхабом
Но почему курсор поступает так же, с Майкрософт они вроде бы не очень дружат, но это не точно.
Может быть гитлаб сам виноват, в том что с ним сложно интегрироваться?
Тоже мимо – у них всегда был хороший api
Ваши соображения?
Я пока начинаю гитлаб заранее хоронить, если ситуация в ближайшие месяцы не поменяется –это просто выбор без выбора.
Могу пояснить позже почему (если это не очевидно.)
Please open Telegram to view this post
VIEW IN TELEGRAM
Так все таки мышление письмом или печатанием, или...?
Я обещал рассказать о результатах моего "аналогового" мышления письмом примерно два месяца назад.
🤔 TLDR; Феноменальных преимуществ вообще нет!
Но как так то? Я решил немного углубиться. Не все так печально.
Записывая своими словами (не тупо переписывание!) по ходу изучения руководства по Рациональной Работе я естественным образом начал двигаться медленнее – слепая печать на клавиатуре намного быстрее чем писать от руки, по крайне мере в моем случае.
Важнее то, что я вообще не заметил качественных инсайтов – руководство разрывало мне мозги одинаково.
Потому что в нем используются рабочие техники обучения, о которых я написал чуть ниже.
Получается что результат скоре отрицательный – я замедлился в прохождении материалов многократно.
Итак! Главное просто писать свои мысли, мыслить письмом. Но как учиться еще лучше? Так чтобы прям мозги пухли от интеллекта?✏️
В аналоговых заметках все еще есть смысл, во-первых – посмотрите какой у меня офигительный блокнот из Австрии!
А во-вторых и без шуток – письмо от руки все таки активирует намного больше мозговых соединений в сравнении с довольно минимальной активностью при печатании (Frontiers in Psychology, 2023). Только дело не в активности, в смысле кол-в вспышек во время фиксирования информации на носителях.
К сожалению много учебных заведений (в СНГ уж точно) до сих пор заставляют тупо переписывать тексты. В ВУЗах кажется чт с этим чуть получше – там могут лекции читать очень быстро, и придется как то сокращать, у спевать. Но это не мышление письмо а стресс. Так что...
И ручка и клавиатура меркнут в сравнении с главными инсайтами из Learning Science, качественно обучать свою нейросеть в голове! А именно:
- Повторение через интервалы
- Активное воспроизведение из памяти (то есть не только сразу мыслим письмом, а попытаемся через какое то время без подглядок что-то припомнить и выразить в тексте)
- И чередование тем
Ровно то как составлены руководства, и то как я буду любое свое обучение по темам планировать дальше!
Ручка все еще круто работает как минимум для отдыха от экрана, брейнштормов, коротких и важных заметок, может быть планировании, прототипировании и других тезисных размылений.
Для глубокой проработки концепций и ворочания текстами — точно typing + spaced repetition в цифровом экзокортексе. Слишком много всего надо загружать в голову, фронтир очень быстро меняется, а отставать совершено неприемлемо.
Доп. источники почитать на выходные:
- Mueller & Oppenheimer 2014
- Nature Reviews Psychology 2022
Я обещал рассказать о результатах моего "аналогового" мышления письмом примерно два месяца назад.
Но как так то? Я решил немного углубиться. Не все так печально.
Записывая своими словами (не тупо переписывание!) по ходу изучения руководства по Рациональной Работе я естественным образом начал двигаться медленнее – слепая печать на клавиатуре намного быстрее чем писать от руки, по крайне мере в моем случае.
Важнее то, что я вообще не заметил качественных инсайтов – руководство разрывало мне мозги одинаково.
Получается что результат скоре отрицательный – я замедлился в прохождении материалов многократно.
Итак! Главное просто писать свои мысли, мыслить письмом. Но как учиться еще лучше? Так чтобы прям мозги пухли от интеллекта?
В аналоговых заметках все еще есть смысл, во-первых – посмотрите какой у меня офигительный блокнот из Австрии!
А во-вторых и без шуток – письмо от руки все таки активирует намного больше мозговых соединений в сравнении с довольно минимальной активностью при печатании (Frontiers in Psychology, 2023). Только дело не в активности, в смысле кол-в вспышек во время фиксирования информации на носителях.
К сожалению много учебных заведений (в СНГ уж точно) до сих пор заставляют тупо переписывать тексты. В ВУЗах кажется чт с этим чуть получше – там могут лекции читать очень быстро, и придется как то сокращать, у спевать. Но это не мышление письмо а стресс. Так что...
И ручка и клавиатура меркнут в сравнении с главными инсайтами из Learning Science, качественно обучать свою нейросеть в голове! А именно:
- Повторение через интервалы
- Активное воспроизведение из памяти (то есть не только сразу мыслим письмом, а попытаемся через какое то время без подглядок что-то припомнить и выразить в тексте)
- И чередование тем
Ровно то как составлены руководства, и то как я буду любое свое обучение по темам планировать дальше!
Ручка все еще круто работает как минимум для отдыха от экрана, брейнштормов, коротких и важных заметок, может быть планировании, прототипировании и других тезисных размылений.
Для глубокой проработки концепций и ворочания текстами — точно typing + spaced repetition в цифровом экзокортексе. Слишком много всего надо загружать в голову, фронтир очень быстро меняется, а отставать совершено неприемлемо.
Доп. источники почитать на выходные:
- Mueller & Oppenheimer 2014
- Nature Reviews Psychology 2022
Please open Telegram to view this post
VIEW IN TELEGRAM
AWS очень большая и сложная система. Я совершенно не удивлен в том что ребята настолько активно применяют формальные методы. Ну как иначе то делать и продавать 999999999? 😎
Скорее меня удивило встретить эту статью среди прочего низкосортного в одной рассылке:
https://cacm.acm.org/practice/systems-correctness-practices-at-amazon-web-services/
Там про то, как TLA+ оказался когнитивно слишком тяжелым, и AWS сделали свой язык P (у меня как то были знакомые которые на серьезных щах верили в то что под капотом весь AWS только на Питоне, Си и баше написан). Интересно что P теперь помогает не только на этапе просто дизайна спек, но и в продакшене через PObserve - они сгребают логи систем и проверяют что они соответствуют спекам!
И еще очень круто про continuous подход в фаззинг и хаос тестировании. При том последнее довольно агрессивное, сильнее чем я думал. Кроме того что AWS сам себя постоянно пытается сломать, у них есть Fault Injection Service который позволяет нам как клиентам в свою инфру запускать разных агрессивных обезьян🤬
Радует еще то что отдельно говорят о том что грустно это – низкая популярность формальных методов в индустрии из за сложности в понимании / обучению, но тут есть большие надежды на AI. Пока, правда, только надежды.
В статье больше подробностей в приближении и примеров, читайте!
Скорее меня удивило встретить эту статью среди прочего низкосортного в одной рассылке:
https://cacm.acm.org/practice/systems-correctness-practices-at-amazon-web-services/
Там про то, как TLA+ оказался когнитивно слишком тяжелым, и AWS сделали свой язык P (у меня как то были знакомые которые на серьезных щах верили в то что под капотом весь AWS только на Питоне, Си и баше написан). Интересно что P теперь помогает не только на этапе просто дизайна спек, но и в продакшене через PObserve - они сгребают логи систем и проверяют что они соответствуют спекам!
И еще очень круто про continuous подход в фаззинг и хаос тестировании. При том последнее довольно агрессивное, сильнее чем я думал. Кроме того что AWS сам себя постоянно пытается сломать, у них есть Fault Injection Service который позволяет нам как клиентам в свою инфру запускать разных агрессивных обезьян
Радует еще то что отдельно говорят о том что грустно это – низкая популярность формальных методов в индустрии из за сложности в понимании / обучению, но тут есть большие надежды на AI. Пока, правда, только надежды.
В статье больше подробностей в приближении и примеров, читайте!
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2 2
Правила созданы для того, чтобы их нарушать, слышали такое?
Не менее актуально это звучит в эпоху AI, скорее наоборот.
У кого-то одна только мысль о нарушении правил может вызвать сильное бурление из-за несостыковки представлений – “правила нарушать нельзя!!!”
На эту тему можно спекулировать слишком широко, но сегодня нас интересуют именно формальности в организации работы и ее методов. Это про всех – живых и неживых агентов.
Беда в том, что сам мой посыл уже ошибочен.
Пусть даже мы определим контекст еще более конкретным, например — организация работы в команде, которая разрабатывает AI-продукт.
Тут все еще недостаточно приближения для формализации. Ибо работа неотрывно связана с агентом, который ее выполняет, и его ролью.
Помимо функционального рассмотрения роли нас интересуют и другие «штуки». Например, какие у роли интересы и предпочтения? Что ей важно для работы, а что нет? Есть ли в ее методах работы опасность (нужно учесть все риски), и многое другое в зависимости от прикладной области.
Игра в онтологическое моделирование сложна, из простого в ней только одно — если начинаем играть, то играть надо хоть сколько-нибудь по-взрослому, в нескольких размерностях. Иначе ерунда.
Нахватавшись и напихав в головы несколько представлений, методов из популярных учебников, будь то Agile, DevOps или любых других модных и хороших практик, без детального объяснения того что мы делаем, как делаем, зачем, и кто и что именно должен делать, почему именно эти методы выбраны в компании, мы поедем… я не знаю куда, ну… куда-то! В лучшем случае это движение наощупь, в худшем – вообще непонятно куда.
Многих такая масштабность и сложность онтологического моделирования пугает — “Ууууух, блин, это сколько надо подумать и продумать! Да и вообще это вот щас гестапо правил будет, кошмар бюрократический, нам бы погибше да попроще быть”.
В смысле гибкости и сложности – все наоборот.
Любые формальные описания методов работы неизбежно подвергаются изменениям при всего лишь паре условий: • Есть кто-то (роль, агент) кто должен следить за исполнением методов и собирать метрики • Целью всего моделирования было не само моделирование, а благородная направленность на изменение качества и эффективности работы – применяем что намоделировалось.
Все это очень гибко и бурно меняется на начальных этапах, когда модель сырая и было собрано слишком мало фидбека от агентов-исполнителей — естественно, мы заинтересованы (должны быть) как можно быстрее нашу модель сделать удобной и понятной для всех. Иначе какой вообще смысл?
Понятность и прикладная применимость, полезность модели характеризуется ее разделяемостью — имеется в виду, что модель понятна и полезна разным агентам в разных ролях.
Ничего, кроме взрослого моделирования методов работы (особенно когда в процессы интегрируется AI – им так же детально нужно на символьных описаниях объяснять что делать и как), не даст нам настоящего буста в эффективности, скорости доставки и всего желанного прочего.
Верить, что можно затыкать дыры “гениями которые сами разберутся”, просто некорректно, потому что каждый такой “гений” все равно говорит на своем языке — на языке своего семантического общества (как минимум менеджер на менеджерском, а инженер на инженерном). И тут модель предприятия, онтология и набор методичек по работе как минимум поможет им заговорить на одном языке. Это уже очень много, в смысле эффективности.
Взрослая системная инженерия, формализация процессов/методов не просто не боится нарушений формальностей — она предвосхищает их и ставит на высокий пьедестал ценности как очень нужный и важный материал, потенциал, бесценную возможность улучшить саму модель путем ее уточнения (да хоть полного переделывания, если придется), тем самым улучшая как весь жизненный цикл предприятия, так циклы отдельных кусочков, и рабочий опыт вообще.
О да, думать придется дохрена, зато какой результат!
Не менее актуально это звучит в эпоху AI, скорее наоборот.
У кого-то одна только мысль о нарушении правил может вызвать сильное бурление из-за несостыковки представлений – “правила нарушать нельзя!!!”
На эту тему можно спекулировать слишком широко, но сегодня нас интересуют именно формальности в организации работы и ее методов. Это про всех – живых и неживых агентов.
Беда в том, что сам мой посыл уже ошибочен.
Пусть даже мы определим контекст еще более конкретным, например — организация работы в команде, которая разрабатывает AI-продукт.
Тут все еще недостаточно приближения для формализации. Ибо работа неотрывно связана с агентом, который ее выполняет, и его ролью.
Помимо функционального рассмотрения роли нас интересуют и другие «штуки». Например, какие у роли интересы и предпочтения? Что ей важно для работы, а что нет? Есть ли в ее методах работы опасность (нужно учесть все риски), и многое другое в зависимости от прикладной области.
Игра в онтологическое моделирование сложна, из простого в ней только одно — если начинаем играть, то играть надо хоть сколько-нибудь по-взрослому, в нескольких размерностях. Иначе ерунда.
Нахватавшись и напихав в головы несколько представлений, методов из популярных учебников, будь то Agile, DevOps или любых других модных и хороших практик, без детального объяснения того что мы делаем, как делаем, зачем, и кто и что именно должен делать, почему именно эти методы выбраны в компании, мы поедем… я не знаю куда, ну… куда-то! В лучшем случае это движение наощупь, в худшем – вообще непонятно куда.
Многих такая масштабность и сложность онтологического моделирования пугает — “Ууууух, блин, это сколько надо подумать и продумать! Да и вообще это вот щас гестапо правил будет, кошмар бюрократический, нам бы погибше да попроще быть”.
В смысле гибкости и сложности – все наоборот.
Любые формальные описания методов работы неизбежно подвергаются изменениям при всего лишь паре условий: • Есть кто-то (роль, агент) кто должен следить за исполнением методов и собирать метрики • Целью всего моделирования было не само моделирование, а благородная направленность на изменение качества и эффективности работы – применяем что намоделировалось.
Все это очень гибко и бурно меняется на начальных этапах, когда модель сырая и было собрано слишком мало фидбека от агентов-исполнителей — естественно, мы заинтересованы (должны быть) как можно быстрее нашу модель сделать удобной и понятной для всех. Иначе какой вообще смысл?
Понятность и прикладная применимость, полезность модели характеризуется ее разделяемостью — имеется в виду, что модель понятна и полезна разным агентам в разных ролях.
Ничего, кроме взрослого моделирования методов работы (особенно когда в процессы интегрируется AI – им так же детально нужно на символьных описаниях объяснять что делать и как), не даст нам настоящего буста в эффективности, скорости доставки и всего желанного прочего.
Верить, что можно затыкать дыры “гениями которые сами разберутся”, просто некорректно, потому что каждый такой “гений” все равно говорит на своем языке — на языке своего семантического общества (как минимум менеджер на менеджерском, а инженер на инженерном). И тут модель предприятия, онтология и набор методичек по работе как минимум поможет им заговорить на одном языке. Это уже очень много, в смысле эффективности.
Взрослая системная инженерия, формализация процессов/методов не просто не боится нарушений формальностей — она предвосхищает их и ставит на высокий пьедестал ценности как очень нужный и важный материал, потенциал, бесценную возможность улучшить саму модель путем ее уточнения (да хоть полного переделывания, если придется), тем самым улучшая как весь жизненный цикл предприятия, так циклы отдельных кусочков, и рабочий опыт вообще.
О да, думать придется дохрена, зато какой результат!
AWS тут в "бесплатно попробовать" выкатило свой VSCode с Sonnet 4.0...
https://kiro.dev/
Первые впечатления – фигня фигней. Нет ничего wow или нового, чего-то что не может легковестный и обожаемый claude code.
Буквально, "spec" мод, которым Kiro бахвалится, не отличается ни чем от того, если бы вы в claude code сказали – так, милок, давай напишем PRD вот на эту идею, мучай меня вопросами по кругу пока все не станет понятно.
Только Kiro не мучает вопросами – он предсказывает блоб текста и его приходится вычитывать, и после этого задавать уже кучу вопросов - крайне не удобно.
Что там еще "отличается", да ну... Agent Hooks какие-то сделали. История о том как потратить запросы по подписке (это сейчас kiro бесплатно можно попробовать, на странице прайсинга уже представлены уровни подписок с лимитами запросов per месяц) – выбираем триггер и пишем промпт который должен выполняться...
Ну, ТАКОЕ. claude code memory или рулы в курсоре работают примерно так же – "Всегда запускай линтер/тесты и бррбрр после измненеий в коде"
Пусть cursor у меня уже больше IDE и сайдкик для claude code, даже у него "вайб лучше" чем у kiro. Мертворожденное, в общем.
¯\_(ツ)_/¯
Впрочем и claude code и cursor без нескольких mcp серверов уже тоже представить сложно, расскажу о них когда нибудь потом 🙂
https://kiro.dev/
Первые впечатления – фигня фигней. Нет ничего wow или нового, чего-то что не может легковестный и обожаемый claude code.
Буквально, "spec" мод, которым Kiro бахвалится, не отличается ни чем от того, если бы вы в claude code сказали – так, милок, давай напишем PRD вот на эту идею, мучай меня вопросами по кругу пока все не станет понятно.
Только Kiro не мучает вопросами – он предсказывает блоб текста и его приходится вычитывать, и после этого задавать уже кучу вопросов - крайне не удобно.
Что там еще "отличается", да ну... Agent Hooks какие-то сделали. История о том как потратить запросы по подписке (это сейчас kiro бесплатно можно попробовать, на странице прайсинга уже представлены уровни подписок с лимитами запросов per месяц) – выбираем триггер и пишем промпт который должен выполняться...
Ну, ТАКОЕ. claude code memory или рулы в курсоре работают примерно так же – "Всегда запускай линтер/тесты и бррбрр после измненеий в коде"
Пусть cursor у меня уже больше IDE и сайдкик для claude code, даже у него "вайб лучше" чем у kiro. Мертворожденное, в общем.
¯\_(ツ)_/¯
Kiro
Kiro is an agentic IDE that helps you go from prototype to production with spec-driven development.