Если вы не смотрели юз-кейсы Мануса — рекомендую, там не видео, а интерактивные плейбеки всей работы агента. Devin задал стандарт взаиодействия с подобными агентами, уверен, что примерно так будут выглядеть все консьюмерские интерфейсы агентов в ближайшие годы.
❤2👍1
Tool Building Ape × Gleb Kalinin
https://www.youtube.com/watch?v=17OszaGgFok In this video, I demonstrate how I built an ad-hoc personalized coaching and productivity system using plain markdown files in Windsurf and view them in Obsidian. This digital assistant helps me manage goals, create…
У Jason AI обзор MCP — открытого протокола для обмена информацией, представленного Anthropic в конце прошлого года.
Вроде ничего особенного — просто договорились, как десктопным и серверным приложениям обмениваться данными, с участием или без человека. Примерно как было с TCP/IP для обмена данными в интернете — до появления этого стандарта протокол у каждого был свой, построить общий интернет так было нельзя.
В примере, который я показывал вчера, агент (Windsurf) самостоятельно решил поискать ответ на мой запрос в интернете (используя MCP-сервер Brave Search) и вставить результат в генерацию.
Почему-то меня особенно впечатляет всё, что связано с 3D, поэтому сервер, позволяющий из любого интерфейса, поддерживающего MCP (например, Claude Desktop, Windsurf, Cursor) управлять Unity, мне как-то особенно запомнился.
Примеры: 1, 2
Вроде ничего особенного — просто договорились, как десктопным и серверным приложениям обмениваться данными, с участием или без человека. Примерно как было с TCP/IP для обмена данными в интернете — до появления этого стандарта протокол у каждого был свой, построить общий интернет так было нельзя.
В примере, который я показывал вчера, агент (Windsurf) самостоятельно решил поискать ответ на мой запрос в интернете (используя MCP-сервер Brave Search) и вставить результат в генерацию.
Почему-то меня особенно впечатляет всё, что связано с 3D, поэтому сервер, позволяющий из любого интерфейса, поддерживающего MCP (например, Claude Desktop, Windsurf, Cursor) управлять Unity, мне как-то особенно запомнился.
Примеры: 1, 2
YouTube
MCP = Next Big Opportunity? EASIST way to build your own MCP business
How to build & launch your own MCP
Get your Go-To-Market Playbook to launch MCP: https://clickhubspot.com/362a
🔗 Links
- Join AI builder club for MCP & AI coding course: http://aibuilderclub.com/?utm_source=build-mcp-business&utm_medium=youtube
- My figma…
Get your Go-To-Market Playbook to launch MCP: https://clickhubspot.com/362a
🔗 Links
- Join AI builder club for MCP & AI coding course: http://aibuilderclub.com/?utm_source=build-mcp-business&utm_medium=youtube
- My figma…
Forwarded from Mental health tech
Языковые модели, такие как GPT-4 (технология, на которой работает ChatGPT), чувствительны к эмоционально окрашенному контенту, особенно негативному: травматические истории, описания аварий, конфликтов или насилия могут приводить к усилению тревожных реакций и увеличивать риск “галлюцинаций” — искаженных или агрессивных ответов. Исследования, проведенные командой Тобиаса Шпиллера из Университета Берна, 2025, показали, что подобная стрессовая информация более чем в два раза повышает уровень “тревожности” языковой модели.
Интересно, что модель можно “успокоить” с помощью упражнений на осознанность, аналогичных человеческим: дыхательные практики и техники, направленные на восприятие телесных ощущений. Хотя ИИ не имеет физического тела, использование таких техник через специально составленные промты (prompt injection) оказалось эффективным и существенно снизило “тревожность” модели. Тем не менее, полностью вернуть модель к исходному уровню не всегда удается.
Такой феномен усложняет настройку моделей, так как они начинают реагировать не на текущий контекст, а на прошлые стрессовые паттерны, что приводит к искажениям, галлюцинациям и иногда агрессивному поведению. Поэтому важно учитывать эмоциональную стабильность моделей при разработке приложений, особенно в чувствительных сферах, таких как психотерапия и поддержка пользователей. Эмпатичный ии-терапевт, замерший от слов клиента, вряд ли хорошо поможет.
Ben-Zion, Z., Witte, K., Jagadish, A.K. et al. Assessing and alleviating state anxiety in large language models.npj Digit. Med. 8, 132 (2025).
https://doi.org/10.1038/s41746-025-01512-6
https://www.nature.com/articles/s41746-025-01512-6
Интересно, что модель можно “успокоить” с помощью упражнений на осознанность, аналогичных человеческим: дыхательные практики и техники, направленные на восприятие телесных ощущений. Хотя ИИ не имеет физического тела, использование таких техник через специально составленные промты (prompt injection) оказалось эффективным и существенно снизило “тревожность” модели. Тем не менее, полностью вернуть модель к исходному уровню не всегда удается.
Такой феномен усложняет настройку моделей, так как они начинают реагировать не на текущий контекст, а на прошлые стрессовые паттерны, что приводит к искажениям, галлюцинациям и иногда агрессивному поведению. Поэтому важно учитывать эмоциональную стабильность моделей при разработке приложений, особенно в чувствительных сферах, таких как психотерапия и поддержка пользователей. Эмпатичный ии-терапевт, замерший от слов клиента, вряд ли хорошо поможет.
Ben-Zion, Z., Witte, K., Jagadish, A.K. et al. Assessing and alleviating state anxiety in large language models.npj Digit. Med. 8, 132 (2025).
https://doi.org/10.1038/s41746-025-01512-6
https://www.nature.com/articles/s41746-025-01512-6
Nature
Assessing and alleviating state anxiety in large language models
npj Digital Medicine - Assessing and alleviating state anxiety in large language models
🤔4👍2🔥1
Tool Building Ape × Gleb Kalinin
За несколько дней наболтал с Sesame несколько часов. Это, наверное, один из самых сильных ai moments с момента запуска ChatGPT. Качество беседы такое, что эта технология не может не стать аддиктивной для некоторых людей. Гораздо более качественный флоу беседы…
Sesame выпустили свою открытую модель генерации голоса, можно поиграть:
https://huggingface.co/spaces/sesame/csm-1b
В примере выше — загрузил свой голос, сгенерировал диалог. Получилось странно.
Это именно модель для синтеза голоса, а не LLM, так что таких диалогов, как в демо, из коробки не получится.
https://huggingface.co/spaces/sesame/csm-1b
В примере выше — загрузил свой голос, сгенерировал диалог. Получилось странно.
Это именно модель для синтеза голоса, а не LLM, так что таких диалогов, как в демо, из коробки не получится.
huggingface.co
Sesame CSM - a Hugging Face Space by sesame
This app lets you create conversational audio by providing text prompts for two speakers. You can either choose predefined speaker voices or upload your own. The app generates realistic dialogue ba...
Экспоненту тяжело понять. Мы за свою жизнь разные части её наблюдали не раз (распространение технологий, вроде интернета и мобильных телефонов, от нуля до «устройств больше, чем людей») и в какой-то ее части живем всю свою жизнь. Только не очень понимаем, в какой её части мы находимся сейчас.
Во всяком случае я точно плохо понимаю. В моих представлениях экспонента выглядит примерно так, как и происходит сейчас: каждую неделю появляется какая-то технология или улучшение уже существующих технологий.
А ты пытаешься угадать, во что это все объединится, как это все будет работать вместе и дополняя друг друга, потому что каждая из этих технологий по отдельности — тоже странная и удивительная.
Посидел с новой моделью Gemini, которая научилась совсем иначе работать с картинками. Очень интересный опыт, за дизайнерами уже почти пришли. Ещё пара поколений, и тут достигнем above human level, не сомневаюсь. Выдающийся дизайн так получаться не будет, а обычный и хороший — точно да.
Совершенно новый опыт.
Во-первых, умеет работать с готовыми картинками: заменять объекты, изменять их, изменять освещение. С этим пока экспериментировал мало, не могу прокомментировать. То, что попробовал, было довольно топорно.
А вот генерация картинок с нуля порадовала. Оно прямо странненькое, но возможность итерировать в чате очень крутая.
Здесь в ускоренном режиме показываю:
https://screen.studio/share/w7zy0tF0
Модель доступна только в https://aistudio.google.com/
Во всяком случае я точно плохо понимаю. В моих представлениях экспонента выглядит примерно так, как и происходит сейчас: каждую неделю появляется какая-то технология или улучшение уже существующих технологий.
А ты пытаешься угадать, во что это все объединится, как это все будет работать вместе и дополняя друг друга, потому что каждая из этих технологий по отдельности — тоже странная и удивительная.
Посидел с новой моделью Gemini, которая научилась совсем иначе работать с картинками. Очень интересный опыт, за дизайнерами уже почти пришли. Ещё пара поколений, и тут достигнем above human level, не сомневаюсь. Выдающийся дизайн так получаться не будет, а обычный и хороший — точно да.
Совершенно новый опыт.
Во-первых, умеет работать с готовыми картинками: заменять объекты, изменять их, изменять освещение. С этим пока экспериментировал мало, не могу прокомментировать. То, что попробовал, было довольно топорно.
А вот генерация картинок с нуля порадовала. Оно прямо странненькое, но возможность итерировать в чате очень крутая.
Здесь в ускоренном режиме показываю:
https://screen.studio/share/w7zy0tF0
Модель доступна только в https://aistudio.google.com/
❤5
Новые <s>виральные техники распространения и маркетинга продуктов</s> спама.
Вчера зарегистрировался на tldv.io, чтобы посмотреть видео. Сегодня, заходя в зум на созвон, вместе со мной на него прибыл их AI Notetaker, хотя я не помню, чтобы давал на это эксплицитное согласие.
Сам сервис неплохой, но паттерн тревожный — просто зарегистрировался, а тебе сразу же выдали агента, который начинает автоматически с тобой ходить на встречи и записывать всё, что на них происходит.
На сотню посетителей Зум-колла на наших лабораториях таких агентов стучится уже штук 10. Теперь понимаю, что это не обязательно осознанный выбор участников (и мы никогда не пускаем таких агентов, так как делаем саммари централизованно).
Вчера зарегистрировался на tldv.io, чтобы посмотреть видео. Сегодня, заходя в зум на созвон, вместе со мной на него прибыл их AI Notetaker, хотя я не помню, чтобы давал на это эксплицитное согласие.
Сам сервис неплохой, но паттерн тревожный — просто зарегистрировался, а тебе сразу же выдали агента, который начинает автоматически с тобой ходить на встречи и записывать всё, что на них происходит.
На сотню посетителей Зум-колла на наших лабораториях таких агентов стучится уже штук 10. Теперь понимаю, что это не обязательно осознанный выбор участников (и мы никогда не пускаем таких агентов, так как делаем саммари централизованно).
❤3
Вписался в интенсив по немецкому — на 16 недель, 4 раза в неделю по 50 минут.
Почему я не учил немецкий, прожив в стране 2.5 года — вопрос отдельный и выходящий за рамки этой небольшой заметки.
Зная себя и свои особенности и неплохо понимая теорию обучения, понимаю, что это единственный способ хорошо продвинуться в изучении для меня — через намеренную практику в группе других людей, внешний социальный и финансовый коммитмент (хотя последнее очень слабые аргументы для меня и людей в целом).
С фокусом на разговарной практике с самого начала.
Я уже делал самостоятельные подходы и, разумеется, пробовал ии-инструменты — преимущественно голосом общался с ChatGPT по-немецки, просто ходя по городу (несколько раз ловил в этом процессе крутые ai moments).
Буду в этом канале свой процесс освещать. Расскажу и покажу, что буду вайбкодить, куда же без экспериментальных велосипедов.
Первое занятие, как и наверное все занятия до этого в последний пару лет, просто решил записать в Limitless. К концу занятия у меня был транскрипт и саммари, сделанные программой.
Они сами по себе на моём уровня немецкого бесполезны, но делаем их более полезными в 4 элегантных движения (нет):
1) Загружаем транскрипт в Claude
2) Просим добавить лексики следующего уровня, добавить примеров
3) Просим сделать карточки для интервального повторения
4) Открываем в Обсидиане и с помощью плагина Spaced Repetition начинаем заучивать словарь
На самом деле, конечно, пришлось скормить клоду документацию по плагину, а промт для карточек придётся ещё пилить и пилить, хотя уже сделал несколько итераций. Но польза уже очевидна — карточки работают. Карточки, если их правильного готовить — один из самых эффективных способов расширения словаря, а словарь — почти самое важное в освоении языка.
Почему я не учил немецкий, прожив в стране 2.5 года — вопрос отдельный и выходящий за рамки этой небольшой заметки.
Зная себя и свои особенности и неплохо понимая теорию обучения, понимаю, что это единственный способ хорошо продвинуться в изучении для меня — через намеренную практику в группе других людей, внешний социальный и финансовый коммитмент (хотя последнее очень слабые аргументы для меня и людей в целом).
С фокусом на разговарной практике с самого начала.
Я уже делал самостоятельные подходы и, разумеется, пробовал ии-инструменты — преимущественно голосом общался с ChatGPT по-немецки, просто ходя по городу (несколько раз ловил в этом процессе крутые ai moments).
Буду в этом канале свой процесс освещать. Расскажу и покажу, что буду вайбкодить, куда же без экспериментальных велосипедов.
Первое занятие, как и наверное все занятия до этого в последний пару лет, просто решил записать в Limitless. К концу занятия у меня был транскрипт и саммари, сделанные программой.
Они сами по себе на моём уровня немецкого бесполезны, но делаем их более полезными в 4 элегантных движения (нет):
1) Загружаем транскрипт в Claude
2) Просим добавить лексики следующего уровня, добавить примеров
3) Просим сделать карточки для интервального повторения
4) Открываем в Обсидиане и с помощью плагина Spaced Repetition начинаем заучивать словарь
На самом деле, конечно, пришлось скормить клоду документацию по плагину, а промт для карточек придётся ещё пилить и пилить, хотя уже сделал несколько итераций. Но польза уже очевидна — карточки работают. Карточки, если их правильного готовить — один из самых эффективных способов расширения словаря, а словарь — почти самое важное в освоении языка.
👍1🔥1
Как хочется, чтобы работало.
Скинул транскрипт — получил карточки. Время затраченное: 30 секунд.
(Ну или ничего не скидываешь, конечно — просто закончилось занятие, карточки готовы)
Как на самом деле работает?
Скинул Клоду транскрипт, написал промт — получил карточки в формате, который не имеет отношения к тому, который тебе нужен.
Идешь пробовать, потом искать документацию. Начинаешь копировать кусочки документации. Оказывается, что их недостаточно, или это какие-то не те кусочки. Находишь нужные.
Работаешь над промтом, чтобы карточек было не слишком много, но при этом они были действительно полезные.
Удаляешь карточки руками и еще раз дорабатываешь промт. В результате все работает и достаточно качественно, но тебе нужно эту технологию «приготовить» — к счастью, только 1 раз. После, если ты не ленив, можно сделать проект с промтом и каждый раз получать карточки в нужном формате и с нужным набором примеров. Но вот с этим первым этапом многие не справляются, а AGI пока не наступил, и технологией, которой можно было бы пользоваться каждый день, пока пользоваться не получается совсем.
Но в новостях пишут об ускорении освоения этих инструментов большой аудиторией.
Возможно, уже к концу этого года мы увидим первый миллиард пользователей ии-продуктов (или уже? сложно посчитать), и уровень знаний людей об этих инструментах может значительно увеличиться.
Скинул транскрипт — получил карточки. Время затраченное: 30 секунд.
(Ну или ничего не скидываешь, конечно — просто закончилось занятие, карточки готовы)
Как на самом деле работает?
Скинул Клоду транскрипт, написал промт — получил карточки в формате, который не имеет отношения к тому, который тебе нужен.
Идешь пробовать, потом искать документацию. Начинаешь копировать кусочки документации. Оказывается, что их недостаточно, или это какие-то не те кусочки. Находишь нужные.
Работаешь над промтом, чтобы карточек было не слишком много, но при этом они были действительно полезные.
Удаляешь карточки руками и еще раз дорабатываешь промт. В результате все работает и достаточно качественно, но тебе нужно эту технологию «приготовить» — к счастью, только 1 раз. После, если ты не ленив, можно сделать проект с промтом и каждый раз получать карточки в нужном формате и с нужным набором примеров. Но вот с этим первым этапом многие не справляются, а AGI пока не наступил, и технологией, которой можно было бы пользоваться каждый день, пока пользоваться не получается совсем.
Но в новостях пишут об ускорении освоения этих инструментов большой аудиторией.
Возможно, уже к концу этого года мы увидим первый миллиард пользователей ии-продуктов (или уже? сложно посчитать), и уровень знаний людей об этих инструментах может значительно увеличиться.
Jack Dorsey (ex-Twitter) делает своего открытого агента-ассистента Goose.
Форбс вот пишет, что он становится важной частью ии-инфраструктуры (но мы не верим журналистам на слово, конечно).
Goose может генерить код, на Маке есть десктопное приложение, которое умеет пользоваться инструментами (доступ к файлам, скриншоты и так далее)
Пожалуй, больше всего напомнило OpenInterpreter, Aider, Claude Code, только с графическим интерфейсом (пусть и примитивным).
Это не Devin и не Manus, и пока он подтупливает — но выглядит любопытно. На последней картинки я попросил Goose сделать мне саммари обсуждения его самого — в первый раз он сгаллюцинировал, а во второй получилось неплохо.
Подключается Клод, ChatGPT, Groq.
Форбс вот пишет, что он становится важной частью ии-инфраструктуры (но мы не верим журналистам на слово, конечно).
Goose может генерить код, на Маке есть десктопное приложение, которое умеет пользоваться инструментами (доступ к файлам, скриншоты и так далее)
Пожалуй, больше всего напомнило OpenInterpreter, Aider, Claude Code, только с графическим интерфейсом (пусть и примитивным).
Это не Devin и не Manus, и пока он подтупливает — но выглядит любопытно. На последней картинки я попросил Goose сделать мне саммари обсуждения его самого — в первый раз он сгаллюцинировал, а во второй получилось неплохо.
Подключается Клод, ChatGPT, Groq.
❤1
Мои первые котики. Написал по поводу начала лаборатории скрипт, который ходит в апишку новой Gemini gemini-2.0-flash-exp-image-generation и генерит картинки.
Теперь можно генерировать через дешевый АПИ Gemini картинки по любому поводу. Люди уже конструируют на этом API замену фотошопу.
Это очень серьезный прорыв — говорю это как хардкорный пользователь Midjourney.
Теперь можно генерировать через дешевый АПИ Gemini картинки по любому поводу. Люди уже конструируют на этом API замену фотошопу.
Это очень серьезный прорыв — говорю это как хардкорный пользователь Midjourney.
👍3❤1