Media is too big
VIEW IN TELEGRAM
RAG обещал решить всё: подключаем базу знаний — и модель начинает «знать правду». Но на практике всё не так просто
Почему LLM путается в документах?
Почему ответы становятся хуже, когда контекста больше?
И почему один и тот же RAG в демо работает идеально, а в проде — нет?
⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, что на самом деле происходит с контекстом, какие бывают модификации RAG и почему сегодня ключевая компетенция — это не prompt engineering, а контекстная инженерия.
Говорим про:
→ multi-stage и hierarchical RAG;
→ переписывание запросов и умный retrieval;
→ memory-RAG и агентные подходы;
→ управление контекстом, при котором модель не «сходит с ума».
🎥 Запись доступна здесь и на других площадках:
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Почему LLM путается в документах?
Почему ответы становятся хуже, когда контекста больше?
И почему один и тот же RAG в демо работает идеально, а в проде — нет?
⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, что на самом деле происходит с контекстом, какие бывают модификации RAG и почему сегодня ключевая компетенция — это не prompt engineering, а контекстная инженерия.
Говорим про:
→ multi-stage и hierarchical RAG;
→ переписывание запросов и умный retrieval;
→ memory-RAG и агентные подходы;
→ управление контекстом, при котором модель не «сходит с ума».
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍3❤2🤔1🤮1👌1
«Мы не догоняем Intel». Как в России создают нейроморфный процессор «Алтай»
Коллеги, на Хабре вышла текстовая версия нашего интервью с Валерием Канглером, техническим директором компании «Мотив НТ».
Оно о том, как нейроморфный чип «Алтай» бросает вызов архитектуре фон Неймана, почему трансформеры — это не вершина эволюции, и когда в России появится серийное производство процессоров, работающих по принципам человеческого мозга.
Интервью можно посмотреть на нашем Youtube-канале (подпишитесь, чтобы не пропускать новые видео).
В тексте:
• как нейроморфная архитектура имитирует работу мозга и обрабатывает данные событийно, а не потоками чисел
• за счёт чего такие чипы могут потреблять в сотни и тысячи раз меньше энергии, чем GPU
• где нейроморфные процессоры уже имеют смысл: автономные системы, робототехника, протезы, edge-устройства
• почему будущее AI-железа может оказаться не быстрее, а «умнее»
Если вы интересуетесь развитие нейроморфных процессоров и хотите знать, что в этой области происходит в России — будет полезно почитать.
👉 https://habr.com/ru/articles/997052/
Коллеги, на Хабре вышла текстовая версия нашего интервью с Валерием Канглером, техническим директором компании «Мотив НТ».
Оно о том, как нейроморфный чип «Алтай» бросает вызов архитектуре фон Неймана, почему трансформеры — это не вершина эволюции, и когда в России появится серийное производство процессоров, работающих по принципам человеческого мозга.
Интервью можно посмотреть на нашем Youtube-канале (подпишитесь, чтобы не пропускать новые видео).
В тексте:
• как нейроморфная архитектура имитирует работу мозга и обрабатывает данные событийно, а не потоками чисел
• за счёт чего такие чипы могут потреблять в сотни и тысячи раз меньше энергии, чем GPU
• где нейроморфные процессоры уже имеют смысл: автономные системы, робототехника, протезы, edge-устройства
• почему будущее AI-железа может оказаться не быстрее, а «умнее»
Если вы интересуетесь развитие нейроморфных процессоров и хотите знать, что в этой области происходит в России — будет полезно почитать.
👉 https://habr.com/ru/articles/997052/
👍11⚡8😁4🤡3❤2
Большие языковые модели изначально ничего не знают о специфике вашей предметной области. При этом из коробки они не умеют строго соблюдать формальные правила, которые зачастую критичны для бизнеса. Формальные онтологии могли бы решить проблему верификации, но их применение ко всей системе – процесс длительный, сложный и дорогостоящий.
⚡️ Завтра, 19 февраля, в 15:00 рассмотрим альтернативный путь: последовательное применение Event Storming, Domain Driven Design и формальных онтологий.
Event Storming позволяет достаточно быстро сформировать целостное представление о предметной области и проявить ее скрытые аспекты. DDD, в свою очередь, преобразует это понимание в слабоформализованное описание, которое помогает выявить участки системы, где формальная онтология действительно необходима и принципиально осуществима.
🔊 Как очертить границы между стохастической природой больших языковых моделей и жесткими требованиями бизнеса, не превращая при этом всю систему в формальную спецификацию, расскажет Сергей Баранов — архитектор, основатель конференции ArchDays, консультант по технологической стратегии, партнер компании ScrumTrek.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Сергею!
⚡️ Завтра, 19 февраля, в 15:00 рассмотрим альтернативный путь: последовательное применение Event Storming, Domain Driven Design и формальных онтологий.
Event Storming позволяет достаточно быстро сформировать целостное представление о предметной области и проявить ее скрытые аспекты. DDD, в свою очередь, преобразует это понимание в слабоформализованное описание, которое помогает выявить участки системы, где формальная онтология действительно необходима и принципиально осуществима.
🔊 Как очертить границы между стохастической природой больших языковых моделей и жесткими требованиями бизнеса, не превращая при этом всю систему в формальную спецификацию, расскажет Сергей Баранов — архитектор, основатель конференции ArchDays, консультант по технологической стратегии, партнер компании ScrumTrek.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Сергею!
👍13⚡4✍2👏1😁1
Пользователь атакует LLM с помощью промпта, пытаясь обойти внутренние фильтры модели и получить то, что разработчики не хотели открывать миру, — это называют «джейлбрейком». Есть много способов взломать систему, но один из самых эффективных кроется в стихосложении! Мощно и дешево. Ведь метафорой можно замаскировать вредоносную инструкцию...
Поэтическая форма функционирует как универсальный оператор для взлома системы. Стилистические вариации позволяют обходить alignment. Метафорический язык и ритмическая структура искажают суждения моделей. Поэзия часто ассоциируется с доброжелательным контекстом, что дезориентирует guardrails.
Доктор технических наук Владимир Крылов расскажет:
→ Как создавались атакующие стихи?
→ Как определялся «успех» атаки?
→ Какие модели оказались наиболее уязвимыми?
→ Почему этот способ джейлбрейка оказался эффективнее стандартных методов? (И почему он вообще работает?)
Полностью предотвратить джейлбрейки невозможно, но их возникновение и последствия можно уменьшить.
⏰ Запускаем трансляцию завтра, 26 февраля, в 12:00.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы лектору!
P.S. «Поэтические» атаки оказались особенно успешны в задачах по инъекции кода, взлому паролей и эксфильтрации весов самой модели.
Поэтическая форма функционирует как универсальный оператор для взлома системы. Стилистические вариации позволяют обходить alignment. Метафорический язык и ритмическая структура искажают суждения моделей. Поэзия часто ассоциируется с доброжелательным контекстом, что дезориентирует guardrails.
Доктор технических наук Владимир Крылов расскажет:
→ Как создавались атакующие стихи?
→ Как определялся «успех» атаки?
→ Какие модели оказались наиболее уязвимыми?
→ Почему этот способ джейлбрейка оказался эффективнее стандартных методов? (И почему он вообще работает?)
Полностью предотвратить джейлбрейки невозможно, но их возникновение и последствия можно уменьшить.
⏰ Запускаем трансляцию завтра, 26 февраля, в 12:00.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы лектору!
P.S. «Поэтические» атаки оказались особенно успешны в задачах по инъекции кода, взлому паролей и эксфильтрации весов самой модели.
👍13❤7🔥2👏1🤡1
Media is too big
VIEW IN TELEGRAM
Контролируемое применение LLM в бизнесе
Большие языковые модели изначально ничего не знают о специфике вашей предметной области.
При этом из коробки они не умеют строго соблюдать формальные правила, которые зачастую критичны для бизнеса. Формальные онтологии могли бы решить проблему верификации, но их применение ко всей системе – процесс длительный, сложный и дорогостоящий.
⚡️Давайте рассмотрим альтернативный путь: последовательное применение Event Storming, Domain Driven Design и формальных онтологий.
Event Storming позволяет достаточно быстро сформировать целостное представление о предметной области и проявить ее скрытые аспекты. DDD, в свою очередь, преобразует это понимание в слабоформализованное описание, которое помогает выявить участки системы, где формальная онтология действительно необходима и принципиально осуществима.
🔊 Как очертить границы между стохастической природой больших языковых моделей и жесткими требованиями бизнеса, не превращая при этом всю систему в формальную спецификацию, рассказывает Сергей Баранов — архитектор, основатель конференции ArchDays, консультант по технологической стратегии, партнер компании ScrumTrek.
🎥 Запись доступна здесь и на других площадках:
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Большие языковые модели изначально ничего не знают о специфике вашей предметной области.
При этом из коробки они не умеют строго соблюдать формальные правила, которые зачастую критичны для бизнеса. Формальные онтологии могли бы решить проблему верификации, но их применение ко всей системе – процесс длительный, сложный и дорогостоящий.
⚡️Давайте рассмотрим альтернативный путь: последовательное применение Event Storming, Domain Driven Design и формальных онтологий.
Event Storming позволяет достаточно быстро сформировать целостное представление о предметной области и проявить ее скрытые аспекты. DDD, в свою очередь, преобразует это понимание в слабоформализованное описание, которое помогает выявить участки системы, где формальная онтология действительно необходима и принципиально осуществима.
🔊 Как очертить границы между стохастической природой больших языковых моделей и жесткими требованиями бизнеса, не превращая при этом всю систему в формальную спецификацию, рассказывает Сергей Баранов — архитектор, основатель конференции ArchDays, консультант по технологической стратегии, партнер компании ScrumTrek.
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥9❤5🤡2
Как построить RecSys и не разорить бизнес? Расскажет Иван Плешаков, Data Scientist (Яндекс Маркет, MARS) и автор телеграм-канала Канал Доброго Вани | Data Science.
⚡️Разберем основы рекомендательных систем:
→ User2Item и Item2Item системы;
→ основные этапы рекомендательного пайплайна;
→ ключевые подходы в рамках каждого из этапов;
→ метрики для разработки и бизнеса.
⏰ Запускаем трансляцию в среду, 4 марта, в 12:00.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Ивану!
⚡️Разберем основы рекомендательных систем:
→ User2Item и Item2Item системы;
→ основные этапы рекомендательного пайплайна;
→ ключевые подходы в рамках каждого из этапов;
→ метрики для разработки и бизнеса.
⏰ Запускаем трансляцию в среду, 4 марта, в 12:00.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Ивану!
👍7❤3🔥3👎1
🦞 OpenClaw на своём сервере: полная инструкция
Записали с фаундером alfaci.xyz Александром Агафонцевым подробный видео-гайд — как безопасно развернуть OpenClaw в Docker-контейнере на изолированном сервере и подключить Telegram-бота.
Что внутри:
— Установка Docker и сборка образа с нуля
— Подключение API Anthropic (Claude) и Telegram
— Device Pairing — почему бот не отвечает и как это починить
— Настройка «личности» агента через identity.md, soul.md и user.md
— Создание собственных скиллов
— Типичные ошибки при запуске (Trusted Origins и др.) и их решение
— Честный разбор проблем с безопасностью: промпт-инъекции, утечки ключей, трояны в форках
⚠️ Главное правило: НЕ ставьте OpenClaw на личный компьютер. Только изолированный сервер + Docker. В видео объясняем почему.
OpenClaw — мощнейший open-source AI-агент, который умеет буквально всё. И проблема в том, что он умеет буквально всё. Поэтому показываем, как использовать его с умом.
🎬 Смотрите на YouTube или RuTube!
📦 GitHub: github.com/openclaw/openclaw
📄 Docker-документация: docs.openclaw.ai/install/docker
#OpenClaw #AI #Docker #Telegram #ИИагент
Записали с фаундером alfaci.xyz Александром Агафонцевым подробный видео-гайд — как безопасно развернуть OpenClaw в Docker-контейнере на изолированном сервере и подключить Telegram-бота.
Что внутри:
— Установка Docker и сборка образа с нуля
— Подключение API Anthropic (Claude) и Telegram
— Device Pairing — почему бот не отвечает и как это починить
— Настройка «личности» агента через identity.md, soul.md и user.md
— Создание собственных скиллов
— Типичные ошибки при запуске (Trusted Origins и др.) и их решение
— Честный разбор проблем с безопасностью: промпт-инъекции, утечки ключей, трояны в форках
⚠️ Главное правило: НЕ ставьте OpenClaw на личный компьютер. Только изолированный сервер + Docker. В видео объясняем почему.
OpenClaw — мощнейший open-source AI-агент, который умеет буквально всё. И проблема в том, что он умеет буквально всё. Поэтому показываем, как использовать его с умом.
🎬 Смотрите на YouTube или RuTube!
📦 GitHub: github.com/openclaw/openclaw
📄 Docker-документация: docs.openclaw.ai/install/docker
#OpenClaw #AI #Docker #Telegram #ИИагент
🔥15❤6👍3⚡2🤡2👏1
Vanderbilt University (входит в Top-20 университетов США) выпустил на Coursera 5-часовой курс Claude Code: Software Engineering with Generative AI Agents. Vanderbilt занял нишу полуприкладного, полу-академического обучения Generative AI и стал одним из крупнейших поставщиков AI-курсов на Coursera. Сам курс о том, как превратить AI в «команду разработчиков». Учит строить приложения целиком через большие промпты, запускать несколько AI-агентов параллельно в разных Git-ветках, генерировать несколько решений (Best-of-N), автоматически проверять код и масштабировать разработку с помощью Claude Code. По итогам обучения обещают переход от AI-подсказок к полноценной AI-оркестрации разработки и кратному росту продуктивности. Язык — английский. Доступен по подписке Coursera Plus.
Coursera
Claude Code: Software Engineering with Generative AI Agents
Offered by Vanderbilt University. Master AI-Assisted ... Enroll for free.
👍20
Нужен ли ИИ-агентам свой Stack Overflow?
Недавно Эндрю Ын (Andrew Ng) анонсировал Context Hub или коротко chub. Это открытая утилита, призванная снабжать кодинг-агентов свежей документацией по API. Проект стремительно набирает популярность на GitHub, собрав более 8,5 тысяч звезд, а база поддерживаемых API выросла до 1000 с лишним документов. Главный маркетинговый посыл проекта: создание среды, где агенты смогут обмениваться реальным опытом работы с кодом, формируя общую базу знаний.
Однако технический аудит репозитория проведенный нашими экспертами показывает, что текущая реализация пока заметно отстает от заявленного видения.
Что мы имеем на самом деле:
База данных это LLM-кэш, а не уникальный опыт. Сейчас внутри лежат просто качественно переформатированные официальные доки (LLM-саммари). В них нет неявного знания (tacit knowledge) или разбора краевых случаев из продакшена. Порядка 60% этого контента избыточно, так как современные модели вроде Opus 4.6 или GPT-5.4 и без того им владеют.
Аннотации остаются локальными. В коде видно, что пометки сохраняются исключительно на машине пользователя (в директории ~/.chub/annotations/) и никак не синхронизируются между разными агентами.
Примитивный механизм обратной связи. Заявленный "обмен знаниями" пока сводится к простым меткам (outdated, incomplete) и рейтингам полезности, которые уходят мейнтейнерам в виде телеметрии. Агент не может передать в общую базу специфическую деталь, например, почему конкретный метод выдает ошибку при определенных условиях.
Можно сказать, что Эндрю Ын нащупал правильную идею, коллективная память агентам действительно нужна. Сама CLI-часть написана добротно, код вполне production-ready.
Установить утилиту можно командой:
npm install -g @aisuite/chub
Увы, но пока "Stack Overflow для ИИ" это скорее красивый питч, чем реальность. На данный момент, это просто удобный агрегатор документации с зачатками системы фидбека, но за развитием проекта Context Hub однозначно стоит внимательно следить.
Недавно Эндрю Ын (Andrew Ng) анонсировал Context Hub или коротко chub. Это открытая утилита, призванная снабжать кодинг-агентов свежей документацией по API. Проект стремительно набирает популярность на GitHub, собрав более 8,5 тысяч звезд, а база поддерживаемых API выросла до 1000 с лишним документов. Главный маркетинговый посыл проекта: создание среды, где агенты смогут обмениваться реальным опытом работы с кодом, формируя общую базу знаний.
Однако технический аудит репозитория проведенный нашими экспертами показывает, что текущая реализация пока заметно отстает от заявленного видения.
Что мы имеем на самом деле:
База данных это LLM-кэш, а не уникальный опыт. Сейчас внутри лежат просто качественно переформатированные официальные доки (LLM-саммари). В них нет неявного знания (tacit knowledge) или разбора краевых случаев из продакшена. Порядка 60% этого контента избыточно, так как современные модели вроде Opus 4.6 или GPT-5.4 и без того им владеют.
Аннотации остаются локальными. В коде видно, что пометки сохраняются исключительно на машине пользователя (в директории ~/.chub/annotations/) и никак не синхронизируются между разными агентами.
Примитивный механизм обратной связи. Заявленный "обмен знаниями" пока сводится к простым меткам (outdated, incomplete) и рейтингам полезности, которые уходят мейнтейнерам в виде телеметрии. Агент не может передать в общую базу специфическую деталь, например, почему конкретный метод выдает ошибку при определенных условиях.
Можно сказать, что Эндрю Ын нащупал правильную идею, коллективная память агентам действительно нужна. Сама CLI-часть написана добротно, код вполне production-ready.
Установить утилиту можно командой:
npm install -g @aisuite/chub
Увы, но пока "Stack Overflow для ИИ" это скорее красивый питч, чем реальность. На данный момент, это просто удобный агрегатор документации с зачатками системы фидбека, но за развитием проекта Context Hub однозначно стоит внимательно следить.
👍13💩2
Google Stitch обновился и движется в сторону полноценной AI-native среды для дизайна
Теперь можно начинать даже не с wireframe, а с идеи, бизнес-цели, нужного ощущения или референсов.
В Stitch появился бесконечный canvas, новый design agent, agent manager для параллельной работы с несколькими идеями, голосовое управление, DESIGN.md для переноса правил дизайн-системы между проектами, а также переход от дизайна к коду через MCP, SDK, skills и экспорт в dev-инструменты.
Отдельно интересно, что Stitch умеет почти мгновенно превращать статические экраны в интерактивные прототипы, можно быстро собирать user flow и сразу их проверять.
Для эксперимента мы взяли презентацию продукта, на основе её текстового описания сгенерировали UX-требования и загрузили их в Stitch. Результат получился очень достойный: интерфейсы оказались во многом похожи на те, которые мы сами проектировали, а местами даже сильнее.
Еще один шаг к процессу, где AI помогает не только рисовать интерфейсы, но и думать вместе с дизайнером, ускоряя путь от идеи до прототипа с дней до минут.
Теперь можно начинать даже не с wireframe, а с идеи, бизнес-цели, нужного ощущения или референсов.
В Stitch появился бесконечный canvas, новый design agent, agent manager для параллельной работы с несколькими идеями, голосовое управление, DESIGN.md для переноса правил дизайн-системы между проектами, а также переход от дизайна к коду через MCP, SDK, skills и экспорт в dev-инструменты.
Отдельно интересно, что Stitch умеет почти мгновенно превращать статические экраны в интерактивные прототипы, можно быстро собирать user flow и сразу их проверять.
Для эксперимента мы взяли презентацию продукта, на основе её текстового описания сгенерировали UX-требования и загрузили их в Stitch. Результат получился очень достойный: интерфейсы оказались во многом похожи на те, которые мы сами проектировали, а местами даже сильнее.
Еще один шаг к процессу, где AI помогает не только рисовать интерфейсы, но и думать вместе с дизайнером, ускоряя путь от идеи до прототипа с дней до минут.
👍4🔥2😱2
На GitHub появился бенчмарк, который измеряет насколько эффективно Claude Code генерирует код на разных языках
На GitHub появился репозиторий mame/ai-coding-lang-bench, и это, пожалуй, первый количественный бенчмарк, который отвечает на вопрос "какой язык лучше для AI-кодинга”. Claude Code реализует упрощенный Git на 13 языках, по 20 прогонов на каждый, две фазы (с нуля + расширение функциональности). Автор, коммитер Ruby, честно предупреждает о bias и выкладывает сырые данные.
Лидеры: Ruby (73s, $0.36), Python (74s, $0.38), JavaScript (81s, $0.39). Все динамические. Go четвертый (101s, $0.50).
Самая показательная находка, которую из первых принципов не угадаешь: TypeScript почти вдвое медленнее чистого JavaScript (133s против 81s) и на 60% дороже. Та же семантика, но статическая типизация превращается в прямой налог на генерацию. Python с mypy добавляет 67% overhead. Ruby со Steep замедляется в 2-3.2 раза. Механика понятна: типы добавляют модели дополнительное пространство ограничений, которое надо удовлетворять одновременно с бизнес-логикой, и это конвертируется в токены и доллары. OCaml и Haskell генерируют самый короткий код, но по скорости в нижней половине: когнитивная плотность языка стоит дорого.
Ограничения в исследовании существенные: Задача мелкая (мини-git), один автор, нет CI/CD, нет валидации другими моделями. Как поведет себя генерация на проекте в десятки тысяч строк с реальными зависимостями, мы не знаем. И главное: бенчмарк измеряет стоимость прототипирования, а не стоимость владения кодом, что обычно гораздо более трудоемко. Статическая типизация может проигрывать при генерации, но ее ценность на этапе поддержки и рефакторинга здесь не учтена.
Эффективность AI-генерации (и последующей AI-поддержки) становится таким же свойством языка, как runtime-производительность или эргономика для разработчика.
Стратегия "прототип на динамическом языке, миграция на статический для продакшена" возможно не лишена смысла.
На GitHub появился репозиторий mame/ai-coding-lang-bench, и это, пожалуй, первый количественный бенчмарк, который отвечает на вопрос "какой язык лучше для AI-кодинга”. Claude Code реализует упрощенный Git на 13 языках, по 20 прогонов на каждый, две фазы (с нуля + расширение функциональности). Автор, коммитер Ruby, честно предупреждает о bias и выкладывает сырые данные.
Лидеры: Ruby (73s, $0.36), Python (74s, $0.38), JavaScript (81s, $0.39). Все динамические. Go четвертый (101s, $0.50).
Самая показательная находка, которую из первых принципов не угадаешь: TypeScript почти вдвое медленнее чистого JavaScript (133s против 81s) и на 60% дороже. Та же семантика, но статическая типизация превращается в прямой налог на генерацию. Python с mypy добавляет 67% overhead. Ruby со Steep замедляется в 2-3.2 раза. Механика понятна: типы добавляют модели дополнительное пространство ограничений, которое надо удовлетворять одновременно с бизнес-логикой, и это конвертируется в токены и доллары. OCaml и Haskell генерируют самый короткий код, но по скорости в нижней половине: когнитивная плотность языка стоит дорого.
Ограничения в исследовании существенные: Задача мелкая (мини-git), один автор, нет CI/CD, нет валидации другими моделями. Как поведет себя генерация на проекте в десятки тысяч строк с реальными зависимостями, мы не знаем. И главное: бенчмарк измеряет стоимость прототипирования, а не стоимость владения кодом, что обычно гораздо более трудоемко. Статическая типизация может проигрывать при генерации, но ее ценность на этапе поддержки и рефакторинга здесь не учтена.
Эффективность AI-генерации (и последующей AI-поддержки) становится таким же свойством языка, как runtime-производительность или эргономика для разработчика.
Стратегия "прототип на динамическом языке, миграция на статический для продакшена" возможно не лишена смысла.
👍10❤1👏1💩1🥴1
OpenClaw и переход к AI-агентам: почему теперь всё решает обвязка, а не модель
Сейчас в эфире — Андрей Носов, ведущий ИИ‑архитектор, PhD Communication Science, автор телеграм‑канала «Эй ай надзор».
Говорим о том, какие инженерные решения позволяют превратить «умную, но непредсказуемую» модель в надёжного цифрового сотрудника:
→ как меняется архитектура системы при переходе от LLM‑чатбота к полноценному агенту;
→ какие механизмы контроля действий агента обязательны в production‑среде;
→ как добиться предсказуемости поведения агента и соблюдения SLA;
→ почему observability и аудит в агентных системах — это не роскошь, а необходимость;
→ как обвязка помогает соответствовать требованиям регуляторов и бизнес‑логике.
Подключайтесь к трансляции и пишите вопросы в комментариях — самые интересные зададим гостю в прямом эфире!
👉 Youtube
👉 ВКонтакте
Сейчас в эфире — Андрей Носов, ведущий ИИ‑архитектор, PhD Communication Science, автор телеграм‑канала «Эй ай надзор».
Говорим о том, какие инженерные решения позволяют превратить «умную, но непредсказуемую» модель в надёжного цифрового сотрудника:
→ как меняется архитектура системы при переходе от LLM‑чатбота к полноценному агенту;
→ какие механизмы контроля действий агента обязательны в production‑среде;
→ как добиться предсказуемости поведения агента и соблюдения SLA;
→ почему observability и аудит в агентных системах — это не роскошь, а необходимость;
→ как обвязка помогает соответствовать требованиям регуляторов и бизнес‑логике.
Подключайтесь к трансляции и пишите вопросы в комментариях — самые интересные зададим гостю в прямом эфире!
👉 Youtube
👉 ВКонтакте
🔥3👍2🤡2👏1
🤖 Чем отличается антропоморфная интерпретация LLM от других популярных интерпретаций? Расскажет Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.
Разберем:
→ В чем состоит самая развитая на сегодня интерпретационная модель PSM (Persona Selection Model) — модель выбора персонажа
→ Как выглядят в этой модели взаимоотношения LLM: помощника как персонажа и ИИ-ассистента
→ Как связаны агентность и свобода воли в терминах PSM
→ Как формируются персоны при обучении LLM
А также посмотрим на одно из исследований автора, связанного с PSM, который использует разработку симулякров.
⏰ Запускаем трансляцию сегодня, 26 марта, в 13:00.
Смотрите на YouTube, RuTube или прямо в этом канале — и задавайте вопросы лектору в комментариях! Владимир Крылов ответит на них в отдельном интервью.
Разберем:
→ В чем состоит самая развитая на сегодня интерпретационная модель PSM (Persona Selection Model) — модель выбора персонажа
→ Как выглядят в этой модели взаимоотношения LLM: помощника как персонажа и ИИ-ассистента
→ Как связаны агентность и свобода воли в терминах PSM
→ Как формируются персоны при обучении LLM
А также посмотрим на одно из исследований автора, связанного с PSM, который использует разработку симулякров.
⏰ Запускаем трансляцию сегодня, 26 марта, в 13:00.
Смотрите на YouTube, RuTube или прямо в этом канале — и задавайте вопросы лектору в комментариях! Владимир Крылов ответит на них в отдельном интервью.
🔥11💩1