Media is too big
VIEW IN TELEGRAM
🤖 Чем отличается антропоморфная интерпретация LLM от других популярных интерпретаций? Рассказал Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.
В лекции:
→ В чем состоит самая развитая на сегодня интерпретационная модель PSM (Persona Selection Model) — модель выбора персонажа
→ Как выглядят в этой модели взаимоотношения LLM: помощника как персонажа и ИИ-ассистента
→ Как связаны агентность и свобода воли в терминах PSM
→ Как формируются персоны при обучении LLM
Также посмотрим на одно из исследований автора, связанное с PSM, в котором используется разработка симулякров.
🎥 Запись доступна здесь и на других площадках:
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
В лекции:
→ В чем состоит самая развитая на сегодня интерпретационная модель PSM (Persona Selection Model) — модель выбора персонажа
→ Как выглядят в этой модели взаимоотношения LLM: помощника как персонажа и ИИ-ассистента
→ Как связаны агентность и свобода воли в терминах PSM
→ Как формируются персоны при обучении LLM
Также посмотрим на одно из исследований автора, связанное с PSM, в котором используется разработка симулякров.
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍1🤡1
Кажется, что всё просто: получили embedding, положили в базу, нашли ближайшие векторы — и поиск готов.
Но на практике сразу начинаются вопросы.
Почему обычные индексы здесь не работают?
Зачем нужны HNSW, IVF и approximate search?
Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится?
⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, расскажет, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения.
Поговорим про:
→ exact search и approximate nearest neighbor search
→ HNSW, IVF и базовую логику векторных индексов
→ recall, latency, memory footprint и trade-off’ы
→ как это работает в реальных системах поиска, RAG и рекомендациях
⏰ Запускаем трансляцию завтра, 2 апреля, в 12:00.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Анне!
Но на практике сразу начинаются вопросы.
Почему обычные индексы здесь не работают?
Зачем нужны HNSW, IVF и approximate search?
Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится?
⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, расскажет, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения.
Поговорим про:
→ exact search и approximate nearest neighbor search
→ HNSW, IVF и базовую логику векторных индексов
→ recall, latency, memory footprint и trade-off’ы
→ как это работает в реальных системах поиска, RAG и рекомендациях
⏰ Запускаем трансляцию завтра, 2 апреля, в 12:00.
Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Анне!
👍12🔥4👎1
Локальный Copilot в VS Code: пошаговая инструкция
Записали с Сергеем Алатиным, ML‑инженером компании Loymax, подробный видео-гайд: как локально развернуть Copilot в VS Code с помощью модуля Continue — быстро, без отправки данных в облако и с сохранением функционала официального решения.
За 20 минут разберём весь процесс от установки до полноценной работы:
→ Установка модуля Continue в VS Code как обычного расширения.
→ Настройка конфигурационного файла: разбираем ключевые параметры.
→ Работа с правилами, промптами и контекстом.
→ Практическое знакомство с основными инструментами (chat, edit, apply, autocomplete)
→ Разбор 3 режимов работы чата: режим агента, режим планирования, чат-режим.
→ Демонстрация работы инструментов на демо‑файлах.
→ Разбор типичных ошибок и ограничений локального Copilot — и как их обойти.
🎬 Смотрите на YouTube или RuTube!
Записали с Сергеем Алатиным, ML‑инженером компании Loymax, подробный видео-гайд: как локально развернуть Copilot в VS Code с помощью модуля Continue — быстро, без отправки данных в облако и с сохранением функционала официального решения.
За 20 минут разберём весь процесс от установки до полноценной работы:
→ Установка модуля Continue в VS Code как обычного расширения.
→ Настройка конфигурационного файла: разбираем ключевые параметры.
→ Работа с правилами, промптами и контекстом.
→ Практическое знакомство с основными инструментами (chat, edit, apply, autocomplete)
→ Разбор 3 режимов работы чата: режим агента, режим планирования, чат-режим.
→ Демонстрация работы инструментов на демо‑файлах.
→ Разбор типичных ошибок и ограничений локального Copilot — и как их обойти.
🎬 Смотрите на YouTube или RuTube!
🔥8👍7💩1
Media is too big
VIEW IN TELEGRAM
Кажется, что всё просто: получили embedding, положили в базу, нашли ближайшие векторы — и поиск готов.
Но на практике сразу начинаются вопросы.
Почему обычные индексы здесь не работают?
Зачем нужны HNSW, IVF и approximate search?
Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится?
⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения.
Поговорим про:
→ exact search и approximate nearest neighbor search
→ HNSW, IVF и базовую логику векторных индексов
→ recall, latency, memory footprint и trade-off’ы
→ как это работает в реальных системах поиска, RAG и рекомендациях
🎥 Запись доступна здесь и на других площадках:
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Но на практике сразу начинаются вопросы.
Почему обычные индексы здесь не работают?
Зачем нужны HNSW, IVF и approximate search?
Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится?
⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения.
Поговорим про:
→ exact search и approximate nearest neighbor search
→ HNSW, IVF и базовую логику векторных индексов
→ recall, latency, memory footprint и trade-off’ы
→ как это работает в реальных системах поиска, RAG и рекомендациях
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍3🤡1
Вышла бета Unsloth Studio - среда для запуска локальных AI-агентов
Вышла бета Unsloth Studio, и это не просто очередная обертка для файн-тюнинга, а полноценная среда для запуска локальных AI-агентов. Для тех, кто использует LLM в разработке, тут есть несколько крайне интересных механик.
Самое главное — встроенная песочница для исполнения кода. Модели теперь могут не только писать скрипты на Python или Bash, но и сразу их запускать, тестировать с реальными вычислениями и самостоятельно исправлять ошибки на лету.
По сути, это локальный аналог Claude Artifacts. Кроме того, прямо в процессе размышлений модель умеет ходить в сеть, например, чтобы почитать актуальную документацию по библиотеке перед написанием кода.Если стоит задача дообучить LLM на корпоративном кодстайле или закрытой документации, процесс сильно упростили.
Через Data Recipes можно закинуть сырые файлы, документацию или JSON, а студия сама соберет из них нужный датасет. Само дообучение требует на 70% меньше памяти и поддерживает Multi-GPU из коробки.
После этого натренированную модель можно прямо в интерфейсе столкнуть лбами с базовой, чтобы проверить, насколько лучше она стала писать код.Работает инструмент полностью в офлайне, так что код никуда не утечет.
Готовые веса легко выгружаются в GGUF, чтобы дальше крутить их в той же Ollama или llama.cpp.
Выглядит как отличный способ собрать и протестировать собственного ИИ-помощника по коду без возни с инфраструктурой.
Сайт: https://unsloth.ai/ Документация: https://unsloth.ai/docs/new/studio#quickstart
Вышла бета Unsloth Studio, и это не просто очередная обертка для файн-тюнинга, а полноценная среда для запуска локальных AI-агентов. Для тех, кто использует LLM в разработке, тут есть несколько крайне интересных механик.
Самое главное — встроенная песочница для исполнения кода. Модели теперь могут не только писать скрипты на Python или Bash, но и сразу их запускать, тестировать с реальными вычислениями и самостоятельно исправлять ошибки на лету.
По сути, это локальный аналог Claude Artifacts. Кроме того, прямо в процессе размышлений модель умеет ходить в сеть, например, чтобы почитать актуальную документацию по библиотеке перед написанием кода.Если стоит задача дообучить LLM на корпоративном кодстайле или закрытой документации, процесс сильно упростили.
Через Data Recipes можно закинуть сырые файлы, документацию или JSON, а студия сама соберет из них нужный датасет. Само дообучение требует на 70% меньше памяти и поддерживает Multi-GPU из коробки.
После этого натренированную модель можно прямо в интерфейсе столкнуть лбами с базовой, чтобы проверить, насколько лучше она стала писать код.Работает инструмент полностью в офлайне, так что код никуда не утечет.
Готовые веса легко выгружаются в GGUF, чтобы дальше крутить их в той же Ollama или llama.cpp.
Выглядит как отличный способ собрать и протестировать собственного ИИ-помощника по коду без возни с инфраструктурой.
Сайт: https://unsloth.ai/ Документация: https://unsloth.ai/docs/new/studio#quickstart
🔥10❤1💩1
Энтузиаст разобрал Claude Code по исходникам и собрал интерактивную карту того, как он предположительно устроен, включая основные компоненты: цикл работы агента, систему изучения архитектуры, систему инструментов, каталог команд и скрытые фичи. Любопытно. Рекомендуем.
Claude Code Unpacked
What actually happens when you type a message into Claude Code? The agent loop, 50+ tools, multi-agent orchestration, and unreleased features, mapped from source.
🔥11💩2👍1🤣1
AI-Хозяйке на заметку: платформа для работы ИИ с вебом. TinyFish объединяет поиск, получение контента, браузерные сессии и автономные веб-сценарии в одном API. Вместо того чтобы собирать всё с нуля можно взять готовый инструмент. Полезно, когда агенту нужно искать информацию, читать страницы, кликать по сайтам и выполнять действия в вебе без лишней инфраструктурной боли. Кейсы применения : автономное AI-тестирование веб-приложений, мониторинг и сравнение цен конкурентов, анализ рынков и подобные задачи. Есть бесплатный пробный план.
www.tinyfish.ai
TinyFish – Enterprise Infrastructure for AI Web Agents
TinyFish provides enterprise infrastructure for AI web agents. Run hundreds of websites simultaneously to navigate, authenticate, extract data, and automate web workflows with a fully serverless architecture.
👍6✍2🤡2
Почему инженерная обвязка стала важнее самой нейросети?
Коллеги, на Хабре вышла текстовая версия нашего интервью с Андреем Носовым — техническим директором и ИИ-архитектором.
Оно о феномене OpenClaw, который за три месяца набрал 250 тысяч звезд на GitHub — быстрее, чем Linux за всю свою историю. А еще о том, почему автономные агенты без Human-in-the-Loop опасны, как три слоя Guardrails ловят команду rm -rf, и зачем сажать тысячу агентов на Kafka.
Интервью можно посмотреть на нашем YouTube-канале (подпишитесь, чтобы не пропускать новые видео).
В тексте:
- почему современные модели — это не исполнители, а декораторы формы ответа
- как Pydantic-схемы и retry-паттерны обуздывают недетерминированный хаос
- зачем нужен трейсинг естественного языка и какие фреймворки для этого подходят (Langfuse, Arize Phoenix, LangSmith)
- как протоколы A2A и MCP решают проблему vendor lock-in — и почему добавляют latency
- что произойдет с рынком обвязок, если завтра появится «идеальный Джарвис»
- почему 2026 — это год агентов, а не моделей
Если строите агентные системы в продакшене или только присматриваетесь к ним — прочитайте и поддержите статью плюсом на Хабре, нам это важно.
👉 https://habr.com/ru/articles/1024744/
Коллеги, на Хабре вышла текстовая версия нашего интервью с Андреем Носовым — техническим директором и ИИ-архитектором.
Оно о феномене OpenClaw, который за три месяца набрал 250 тысяч звезд на GitHub — быстрее, чем Linux за всю свою историю. А еще о том, почему автономные агенты без Human-in-the-Loop опасны, как три слоя Guardrails ловят команду rm -rf, и зачем сажать тысячу агентов на Kafka.
Интервью можно посмотреть на нашем YouTube-канале (подпишитесь, чтобы не пропускать новые видео).
В тексте:
- почему современные модели — это не исполнители, а декораторы формы ответа
- как Pydantic-схемы и retry-паттерны обуздывают недетерминированный хаос
- зачем нужен трейсинг естественного языка и какие фреймворки для этого подходят (Langfuse, Arize Phoenix, LangSmith)
- как протоколы A2A и MCP решают проблему vendor lock-in — и почему добавляют latency
- что произойдет с рынком обвязок, если завтра появится «идеальный Джарвис»
- почему 2026 — это год агентов, а не моделей
Если строите агентные системы в продакшене или только присматриваетесь к ним — прочитайте и поддержите статью плюсом на Хабре, нам это важно.
👉 https://habr.com/ru/articles/1024744/
🔥9❤3👍2🤡1
Агент, который просто выполняет промпт, — это уже немного legacy. Интереснее архитектура, где агент самосовершенствуется: после работы анализирует результат и переписывает собственные инструкции.
После каждого запуска агент проводит анализ улучшений — почти как «собрание самокритики» в КНДР: модель делает попытку, разбирает ошибку и использует текстовый feedback как память. Практичная инженерная схема: run → trace → critique → prompt/context update → next run. Слова для гугления: Self-Refine и Reflexion.
Это похоже на Систему 1 и Систему 2 мышления, описанные Даниэлем Канеманом в книге «Думай медленно… решай быстро». Система 1 — быстрый автопилот: сгенерировал ответ по привычным паттернам. Система 2 — медленный контур проверки: остановился, посмотрел назад, нашел, где произошла галлюцинация, неверный вызов субагента или плохая декомпозиция, и добавил новое правило в рабочую память агента.
Эффективность в том, что такой контур работает и на стадии разработки агента, и уже в эксплуатации. На разработке он быстрее находит слабые места в промптах, tools и декомпозиции задач. В проде — постепенно накапливает рабочие правила из реальных запусков: какие ошибки повторяются, где нужен другой порядок действий, какие проверки надо добавить. Со временем это может дать заметный отрыв от агента, который однажды настроили и оставили шуршать с готовым промптом.
И, конечно, без evals и golden dataset это превратится не в self-improvement, а автоматизированное самооправдание, агент (как и все мы) может красиво объяснять свои ошибки, вместо того, чтобы исправлять их.
После каждого запуска агент проводит анализ улучшений — почти как «собрание самокритики» в КНДР: модель делает попытку, разбирает ошибку и использует текстовый feedback как память. Практичная инженерная схема: run → trace → critique → prompt/context update → next run. Слова для гугления: Self-Refine и Reflexion.
Это похоже на Систему 1 и Систему 2 мышления, описанные Даниэлем Канеманом в книге «Думай медленно… решай быстро». Система 1 — быстрый автопилот: сгенерировал ответ по привычным паттернам. Система 2 — медленный контур проверки: остановился, посмотрел назад, нашел, где произошла галлюцинация, неверный вызов субагента или плохая декомпозиция, и добавил новое правило в рабочую память агента.
Эффективность в том, что такой контур работает и на стадии разработки агента, и уже в эксплуатации. На разработке он быстрее находит слабые места в промптах, tools и декомпозиции задач. В проде — постепенно накапливает рабочие правила из реальных запусков: какие ошибки повторяются, где нужен другой порядок действий, какие проверки надо добавить. Со временем это может дать заметный отрыв от агента, который однажды настроили и оставили шуршать с готовым промптом.
И, конечно, без evals и golden dataset это превратится не в self-improvement, а автоматизированное самооправдание, агент (как и все мы) может красиво объяснять свои ошибки, вместо того, чтобы исправлять их.
❤7👍1💯1
Грядет смена парадигмы в технологиях искусственного интеллекта. Чего же ждать? Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО, даст свой прогноз.
1️⃣ Рассмотрим тренды в технологическом аспекте ИИ и обнаруженные "бутылочные горлышки", препятствующие росту интеллекта у строящихся систем.
2️⃣ Кроме очевидных проблем энергопотребления для масштабирования обучения и эксплуатации систем ИИ, поговорим о проблеме "стены памяти" (Memory Wall), приводящей к разработке нового аппаратного обеспечения и, как следствие, к новым парадигмам hardware.
3️⃣ Познакомимся с новой парадигмой алгоритмического построения ИИ — рассуждениям в латентном пространстве с прогнозируемым тысячекратным увеличением энергоэффективности систем ИИ при росте производительности на 60%.
Вы услышите авторскую интерпретацию вышедших за последние месяцы публикаций ведущих компаний и университетов.
⏩ Смотрите на YouTube или RuTube!
И подписывайтесь на наши каналы, чтобы не пропустить следующие лекции☺️
Вы услышите авторскую интерпретацию вышедших за последние месяцы публикаций ведущих компаний и университетов.
И подписывайтесь на наши каналы, чтобы не пропустить следующие лекции
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥6❤🔥1🤡1👀1
Одна и та же модель ИИ может стоить в 30 раз дороже и работать в 7 раз медленнее.
Все зависит от того, в какую агентную оболочку ее обернули. Это главный итог нового Coding Agent Index от Artificial Analysis. Команда впервые системно замерила не сами LLM, а их связки с оболочками вроде Claude Code, Cursor CLI, Codex и Gemini CLI. Логика проста: при работе с ИИ-агентом разработчик фактически выбирает не модель, а пару. Индекс сводит три бенчмарка: SWE-Bench-Pro-Hard-AA от Scale AI (150 сложных задач разработки), Terminal-Bench v2 от Laude Institute (84 терминальные задачи) и SWE-Atlas-QnA (124 вопроса о поведении кода).
По качеству впереди ожидаемая верхушка. Opus 4.7 в Cursor CLI набирает 61 балл, GPT-5.5 в Codex и Opus 4.7 в Claude Code идут вровень с 60, GPT-5.5 в Cursor CLI замыкает четверку с 58. Open weights подбираются, но пока не догнали: лучший результат у GLM-5.1 в Claude Code (53), за ним Kimi K2.6 и DeepSeek V4 Pro в той же оболочке по 50.
Самое интересное начинается, когда к баллам приставляют экономику. Цена задачи разнится более чем тридцатикратно: GPT-5.5 в Codex обходится в $2.21, GLM-5.1 в Claude Code в $2.26 (у последней на цену работает срыв модели в циклы на отдельных задачах). На другом полюсе Composer 2 в Cursor CLI всего за $0.07. По времени картина похожая: Opus 4.7 в Claude Code справляется с задачей примерно за шесть минут, Kimi K2.6 в той же оболочке тратит около сорока.
Заметнее всех тут отличилась Cursor. Их собственная Composer 2, по заявлению команды построенная на базе Kimi K2.5, набирает 48 баллов почти на уровне лучших open weights и остается самой дешевой связкой индекса. Редкая иллюстрация того, что прицельный пост-тренинг под конкретную оболочку дает измеримый выигрыш. Обратный случай у Google: Gemini 3.1 Pro в Gemini CLI получает лишь 43 балла, заметно ниже позиций самой модели в общем Intelligence Index. Узкое место не в модели, а именно в оболочке.
Все зависит от того, в какую агентную оболочку ее обернули. Это главный итог нового Coding Agent Index от Artificial Analysis. Команда впервые системно замерила не сами LLM, а их связки с оболочками вроде Claude Code, Cursor CLI, Codex и Gemini CLI. Логика проста: при работе с ИИ-агентом разработчик фактически выбирает не модель, а пару. Индекс сводит три бенчмарка: SWE-Bench-Pro-Hard-AA от Scale AI (150 сложных задач разработки), Terminal-Bench v2 от Laude Institute (84 терминальные задачи) и SWE-Atlas-QnA (124 вопроса о поведении кода).
По качеству впереди ожидаемая верхушка. Opus 4.7 в Cursor CLI набирает 61 балл, GPT-5.5 в Codex и Opus 4.7 в Claude Code идут вровень с 60, GPT-5.5 в Cursor CLI замыкает четверку с 58. Open weights подбираются, но пока не догнали: лучший результат у GLM-5.1 в Claude Code (53), за ним Kimi K2.6 и DeepSeek V4 Pro в той же оболочке по 50.
Самое интересное начинается, когда к баллам приставляют экономику. Цена задачи разнится более чем тридцатикратно: GPT-5.5 в Codex обходится в $2.21, GLM-5.1 в Claude Code в $2.26 (у последней на цену работает срыв модели в циклы на отдельных задачах). На другом полюсе Composer 2 в Cursor CLI всего за $0.07. По времени картина похожая: Opus 4.7 в Claude Code справляется с задачей примерно за шесть минут, Kimi K2.6 в той же оболочке тратит около сорока.
Заметнее всех тут отличилась Cursor. Их собственная Composer 2, по заявлению команды построенная на базе Kimi K2.5, набирает 48 баллов почти на уровне лучших open weights и остается самой дешевой связкой индекса. Редкая иллюстрация того, что прицельный пост-тренинг под конкретную оболочку дает измеримый выигрыш. Обратный случай у Google: Gemini 3.1 Pro в Gemini CLI получает лишь 43 балла, заметно ниже позиций самой модели в общем Intelligence Index. Узкое место не в модели, а именно в оболочке.
🔥5👍3