AI4Dev — AI for Development
5.08K subscribers
149 photos
45 videos
5 files
288 links
Что надо знать, чтобы остаться востребованным ИТ специалистом в мире с LLM?

• Обзоры продуктов, фреймворков и способы взаимодействия с LLM для разработки софта

• Реальные кейсы, pet и бизнес проекты с LLM

• Публичные лекции

В будущее берут не всех!
Download Telegram
Live stream started
Live stream finished (1 hour)
🤖 Чем отличается антропоморфная интерпретация LLM от других популярных интерпретаций? Расскажет Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.

Разберем:
→ В чем состоит самая развитая на сегодня интерпретационная модель PSM (Persona Selection Model) — модель выбора персонажа
→ Как выглядят в этой модели взаимоотношения LLM: помощника как персонажа и ИИ-ассистента
→ Как связаны агентность и свобода воли в терминах PSM
→ Как формируются персоны при обучении LLM

А также посмотрим на одно из исследований автора, связанного с PSM, который использует разработку симулякров.

Запускаем трансляцию сегодня, 26 марта, в 13:00.

Смотрите на YouTube, RuTube или прямо в этом канале — и задавайте вопросы лектору в комментариях! Владимир Крылов ответит на них в отдельном интервью.
🔥11💩1
Live stream started
Live stream finished (43 minutes)
Media is too big
VIEW IN TELEGRAM
🤖 Чем отличается антропоморфная интерпретация LLM от других популярных интерпретаций? Рассказал Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.

В лекции:
→ В чем состоит самая развитая на сегодня интерпретационная модель PSM (Persona Selection Model) — модель выбора персонажа
→ Как выглядят в этой модели взаимоотношения LLM: помощника как персонажа и ИИ-ассистента
→ Как связаны агентность и свобода воли в терминах PSM
→ Как формируются персоны при обучении LLM

Также посмотрим на одно из исследований автора, связанное с PSM, в котором используется разработка симулякров.

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍1🤡1
Кажется, что всё просто: получили embedding, положили в базу, нашли ближайшие векторы — и поиск готов.
Но на практике сразу начинаются вопросы.

Почему обычные индексы здесь не работают?
Зачем нужны HNSW, IVF и approximate search?
Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится?

⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, расскажет, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения.

Поговорим про:
→ exact search и approximate nearest neighbor search
→ HNSW, IVF и базовую логику векторных индексов
→ recall, latency, memory footprint и trade-off’ы
→ как это работает в реальных системах поиска, RAG и рекомендациях

Запускаем трансляцию завтра, 2 апреля, в 12:00.

Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Анне!
👍12🔥4👎1
Live stream started
Live stream finished (53 minutes)
Локальный Copilot в VS Code: пошаговая инструкция

Записали с Сергеем Алатиным, ML‑инженером компании Loymax, подробный видео-гайд: как локально развернуть Copilot в VS Code с помощью модуля Continue — быстро, без отправки данных в облако и с сохранением функционала официального решения.

За 20 минут разберём весь процесс от установки до полноценной работы:

→ Установка модуля Continue в VS Code как обычного расширения.
→ Настройка конфигурационного файла: разбираем ключевые параметры.
→ Работа с правилами, промптами и контекстом.
→ Практическое знакомство с основными инструментами (chat, edit, apply, autocomplete)
→ Разбор 3 режимов работы чата: режим агента, режим планирования, чат-режим.
→ Демонстрация работы инструментов на демо‑файлах.
→ Разбор типичных ошибок и ограничений локального Copilot — и как их обойти.

🎬 Смотрите на YouTube или RuTube!
🔥8👍7💩1
Media is too big
VIEW IN TELEGRAM
Кажется, что всё просто: получили embedding, положили в базу, нашли ближайшие векторы — и поиск готов.

Но на практике сразу начинаются вопросы.

Почему обычные индексы здесь не работают?
Зачем нужны HNSW, IVF и approximate search?
Почему один индекс даёт быстрый ответ, но теряет качество, а другой — ест память и долго строится?

⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, как на самом деле устроен векторный поиск в базах данных, почему nearest neighbor search — это отдельный класс задач и какие компромиссы приходится принимать между скоростью, точностью и стоимостью хранения.

Поговорим про:
→ exact search и approximate nearest neighbor search
→ HNSW, IVF и базовую логику векторных индексов
→ recall, latency, memory footprint и trade-off’ы
→ как это работает в реальных системах поиска, RAG и рекомендациях

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍3🤡1
Вышла бета Unsloth Studio - среда для запуска локальных AI-агентов

Вышла бета Unsloth Studio, и это не просто очередная обертка для файн-тюнинга, а полноценная среда для запуска локальных AI-агентов. Для тех, кто использует LLM в разработке, тут есть несколько крайне интересных механик.

Самое главное — встроенная песочница для исполнения кода. Модели теперь могут не только писать скрипты на Python или Bash, но и сразу их запускать, тестировать с реальными вычислениями и самостоятельно исправлять ошибки на лету.

По сути, это локальный аналог Claude Artifacts. Кроме того, прямо в процессе размышлений модель умеет ходить в сеть, например, чтобы почитать актуальную документацию по библиотеке перед написанием кода.Если стоит задача дообучить LLM на корпоративном кодстайле или закрытой документации, процесс сильно упростили.

Через Data Recipes можно закинуть сырые файлы, документацию или JSON, а студия сама соберет из них нужный датасет. Само дообучение требует на 70% меньше памяти и поддерживает Multi-GPU из коробки.

После этого натренированную модель можно прямо в интерфейсе столкнуть лбами с базовой, чтобы проверить, насколько лучше она стала писать код.Работает инструмент полностью в офлайне, так что код никуда не утечет.

Готовые веса легко выгружаются в GGUF, чтобы дальше крутить их в той же Ollama или llama.cpp.

Выглядит как отличный способ собрать и протестировать собственного ИИ-помощника по коду без возни с инфраструктурой.

Сайт: https://unsloth.ai/ Документация: https://unsloth.ai/docs/new/studio#quickstart
🔥101💩1
Энтузиаст разобрал Claude Code по исходникам и собрал интерактивную карту того, как он предположительно устроен, включая основные компоненты: цикл работы агента, систему изучения архитектуры, систему инструментов, каталог команд и скрытые фичи. Любопытно. Рекомендуем.
🔥11💩2👍1🤣1
AI-Хозяйке на заметку: платформа для работы ИИ с вебом. TinyFish объединяет поиск, получение контента, браузерные сессии и автономные веб-сценарии в одном API. Вместо того чтобы собирать всё с нуля можно взять готовый инструмент. Полезно, когда агенту нужно искать информацию, читать страницы, кликать по сайтам и выполнять действия в вебе без лишней инфраструктурной боли. Кейсы применения : автономное AI-тестирование веб-приложений, мониторинг и сравнение цен конкурентов, анализ рынков и подобные задачи. Есть бесплатный пробный план.
👍62🤡2
Почему инженерная обвязка стала важнее самой нейросети?

Коллеги, на Хабре вышла текстовая версия нашего интервью с Андреем Носовым — техническим директором и ИИ-архитектором.

Оно о феномене OpenClaw, который за три месяца набрал 250 тысяч звезд на GitHub — быстрее, чем Linux за всю свою историю. А еще о том, почему автономные агенты без Human-in-the-Loop опасны, как три слоя Guardrails ловят команду rm -rf, и зачем сажать тысячу агентов на Kafka.

Интервью можно посмотреть на нашем YouTube-канале (подпишитесь, чтобы не пропускать новые видео).

В тексте:

- почему современные модели — это не исполнители, а декораторы формы ответа
- как Pydantic-схемы и retry-паттерны обуздывают недетерминированный хаос
- зачем нужен трейсинг естественного языка и какие фреймворки для этого подходят (Langfuse, Arize Phoenix, LangSmith)
- как протоколы A2A и MCP решают проблему vendor lock-in — и почему добавляют latency
- что произойдет с рынком обвязок, если завтра появится «идеальный Джарвис»
- почему 2026 — это год агентов, а не моделей

Если строите агентные системы в продакшене или только присматриваетесь к ним — прочитайте и поддержите статью плюсом на Хабре, нам это важно.

👉 https://habr.com/ru/articles/1024744/
🔥93👍2🤡1
Агент, который просто выполняет промпт, — это уже немного legacy. Интереснее архитектура, где агент самосовершенствуется: после работы анализирует результат и переписывает собственные инструкции.

После каждого запуска агент проводит анализ улучшений — почти как «собрание самокритики» в КНДР: модель делает попытку, разбирает ошибку и использует текстовый feedback как память. Практичная инженерная схема: run → trace → critique → prompt/context update → next run. Слова для гугления: Self-Refine и Reflexion.

Это похоже на Систему 1 и Систему 2 мышления, описанные Даниэлем Канеманом в книге «Думай медленно… решай быстро». Система 1 — быстрый автопилот: сгенерировал ответ по привычным паттернам. Система 2 — медленный контур проверки: остановился, посмотрел назад, нашел, где произошла галлюцинация, неверный вызов субагента или плохая декомпозиция, и добавил новое правило в рабочую память агента.

Эффективность в том, что такой контур работает и на стадии разработки агента, и уже в эксплуатации. На разработке он быстрее находит слабые места в промптах, tools и декомпозиции задач. В проде — постепенно накапливает рабочие правила из реальных запусков: какие ошибки повторяются, где нужен другой порядок действий, какие проверки надо добавить. Со временем это может дать заметный отрыв от агента, который однажды настроили и оставили шуршать с готовым промптом.

И, конечно, без evals и golden dataset это превратится не в self-improvement, а автоматизированное самооправдание, агент (как и все мы) может красиво объяснять свои ошибки, вместо того, чтобы исправлять их.
7👍1💯1
Грядет смена парадигмы в технологиях искусственного интеллекта. Чего же ждать? Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО, даст свой прогноз.

1️⃣Рассмотрим тренды в технологическом аспекте ИИ и обнаруженные "бутылочные горлышки", препятствующие росту интеллекта у строящихся систем.
2️⃣Кроме очевидных проблем энергопотребления для масштабирования обучения и эксплуатации систем ИИ, поговорим о проблеме "стены памяти" (Memory Wall), приводящей к разработке нового аппаратного обеспечения и, как следствие, к новым парадигмам hardware.
3️⃣Познакомимся с новой парадигмой алгоритмического построения ИИ — рассуждениям в латентном пространстве с прогнозируемым тысячекратным увеличением энергоэффективности систем ИИ при росте производительности на 60%.

Вы услышите авторскую интерпретацию вышедших за последние месяцы публикаций ведущих компаний и университетов.

Смотрите на YouTube или RuTube!

И подписывайтесь на наши каналы, чтобы не пропустить следующие лекции ☺️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥6❤‍🔥1🤡1👀1