🤖 Ваш ИИ-агент съедает бюджет на токены и падает при сбоях API?
Пора переходить на новый уровень. Открыли продажи курса по AgentOps — управлению ИИ-агентами в рабочих процессах.
Рынок требует инженеров, которые умеют:
• Контролировать метрики и качество ответов;
• Эффективно работать с RAG-архитектурой;
• Строить системы, готовые к реальным нагрузкам.
Обучение займет 6-12 недель под руководством практиков с опытом в AI и Data Science в крупных IT-компаниях, таких как Яндекс, Сбер, МТС, Huawei, Raft и др.
🎁 Можно подождать, пока про AgentOps начнут говорить все. Или зайти сейчас — НА 30% ДЕШЕВЛЕ!
🔥 Забрать скидку и изучить программу.
Пора переходить на новый уровень. Открыли продажи курса по AgentOps — управлению ИИ-агентами в рабочих процессах.
Рынок требует инженеров, которые умеют:
• Контролировать метрики и качество ответов;
• Эффективно работать с RAG-архитектурой;
• Строить системы, готовые к реальным нагрузкам.
Обучение займет 6-12 недель под руководством практиков с опытом в AI и Data Science в крупных IT-компаниях, таких как Яндекс, Сбер, МТС, Huawei, Raft и др.
🎁 Можно подождать, пока про AgentOps начнут говорить все. Или зайти сейчас — НА 30% ДЕШЕВЛЕ!
Работа с AI начинается с систем.
Системы — с AgentOps.
🔥 Забрать скидку и изучить программу.
❤2
LIME (Local Interpretable Model-agnostic Explanations)
LIME часто используется для объяснения «черных ящиков». Каким образом LIME строит объяснение для конкретного примера (строки данных)?
LIME часто используется для объяснения «черных ящиков». Каким образом LIME строит объяснение для конкретного примера (строки данных)?
Anonymous Quiz
5%
Он обучает вторую нейросеть-копию, которая работает прозрачнее
14%
Он визуализирует веса последнего слоя нейронной сети
7%
Он находит в обучающей выборке 5 самых похожих примеров и показывает их пользователю
74%
Он создает «возмущения» вокруг этого примера, смотрит, как меняются ответы и обучает простую модель
❤1
Вы используете стандартный feature_importance_ из Random Forest (на основе Gini impurity).
В чем заключается главная опасность доверия этому методу при наличии высококоррелированных признаков?
В чем заключается главная опасность доверия этому методу при наличии высококоррелированных признаков?
Anonymous Quiz
65%
Модель может завысить важность одного из коррелирующих признаков и занизить важность другого
4%
Общая важность признаков делает обучение модели в 2 раза медленнее
2%
Этот метод работает только для задач регрессии и бесполезен для классификации
29%
Gini impurity всегда отдает предпочтение признакам с малым количеством уникальных значений
PCA проецирует данные на новые оси (главные компоненты).
Каким критерием руководствуется PCA при выборе первой главной компоненты (PC1)?
Каким критерием руководствуется PCA при выборе первой главной компоненты (PC1)?
Anonymous Quiz
15%
Направление, вдоль которого данные имеют минимальное расстояние до начала координат
17%
Направление, которое максимально коррелирует с целевой переменной
64%
Направление, вдоль которого сохраняется максимальный разброс данных
3%
Направление, которое затем корректируется градиентным спуско
❤1
BERT — это «энкодер», а GPT — «декодер». Это определяет способ их обучения.
В чем заключается ключевое различие в механизме внимания (Attention) при обучении GPT по сравнению с BERT?
В чем заключается ключевое различие в механизме внимания (Attention) при обучении GPT по сравнению с BERT?
Anonymous Quiz
8%
GPT использует Sparse Attention, чтобы обрабатывать каждое второе слово, BERT смотрит на все слова
69%
В GPT есть causal masking — токен видит прошлые слова. BERT использует двунаправленное внимание.
11%
BERT обучается предсказывать следующее слово, а GPT маскирует случайные 15% слов в середине
13%
GPT требует наличия токенов позиционного кодирования, BERT позволяет обходиться без них
👍2❤1
При генерации текста (Inference) мы часто настраиваем параметр Temperature (T).
Как математически параметр T влияет на распределение вероятностей следующего токена и на итоговый результат?
Как математически параметр T влияет на распределение вероятностей следующего токена и на итоговый результат?
Anonymous Quiz
27%
Низкая температура «разглаживает» распределение, делая выбор разных слов более вероятным
62%
Низкая тем-ра делает распределение более «острым», увеличивая вероятность наиболее вероятных токенов
9%
Температура напрямую изменяет веса модели, заставляя нейроны срабатывать чаще при высоких значениях
2%
Параметр T определяет, сколько слоев нейросети будет задействовано в генерации предложения
❤2👍1
Модель предсказания спроса начала ошибаться. Распределение входных признаков сильно изменилось по сравнению с обучающей выборкой, хотя сама логика поведения людей осталась прежней. Как называется этот тип деградации модели и какое действие требуется?
Anonymous Quiz
6%
Concept Drift; требуется немедленное изменение архитектуры нейросети на более глубокую
8%
Overfitting; требуется увеличить коэффициент регуляризации (Dropout) в текущей модели
87%
Feature Drift; требуется переобучение модели на свежих данных или обновление предобработки
0%
Системный баг; требуется откат версии Python на сервере инференса
👍1
Git плохо справляется с хранением тяжелых датасетов в несколько терабайт. Инструменты вроде DVC решают эту проблему.
Каким образом DVC позволяет версионировать данные, сохраняя при этом легковесность Git-репозитория?
Каким образом DVC позволяет версионировать данные, сохраняя при этом легковесность Git-репозитория?
Anonymous Quiz
3%
DVC сжимает данные в формат .zip и заставляет Git игнорировать их размер
85%
DVC хранит данные во внешнем хранилище, а в Git фиксирует только маленькие метафайлы с хэш-суммами
9%
DVC преобразует весь датасет в набор SQL-запросов, которые Git хранит как обычный текст
2%
Он автоматически удаляет старые версии данных, оставляя только самую последнюю
❤2👍1
В крупных компаниях используют Feature Store (например, Feast или Hopsworks).
Какую главную проблему при переходе от обучения (Offline) к работе в реальном времени (Online) решает эта инфраструктура?
Какую главную проблему при переходе от обучения (Offline) к работе в реальном времени (Online) решает эта инфраструктура?
Anonymous Quiz
44%
Проблему несоответствия (Training-Serving Skew)
31%
Она автоматически ссоздает новые признаки на основе сырых данных с помощью генетических алгоритмов
11%
Она заменяет собой облачные GPU, позволяя проводить инференс на обычных базах данных
14%
Feature Store нужен для хранения документации по признакам
👍1🤩1
В Байесовском подходе мы ищем Апостериорное распределение по формуле Байеса.
За что именно отвечает «Априорное распределение» (Prior) в процессе обучения модели?
За что именно отвечает «Априорное распределение» (Prior) в процессе обучения модели?
Anonymous Quiz
28%
Оно описывает, насколько хорошо наши параметры модели объясняют уже имеющиеся обучающие данные
63%
Оно формализует наши знания или убеждения о параметрах модели до того, как мы увидели текущие данные
8%
Это коэффициент, который гарантирует, что сумма всех вероятностей в итоге будет равна единице
1%
Это метод автоматической очистки данных от выбросов перед началом статистического вывода
👍5
В 2026 году модели обязаны разделять два типа неопределенности. Представь беспилотный автомобиль, который едет в густом тумане.
Какая неопределенность здесь является Эпистемической (Epistemic)?
Какая неопределенность здесь является Эпистемической (Epistemic)?
Anonymous Quiz
46%
Неопределенность, вызванная шумом в датчиках или плохой видимостью
7%
Неопределенность, связанная с задержкой передачи сигнала по сети 5G
6%
Неопределенность в предсказании времени прибытия из-за пробок
41%
Неопределенность, вызванная тем, что модель не видела такой тип ситуации в обучающей выборке
👍1
Вычислять точное апостериорное распределение для нейросетей математически невозможно. Приходится выбирать метод аппроксимации.
В чем заключается основное преимущество Variational Inference перед методами MCMC (Markov Chain Monte Carlo)?
В чем заключается основное преимущество Variational Inference перед методами MCMC (Markov Chain Monte Carlo)?
Anonymous Quiz
58%
VI превращает задачу в задачу оптимизации, что позволяет использовать градиентный спуск
37%
VI гарантирует нахождение аналитического решения, в то время как MCMC дает лишь грубое приближение
5%
VI работает только с дискретными данными, что делает его безопаснее для задач классификации
0%
MCMC требует наличия квантового процессора для эффективной работы
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Включайте кружок там личное приглашение от спикера. 👆
Уже завтра в прямом эфире, разбираем архитектуру контекста в мультиагентных системах.
🤫 Секретный лут:
👉 Регистрируйтесь на трансляцию
Please open Telegram to view this post
VIEW IN TELEGRAM
Представь, что агент играет в шахматы, делает 40 ходов и в конце выигрывает.
В чем заключается сложность "Credit Assignment" в этой ситуации?
В чем заключается сложность "Credit Assignment" в этой ситуации?
Anonymous Quiz
7%
Модели не хватает памяти, чтобы запомнить все 40 позиций на доске
74%
Трудно определить, какой именно из 40 ходов был решающим для победы, а какой — бесполезным
12%
Выигрыш в шахматах невозможно оцифровать для функции потерь (Loss function)
6%
Агент начинает повторять одни и те же ходы, застревая в циклической петле
Осталось всего 4 места на курс по ИИ-агентам. 30 апреля закрываем набор окончательно.
В ГС честно рассказали:
— Кому курс не подойдет;
— Какой хардкор в программе (LangGraph, AutoGen, CrewAI);
— Как мы даем токены, чтобы вы не тратили свои деньги.
🏃♀️ Записаться, пока есть места
В ГС честно рассказали:
— Кому курс не подойдет;
— Какой хардкор в программе (LangGraph, AutoGen, CrewAI);
— Как мы даем токены, чтобы вы не тратили свои деньги.
Please open Telegram to view this post
VIEW IN TELEGRAM
Этот алгоритм во многом вдохновлен Word2Vec, но применяется к узлам графа.Каким образом Node2Vec находит баланс между изучением локального окружения узла (микроструктура) и его роли в глобальном сообществе (макроструктура)?
Anonymous Quiz
6%
Путем изменения архитектуры нейросети с CNN на RNN в процессе обучения
30%
Через автоматическое удаление ребер с низким весом перед началом обучения эмбеддингов
30%
С помощью двух параметров случайного блуждания (p и q)
28%
Используя градиентный спуск для минимизации расстояния между всеми парами узлов в графе одновременно
6%
Не знаю
👍3❤1
Вы строите рекомендательную систему друзей. Ваша модель должна предсказать, появится ли ребро между узлами A и B.
Какая метрика близости узлов в графе, основанная на «общих соседях», наиболее эффективно учитывает их популярность?
Какая метрика близости узлов в графе, основанная на «общих соседях», наиболее эффективно учитывает их популярность?
Anonymous Quiz
18%
Косинусное сходство между случайными числами, присвоенными узлам
14%
Простое количество общих ребер между узлами A и B
39%
Расстояние кратчайшего пути (Dijkstra algorithm) между узлами
28%
Коэффициент Адама, который суммирует обратные логарифмы степеней общих соседей
👍1
В отличие от текста, где токен — это слово, современные модели для рядов (например, PatchTST) не подают каждое число по отдельности.
Зачем временной ряд разбивается на «патчи» (группы соседних точек) перед подачей в трансформер?
Зачем временной ряд разбивается на «патчи» (группы соседних точек) перед подачей в трансформер?
Anonymous Quiz
7%
Чтобы модель могла быстрее удалять выбросы (outliers) внутри каждого патча
1%
Это единственный способ заставить модель работать с отрицательными числами.
87%
Чтобы сохранить локальный контекст и семантику и радикально уменьшить длину последовательности
3%
Чтобы модель могла одновременно предсказывать данные в разных валютах
3%
Не знаю
👍1
В LLM-агентах часто встречается атака типа Indirect Prompt Injection.
Каким образом злоумышленник может захватить контроль над чат-ботом, не имея прямого доступа к окну чата пользователя?
Каким образом злоумышленник может захватить контроль над чат-ботом, не имея прямого доступа к окну чата пользователя?
Anonymous Quiz
74%
Разместив на веб-странице скрытый текст, который модель прочитает при анализе ссылки
4%
Путем подбора пароля к API-ключу через Brute-force атаку
3%
Отправив на сервер модели вирус в формате .exe
13%
Используя SQL-инъекцию в поле логина на сайте
5%
Не знаю
❤1