Библиотека собеса по Data Science | вопросы с собеседований
4.39K subscribers
492 photos
14 videos
1 file
614 links
Вопросы с собеседований по Data Science и ответы на них.

По рекламе: @proglib_adv

Учиться у нас: https://proglib.io/w/7dfb7235

Для обратной связи: @proglibrary_feeedback_bot

Наши каналы: https://t.me/proglibrary/9197
Download Telegram
Начать рассказывать интервьюеру, как вы ловко дёргаете ручки API через базовый LangChain.

Звучит как отличный план, да? Нет, это мгновенный отказ.

В свежем отчёте по рынку GPU говорится, что 54% компаний стопают ИИ-внедрения тупо из-за конских затрат на инфраструктуру. На серверах более 70% стоимости — это видеокарты. Поэтому на собесах сейчас спрашивают не про красивые промпты, а про жёсткую экономику агентов.

По сути, от вас ждут понимания, как лимитировать ресурсы на лету, роутить запросы и дебажить отказы через механизм time-travel в LangGraph. Если вы до сих пор собираете ботов в ноутбуках, гляньте обновлённый курс «Разработка ИИ-агентов» — фокус там смещён с игрушечных концепций на суровый энтерпрайз.

Что требуют от мидлов и выше:

— интеграция мультиагентных систем по стандарту MCP;
— суровый AgentOps: метрики, трейсинг, защита от деградации пайплайнов;
— локальный деплой Open Source под 152-ФЗ (без этого в финтех можно даже не стучаться).

Прямо сейчас можно урвать курс с увесистой скидкой (49 000 ₽ 62 990 ₽ за базовый тариф и 99 000 ₽ 124 990 ₽ за продвинутый трек), но стоит поторопиться — на потоке осталось всего 5 мест.

👉 Подтянуть архитектуру до уровня прода
Вы строите модель для обнаружения редких мошеннических транзакций (0.1% от всех данных). Ваша модель просто всегда говорит «Это не мошенничество». Какая метрика будет абсолютно бесполезной?
Anonymous Quiz
20%
Precision
16%
Recall
56%
Accuracy
8%
F1
2🌚1
У вас есть признак «Город проживания» с 500 уникальными значениями. Вы решаете использовать One-Hot Encoding.
К какой основной проблеме это приведет при обучении модели (особенно линейной)?
Anonymous Quiz
4%
Модель станет слишком простой и не увидит связей
89%
Проклятие размерности и чрезмерная разреженность данных
6%
Города будут отсортированы по алфавиту, что создаст ложную зависимость
2%
Никакой проблемы нет, это стандартный подход
👍1
Вы обучаете нейронную сеть, где один признак варьируется от 0 до 1, а другой — от 1 000 000 до 10 000 000. Вы забыли сделать Scaling (масштабирование).
Как это отразится на процессе обучения?
Anonymous Quiz
12%
Нейросеть сама поймет масштаб и подстроится
54%
Веса маленького признака просто обнулятся
33%
Линии уровня функции потерь станут сильно вытянутыми (эллипсами)
1%
Модель будет работать быстрее, так как не тратит время на нормализацию
👍2
У вас есть база знаний на 1 ГБ. Вы выбираете между использованием RAG (поиск кусочков) и Long Context (запихнуть всё в одну модель).
В каком случае риск «галлюцинации из-за шума» выше?
Anonymous Quiz
9%
Риски одинаковы
20%
В RAG, если поисковик (retriever) принес нерелевантный мусор
72%
В Long Context, так как модель может смешать факты из разных частей огромного текста
👍1
😱 Если ваш продукт не умеет отдавать данные в формате, понятном AI-агенту, то вас просто не существует

Скрипт не будет кликать по красивым кнопкам в браузере, он уйдёт к конкуренту с нормальным API. Перестроить архитектуру под машинных клиентов — это уже не хайп, а необходимое условие сохранения конкурентоспособности.

Как адаптировать продукт и не исчезнуть из выдачи:

— интегрировать MCP и A2A-взаимодействие, чтобы агенты могли вас читать;
— научиться контролировать стоимость (лимиты, кэш, роутинг между моделями);
— настроить AgentOps: трейсинг, логирование и отлов регрессий.

Всё это ждёт вас на обновлённом курсе «Разработка AI-агентов». Мы специально сделали фокус на утилитарном инжиниринге и production-ready решениях.

Кстати, до 29 марта можно забрать курс с большой скидкой, и стоит поторопиться — мест на потоке всё меньше.

Зафиксировать цену и начать деплоить агентов без слива бюджета 👈
Вы подаете на вход модели изображение панды, но добавляете к нему микроскопический «шум», невидимый для человеческого глаза. Модель с уверенностью 99% говорит, что это «гиббон».
Как называется этот феномен в глубоком обучении?
Anonymous Quiz
27%
Галлюцинация
40%
Adversarial Example
30%
Нейронный шум
4%
Ошибка округления
Вы готовите временные ряды для предсказания курса акций. Вы решили нормализовать данные (Scaling), вычислив среднее и стандартное отклонение по всему имеющемуся датасету перед разбиением на Train и Test.
К какой ошибке в оценке модели это приведет?
Anonymous Quiz
3%
Модель будет обучаться слишком долго, так как нормализация больших чисел требует много ресурсов
20%
Нормализация по всему датасету сделает веса модели маленькими, что приведет к затуханию градиента
2%
Это приведет к дублированию строк в базе данных SQL
75%
Произойдет «утечка будущего»
👍1
Алгоритмы вроде YOLO часто выдают несколько bounding boxes вокруг одного и того же объекта с разной степенью уверенности. Для очистки используется Non-Maximum Suppression.
На основе какого показателя NMS решает, что две рамки относятся к одному объекту?
Anonymous Quiz
15%
На основе разницы в площади (Area difference) между рамками
76%
На основе метрики Intersection over Union (IoU)
2%
На основе среднего цвета пикселей внутри каждой рамки
7%
На основе евклидова расстояния между левыми верхними углами рамок
🔥1
Метрика MAPE (Mean Absolute Percentage Error) очень популярна в бизнесе, потому что выражается в процентах.
В каком случае использование MAPE даст крайне искаженный или математически неопределенный результат?
Anonymous Quiz
15%
Если в данных есть выраженная сезонность
11%
Если ряд имеет слишком длинный горизонт прогнозирования
5%
Если мы используем нейросети вместо классической статистики
69%
Если фактические значения в ряду близки к нулю или равны ему