Библиотека собеса по Data Science | вопросы с собеседований
4.39K subscribers
492 photos
14 videos
1 file
614 links
Вопросы с собеседований по Data Science и ответы на них.

По рекламе: @proglib_adv

Учиться у нас: https://proglib.io/w/7dfb7235

Для обратной связи: @proglibrary_feeedback_bot

Наши каналы: https://t.me/proglibrary/9197
Download Telegram
«Этот манёвр будет стоить нам 51 год...»

— или потерю шанса на Senior-позицию из-за «поплывшей» математики на тех-интервью. В Data Science теоремы и алгоритмы — это фундамент, без которого не построить ни одну серьёзную модель.

19 января в Proglib Academy вырастут цены. Успейте забрать курсы по Math, ML и AI по старой стоимости:

— Разработка ИИ-агентов
— Математика для разработки AI-моделей
— ML для старта в Data Science
— Математика для Data Science
— Специалист по ИИ
— Алгоритмы и структуры данных
— Программирование на Python
— Основы IT для непрограммистов
— Архитектуры и шаблоны проектирования

Подготовиться к собеседованиям

⚠️ Стоимость изменится 19 января
😁1
Вы хотите дообучить модель Llama 3 на своих личных переписках, чтобы она имитировала ваш стиль общения. Вместо того чтобы менять все веса огромных матриц модели, вы решаете использовать LoRA.

В чем заключается этот метод?
Anonymous Quiz
21%
Он просто отключает (freeze) 99% слоев, оставляя только последний
56%
Он представляет изменение весов в виде произведения двух матриц низкого ранга
3%
Он переводит все веса модели в 1-битный формат
20%
Он использует внешнюю базу данных (RAG) вместо изменения внутренних весов
👍2
ViT разбивает изображение на патчи и вычисляет внимание между патчами. Если мы увеличим разрешение фото в 2 раза, количество вычислений вырастет в 16 раз.

Для решения проблемы был создан Swin Transformer. Какое нововведение позволяет ему работать быстро?
Anonymous Quiz
6%
Он удаляет 75% пикселей перед обработкой
75%
Он вычисляет внимание внутри локальных окон, которые сдвигаются на каждом слое
10%
Он заменяет механизм внимания на обычные свертки 3×3
9%
Он использует только один слой внимания в самом конце сети
2👍2
В отличие от GAN, где 2 сети соревнуются, диффузионные модели обучаются на процессе постепенного разрушения данных.

В процессе обратной диффузии нейросеть получает на вход сильно зашумленное изображение. Какова задача на каждом микро-шаге этого процесса?
Anonymous Quiz
3%
Предсказать, какой объект изображен на картинке
93%
Предсказать и «вычесть» шум, который был добавлен к изображению на текущем этапе
2%
Сжать изображение в 10 раз для экономии памяти
2%
Перевести текстовый запрос пользователя в набор пикселей
👍2
RAG или Fine-tuning: что отвечать на собеседовании?

Вопросы по архитектуре LLM-систем становятся стандартом. 23 января в 19:00 на открытом уроке к курсу «Разработка ИИ агентов» разберём матчасть: как работают Retrieval-Augmented Generation и дообучение моделей в реальных проектах.

Ведущий — Игорь Стурейко, тимлид в «Газпроме» и AI-архитектор. В своём видеосообщении Игорь делится опытом построения сложных ML-решений и рассказывает о программе подготовки специалистов по агентам.

Ключевые концепции:

— разница между параметрической и внешней памятью модели;
— использование FAISS и Chroma для хранения эмбеддингов;
— пайплайны обработки документов с помощью LangChain.

📅 Когда: 23.01 в 19:00 МСК

Узнать подробности
1
Вы тестируете систему комп. зрения для беспилотного авто Тесты показали, что можно изменить изображение знака «STOP» так, что человек не заметит разницы, но нейросеть с 99% классифицирует его как «Ограничение скорости».

Как называется этот тип атаки?
Anonymous Quiz
9%
Брутфорс-атака (Bruteforce)
56%
Инъекция данных (Data Poisoning)
2%
Переполнение буфера (Buffer Overflow)
32%
Атака быстрым градиентным знаком (FGSM - Fast Gradient Sign Method)
Представь, что ты работаешь в банке. Твоя сложная модель отклонила заявку на кредит. Клиент требует объяснить — почему? Для этого ты используешь SHAP.

В чем заключается идея вычисления Shapley values для каждого признака?
Anonymous Quiz
82%
Метод оценивает вклад признаков, сравнивая предсказания модели для всех их комбинаций.
9%
Метод строит график корреляции между признаком и ответом
5%
Метод заменяет нейросеть на дерево решений, которое легче читать
5%
Метод находит самый важный признак и обнуляет все остальные
😁41
Пятница, 19:00. Худшее время для деплоя, но идеальное, чтобы подготовиться к каверзным вопросам про LLM-пайплайны, которые точно зададут на интервью.

Вопросы про RAG и Fine-tuning стали стандартом на интервью для ML-инженеров. Приходи разобраться в теме на практике.

Разберём на открытом уроке:

— выбор между Retrieval-Augmented Generation и дообучением весов;
— работа с векторными эмбеддингами (`FAISS`, `Chroma`);
— построение продакшн-пайплайна с использованием LangChain.

Один из спикеров — Алексей Яндутов, ML-инженер в поиске Яндекса.

Это вводное занятие курса «Разработка AI-агентов». Готовьтесь к коду и архитектурным схемам.

Записаться на урок
Вы используете инициализацию весов He и Batch Normalization после каждого сверточного слоя. Несмотря на это, в ResNet в начале обучения растёт дисперсия активаций с глубиной, что ухудшает сходимость.

Какое решение лучше всего устраняет это?
Anonymous Quiz
53%
Замена ReLU на Leaky ReLU с α=0.01 для обеспечения протекания градиента в отрицательной области
22%
Dropout с вероятностью p=0.5 непосредственно перед операцией сложения для регуляризации
16%
Weight Decay исключительно к весам на основном пути, исключая параметры в shortcut-соединениях
9%
Zero-γ инициализация последней BatchNorm в residual-блоке
👍3🤔2
На интервью по DS спрашивают про Agentic Workflow, а ты всё ещё «жаришь» промпты?

Настоящий Шеф проектирует Систему. В понедельник, 26 января, стартует интенсив по разработке ИИ-агентов. Получи знания, которые отличают Middle от Senior. 📊

В программе:

— мультиагентные системы в CrewAI: управление пулом агентов;
— сложная логика в LangGraph: проектирование стейт-менеджмента;
tool use интеграция: связь моделей с API и базами данных. 🧠

Записаться на курс
Завтра стартуем: курс по разработке ИИ-агентов 📊

Будьте готовы к вопросам по архитектуре автономных пайплайнов. Мы научим проектировать агентные системы на CrewAI, управлять графами в LangGraph и подключать модели к реальным бизнес-инструментам.

👉 Успейте занять место до начала занятий
Вопрос на собеседовании: «В чём разница между классическим RAG и Agentic RAG?»

Если не знаете ответ — пора на курс. Сегодня в 19:00 МСК мы начинаем разбирать архитектуру автономных систем с нуля до продакшена.

Подготовим вас к сложным вопросам по AI:

— механизмы планирования в агентах;
— работа с памятью и контекстом;
— мультиагентная оркестрация;
— методы оценки faithfulness и relevancy ответов.

Подготовиться к офферу
👍1
Вас точно спросят про AI-агентов на следующем собеседовании

В 2026 году знание только градиентного бустинга — это база. Компании ищут тех, кто умеет внедрять LLM в продакшн через агентские архитектуры и понимает разницу между LangGraph и обычным чейнингом.

Подготовьтесь к техническим вопросам на курсе «Углубленные AI-агенты».

Что вы добавите в резюме:

— навык проектирования мультиагентных систем;
— опыт работы с актуальными фреймворками CrewAI и AutoGen;
— понимание методов масштабирования ИИ-решений;
— готовый сквозной проект в портфолио.

Курс уже идет, залетайте, пока есть места.

🚀 Записаться на основной курс

Если сомневаетесь — просто посмотрите вводное занятие.
2
Какое априорное распределение обычно берут для вероятности успеха при биномиальных данных, чтобы использовать сопряжённость и получить апостериорное распределение аналитически?
Anonymous Quiz
46%
Распределение Пуассона
26%
Бета-распределение (Beta distribution)
21%
Распределение Стьюдента
7%
Экспоненциальное распределение
👍1