#вопросы_с_собеседований
Что такое ансамбль методов?
Ансамбль методов — это использование нескольких алгоритмов с целью получения более высокой эффективности прогнозирования, чем можно было бы получить, используя эти алгоритмы отдельно.
Что такое ансамбль методов?
Ансамбль методов — это использование нескольких алгоритмов с целью получения более высокой эффективности прогнозирования, чем можно было бы получить, используя эти алгоритмы отдельно.
#вопросы_с_собеседований
Что такое закон больших чисел?
Это принцип теории вероятностей, который описывает результат выполнения одного и того же эксперимента множество раз.
При достаточно длительной серии экспериментов закон больших чисел гарантирует устойчивость средних значений от случайных событий. И среднее значение конечной выборки фиксированного распределения будет очень близко к математическому ожиданию выборки.
К примеру, при бросках шестигранного кубика. Чем больше бросков, тем больше среднее значение близится к математическому ожиданию 3,5.
Что такое закон больших чисел?
Это принцип теории вероятностей, который описывает результат выполнения одного и того же эксперимента множество раз.
При достаточно длительной серии экспериментов закон больших чисел гарантирует устойчивость средних значений от случайных событий. И среднее значение конечной выборки фиксированного распределения будет очень близко к математическому ожиданию выборки.
К примеру, при бросках шестигранного кубика. Чем больше бросков, тем больше среднее значение близится к математическому ожиданию 3,5.
👍4❤1
#вопросы_с_собеседований
Как работает ROC-кривая?
ROC-кривая — это графическое изображение контраста между показателями истинно положительных и ложноположительных результатов при различных пороговых значениях.
Если считать TPR и FPR для фиксированного порога μ є [0,1], то их можно представить в виде функций от аргумента μ:
TPR = TPR(μ), FPR = FPR(μ). При этом обе функции монотонно возрастают от 0 до 1, а значит, определена функция:
ROC(x) = TPR(FPR-1(x)), x є [0,1]
ROC-кривая — это график функции. Как правило, у хорошего классификатора кривая лежит по большей части либо целиком выше прямой y=x. Это связано с тем что при хорошей классификации надо получать максимальный TPR при минимальном FPR.
Как работает ROC-кривая?
ROC-кривая — это графическое изображение контраста между показателями истинно положительных и ложноположительных результатов при различных пороговых значениях.
Если считать TPR и FPR для фиксированного порога μ є [0,1], то их можно представить в виде функций от аргумента μ:
TPR = TPR(μ), FPR = FPR(μ). При этом обе функции монотонно возрастают от 0 до 1, а значит, определена функция:
ROC(x) = TPR(FPR-1(x)), x є [0,1]
ROC-кривая — это график функции. Как правило, у хорошего классификатора кривая лежит по большей части либо целиком выше прямой y=x. Это связано с тем что при хорошей классификации надо получать максимальный TPR при минимальном FPR.
👍1
#вопросы_с_собеседований
Что такое проблемы взрывающегося и затухающего градиента?
Градиент — это вектор частных производных функции потерь по весам нейросети. Он показывает вектор наибольшего роста функции для всех весов.
В процессе обучения при обратном распространении ошибки при прохождении через слои нейронной сети в элементах градиента могут накапливаться большие значения, что будет приводить к сильным изменениям весов. Это дестабилизирует алгоритм нейросети. Эта проблема называется взрывающимся градиентом.
Аналогичная обратная проблема, в которой при прохождении ошибки через слои градиент становится меньше, называется затухающим градиентом.
Чем больше количество слоев нейросети, тем выше риски данных ошибок. Для решения сложных задач с помощью нейронных сетей необходимо уметь определять и устранять её.
Что такое проблемы взрывающегося и затухающего градиента?
Градиент — это вектор частных производных функции потерь по весам нейросети. Он показывает вектор наибольшего роста функции для всех весов.
В процессе обучения при обратном распространении ошибки при прохождении через слои нейронной сети в элементах градиента могут накапливаться большие значения, что будет приводить к сильным изменениям весов. Это дестабилизирует алгоритм нейросети. Эта проблема называется взрывающимся градиентом.
Аналогичная обратная проблема, в которой при прохождении ошибки через слои градиент становится меньше, называется затухающим градиентом.
Чем больше количество слоев нейросети, тем выше риски данных ошибок. Для решения сложных задач с помощью нейронных сетей необходимо уметь определять и устранять её.
👍2
#вопросы_с_собеседований
Пара вопросов с интервью по глубокому обучению.
1. Что произойдет, если learning rate установлен неточно (слишком низкий или слишком высокий)?
2. Что такое гиперпараметры?
Пара вопросов с интервью по глубокому обучению.
1. Что произойдет, если learning rate установлен неточно (слишком низкий или слишком высокий)?
2. Что такое гиперпараметры?
Что произойдет, если learning rate установлен неточно (слишком низкий или слишком высокий)?
Когда LR слишком маленький, обучение модели будет продвигаться очень медленно, поскольку на каждом шаге мы минимально обновляем веса. До достижения точки минимума потребуется много обновлений.
Если LR установлен слишком большим, это вызывает нежелательное отклоняющееся поведение по отношению к функции потерь из-за резких обновлений весов. Алгоритм может не найти точку минимума.
Когда LR слишком маленький, обучение модели будет продвигаться очень медленно, поскольку на каждом шаге мы минимально обновляем веса. До достижения точки минимума потребуется много обновлений.
Если LR установлен слишком большим, это вызывает нежелательное отклоняющееся поведение по отношению к функции потерь из-за резких обновлений весов. Алгоритм может не найти точку минимума.
👍1
#вопросы_с_собеседований
Как работает Долгая краткосрочная память?
Как работает Долгая краткосрочная память?
🤗 Как построить интерактивное пространство HF для визуализации набора данных изображений
https://huggingface.co/blog/MarkusStoll/interactive-hf-space-to-visualize-image-datasets
@machinelearning_interview
https://huggingface.co/blog/MarkusStoll/interactive-hf-space-to-visualize-image-datasets
@machinelearning_interview
huggingface.co
How to build an interactive HF Space to visualize an Image Dataset
A Blog post by Markus Stoll on Hugging Face
👍1
#вопросы_с_собеседований
В чем разница между машинным обучением с учителем и без учителя?
В чем разница между машинным обучением с учителем и без учителя?
Для обучения с учителем требуются данные, помеченные для обучения. Например, чтобы провести классификацию (задача обучения с учителем), вам нужно сначала пометить данные, которые вы будете использовать для обучения модели, для классификации данных по помеченным группам; в то же время обучение без учителя не требует явной маркировки данных.
#вопросы_с_собеседований
Почему ReLU лучше и чаще используется в нейронных сетях, чем сигмоида?
Почему ReLU лучше и чаще используется в нейронных сетях, чем сигмоида?
👍1
#вопросы_с_собеседований
Что такое нормализация данных и зачем она нам нужна?
Нормализация данных - очень важный этап предварительной обработки, используемый для изменения масштаба значений, чтобы они соответствовали определенному диапазону, чтобы обеспечить лучшую сходимость во время обратного распространения ошибки. В общем случае она сводится к вычитанию среднего значения и делению на стандартное отклонение.
Если этого не сделать, некоторые признаки будут иметь более высокий вес в функции стоимости. Нормализация позволяет сделать все признаки одинаково взвешенными.
Что такое нормализация данных и зачем она нам нужна?
Нормализация данных - очень важный этап предварительной обработки, используемый для изменения масштаба значений, чтобы они соответствовали определенному диапазону, чтобы обеспечить лучшую сходимость во время обратного распространения ошибки. В общем случае она сводится к вычитанию среднего значения и делению на стандартное отклонение.
Если этого не сделать, некоторые признаки будут иметь более высокий вес в функции стоимости. Нормализация позволяет сделать все признаки одинаково взвешенными.
👍1
#вопросы_с_собеседований
Что такое аугментация данных? Можете привести примеры?
Под аугментацией данных понимается увеличение выборки данных для обучения через модификацию существующих данных. Компьютерное зрение - одна из областей, где очень полезно увеличение объема данных. Есть много модификаций, которые мы можем сделать с изображениями:
— Изменить размер
— Горизонтально или вертикально перевернуть
— Добавить шум
— Деформировать
— Изменить цвета
Что такое аугментация данных? Можете привести примеры?
Под аугментацией данных понимается увеличение выборки данных для обучения через модификацию существующих данных. Компьютерное зрение - одна из областей, где очень полезно увеличение объема данных. Есть много модификаций, которые мы можем сделать с изображениями:
— Изменить размер
— Горизонтально или вертикально перевернуть
— Добавить шум
— Деформировать
— Изменить цвета
👍2
#вопросы_с_собеседований
Как рассчитать точность прогноза, используя матрицу ошибок?
В матрице ошибок есть значения для общего количества данных, истинных значений и прогнозируемых значений.
Как рассчитать точность прогноза, используя матрицу ошибок?
В матрице ошибок есть значения для общего количества данных, истинных значений и прогнозируемых значений.
Представьте, что ваш набор данных наверняка линейно разделим и вам нужно гарантировать сходимость и наибольшее число итераций/шагов в вашем алгоритме (из-за вычислительных ресурсов).
Выбрали ли бы вы в таком случае градиентный спуск? Что можно выбрать? (Подсказка: какой простой алгоритм с гарантией обеспечивает нахождение решения?)
Выбрали ли бы вы в таком случае градиентный спуск? Что можно выбрать? (Подсказка: какой простой алгоритм с гарантией обеспечивает нахождение решения?)
Простая выгрузка случайной выборки из обучающего набора данных в обучающую и проверочную выборку хорошо подходит для задачи регрессии. А что может пойти не так с этим подходом для задачи классификации? Что с этим можно сделать? (Подсказка: все ли классы преобладают в одной и той же степени?)
Что такое уменьшение размерности? Почему и как?
Снижение размерности - это уменьшение размерности (количества функций) данных перед подгонкой модели.
Проклятие размерности является основной причиной уменьшения размерности. Проклятие размерности говорит о том, что, когда размерность увеличивается, первое, что связано с интенсивным использованием данных, уменьшается в каждом измерении, а второе, более высокая размерность, облегчает переоснащение модели.
В зависимости от проблемы существуют разные методы уменьшения размерности. Самый строгий прямой способ выполнить анализ главных компонентов (PCA), который представляет собой алгоритм машинного обучения без учителя, который сохраняет только некоррелированные функции с наибольшей дисперсией.
Во время анализа текста обычно требуется уменьшить размерность, поскольку векторизованная матрица является разреженной матрицей. HashingVectorizer уменьшит размерность перед подгонкой данных в модель.
Это все двадцать вопросов, связанных с машинным обучением, для подготовки к собеседованию. Вы можете использовать их в качестве контрольного списка при подготовке к собеседованию или в качестве учебного пособия, которое поможет вам лучше понять основы машинного обучения. Я написал другие руководства по собеседованию для вопросов по статистике:
Снижение размерности - это уменьшение размерности (количества функций) данных перед подгонкой модели.
Проклятие размерности является основной причиной уменьшения размерности. Проклятие размерности говорит о том, что, когда размерность увеличивается, первое, что связано с интенсивным использованием данных, уменьшается в каждом измерении, а второе, более высокая размерность, облегчает переоснащение модели.
В зависимости от проблемы существуют разные методы уменьшения размерности. Самый строгий прямой способ выполнить анализ главных компонентов (PCA), который представляет собой алгоритм машинного обучения без учителя, который сохраняет только некоррелированные функции с наибольшей дисперсией.
Во время анализа текста обычно требуется уменьшить размерность, поскольку векторизованная матрица является разреженной матрицей. HashingVectorizer уменьшит размерность перед подгонкой данных в модель.
Это все двадцать вопросов, связанных с машинным обучением, для подготовки к собеседованию. Вы можете использовать их в качестве контрольного списка при подготовке к собеседованию или в качестве учебного пособия, которое поможет вам лучше понять основы машинного обучения. Я написал другие руководства по собеседованию для вопросов по статистике:
👍3