DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.57K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_140

🔠 Что такое нормальное распределение ?

Нормальное распределение, также известное как распределение Гаусса или колоколообразное распределение, является одним из наиболее распространенных и важных распределений в статистике и вероятностной теории. Оно описывает распределение случайной переменной, которая подчиняется определенным условиям.

Характерной особенностью нормального распределения является его симметричность и колоколообразная форма графика плотности вероятности. Кроме того, оно полностью определяется двумя параметрами - средним значением (μ) и стандартным отклонением (σ). Среднее значение определяет центр распределения, а стандартное отклонение - меру его разброса или разности между значениями случайной переменной и средним значением.

#NormalDistribution #GaussianDistribution #BellCurve #Statistics #ProbabilityTheory #CentralLimitTheorem #Mean #StandardDeviation #DataAnalysis #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_171

🔠 Что такое Model ensembling ? (Часть_1)

Модельное ансамблирование (Model Ensembling) — это метод машинного обучения, при котором комбинируются прогнозы нескольких моделей, чтобы получить более точное предсказание. Вместо использования отдельной модели, ансамбль моделей использует множество моделей, которые работают вместе для решения задачи.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_171

🔠 Что такое Model ensembling ? (Часть_2)

Процесс модельного ансамблирования может быть выполнен различными способами. Некоторые из наиболее распространенных методов включают:

1. Усреднение (Averaging): В этом случае прогнозы нескольких моделей усредняются для получения окончательного предсказания. Например, в задачах регрессии прогнозы моделей могут быть просто усреднены, а в задачах классификации можно использовать голосование большинства для определения окончательного предсказания.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_171

🔠 Что такое Model ensembling ? (Часть_3)

2. Взвешенное усреднение (Weighted Averaging): Здесь каждой модели присваивается определенный вес, и их прогнозы усредняются с использованием этих весов. Веса могут быть определены на основе точности каждой модели на валидационном наборе данных или других критериев.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_171

🔠 Что такое Model ensembling ? (Часть_4)

3. Бэггинг (Bagging): Бэггинг представляет собой метод, при котором обучающий набор данных разбивается на несколько случайных поднаборов, и на каждом из них обучается отдельная модель. Затем прогнозы моделей усредняются, как в методе усреднения.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_171

🔠 Что такое Model ensembling ? (Часть_5)

4. Бустинг (Boosting): Бустинг также использует несколько моделей, но строит их последовательно, каждая следующая модель исправляет ошибки предыдущей. Таким образом, каждая модель фокусируется на ошибках, допущенных предыдущими моделями, что приводит к улучшению точности предсказаний.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_172

Per-sample gradients (градиенты по каждому примеру) — это концепция в глубоком обучении, связанная с вычислением градиентов модели для каждого отдельного обучающего примера в мини-пакете данных. В обычных методах градиентного спуска градиенты вычисляются на основе суммы градиентов по всем обучающим примерам в мини-пакете. Однако, при использовании per-sample gradients, каждый обучающий пример имеет свой собственный градиент, который используется для обновления параметров модели.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_172 (Часть_2)

Вычисление per-sample gradients позволяет модели учиться на более индивидуальных свойствах каждого обучающего примера. Это может быть особенно полезно, когда обучающий набор содержит разнообразные примеры или когда некоторые примеры сложнее для модели, чем другие. При использовании per-sample gradients модель может более точно адаптироваться к особенностям каждого примера, улучшая обобщающую способность модели и повышая ее производительность на новых данных.

https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_172 (Часть_3)

Однако использование per-sample gradients также может быть более вычислительно затратным, поскольку требуется вычислять градиенты для каждого обучающего примера отдельно. Поэтому этот подход может быть оправдан, если есть достаточные ресурсы для вычислений и если преимущества в точности модели перевешивают дополнительные затраты.

https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_173

Transfer Learning for Computer Vision (перенос обучения для компьютерного зрения) — это метод в глубоком обучении, который позволяет использовать предварительно обученные модели глубокого обучения для решения новых задач компьютерного зрения.

Вместо того чтобы обучать модель с нуля на большом наборе данных, используемом для предварительного обучения, при переносе обучения модель, уже обученная на задаче с большим набором данных, адаптируется и дообучается на новой задаче с помощью относительно небольшого количества данных.

https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.

#ModelEnsembling #MachineLearning #EnsembleMethods #Averaging #WeightedAveraging #Bagging #Boosting #Prediction #DataScience