Anonymous Quiz
39%
Dropout
51%
Batch Normalization
6%
Gradient Clipping
5%
Data Augmentation
Линейная регрессия часто является базовым алгоритмом из-за своей интерпретируемости и простоты. Для классификации популярным выбором может быть логистическая регрессия.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Anonymous Quiz
24%
Decision Tree
11%
Логистическая регрессия
58%
Robust PCA
7%
TF-IDF
Anonymous Quiz
9%
Decision Tree
8%
K-means
69%
RNN
15%
Logistic Regression
Forwarded from easyoffer
🎉 Краудфандинг easyoffer 2.0 стартовал!
Друзья, с этого момента вы можете поддержать проект и получить существенный бонус:
🚀 PRO-тариф на 1 год, по цене месячной подписки на релизе.
➕ Доступ к закрытому бета-тесту easyoffer 2.0 (середина–конец мая)
Поддержать проект можно здесь:
https://planeta.ru/campaigns/easyoffer
📌 Если не получается оплатить через карту РФ — напишите мне @kivaiko, и мы найдём удобный способ
Друзья, с этого момента вы можете поддержать проект и получить существенный бонус:
🚀 PRO-тариф на 1 год, по цене месячной подписки на релизе.
➕ Доступ к закрытому бета-тесту easyoffer 2.0 (середина–конец мая)
Поддержать проект можно здесь:
https://planeta.ru/campaigns/easyoffer
📌 Если не получается оплатить через карту РФ — напишите мне @kivaiko, и мы найдём удобный способ
Forwarded from easyoffer
Я поставил целью сбора скромные 300 тыс. рублей, но ребята, вы накидали больше млн. всего за 1 день. Это просто невероятно!
Благодаря вашей поддержке, я смогу привлечь еще больше людей для разработки сайта и обработки собеседований. Ваш вклад сделает проект качественнее и ускорит его выход! Огромное вам спасибо!
Краудфандинг будет продолжаться еще 31 день и все кто поддержать проект сейчас, до его выхода, смогут получить:
🚀 PRO-тариф на 1 год, по цене месячной подписки на релизе.
➕ Доступ к закрытому бета-тесту easyoffer 2.0 (середина–конец мая)
Поддержать проект можно здесь:
https://planeta.ru/campaigns/easyoffer
Огромное спасибо за вашу поддержку! 🤝
Благодаря вашей поддержке, я смогу привлечь еще больше людей для разработки сайта и обработки собеседований. Ваш вклад сделает проект качественнее и ускорит его выход! Огромное вам спасибо!
Краудфандинг будет продолжаться еще 31 день и все кто поддержать проект сейчас, до его выхода, смогут получить:
🚀 PRO-тариф на 1 год, по цене месячной подписки на релизе.
➕ Доступ к закрытому бета-тесту easyoffer 2.0 (середина–конец мая)
Поддержать проект можно здесь:
https://planeta.ru/campaigns/easyoffer
Огромное спасибо за вашу поддержку! 🤝
StandardScaling сохраняет распределение данных, что важно для моделей, чувствительных к стандартному отклонению, тогда как MinMaxScaling может искажать распределение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Anonymous Quiz
3%
Decision Tree
2%
Логистическая регрессия
88%
Matrix Factorization
7%
TF-IDF
😁20👀2🤯1
Anonymous Quiz
7%
Линейная регрессия
4%
Логистическая регрессия
74%
Полиномиальная регрессия
15%
Случайный лес
😁12
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3
Anonymous Quiz
6%
Decision Tree
78%
Item-Based Collaborative Filtering
8%
Автоэнкодеры
8%
TF-IDF
😁4👀2
Anonymous Quiz
7%
Decision Tree
4%
Логистическая регрессия
69%
Word2Vec
20%
TF-IDF
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1
Anonymous Quiz
6%
Ridge Regression
11%
Lasso Regression
76%
Elastic Net
7%
Dropout
😁1
Anonymous Quiz
14%
Суммирование входных данных
78%
Преобразование выходных данных в пределах диапазона
3%
Хранение входных данных
5%
Уменьшение размерности данных
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Anonymous Quiz
68%
Бэггинг
6%
K-means
20%
PCA
6%
Логистическая регрессия
💊3
Anonymous Quiz
7%
Случайный лес
70%
RNN
19%
Линейная регрессия
5%
K-means
1. Нормально распределёнными.
2. Иметь одинаковую дисперсию между группами.
Если эти условия не выполняются, используют его модификации или непараметрические тесты.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2
Anonymous Quiz
80%
RNN
8%
K-means
8%
Decision Tree
4%
Logistic Regression