🧠 Основные типы ML
1.Supervised Learning (обучение с ответами)
Есть вход + правильный ответ
линейная регрессия
логистическая регрессия
деревья решений
Примеры:
прогноз цены
спам / не спам
оценка риска
2.Unsupervised Learning (без ответов)
Ответов нет, модель ищет структуру сама
кластеризация (KMeans)
понижение размерности
Примеры:
сегментация клиентов
поиск аномалий
3.Reinforcement Learning
Обучение через награду и штраф
агент
среда
стратегия
Примеры:
игры
роботы
автопилоты
📉 Ключевая идея ML
Модель минимизирует ошибку
Ошибка = разница между:
реальным значением
предсказанием
Для этого используют:
функцию потерь
градиент
оптимизацию
❗️ Глубокую математику можно учить по ходу, а не в начале.
Ютуб | Школа SenatorovAI | Live
1.Supervised Learning (обучение с ответами)
Есть вход + правильный ответ
линейная регрессия
логистическая регрессия
деревья решений
Примеры:
прогноз цены
спам / не спам
оценка риска
2.Unsupervised Learning (без ответов)
Ответов нет, модель ищет структуру сама
кластеризация (KMeans)
понижение размерности
Примеры:
сегментация клиентов
поиск аномалий
3.Reinforcement Learning
Обучение через награду и штраф
агент
среда
стратегия
Примеры:
игры
роботы
автопилоты
📉 Ключевая идея ML
Модель минимизирует ошибку
Ошибка = разница между:
реальным значением
предсказанием
Для этого используют:
функцию потерь
градиент
оптимизацию
❗️ Глубокую математику можно учить по ходу, а не в начале.
Ютуб | Школа SenatorovAI | Live
🔥5💊3
Media is too big
VIEW IN TELEGRAM
#group_1_scrum
06.02.2026
13:11 Senatorov
Запись созвона 1 группы
Студенты:
@escape0x0d
https://github.com/SERG-1613
@hasan
https://github.com/hasan613
@shn4ydar
https://github.com/Shn4yder/
@svet_lana1588
https://github.com/svetlana-s88
Ютуб | Школа SenatorovAI | Live
06.02.2026
13:11 Senatorov
Запись созвона 1 группы
Студенты:
@escape0x0d
https://github.com/SERG-1613
@hasan
https://github.com/hasan613
@shn4ydar
https://github.com/Shn4yder/
@svet_lana1588
https://github.com/svetlana-s88
Ютуб | Школа SenatorovAI | Live
🤖 Как ML-модель учится на данных
Machine Learning — это подбор параметров модели так, чтобы ошибка была минимальной.
📐 Модель = формула
Пример простой модели:
y = kx + b
x - вход
y - предсказание
k, b - параметры, которые ищет модель
ML не «думает», он подбирает k и b.
Ошибка и функция потерь
Ошибка - разница между:
реальным y
предсказанным y
Чтобы ошибки не компенсировали друг друга, берут квадрат ошибки.
Сумма этих квадратов = функция потерь (loss).
loss → минимум
⛰ Градиентный спуск
Алгоритм, который:
смотрит, куда ошибка уменьшается
делает маленькие шаги
повторяет много раз
Так модель учится.
🧠 Главное
ML — это не магия.
Это:
формула + ошибка + оптимизация.
Если это понятно - база ML у тебя уже есть
Ютуб | Школа SenatorovAI | Live
Machine Learning — это подбор параметров модели так, чтобы ошибка была минимальной.
📐 Модель = формула
Пример простой модели:
y = kx + b
x - вход
y - предсказание
k, b - параметры, которые ищет модель
ML не «думает», он подбирает k и b.
Ошибка и функция потерь
Ошибка - разница между:
реальным y
предсказанным y
Чтобы ошибки не компенсировали друг друга, берут квадрат ошибки.
Сумма этих квадратов = функция потерь (loss).
loss → минимум
⛰ Градиентный спуск
Алгоритм, который:
смотрит, куда ошибка уменьшается
делает маленькие шаги
повторяет много раз
Так модель учится.
🧠 Главное
ML — это не магия.
Это:
формула + ошибка + оптимизация.
Если это понятно - база ML у тебя уже есть
Ютуб | Школа SenatorovAI | Live
❤3🔥2
📊 Классический Machine Learning — база ML
Классический ML — это алгоритмы, которые работают с табличными данными, быстро обучаются и легко объясняются.
Это фундамент всего Machine Learning.
🧠 Что делает ML
Модель подбирает параметры так, чтобы ошибка была минимальной.
Пример простой модели:
ML не думает — он оптимизирует.
🔑 Основные алгоритмы
Линейная регрессия — предсказание чисел (цена, зарплата)
Логистическая регрессия — классификация (0 / 1, да / нет)
KNN — решение по ближайшим соседям
Деревья решений — логика «вопрос → ответ»
Naive Bayes — вероятностный метод, часто для текста
📉 Ошибка и обучение
Ошибка = разница между реальным и предсказанным значением.
Используется функция потерь, которую модель минимизирует с помощью градиентного спуска.
🚀 Почему классический ML важен
проще нейросетей
быстрее и дешевле
часто достаточно для реальных задач
отличная база для DL и AI
Классический ML — это фундамент, без которого дальше идти сложно 🧱🔥
Ютуб | Школа SenatorovAI | Live
Классический ML — это алгоритмы, которые работают с табличными данными, быстро обучаются и легко объясняются.
Это фундамент всего Machine Learning.
🧠 Что делает ML
Модель подбирает параметры так, чтобы ошибка была минимальной.
Пример простой модели:
y = kx + bML не думает — он оптимизирует.
🔑 Основные алгоритмы
Линейная регрессия — предсказание чисел (цена, зарплата)
Логистическая регрессия — классификация (0 / 1, да / нет)
KNN — решение по ближайшим соседям
Деревья решений — логика «вопрос → ответ»
Naive Bayes — вероятностный метод, часто для текста
📉 Ошибка и обучение
Ошибка = разница между реальным и предсказанным значением.
Используется функция потерь, которую модель минимизирует с помощью градиентного спуска.
🚀 Почему классический ML важен
проще нейросетей
быстрее и дешевле
часто достаточно для реальных задач
отличная база для DL и AI
Классический ML — это фундамент, без которого дальше идти сложно 🧱🔥
Ютуб | Школа SenatorovAI | Live
❤2💊2
Разработчик работает над багом в коде, и у него почти все готово для коммита. Но в этот момент босс даёт ему срочную задачу. Как разработчику не потерять свои исправления? Выберите оптимальное решение.
Anonymous Quiz
30%
Создать новую ветку и закоммитить в неё.
6%
Скопировать все изменения в новый файл с названием "Доделать"
62%
Использовать команду git stash
2%
Доделать первую задачу, босс подождёт.
Вы нашли интересный репозиторий на GitHub и решили внести свой вклад в его развитие. Ваше первое действие?
Anonymous Quiz
32%
Создать issue в этом репозитории с описанием своих намерений.
50%
Сделать fork репозитория.
10%
Попросить владельца репозитория о предоставлении прав на редактирование.
8%
Чужой репозиторий изменять нельзя.
Найдите производную сигмоиды -
функции у=1/(1+exp(-x))
функции у=1/(1+exp(-x))
Anonymous Quiz
16%
1/(1+exp(-x))²
16%
exp(x)/(1+exp(-x))²
57%
exp(-x)/(1+exp(-x))²
11%
1/exp(-x)
#group_2_scrum
Созвон 2 группы - 11.02.2026 Среда в 20-00
2 группа: https://cr2nsocc.ktalk.ru/sw1tpl3toeyl
Ютуб | Школа SenatorovAI | Live
Созвон 2 группы - 11.02.2026 Среда в 20-00
2 группа: https://cr2nsocc.ktalk.ru/sw1tpl3toeyl
Ютуб | Школа SenatorovAI | Live
#group_3_scrum
Созвон 3 группы - 13.02.2026 Пятница в 18-00
3 группа: https://g2rnrwqk.ktalk.ru/e2combx4mhhy
Ютуб | Школа SenatorovAI | Live
Созвон 3 группы - 13.02.2026 Пятница в 18-00
3 группа: https://g2rnrwqk.ktalk.ru/e2combx4mhhy
Ютуб | Школа SenatorovAI | Live
#group_1_scrum
Созвон 1 группы - 13.02.2026, пятница в 18 00.
1 группа: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1
Ютуб | Школа SenatorovAI | Live
Созвон 1 группы - 13.02.2026, пятница в 18 00.
1 группа: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1
Ютуб | Школа SenatorovAI | Live
Михаил Иванов
#Видыфункций
#экзамен
Защита курса по выпуклой оптимизации.
Спикер: @Jazzyflavor
https://github.com/J4zzyflavor
Студент 3 группы.
Учиться на Data Scientists /ML Engineer
Пришёл с 0 знаниями в математике.
Автор: @RuslanSenatorov
Ютуб | Школа SenatorovAI | Live
Защита курса по выпуклой оптимизации.
Спикер: @Jazzyflavor
https://github.com/J4zzyflavor
Студент 3 группы.
Учиться на Data Scientists /
Пришёл с 0 знаниями в математике.
Автор: @RuslanSenatorov
Ютуб | Школа SenatorovAI | Live
🔥5👍1
Что такое признаки 🧩
В Machine Learning 🤖 признаки это переменные 📊, на основе которых модель делает выводы.
Проще говоря это столбцы таблицы 📋.
Если вы предсказываете цену квартиры 🏠, признаками могут быть
площадь 📐, район 🏙, этаж 🏢, год постройки 📅
Главное правило ⚠️
Модель не умнее данных.
Слабые признаки → слабый результат 📉
Правильные признаки это уже половина успеха 🎯
Ютуб | Школа SenatorovAI | Live
В Machine Learning 🤖 признаки это переменные 📊, на основе которых модель делает выводы.
Проще говоря это столбцы таблицы 📋.
Если вы предсказываете цену квартиры 🏠, признаками могут быть
площадь 📐, район 🏙, этаж 🏢, год постройки 📅
Главное правило ⚠️
Модель не умнее данных.
Слабые признаки → слабый результат 📉
Правильные признаки это уже половина успеха 🎯
Ютуб | Школа SenatorovAI | Live
❤6
Современная цифровая экономика диктует новые правила и заставляет расширять способы оплаты. Гибкость и удобство — это уже не опция, а необходимость.
Поэтому теперь для вступления в школу SenatorovAI больше НЕ нужно подписываться на Boosty.
Вы можете оплатить обучение любым удобным способом — абсолютно любым.
Также:
— Курсы на Stepik можно оплатить любым удобным способом.
— Персональные уроки тоже доступны с оплатой любым удобным способом.
Мы сделали всё, чтобы вам было удобно сосредоточиться на обучении, а не на технических ограничениях.
Подробности — в личных сообщениях
Автор: @RuslanSenatorov
Ютуб | Школа SenatorovAI | Live
Поэтому теперь для вступления в школу SenatorovAI больше НЕ нужно подписываться на Boosty.
Вы можете оплатить обучение любым удобным способом — абсолютно любым.
Также:
— Курсы на Stepik можно оплатить любым удобным способом.
— Персональные уроки тоже доступны с оплатой любым удобным способом.
Мы сделали всё, чтобы вам было удобно сосредоточиться на обучении, а не на технических ограничениях.
Подробности — в личных сообщениях
Автор: @RuslanSenatorov
Ютуб | Школа SenatorovAI | Live
❤2🔥2
В честь праздника на Stepik действует скидка –50% на все мои курсы 🔥
Со скидкой доступны курсы по Data Science с нуля, математике и Python, включая темы:
🐍 Python и перенос моделей на VPS:
• https://stepik.org/a/193773 Python-разработчик с Нуля до Open Source.Github — Лучший курс по python с нуля, который даст стандарты коммерческой разработки, навыки в линтерах, github и всей коммерческой движухе которая есть в IT-компаниях, курс подходит как новичкам которые только начинают изучать язык, так и опытным специалистам чтобы систематизировать знания.
• https://stepik.org/a/237390 Переносим Python (FastAPI) на сервер (VPS) — Лучший курс по переносу ваших скриптов и приложений, ML моделей, на сервер (VPS), разберётесь как сделать чтобы ваши скрипты работали 24/7, поймёте что такое пуллинг сервера, а главное узнаете как сделать Webhook и настроите CRON, познакомитесь с основными командами в Linux для поднятия демона и SSL сертификата
📊 Регрессия и основы ML
• https://stepik.org/a/239757 Простая регрессия — линейная модель с одной переменной, геометрический и аналитический смысл.
• https://stepik.org/a/242962 Множественная регрессия — работа с несколькими признаками, матричная форма, нормальные уравнения.
• https://stepik.org/a/250384 Underfitting / Overfitting — недообучение и переобучение, как их распознать и избежать.
• https://stepik.org/a/252263 L2-регуляризация — ridge-подход, борьба с переобучением через штраф на веса.
📐 Линейная алгебра для Data Science
• https://stepik.org/a/246258 SVD (сингулярное разложение) — основа рекомендаций, сжатия данных и PCA.
• https://stepik.org/a/248961 QR-разложение — устойчивое решение задач наименьших квадратов.
• https://stepik.org/a/249447 Разложение Холецкого — эффективное решение систем с положительно определёнными матрицами.
⚙️ Оптимизация
• https://stepik.org/a/245654 Градиентный спуск — базовый алгоритм оптимизации функций.
• https://stepik.org/a/260000 Сопряжённые градиенты — быстрый метод для больших симметричных систем.
• https://stepik.org/a/268894 LSQR — итерационный метод для больших разреженных задач.
• https://stepik.org/a/270048 SAG / SAGA — стохастические методы для больших датасетов.
Все курсы подходят как новичкам которые только начинают изучать IT и Data Science, так и опытным специалистам чтобы систематизировать знания.
Если вы давно хотели системно разобраться в математике и алгоритмах машинного обучения — это лучший момент.
🎁 И важное:
На Stepik есть функция “Купить курс в подарок”.
Это может стать не просто полезным, а по-настоящему ценным подарком вашей половинке — инвестицией в знания, карьеру и будущее.
Автор: @RuslanSenatorov
Ютуб | Школа SenatorovAI | Live
Со скидкой доступны курсы по Data Science с нуля, математике и Python, включая темы:
• https://stepik.org/a/193773 Python-разработчик с Нуля до Open Source.Github — Лучший курс по python с нуля, который даст стандарты коммерческой разработки, навыки в линтерах, github и всей коммерческой движухе которая есть в IT-компаниях, курс подходит как новичкам которые только начинают изучать язык, так и опытным специалистам чтобы систематизировать знания.
• https://stepik.org/a/237390 Переносим Python (FastAPI) на сервер (VPS) — Лучший курс по переносу ваших скриптов и приложений, ML моделей, на сервер (VPS), разберётесь как сделать чтобы ваши скрипты работали 24/7, поймёте что такое пуллинг сервера, а главное узнаете как сделать Webhook и настроите CRON, познакомитесь с основными командами в Linux для поднятия демона и SSL сертификата
📊 Регрессия и основы ML
• https://stepik.org/a/239757 Простая регрессия — линейная модель с одной переменной, геометрический и аналитический смысл.
• https://stepik.org/a/242962 Множественная регрессия — работа с несколькими признаками, матричная форма, нормальные уравнения.
• https://stepik.org/a/250384 Underfitting / Overfitting — недообучение и переобучение, как их распознать и избежать.
• https://stepik.org/a/252263 L2-регуляризация — ridge-подход, борьба с переобучением через штраф на веса.
📐 Линейная алгебра для Data Science
• https://stepik.org/a/246258 SVD (сингулярное разложение) — основа рекомендаций, сжатия данных и PCA.
• https://stepik.org/a/248961 QR-разложение — устойчивое решение задач наименьших квадратов.
• https://stepik.org/a/249447 Разложение Холецкого — эффективное решение систем с положительно определёнными матрицами.
⚙️ Оптимизация
• https://stepik.org/a/245654 Градиентный спуск — базовый алгоритм оптимизации функций.
• https://stepik.org/a/260000 Сопряжённые градиенты — быстрый метод для больших симметричных систем.
• https://stepik.org/a/268894 LSQR — итерационный метод для больших разреженных задач.
• https://stepik.org/a/270048 SAG / SAGA — стохастические методы для больших датасетов.
Все курсы подходят как новичкам которые только начинают изучать IT и Data Science, так и опытным специалистам чтобы систематизировать знания.
Если вы давно хотели системно разобраться в математике и алгоритмах машинного обучения — это лучший момент.
🎁 И важное:
На Stepik есть функция “Купить курс в подарок”.
Это может стать не просто полезным, а по-настоящему ценным подарком вашей половинке — инвестицией в знания, карьеру и будущее.
Автор: @RuslanSenatorov
Ютуб | Школа SenatorovAI | Live
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
всем привет. какая вероятность получить выигрыш среди 29 участников? правильный ответ - совершенно реальная!) вчера выиграл в школе 1000р, в розыгрыше. да, и такие мероприятия тоже бывают в SENATOTROVAI.
@autotest_er
https://github.com/dshilin
В прошлый раз я заработал на фриланс проекте https://t.me/SENATOROVAI/224
Ютуб | Школа SenatorovAI | Live
@autotest_er
https://github.com/dshilin
В прошлый раз я заработал на фриланс проекте https://t.me/SENATOROVAI/224
Ютуб | Школа SenatorovAI | Live
🔥5
Media is too big
VIEW IN TELEGRAM
#group_2_scrum
11.02.2026
Запись созвона 2 группы
Студенты:
@autotest_er
https://github.com/dshilin
@white_shift
https://github.com/stokato
Ютуб | Школа SenatorovAI | Live
11.02.2026
Запись созвона 2 группы
Студенты:
@autotest_er
https://github.com/dshilin
@white_shift
https://github.com/stokato
Ютуб | Школа SenatorovAI | Live
Грязные данные в машинном обучении - это ...
Anonymous Quiz
5%
Конфиденциальные данные, полученные незаконным путем
86%
Данные, содержащие ошибки, пропущенные значения, шум и выбросы.
5%
Данные, содержащие не точные, а приближенные значения
3%
Данные, содержащие неверно вычисленные отрицательные значения
Зачем делить данные на train 🏋️♂️ и test 🧪
Если обучать и проверять модель на одних данных, она может просто запомнить 🧠, а не научиться.
Поэтому данные делят
Train 🏋️♂️ - обучение
Test 🧪 - проверка на новых данных
Классика
80 процентов train
20 процентов test
Если на train всё идеально ✅
а на test плохо ❌
это проблема
Смысл ML в обобщении 🌍, а не в запоминании.
Ютуб | Школа SenatorovAI | Live
Если обучать и проверять модель на одних данных, она может просто запомнить 🧠, а не научиться.
Поэтому данные делят
Train 🏋️♂️ - обучение
Test 🧪 - проверка на новых данных
Классика
80 процентов train
20 процентов test
Если на train всё идеально ✅
а на test плохо ❌
это проблема
Смысл ML в обобщении 🌍, а не в запоминании.
Ютуб | Школа SenatorovAI | Live
❤2