Forwarded from Ruslan Senatorov | Реверс-Инжиниринг Data Science
Первая в жизни встреча со студентами школы SENATOROVAI ❤️🚀
Незабываемое чувство, когда много лет преподаёшь дистанционно и встречаешься в живую, а потом ещё и ходишь вместе в спортзал, СПАСИБО ЧТО ВЫ ЕСТЬ, ЗА ВЕРУ В МЕНЯ.
Фотограф: Михаил Дмитриев @mr_jpeg
Ютуб | Школа SENATOROVAI | Live
Незабываемое чувство, когда много лет преподаёшь дистанционно и встречаешься в живую, а потом ещё и ходишь вместе в спортзал, СПАСИБО ЧТО ВЫ ЕСТЬ, ЗА ВЕРУ В МЕНЯ.
Фотограф: Михаил Дмитриев @mr_jpeg
Ютуб | Школа SENATOROVAI | Live
Forwarded from Ruslan Senatorov | Реверс-Инжиниринг Data Science
Сходил в ВШЭ и познакомился с легендами KAGGLE и Data Science, проводил лекцию сам маэстро некогда ТОП 1 KAGGLE - Александр Дьяконов, при поддержке Никиты Зелинского.
Лекция была посвящена рассказу про крутые кейсы с соревнований по Kaggle, с разными инсайтами и тюннингом, а в конце была возможность задать вопросы.
Ваш покорный слуга Сенаторов, задал вопросы касательно плотных и разряженных матриц, а вишенкой на торте был вопрос про применение методов подпространства Крылова в Data Science, но самый интересный вопрос который отметил Александ, был поставлен так:
После лекций, в столовой, был приятно удивлен встрече со своими подписчиком.
Хочу поблагодарить за лекцию МАЭСТРО и выразить слова благодарности ВШЭ за крутые ИВЕНТЫ
Кстати, кроме ВШЭ ивенты проводит и площадка Stepik на которой проходит Черная пятница до 3 декабря и многие курсы можно купить со скидками до 50%, подробнее
Ютуб | Школа SENATOROVAI | Live
Лекция была посвящена рассказу про крутые кейсы с соревнований по Kaggle, с разными инсайтами и тюннингом, а в конце была возможность задать вопросы.
Ваш покорный слуга Сенаторов, задал вопросы касательно плотных и разряженных матриц, а вишенкой на торте был вопрос про применение методов подпространства Крылова в Data Science, но самый интересный вопрос который отметил Александ, был поставлен так:
"Люди которые берут топ 3 kaggle это больше математики или всё таки инженеры которые объединяют несколько решений не особо погружаясь в детали".
После лекций, в столовой, был приятно удивлен встрече со своими подписчиком.
Хочу поблагодарить за лекцию МАЭСТРО и выразить слова благодарности ВШЭ за крутые ИВЕНТЫ
Кстати, кроме ВШЭ ивенты проводит и площадка Stepik на которой проходит Черная пятница до 3 декабря и многие курсы можно купить со скидками до 50%, подробнее
Ютуб | Школа SENATOROVAI | Live
Forwarded from Ruslan Senatorov | Реверс-Инжиниринг Data Science
Media is too big
VIEW IN TELEGRAM
#optimization
17.12.2025 Урок #1: Постановка задачи машинного обучения. (Бесплатный групповой урок по Data Science)
00:00:00 Введение в нулевую оптимизацию
00:01:36 Оптимизация нулевого порядка не использует производную.
00:02:36 подбор гиперпараметров модели. Grid Search
00:05:24 Постановка задачи машинного обучения
00:07:17 Датасет — это таблица в Excel или CSV.
00:09:37 Визуализация данных
00:11:47 Понятие корреляции
00:13:27 Выбор модели
00:14:09 Введение в EDA анализ
00:15:18 Применение линейной регрессии
00:18:02 Распределение наблюдений в поле корреляции для оценки взаимосвязи.
00:20:03 Положительная корреляция: увеличение X приводит к увеличению Y.
00:22:27 Формула линейной регрессии
00:25:04 Параметры модели
00:26:51 Понятие признаков и таргета
00:29:02 Классы машинного обучения
00:30:04 Алгоритмы, работающие по таргету, это обучение с учителем.
00:32:02 Алгоритмы обучения без учителя
00:36:42 Визуализация данных
00:37:02 Реверс-инжиниринг модели
00:40:54 Построение графика
00:42:24 Использование формулы вручную
00:42:44 Построение графика и определение точек
00:43:29 Введение понятия y_pred
00:44:49 набор точек y_pred образует линию регрессии.
00:45:49 Введение понятия таргета
00:46:52 Расчёт расстояния между точками
00:48:25 Объяснение использования квадратов
00:52:49 Геометрическое объяснение
00:55:26 Метод наименьших квадратов
00:56:01 Введение в метод наименьших квадратов
00:57:02 Визуализация квадратов
00:58:15 Цель метода наименьших квадратов
00:59:19 Математическое обоснование
01:00:28 Ошибка и коэффициенты
01:02:03 Заключение и анонс следующего урока
Список следующих тем
Плейлист в ютуб
👉Запишись на следующий урок
Революция в ML. От «чёрного ящика» к полному пониманию математики машинного обучения через реверс-инжиниринг ML-модели.Вывод с нуля всех формул + Python
Ютуб | Школа SENATOROVAI | Live
17.12.2025 Урок #1: Постановка задачи машинного обучения. (Бесплатный групповой урок по Data Science)
00:00:00 Введение в нулевую оптимизацию
00:01:36 Оптимизация нулевого порядка не использует производную.
00:02:36 подбор гиперпараметров модели. Grid Search
00:05:24 Постановка задачи машинного обучения
00:07:17 Датасет — это таблица в Excel или CSV.
00:09:37 Визуализация данных
00:11:47 Понятие корреляции
00:13:27 Выбор модели
00:14:09 Введение в EDA анализ
00:15:18 Применение линейной регрессии
00:18:02 Распределение наблюдений в поле корреляции для оценки взаимосвязи.
00:20:03 Положительная корреляция: увеличение X приводит к увеличению Y.
00:22:27 Формула линейной регрессии
00:25:04 Параметры модели
00:26:51 Понятие признаков и таргета
00:29:02 Классы машинного обучения
00:30:04 Алгоритмы, работающие по таргету, это обучение с учителем.
00:32:02 Алгоритмы обучения без учителя
00:36:42 Визуализация данных
00:37:02 Реверс-инжиниринг модели
00:40:54 Построение графика
00:42:24 Использование формулы вручную
00:42:44 Построение графика и определение точек
00:43:29 Введение понятия y_pred
00:44:49 набор точек y_pred образует линию регрессии.
00:45:49 Введение понятия таргета
00:46:52 Расчёт расстояния между точками
00:48:25 Объяснение использования квадратов
00:52:49 Геометрическое объяснение
00:55:26 Метод наименьших квадратов
00:56:01 Введение в метод наименьших квадратов
00:57:02 Визуализация квадратов
00:58:15 Цель метода наименьших квадратов
00:59:19 Математическое обоснование
01:00:28 Ошибка и коэффициенты
01:02:03 Заключение и анонс следующего урока
Список следующих тем
Плейлист в ютуб
👉Запишись на следующий урок
Революция в ML. От «чёрного ящика» к полному пониманию математики машинного обучения через реверс-инжиниринг ML-модели.Вывод с нуля всех формул + Python
Ютуб | Школа SENATOROVAI | Live
Forwarded from Ruslan Senatorov | Реверс-Инжиниринг Data Science
Media is too big
VIEW IN TELEGRAM
#optimization
25.12.2025 Урок #2: Взаимосвязь функции потерь и модели линейной регрессии
(Бесплатный групповой урок по Data Science)
00:03:09 Объяснение функции потерь
00:04:18 Геометрическое представление функции потерь
00:07:12 Свойства функции потерь
00:09:03 Минимизация функции потерь
00:11:44 Переменные и веса модели
00:13:05 Введение в линейную регрессию
00:14:08 Задача минимизации функции потерь
00:15:25 Методы минимизации
00:16:23 Численные методы
00:18:45 Принцип работы градиентного спуска
На первом уроке мы разобрали постановку задачи машинного обучения
Список следующих тем
Плейлист в ютуб
👉Запишись на следующий урок
Ютуб | Школа SENATOROVAI | Live
25.12.2025 Урок #2: Взаимосвязь функции потерь и модели линейной регрессии
(Бесплатный групповой урок по Data Science)
00:03:09 Объяснение функции потерь
00:04:18 Геометрическое представление функции потерь
00:07:12 Свойства функции потерь
00:09:03 Минимизация функции потерь
00:11:44 Переменные и веса модели
00:13:05 Введение в линейную регрессию
00:14:08 Задача минимизации функции потерь
00:15:25 Методы минимизации
00:16:23 Численные методы
00:18:45 Принцип работы градиентного спуска
На первом уроке мы разобрали постановку задачи машинного обучения
Список следующих тем
Плейлист в ютуб
👉Запишись на следующий урок
Ютуб | Школа SENATOROVAI | Live
Forwarded from Ruslan Senatorov | Реверс-Инжиниринг Data Science
Media is too big
VIEW IN TELEGRAM
#optimization
31.12.2025 Урок #3: Техники оптимизации нулевого порядка
(Бесплатный групповой урок по Data Science)
00:00:34 взаимосвязь между функцией потерь и моделью.
00:01:15 Оптимизация нулевого порядка
00:02:13 Параметры градиентного спуска
00:03:12 Гиперпараметры
00:04:35 глобальная и локальная оптимизация
00:07:02 Оптимизация первого порядка
00:08:39 Физический смысл производной
00:09:43 Введение в градиент
00:10:11 Поиск минимума функции
00:12:50 Выбор начальной точки
00:14:39 Настройка гиперпараметров
00:16:28 Начало итераций
00:19:05 Спуск по функции
00:22:18 Задача оптимизации
00:24:21 Оптимизация шага
00:26:01 Анализ алгоритма
00:30:21 Важность правильного подбора альфа
00:32:41 Оптимизация нулевого порядка
00:35:31 Задачи оптимизации в машинном обучении
00:39:22 Глобальные и локальные оптимумы
00:41:09 Функции потерь
00:41:52 Линейная и квадратичная регрессия
00:43:11 Глобальный и локальный минимум
00:44:39 Условия оптимальности нулевого порядка
00:46:39 Функции потерь в нейросетях
00:47:41 Глобальная оптимизация путём сэмплирования
00:51:08 Проклятие размерности
00:54:24 Условная оптимизация
00:55:12 Введение в алгоритм PCA
00:56:20 Уменьшение размерности
00:58:50 Применение PCA
01:00:16 Локальная итеративная оптимизация
01:01:47 Направление спуска
01:03:13 Выбор шага
01:05:20 Случайный поиск
01:08:29 Координатный спуск
01:09:30 Введение в координатный спуск
01:10:32 Принцип координатного спуска
01:11:30 Преимущества координатного спуска
01:12:22 Сравнение алгоритмов
01:13:08 Логика координатного спуска
01:14:35 Эффективность координатного спуска
На втором уроке мы разобрали Взаимосвязь функции потерь и модели линейной регрессии
Список следующих тем
Плейлист в ютуб
👉Запишись на следующий урок
Ютуб | Школа SENATOROVAI | Live
31.12.2025 Урок #3: Техники оптимизации нулевого порядка
(Бесплатный групповой урок по Data Science)
00:00:34 взаимосвязь между функцией потерь и моделью.
00:01:15 Оптимизация нулевого порядка
00:02:13 Параметры градиентного спуска
00:03:12 Гиперпараметры
00:04:35 глобальная и локальная оптимизация
00:07:02 Оптимизация первого порядка
00:08:39 Физический смысл производной
00:09:43 Введение в градиент
00:10:11 Поиск минимума функции
00:12:50 Выбор начальной точки
00:14:39 Настройка гиперпараметров
00:16:28 Начало итераций
00:19:05 Спуск по функции
00:22:18 Задача оптимизации
00:24:21 Оптимизация шага
00:26:01 Анализ алгоритма
00:30:21 Важность правильного подбора альфа
00:32:41 Оптимизация нулевого порядка
00:35:31 Задачи оптимизации в машинном обучении
00:39:22 Глобальные и локальные оптимумы
00:41:09 Функции потерь
00:41:52 Линейная и квадратичная регрессия
00:43:11 Глобальный и локальный минимум
00:44:39 Условия оптимальности нулевого порядка
00:46:39 Функции потерь в нейросетях
00:47:41 Глобальная оптимизация путём сэмплирования
00:51:08 Проклятие размерности
00:54:24 Условная оптимизация
00:55:12 Введение в алгоритм PCA
00:56:20 Уменьшение размерности
00:58:50 Применение PCA
01:00:16 Локальная итеративная оптимизация
01:01:47 Направление спуска
01:03:13 Выбор шага
01:05:20 Случайный поиск
01:08:29 Координатный спуск
01:09:30 Введение в координатный спуск
01:10:32 Принцип координатного спуска
01:11:30 Преимущества координатного спуска
01:12:22 Сравнение алгоритмов
01:13:08 Логика координатного спуска
01:14:35 Эффективность координатного спуска
На втором уроке мы разобрали Взаимосвязь функции потерь и модели линейной регрессии
Список следующих тем
Плейлист в ютуб
👉Запишись на следующий урок
Ютуб | Школа SENATOROVAI | Live
Forwarded from Ruslan Senatorov | Реверс-Инжиниринг Data Science
SENATOROVAI — это онлайн-школа машинного обучения, Data Science и анализа данных, основанная Русланом Сенаторовым — практикующим специалистом с большим опытом в программировании, преподавании и Data Science.
Школа вызвала значительный резонанс в профессиональном сообществе, благодаря уникальной методике, которая позволяет осваивать машинное обучение с нуля через реверс-инжиниринг математики ML-моделей из sklearn и подходит как новичкам, так и опытным специалистам (сеньёрам), желающим системно углубить знания.
В основе SENATOROVAI — практика, коммерческие навыки и фундаментальная математика, которая позволяет студентам понимать, как и почему работают современные модели машинного обучения.
Уникальная методика обучения
SENATOROVAI выделяется уникальной образовательной методикой, которая принципиально отличается от классического обучения.
Машинное обучение изучается через реверс-инжиниринг математики библиотеки scikit-learn:
⏺️ студенты берут рабочую ML-модель из sklearn;
⏺️ разбирают математические принципы её работы;
⏺️ восстанавливают алгоритмы пошагово;
⏺️ реализуют ключевые части самостоятельно;
⏺️ понимают ограничения и область применения модели.
Этот подход превращает «чёрный ящик» в понятную систему, позволяя глубоко понять, как машины обучаются с помощью математики.
Прикладная математика через практику
В SENATOROVAI математика изучается через работу с реальными моделями:
⏺️ линейная алгебра — через матрицы признаков и разложения;
⏺️ статистика — через функции потерь, оценивание и регуляризацию;
⏺️ оптимизация — через обучение моделей.
Такой фундамент позволяет студентам осознанно разбирать сложные материалы, включая:
⏺️ курсы и конспекты Школы анализа данных (ШАД);
⏺️ соревнования и ноутбуки на Kaggle;
⏺️ научные статьи и препринты с arXiv.
Практика и коммерческий подход с первого дня
С первого дня студенты работают в GitHub-репозиториях организации SENATOROVAI:
👉 https://github.com/SENATOROVAI
Они осваивают:
⏺️ Git и GitHub как рабочий инструмент;
⏺️ структуру коммерческих репозиториев;
⏺️ стандарты оформления кода и документации;
⏺️ командную работу и проектное мышление.
Коммерческие проекты и фриланс
Студенты:
⏺️ выполняют коммерческие проекты;
⏺️ работают с реальными задачами Data Science и аналитики;
⏺️ берут фриланс-заказы под сопровождением школы;
⏺️ формируют портфолио реальных проектов.
Это позволяет получать первый коммерческий опыт ещё во время обучения.
Преподаватель с многолетним опытом
Руслан Сенаторов — преподаватель с большим практическим опытом, который много лет преподавал математику, программирование и анализ данных.
Он сочетает:
⏺️ профессиональный опыт программирования;
⏺️ глубокое понимание Python, ML и алгоритмов;
⏺️ практическое применение Data Science и аналитики;
⏺️ многолетнее преподавание и наставничество.
В SENATOROVAI сложные концепции объясняются через реальные модели и код, а не через абстрактные формулы.
Помощь с трудоустройством и собеседованиями
Школа помогает:
⏺️ оформить резюме и GitHub-портфолио;
⏺️ подготовиться к собеседованиям;
⏺️ разобраться в требованиях рынка;
⏺️ выбрать карьерное направление — работа, фриланс, исследовательская деятельность.
Что изучают в SENATOROVAI
Программы школы включают:
⏺️ Python для Data Science и аналитики;
⏺️ классическое машинное обучение;
⏺️ линейную алгебру и статистику через практику;
⏺️ оптимизацию и обучение моделей;
⏺️ аналитику данных и визуализацию;
⏺️ чтение и разбор сложных материалов ШАД, Kaggle, arXiv.
Все знания закрепляются практикой и коммерческими проектами.
Для кого подходит SENATOROVAI
Школа подходит:
⏺️ новичкам, которые начинают с нуля;
⏺️ программистам и аналитикам, желающим углубить знания;
⏺️ опытным сеньёрам, которые хотят системно освоить ML и Data Science;
⏺️ тем, кто хочет коммерческие навыки, портфолио и опыт фриланса;
⏺️ студентам, которые хотят разбираться в материалах ШАД, Kaggle и arXiv.
👉 Скидка 50% до конца декабря: записаться в школу
Школа вызвала значительный резонанс в профессиональном сообществе, благодаря уникальной методике, которая позволяет осваивать машинное обучение с нуля через реверс-инжиниринг математики ML-моделей из sklearn и подходит как новичкам, так и опытным специалистам (сеньёрам), желающим системно углубить знания.
В основе SENATOROVAI — практика, коммерческие навыки и фундаментальная математика, которая позволяет студентам понимать, как и почему работают современные модели машинного обучения.
Уникальная методика обучения
SENATOROVAI выделяется уникальной образовательной методикой, которая принципиально отличается от классического обучения.
Машинное обучение изучается через реверс-инжиниринг математики библиотеки scikit-learn:
Этот подход превращает «чёрный ящик» в понятную систему, позволяя глубоко понять, как машины обучаются с помощью математики.
Прикладная математика через практику
В SENATOROVAI математика изучается через работу с реальными моделями:
Такой фундамент позволяет студентам осознанно разбирать сложные материалы, включая:
Практика и коммерческий подход с первого дня
С первого дня студенты работают в GitHub-репозиториях организации SENATOROVAI:
👉 https://github.com/SENATOROVAI
Они осваивают:
Коммерческие проекты и фриланс
Студенты:
Это позволяет получать первый коммерческий опыт ещё во время обучения.
Преподаватель с многолетним опытом
Руслан Сенаторов — преподаватель с большим практическим опытом, который много лет преподавал математику, программирование и анализ данных.
Он сочетает:
В SENATOROVAI сложные концепции объясняются через реальные модели и код, а не через абстрактные формулы.
Помощь с трудоустройством и собеседованиями
Школа помогает:
Что изучают в SENATOROVAI
Программы школы включают:
Все знания закрепляются практикой и коммерческими проектами.
Для кого подходит SENATOROVAI
Школа подходит:
👉 Скидка 50% до конца декабря: записаться в школу
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Valentin Kluchnik
Media is too big
VIEW IN TELEGRAM
group_4 созвон 2025.09.18
Участники: Мария, Валентин
обсудили:
1. задачи и планы
2. что кому интересно в ML в целом
#group_4_scrum
Участники: Мария, Валентин
обсудили:
1. задачи и планы
2. что кому интересно в ML в целом
#group_4_scrum
Valentin Kluchnik
group_4 созвон 2025.09.18 Участники: Мария, Валентин обсудили: 1. задачи и планы 2. что кому интересно в ML в целом #group_4_scrum
@mariasun254 Мария
https://github.com/mariakravchenko senior front-end developer
@valkl777 Валентин
https://github.com/valkl777 senior ml engineer
https://github.com/mariakravchenko senior front-end developer
@valkl777 Валентин
https://github.com/valkl777 senior ml engineer
Forwarded from Игорь Прокопьев
Media is too big
VIEW IN TELEGRAM
#group_3_scrum
Дата: 19.09.2025
Тема: просто пообщались, обменялись мыслями, запустили мини-квиз
Участники:
@Viktoria_Svetankova
@Gar_98
@DanilaSmirnov
Дата: 19.09.2025
Тема: просто пообщались, обменялись мыслями, запустили мини-квиз
Участники:
@Viktoria_Svetankova
@Gar_98
@DanilaSmirnov
Forwarded from Игорь Прокопьев
Media is too big
VIEW IN TELEGRAM

