razinkov.ai
2.68K subscribers
22 photos
1 video
15 files
344 links
Меня зовут Евгений Разинков, я 10 лет рассказываю об ML и AI.

YouTube: https://video.razinkov.ai
Tg: @EvgenyRazinkov
Download Telegram
Всем привет!
Небольшой апдейт и сейчас будет опрос.

На данный момент я не вижу смысла в постоянной доработке курсов онлайн-школы. Главный курс по AI получился фундаментальный, и поэтому с эволюцией сочетается не очень хорошо. К остальным курсам тоже применимо (особенно к математике), исключение составляет, пожалуй, только Decision making for AI (здесь всё быстро меняется).

В общем, больше потоков не планируем, но, скорее всего, будет возможность приобрести доступ к материалам. Как будет определенность – напишу.

Теперь, собственно, к новому. Хотим попробовать разрабатывать новые теоретико-практические курсы и предлагать их вниманию заинтересованных – платно.

Есть интерес разработать теоретико-практический курс по генерации изображений с помощью Diffusion, он же Score Matching.
С необходимой теорией (там прям матан), реализацией с нуля и обучением своих небольших сетей для генерации картинок.

Сейчас будет опрос, интересно вам или нет)

Спасибо за внимание.
22🔥9👍6
🥰2
Коллеги, всем привет!

Во втором потоке школы у нас начинается третья часть – трансформеры. В эту часть входит детальный разбор архитектуры Transformer, как для NLP, так и для компьютерного зрения.

Если вы комфортно себя чувствуете в PyTorch, имеете опыт обучения глубоких нейронных сетей, но трансформеры прошли мимо вас, вы можете присоединиться ко второму потоку сейчас.

У нас осталось 3 месяца практических вебинаров, где мы будем вместе реализовывать и обучать трансформеры на чистом PyTorch. Сразу предупрежу, что практические задания достаточно сложные и не подходят для новичков.

В рамках Capstone Project вы сможете запрограммировать небольшую языковую модель, обучить ее с нуля и задеплоить с веб-интерфейсом (docker + FastAPI + Streamlit).

У вас также будет доступ к курсу MLOps, где мы разбираем управление жизненным циклом модели.

При помесячной оплате это стоит 22 000 р. в месяц (3 месяца), при единовременной – 58 000 р. Если вы доходите до конца школы, у вас будет бесплатный доступ к материалам как минимум еще в течение 6 месяцев.

Регистрация здесь: razinkov.ai/school
Если у вас есть какие-то вопросы, вы можете связаться с нами через телеграм: https://t.me/school_razinkov_ai
17👍7🔥1
Всем привет!
Очень хорошо пообщались с Михаилом в его подкасте, обсудили мой профессиональный кризис)
👏14🔥11
Готов классный подкаст с классным гостем!

В гостях уже знакомый вам по прошлым выпускам Евгений Разинков - к.ф.-м.н., преподаватель ML, AI-евангелист и предприниматель, а поразмышляем мы сегодня о том как поменялись требования к специалистам, работающим с искусственным интеллектом и почему творческие и профессиональные кризисы неизбежны. Нужно ли тебе знать нюансы архитектуры больших языковых моделей, чтобы использовать их в своих исследованиях? А надо ли вообще обучать свои модели или этот навык окончательно ушёл в прошлое? Стоит ли идти в ИИ стартап, который не использует большие модели? Что выгоднее - участвовать в хакатонах или спать? Почему стоит развивать стартап, которому требуются самые лучшие модели, которые ещё даже не натренировали? Реально ли вывести фундаментальные законы, на основании которых можно всегда добиваться от LLM желаемого? Как вытаскивать из нейросетей нужные и правильные ответы и причём здесь теория музыки? Когда каждый из нас проиграет битву искусственному интеллекту? Большие языковые модели - это демократизаторы доступа к знаниям или очередные катализаторы расслоения общества? Обо всём этом в выпуске!

https://mlpodcast.mave.digital/ep-75
31🔥18👍13
Релевантные статьи к лекции про RoPE

Непосредственно RoPE:
RoFormer: Enhanced Transformer with Rotary Position Embedding
https://arxiv.org/abs/2104.09864

Обзор и классификация существующих методов PE (не самая новая, но RoPE, например, покрывает):
Position Information in Transformers: An Overview
https://arxiv.org/abs/2102.11090

Анализ RoPe:
Round and Round We Go! What makes Rotary Positional Encodings useful?
https://arxiv.org/abs/2410.06205
🔥12
Всем привет!
Я задумал новый курс про свойства intelligence, который мы получаем от LLM. Курс менее технический, менее формальный. Понятия не имею, как пойдет и пойдет ли. Собственно, об этой идее я рассказывал в недавнем подкасте.

Первое видео:
https://youtu.be/h40pJqIF9hE

Видео будут собираться в этом плейлисте:
https://www.youtube.com/playlist?list=PL6-BrcpR2C5RyWDmcaS2r8DM2_iLvwuMl

Буду очень признателен за любую обратную связь)
51🔥50👍155👏3😱1
Добрый вечер!
Обещанные полезные ссылки по следам лекции про временные ряды)

Архитектура Informer, здесь мне понравилось про position embeddings:
https://arxiv.org/abs/2012.07436

Статья про foundation models с предсказании временных рядов, мне понравилась скорее обзором задач:
https://arxiv.org/abs/2504.04011

Это про архитектуру PatchTST, где вход представляется вектором вещественных значений:
https://arxiv.org/abs/2211.14730

Это про Chronos, где вход представляется токенами:
https://arxiv.org/abs/2403.07815

Сравнение методов дискретизации:
https://arxiv.org/abs/2005.10111

Видео о проблемах предсказания временных рядов:
https://youtu.be/vNul_AjRPFw?si=xmYmL039B61P2SsD

А это от того же автора, но в виде статьи, очень рекомендую:
https://arxiv.org/abs/2203.10716
🔥2010👍7👏2
Всем привет!

Вышло второе видео из курса LLM intelligence: обсуждаем влияние токенизации на способности LLM)

https://youtu.be/PPjlRwrGrko

P. S. Карта моих открытых курсов.
Если хотите стать ML-инженером в сильном смысле этого слова, приходите в нашу онлайн-школу.
🔥3012🙏3
Всем привет!

Видео по LLM intelligence так или иначе отсылало к некоторым вполне техническим моментам. Если кто-то хочет понимать глубже, что я всячески приветствую, вот мои видео (где-то с конкретными таймстемпами) для погружения. А я заодно буду меньше переживать, что у меня была лекция без технической глубины 🥲

Positional encodings:
https://www.youtube.com/live/s8uzBNSmyMU?si=zJ08uvz9TaMK7nHP&t=3647

Transformer decoder:
https://youtube.com/live/oJ0zAgqNx00?feature=share

Метод токенизации Byte-Pair Encoding
https://www.youtube.com/live/da65tiMbCdA?si=F9iOjLMLcAa-TlV3&t=2095

RoPE:
https://youtu.be/3vDe2n1Zojg
🔥2312
Дорогие подписчики, коллеги, поздравляю с наступающим Новым годом! 🎄
Желаю вам (и себе) оставаться релевантными в 2026! Если я пойму как это сделать, я обязательно дам вам знать) 🫶
Здоровья вам и вашим близким
30🎉7949👍12🤩4🔥1
Всем привет!

Я начинаю серию семинаров с разбором Qwen 3 – главной опенсорсной модели на сегодняшний день. Будем продвигаться, постепенно собирая полную картину по кусочкам. В первом видео мы обсуждаем известную модель CLIP (Contrastive Language-Image Pre-Training), на базе которой строится Qwen-VL 2.5, которая используется в Qwen 2.5 Omni, которая легла в основу Qwen 3 Omni в доме, который построил Джек.

https://youtu.be/nhtWZGy_hU8

А если вы хотите лучше понимать архитектуру трасформеров, я приглашаю вас на наш главный теоретико-практический курс “AI: от основ до трансформеров”.
51🔥6410👍8😁4🤩1
Всем привет!
Записал еще одно видео по LLM intelligence, продолжаем обсуждать основы инференса – распределение выходных токенов, температуру и стратегии семплирования)

https://youtu.be/pe8lieFrP_k
🔥3310👍6🤔1
Всем привет!

Второе видео про VLMs и Qwen) Как подать в модель и текст, и видео, и изображения – MRoPE

https://youtu.be/0exy9aHPpTs

Если вы хотите лучше разбираться, как устроены такие архитектуры, приходите на наш супержесткий курс. 🤓
🔥278
Всем привет!

Очередное видео про Qwen 3 VL: теперь читаем статью про pre-training.

https://youtu.be/qEqsy7RuFNg

Если вы настроены серьезно относительно ML, приглашаем на наш теоретико-практический курс “AI: от основ до трансформеров (и LLM)”.
🔥36👍1
Всем привет!
Мы постепенно причёсываем нашу AI-школу в ее непотоковом формате – мы добавили возможность помесячной оплаты.

В центре мой фундаментальный курс «AI: от основ до LLM». С точки зрения теории, это та же программа «AI: от основ до трансформеров» с вебинарами про архитектурные элементы LLM и несколькими дополнительными темами из компьютерного зрения.

Ценность школы, конечно, в практике, которую мы сделали для всех тем курса. 75+ часов практических вебинаров, 17 практических заданий с подробными TODO и видеоразбором решения.

Ну и вишенка на торте — это capstone project. Участники самостоятельно реализуют и обучают с нуля языковую модель!

Ещё у нас можно найти 4 дополнительных курса:
Math for AI — линейная алгебра, элементы математического анализ, математическая статистика, немного теории информации.
MLOps — обеспечение жизненного цикла модели, логирование, деплоймент, docker.
Python for AI — вы познакомитесь с специфическими для ML библиотеками Python
Decision making in AI — за 10 лет в ML я руководил десятками проектов в этой сфере. Собрал свой опыт принятия решений в этом курсе.

Мы сейчас не собираем потоки. Когда вы получаете доступ к курсу, материалы будут открываться постепенно. У вас есть возможность задавать вопросы как по материалам, так и по философским вопросам ML как в чате школы, так и через специальную форму (при желании, анонимно) — ответим на все вопросы!

И есть проверка ваших решений практических заданий: если вы сабмитите код, вы получите обратную связь от куратора школы в течение недели.

Не реже раз в месяц я провожу онлайн-вебинары с разбором современных научных статей в области ML и AI — лучше держать топор острым)

Доступ к материалам школы у вас остаётся как минимум в течение 15 месяцев с момента покупки курса. Оплатить можно либо сразу весь курс, либо разбить платёж на 6 месяцев.

Больше о курсе вы сможете найти на странице: https://clck.ru/3SDsuU
20