Долгое время (даже годы) в среде RL ценителей имел популярность сайт под названием How RL works. Он давал краткий и отрезвляющий ответ на все жалобы, советы, предложения и тому подобное: а именно там была одна простая строчка badly. И сразу становилось как-то проще, что не у тебя одного ничего не работает, алгоритмы не заводятся, в прод ничего не катится, да и вообще кто тебя на работу рльщика такого возьмет, в моде другие вещи совсем, лучше ллмку иди обучи.
Кажется, ушла эпоха! Надпись там поменялась (хоть превью и осталось прежним). Теперь там гордое well. Как думаете, заслуженно ли?
Выходит надо менять название канала...
Кажется, ушла эпоха! Надпись там поменялась (хоть превью и осталось прежним). Теперь там гордое well. Как думаете, заслуженно ли?
Выходит надо менять название канала...
how.rl.works
How RL works
Badly
🔥19❤8
❤18
Forwarded from ду́но
Открыли набор на практику по направлениям RL / VLA / IL.
У нашей группы большой опыт в области RL: имеем публикации на самых топовых конференциях [см. Наши статьи]. Если вы хотите писать научные статьи, сдвигать соты, и развиваться как исследователь в области Reinforcement Learning (RL) и вокруг — то вам к нам!
Подробное описание позиции и тестовое задание можно найти по ссылке выше, дедлайн подачи заявки — 10-го ноября.
- - —
@dunnolab
У нашей группы большой опыт в области RL: имеем публикации на самых топовых конференциях [см. Наши статьи]. Если вы хотите писать научные статьи, сдвигать соты, и развиваться как исследователь в области Reinforcement Learning (RL) и вокруг — то вам к нам!
Resident Research Scientist — RL / VLA / IL
Вы будете заниматься написанием статей на top-tier конференции (NeurIPS, ICLR, ICML), проводить эксперименты и предлагать новые исследовательские идеи.
Требования:
- Наличие исследовательских идей.
- Начитанность, знание и умение рассказать о последних заинтересовавших статьях с A* конференций.
- Cамостоятельный опыт с чем-то из RL, Imitation Learning, Vision-Language-Action models и всем вокруг.
Подробное описание позиции и тестовое задание можно найти по ссылке выше, дедлайн подачи заявки — 10-го ноября.
- - —
@dunnolab
dunnolab on Notion
Resident Research Scientist — RL / VLA / IL | Notion
Про практику
🔥5
Понравилась аналогия:
https://blog.dileeplearning.com/p/welcome-to-the-exciting-dirigibles-500
Since most of the success of large language models arise from making the underlying transformer model bigger, and training it on more text (trillions of tokens), and training it using more compute for longer duration, transformer-based language model offers an intriguing possibility just like the balloons did in early 1900’s: Without having to figure out the principles behind human intelligence, we could build machines that solve more cognitive and human-like tasks simply by building them bigger, and training them with more data, compute, and human feedback.
….
Once the basic principles behind dirigibles were figured out, they had a favorable scaling law going for them — to go further distances, and to carry heavier payloads you simply had to make them bigger, and give them more powerful engines. This was purely an engineering task.
https://blog.dileeplearning.com/p/welcome-to-the-exciting-dirigibles-500
Dileeplearning
Welcome to the exciting dirigibles era of AI
Notes for navigating large language models and beyond...
❤6🤔1
Our implementation achieves speedups of up to 665x over naive sequential application, allowing training nonlinear RNNs at unprecedented scales. To showcase this, we apply ParaRNN to adaptations of LSTM and GRU architectures, successfully training models of 7B parameters that attain perplexity comparable to similarly-sized Transformers and Mamba2 architectures.
https://arxiv.org/abs/2510.21450
arXiv.org
ParaRNN: Unlocking Parallel Training of Nonlinear RNNs for Large...
Recurrent Neural Networks (RNNs) laid the foundation for sequence modeling, but their intrinsic sequential nature restricts parallel computation, creating a fundamental barrier to scaling. This...
🤯5🥴1
Forwarded from Ivan Oseledets’ Channel
Вчера завершилась наша традиционная четырёхдневная научная отчётная сессия AIRI. Это важное событие, где все — от младших сотрудников до руководителей лабораторий — поделились итогами года и планами на будущее. За это время прошло 53 устных доклада и представлено 198 постеров.
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
❤9