Channel created
Всем привет, мы команда Omut AI!

Вы уже можете нас знать как Research команду Т-Банка, а теперь мы запускаем совместную лабораторию с Центральным Университетом. Будем работать над образованием в ЦУ, а у студентов также будет прямой доступ к нам, чтобы разбираться в AI вместе.

Здесь мы продолжим заниматься исследованиями AI, направленными на улучшение методов в трех направлениях:

🅾️ AI Alignment – создание AI, согласованного с желаниями и целями людей
🅾️ LLM Foundations – исследования фундаментальных вопросов в LLM, начиная от поиска новых архитектур, и заканчивая методами улучшения их мыслительных способностей
🅾️ Multimodal AI – изучаем новые универсальные модели, способные работать в разных модальностях

В этом канале вы сможете из первых рук узнавать все самое новое и интересное из жизни команды, а также о всех наших новых разработках. Stay tuned!
30🤓7🤯6🎉2😁1🥴1🍓1
Прямо сейчас идет ICML 2024, а на нем опубликована статья Славы Синего (@ummagumm_a) в коллабе с друзьями из AIRIIn-Context Reinforcement Learning for Variable Action Spaces!

В этой статье писали о новом методе In-Context RL, способном использовать из контекста действия произвольной природы. А самое главное, может даже меняться число действий, которые может сделать агент.

Сейчас Слава работает в Omut AI над методами Alignment, чтобы сделать LLM более согласованными с желаниями людей, так что ждем новых открытий!

Статью уже можно прочитать, а в ТАСС рассказали о ней простым языком 🫒
❤‍🔥14🔥7🐳4👍1💯1
Мы придумали новый метод SAE Match, который помогает сопоставлять понятные фичи, выделенные Sparse Autoencoder (SAE), между разными слоями LLM. Это важный шаг к тому, чтобы разобраться, как LLM обрабатывают информацию, показывая, как фичи сохраняются или меняются, пока данные проходят через модель.

Одна из ключевых частей нашего метода — это техника "parameter folding", где мы напрямую включаем пороги активации в веса SAE. Это учитывает разницу в скейле фичей между слоями и позволяет точнее их сопоставлять, минимизируя ошибки между итоговыми скрытыми представлениями. Самое главное, что для этого не нужны входные данные, поэтому анализ становится более универсальным и не привязанным к конкретным примерам.

В наших экспериментах на модели Gemma 2 мы показали, что SAE Match эффективно сопоставляет фичи между слоями. Мы обнаружили, что некоторые из них остаются похожими на протяжении нескольких слоев, а другие постепенно меняются. Также мы заметили, что в начальных слоях больше полисемантичных фичей (то есть тех, которые отвечают за несколько разных понятий), а в более глубоких слоях они становятся более специализированными. Этот метод не только помогает лучше понять, как работают LLM, но и открывает новые возможности для интерпретации и улучшения нейронных сетей.

Статью можно прочитать тут, а если вам интересно разобраться в SAE, то рекомендуем оригинальные посты от Anthropic (1, 2)
🔥188👍2
Лаборатория 🔤🔤🔤🔤 🅰️🔤 (T-Bank AI Research и Центральный университет) набирает студентов для написания курсовых/дипломов и совместных исследований по нескольким направлениям:

LLM Foundations
- Адаптивные вычисления в LLM
- Разработка эффективных архитектур (SSM etc.)
- Интерпретируемость языковых моделей (Sparse Autoencoders, Sparse Crosscoders etc.)

LLM Alignment
- Исследование offline методов алайнмента
- Новые виды Reward моделей
- Self-play методы обучения LLM

Multimodal LLMs
- Интерпретируемость MLLM
- Мультимодальные агентные среды
- Эффективные способы обработки мультимодальных данных (сжатие эмбеддингов, работа с длинными видео)

Мы готовы работать с людьми из любых универов! А самое главное, возможна полноценная оплачиваемая стажировка в Т-Банке с возможностью попасть в штат.

По вопросам и с резюме писать Ярославу (@murkyfella)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍63