Data Secrets
78.8K subscribers
6.42K photos
667 videos
20 files
2.71K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Сенсация: OpenAI представили text2video модель SORA

Модель может создавать ролики до 60 секунд с детализированными сценами, несколькими персонажами и движениями камеры.

Вот несколько примеров того, что может SORA:
🔥69🤯285👍2😁1
Media is too big
VIEW IN TELEGRAM
На OpenAI новости сегодня на заканчиваются: Meta зарелизили сразу две уникальных разработки

1) LLM для тестирования кода, которая автоматически улучшает тесты, написанные человеком. TestGen протестировали на Facebook и Instagram и (приготовьтесь) 73% рекомендаций модели инженеры приняли в работу. В компании считают, что это первая подобная разработка, подкрепленная таким уровнем надежности.

2) Video Joint Embedding Predictive Architecture (V-JEPA) от команды Лекуна. Эта модель призвана научить модели лучше понимать реальный мир и сущность взаимодействия между объектами в нем. Исследователи говорят, что это следующий шаг к AGI или, вернее, к AMI (advanced machine intelligence).
👍286🤯5🔥4😁3❤‍🔥1
Mistral, видимо, решили перенять опыт Apple и тайно начали тестировать свою новую модель mistral next.

Это обнаружили пользователи Твиттера на портале LMSYS. Базовые тесты показывают, что модель многообещающая. В ближайшем будущем что-то точно будет, а пока можете и сами потестить модель.
👍15🔥6🤓4
Тем временем Hugging Face выпустили опенсурс AI Cookbook. Это куча практических примеров решения ML-задач и разработки ИИ-приложений на основе моделей с открытым кодом в виде ноутбуков. Ну просто сказка.

Кстати, авторы приглашают всех контрибьютить в репозиторий, в том числе просто предлагать свои идеи.
👍7013🔥9😐2👏1
На прошлой неделе Андрей Карпатый ушел из OpenAI. Теперь его календарь выглядит так. Желаем всем такое же количество рабочих созвонов, как у Андрея
😁99👍2015🍌1
Статья на архиве с лучшим объяснением word2vec, какое только может быть. В комплекте веб-демо.
👍4112🔥9
Ведомство по патентам опять отклонило заявку OpenAI на патент названия «GPT». В первый раз это произошло в мае.

Главный аргумент ведомства прозрачен: GPT относится к общему типу программного обеспечения, а не только к продуктам OpenAI.

Это означает, что если у OpenAI появятся конкуренты с GPT в названии, компания не сможет подать на них в суд.
👍71🔥12👏8👻5🤔2
Итак, представляем топ-10 фреймворков для глубокого обучения:

10) Нельзя
9) Ранжировать их
8) Потому что каждый
7) Имеет свои собственные достоинства
6) Которые делают их лучшими
5) Для определенных задач
4) По сравнению с другими фреймворками
3) Мы должны признать
2) Что все они прекрасны
1) PyTorch
❤‍🔥150😁93👍155🗿4😨3🔥2🤯1🍌1🤓1
Воскресная задача: на этот раз собираем датасет для GPT

Прежде, чем обучать языковую модель, для нее нужно собрать данные. Для этого берется большой кусок текста и на нем мы учим модель предсказывать следующий токен по предыдущему.

В общем, предлагаем потренироваться и ждем ваш код в комментарии!
👍28😐8🔥4🤯32😁1
Недавно Google представили свою новую Gemini 1.5 Pro. По качеству она сравнима с GPT-4. Особенного внимания достоин контекст размеров 1 млн (!) токенов, а еще скорость и экономный расход ресурсов.

Таких результатов исследователи достигли за счет использования архитектуры Mixture of Experts. Вот путь исследований корпорации, который привел их к MoE (by Jeff Dean):

2017: Shazeer et al.. Outrageously large neural networks: The sparsely-gated mixture-of-experts layer. ICLR 2017. Читать.

2020: Lepikhin et al., GShard: Scaling giant models with conditional computation and automatic sharding. ICLR 2020. Читать.

2021: Carlos Riquelme et al., Scaling vision with sparse mixture of experts, NeurIPS 2021. Читать.

2021: Fedus et al., Switch transformers: Scaling to trillion parameter models with simple and efficient sparsity. JMLR 2022. Читать.

2022: Clark et al., Unified scaling laws for routed language models, ICML 2022. Читать.

2022: Zoph et al., Designing effective sparse expert models. Читать.
👍24🔥6❤‍🔥3
Найдите что-то более захватывающее. Мы подождем.
😁91👍11🐳6❤‍🔥31
Что будет с AI в 2024?

Весь нынешний движ в ИИ напоминает 90-е с их появлением Интернета. Каждый день что-то новое, за всем уследить почти невозможно (даже мы не всегда справляемся). Чтобы не теряться, вот вам некоторые прогнозы от аналитиков:

– В 2022 индустрия ИИ была на уровне $86.9 миллиардов. По прогнозам, к 2027, она достигнет объема $407 миллиардов.

– Вопреки стереотипу, аналитики утверждают, что ИИ даст миру 97 миллионов новых рабочих мест.

Про бизнес: 67% предприятий ожидают, что в ближайшие годы внедрят ИИ и оптимизируют с помощью него свои процессы.

– Особенно радующие новости: по словам Джеффри Хинтона, в течение 10 лет ИИ полностью избавит мир от неверных медицинских диагнозов.

Intel недавно выпустили большую статью (highly recommend), в которой предсказали главные тренды ИИ на 2024. Среди них мультимодальные системы, разработка опенсурс LLM уровня GPT-4, распространение API для ИИ-систем, внедрение agent frameworks и векторных бд, революция Copilot и, конечно, всякого рода alignment.

😻 Теперь вы в курсе.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍34🔥7❤‍🔥43
This media is not supported in your browser
VIEW IN TELEGRAM
POV: ты в роли проджекта на хакатоне
😁100👍116🔥2
Meta* представила SPAR: Personalized Content-Based Recommendation via Long Engagement Attention

Это новый метод для персонализированных рекомендаций по контенту с использованием LLM. Концепция брать что-то из NLP и применять в рексис далеко не новая (BERT4Rec привет!), но это – однозначно новый уровень.

Языковые модели тут используются для анализа долгосрочной истории взаимодействия пользователя и для извлечения из нее его глобальных интересов.

Статья
28👍7🔥7💅2
Когда не хватает вычислительной мощности, приходится ставить обучение на всем, что можно и нельзя
😁47👍226🔥4
То, чего все мы так ждали. Adobe Acrobat внедряет генеративный ИИ для работы с документами.

Инструмент сможет суммаризировать текст, отвечать на вопросы по нему (и даже будет сам предлагать вопросы, которые могли возникли у читателя), порекомендовать что-то дополнительное по итогам прочитанного, и прочее и прочее.

Пока на этапе бета-тестирования.
👍34🔥9👌31
Недавно вышедшая статья исследователей из Тинькофф произвела фурор и заняла первое место в подборке Daily Papers

Статья называется Linear Transformers with Learnable Kernel Functions are Better In-Context Models и она про улучшение модели Based. Оригинальный Based сочетает в себе обучаемое ядро для линейных трансформеров и короткие свертки, однако плохо справляется с длинным контекстом.

Чтобы это исправить, в статье ребята разработали другую концепцию ядра для модели, и им удалось побить старый скор. Поздравляем коллег!

Статья
🔥118👍126🍌1