Love. Death. Transformers.
23.8K subscribers
4.46K photos
520 videos
78 files
2.92K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Куплю ваши видеокарты от 11гб памяти в мск, не майнинг
😁45
XLM-V: Overcoming the Vocabulary Bottleneck in
Multilingual Masked Language Models


В статье поднимается следующая проблема: языковые модели увеличиваются в параметрах, растут в глубину, но словарь по размеру все тот же. Например у модели mT5 13B параметров, но размер словаря всего 250К, что еще и охватывает 100+ языков. Таким образом это примерно 2500 уникальных токенов на язык, что очевидно довольно мало.

Что решают сделать авторы? Неожиданно, но начинают обучать новую модель с 1м токенов в словаре. Был XLM-R, ну а с таким апгрейдром станет XLM-V

Что используют нового в XLM-V, чего не было в XLM-R?
💓💓💓Строят вектора лексических представлений для каждого языка следующим образом (используют подход Improving Multilingual Models with Language-Clustered Vocabularies): для каждого языка в множестве языков, они составляют бинарный вектор, каждый элемент которого это определенное слово в языке. 1 означает, что слово присутсвует в словаре этого языка. (можно посмотреть во вложениях рисуночек с графическим объяснением). Но авторы совершенствуют способ, на который идет ссылка, за счет постороения вектора с помощью отрицательной логарифмической вероятности появления каждой лексемы.

💓💓💓Затем вектора кластеризуются. И на каждом отдельном кластере обучается sentencepiece model, для того, чтобы предотвратить обмен словарным запасом между лексически несхожими языками.

💓💓💓С помощью ALP (средней логарифмической вероятности) оценивают способность словаря представлять конкретный язык. (скрин с формулкой из статьи во вложениях)

Следующим шагом используют алгоритм для посторонних словарей ULM. Который начинает с большого исходного словаря, который итеративно обрезается, пока количество лексем не упадет ниже заранее определенного порога размера словаря.

Полюбоваться апгрейдом скора можно во вложениях :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17
Московские мигранты в Нью-Йорке: пук пук крыска в метро, бомжик нассал.

Московские мигранты в Лондоне: у нас в отделе ввели коэффициент найма на количество зарезанных людей, кстати у меня тут мешки черные, помоги вынести пожалуйста.
🔥33😁14🤨4🤣2👍1
F яндекс
🤔50😢13🌚5🍾5👍1💯1
👍83🤣40😁7😢4😈3❤‍🔥1
🔥54😁17💩3🍌3👍1
ты готов купить дорогую видеокарту, а готов ли ты купить дорогой роутер?
😱318😢2😈2
Входит, значит Сергей Брин в Ларри Пейджа и говорит:
- Ларри, гляди, Майкрософт в свои сетки в поисковик сделали!
- Что, правда?!?!
- Нее, мне просто нравится, когда ты очко сжимаешь)))

Презентация LLM поисковика от гугл будет сегодня, по этой ссылке
🤣50👍7🤡5🍓5👌2
👍28💔9😁6🤮1
🔥60🤡7😁4🌭4💋4🤮31
👍51🤡24🤣3😢1
🤩47👍15💋2😢1
how rl works: badly
🤡9🤣6😢3
подписчики притащили поисковик по архиву который я раньше не видел, и он 💫п р е к р а с е н💫

arxivxplorer.com

@lovedeathtransformers
Please open Telegram to view this post
VIEW IN TELEGRAM
46