Градиент обреченный
7.98K subscribers
834 photos
20 videos
8 files
454 links
Download Telegram
#nlp #event

🔺 SberDevices NLP meetup #2

Коллеги продолжают делиться опытом и наработками (прямо сейчас начинаем). На этот раз про NLP на стыке с творчеством:

1️⃣ Нейромузыка и нейропение: генерация музыкальных дорожек и голоса с сохранением мелодической интонации

2️⃣ Контролируемая генерация: добавление в болталку на основе ruGPT-3

3️⃣ Мечтают ли нейросети о Пегасах. Конечно, мечтают. Пишем хорошие стихи нейросетями на заданную тему.

4️⃣ Нейрофэнтези: текстовые квесты типа AI Dungeon только на русском и с картинками. Статья про это на Хабре.

Записи будут. Вопросы можно задавать онлайн или в чатике.

Подключаемся тут

👉 Upd. Сергей Марков рассказывает про трансформерную революцию 17-го года.

👉 Upd 2. Встреча закончилась. Записи скоро будут.

👉 Upd 3. Видосики

1️⃣ Сергей Марков про трансформеры и будущее ИИ

2️⃣ Леонид Синев. Практика внедрения метода контролируемой генерации Keyword2Text в болталку на ruGPT3

3️⃣ Павел Гращенков. Нейрофэнтези: сочиняем фэнтези с GPT3
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍42
Обновляем резюме

ОЕЯ-инженер, увлекаюсь КЗ, люблю ОСП, хочу большую ЗП
😁155💯3👍2🤓1
Forwarded from Lingtrain
🔺 Обновление Lingtrain

Всем привет! Добавил важный функционал в наш выравниватель (что это такое).

🔁 Экспорт и импорт

Теперь выравнивание, в том числе и незаконченное, можно скачать в .lt формате и загрузить его на вкладке Alignments. После загрузки можно будет продолжать с ним работать, править и т.д. Таким образом, если кто-то выравнивал текст и в нем остались ошибки, то можно будет загрузить выравнивание в Lingtrain и подредактировать его.

🚀 beta.lingtra.in

Какое-то время назад поднимал тестовую версию выравнивателя для русского и английского языков (там модель rubert-tiny). Прошляпил момент, когда на аккаунте закончились деньги и его удалили 🤷‍♂️

Поднял новый сервер и настроил нормальный адрес, там сейчас последняя версия с той же tiny моделью. Поддерживаются английский и русский языки.

http://beta.lingtra.in

🐳 Docker

Образы для локального запуска:

• lingtrain/studio:v8.4 (50+ языков)
• lingtrain/studio:v8.4-labse (100+ языков)
• lingtrain/studio:v8.4-tiny (ru-en)

Запускается все как раньше (инструкция).

👉 GitHub
🔥13👍53🤗1
#dataset #emnlp2022

🔺 Crossmodal-3600

Смотрю тут статьи с прошедшего EMNLP и наткнулся на релиз мультимодального датасета от Google. Это 3600 картинок с подписями (ручная разметка) на 36 языках. Подписей очень много — 261 375, в среднем по 2 аннотации на каждом языке для каждой картинки.

〰️ Языки

Взяли 31 распространенный язык + 5 малоресурсных (но с большим числом говорящих). Вот список:

Arabic, Bengali, Chinese, Croatian, Cusco, Quechua, Czech, Danish, Dutch, English, Filipino, Finnish, French, German, Greek, Hebrew, Hindi, Hungarian, Indonesian, Italian, Japanese, Korean, Maori, Norwegian, Persian, Polish, Portuguese, Romanian, Russian, Spanish, Swahili, Swedish, Telugu, Thai, Turkish, Ukrainian, Vietnamese

Используют как бенчмарк для своих мультиязычных моделей типа image captioning и image retrieval. Заявляют, что сильно коррелирует с человеческой оценкой.


👉 Paper | Скачать | Поиск по датасету
👍4🔥31🤓1
🔺 Друзья, написал статью про создание параллельного корпуса на 10 языках при помощи моего маленького проекта во выравниванию.

На выходе получается корпус Woland-10, про который писал и про который многие спрашивали.
🔥17👍52❤‍🔥1👏1😁1🎉1
🔺 TAPE

Подъехал первый бенчмарк для оценки моделей во few-shot на русском языке (!) от SberDevices.

〰️ Что это?

Сейчас большие языковые модели все чаще используют, добавляя в затравку один или несколько примеров (few-shot). TAPE позволяет оценить, насколько хорошо модель работает в таком режиме.

〰️ Устойчивость к шуму

В датасете шесть задач (RuOpenBookQA, RuWorldTree, MultiQ, CheGeKa, Ethics, Winograd) + можно оценить насколько модель устойчива к зашумлению и атакам (опечатки, эмодзи, перестановки слов и т.д.).

👉 Хабр | GitHub | HF
🔥17👍621🤗1
🗿 Сходил на выставку "Всеобщий язык" в Пушкинском. Кто интересуется различными видами письменностей, очень рекомендую. Их там такое количество, что глаза разбегаются.

Есть деревянные дощечки с острова Пасхи с надписями ронго-ронго, есть тысячелетние камни с клинописью, ацтекские кодексы, берестяные грамоты и много всего.

Единственное, что, на мой взгляд, освещение там немного тусклое. Хотя может так и надо.
👍25🔥9❤‍🔥311
#visualization

🔸 Люблю такие красивые и понятные визуализации. Видно, насколько централизована страна в плане населения (сравните Францию и Италию).

Нашел тут, автор периодически рисует новые страны.
👍26❤‍🔥7🔥7🤩1
🔺 Торрент-LM от BigScience

Инициатива от BigScience (коллаборация исследователей, которая сделала Bloom и делает BigСode).

Позволяет всем миром запускать и тюнить (!) Bloom 176B под свои задачи. Называется Petals 🌼.

Зачем?

Запуск 175B модели требует около 350 GB GPU и еще больше при дообучении. А чтобы запустить инференс модели при помощи Petals, нужно иметь 12GB оперативки под эмбеддинги (3.6B параметров) и еще сколько-то, если хотите сделать fine-tuning.

Дообучение происходит в режиме prompt tuning'а или при помощи слоев-адаптеров. В этом случае мы обучаем только малую часть параметров, которую храним у себя, все остальные веса распределены по Petals серверам (В 8 bit режиме модель режется на 22 куска, и требуется минимум 22 сервера, чтобы поднять модель).

Можно задонатить свою GPU, запустив Petals сервер у себя. Понадобится 16 GB RAM и 8 GB GPU.

Попробовать можно в Colab'e.

👉 Colab | GitHub | Paper
🔥11👍3❤‍🔥2😁2🤗2