Градиент обреченный
7.98K subscribers
837 photos
20 videos
8 files
457 links
Download Telegram
#data #nlp

MASSIVE — новый мультиязыковой NLU датасет от Amazon

🌗 Amazon запустил соревнование по NLU (natural language understanding) и, в связи с этим, расшарил параллельный датасет.

51 язык
• Всего порядка 1 миллиона строк.

🌗 Посмотрел на него, — похоже, что это всё команды для голосового помощника alex'ы.

• Есть разметка типа "можешь создать событие [time : в ночь] на [date : пятницу] с [person : аллой пугачёвой] и [person : киркоровым]"
• Почти все тексты короткие, до 20 слов.
• Попадаются различия в переводе названий. Русский — "включи игру танки онлайн", немецкий "lass uns ein trivia spiel spielen".

Что ж, появился новый параллельный корпус на 51 язык, хотя и немного специфичный. И то хорошо.

GitHub
👍5
Сюрреализм онлайн

🐌 Попробовал новую демку по генерации картинок. Дообучена на работах в стиле Сальвадора Дали, поэтому по запросу "улитка на склоне" может выдать вот такое художество (лучше попробовать несколько раз). Работает быстро, так что рекомендую попробовать.
👍32
#notes #tools #useful

Заметка. Парсинг веб-страниц

🐤 Если вам время от времени требуется спарсить ту или иную страничку в интернете (мне тут понадобилось вытащить список русских фразеологизмов из википедии), то в простом случае (без переходов по ссылкам) это можно сделать одной строчкой в консоли браузера (та, что открывается по F12). В моем случае вот такой командой:

copy($$('table.wikitable tbody tr').map((e,i) => {a = e.querySelectorAll('td'); let desc = a.length > 1 ? a[1].outerText.replaceAll('\n',' ') : ""; return a[0].outerText.replaceAll('\n',' ') + " | " + desc}).join('\n'))

• Через $$ получаем все элементы, соответствующие css селектору
• В map пишем логику, которая применится к каждому найденному элементу
• Объединяем все в одну строку и копируем
• Profit

...
как гром среди ясного неба | неожиданно
как два пальца об асфальт | сделать просто
...
👍3🔥2
#nlp #gpt #news #big

Встречайте OPT, брата GPT-3

🌗 В полку больших генеративных сетей прибыло, — несколько часов назад Meta выложила на github свою балалайку по генерации текстов под названием Open Pre-trained Transformers.

🌗 Что мы об этом знаем:

• Максимальная модель на 175B параметров (ровно столько же у большой GPT-3, которую OpenAI раздает через API). Недавняя мультиязычная имплементация GPT от Сбера была на 13B параметров (и 1.3B в открытом доступе).
• Всего потренировали 9 размеров сеток. Выложили веса для английской версии на 30B параметров.
• Тренировали месяц на 1024 штуках A100 (80GB). GPT-3 тренилась 15 дней на 10000 (десять тысяч) V100 🤯.
• Пишут, то по качеству почти сошлось к GPT-3.

⚠️ Не пытайтесь повторить у себя дома.

Статья | Github
🔥4😱2
#useful #cv

Google репозиторий и CV исследования

🌗 Еще одно прекрасное open source начинание. На этот раз Google создал репозиторий на github, в который будет выкладывать результаты своих исследований и модели. В readme пишут, что будут добавлять в ближайшее время:

• ImageNet-21k in TFDS.
• Loading misc public models used in our publications (NFNet, MoCov3, DINO).
• "Patient and consistent" distillation.
• Contrastive Image-Text model training and evaluation as in LiT and CLIP.

Это все исследования на тему компьютерного зрения, поэтому всем заинтересованным будет очень любопытно.

Github
👍5
#useful #cv #gen

Пайплайн генерации картинок с HITL (human in the loop)

🌗 Jina AI зарелизили пайплайн для генерации картинок в высоком разрешении. Попробовать можно прямо у себя на компе, потому что вся генерация идет на сервере разработчиков. Потыкал его, работает так:

• Задаем текстовую подсказку (например, "космонавт читает книгу в космосе") и получаем какое-то количество вариантов. Картинки генерируются при помощи сетки DALL·E Mega (реплика DALL·E от WanDB.ai, которая на этой неделе доучилась до 50%).
• Выбираем понравившуюся картинку и отправляем на следующий шаг. Получаем уже 16 вариантов нашей картинки, причем можно выбирать коэффициент импровизации.
• На последнем шаге выбираем еще раз и делаем upscale в высокое разрешение.

🌗 Работает достаточно быстро, по качеству не DALL·E 2, но тут все зависит от модели бэкенда. Сам пайплайн рабочий, сервер можно поднять у себя, инструкции есть в репозитории.

Github
🔥3👍1
akutagawa.pdf
653.2 KB
#lingtrain #books #pet

DIY. Делаем книги

🌗 Продолжаю экспериментировать с созданием параллельных книг на иностранных языках. Повозился на майских праздниках с библиотекой weasyprint, чтобы сверстать выровненную при помощи моего хобби-проекта книгу в PDF.

Очень кропотливое занятие, которое, однако можно автоматизировать. На выходе получается вот такая замечательная книга.

🌗 Выравнивание идет при помощи LaBSE, которая обучалась на 100+ языках, можно дообучать и на другие, более редкие языки (про это можно почитать тут). Пока что можно сделать себе книжку в html.

Github
🔥9👍31
#news #tools

Python в браузере, теперь ты можешь. Но зачем?

🔮 Наткнулся на свежую библиотеку py-script, которая позволяет писать код на python в браузере. Для этого нужна только одна зависимость, и вуаля.

🚲 Сначала я подумал, что это какая-то очередная фигня, транслирующая код в JS. Но после беглого просмотра оказалось, что код выполняется при помощи pyodide, порта CPython в WebAssembly. Это значит, что будет работать функционал из стандартной библиотеки. Плюс пишут, что работает numpy, pandas, sklearn и т.д.

🤷‍♂️ Я все равно не до конца понимаю зачем это надо, кроме, может, поворочать какие-то клиентские данные сразу в браузере и сделать визуализацию. Может у вас есть какие-то идеи.

PyScript
😱2
#articles #nlp

Gato — взгляд в сторону сильного ИИ

🧿 Вышла статья от DeepMind о том как они тренировали сеть решать мультимодальные задачи — играть в компьютерные игры, управлять роботом, а кроме этого расставлять подписи к картинкам и чатиться.

Вроде бы ничего особенного относительно SOTA результатов в каждой конкретной задаче, но суть на самом деле в следующем:

• Большая часть тренировочного датасета (85%) — это сценарии от игровых агентов.
• Остальная часть (15%) — это текстовые и графические данные, т.е данные другого типа нежели первые.
• В статье описываются эксперименты как претрейн на данных другой модальности влияет на обучение основного агента.

И вот это очень интересно, — во-первых, обучение на новых задачах может влечь Negative transfer (ухудшение качества в общем). Во-торых, возможен ли Positive transfer?

🧿 Если да, то значит сети можно обобщать (хорошо уметь делать все) и где-то вдалеке маячит возможность обучения того самого сильного ИИ, он же AGI (artificial general intelligence).

Статья
🤔2
🔥 Мы сделали DALLE2

Ну или почти.

👉 Месяц работы, море потраченных нервов и арендованный сервер - совместно с автором Love. Death. Transformers. у нас получилось сделать dalle2-decoder, способный декодировать эмбеддинги клипа.

Как обычно, всё опен сурс на гитхабе.

Лайк, репост, звездочка ⚡️
👍12
#news #cv

IMAGEN. Google наносит ответный удар.

🌗 Пока OpenAI продолжает не делиться своими моделями по генерации изображений, а энтузиасты делают свой велосипед из подручных средств, в компании Google сделали аналог DALL-E2 и назвали его IMAGEN. Модель эта, судя по представленным рендерам, не уступает первой, картинки действительно очень прикольные.

Немного деталей:

Внутри модели генератор изображений 64x64 на 2B параметров.
Затем идёт upscale (улучшение качества) до размера 1024x1024 еще одной моделью на 1B параметров.
Языковой моделью (LM), кодирующей текстовые подсказки, служит T5 на 4.6B параметров. По словам исследователей, именно увеличение объема LM дало больший прирост качества финальной картинки.

🌗 Пока что попробовать ничего нельзя. Зато у нас есть уже две крутые модели, на которые можно пускать слюнки в ожидании чуда.

Обзор | Статья
👍4
door_into_summer.pdf
1.4 MB
#lingtrain #books #pet

Lingtrain. Делаем клёвые книги

🔮 Автоматизирую процесс создания вот таких параллельных книг. Скоро выложу наработки и статью.

Языки будут поддерживаться в зависимости от языковой модели (там будет модель на 100+ языков). Плюс для японского и китайского будет возможность добавить надстрочные подсказки для чтения. Для всех языков можно будет подсвечивать соответствия между предложениями.

🔅 Любите книги.
14🔥8👍3
#books #gpt #news

🌶🗿 🤖 = 🔥

На днях вышла любопытная книга под названием "Пытаясь проснуться", написанная человеком и ИИ. Со стороны людей выступил Павел Пепперштейн (деятель современного искусства), со стороны роботов — сберовская ruGPT-3. На русском языке такая книга выходит впервые.

🌗 Почитал несколько первых рассказов, — вот, что могу сказать:

• За идею и за честность авторам можно поставить пять, тексты действительно оставляли как есть.
• Про сюжетные линии ничего говорить не буду, чтобы не спойлерить. Скажу только, что сами тексты довольно связные, хотя нейросетевые явно короче.
• А так как авторство намеренно не указано, то довольно любопытно искать момент, который выдаст создателя.

🌗 В общем, гику в подарок — самое оно.

"И соткалась Эктоплазма в колоссальную, необозримую, неистребимую, никому не ведомую Репку. И репка эта стала тем миром, где теперь ты, детка, внимаешь с ужасом и ликованием этой обратной сказке."
🔥5👍4
Когда пустили в Midjourney

🔥 Пустили поиграться в дискорд беты Midjourney AI! В нем можно генерировать картинки по текстовому описанию, зашел туда, а там... Генерации на уровне Dalle 2 и Imagen'a, сразу генерят тебе четыре картинки, можно выбирать, какую увеличить.

Чуть-чуть поигрался, оказалось, что бесконечно нагружать сервер не дают (внезапно). Осталась еще пара попыток, так что если есть идеи, то пишите.

👉 Оставить заявку на доступ к бете можно тут. Мою рассматривали около недели, так что вперед.
🔥6
🌕 Иллюстрация к роману "Пикник на обочине" Стругацких.

"Нарисовал" в midjourney.
🔥15👍1
🌹 Иллюстрация к "Маленькому принцу" Экзюпери. Принц держит розу. Акварель.
👍91
🔥 IMAGEN получил обновление

👉 Добавил динамический порог, кеширование (ускорил генерацию) и T5 на 3B параметров (как часть архитектуры)

💪 Прикрепил немного примеров IMAGEN:

1. A photo of funny cat
2. A red cube on top of blue cube
3. A face
4. A teddy bear in times square
5. A photo of teddy bear

Потыкать код
Сгенерировать

@gradientdip
🔥4👍1