#data #nlp
MASSIVE — новый мультиязыковой NLU датасет от Amazon
🌗 Amazon запустил соревнование по NLU (natural language understanding) и, в связи с этим, расшарил параллельный датасет.
• 51 язык
• Всего порядка 1 миллиона строк.
🌗 Посмотрел на него, — похоже, что это всё команды для голосового помощника alex'ы.
• Есть разметка типа "можешь создать событие [time : в ночь] на [date : пятницу] с [person : аллой пугачёвой] и [person : киркоровым]"
• Почти все тексты короткие, до 20 слов.
• Попадаются различия в переводе названий. Русский — "включи игру танки онлайн", немецкий "lass uns ein trivia spiel spielen".
Что ж, появился новый параллельный корпус на 51 язык, хотя и немного специфичный. И то хорошо.
GitHub
MASSIVE — новый мультиязыковой NLU датасет от Amazon
🌗 Amazon запустил соревнование по NLU (natural language understanding) и, в связи с этим, расшарил параллельный датасет.
• 51 язык
• Всего порядка 1 миллиона строк.
🌗 Посмотрел на него, — похоже, что это всё команды для голосового помощника alex'ы.
• Есть разметка типа "можешь создать событие [time : в ночь] на [date : пятницу] с [person : аллой пугачёвой] и [person : киркоровым]"
• Почти все тексты короткие, до 20 слов.
• Попадаются различия в переводе названий. Русский — "включи игру танки онлайн", немецкий "lass uns ein trivia spiel spielen".
Что ж, появился новый параллельный корпус на 51 язык, хотя и немного специфичный. И то хорошо.
GitHub
👍5
Сюрреализм онлайн
🐌 Попробовал новую демку по генерации картинок. Дообучена на работах в стиле Сальвадора Дали, поэтому по запросу "улитка на склоне" может выдать вот такое художество (лучше попробовать несколько раз). Работает быстро, так что рекомендую попробовать.
🐌 Попробовал новую демку по генерации картинок. Дообучена на работах в стиле Сальвадора Дали, поэтому по запросу "улитка на склоне" может выдать вот такое художество (лучше попробовать несколько раз). Работает быстро, так что рекомендую попробовать.
👍3❤2
#notes #tools #useful
Заметка. Парсинг веб-страниц
🐤 Если вам время от времени требуется спарсить ту или иную страничку в интернете (мне тут понадобилось вытащить список русских фразеологизмов из википедии), то в простом случае (без переходов по ссылкам) это можно сделать одной строчкой в консоли браузера (та, что открывается по F12). В моем случае вот такой командой:
• В map пишем логику, которая применится к каждому найденному элементу
• Объединяем все в одну строку и копируем
• Profit
...
Заметка. Парсинг веб-страниц
🐤 Если вам время от времени требуется спарсить ту или иную страничку в интернете (мне тут понадобилось вытащить список русских фразеологизмов из википедии), то в простом случае (без переходов по ссылкам) это можно сделать одной строчкой в консоли браузера (та, что открывается по F12). В моем случае вот такой командой:
copy($$('table.wikitable tbody tr').map((e,i) => {a = e.querySelectorAll('td'); let desc = a.length > 1 ? a[1].outerText.replaceAll('\n',' ') : ""; return a[0].outerText.replaceAll('\n',' ') + " | " + desc}).join('\n'))
• Через $$ получаем все элементы, соответствующие css селектору• В map пишем логику, которая применится к каждому найденному элементу
• Объединяем все в одну строку и копируем
• Profit
...
как гром среди ясного неба | неожиданно...
как два пальца об асфальт | сделать просто
👍3🔥2
#nlp #gpt #news #big
Встречайте OPT, брата GPT-3
🌗 В полку больших генеративных сетей прибыло, — несколько часов назад Meta выложила на github свою балалайку по генерации текстов под названием Open Pre-trained Transformers.
🌗 Что мы об этом знаем:
• Максимальная модель на 175B параметров (ровно столько же у большой GPT-3, которую OpenAI раздает через API). Недавняя мультиязычная имплементация GPT от Сбера была на 13B параметров (и 1.3B в открытом доступе).
• Всего потренировали 9 размеров сеток. Выложили веса для английской версии на 30B параметров.
• Тренировали месяц на 1024 штуках A100 (80GB). GPT-3 тренилась 15 дней на 10000 (десять тысяч) V100 🤯.
• Пишут, то по качеству почти сошлось к GPT-3.
⚠️ Не пытайтесь повторить у себя дома.
Статья | Github
Встречайте OPT, брата GPT-3
🌗 В полку больших генеративных сетей прибыло, — несколько часов назад Meta выложила на github свою балалайку по генерации текстов под названием Open Pre-trained Transformers.
🌗 Что мы об этом знаем:
• Максимальная модель на 175B параметров (ровно столько же у большой GPT-3, которую OpenAI раздает через API). Недавняя мультиязычная имплементация GPT от Сбера была на 13B параметров (и 1.3B в открытом доступе).
• Всего потренировали 9 размеров сеток. Выложили веса для английской версии на 30B параметров.
• Тренировали месяц на 1024 штуках A100 (80GB). GPT-3 тренилась 15 дней на 10000 (десять тысяч) V100 🤯.
• Пишут, то по качеству почти сошлось к GPT-3.
⚠️ Не пытайтесь повторить у себя дома.
Статья | Github
🔥4😱2
#useful #cv
Google репозиторий и CV исследования
🌗 Еще одно прекрасное open source начинание. На этот раз Google создал репозиторий на github, в который будет выкладывать результаты своих исследований и модели. В readme пишут, что будут добавлять в ближайшее время:
• ImageNet-21k in TFDS.
• Loading misc public models used in our publications (NFNet, MoCov3, DINO).
• "Patient and consistent" distillation.
• Contrastive Image-Text model training and evaluation as in LiT and CLIP.
Это все исследования на тему компьютерного зрения, поэтому всем заинтересованным будет очень любопытно.
Github
Google репозиторий и CV исследования
🌗 Еще одно прекрасное open source начинание. На этот раз Google создал репозиторий на github, в который будет выкладывать результаты своих исследований и модели. В readme пишут, что будут добавлять в ближайшее время:
• ImageNet-21k in TFDS.
• Loading misc public models used in our publications (NFNet, MoCov3, DINO).
• "Patient and consistent" distillation.
• Contrastive Image-Text model training and evaluation as in LiT and CLIP.
Это все исследования на тему компьютерного зрения, поэтому всем заинтересованным будет очень любопытно.
Github
👍5
#useful #cv #gen
Пайплайн генерации картинок с HITL (human in the loop)
🌗 Jina AI зарелизили пайплайн для генерации картинок в высоком разрешении. Попробовать можно прямо у себя на компе, потому что вся генерация идет на сервере разработчиков. Потыкал его, работает так:
• Задаем текстовую подсказку (например, "космонавт читает книгу в космосе") и получаем какое-то количество вариантов. Картинки генерируются при помощи сетки DALL·E Mega (реплика DALL·E от WanDB.ai, которая на этой неделе доучилась до 50%).
• Выбираем понравившуюся картинку и отправляем на следующий шаг. Получаем уже 16 вариантов нашей картинки, причем можно выбирать коэффициент импровизации.
• На последнем шаге выбираем еще раз и делаем upscale в высокое разрешение.
🌗 Работает достаточно быстро, по качеству не DALL·E 2, но тут все зависит от модели бэкенда. Сам пайплайн рабочий, сервер можно поднять у себя, инструкции есть в репозитории.
Github
Пайплайн генерации картинок с HITL (human in the loop)
🌗 Jina AI зарелизили пайплайн для генерации картинок в высоком разрешении. Попробовать можно прямо у себя на компе, потому что вся генерация идет на сервере разработчиков. Потыкал его, работает так:
• Задаем текстовую подсказку (например, "космонавт читает книгу в космосе") и получаем какое-то количество вариантов. Картинки генерируются при помощи сетки DALL·E Mega (реплика DALL·E от WanDB.ai, которая на этой неделе доучилась до 50%).
• Выбираем понравившуюся картинку и отправляем на следующий шаг. Получаем уже 16 вариантов нашей картинки, причем можно выбирать коэффициент импровизации.
• На последнем шаге выбираем еще раз и делаем upscale в высокое разрешение.
🌗 Работает достаточно быстро, по качеству не DALL·E 2, но тут все зависит от модели бэкенда. Сам пайплайн рабочий, сервер можно поднять у себя, инструкции есть в репозитории.
Github
🔥3👍1
akutagawa.pdf
653.2 KB
#lingtrain #books #pet
DIY. Делаем книги
🌗 Продолжаю экспериментировать с созданием параллельных книг на иностранных языках. Повозился на майских праздниках с библиотекой weasyprint, чтобы сверстать выровненную при помощи моего хобби-проекта книгу в PDF.
Очень кропотливое занятие, которое, однако можно автоматизировать. На выходе получается вот такая замечательная книга.
🌗 Выравнивание идет при помощи LaBSE, которая обучалась на 100+ языках, можно дообучать и на другие, более редкие языки (про это можно почитать тут). Пока что можно сделать себе книжку в html.
Github
DIY. Делаем книги
🌗 Продолжаю экспериментировать с созданием параллельных книг на иностранных языках. Повозился на майских праздниках с библиотекой weasyprint, чтобы сверстать выровненную при помощи моего хобби-проекта книгу в PDF.
Очень кропотливое занятие, которое, однако можно автоматизировать. На выходе получается вот такая замечательная книга.
🌗 Выравнивание идет при помощи LaBSE, которая обучалась на 100+ языках, можно дообучать и на другие, более редкие языки (про это можно почитать тут). Пока что можно сделать себе книжку в html.
Github
🔥9👍3❤1
#news #tools
Python в браузере, теперь ты можешь. Но зачем?
🔮 Наткнулся на свежую библиотеку py-script, которая позволяет писать код на python в браузере. Для этого нужна только одна зависимость, и вуаля.
🚲 Сначала я подумал, что это какая-то очередная фигня, транслирующая код в JS. Но после беглого просмотра оказалось, что код выполняется при помощи pyodide, порта CPython в WebAssembly. Это значит, что будет работать функционал из стандартной библиотеки. Плюс пишут, что работает numpy, pandas, sklearn и т.д.
🤷♂️ Я все равно не до конца понимаю зачем это надо, кроме, может, поворочать какие-то клиентские данные сразу в браузере и сделать визуализацию. Может у вас есть какие-то идеи.
PyScript
Python в браузере, теперь ты можешь. Но зачем?
🔮 Наткнулся на свежую библиотеку py-script, которая позволяет писать код на python в браузере. Для этого нужна только одна зависимость, и вуаля.
🚲 Сначала я подумал, что это какая-то очередная фигня, транслирующая код в JS. Но после беглого просмотра оказалось, что код выполняется при помощи pyodide, порта CPython в WebAssembly. Это значит, что будет работать функционал из стандартной библиотеки. Плюс пишут, что работает numpy, pandas, sklearn и т.д.
🤷♂️ Я все равно не до конца понимаю зачем это надо, кроме, может, поворочать какие-то клиентские данные сразу в браузере и сделать визуализацию. Может у вас есть какие-то идеи.
PyScript
😱2
#articles #nlp
Gato — взгляд в сторону сильного ИИ
🧿 Вышла статья от DeepMind о том как они тренировали сеть решать мультимодальные задачи — играть в компьютерные игры, управлять роботом, а кроме этого расставлять подписи к картинкам и чатиться.
Вроде бы ничего особенного относительно SOTA результатов в каждой конкретной задаче, но суть на самом деле в следующем:
• Большая часть тренировочного датасета (85%) — это сценарии от игровых агентов.
• Остальная часть (15%) — это текстовые и графические данные, т.е данные другого типа нежели первые.
• В статье описываются эксперименты как претрейн на данных другой модальности влияет на обучение основного агента.
И вот это очень интересно, — во-первых, обучение на новых задачах может влечь Negative transfer (ухудшение качества в общем). Во-торых, возможен ли Positive transfer?
🧿 Если да, то значит сети можно обобщать (хорошо уметь делать все) и где-то вдалеке маячит возможность обучения того самого сильного ИИ, он же AGI (artificial general intelligence).
Статья
Gato — взгляд в сторону сильного ИИ
🧿 Вышла статья от DeepMind о том как они тренировали сеть решать мультимодальные задачи — играть в компьютерные игры, управлять роботом, а кроме этого расставлять подписи к картинкам и чатиться.
Вроде бы ничего особенного относительно SOTA результатов в каждой конкретной задаче, но суть на самом деле в следующем:
• Большая часть тренировочного датасета (85%) — это сценарии от игровых агентов.
• Остальная часть (15%) — это текстовые и графические данные, т.е данные другого типа нежели первые.
• В статье описываются эксперименты как претрейн на данных другой модальности влияет на обучение основного агента.
И вот это очень интересно, — во-первых, обучение на новых задачах может влечь Negative transfer (ухудшение качества в общем). Во-торых, возможен ли Positive transfer?
🧿 Если да, то значит сети можно обобщать (хорошо уметь делать все) и где-то вдалеке маячит возможность обучения того самого сильного ИИ, он же AGI (artificial general intelligence).
Статья
🤔2
Forwarded from Градиентное погружение
🔥 Мы сделали DALLE2
Ну или почти.
👉 Месяц работы, море потраченных нервов и арендованный сервер - совместно с автором Love. Death. Transformers. у нас получилось сделать dalle2-decoder, способный декодировать эмбеддинги клипа.
Как обычно, всё опен сурс на гитхабе.
Лайк, репост, звездочка ⚡️
Ну или почти.
👉 Месяц работы, море потраченных нервов и арендованный сервер - совместно с автором Love. Death. Transformers. у нас получилось сделать dalle2-decoder, способный декодировать эмбеддинги клипа.
Как обычно, всё опен сурс на гитхабе.
Лайк, репост, звездочка ⚡️
👍12
#news #cv
IMAGEN. Google наносит ответный удар.
🌗 Пока OpenAI продолжает не делиться своими моделями по генерации изображений, а энтузиасты делают свой велосипед из подручных средств, в компании Google сделали аналог DALL-E2 и назвали его IMAGEN. Модель эта, судя по представленным рендерам, не уступает первой, картинки действительно очень прикольные.
Немного деталей:
• Внутри модели генератор изображений 64x64 на 2B параметров.
• Затем идёт upscale (улучшение качества) до размера 1024x1024 еще одной моделью на 1B параметров.
• Языковой моделью (LM), кодирующей текстовые подсказки, служит T5 на 4.6B параметров. По словам исследователей, именно увеличение объема LM дало больший прирост качества финальной картинки.
🌗 Пока что попробовать ничего нельзя. Зато у нас есть уже две крутые модели, на которые можно пускать слюнки в ожидании чуда.
Обзор | Статья
IMAGEN. Google наносит ответный удар.
🌗 Пока OpenAI продолжает не делиться своими моделями по генерации изображений, а энтузиасты делают свой велосипед из подручных средств, в компании Google сделали аналог DALL-E2 и назвали его IMAGEN. Модель эта, судя по представленным рендерам, не уступает первой, картинки действительно очень прикольные.
Немного деталей:
• Внутри модели генератор изображений 64x64 на 2B параметров.
• Затем идёт upscale (улучшение качества) до размера 1024x1024 еще одной моделью на 1B параметров.
• Языковой моделью (LM), кодирующей текстовые подсказки, служит T5 на 4.6B параметров. По словам исследователей, именно увеличение объема LM дало больший прирост качества финальной картинки.
🌗 Пока что попробовать ничего нельзя. Зато у нас есть уже две крутые модели, на которые можно пускать слюнки в ожидании чуда.
Обзор | Статья
👍4
door_into_summer.pdf
1.4 MB
#lingtrain #books #pet
Lingtrain. Делаем клёвые книги
🔮 Автоматизирую процесс создания вот таких параллельных книг. Скоро выложу наработки и статью.
Языки будут поддерживаться в зависимости от языковой модели (там будет модель на 100+ языков). Плюс для японского и китайского будет возможность добавить надстрочные подсказки для чтения. Для всех языков можно будет подсвечивать соответствия между предложениями.
🔅 Любите книги.
Lingtrain. Делаем клёвые книги
🔮 Автоматизирую процесс создания вот таких параллельных книг. Скоро выложу наработки и статью.
Языки будут поддерживаться в зависимости от языковой модели (там будет модель на 100+ языков). Плюс для японского и китайского будет возможность добавить надстрочные подсказки для чтения. Для всех языков можно будет подсвечивать соответствия между предложениями.
🔅 Любите книги.
❤14🔥8👍3
#books #gpt #news
🌶🗿 ➕ 🤖 = 🔥
На днях вышла любопытная книга под названием "Пытаясь проснуться", написанная человеком и ИИ. Со стороны людей выступил Павел Пепперштейн (деятель современного искусства), со стороны роботов — сберовская ruGPT-3. На русском языке такая книга выходит впервые.
🌗 Почитал несколько первых рассказов, — вот, что могу сказать:
• За идею и за честность авторам можно поставить пять, тексты действительно оставляли как есть.
• Про сюжетные линии ничего говорить не буду, чтобы не спойлерить. Скажу только, что сами тексты довольно связные, хотя нейросетевые явно короче.
• А так как авторство намеренно не указано, то довольно любопытно искать момент, который выдаст создателя.
🌗 В общем, гику в подарок — самое оно.
"И соткалась Эктоплазма в колоссальную, необозримую, неистребимую, никому не ведомую Репку. И репка эта стала тем миром, где теперь ты, детка, внимаешь с ужасом и ликованием этой обратной сказке."
🌶🗿 ➕ 🤖 = 🔥
На днях вышла любопытная книга под названием "Пытаясь проснуться", написанная человеком и ИИ. Со стороны людей выступил Павел Пепперштейн (деятель современного искусства), со стороны роботов — сберовская ruGPT-3. На русском языке такая книга выходит впервые.
🌗 Почитал несколько первых рассказов, — вот, что могу сказать:
• За идею и за честность авторам можно поставить пять, тексты действительно оставляли как есть.
• Про сюжетные линии ничего говорить не буду, чтобы не спойлерить. Скажу только, что сами тексты довольно связные, хотя нейросетевые явно короче.
• А так как авторство намеренно не указано, то довольно любопытно искать момент, который выдаст создателя.
🌗 В общем, гику в подарок — самое оно.
"И соткалась Эктоплазма в колоссальную, необозримую, неистребимую, никому не ведомую Репку. И репка эта стала тем миром, где теперь ты, детка, внимаешь с ужасом и ликованием этой обратной сказке."
🔥5👍4
Когда пустили в Midjourney
🔥 Пустили поиграться в дискорд беты Midjourney AI! В нем можно генерировать картинки по текстовому описанию, зашел туда, а там... Генерации на уровне Dalle 2 и Imagen'a, сразу генерят тебе четыре картинки, можно выбирать, какую увеличить.
Чуть-чуть поигрался, оказалось, что бесконечно нагружать сервер не дают (внезапно). Осталась еще пара попыток, так что если есть идеи, то пишите.
👉 Оставить заявку на доступ к бете можно тут. Мою рассматривали около недели, так что вперед.
🔥 Пустили поиграться в дискорд беты Midjourney AI! В нем можно генерировать картинки по текстовому описанию, зашел туда, а там... Генерации на уровне Dalle 2 и Imagen'a, сразу генерят тебе четыре картинки, можно выбирать, какую увеличить.
Чуть-чуть поигрался, оказалось, что бесконечно нагружать сервер не дают (внезапно). Осталась еще пара попыток, так что если есть идеи, то пишите.
👉 Оставить заявку на доступ к бете можно тут. Мою рассматривали около недели, так что вперед.
🔥6
Forwarded from Градиентное погружение
🔥 IMAGEN получил обновление
👉 Добавил динамический порог, кеширование (ускорил генерацию) и T5 на 3B параметров (как часть архитектуры)
💪 Прикрепил немного примеров IMAGEN:
1. A photo of funny cat
2. A red cube on top of blue cube
3. A face
4. A teddy bear in times square
5. A photo of teddy bear
Потыкать код
Сгенерировать
@gradientdip
👉 Добавил динамический порог, кеширование (ускорил генерацию) и T5 на 3B параметров (как часть архитектуры)
💪 Прикрепил немного примеров IMAGEN:
1. A photo of funny cat
2. A red cube on top of blue cube
3. A face
4. A teddy bear in times square
5. A photo of teddy bear
Потыкать код
Сгенерировать
@gradientdip
🔥4👍1