AI Для Всех
12.8K subscribers
1.16K photos
151 videos
10 files
1.37K links
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Download Telegram
MLP-Mixer: An all-MLP Architecture for Vision. В этой сетке есть только полносвязанные слои, а работает она не хуже сверхточных сетей и визуальных трансформеров.

ArXiv

Думаю в ближайшие пару недель все будут обсуждать universal approximation theory и иже с ней. А для нас это значит что пора перестать рассказывать об особой эффективности conv по сравнению с linear.

Блог-пост разбор

#images #MLP #classification
Похожая статья была про #RNN
Forwarded from DL in NLP (nlpcontroller_bot)
Revisiting Simple Neural Probabilistic Language Models
Sun and Iyyer [UMass Amherst]
arxiv.org/abs/2104.03474

Помните на курсе по NLP мы говорили, что просто конкатенировать эмбеддинги текста и пихать их в полносвязную сетку — это тупо и не работает? И что лучше использовать RNN/Трансфрмеры.

В общем это не совсем так. Если сделать полносвязную сетку из 16 слоёв с layer norm, dropout и skip connections, то на коротких контекстах (<20 токенов) она работает сопоставимо с трансформерами на языковом моделировании 🤯

Кажется, мне нужно будет переделать пару слайдов...
Приложение, чтобы определять птиц по голосу.

#ScientificML #sound
- Источник материалов для презентаций.
Альманах №4_Web_v.4.18.pdf
5.5 MB
Пример с , кол-вом научных публикаций
Forwarded from эйай ньюз
Очередная крутая работа от OpenAI: Diffusion Models Beat GANs on Image Synthesis. SOTA для генерации картинок на ImageNet

Предлагается новый тип генеративных моделей — вероятностная модель диффузии (Diffusion Probabilistic Model), для краткости «диффузионная модель». Диффузионная модель представляет собой параметризованную цепь Маркова, обученную с использованием вариационного вывода для создания выборок, соответствующих данным, за конечное число шагов. Процесс диффузии тут — это цепь Маркова, которая постепенно добавляет шум к данным в направлении, противоположном семплированию, пока сигнал не будет разрушен. Так вот мы учим обратные переходы в этой цепочке, которые обращают вспять процесс диффузии. И к бабке не ходи, мы параметризуем всё нейронными сетями.

Получается очень качественная генерация, даже лучше чем ганами (особенно хорошо видно на дядьке с Язем, которого здорово так колошматит в моделе BigGAN). Минус диффузионных моделей сейчас — это медленная тренировка и инференс.

Есть код. Подробнее тут.
Jakub_Langr,_Vladimir_Bok_GANs_in_Action_Deep_learning_with_Generative.pdf
22 MB
На картинке не было ошибки (стр. 114)
Как получить гарантии генерализации машинного обучения? В статье моих любимейших ACME Labs предлагается использовать смесь размеченных данных и данных размеченных случайным образом.

Если модель выдает маленькую ошибку на чистых данных и большую ошибку на случайной разметке - мы можем надеятся на хорошую генерализацию.

В статье есть формальные доказательства и ещё много всего интересного

ArXiv

#training #classification
Крутой пример применения #GAN для восстановления лиц на фотографиях:

ArXiv
Я вообще не представляю как это кому-то может понадобиться, но посмотрите как мило!

Twitter пост

P.s.: обратите внимание на сайт. Papers with #datasets - отличный ресурс для поиска датасетов
Если у кого-то есть аспиранты гуманитарии или интересующиеся, нашёл семинар BERT для гумунитариаев: https://melaniewalsh.github.io/BERT-for-Humanists/workshop/

#ScientificML #гумунитарии #social