Contextual Transformer Network for Visual Recognition:
GitHub
Использует контекст для направления self-attention
#transformer #images
GitHub
Использует контекст для направления self-attention
#transformer #images
GitHub
GitHub - JDAI-CV/CoTNet: This is an official implementation for "Contextual Transformer Networks for Visual Recognition".
This is an official implementation for "Contextual Transformer Networks for Visual Recognition". - GitHub - JDAI-CV/CoTNet: This is an official implementation for "Contex...
Кто бы сомневался: Go Wider, instead of Deeper
Хотя я думаю мы ещё увидим статьи в стиле: go wider AND deeper
#transformer #images
Хотя я думаю мы ещё увидим статьи в стиле: go wider AND deeper
#transformer #images
Twitter
AK
Go Wider Instead of Deeper pdf: arxiv.org/pdf/2107.11817… abs: arxiv.org/abs/2107.11817 best model outperforms Vision Transformer (ViT) by 1.46% with 0.72× trainable parameters
Segmentation in Style: Unsupervised Semantic Image Segmentation with Stylegan and CLIP
ArXiv
Код
#SSL #segmentation #CLIP
ArXiv
Код
#SSL #segmentation #CLIP
Интересная статья про аугментации в self-supervised режимах от хорошего коллектива авторов.
Статья
Код
#SSL #training #augmentation
Статья
Код
#SSL #training #augmentation
Теперь мы публичный канал, зовите друзей. Админские права сохраняются за персоналом msu.ai, комментарии открытые
В статье предлагается использовать автоенкодер, полученный модификацией VAE для self-supervised learning.
Дает неплохие результаты, хотя пока хуже self-supervised SOTA. Будем посмотреть
Дает неплохие результаты, хотя пока хуже self-supervised SOTA. Будем посмотреть
У Яндекса и Британских коллег стартовал конкурс по предсказанию погоды, и не абы как, а с data shift. Тренировочные данные даны по одному городу, а проверяют по другому.
#competition #ScientificML #datasets #earthscience
#competition #ScientificML #datasets #earthscience
Shifts Challenge: Robustness and Uncertainty under Real-World Distributional Shift
Weather Prediction — Shifts Challenge
Forwarded from TechSparks
В одном из моих любимых каналов “Don’t panic!” @psycholetters нашёл сегодня прекрасную ссылку на тему data science в литературоведении
https://www.pnas.org/content/118/30/e2102061118
Проанализировав тексты 14 млн. книг за последние 125 лет (на английском, немецком и испанском языках) на предмет присутствия в них явных признаков когнитивных искажений, характерных для депрессивных расстройств, авторы обнаружили отчетливо наблюдающиеся «хоккейные клюшки»: после примерно постоянного многолетнего уровня с 80-х годов прошлого века начался подъем, и теперь эти искажения присутствуют в количествах, которых не было ни во времена Великой депрессии, ни в периоды I и II Мировых войн.
Автор канала так суммирует выводы исследования:
«Оказалось, что с 90-х годов прошлого века таких когнитивных искажений в литературе стало больше. То есть в книгах сейчас гораздо легче найти примеры катастрофизации, овергенерализации, черно-белого мышления итд.
Авторы предполагают, что это показывает некие глобальные общественные сдвиги - т.е. мы стали более склонны к депрессии как целый вид, что отражается в творчестве. Но это, конечно, очень спекулятивно и лишь одно из десятков возможных объяснений.» https://t.me/psycholetters/1205
Независимо от выводов (они действительно выглядят спекулятивными) мне очень нравится такой подход к литературоведению :))
https://www.pnas.org/content/118/30/e2102061118
Проанализировав тексты 14 млн. книг за последние 125 лет (на английском, немецком и испанском языках) на предмет присутствия в них явных признаков когнитивных искажений, характерных для депрессивных расстройств, авторы обнаружили отчетливо наблюдающиеся «хоккейные клюшки»: после примерно постоянного многолетнего уровня с 80-х годов прошлого века начался подъем, и теперь эти искажения присутствуют в количествах, которых не было ни во времена Великой депрессии, ни в периоды I и II Мировых войн.
Автор канала так суммирует выводы исследования:
«Оказалось, что с 90-х годов прошлого века таких когнитивных искажений в литературе стало больше. То есть в книгах сейчас гораздо легче найти примеры катастрофизации, овергенерализации, черно-белого мышления итд.
Авторы предполагают, что это показывает некие глобальные общественные сдвиги - т.е. мы стали более склонны к депрессии как целый вид, что отражается в творчестве. Но это, конечно, очень спекулятивно и лишь одно из десятков возможных объяснений.» https://t.me/psycholetters/1205
Независимо от выводов (они действительно выглядят спекулятивными) мне очень нравится такой подход к литературоведению :))
PNAS
Historical language records reveal a surge of cognitive distortions in recent decades | Proceedings of the National Academy of…
Individuals with depression are prone to maladaptive patterns of thinking, known as
cognitive distortions, whereby they think about themselves, the...
cognitive distortions, whereby they think about themselves, the...
AI News:
Deep Genomics 🧬 под научным руководством Yann LeCun подняла раунд финансирования на $180M.
Компания обещает AI Discovery platform for ‘Programmable’ RNA therapeutics
#news #ScientificML #money
Deep Genomics 🧬 под научным руководством Yann LeCun подняла раунд финансирования на $180M.
Компания обещает AI Discovery platform for ‘Programmable’ RNA therapeutics
#news #ScientificML #money
Неплохой пример по примению графовых конволюций. На гите есть jupyter notebook с примером
#ScientificML
#ScientificML
Forwarded from Graph Machine Learning
Graph Convolutional Neural Networks to Analyze Complex Carbohydrates
A blog post by Daniel Bojar about an application of GNN to analyzing glycan sequences and their proposed GNN architecture called SweetNet. There are other coverages of this work (here and here). The paper is here and the code is here.
A blog post by Daniel Bojar about an application of GNN to analyzing glycan sequences and their proposed GNN architecture called SweetNet. There are other coverages of this work (here and here). The paper is here and the code is here.
Medium
Graph Convolutional Neural Networks to Analyze Complex Carbohydrates
Using PyTorch Geometric to Work With Biological Data
Antarctic Captioning - на основе CLIP и сети для image captioning:
Colab
Git
Позволяет генерировать описания к картинкам, которые значительно выходят за рамки любой обученной модели, например COCO.
#images #captioning #multimodal #CLIP
Colab
Git
Позволяет генерировать описания к картинкам, которые значительно выходят за рамки любой обученной модели, например COCO.
#images #captioning #multimodal #CLIP
Audio Captioning Transformer
Было бы круто обучить такую же модель, но для описания последовательностей/временных рядов. Например для графиков давления - типа «давление падает в виду движения циклона на северо-восток».
#waveforms #audio #captioning
Было бы круто обучить такую же модель, но для описания последовательностей/временных рядов. Например для графиков давления - типа «давление падает в виду движения циклона на северо-восток».
#waveforms #audio #captioning
Библиотека для визуализации feature importance.
Интегрирует другие. Сама решений не предлагает
#explainability
Интегрирует другие. Сама решений не предлагает
#explainability
GitHub
GitHub - MAIF/shapash: 🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine…
🔅 Shapash: User-friendly Explainability and Interpretability to Develop Reliable and Transparent Machine Learning Models - MAIF/shapash