Spark in me
2.2K subscribers
829 photos
48 videos
116 files
2.68K links
Lost like tears in rain. DS, ML, a bit of philosophy and math. No bs or ads.
Download Telegram
​​DINOv2: Learning Robust Visual Features without Supervision

Get ready for a game-changer in computer vision! Building on the groundbreaking achievements in natural language processing, foundation models are revolutionizing the way we use images in various systems. By generating all-purpose visual features that excel across diverse image distributions and tasks without finetuning, these models are set to redefine the field.

The researchers behind this work have combined cutting-edge techniques to scale pretraining in terms of data and model size, turbocharging the training process like never before. They've devised an ingenious automatic pipeline to create a rich, diverse, and curated image dataset, setting a new standard in the self-supervised literature. To top it off, they've trained a colossal ViT model with a staggering 1 billion parameters and distilled it into a series of smaller, ultra-efficient models. These models outshine the best available all-purpose features, OpenCLIP, on most benchmarks at both image and pixel levels.

A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-dinov2

Project link: https://dinov2.metademolab.com/
#deeplearning #cv #pytorch #imagesegmentation #sota #pretraining
Собака лает — ветер носит, или решил ли Bark синтез речи?

Время от времени мне в личку присылают посты с телеграм-каналов, специализирующихся на "ИИ" хайпе. Обычно такие посты сопровождаются весьма сомнительного качества журналистикой, который обычно сводится к тому, что задача X теперь уже решена и мы были в очередной раз по гроб облагодетельствованы.

Давайте разберемся так ли это, но теперь на примере синтеза речи:

- https://habr.com/ru/articles/731418/
https://arxiv.org/pdf/2304.09848.pdf

Also there is nothing in the LLM design that points to a particular web page or a source in the dataset, so I wonder how the citation mechanism works.

Do they run ... plain searches under the hood, or do they do plain search first, and then do the summarization part?
Ну, то есть:

1. Таможня торговала маркетинговыми данными. Практически с той же степенью детализации, что имелись у игроков рынка совершающих операции. Ничего не скрывала, ни что закупается и ввозится, ни кем.

2. Вообще, это немножко охренеть и с точки зрения защиты коммерческой тайны, и с точки зрения того, а как такая торговля устроена.

3. И после 24.02 — продолжила этим заниматься

4. И это тоже немного охренеть. А у нас много всяких "викторов бутов", а мы хотим чтоб их всех Штаты к себе выцепляли при первом же удобном поводе, что ли?
Чуваки выдают базу по КД:

Фашизм при становлении паразитирует на революционных настроениях и выдает себя за социализм
Приход фашизма к власти означает слабость даже мнимых и театральных инстутов буржуазной демократии
В той или иной мере многие проявления начальной стадии прихода фашизма к власти сейчас наблюдаются во ВСЕХ буржуазных государствах

https://youtu.be/Y6Tu_GdN-Uk
Spark in me
Чуваки выдают базу по КД: Фашизм при становлении паразитирует на революционных настроениях и выдает себя за социализм Приход фашизма к власти означает слабость даже мнимых и театральных инстутов буржуазной демократии В той или иной мере многие проявления…
Но не всё так мрачно. Приведу пример с другой стороны - за несколько часов реально пройти KYC для эквайринга в боте в телеграме, оформить онлайн кассу и это все не отрывая жопу от стула.

Киберпанк как он есть. Рынок эквайринга сильно изменился, и не думаю, что со сбером так бы получилось (вообще ещё давно мы месяцами вели с ними переговоры), но тем не менее.

Даже почти все формы и регистрации были бесшовными.
Еще из интересного. Есть датасет Common Voice.
Вроде прекрасно, бесплатная датка.

Но есть один нюанс. Почему-то в языковых парах:

Русский - Белорусский
Татарский - Башкирский
Испанский - Каталонский

Лидирует менее популярный язык. И очень много эсперанто. Интересно, почему?)
​​Scaling Transformer to 1M tokens and beyond with RMT

Imagine extending the context length of BERT, one of the most effective Transformer-based models in natural language processing, to an unprecedented two million tokens! This technical report unveils the Recurrent Memory Transformer (RMT) architecture, which achieves this incredible feat while maintaining high memory retrieval accuracy.

The RMT approach enables storage and processing of both local and global information, allowing information flow between segments of the input sequence through recurrence. The experiments showcase the effectiveness of this groundbreaking method, with immense potential to enhance long-term dependency handling in natural language understanding and generation tasks, as well as enable large-scale context processing for memory-intensive applications.

Paper link: https://arxiv.org/abs/2304.11062
Code link: https://github.com/booydar/t5-experiments/tree/scaling-report

A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-rmt-1m

#deeplearning #nlp #bert #memory
Какая пушка 🙈

Наверное хорошо, что мы в школе на истории не изучали историю 20 века, точнее изучали ее галопом, а занимались математикой и физикой.
Fuck you, ballooning debt based western financial institutions
TWIMC

string2string: A Modern Python Library for String-to-String Algorithms
https://arxiv.org/abs/2304.14395

We introduce string2string, an open-source library that offers a comprehensive suite of efficient algorithms for a broad range of string-to-string problems. It includes traditional algorithmic solutions as well as recent advanced neural approaches to tackle various problems in string alignment, distance measurement, lexical and semantic search, and similarity analysis -- along with several helpful visualization tools and metrics to facilitate the interpretation and analysis of these methods. Notable algorithms featured in the library include the Smith-Waterman algorithm for pairwise local alignment, the Hirschberg algorithm for global alignment, the Wagner-Fisher algorithm for edit distance, BARTScore and BERTScore for similarity analysis, the Knuth-Morris-Pratt algorithm for lexical search, and Faiss for semantic search. Besides, it wraps existing efficient and widely-used implementations of certain frameworks and metrics, such as sacreBLEU and ROUGE, whenever it is appropriate and suitable. Overall, the library aims to provide extensive coverage and increased flexibility in comparison to existing libraries for strings. It can be used for many downstream applications, tasks, and problems in natural-language processing, bioinformatics, and computational social sciences. It is implemented in Python, easily installable via pip, and accessible through a simple API. Source code, documentation, and tutorials are all available on our GitHub page:

https://github.com/stanfordnlp/string2string
> Western propaganda and ideology are just like the Devil: the greatest trick they ever played was to make us think they don’t exist. The very moment you believe they’re not there is the very moment you’re in the eye of the storm.

https://medium.com/@harolddegauche/western-propaganda-the-greatest-trick-the-devil-ever-pulled-99df373facd2