Forwarded from Just links
Inverse Occam’s razor https://www.nature.com/articles/s41567-022-01575-2
https://arxiv.org/abs/2204.08284
https://arxiv.org/abs/2204.08284
Nature
Inverse Occam’s razor
Nature Physics - Scientists have long preferred the simplest possible explanation of their data. More recently, a worrying trend to favour unnecessarily complex interpretations has taken hold.
Forwarded from Axis of Ordinary
"Google just released a 442-author paper about a monster new test suite for evaluating Large Language Models (GPT-3 and the like), and in particular, their study of the language models' performance on their test suite as the number of parameters is scaled. As a striking example, see below for a neural net's ability to guess a movie from emojis (rather than, say, outputting random nonsense) as the number of parameters is gradually scaled from 2 million all the way to 128 billion." (via Scott Aaronson )
https://github.com/google/BIG-bench/blob/main/docs/paper/BIG-bench.pdf
This should be a little bit worrying because it makes it difficult to predict future progress. They are not just getting predictably better with more training, data, and parameters but sometimes capabilities emerge in a jumpy and unpredictable way. There can be sudden phase transitions.
https://github.com/google/BIG-bench/blob/main/docs/paper/BIG-bench.pdf
This should be a little bit worrying because it makes it difficult to predict future progress. They are not just getting predictably better with more training, data, and parameters but sometimes capabilities emerge in a jumpy and unpredictable way. There can be sudden phase transitions.
https://github.com/phguo/Send-to-Telegram-Chrome-extension
dataHoardingMaxxing
dataHoardingMaxxing
GitHub
GitHub - phguo/Send-to-Telegram-Chrome-Extension: Send-to-Telegram: an extension for Google Chrome that allows you to send web…
Send-to-Telegram: an extension for Google Chrome that allows you to send web content to your own Telegram Bot. - phguo/Send-to-Telegram-Chrome-Extension
https://www.youtube.com/watch?v=aC9Uu5BUxII
2 years from now, but still relevant
2 years from now, but still relevant
YouTube
Monero: Sound Money, Safe Mode
In this post-pandemic update of the Monero Means Money lecture/documentary, Dr. Daniel Kim provides a comprehensive overview of Monero and Bitcoin within the larger context of gold and fiat currency in the 2020 financial crisis. The source footage for this…
👍2
Forwarded from AbstractDL
Недообученные нейросети — лучшие feature экстракторы
К удивительному выводу пришли две независимые группы исследователей из Google и Baidu — чем дольше учить нейронную сеть, тем хуже выразительная способность её фичей. То есть, не смотря на рост top-1 accuracy по мере обучения, качество её репрезентаций в какой-то момент начинает падать!
VGG и AlexNet давно известны тем, что их фичи отлично подходят для оценки perceptual similarity, но оказалось, что и все современные SOTA модели тоже подходят — просто надо брать не самый последний чекпоинт.
Более того, похоже, что для down-stream задач тоже лучше использовать эмбеддинги от недообученных моделей.
P.S. Проблема в том, что в какой-то момент модель становится настолько умной, что её фичи только она сама и понимает 🤷♂️
статья1, статья2
К удивительному выводу пришли две независимые группы исследователей из Google и Baidu — чем дольше учить нейронную сеть, тем хуже выразительная способность её фичей. То есть, не смотря на рост top-1 accuracy по мере обучения, качество её репрезентаций в какой-то момент начинает падать!
VGG и AlexNet давно известны тем, что их фичи отлично подходят для оценки perceptual similarity, но оказалось, что и все современные SOTA модели тоже подходят — просто надо брать не самый последний чекпоинт.
Более того, похоже, что для down-stream задач тоже лучше использовать эмбеддинги от недообученных моделей.
P.S. Проблема в том, что в какой-то момент модель становится настолько умной, что её фичи только она сама и понимает 🤷♂️
статья1, статья2
Forwarded from Doque Embedded
Чувак делает процессор на дискретных транзисторах с довольно необычным подходом. Процессор пишется на VHDL, из которого генерируется схема в KiCad и потом запускается автороутер платы.
Выглядит безумно, но подход интересный.
https://forum.kicad.info/t/programmatically-generating-schematic/32518
Выглядит безумно, но подход интересный.
https://forum.kicad.info/t/programmatically-generating-schematic/32518