Вышел пост на VC про Spaced Repetition. Но вы получили этот контент эксклюзивно и заранее. Однако если вдруг не прочитали, то очень советую познакомиться с этим инструментом!
https://vc.ru/otus/219674-spaced-repetition
https://vc.ru/otus/219674-spaced-repetition
vc.ru
Spaced Repetition — Otus на vc.ru
Вы проходите курс, сдаете экзамен, а через месяц с трудом вспоминаете название предмета, не говоря уже о материале. Было такое? В университете мне говорили, что так должно быть: “Зато остается интуиция, и ты знаешь, где посмотреть!” Теперь я уверен: всё это…
Forwarded from Data Science by ODS.ai 🦜
Revisiting ResNets: Improved Training and Scaling Strategies
The authors of the paper (from Google Brain and UC Berkeley) have decided to analyze the effects of the model architecture, training, and scaling strategies separately and concluded that these strategies might have a higher impact on the score than the architecture.
They offer two new strategies:
- scale model depth if overfitting is possible, scale model width otherwise
- increase image resolution slower than recommended in previous papers
Based on these ideas, the new architecture ResNet-RS was developed. It is 2.1x–3.3x faster than EfficientNets on GPU while reaching similar accuracy on ImageNet.
In semi-supervised learning, ResNet-RS achieves 86.2% top-1 ImageNet accuracy while being 4.7x faster than EfficientNet-NoisyStudent.
Transfer learning on downstream tasks also has improved performance.
The authors suggest using these ResNet-RS as a baseline for further research.
Paper: https://arxiv.org/abs/2103.07579
Code and checkpoints are available in TensorFlow:
https://github.com/tensorflow/models/tree/master/official/vision/beta
https://github.com/tensorflow/tpu/tree/master/models/official/resnet/resnet_rs
A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-resnetsr
#deeplearning #computervision #sota
The authors of the paper (from Google Brain and UC Berkeley) have decided to analyze the effects of the model architecture, training, and scaling strategies separately and concluded that these strategies might have a higher impact on the score than the architecture.
They offer two new strategies:
- scale model depth if overfitting is possible, scale model width otherwise
- increase image resolution slower than recommended in previous papers
Based on these ideas, the new architecture ResNet-RS was developed. It is 2.1x–3.3x faster than EfficientNets on GPU while reaching similar accuracy on ImageNet.
In semi-supervised learning, ResNet-RS achieves 86.2% top-1 ImageNet accuracy while being 4.7x faster than EfficientNet-NoisyStudent.
Transfer learning on downstream tasks also has improved performance.
The authors suggest using these ResNet-RS as a baseline for further research.
Paper: https://arxiv.org/abs/2103.07579
Code and checkpoints are available in TensorFlow:
https://github.com/tensorflow/models/tree/master/official/vision/beta
https://github.com/tensorflow/tpu/tree/master/models/official/resnet/resnet_rs
A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-resnetsr
#deeplearning #computervision #sota
Я делаю для друзей аудит IT-проекта. Они наняли команду на аутсорсе писать им проект очень даже весомого масштаба. Аутсорсеры что-то пилят годами, приближается срок сдачи проекта, но непонятно, нормально они всё делают или внутри полная лажа. Поэтому наняли меня в качестве аудитора, аутсорсеры со скрипом дали доступ к коду, и я стал изучать. В итоге мои выводы помогут торговаться с исполнителем на тему правок и сэкономить килотонны денег.
Если с ресерчем в ML не получится, то буду как Елена Летучая для IT проектов. Сидят программисты в подвале, хрумкают печенье "Юблиейное" без шоколадной глазури, ничто не предвещает беды. И тут врываюсь я с камерами: "Здравствуйте. Посмотрим, что тут у нас: показывайте свой репозиторий. Это что у вас, меркуриал? Вы что, из 19 века? Ладно, покажите маркировку коммита. Да, да, показывайте. Так, что это за протухший прошлогодний пулл-реквест? Позовите мне тимлида! Вы знаете, что у вас тестов нет? Вы код ревью вообще делаете? Так, погодите. Что это за запах? Вот этот запах, чем воняет? У вас что, MongoDB?"
Если с ресерчем в ML не получится, то буду как Елена Летучая для IT проектов. Сидят программисты в подвале, хрумкают печенье "Юблиейное" без шоколадной глазури, ничто не предвещает беды. И тут врываюсь я с камерами: "Здравствуйте. Посмотрим, что тут у нас: показывайте свой репозиторий. Это что у вас, меркуриал? Вы что, из 19 века? Ладно, покажите маркировку коммита. Да, да, показывайте. Так, что это за протухший прошлогодний пулл-реквест? Позовите мне тимлида! Вы знаете, что у вас тестов нет? Вы код ревью вообще делаете? Так, погодите. Что это за запах? Вот этот запах, чем воняет? У вас что, MongoDB?"
👍1
Телеграм канал ОТУС выложил мой пост про Spaced Reptition. Если благодаря этому вы попали в мой канал, то вот обещанные подробности о том, как делать Anki карточки:
https://t.me/boris_again/239
https://t.me/boris_again/239
Telegram
OTUS News
#expert
🧠Всем привет! Сегодня у нас в гостях Борис Цейтлин - выпускник магистратуры "Науки о данных" ФКН ВШЭ, работал machine learning инженером в Mindsdb, в настоящее время преподаёт в OTUS на курсах по машинному обучению.
Поговорили с Борисом о том, как…
🧠Всем привет! Сегодня у нас в гостях Борис Цейтлин - выпускник магистратуры "Науки о данных" ФКН ВШЭ, работал machine learning инженером в Mindsdb, в настоящее время преподаёт в OTUS на курсах по машинному обучению.
Поговорили с Борисом о том, как…
Там парень на реддите запустил сервис аренды VPS с GPU для машинного обучения, и цены в три раза ниже чем на AWS. Сам не проверял, но звучит очень круто:
https://gpu.land/
UPD. ещё и описал в пару строк как создать такой сервис:
https://www.reddit.com/r/MachineLearning/comments/m73sy7/p_my_side_project_cloud_gpus_for_13_the_cost_of/gr9sy8v?utm_source=share&utm_medium=web2x&context=3
https://gpu.land/
UPD. ещё и описал в пару строк как создать такой сервис:
https://www.reddit.com/r/MachineLearning/comments/m73sy7/p_my_side_project_cloud_gpus_for_13_the_cost_of/gr9sy8v?utm_source=share&utm_medium=web2x&context=3
Reddit
xepo3abp's comment on "[P] My side project: Cloud GPUs for 1/3 the cost of AWS/GCP"
Explore this conversation and more from the MachineLearning community
👍1
Forwarded from нёрд хаб
This media is not supported in your browser
VIEW IN TELEGRAM
#AR
Приложение-помощник при ремонте, для выбора цвета стен. Обратите внимание, как виртуальная поверхность отражает свет
https://twitter.com/heyadam/status/1369342211771428864?s=19
Приложение-помощник при ремонте, для выбора цвета стен. Обратите внимание, как виртуальная поверхность отражает свет
https://twitter.com/heyadam/status/1369342211771428864?s=19
Неиронные клеточные автоматы + Майнкрафт:
https://twitter.com/risi1979/status/1372158321256456198
Это как обычные клеточные автоматы, но правило апдейта задается неиронной сетью. Все блоки структуры используют только локальную информацию о своих соседях. Каждый в отдельности ничего не знает о глобальной структуре. Так блоки коммуницируют между собой, и каждый приходит к выводу о том, какую часть в общей структуре он занимает. Результаты крутые: блоки собираются в здания, в живых существ, в механизмы на рэдстоуне. Если отломать часть здания, то она отрастет обратно.
https://twitter.com/risi1979/status/1372158321256456198
Это как обычные клеточные автоматы, но правило апдейта задается неиронной сетью. Все блоки структуры используют только локальную информацию о своих соседях. Каждый в отдельности ничего не знает о глобальной структуре. Так блоки коммуницируют между собой, и каждый приходит к выводу о том, какую часть в общей структуре он занимает. Результаты крутые: блоки собираются в здания, в живых существ, в механизмы на рэдстоуне. Если отломать часть здания, то она отрастет обратно.
Twitter
Sebastian Risi
Excited to share our work on Morphogenesis in Minecraft! We show that neural cellular automata can learn to grow not only complex 3D artifacts with over 3,000 blocks but also functional Minecraft machines that can regenerate when cut in half 🐛🔪=🐛🐛 PDF:ar…
Раньше меня очень поразила серия статей на эту тему на distill:
https://distill.pub/2020/growing-ca/
https://distill.pub/2020/selforg/mnist/
Там тоже самое, но вместо блоков пиксели. Вся суть в том, что пиксели могут собираться в сложные структуры и могут восстанавливать повреждения. Причем структуры получаются устойчивые к поворотам и изменениям координат. Пиксели могут коммуницировать между собой и решить, какой рисунок они представляют.
Авторы предполагают, что однажды мы сможем так выращивать живые органы. Один раз учишь алгоритм для апдейта клетки, а дальше много клеток следуя этому алгоритму собираются в искусственную почку.
Всё это настолько круто, что я бы с удовольствем сделал это темой PhD. И пусть неизвестно, будет это реально применимо или нет
https://distill.pub/2020/growing-ca/
https://distill.pub/2020/selforg/mnist/
Там тоже самое, но вместо блоков пиксели. Вся суть в том, что пиксели могут собираться в сложные структуры и могут восстанавливать повреждения. Причем структуры получаются устойчивые к поворотам и изменениям координат. Пиксели могут коммуницировать между собой и решить, какой рисунок они представляют.
Авторы предполагают, что однажды мы сможем так выращивать живые органы. Один раз учишь алгоритм для апдейта клетки, а дальше много клеток следуя этому алгоритму собираются в искусственную почку.
Всё это настолько круто, что я бы с удовольствем сделал это темой PhD. И пусть неизвестно, будет это реально применимо или нет
Distill
Growing Neural Cellular Automata
Training an end-to-end differentiable, self-organising cellular automata model of morphogenesis, able to both grow and regenerate specific patterns.
# Великие цели не для нас
Недавно меня посетила мысль: "Если идти в науку, то надо стремиться к Turning Award (высшая награда в Computer Science), а иначе и смысла нет". Буду стремиться к высокой планке и по пути точно чего-нибудь добьюсь. Звучит складно, но теперь я знаю: с таким мышлением ничего не получится. Смотря назад, я вижу паттерн: чем больше был мой фокус на достижениях, тем меньше было достижений. И наоборот.
Во-первых, цели это путь к страданию. "Надо стремиться к Turing Award" это мышление крайностями: "или я получаю Turing Award, или не стоило пытаться". И вот ты уже играешь в рулетку, поставив на одно число всю свою самооценку. Каждую минуту с такой миссией ты чувствуешь себя *недосточным*. Как можно смотреть "Ковбая Бипопа", если человечество ещё не стало межпланетарным видом? Миссии длинною в жизнь очень хороши для драмы. Атлант расправил плечи, Раст Коул 20 лет ищет маньяка, Илон Маск летит на Марс. Однако в жизни, по моему опыту, они превращаются в тяжелый груз и тянут вниз.
Во-вторых, цель мешает достичь цели. К предыдущему абзацу можно возразить: "Счастье для меня не важно: я пострадаю, но оно того стоит". К сожалению такой фокус помешает достичь цели, а значит оно того не стоит. Вспоминается история про Русского бизнесмена, который попал в список самых богатых людей "Форбс", и в интервью сказал: "Да вы что, я никогда таких денег не видел, просто работаю, и тут на тебе сюрприз". Во всех биографиях выдающихся личностей я встречал такую историю. Наполеон не планировал захватывать Европу, когда боролся за власть на крохотной Корсике. Просто спустя много лет поставить своих родственников наместниками в подконтрльных странах стало разумным следующим шагом. Франклин не планировал становится президентом. Достоевский не планировал стать великим писателем. С достижениями везде одна и та же история: человек делает то, что интересно и получается, а потом вдруг: "О, я в списке Форбс, во дела".
Но бывает ведь "Кто если не я?" Нет, не бывает, но так может казаться. Если ты очень амбициозный первокурсник и хочешь избавить мир от голода, то это очень драматично, но абсолютно бесполезно. Ты лучше закрой сессию. Пусть мир от голода спасает тот человек, для которого это следующий разумный шаг. Если мы будем решать те проблемы, для которых именно мы наиболее эффективны, то принесем обществу гораздо больше пользы, и получим гораздо большую награду.
В-третьих, слишком многое не зависит от нас. Даже если ты вырос в семье великих ученых, у тебя высокий IQ, лучшие учителя и природная тяга к познанию, ты скорее всего не получишь Нобелевку. Вероятность равна P(ты сделаешь великое открытие) умножить на P(его заметят и оценят) умножить на P(Нобелевку ещё будут выдавать) умножить на P(ты проживешь достаточно долго), и так далее. Даже если ты сделаешь всё, что в твоих силах, вероятность будет около ноля. Сколько было ученых, которые могли получить Нобелевку, но не получили? Придется смириться: не всё в наших силах. Планровать достижения это как планировать выпадения чисел в рулетке. Придется признать: Ты никогда не получишь Нобелевку. Думая так ты никогда не будешь разочарован, а если получишь, то будет приятный сюрприз.
Как же быть? Если цель кажется далекой и великой, то пока что она не для тебя. Это может быть мечтой, но не целью. Подожди, пока она станет просто одним из вариантов следующего шага. В своём планировании нужно учитывать короткие сроки и достижимые варианты: поступление в университет, смену работы, публикацию статьи. Следующий разумный шаг. В действиях нужно вообще опираться на сиюминутные проблемы: пойти сегодня в спортзал, написать пост в телеграм канал, сделать задачу по работе.
Недавно меня посетила мысль: "Если идти в науку, то надо стремиться к Turning Award (высшая награда в Computer Science), а иначе и смысла нет". Буду стремиться к высокой планке и по пути точно чего-нибудь добьюсь. Звучит складно, но теперь я знаю: с таким мышлением ничего не получится. Смотря назад, я вижу паттерн: чем больше был мой фокус на достижениях, тем меньше было достижений. И наоборот.
Во-первых, цели это путь к страданию. "Надо стремиться к Turing Award" это мышление крайностями: "или я получаю Turing Award, или не стоило пытаться". И вот ты уже играешь в рулетку, поставив на одно число всю свою самооценку. Каждую минуту с такой миссией ты чувствуешь себя *недосточным*. Как можно смотреть "Ковбая Бипопа", если человечество ещё не стало межпланетарным видом? Миссии длинною в жизнь очень хороши для драмы. Атлант расправил плечи, Раст Коул 20 лет ищет маньяка, Илон Маск летит на Марс. Однако в жизни, по моему опыту, они превращаются в тяжелый груз и тянут вниз.
Во-вторых, цель мешает достичь цели. К предыдущему абзацу можно возразить: "Счастье для меня не важно: я пострадаю, но оно того стоит". К сожалению такой фокус помешает достичь цели, а значит оно того не стоит. Вспоминается история про Русского бизнесмена, который попал в список самых богатых людей "Форбс", и в интервью сказал: "Да вы что, я никогда таких денег не видел, просто работаю, и тут на тебе сюрприз". Во всех биографиях выдающихся личностей я встречал такую историю. Наполеон не планировал захватывать Европу, когда боролся за власть на крохотной Корсике. Просто спустя много лет поставить своих родственников наместниками в подконтрльных странах стало разумным следующим шагом. Франклин не планировал становится президентом. Достоевский не планировал стать великим писателем. С достижениями везде одна и та же история: человек делает то, что интересно и получается, а потом вдруг: "О, я в списке Форбс, во дела".
Но бывает ведь "Кто если не я?" Нет, не бывает, но так может казаться. Если ты очень амбициозный первокурсник и хочешь избавить мир от голода, то это очень драматично, но абсолютно бесполезно. Ты лучше закрой сессию. Пусть мир от голода спасает тот человек, для которого это следующий разумный шаг. Если мы будем решать те проблемы, для которых именно мы наиболее эффективны, то принесем обществу гораздо больше пользы, и получим гораздо большую награду.
В-третьих, слишком многое не зависит от нас. Даже если ты вырос в семье великих ученых, у тебя высокий IQ, лучшие учителя и природная тяга к познанию, ты скорее всего не получишь Нобелевку. Вероятность равна P(ты сделаешь великое открытие) умножить на P(его заметят и оценят) умножить на P(Нобелевку ещё будут выдавать) умножить на P(ты проживешь достаточно долго), и так далее. Даже если ты сделаешь всё, что в твоих силах, вероятность будет около ноля. Сколько было ученых, которые могли получить Нобелевку, но не получили? Придется смириться: не всё в наших силах. Планровать достижения это как планировать выпадения чисел в рулетке. Придется признать: Ты никогда не получишь Нобелевку. Думая так ты никогда не будешь разочарован, а если получишь, то будет приятный сюрприз.
Как же быть? Если цель кажется далекой и великой, то пока что она не для тебя. Это может быть мечтой, но не целью. Подожди, пока она станет просто одним из вариантов следующего шага. В своём планировании нужно учитывать короткие сроки и достижимые варианты: поступление в университет, смену работы, публикацию статьи. Следующий разумный шаг. В действиях нужно вообще опираться на сиюминутные проблемы: пойти сегодня в спортзал, написать пост в телеграм канал, сделать задачу по работе.
👍6👏1
Вообще про достижения выгодно думать в терминах power law распределения. По оси X у нас крутость достижений, по оси Y люди. У большинства людей достижений практически нет, а у небольшой группки людей достижения невероятные, и практически ничего нет посередине. Шанс оказаться справа снизу в этой кривой просто смешной и едва ли зависит от нас. Я думаю это связано с тем, что достижения по своей сути конкурентная штука. Получить образование когда-то было достижением считанных единиц, а теперь в этом уже ничего особенного.
Я устал это терпеть и написал бота для конвертации из markdown в телеграм: @MakeMarkdownBot
Кидаете ему на вход markdown, получаете на выход отформатированные посты. Поддерживается только часть маркдауна, в которую умеет телеграм. Всё остальное остается как можно ближе к исходному тексту. Текстиспорченный отформатированный вашим телеграм клиентом остается отформатированным. Как бонус получилось, что бот форматирует и HTML тоже.
Кидаете ему на вход markdown, получаете на выход отформатированные посты. Поддерживается только часть маркдауна, в которую умеет телеграм. Всё остальное остается как можно ближе к исходному тексту. Текст
Telegram
MarkdownBot
Send me markdown or html, I will render it as nice telegram posts.
Author: @boris_again
Author: @boris_again
Тихо ору: стоило лишь мне запостить пост, как всё упало из-за Heroku. Немного терпения (мне).
Оказалось, что сделать бота проще простого, на код ушло около часа. Код здесь.
Меня почти порадовал бесплатный деплой с помощью Heroku. Сделал
Пишите, если (когда) будут баги.
Наконец-то у меня будет приятный процесс написания постов:
- Пишу пост с маркдауном в hackmd.io
- Кидаю боту
- Копирую в канал.
Меня почти порадовал бесплатный деплой с помощью Heroku. Сделал
git push heroku и всё работает. Однако потом выяснилось, что Heroku запускает web приложения на случайном порту, а webhook API телеграм запускается только на определенных портах. И подружить их нельзя. И вот тут я потратил непозволительно много нервов. Пока что пусть поработает без webhook, на голом longpoll, а потом я арендую сервер и сделаю нормально.Пишите, если (когда) будут баги.
Наконец-то у меня будет приятный процесс написания постов:
- Пишу пост с маркдауном в hackmd.io
- Кидаю боту
- Копирую в канал.
GitHub
GitHub - btseytlin/telegram_markdown_bot
Contribute to btseytlin/telegram_markdown_bot development by creating an account on GitHub.
Борис опять pinned «# Великие цели не для нас Недавно меня посетила мысль: "Если идти в науку, то надо стремиться к Turning Award (высшая награда в Computer Science), а иначе и смысла нет". Буду стремиться к высокой планке и по пути точно чего-нибудь добьюсь. Звучит складно…»
4 года назад парень с депрессией написал пост о помощи в r/slatestarcodex, а теперь вернулся к нему и сделал ретроспективу.
Глубокий и трогательный анализ того, как это работает: депрессия использует всё что ты знаешь и помнишь против тебя. Например, у тебя возникает бытовая проблема: пора сходить к зубному. Есть два выбора: можно избегать проблему, можно её решить. Если ты избегаешь проблему, то получешь немного стресса сейчас и очень много стресса берешь в долг. Если ты решаешь проблему, то получаешь много стресса сейчас, но зато долги не накапливаются. Лучший вариант это конечно разобраться с проблемой. Но если ты в депрессии, то у тебя просто нет энергии, чтобы с ней разобраться. Остается один вариант - избегать. Ты избегаешь проблему и сразу оказываешься в долговой яме стресса: если ты не мог справиться с изначальной проблемой, то с её запущенной версией тем более не выйдет. И в довершение ты ещё чувствуешь себя ужасно: "Вот если бы я не избегал проблем, то всё было бы хорошо!" Тебе кажется, что с тобой что-то не так, а депрессия мешает тебе увидеть как работает весь процесс. Стресс отнимает энергию, приходится избегать ещё больше проблем, ещё больше проблем накапливается, ещё больше чувства вины... и так далее по нисходящей.
https://www.reddit.com/r/slatestarcodex/comments/ma6b96/four_years_ago_i_posted_a_cry_for_help_here_a_lot/
Глубокий и трогательный анализ того, как это работает: депрессия использует всё что ты знаешь и помнишь против тебя. Например, у тебя возникает бытовая проблема: пора сходить к зубному. Есть два выбора: можно избегать проблему, можно её решить. Если ты избегаешь проблему, то получешь немного стресса сейчас и очень много стресса берешь в долг. Если ты решаешь проблему, то получаешь много стресса сейчас, но зато долги не накапливаются. Лучший вариант это конечно разобраться с проблемой. Но если ты в депрессии, то у тебя просто нет энергии, чтобы с ней разобраться. Остается один вариант - избегать. Ты избегаешь проблему и сразу оказываешься в долговой яме стресса: если ты не мог справиться с изначальной проблемой, то с её запущенной версией тем более не выйдет. И в довершение ты ещё чувствуешь себя ужасно: "Вот если бы я не избегал проблем, то всё было бы хорошо!" Тебе кажется, что с тобой что-то не так, а депрессия мешает тебе увидеть как работает весь процесс. Стресс отнимает энергию, приходится избегать ещё больше проблем, ещё больше проблем накапливается, ещё больше чувства вины... и так далее по нисходящей.
https://www.reddit.com/r/slatestarcodex/comments/ma6b96/four_years_ago_i_posted_a_cry_for_help_here_a_lot/
Reddit
r/slatestarcodex - Four years ago, I posted a cry for help here. A lot of people said they related. Four years later, what did…
313 votes and 41 comments so far on Reddit