Борис опять
15.9K subscribers
1.46K photos
72 videos
35 files
1.51K links
life = curiosity + irreducible noise

Whois: https://t.me/boris_again/3400

Лс: @btseytlin
Download Telegram
По итогам замеров оказалось, что я раз в четыре дня думаю про суицид. Не планировал конечно, но думал об этом в контексте облегчения: "Всё так заебало, сдохнуть хочется". Причем думать так в моей ситуации было максимально нелепо. Типа как думать о суициде потому что кофе сделали не на миндальном молоке, а на гречневом. Стало очевидно: такой диссонанс между реальностью и восприятием не может быть обычным. Я записался к психиатру в тот же день.
В итоге психиатр мне ничего не выписал, зато выписал невролог. Теперь посмотрим на ~аналитику~. Она говорит за себя сама
Даже в моем индексе счастья наблюдается дрифт к среднему. По скользящему среднему так вообще всегда всё нормально. Но можно сделать ещё более простую метрику. Если я хоть раз за день подумал про суицид, то это очень плохой день. Так что вот метрика для минимизации: как часто я об этом думаю?
И, знаете, целевая метрика стабильно идет на спад. Жизнь заебись. Вставать по утрам хочется. Снова работаю над тремя вещами в день и не устаю, хочется ещё. Видеоигры перестали казаться интереснее жизни.

Прошло не очень много времени. Возможно никакие лекарства не помогают, а всё это необычнайно долгий хороший период, и потом меня ждет новый спад. Даже если так, то теперь я смогу его заметить, и у нас будет следующий раунд. Рано или поздно проблема будет решена, потому что теперь я её вижу. А пока мне очень хорошо, жизнь прекрасна.
Forwarded from Just links
Solving Machine Learning Problems https://arxiv.org/abs/2107.01238

ML is better in ML than MIT students 🙃
Forwarded from Figure 1
Models pre-trained on ImageNet perform poorly when recognizing objects in unusual contexts. This issue goes away if we train large models on larger datasets, as authors of Big Transfer (BiT) paper demonstrate.

In general, BiT is about tricks to pre-train and fine-tune models to maximize performance on downstream tasks.
Key pre-training tricks:
* Use GroupNorm + WeightStandartization instead of BatchNorm
* Only simple augmentations: random resized crop, horizontal flip
* Use large datasets, models and batches

Finetuning tricks (you can use this in your kaggle contest!)
* No weight decay
* Only simple augmentations again
* Only search three hyperparameters: imaage resolution, lr schedule, usage of MixUp augmentation
* Larger test image resolution than train resolution

Authors demonstrate that this simple approach to pre-training/finetuning makes models adapt better to new tasks, including few-shot.

Big Transfer (BiT): General Visual Representation Learning, Kolesnikov et al., ECCV 2020
Forwarded from CGIT_Vines (CGIT_Vines)
Каждое заседание фламандского правительства в Бельгии транслируется в прямом эфире на канале YouTube . Когда начинается прямая трансляция, программа ищет телефоны и пытается идентифицировать отвлеченного политика. Делается это с помощью искусственного интеллекта и распознавания лиц.

Затем видео с отвлеченным политиком публикуется в Twitter и Instagram с пометкой политика.

Причем это не какая-то инициатива правительства, просто неравнодушный чувак написал на питоне тулзу. Люблю такое!

А вот и сам канал

https://driesdepoorter.be/theflemishscrollers/
👍2
Сработали ли локдауны? Отличный мастрид от Скотта.

Спойлер: как всегда в нашем стохастическом мире не будет ответов типа да/нет, но скорее да, чем нет.

https://astralcodexten.substack.com/p/lockdown-effectiveness-much-more
Давно было интересно, как правильно оценить зависимость между категориальной и численной переменной, а так же можно ли для этого использовать корреляцию. Нашел очень хороший ответ:
https://stats.stackexchange.com/a/124618
What machine?
🔥1
Это реально существует. Машина Цейтлина Цетлина

https://en.wikipedia.org/wiki/Tsetlin_machine
# Биохакинг: L-theanine

Расскажу про свой эксперимент с L-Theanine (обычно назвают просто Теанином). Его принимают для борьбы с тревожностью, улучшения сна и снятия негативных эффектов кофеина. Если вы хотите буст энергии, но без кофейной дерганности, то после кофе можно или упиться зеленым чаем, или принять одну капсулу теанина. Принимать теанин можно по-разному: утром сам по себе, после кофе, на ночь, ситуативно для снятия тревоги. Подробно о том, как это работает и какие есть доказательства эффективности, можно прочитать здесь.

Что меня подтолкнуло попробовать теанин:
- Никаких побочных эффектов. Вообще. Даже если будешь принимать в 10 раз больше нужной дозы. Цитируя статью выше: "This is probably about as safe a chemical as you are likely to find."
- Сильный эффект, подтвержденный исследованиями. Например, examine.com просто обожает теанин. Согласно этому опросу теанин оказался в топ-6 самых эффективных ноотропов по борьбе с тревожностью, и самым эффективным среди средств не вызывающих зависимость. Полноценные статьи тоже показывают наличие эффекта, ссылки есть в статье выше. Это не отменяет того, что для многих людей теанин ничего не делает. "Сильный эффект" в данном случае идет с пометкой: "для ноотропа". Это значит, что, кажется, оно правда что-то делает.
- Дешевый и доступный.
- Не имеет эффекта накопления: не принимаешь сегодня, нет эффекта сегодня. Это позволяет проверить действие экспериментом.

Я взял этот теанин с iherb за его нужную дозу и хорошие отзывы. Каждый четный день я не принимал ничего, каждый нечетный я принимал одну 200мг капсулу теанина утром. Иногда это было после кофе, иногда без кофе, без какой-либо системы. В конце дня я записывал принимал ли я теанин вместе со своей оценкой настроения и общего состояния.

Вчера я сравнил индекс настроения в дни, когда я принимал L-theanine, и в дни, когда не принимал. Применив t-test на разницу средних я не нашел никакой значимой разницы. Значит l-theanine никак заметно не влиял на моё настроение.
Никакой значимой разницы
Результаты теста согласуются с субъективным ощущением: действительно кажется, что почти всегда теанин никак не влиял на мой день. Однако было несколько случаев, когда я пил слишком много кофе или в целом был встревожен, принимал теанин, и очень быстро всё становилось хорошо.

Выводы:
1. Возможно дозировка слишком маленькая для меня и стоит попробовать 400мг.
2. Возможно теанин стоит принимать ситуативно для снятия тревожности. Я не представляю как это можно проверить экспериментом и убедиться, что это не плацебо.
3. Возможно стоит принимать его на ночь.
4. Или всё выше неверно и он просто не работает для меня.
Очень важная идея для всех кодеров! Целиком согласен с "словил баг - напиши тест". Несогласен, что когда всё быстро меняется тесты писать не нужно. Если меняется только интерфейс, то поправить его в тесте будет несложно (или ваши тесты написаны криво). Если меняется всё, то наверное вообще рано писать. В целом я считаю, что написание тестов отличают компетентных программистов от некомпетентных. Я сам пока не постиг дзен TDD, но я стремлюсь. Занятный факт в том, что каждый раз когда я что-то пишу, а потом пишу на это тест, я нахожу пару багов. Казалось бы с опытом багов должно стать меньше, но этого не происходит.
👍1
tldr: словил баг — напиши для него тест

Говорят настоящий дзен в разработке — это Test Driven Development: сначала пишем тесты на функционал, а затем уже его реализацию до тех пор пока тесты не заработают.

Я дзена ещё не постиг и слишком ленив чтобы так делать. Иногда интерфейс новой фичи меняется в процессе ее создания потомучто это может оказаться удобнее. В этом случае тесты переписывать не хочется.

Если какой-то баг получился, значит может вылезти снова. Чтобы убедиться что он исправлен, теперь обязательно пишу тест его воспроизводящий. Какие-то баги уже давно не совершаю — зачем на это тратить силы? Только чтобы от коллег защититься) чтобы не поломали. Имхо для такой защиты должно хватить прямого теста на самый частотный сценарий выполнения
Моя локальная теория: написание тестов это способность подвергать свои убеждения проверке.

Программист, который не тестирует код: уверен в том, что его код работает, всегда будет работать, и ничего никогда не изменится. Он просто не может ошибаться.

Программист, который тестирует код: больше четырех строчек? Пора писать тест. Не покрыто тестами? Вообще хрен знает, что оно делает, никаких гарантий. Работает сейчас? Завтра сломается. Я написал это? Тестируем вдвое больше.
Реплай Сереге (https://t.me/seryogaBombit/55).

Когда я пришел на свою текущую работу там не писали тесты. Когда я стал указывать на болото технического долга и чудесный эффект тестов, мне предъявили этот аргумент: "Это что, в два раза больше кода писать теперь? И еще поддерживать код тестов?" Это справедливое опасение, но на самом деле, парадоксально, тесты не добавляют времени работы. Возможно дело в том, что ловля багов в коде без тестов занимает примерно столько же, или в чем-то ещё. Просто я с тестами и я без тестов пишу код одинаково быстро. Дело в том, что написание тестов это не какая-то отдельная работа, а часть написания основного кода. Часто сижу такой: "Блин, че оно вообще должно делать?", начинаю писать тест и сразу понимаю, и заодно замечаю еще пару новых кейсов, которые надо покрыть. Потом дорабатываешь код, чтобы тест проходил, понимаешь что на еще один кейс теста не хватает, дорабатываешь тесты, и так далее. Медитативный циклический процесс
Forwarded from STACK MORE LAYERS (Alexander Mamaev)
🌤ODS Summer of Code 🌞

Стартовала летняя школа проектов в сфере DL от ODS. Суть примерно та же, как и в Google Summer of Code. Записываетесь на проект, пилите в рамках него крутые и полезные задачки, а в конце получаете всякие ништяки и гору опыта.

Среди проектов есть и мой 🌚, пусть пока и не очень развитый, но есть шанс это исправить!

https://ods.ai/tracks/summer-of-code-2021