мамкин Data Scientist
4.78K members
66 links
тернистый путь в data science, личный экспирианс

Ваш мамкин дата сайнтист @BoykoAA
Download Telegram
to view and join the conversation
​​Здорова, бандиты

Помните разговор о дерьмовых курсах, один из них я уже облил грязью и вы с радостью поддержали инициативу блеклиста подобного мусора. Об этом речь и пойдет. Сегодня очередная порция говна на лопате, которое не стоит времени и денег. Только теперь, благодарите не меня, а друг друга, потому что именно вы составили рейтинг самых опущенных курсов по Data Science в рунете, по мнению авторитетной и уважаемой аудитории, подписчиков Мамкиного Data Scientist-а. Ваши ответы в форме я подсчитал и визуализировал в виде диаграммы, так что наслаждайтесь

Если еще не указал дерьмовый курс, вот форма → https://goo-gl.ru/5dMc

Аттракцион невиданной щедрости «Титаник» закончился. Но если сильно попросите, то напишу свой кернл и разбор этого соревнования. Так сказать, Титаник без цензуры

Джаст ду ит, братва
​​Эйоу, бродяги

Уже сто раз поднималась тема соревнований по машинному обучению, я всегда агитирую участвовать, особенно новичков. Уже были и рекомендации для старта, и разборы некоторых соревнований, и топовые решения больших дядек. Но сегодня, произошло что-то особенное и уникальное

Медленно, но уверенно подплывает Титаник без цензуры. Да, я таки написал кернл для соревнования Титаник. Получилось вроде ничего, мне даже позвонили из РПЦ, говорят: «Саня, пиздец, причисляем тебя к лику святых за эту темку». Ну я вроде, как и не против. Сделано это в первую очередь для тех, кто думает, что начать участвовать в соревнованиях это сложно или «ну начну, когда изучу %хуйнянейм%», в топку. Начинаем сегодня, открываем этот ноутбук, изучаем и делаем свой первый сабмит

Титаник без цензуры → http://mommy-scientist.ru/Titanic_MDS.html

Работаем, братва
​​Вечер в хату, ресечеры

Завтра 20 июля, что это значит? Правильно, у канала Мамкин Data Scientist днюха, еее рок! Уже год продолжается эта вакханалия, и, скажу сразу, еще есть в обойме пиздатые истории и хорошие материалы, так что работаем, братва.
В честь этого, разрешите вас заебать, будем выбирать королеву красоты канала MDS. Красота нас интересует, конечно же, интеллектуальная, а то, что у тебя сиськи больше чем у телки, это еще ни о чем не говорит.

Объявляется конкурс. В этот раз будем классифицировать грибы на ядовитые и съедобные, ниже будет датасет. Не будем гнаться за скором и бледнить 100 моделей. Это в первую очередь образовательный конкурс, поэтому подарки будут в нескольких номинациях.

- Лучшее EDA (Книга С. Николенко «Глубокое обучение. Погружение в мир нейронных сетей»)

- Самое разжёванное решение (Книга «Голая статистика. Самая интересная книга о самой скучной науке»)

- Решение «чисто поржать» (Книга «Статистика и котики»)
(Подарки можно заменить)

Датасет → https://www.kaggle.com/uciml/mushroom-classification

Срок выполнения 2 недели.

Ну и поздравьте меня что ли, битчес
​​Здорова, бандиты

А вот и итоги конкурса HB MDS. Но перед тем, как объявить победителей и показать их решения, давайте кое-что проясним. Зачем вообще смотреть и разбирать решения, которые публикуются на этом канале? Все дело в том, что годных кернелов на русском языке в интернетах с гулькин huy, а написанных понятным языком и с юмором вообще стремится к нулю. Поэтому решения победителей подобных конкурсов просто мастхев для тех, кто вкатывается в МЛ. Но самый профитный метод - это участвовать в наших оргиях. Больно не будет

Итак, королевой красоты канала Мамкин DS становится @thurs88. Поздравляю Никиту и представляю просто бомбический кернел, который должен посмотреть каждый. В качестве подарка Никита выбрал финансовую помощь, чтоб слетать в Амстердам и лично проверить все грибы своим классификатором. Кстати, @thurs88 сейчас на школе биоинформатики, которую я рекомендовал к посещению

Решение → http://mommy-scientist.ru/mushrooms_EDA_Baranov.html

Далее, @ifelif разжевал все как маленьким детям, тем более он совсем недавно вкатился в МЛ, заслуживает уважения. В подарок получает кингу С. Николенко «Глубокое обучение. Погружение в мир нейронных сетей», поздравляем

Решение → http://mommy-scientist.ru/mushrooms_d_sky.html

И наконец номинацию «чисто поржать», берет студент образовательного проекта Booster @chekrizh, кстати, ребята сейчас страдают над обучением с учителем, а через 2 недели у них курсовой проект. Влад получает кингу «Практическая статистика для специалистов Data Science», поздравляем

Решение → http://mommy-scientist.ru/mushrooms_vlad_chek.html

Руки в ноги и бегом разбирать решения трех всадников апокалипсиса

Работаем, братва
​​Че как, бродяги

Пора пополнить джентльменский набор мамкиного ДС, если пропустил первую или вторую часть — бан. Так что бегом ознакамливаться.

1. Частенько, обработка пидрильских категориальных признаков в задаче машинного обучения, становится камнем преткновения, если не знать как правильно это делать. Правильная обработка может спасти твою jopu от гнева тимлида или докинуть скора на каггле. В статье собраны основные современные подходы к этому вопросу и наглядно показано, как они работают. Однозначно держим под рукой

Статья → https://towardsdatascience.com/benchmarking-categorical-encoders-9c322bd77ee8

Также, мой юный падаван, не забывай, что современные бустинги типа catboost имеют встроенный функционал обработки категориальных признаков. Достаточно часто, работающий лучше, чем твоя обработка кривыми руками, имей ввиду.

2. Аугментации в задачах с картинками играют важную роль, они помогают модели увидеть больше картинок, не оверфититься и тд. Тут могу порекомендовать либу от отечественного производителя albumentations. С ее помощью будешь манипулировать картинками, так же как твоя бывшая манипулировала тобой, может даже круче. Библиотеку уже давно признало мировое комьюнити, так шо смело юзаем, не стесняемся

Либа → https://github.com/albu/albumentations

Не останавливаемся, братва
​​Хеллоу епта

Собеседование. Че, уже обосрался от одного слова?

По данным Росстата каждый третий мамкин ДС испытывает чувство дискомфорта на интервью. Дело даже не в том, что ты tupoy, а в том, что не знаешь к чему готовиться, каких вопросов ждать.
Если это большая компания aka Яндекс, то тут все понятно Заходишь на литкод и ботаешь до полусмерти легкие и средние алгоритмы. Хардовые не трогай, они пригождаются на собеседованиях так же часто, как твой презерватив в рюкзак, который носишь уже 3 года.

Но что же делать с вопросами по МЛ? Давайте замутим следующую темку. Многие из вас уже были на собеседованиях и не раз, так давайте сделаем базу вопросов, где каждый сможет написать вопросы/задачки, которые ему попадались. Я все это обработаю, дополню, красиво оформлю и выложу. Так мы получим самую достоверную и актуальную базу вопросов к собеседованию. Некоторые можем разобрать прямо тут, по вашему желанию.

Ну что, братва, поможем друг другу?
Форма → https://forms.gle/JjoMG4T84uwhk7L99
​​Здорова, работяги

Разгребаю вопросы с интервью их реально много, и они настолько разные, что волосы встают дыбом.
Поэтому я решил запилить с ними кое-что особенное, придется немного подождать.

А пока ответь на вопрос, что в голове у интервьюера, который спрашивает стажера в чем отличие архитектуры Resnext101 от ResNet101 и какие фишки там добавили? Нахуя это знать человеку, который fit(), predict() освоил месяц назад, я не понимаю. Ну да ладно, зато, благодаря этой затее и каждому мамкиному Data Scientist-у, проходить собеседование станет гораздо проще

Но на собеседование надо еще попасть, а для этого нужно сделать нормальное резюме. В этом материале, собраны полезные советы по его составлению. А то, что ты присунул пьяной однокласснице на выпускном не совсем подходит под графу «достижения». Переделываем свое говнище.

Советы для резюме → https://is.gd/oZe7U4

На каггле урезали количество гпу, которые можно использовать для экспериментов с 4 до 1, сославшись на большой ажиотаж вокруг вычислительной мощности, и мол они не вывозят. Ну конечно блять, если запустить 10 соревнований с картинками одновременно будет большой ажиотаж. Но это уже произошло и нужно выходить из ситуации, придется воровать деньги и учить модели в облаках. Гуглы и Амазоны для богачей, пацаны со двора юзают vast.ai. Дешево и сердито

Видюшки → https://vast.ai/console/create/

Работаем, братва
​​Че как, симпатяги

Началась прекрасная пора учебы, и тут у тебя опять же два варианта. Либо гнить на парах/работе, просто плывя по течению, либо же, взять все в свои руки и разъебать эту индустрию по полной программе. Кому подходит первый вариант — сразу БАН.

А те, кто выбрал второй вариант, пересматриваем закреп, выстраиваем стратегию обучения под себя и начинаем работать. Хорошо, что там накопилось много всего интересного и есть вариативность, можно выбрать программу исходя из своего текущего уровня. Ну а если ты совсем tupoy, то пиши @BoykoAA, будем придумывать вместе

На мой взгляд тру вэй:
ПитонМатематикаКлассик МЛ

Продолжаем, проблема облачных вычислений стала острой, после того, как каггл понерфил видюхи и я рекомендовал переходить на vast.ai, но как всегда не обошлось без проблем, появились трудности с использованием этого сервиса для Kaggle. Это вынудило меня написать гайд ОТ и ДО. Поэтому читаем, разбираемся и больше не тупим

Гайд → http://mommy-scientist.ru/Guide_vastai_for_kaggle.html

Качаем тему собеседований дальше, скоро у нас будет свой сервис с блек-джеком и шлюхами, подробности пока рассказывать не буду, просто ждите и заполняйте форму. А пока что вот, нашел еще 30 с чем-то самых популярных вопросов на собесах уже с ответами. Залетаем и снюхиваем там все за раз через трубочку, как ты умеешь

Вопросы → https://is.gd/A60C6T

Работаем, братва
​​Йоу, гангстеры

Помните обещал сделать что-то интересное с вопросами собеседований, которые вы накидали в форму. Ну не наебал, сделал.

Представляю вашему вниманию новый сервис Мамкиного Data Scientist-а — MDS Interview. Тут собрана часть вопросов, которые будут постепенно пополняться.

Наша задача — сделать интервью комфортным и предсказуемым процессом, к которому можно подготовиться. Поэтому у нас есть долг перед сообществом, делиться всеми вопросами, которые когда-либо звучали на собеседованиях. На сервисе можно комментировать и отвечать на любой вопрос, ставить лукасы и конечно же предлагать свои вопросы. Надеюсь, это поможет кому-то попасть на галеру и грести там до конца своих дней

interview-mds.ru

Не благодари, брат, лучше покажи это кентам и закинь пару вопросов
​​Здорова, бандиты

Заметил, что много мамкиных ДСов нырнули с головой во временные ряды и сели на бутылку, предсказуемо. Действительно появляется немало вакансий, стажировок и тд по Time Series, а мы до сих пор не выстроили план обучения в этом направлении, huevo, давайте исправлять.

Итак, на повестке дня два бесплатных курса.

1. Для ознакомления проходим 7-дневный мини-курс от нашего кента Jason-а.
Быстрые домашки и самые основные моменты. Это для нубов, тех кто только знакомится с временными рядами.

Курс → https://machinelearningmastery.com/time-series-forecasting-python-mini-course/

2. А вот что реально заебись, так это его второй курс по применению главного короля хайпа (Deep Learning-а) для прогнозирования временных рядов. Этот курс тоже мини (в точности как твой Python), длительностью до 7 дней. Тут уже поинтересней, в программе и LSTM, и MLP, и энкодер-декодер, короче скучно не будет. Это смотрим после того, как получим представление о Deep Learning.

Курс → https://machinelearningmastery.com/how-to-get-started-with-deep-learning-for-time-series-forecasting-7-day-mini-course/

На первое время хватит, работаем, братва
​​Конишуа, коноха

Сегодня речь пойдет о том, как за ноль рублей, ноль копеек собрать гремучую смесь из курсов и получить годную программу для самых сука тупорылых. А так же поговорим о курсе института биоинформатики «введение в машинное обучение» с Анатолием Карповым. С него и начнем, погнали

Сразу отмечу, что институт биоинформатики проделал нихуйственную работу и на фоне, уже существующих, миллионов курсов по МЛ, показали реально годный и выделяющийся продукт.
Давай пробежимся по содержанию, а потом уже к плюсам и минусам. Тут у нас: пандас, визуализация и деревья. Не густо скажешь ты, но на то это и введение, а не специализация. Зато курс смотрится быстро, легко и домашки залетают на одном дыхании.
Плюсы: отличный преподаватель, емкость материала, скорость прохождения, бесплатный.
Минусы: если рассматривать этот курс строго как введение в машинное обучение, то явных минусов не обнаружено.
Когда выходят такие бесплатные курсы в мире плачет один маленький, но ебать какой дорогой курс от университета искусственного интеллекта, господи прости.

Курс → https://stepik.org/course/4852

Но нас интересует не введение в машинное обучение, а полноценный курс, после которого бы бабы давали, да пацаны уважали. Давайте копнем чуть глубже, я составил полноценный путь ниндзя, который позволит тебе стать хокаге. Для этого будем миксовать цикл статей ODS с курсом. Таким образом, расширим теорию и увеличим количество практики более чем в 2 раза. Тогда план обучения будет выглядеть так:

Степ 1.1 - 1.6 → Статья №1 + домашка → Степ 1.7 → Статья №2 + домашка → Заканчиваем степ 1 → Статья №3 + домашка → Степ 2 → Степ 3.1 - 3.3 → Статья №5 + домашка → Степ 3-4 → Статья № 4, 6, 7, 8, 9, 10 + домашки

Так ты сформируешь хорошую базу и некоторое представление о машинном обучении. Сможешь смело залететь на Kaggle и в конце концов станешь хокаге.

Статьи ODS → https://habr.com/ru/company/ods/blog/322626/

Работаем, братва
​​Здорова, Перельманы

Хочу затронуть тему математики. Наверное самый наболевший вопрос у молодых и зеленых: «сколько мне страдать с этой королевой бала, чтоб хотя бы потрогать МЛ?»

Давайте начну с самого начала. До того, как начал ввести этот ебунячий канал, я размышлял консервативно. Говорил, что сначала нужно пройти 1, 2 курс хорошего технического вуза мат. анализа/теор. вера/статистики/линала и только потом вкатываться в МЛ. Ну мол я страдал, и ты пострадаешь. Это была ошибка.
Такой путь выдержит один человек из ста, и тому есть причина. Как можно более года делать что-то не понимая даже ради чего? С появлением канала, я радикально пересмотрел взгляды на изучение МЛ. Просто увидел ребят, которые бросали в первый месяц и больше не возвращались.

Самый большой класс ограничивающих убеждений - это вера в то, что вы не можете начать, пока у вас нет определенных знаний.
На самом деле настоящее машинное обучение требует таких знаний математики, что даже ресечеры гугла не знают всего этого. Да, чтобы освоить МЛ требуется много времени, знаний математики и многого другого, но не все сразу и не все в самом начале. Ты можешь начать прямо сегодня, прямо сейчас.

Теперь я считаю, что для старта нужно просто уметь ориентироваться и иметь понимание математических объектов. Скажем просто понимать, что такое производная или градиент, но при этом можно даже не уметь брать производную сложной функции, для старта этого будет достаточно. Тем более, ресурсы по математики мы уже собрали. Когда будет понимание, можно приступать к машинному обучению. И по ходу наверстывать математику, разбираться более детально.

Ты можешь запустить свой первый алгоритм уже сегодня, какого хера ты просто сидишь?

Кстати, у меня есть шпора по математике, которая используется в МЛ. Только не надо блять пытаться по ней ботать, подобные шпаргалки просто служат для того, чтоб освежить в памяти забытое.

Шпаргалка → https://goo-gl.su/kgkI

Не останавливаемся на достигнутом, братва
​​Здорова, бандиты

Я тут недавно спизданул, что важно иметь понимание математических объектов, а не умение решать сложные примеры, для того чтоб вкатиться в МЛ. Ну и сразу посыпались вопросы: мол чем это отличается? а че решать примеры не надо? Ну вы поняли. Конечно, за такие вопросы надо въебать первоклассно, но воспользуемся другим подходом, рассмотрим курс по лин. алгебре от MIT, который ставит мозги на нужное место.

Курс называется «Matrix Methods in Data Analysis, Signal Processing, and Machine Learning», сразу с прицелом на МЛ, то что надо. Внутри курса 36 лекций, которые сформируют хорошее представление о Лин.Алгебре и не только, там и про SVD расскажут, и про градиентный спуск.
Отличительной чертой курса является то, что он подойдет как и нубам на старте, так и бывалым волчарам.
Лектором выступает 84 летний Gilbert Strang, который легко даст просраться современным преподам, пусть вас это не смущает.
Уже слышу вой по поводу домашек. Не надо переживать, я их нашел.
Домашки что надо, они именно на понимание материала, а не «нарисуй-ка сука 2 треугольника сверху на матрице, поздравляем это определитель», тут такого нет, все красиво.

Курс → https://www.youtube.com/playlist?list=PLUl4u3cNGP63oMNUHXqIUcrkS2PivhN3k
Домашки → https://u.to/luaiFg

Кстати, любой курс по Лин. Алгебре и все что с ней связано можно дополнять бомбическими визуализациями, и немного иным способом преподнесения информации от 3Blue1Brow

Визуализации + объяснения → https://t.me/mommyscience/11

Именно такого понимания хочет от вас машинное обучение.

Работаем, братва
​​Йоу, бестфитинги

В конце будет крутая штука, пригодится как нубам, так и матёрым волчарам, читаем до конца.

Попросили меня тут прокомментировать курс по features engineering на каггле. Для тех кто не в курсе, там про то, как обрабатывать категориальные переменные, генерить новые фичи и отбирать имеющиеся. Звучит пиздато, да, но курс прежде всего рассчитан на людей, которые совсем незнакомы с features engineering. Именно поэтому подходы, которые там рассматриваются сильно тривиальные и практически любой уважающий себя паблик кернел табличного соревнования уже содержит все эти трюки. Так что, если ты совсем не знаком с FE изучить конечно можно, но такой же результат будет, если сразу сядешь на бутылку и просто начнешь свой путь с публичного кернела. К курсу претензий нет, наоборот, спасибо авторам, что посвящают зеленых в такую тему и делают это так мягко.

Курс → https://www.kaggle.com/learn/feature-engineering

Но нас интересует немного другое, даже самый tupoy уже понял, что features engineering зачастую становится ключом к хорошим результатам соревнований и просто задач классического МЛ. Так какой features engineering, способен реально давать преимущества в соревнованиях? Начнем с того, что мы уже рассматривали несколько подходов, которые работают и проверены временем, их можно найти в закрепе.
А сегодня в программе библиотека, служащая для автоматической генерации фичей. Featuretools — генерация фичей для самых сука ленивых жоп, ну проще уже некуда. Функционал широкий, но разобраться совсем изи, поэтому читаем документацию и используем на здоровье

Либа → https://docs.featuretools.com/en/stable/

Работаем, братва
​​Здорова, банда

Мы с вами уже год состоим в серьёзных отношениях, а у нас до сих пор не было sexa (Воронцова). Потому что рекомендовать Воронцова до свадьбы было бы подло с моей стороны, но сейчас вы стали совсем взрослыми и разумными мамкиными DSами и не будете сувать свой python в каждую дырку.

Лекции Воронцова по классик МЛ являются однозначно самыми полными и глубокими в русскоязычном сегменте, одновременно с тем становятся причиной суицида новичков, которые решили начать свой путь с них. Я, однозначно, не рекомендую начинать с Воронцова, только если вы не закончили мехмат или что-то подобное. Лекции ориентированы на ШАД, а там с мат подготовкой все хорошо, в отличии от тебя.

Их ценность в другом. Предположим, ты прошел или начал проходить какие-то курсы про МЛ и уже немного шаришь: знаешь как называются алгоритмы, умеешь запускать их из коробки, знаешь чем они отличаются, ну короче гений уже пиздец. Теперь пора узнать как же все это работает под капотом. Причины интересоваться этим совсем уж очевидны. Первая — тебя точно спросят это на собесе, без глубоких знаний, можешь рассчитывать только на работу за еду. Вторая — дальше без этого никак, чтобы стать полноценным специалистом, надо понимать как все работает, поверь мне. Третья — любая самка будет твоя, если бухой в баре расскажешь ей про принцип работы градиентного бустинга (нет). Поэтому, после получения базы, смотреть Воронцова практически мастхев, от этого никуда не деться.

Лекции → https://cutt.ly/qe18LtT

Работаем, ресечеры
​​Салют, сучата

Один крутой чувак сказал: «Книга не сделает из человека умного и не добавит скила, если ничего не делать руками», и он чертовски прав.

Курсы/книги — это конечно хорошо, но если думаешь, что МЛ можно познать через теорию, то ты ошибаешься, дружок-пирожок. Я постоянно призываю участвовать в соревнованиях, залетать в open source проекты и тому подобное, причем чем быстрее это осознаешь, тем быстрее получишь эффект. Сам удивишься, насколько быстрее буст даже от первого соревнования, относительно домашних заданий любого курса. И не пизди, что ждешь особенного момента, типа сначала изучу пятое, десятое, а потом буду участвовать. Это так не работает. Соревнования/проекты есть на любой уровень.
Совсем еще зеленый? Залетай на Титаник.
Уже что-то умеешь? Попробуй в House Prices или в NFL уже со взрослыми дядями.
Хочешь попробовать в DL? Врывайся в MNIST.
Все в твоих руках, начни прямо сейчас. Просто открой соревнование и посмотри, что от тебя хотят. Не надо ныть, надо просто ебашить. Да и на собеседовании куда приятней обсуждать успехи в соревнованиях, чем зубодробительную теорию, забытую сто лет назад. Ну а если ты уж совсем запутался на своем пути, пиши @BoykoAA, будем разбираться вместе.

Кстати, хочу устроить новогоднюю викторину с блэкджеком, подарками и шлюхами. Скоро будут подробности.

Остаемся на связя, братва
​​Здорова, аутлаеры

Внизу будут подробности про новогодний конкурс для умных, кто не участвует — БАН.

А сейчас пополнение джентльменского набора. Сколько уже времени призываю сделать питоновский файлик со своими личными функциями для ускорения разработки? А? Но нет, ты до сих пор пинаешь болт.
Короче, нашел либу, в которой реализованы некоторые типичные функции, позвольте представить Feature-engine. Из приятного, библиотека позволяет заполнять пропуски, например, значениями из хвостов распределения или группировать редкие категориальные признаки в одну группу, или выполнять логарифмические трансформации над числовыми фичами и многое другое в таком стиле. Все-то, что у тебя давным-давно должно было быть. Кстати, исходный код открыт, так что можешь скрысить куски кода себе. Штука хорошая, изучаем

Либа → https://feature-engine.readthedocs.io/en/latest/index.html

Тем временем, 2020 подбирается все ближе и ближе, а с момента, когда ты выигрывал фишки у одноклассников, прошло 20 лет (олды здесь?). Теперь будем играть в игры для взрослых, если вы понимаете о чем я, а именно — интеллектуальная новогодняя викторина.
Через 5 дней, 25 декабря в 18 часов вечера выложу задания, и мамкины ДСы будут мериться pythhon-ами с пацанами в бане.
Викторина будет выглядеть следующим образом. Перечень из 5-7 вопросов взятых с ебучайшего сервиса interview-mds.ru и одна задачка на теор. вер. Первые 3 всадника апокалипсиса, кто решит все верно, получат призы.

3 место. Книга Николенко «Глубокое обучение»
2 место. Книга Николенко «Глубокое обучение»
1 место (Он и так сука умный, ему книга не нужна). 1500 на карту с барского плеча
(Книгу можно поменять на другую)

Какую задачку хотите на теор. вер.? Про мат. ожидание или на теорему Байеса?

Голосуем, братва
​​Хо хо хо, работяги

Не будем терять времени, а перейдем сразу к делу. Новогодняя викторина.
Ссылка будет доступна до 18 часов вечера, после чего будут выбраны первые 3 человека, кто решит 4 из 4. Если таких не будет, то выберу первых 3х, кто решит 3 из 4, ну и так далее. Не медлите.
Победители будут объявлены сегодня после 18 часов, а также прикреплю файл с решением, я его уже затехал епт.

Викторина → https://docs.google.com/forms/d/e/1FAIpQLScVx5ygLeEUP8DP56tL2uqU9sfkKx0_DZf117uVPSsHe6B6cA/viewform

Дублирую список призов:
3 место. Книга Николенко «Глубокое обучение»
2 место. Книга Николенко «Глубокое обучение»
1 место. 1500 на карту
(Книгу можно поменять на другую)

Работаем, братва
​​Йоу, банда

Спасибо всем, кто поучаствовал, вы реально крутые перцы. Снизу будут ответы на задачки с небольшим подъебом, так что не скипай пост.

Пора огласить 3х всадников апокалипсиса. Первое место. Самой быстрой рукой на диком западе оказался @DmitryEgorovGeol, даже не знаю, где он ее так натренировал. Второе место @yanezh96, третье место @dkovalen. Молодцы парни, поздравляю!
Хочется поблагодарить каждого Мамкиного ДСа, потому что этот конкурс состоялся не без вашей помощи, ведь это именно вы собираете самую большую базу вопросов с собеседований на interview-mds.ru, а если ты еще не поделился вопросами, то вперёд и велком в ряды людей с положительной кармой.

А вот и решение викторины, если нравится такой формат разбора задачек на теор.вер, жми пивас, будем практиковать. На собесах любят спросить хуйню про монетку.

Решение → https://yadi.sk/i/K2ZclkLdv4cfZw

С наступащим, братва, люблю вас
​​Здорова, бандиты

Смотрю от теор. вера у тебя не слабо подгорает. Окей, давай капнем эту тему по-нормальному, потому что я чекнул один из первых постов про это, тема сисек до конца не раскрыта, согласен.

Сначала будет план для нубов, потом для перельманов.

Первым делом закономерный вопрос. Нужен ли теор.вер для МЛ? Конечно блять, за такие вопросы можно вообще в бан улететь, чтоб больше такое не спрашивал. Машинное обучение — это и есть теория вероятностей, только в модной обертке. Если челик добрался до фит/предикт без понимания этого, то это уже мировой рекорд, но дальше никак, так что ботай.

Начать постижение этой науки можно с прекрасного курса от физтеха «Основы теории вероятностей». В главной роли Райгор (самый лучший лектор ever).
Плюсы: просто, очень доходчиво, смотрится на одном дыхании.
Минусы: к курсу вопросов нет, но нам понадобятся знания глубже, чем основы

Лекции можно посмотреть бесплатно в лекториуме.
Лекции → https://lectoriy.mipt.ru/course/Maths-ProbabilityTheoryBasics-L15

А вот полноценный курс находится на курсере, но стоит копейки.
Курс → https://www.coursera.org/learn/probability-theory-basics

Только давайте не забывать, ручной труд сделал из обезьяны человека, это не значит, что надо запираться в туалете и усердно учить python. Это значит, что лекций и задачек в курсе недостаточно, надо довести все типичные моменты до автоматизма. Берем нормальный задачник и решаем все подряд. Могу посоветовать тут два варианта.

Либо методичка с мат. профи, где разобраны все типичные задачи, и автор нацелен просто надрочить вас до полусмерти, стоит в районе 1-2 кофе.
Методичка → http://mathprofi.com/knigi_i_kursy/

Либо другой сборник задач по теор. веру, который рекомендовал тот же Райгор, в своей книжке по теории случайных графов.
Сборник задач → Зубков А.М. «Сборник задач по теории вероятностей» https://yadi.sk/i/XztolEbvm25fOQ

Вот и добрались до умных, что можно вам порекомендовать. Книги «Вероятность-1» и «Вероятность-2», автор: Ширяев.
Знаете, кто был у Ширяева в свое время научный руководитель? КОЛМОГОРОВ. Охуеть можно, это уже совсем другой уровень.
Ширяев пишет не для новичков, но очень хорошо и детально, каждую тему разбирает формально и по косточкам. К этим двум книгам докидываем его же задачник, который так и называется Ширяев «Задачи по теории вероятностей» и пытаемся не умереть.

Работаем, братва