Practical ML Digest
1️⃣
#MLПост #PMD
Начал расширять свой кругозор по МЛ в рабочих проектах. Поэтому решил некоторыми докладами делиться и с вами
Дисклеймер: не для всех докладов нужны жесткие знания в МЛ, поэтому если тема интересная, то смело читайте пост и смотрите доклад
💬 Делитесь в комментах интересными докладами, которые вы смотрели. А я начну здесь:
"Личный наставник в лице GPT"
Год: 2024
Спикер: Андрей Смирнов, ML Engineer, Яндекс Практикум
Посмотреть: Ютуб
Рассказал про то, в каких местах ГПТ может помочь как наставник, а в каких нет. Если кратко: репетиторов еще не заменят, поэтому записывайтесь на занятия)
Показал кратко архитектурно как идет ответ на вопрос ученика в чате Практикума. А именно, что на вход ГПТшке идет вопрос ученика + контекст задания и урока, в котором ученик
Также, упомянул дальнейшие улучшения такого чата:
* Выбор какой моделью генерить ответ. Если вопрос простой - легкая модель, сложный - тяжелая и т.п.
* Увеличение поля для retrieval - искать не только в текущем уроке, но и других, а может и других курсах
* Агенты. Для подсчета математических выражений, запуска кода и прочего
И бонусом докладчик поведал про основные типы дообучения модели:
* zero/one/few shot,
* PTune,
* Finetune
* Обучение с нуля
"Генеративные аугментации в задачах компьютерного зрения"
Год: 2024
Спикер: Андрей Филатов, Senior Data Scientists Sber AI
Посмотреть: Ютуб
Аугментации в CV по типу Crop, Rotation и прочие это, конечно, хорошо, но иногда хочется большего. Возникает идея: раз есть крутые модели, генерирующие картинки, то может их и заиспользовать для получения новых данных?
Докладчик рассказывает про несколько работ в этом направлении и в конце приводит свою идею, которую хочет добить до статьи. Опишу только 2 из них
FreeMask: Synthetic Images with Dense Annotations Make Stronger Segmentation Model
Получение новых данных для задачи сегментации. Из реальных данных берем семантическую маску и подаем на вход диффузионке как condition. В итоге для 1 примера из датасета получаем несколько похожих версий синтетических данных. Метрики для SOTA моделей такими данными на несколько процентов растут
Ресерч идея докладчика
Получение новых данных для задачи детекции. Идея простая - давайте некоторые объекты с фоток просто удалять. Как это делается: в датасете кроме bbox должна быть еще и маска объекта и тогда, подав на вход генеративке маску объекта + входное изображение, получим фотку без объекта. Конечно, еще выкидываем bbox этого объекта, так как на новой фотке его нет
Плюса в метрике mAP достичь смогли. Но большего плюса удалось достичь, когда сделали похожим образом замену объекта на фотке
"10 не ML лайфхаков для ML решений в проде"
Год: 2024
Спикер: Антон Воронов, Газпром ИД, Руководитель службы рекомендательных сервисов
Посмотреть: Ютуб
В общем и целом, докладчик немного приземляет и доказывает, что не нужно сразу сувать МЛ везде и всюду)
На конкретных примерах задач поиска и рекомендаций в Rutube показывается, как можно, особенно на старте, не упарываться в МЛ и при этом все равно получать профит в данных задачах за короткое время реализации
Основными инструментами, конечно, являются SQL-запросы по логам и регулярки) Но стоит глянуть, что именно ими они сделали
А еще, кто сможет найти в каком из кейсов были бандиты?)
Также, из прикольного приведен пример, как они обошли долгий релизный цикл кода: один раз написали инфру для обработки графа вычислений (из 1 стадии данные идут в другую, запускается такая-то модель и т.п.), сам граф брался из конфига, который можно было легко менять и быстро релизить
#MLПост #PMD
Начал расширять свой кругозор по МЛ в рабочих проектах. Поэтому решил некоторыми докладами делиться и с вами
Дисклеймер: не для всех докладов нужны жесткие знания в МЛ, поэтому если тема интересная, то смело читайте пост и смотрите доклад
"Личный наставник в лице GPT"
Год: 2024
Спикер: Андрей Смирнов, ML Engineer, Яндекс Практикум
Посмотреть: Ютуб
Рассказал про то, в каких местах ГПТ может помочь как наставник, а в каких нет. Если кратко: репетиторов еще не заменят, поэтому записывайтесь на занятия)
Показал кратко архитектурно как идет ответ на вопрос ученика в чате Практикума. А именно, что на вход ГПТшке идет вопрос ученика + контекст задания и урока, в котором ученик
Также, упомянул дальнейшие улучшения такого чата:
* Выбор какой моделью генерить ответ. Если вопрос простой - легкая модель, сложный - тяжелая и т.п.
* Увеличение поля для retrieval - искать не только в текущем уроке, но и других, а может и других курсах
* Агенты. Для подсчета математических выражений, запуска кода и прочего
И бонусом докладчик поведал про основные типы дообучения модели:
* zero/one/few shot,
* PTune,
* Finetune
* Обучение с нуля
"Генеративные аугментации в задачах компьютерного зрения"
Год: 2024
Спикер: Андрей Филатов, Senior Data Scientists Sber AI
Посмотреть: Ютуб
Аугментации в CV по типу Crop, Rotation и прочие это, конечно, хорошо, но иногда хочется большего. Возникает идея: раз есть крутые модели, генерирующие картинки, то может их и заиспользовать для получения новых данных?
Докладчик рассказывает про несколько работ в этом направлении и в конце приводит свою идею, которую хочет добить до статьи. Опишу только 2 из них
FreeMask: Synthetic Images with Dense Annotations Make Stronger Segmentation Model
Получение новых данных для задачи сегментации. Из реальных данных берем семантическую маску и подаем на вход диффузионке как condition. В итоге для 1 примера из датасета получаем несколько похожих версий синтетических данных. Метрики для SOTA моделей такими данными на несколько процентов растут
Ресерч идея докладчика
Получение новых данных для задачи детекции. Идея простая - давайте некоторые объекты с фоток просто удалять. Как это делается: в датасете кроме bbox должна быть еще и маска объекта и тогда, подав на вход генеративке маску объекта + входное изображение, получим фотку без объекта. Конечно, еще выкидываем bbox этого объекта, так как на новой фотке его нет
Плюса в метрике mAP достичь смогли. Но большего плюса удалось достичь, когда сделали похожим образом замену объекта на фотке
"10 не ML лайфхаков для ML решений в проде"
Год: 2024
Спикер: Антон Воронов, Газпром ИД, Руководитель службы рекомендательных сервисов
Посмотреть: Ютуб
В общем и целом, докладчик немного приземляет и доказывает, что не нужно сразу сувать МЛ везде и всюду)
На конкретных примерах задач поиска и рекомендаций в Rutube показывается, как можно, особенно на старте, не упарываться в МЛ и при этом все равно получать профит в данных задачах за короткое время реализации
Основными инструментами, конечно, являются SQL-запросы по логам и регулярки) Но стоит глянуть, что именно ими они сделали
А еще, кто сможет найти в каком из кейсов были бандиты?)
Также, из прикольного приведен пример, как они обошли долгий релизный цикл кода: один раз написали инфру для обработки графа вычислений (из 1 стадии данные идут в другую, запускается такая-то модель и т.п.), сам граф брался из конфига, который можно было легко менять и быстро релизить
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
С 1 сентября🍁
Впервые за 17 лет (11+4+2) нет ощущения «НУ ЩАС НАЧНЕТСЯ🔥 ». Хотя скоро ревью, поэтому чуть-чуть есть, но это не то
Понятно, что обучение никуда не делось, просто стало в чуть другой манере и для другого результата
Всем, кто сейчас учится (а таких здесь большинство), желаю выжать максимум для себя, так как сейчас самое оптимальное для этого время💪 . Гнаться не за оценками, а за знаниями и последующими с ними результатами
Впервые за 17 лет (11+4+2) нет ощущения «НУ ЩАС НАЧНЕТСЯ
Понятно, что обучение никуда не делось, просто стало в чуть другой манере и для другого результата
Всем, кто сейчас учится (а таких здесь большинство), желаю выжать максимум для себя, так как сейчас самое оптимальное для этого время
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Прощаемся с Notion правильно
В последний момент вспомнил, что надо сделать бэкап Notion...
И тут случайно наткнулся на китайский аналог - Buildin.Ai 🇨🇳
Самое прикольное - можно в пару кликов перевести страницы из Notion в Buildin.Ai - как это сделать 👍
И первым, что я перенес, были большие посты канала. Если еще не читали, то welcome - посты про алгосы, ML, мою учебу и не только
📕 Большие посты канала KIT 📕
Успевайте скопировать нужное, времени хоть и мало, но еще есть👨💻
В последний момент вспомнил, что надо сделать бэкап Notion...
И тут случайно наткнулся на китайский аналог - Buildin.Ai 🇨🇳
Самое прикольное - можно в пару кликов перевести страницы из Notion в Buildin.Ai - как это сделать 👍
И первым, что я перенес, были большие посты канала. Если еще не читали, то welcome - посты про алгосы, ML, мою учебу и не только
Успевайте скопировать нужное, времени хоть и мало, но еще есть
Please open Telegram to view this post
VIEW IN TELEGRAM
База СпортПрогера
#АлгоРесурсы #Event
Сегодня проходит Пикник-IT в ЕКБ, на котором мой коллега по курсу на ФИИТ УрФУ, Егор Храмов, рассказывал почему олимпиадами заниматься круто, как и с помощью чего развиваться в них
К сожалению, записи не будет( Но зато презентация с доклада есть в открытом доступе
📶 Презентация со всеми полезными ссылками 📶
Также, Егор в докладе упомянул полезные родительские чаты про олимпиады (ЕКБ и МСК). В них много честного фидбека про лагеря, кружки и полно полезных объявлений. Если вас там еще нет и вы хотите вступить в них, то напишите мне (@KogutIvan), я вас приглашу
#АлгоРесурсы #Event
Сегодня проходит Пикник-IT в ЕКБ, на котором мой коллега по курсу на ФИИТ УрФУ, Егор Храмов, рассказывал почему олимпиадами заниматься круто, как и с помощью чего развиваться в них
К сожалению, записи не будет( Но зато презентация с доклада есть в открытом доступе
Также, Егор в докладе упомянул полезные родительские чаты про олимпиады (ЕКБ и МСК). В них много честного фидбека про лагеря, кружки и полно полезных объявлений. Если вас там еще нет и вы хотите вступить в них, то напишите мне (@KogutIvan), я вас приглашу
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI и в спортпроге впереди?
#MLВброс #MLСтатья
В начале этого года рассказывал про то, как система от Google из их нескольких LLMок решает олимпиадные задачи по программированию. Пост можно прочитать здесь - тык. К тому времени это было лучшее решение
Но... OpenAI и тут решили показать, кто главный. Неделю назад они выпустили свою новую модель, в которой упор сделан на рассуждения и саморефлексию. Модели и раньше это делали, но тут авторы очень постарались, чтобы это приводило к правильному решению. И что же получилось в результате?
Модель OpenAI o1 на контестах Codeforces:
🔄 Лучше 89% людей и примерно 1673 рейтинг - без специального дообучения
🔄 Лучше 93% людей и примерно 1807 рейтинг - со специальным дообучением
Модель OpenAI o1 на IOI 2024:
🔄 213 баллов и лучше 49% людей - со специальным дообучением и 50 попытками на задачу
🔄 362,14 баллов и золотая медаль - со специальным дообучением и 10000 попытками на задачу
Просто🤯 🤯 🤯
Это с учетом того, что у Google была целая система из нескольких их моделей Gemini PRO, а здесь одна модель достигает такого качества
Еще интересного про модель:
⏳ Чем больше времени дать ей подумать (во время инференса уже), тем лучше она даст ответ. Все прям как у людей)
✍️ Свои рассуждения модель прописывает, но сейчас Open AI их скрывает и выдает лишь их суммаризацию. А теперь представьте, если вид ее рассуждений чуть улучшат и дадут в открытый доступ, то тогда и недалеко до замены репетиторов) Конечно, репетитор еще учитывает, что говорит ученик и в таком сетапе пока не понятно как модель себя поведет. Но хотя бы получать разбор задачи станет возможным
Более подробно про модель:
🔄 Блогпост от OpenAI
🔄 Подробный пост на русском - автор ведет ТГ канал Сиолошная
💬 Что думаете на этот счет - пишите в комментах, очень интересно пообсуждать
#MLВброс #MLСтатья
В начале этого года рассказывал про то, как система от Google из их нескольких LLMок решает олимпиадные задачи по программированию. Пост можно прочитать здесь - тык. К тому времени это было лучшее решение
Но... OpenAI и тут решили показать, кто главный. Неделю назад они выпустили свою новую модель, в которой упор сделан на рассуждения и саморефлексию. Модели и раньше это делали, но тут авторы очень постарались, чтобы это приводило к правильному решению. И что же получилось в результате?
Модель OpenAI o1 на контестах Codeforces:
Модель OpenAI o1 на IOI 2024:
Просто
Это с учетом того, что у Google была целая система из нескольких их моделей Gemini PRO, а здесь одна модель достигает такого качества
Еще интересного про модель:
Более подробно про модель:
Please open Telegram to view this post
VIEW IN TELEGRAM
Хоть уже 24, но понимаю, что еще много чего не знаю, не испытывал, не видел...
Зато чувствую, что именно сейчас то время, когда есть некая свобода и пора наращивать темп, пробовать и узнавать что-то новое
Спасибо, что со мной, ведь канал тоже порой мотивирует делать какие-то непривычные вещи
Please open Telegram to view this post
VIEW IN TELEGRAM
Рабочие будни. Парсинг товаров
#ЖизаПост
После вопроса на семинаре ШАДа о нашей команде в Яндексе я понял, что особо не рассказывал в канале, чем занимаюсь/занимался на работе😅
Пора это исправить! Дисклеймер: все-все-все рассказать не удастся - NDA, сами понимаете)
Напомню, что я работаю в команде Товарного Поиска (это не Маркет, а часть Поиска). Как и у любого поиска у нас есть база, а именно - база товаров. И в этом посте хочу рассказать кратко о процессе, который привносит больший вклад в базу. Речь пойдет о парсинге.
Представьте перед собой страницу с товаром какого-нибудь онлайн магазина. Из нее нужно достать такие важные поля как цена, название, картинка и так далее. Как это сделать (подумайте сами, а затем открывайте спойлер)❓
Сразу расскажу наше итоговое решение. HTML страницу можно представить как дерево, а нужная нам информация лежит в каких-то вершинах этого дерева. Давайте тогда классифицировать каждую вершину на то, содержит ли она нужные данные или нет. Придумаем кучу признаков для вершины: про ее положение в дереве, про информацию в соседних вершинах и про контент в самой вершине. Большинство факторов считаются алгоритмически, вот вам и ДП по дереву. Конечно, еще по тексту в вершине считается нейросеть, выход которой мы назвали текстовым признаком. В итоге на этом многообразии признаков учим Catboost и классификатор готов
Этот проект начался еще до моего попадания в штат и конкретно я парсил данные для fashion категорий и улучшал precision и recall для базовых полей. Удалось поделать следующее: создание толокерских заданий, обучение Catboost, обучение BERT и дистилляция в DSSM, запуск, оптимизация этого дела на C++ и придумывание с реализацией эвристик на дереве на тех же плюсах👨💻
Конечно, я не рассказал еще интересности этой задачи: более простые способы парсинга с их + и -, как обходить нужные страницы и так далее. Про это можно послушать в докладе одного из моих руклей на Highload 2022 (как давно это было) - ссылка▶️
#ЖизаПост
После вопроса на семинаре ШАДа о нашей команде в Яндексе я понял, что особо не рассказывал в канале, чем занимаюсь/занимался на работе
Пора это исправить! Дисклеймер: все-все-все рассказать не удастся - NDA, сами понимаете)
Напомню, что я работаю в команде Товарного Поиска (это не Маркет, а часть Поиска). Как и у любого поиска у нас есть база, а именно - база товаров. И в этом посте хочу рассказать кратко о процессе, который привносит больший вклад в базу. Речь пойдет о парсинге.
Представьте перед собой страницу с товаром какого-нибудь онлайн магазина. Из нее нужно достать такие важные поля как цена, название, картинка и так далее. Как это сделать (подумайте сами, а затем открывайте спойлер)
Этот проект начался еще до моего попадания в штат и конкретно я парсил данные для fashion категорий и улучшал precision и recall для базовых полей. Удалось поделать следующее: создание толокерских заданий, обучение Catboost, обучение BERT и дистилляция в DSSM, запуск, оптимизация этого дела на C++ и придумывание с реализацией эвристик на дереве на тех же плюсах
Конечно, я не рассказал еще интересности этой задачи: более простые способы парсинга с их + и -, как обходить нужные страницы и так далее. Про это можно послушать в докладе одного из моих руклей на Highload 2022 (как давно это было) - ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
Разбор задач Yandex CUP Алго квалификации
#АлгоРазбираемся
7️⃣
В кои-то веки порешал какой-то контест, а именно квалификацию Yandex CUP. Удалось решить 5 из 6, поэтому хочу поделиться своими решениями этих задач
🔤 Разбор на Youtube и Rutube
🔤 Разбор на Youtube и Rutube
🔤 Разбор на Youtube и Rutube
🔤 Разбор на Youtube и Rutube
🔤 Разбор на Youtube и Rutube
В задаче E есть более оптимальное решение (ДП по битам насколько знаю), поэтому показал, как можно запихать с помощью MITM😉 Если не знаете, что это такое, то прочитать теорию и порешать задачек можно здесь
Если остались вопросы или увидели какие-то недочеты, то смело пишите их в комменты
🔄 Кстати, на направление ML можно зарегистрироваться и решать задачи до 4 ноября. Поэтому го регаться тут - https://yandex.ru/cup/ml
💬 Так же, поделитесь в каких направлениях Yandex CUP участвуете и сколько удалось решить задач?
#АлгоРазбираемся
В кои-то веки порешал какой-то контест, а именно квалификацию Yandex CUP. Удалось решить 5 из 6, поэтому хочу поделиться своими решениями этих задач
В задаче E есть более оптимальное решение (ДП по битам насколько знаю), поэтому показал, как можно запихать с помощью MITM
Если остались вопросы или увидели какие-то недочеты, то смело пишите их в комменты
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Practical ML Digest
3️⃣
#MLПост #PMD
🔄 Наткнулся тут на доклад с интересной молодой конференции по ML с созвучным названием I'ML. И оказалось, что уже 8 ноября будет новая онлайн конференция от них. Конфа посвящена MLOps, без которого сейчас нигде не обходится. Купившим билет доклады будут доступны и после конфы. Я уже билет приобрел - советую и вам! Про конфу вся информация здесь - https://imlconf.com/ 🔄
📶 "Рекомендательная система Шедеврума — как мы делали ленту и вырастили возвращаемость" 📶
Год: 2024
Спикер: ML-инженер, сейчас тимлид в Яндексе, занимается рекомендациями
Посмотреть: ВК и Youtube
Доклад интересен и начинающим, так как показывает стандартную архитектуру рекомендательных систем
Кандидатогенерация. На входе 5-10 млн картинок. Берутся часть популярных, часть персональных с помощью HNSW, часть старых но хорошего качества, часть рандомных (для exploration). Фильтрацией выкидываются дубли и чувствительный контент. В конце замешивание кандидатов: вместо weighted round robin (веса у каждого кандидатогенератора статичные для всех юзеров) делают personal mixigen (на основе фичей юзера и контекста веса выдаются обученной формулой).
Ранжирование. Часть фичей это рансформер над историей пользователя - классическая вещь в текущем Recsys. Двухбашенная модель с поздним связыванием - эмбеддинг юзера 1 раз в сутки пересчитывается оффлайн и эмбеддинг фотки 1 раз и берется dotproduct между ними. В итоге Catboost в конце с этой фичей и другими. Лосс взят Groupwise - QuerySoftmax из Catboost, схожий с KL-Дивергенцией. Он интересен, так как из-за вероятностной интерпритации можно его комбинировать с другими формулами под это же обученными или аддитивными поправками (дальше это будет важно). Ни разу про такой не слышал, поэтому написал про него
Переранжирование. Есть некие бизнес-правила, например, хочется бустить какую-то тематику или тип контента. Из-за этого сначала были ручками настроенные конфиги (на такую-то позицию поставь это). Перешли на так называемый блендинг: финальный скор = скор ранжирования + KL-дивергенция к распределениям (приближаем распределение к целевому и сюда же можно специально добавки делать, чтобы получить "бизнесовое" распределение).
И самое интересное - проблемы.
Первая - 18+ контент. Просто CV классификаторы не помогли. Обучили отдельную формулу (модель) на основе реакций пользователя (жалобы и прочее).
Вторая - холодные пользователи (люди, про которых мало данных). Пытались учитывать как сигнал длину просмотра, но вышло, что люди залипают на кринж . В итоге сделали отдельную модель ранжирования для них, где выкинули специфический контент из таргета. Также максимально разнообразят для них выдачу
Итог. Профит замеряют долгим обратным экспом с контролем - лента отсорченная по лайкам за день и тестом - текущий дефолт рекомендаций
#MLПост #PMD
Год: 2024
Спикер: ML-инженер, сейчас тимлид в Яндексе, занимается рекомендациями
Посмотреть: ВК и Youtube
Доклад интересен и начинающим, так как показывает стандартную архитектуру рекомендательных систем
Кандидатогенерация. На входе 5-10 млн картинок. Берутся часть популярных, часть персональных с помощью HNSW, часть старых но хорошего качества, часть рандомных (для exploration). Фильтрацией выкидываются дубли и чувствительный контент. В конце замешивание кандидатов: вместо weighted round robin (веса у каждого кандидатогенератора статичные для всех юзеров) делают personal mixigen (на основе фичей юзера и контекста веса выдаются обученной формулой).
Ранжирование. Часть фичей это рансформер над историей пользователя - классическая вещь в текущем Recsys. Двухбашенная модель с поздним связыванием - эмбеддинг юзера 1 раз в сутки пересчитывается оффлайн и эмбеддинг фотки 1 раз и берется dotproduct между ними. В итоге Catboost в конце с этой фичей и другими. Лосс взят Groupwise - QuerySoftmax из Catboost, схожий с KL-Дивергенцией. Он интересен, так как из-за вероятностной интерпритации можно его комбинировать с другими формулами под это же обученными или аддитивными поправками (дальше это будет важно). Ни разу про такой не слышал, поэтому написал про него
Переранжирование. Есть некие бизнес-правила, например, хочется бустить какую-то тематику или тип контента. Из-за этого сначала были ручками настроенные конфиги (на такую-то позицию поставь это). Перешли на так называемый блендинг: финальный скор = скор ранжирования + KL-дивергенция к распределениям (приближаем распределение к целевому и сюда же можно специально добавки делать, чтобы получить "бизнесовое" распределение).
И самое интересное - проблемы.
Первая - 18+ контент. Просто CV классификаторы не помогли. Обучили отдельную формулу (модель) на основе реакций пользователя (жалобы и прочее).
Вторая - холодные пользователи (люди, про которых мало данных). Пытались учитывать как сигнал длину просмотра, но вышло, что люди залипают на кринж . В итоге сделали отдельную модель ранжирования для них, где выкинули специфический контент из таргета. Также максимально разнообразят для них выдачу
Итог. Профит замеряют долгим обратным экспом с контролем - лента отсорченная по лайкам за день и тестом - текущий дефолт рекомендаций
Please open Telegram to view this post
VIEW IN TELEGRAM
Разбор задач Yandex CUP Алго полуфинала
#АлгоРазбираемся
8️⃣
Что ж, вчера порешал полуфинал Yandex Cup. Удалось решить 3 из 6 задач и стать топ-17 среди Яндекса. Жаль, что в топ-10 просто по времени не прошел😭 Но да ладно, я ж щас серьезно уже не треню
Делюсь своими решениями с вами. Смело ставьте на x2, так как я пытался максимально подробно разложить решения и получилось долговато
Из интересного даже для тех, кто не решал контест:
🔄 Техника в задачах по терверу (матожидание, функция распределения и прочее)
🔄 Когда может пригодиться умножать матрицу на столбец (или строчку)
🔤 Разбор на Youtube и Rutube
🔤 Разбор на Youtube и Rutube
🔤 Разбор на Youtube и Rutube
Если остались вопросы или увидели какие-то недочеты, то смело пишите их в комменты
💬 Как вам задачи и сколько вам удалось решить задач в полуфинале? Пишите в комменты
#АлгоРазбираемся
Что ж, вчера порешал полуфинал Yandex Cup. Удалось решить 3 из 6 задач и стать топ-17 среди Яндекса. Жаль, что в топ-10 просто по времени не прошел
Делюсь своими решениями с вами. Смело ставьте на x2, так как я пытался максимально подробно разложить решения и получилось долговато
Из интересного даже для тех, кто не решал контест:
Если остались вопросы или увидели какие-то недочеты, то смело пишите их в комменты
Please open Telegram to view this post
VIEW IN TELEGRAM
Распорядок рабочего дня в Тае
#ЖизаПост
Начало рабочей недели + у меня еще денечек отпуска, поэтому хочетсяпобалаболить выложить не технический пост
Сгонял на Пхукет: в первый раз побывал на островах, покормил обезьян и слонов, лицезрел ночную жизнь и многое другое🏖 И было прикольно каждый день видеть, что ты уже много чего сделал, открываешь ТГ, а там пусто... Разница с МСК +4, а с Сербией +6, поэтому в чатах тишина. Еще из интересного, что у них рано светает и рано темнеет
И тут я подумал, а какого быть русским ITшником в Тайланде? Для себя примерно определил такой распорядок дня:
🌞 07:00 (03:00 МСК) Подъем, завтрак, спорт и море, другие личные дела
👨💻 10:00 (06:00 МСК) Начало работы. Делаю то, что зависит только от меня - пишу код, запускаю обучения и другие долгие процессы
🐱 15:00 (11:00 МСК) Продолжение работы. Встречи, ТГ переписки и отслеживание того, что запустил утром
🏁 19:00 (15:00 МСК) Завершение рабочего дня
Конечно, это все примерно и чуть сдвигается от встреч и прочего. Но так как я привык рано вставать, то думаю это было бы оптимально
💬 Пишите в комментах, какой распорядок рабочего/учебного дня у вас и какой был бы в Тае. Все мы разные, интересно увидеть ваши
#ЖизаПост
Начало рабочей недели + у меня еще денечек отпуска, поэтому хочется
Сгонял на Пхукет: в первый раз побывал на островах, покормил обезьян и слонов, лицезрел ночную жизнь и многое другое
И тут я подумал, а какого быть русским ITшником в Тайланде? Для себя примерно определил такой распорядок дня:
Конечно, это все примерно и чуть сдвигается от встреч и прочего. Но так как я привык рано вставать, то думаю это было бы оптимально
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM