🏄 Соревновательный Data Science | Kaggle | Чемпионаты
Как агенты Санту катали решали... 🎅 (часть 1) Привет, Чемпионы! 🏆 Недавно закончился Santa 2025 на Каггле - снова решали оптимизационную задачу: надо было разложить ёлки по коробкам разных размеров без пересечений. 🌲 Долго собирался её порешать, сначала…
Часть 4 - техническая
Изначально каждый агент сам писал себе спеку - по запросу: вот такая задача на каггле, вот есть Kaggle MCP (про него отдельно), столько-то попыток в день, данные и.т.д - справлялись довольно неплохо, иногда просил внести изменения, например, чтобы вели общий реестр и без улучшений не отправляли.
Потом когда уперлись в потолок по скору, захотелось прикрутить фазу рисерча идей - нашёл вот такой вариант интересный - перплексити не подключал, заменил на встроенный гугл-поиск из Gemini.
Агентов развернул на серваке, чтобы могли автономно работать и не зависели от включенного компьютера.
В первый заход хотел, чтобы агенты использовали ресурсы каггла для запуска кода, т.е. писали ноутбуки и запускали на каггле по мсп, потом сами смотрели результат и корректировали. Но Каггл в своём репертуаре, MCP сервер запустили, а работает он пока через одно место.🤢
Ноутбук создавать и отправлять можно, но вот прикреплять к нему датасет нельзя, хотя все методы для этого прописаны - поддержка завалена запросами: "А почему оно не работает?" - ответ: "да знаем, что не работает, и вообще так и задумано" 🤯 А методы, которые работают, бывают недоступны по полдня, Codex в какой-то момент задолбался сабмитить по MCP и написал себе сабмитилку по старому-доброму Kaggle API и ей пользовался.
В целом, опыт интересный - теперь хочется настроить такой пайплайн для код компетишенов.
Делитесь своим опытом и находками в специальном топике "Кагглим с Клодом" в чате.
Изначально каждый агент сам писал себе спеку - по запросу: вот такая задача на каггле, вот есть Kaggle MCP (про него отдельно), столько-то попыток в день, данные и.т.д - справлялись довольно неплохо, иногда просил внести изменения, например, чтобы вели общий реестр и без улучшений не отправляли.
Потом когда уперлись в потолок по скору, захотелось прикрутить фазу рисерча идей - нашёл вот такой вариант интересный - перплексити не подключал, заменил на встроенный гугл-поиск из Gemini.
Агентов развернул на серваке, чтобы могли автономно работать и не зависели от включенного компьютера.
В первый заход хотел, чтобы агенты использовали ресурсы каггла для запуска кода, т.е. писали ноутбуки и запускали на каггле по мсп, потом сами смотрели результат и корректировали. Но Каггл в своём репертуаре, MCP сервер запустили, а работает он пока через одно место.
Ноутбук создавать и отправлять можно, но вот прикреплять к нему датасет нельзя, хотя все методы для этого прописаны - поддержка завалена запросами: "А почему оно не работает?" - ответ: "да знаем, что не работает, и вообще так и задумано" 🤯 А методы, которые работают, бывают недоступны по полдня, Codex в какой-то момент задолбался сабмитить по MCP и написал себе сабмитилку по старому-доброму Kaggle API и ей пользовался.
В целом, опыт интересный - теперь хочется настроить такой пайплайн для код компетишенов.
Делитесь своим опытом и находками в специальном топике "Кагглим с Клодом" в чате.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - taimo3810/kaggle-with-ai-template
Contribute to taimo3810/kaggle-with-ai-template development by creating an account on GitHub.
Forwarded from ArenaGo
Всем привет,
На ArenaGo стартовало соревнование по трейдингу с денежными призами, присоединяйся🔥
Все что нужно сделать:
1. Зайти на arenago.ru
2. И надрать зад всем участникам🙈
Торговать можно руками и алгоритмами через API. Есть робот для бейзлайна, ты можешь его прокачать с ИИшкой и вырастить монстра, который порвет всех и не оставит шансов
Лидер сейчас еле наколбасил +2%, знаю ты можешь лучше😎
P.S. Самые ленивые могут собрать портфель в два клика и наблюдать за шоу с попкорном😁
Возможно тебе повезет больше всех и уйдешь с призом😇
Увидимся на арене,
На ArenaGo стартовало соревнование по трейдингу с денежными призами, присоединяйся🔥
Все что нужно сделать:
1. Зайти на arenago.ru
2. И надрать зад всем участникам🙈
Торговать можно руками и алгоритмами через API. Есть робот для бейзлайна, ты можешь его прокачать с ИИшкой и вырастить монстра, который порвет всех и не оставит шансов
Лидер сейчас еле наколбасил +2%, знаю ты можешь лучше😎
P.S. Самые ленивые могут собрать портфель в два клика и наблюдать за шоу с попкорном😁
Возможно тебе повезет больше всех и уйдешь с призом😇
Увидимся на арене,
❤🔥5 4⚡3
Forwarded from Data, Stories and Languages
Обзор соревнований по ML за 2025 год
Есть такая платформа - https://mlcontests.com/, там можно увидеть список актуальных идущих соревнований по ML. Автор выускает ежегодный обзор по соревнованиям. Вот ссылка на мой пост про обзор 2023. 2024 я как-то пропустил, но вот сейчас увидел обзор за 2025: https://mlcontests.com/state-of-machine-learning-competitions-2025/?ref=mlcr25
Из интересного:
• В табличных соревнованиях всё ещё царят бустинги, но нейронки всё активнее используют в блендинге/стакинге
• Некоторые компании (не будем тыкать пальцами, но мы-то знаем) дают своим людям резиновое железо для соревнований. Например, победители одной соревы поделились, поделились тем, что тренировали 48 hours на 512 H100.
• Эпоха BERT в основном прошла, теперь люди активно используют Qwen2.5 и 3
• В соревнованиях по Computer Vision впервые доля решений с транмформерами превзошла долю решений с CNN
• В соревнованиях по аудио в основном используют затюненый Whisper
В отчёте ещё много всего интересного, рекомендую почитать.
#kaggle #datascience
Есть такая платформа - https://mlcontests.com/, там можно увидеть список актуальных идущих соревнований по ML. Автор выускает ежегодный обзор по соревнованиям. Вот ссылка на мой пост про обзор 2023. 2024 я как-то пропустил, но вот сейчас увидел обзор за 2025: https://mlcontests.com/state-of-machine-learning-competitions-2025/?ref=mlcr25
Из интересного:
• В табличных соревнованиях всё ещё царят бустинги, но нейронки всё активнее используют в блендинге/стакинге
• Некоторые компании (не будем тыкать пальцами, но мы-то знаем) дают своим людям резиновое железо для соревнований. Например, победители одной соревы поделились, поделились тем, что тренировали 48 hours на 512 H100.
• Эпоха BERT в основном прошла, теперь люди активно используют Qwen2.5 и 3
• В соревнованиях по Computer Vision впервые доля решений с транмформерами превзошла долю решений с CNN
• В соревнованиях по аудио в основном используют затюненый Whisper
В отчёте ещё много всего интересного, рекомендую почитать.
#kaggle #datascience
Привет, Чемпионы! 🏆
🏀 March Machine Learning Mania 2026: Ваш шанс на Solo Gold в главной Data Science лотерее! 🎰
Самое азартное соревнование года на Kaggle уже идет!
Это тот редкий случай, когда новичок может обойти грандмастера, а простой
логистической регрессии иногда достаточно для топа.
Почему стоит участвовать?
Это классическая "лотерея с элементами науки". NCAA Tournament - это хаос: идеальных моделей не существует, но грамотный пайплайн повышает ваши шансы поймать удачу за хвост и забрать Solo Gold 🥇.
🚀 Что работало в прошлые годы:
1. Seeds (Посев) - это база. Разница в посеве команд (Seed Diff) исторически дает самый сильный сигнал.
2. Продвинутая статистика. Не смотрите просто на победы. Считайте OffRtg и DefRtg (очки на 100 владений). Эффективность важнее количества очков!
3. Massey Ordinals. Для мужского турнира рейтинговые системы (Massey, KenPom) работают лучше сырой статистики.
4. Ансамблирование. Связка XGBoost + CatBoost + Logistic Regression (для калибровки) - золотой стандарт. Бустинги ищут нелинейности, а LogReg не дает модели "перемудрить".
5. Не будьте самоуверенны! Метрика Brier Score жестоко наказывает за уверенные ошибки. Никогда не ставьте 0% или 100% (клипайте предсказания в [0.025, 0.975]).
📅 Дедлайн:
Модели принимаются до Selection Sunday (середина марта), когда объявят сетку турнира. Сейчас самое время "полировать" фичи на исторических данных!
🔗 Ссылка на соревнование:
https://www.kaggle.com/competitions/march-machine-learning-mania-2026
Кто в деле? Кидайте свои идеи в комменты! 👇
🏀 March Machine Learning Mania 2026: Ваш шанс на Solo Gold в главной Data Science лотерее! 🎰
Самое азартное соревнование года на Kaggle уже идет!
Это тот редкий случай, когда новичок может обойти грандмастера, а простой
логистической регрессии иногда достаточно для топа.
Почему стоит участвовать?
Это классическая "лотерея с элементами науки". NCAA Tournament - это хаос: идеальных моделей не существует, но грамотный пайплайн повышает ваши шансы поймать удачу за хвост и забрать Solo Gold 🥇.
🚀 Что работало в прошлые годы:
1. Seeds (Посев) - это база. Разница в посеве команд (Seed Diff) исторически дает самый сильный сигнал.
2. Продвинутая статистика. Не смотрите просто на победы. Считайте OffRtg и DefRtg (очки на 100 владений). Эффективность важнее количества очков!
3. Massey Ordinals. Для мужского турнира рейтинговые системы (Massey, KenPom) работают лучше сырой статистики.
4. Ансамблирование. Связка XGBoost + CatBoost + Logistic Regression (для калибровки) - золотой стандарт. Бустинги ищут нелинейности, а LogReg не дает модели "перемудрить".
5. Не будьте самоуверенны! Метрика Brier Score жестоко наказывает за уверенные ошибки. Никогда не ставьте 0% или 100% (клипайте предсказания в [0.025, 0.975]).
📅 Дедлайн:
Модели принимаются до Selection Sunday (середина марта), когда объявят сетку турнира. Сейчас самое время "полировать" фичи на исторических данных!
🔗 Ссылка на соревнование:
https://www.kaggle.com/competitions/march-machine-learning-mania-2026
Кто в деле? Кидайте свои идеи в комменты! 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥8 4
🚀 Открыта регистрация:
Agentic Legal RAG Challenge 2026
Если вы строите RAG / agentic pipelines (ingestion → retrieval → generation) и вам важны метрики, близкие к реальному продакшену, это соревнование для вас.
Что именно оценивают:
✅ Answer quality — насколько ответ корректный по сути
✅ Grounding / faithfulness — подтверждён ли ответ конкретными фрагментами из юридических источников (c citations / chunk-level evidence)
✅ Latency / TTFT — скорость, включая time-to-first-token (как быстро система начинает отдавать ответ)
Формат: Online участие / Live leaderboard + финальная проверка на private test set (без возможности “подгонки под паблик”)
Данные: 300+ юридических документов и 1 000+ вопросов
🏆 $32 000 призовой фонд — один из крупнейших в мире в сегменте Legal RAG/Agentic
📅 Период соревнования: 11 - 25 марта 2026 (регистрация уже открыта)
👉 Детали и регистрация: www.agentic-challenge.ai
Если у вас команда и уже есть свой стек (embeddings / vector DB / rerankers / LLM / tooling) — отличный шанс сравнить подходы на нормальной постановке и метриках.
Agentic Legal RAG Challenge 2026
Если вы строите RAG / agentic pipelines (ingestion → retrieval → generation) и вам важны метрики, близкие к реальному продакшену, это соревнование для вас.
Что именно оценивают:
✅ Answer quality — насколько ответ корректный по сути
✅ Grounding / faithfulness — подтверждён ли ответ конкретными фрагментами из юридических источников (c citations / chunk-level evidence)
✅ Latency / TTFT — скорость, включая time-to-first-token (как быстро система начинает отдавать ответ)
Формат: Online участие / Live leaderboard + финальная проверка на private test set (без возможности “подгонки под паблик”)
Данные: 300+ юридических документов и 1 000+ вопросов
🏆 $32 000 призовой фонд — один из крупнейших в мире в сегменте Legal RAG/Agentic
📅 Период соревнования: 11 - 25 марта 2026 (регистрация уже открыта)
👉 Детали и регистрация: www.agentic-challenge.ai
Если у вас команда и уже есть свой стек (embeddings / vector DB / rerankers / LLM / tooling) — отличный шанс сравнить подходы на нормальной постановке и метриках.
👍1
Forwarded from Samvel K
NVIDIA Nemotron Model Reasoning Challenge
https://www.kaggle.com/competitions/nvidia-nemotron-model-reasoning-challenge
Featured соревнование от NVIDIA. Улучшаем ризонинг модели через LoRA.
Хорошие призы ($$$$ и 9 железок), дополнителный компьют участникам (30 часов в неделю на RTX Pro 6000)
• 1st Place - $25,000 + 4 DGX Sparks
• 2nd Place - $15,000 + 3 DGX Sparks
• 3rd Place - $5,000 + 2 DGX Sparks
https://www.kaggle.com/competitions/nvidia-nemotron-model-reasoning-challenge
Featured соревнование от NVIDIA. Улучшаем ризонинг модели через LoRA.
Хорошие призы ($$$$ и 9 железок), дополнителный компьют участникам (30 часов в неделю на RTX Pro 6000)
• 1st Place - $25,000 + 4 DGX Sparks
• 2nd Place - $15,000 + 3 DGX Sparks
• 3rd Place - $5,000 + 2 DGX Sparks
👍12
Forwarded from Запрети мне псевдолейблить
На Kaggle новая драма — соревнование по разметке данных для боевых дронов
https://www.kaggle.com/competitions/leonardo-airborne-object-recognition-challenge
Официально задача звучит так: нужно построить модель, которая будет находить и классифицировать объекты на съемке с летательных аппаратов. В списке классов:
1. люди
2. летательные аппараты
3. дроны
4. машины
5. корабли
6. препятствия для самого носителя камеры — башни, скалы и т.д.
Проблема в том, что все и так прекрасно понимают, для чего сегодня особенно востребованы такие платформы с видео- и фотосъемкой и опцией подсветки снизу.
В датасете почти сразу нашли несколько довольно интересных последовательных кадров — они как раз приложены к посту. После того как началось публичное возмущение, Kaggle на время притормозил соревнование. Сейчас к нему уже нельзя подключиться заново, но те, кто успел зайти и что-то засабмитить, по-прежнему могут продолжать.
Отдельно стоит посмотреть на заказчика — Leonardo Helicopters, итальянскую многоцелевую компанию.
Во-первых, 30% компании принадлежит правительству Италии.
Во-вторых, Leonardo участвует в сотрудничестве с Baykar: у них совместное предприятие 50/50, а сама Baykar — производитель Bayraktar.
Из этого для россиян вытекают и вполне конкретные правовые риски. В действующей редакции статьи 275 УК РФ государственная измена — это не только шпионаж или передача гостайны, но и оказание иностранному государству, международной или иностранной организации финансовой, материально-технической, консультационной либо иной помощи в деятельности, направленной против безопасности РФ. Отдельно статья 275.1 УК РФ наказывает за конфиденциальное сотрудничество с иностранной организацией в целях такого содействия. А статья 189 УК РФ отдельно криминализует незаконную передачу иностранному лицу технологий, работ или услуг, если на них распространяется экспортный контроль.
Ну и в целом все это выглядит как жалкая пародия: несравненный оригинал на эту тему уже когда-то проводила ЧВК «Вагнер».
Мое мнение кстати простенькое:
Кагл хорошая платформа для поиска новых идей, но детекция/классификация объектов тема изъезженная. Думаю тут сорева нужен для хаеринга, а не топ решений/идей. Были бы нужны топ решения/идеи- на инференс давали бы больше ограничений, чем 9 GPU/Hours. Правда, есть и приз за быстродействие, но он считается среди топ участников отдельно.
https://www.kaggle.com/competitions/leonardo-airborne-object-recognition-challenge
Официально задача звучит так: нужно построить модель, которая будет находить и классифицировать объекты на съемке с летательных аппаратов. В списке классов:
1. люди
2. летательные аппараты
3. дроны
4. машины
5. корабли
6. препятствия для самого носителя камеры — башни, скалы и т.д.
Проблема в том, что все и так прекрасно понимают, для чего сегодня особенно востребованы такие платформы с видео- и фотосъемкой и опцией подсветки снизу.
В датасете почти сразу нашли несколько довольно интересных последовательных кадров — они как раз приложены к посту. После того как началось публичное возмущение, Kaggle на время притормозил соревнование. Сейчас к нему уже нельзя подключиться заново, но те, кто успел зайти и что-то засабмитить, по-прежнему могут продолжать.
Отдельно стоит посмотреть на заказчика — Leonardo Helicopters, итальянскую многоцелевую компанию.
Во-первых, 30% компании принадлежит правительству Италии.
Во-вторых, Leonardo участвует в сотрудничестве с Baykar: у них совместное предприятие 50/50, а сама Baykar — производитель Bayraktar.
И
Ну и в целом все это выглядит как жалкая пародия: несравненный оригинал на эту тему уже когда-то проводила ЧВК «Вагнер».
Мое мнение кстати простенькое:
Кагл хорошая платформа для поиска новых идей, но детекция/классификация объектов тема изъезженная. Думаю тут сорева нужен для хаеринга, а не топ решений/идей. Были бы нужны топ решения/идеи- на инференс давали бы больше ограничений, чем 9 GPU/Hours. Правда, есть и приз за быстродействие, но он считается среди топ участников отдельно.
🤯6😁1
Forwarded from Samvel K
Конец истории:
После тщательного рассмотрения мы приняли решение прекратить проведение конкурса Airborne Object Recognition Challenge.
⚡6
20 апреля в Москве — AiConf 2026
Практическая конференция по Data Science: мастер-классы, воркшопы и живой нетворкинг вместо пассивных лекций.
Что в программе:
— мультиагентные системы и RAG — от архитектуры до продакшена
— как «приручить» LLM и получать предсказуемые результаты
— работа с данными: от хаоса к работающей модели
—как обосновывать технологические решения бизнесу
— экономика AI: считаем и оптимизируем инфраструктуру
Уходите не с записями, а с конкретными инструментами и планом «что делать завтра».
400+ участников. Спикеры из Сбера, Яндекса, VK и других команд.
🎟 Билеты и подробности — на сайте конференции.
❗️ Промокод на скидку 15%: "2026"
Практическая конференция по Data Science: мастер-классы, воркшопы и живой нетворкинг вместо пассивных лекций.
Что в программе:
— мультиагентные системы и RAG — от архитектуры до продакшена
— как «приручить» LLM и получать предсказуемые результаты
— работа с данными: от хаоса к работающей модели
—как обосновывать технологические решения бизнесу
— экономика AI: считаем и оптимизируем инфраструктуру
Уходите не с записями, а с конкретными инструментами и планом «что делать завтра».
400+ участников. Спикеры из Сбера, Яндекса, VK и других команд.
🎟 Билеты и подробности — на сайте конференции.
❗️ Промокод на скидку 15%: "2026"
🎉2
Forwarded from (sci)Berloga Всех Наук и Технологий
🚀 Серия соревнований по МЛ ! Денежный призовой фонд больше 100 000 р и будет расти ! Кому интересен МЛ/RL или математика или пазлы или роботы.
Приглашаем Вас принять участие в серии челленджей.
Соревнование организуется совместно с учеными лаборатории интеллектуальных технологий робототехники МФТИ, (руководит проектом - Илья Осокин), которые поставили себе амбициозную цель создать робота, который побьет мировой рекорд по сборке Мегаминкса ! Узнать больше о робототехнической части проекта Вы можете в сообщении https://t.me/forodirchNEWS/3165 , хабре или в чате @starkitmega.
Проект CayleyPy предлагает Вам принять участие в решении алгоритмической части задачи - создании алгоритмов - которые смогут получать наиболее короткие (близкие к оптимальным ) решения. Методы решения важны в широком круге проблем от математики до квантовых компьютеров, МЛ/РЛ и теории струн. Для этого мы организовали соревнования на платформе Каггл.
Первый разыгрываемый приз - 10 000 рублей.
Условия первого этапа очень простые.
Есть три челленджа на Каггле
Мегаминкс
https://www.kaggle.com/competitions/cayley-py-megaminx/leaderboard
Кубик Рубика 333
https://www.kaggle.com/competitions/cayleypy-ihes-cube
Кубик Рубика 444
https://www.kaggle.com/competitions/cayley-py-444-cube
Приз будет получен первым, кто достигнет ЛЮБУЮ из целей:
1 Или в конкурсе Мегаминкс - кто достигает скор 80 000 - и опубликует публичное решение
2 Или обогнать Томаса Рокицкого в конкурсах по кубику 333 или 444 (любом из них) и тоже опубликовать публичное решение. (Томас Рокицкий - легендарный специалист по вычислительным аспектам головоломок - именно его команда нашла "число Бога" кубика Рубика в 2010 году - подведя итог более 30 годам усилий большого количества специалистов).
Подробное описание соревнований -- по ссылкам выше. Кратко: даны 1000 состояний пазлов и Вам надо предъявить их решения -- чем короче решение тем лучше (то есть чем меньше шагов/"мувов"). Score на лидерборде = сумма длин решений по всем пазлам. Соревнования полностью аналогичны соревнованию Каггл Санта 2023 -- можно навайбкодить изменения лучших решений оттуда. Также стоит взять наш подход CayleyPy и изменить в нем образующие на мегаминкс. Это сделали те, кто сейчас в топе. Дополнительную информацию, обсуждение и советы - см. чаты - @starkitmega @sberlogacompete @sberlogasci. Вводные лекции: четверг 19.00, пятница 20.00 (время по Москве).
Дополнительным призом будет возможное участие в научных публикациях. Наши цели амбициозны - мы уже добились исключительных результатов, которые имеют приложение в МЛ, математике, теории струн, квантовых вычислениях и т.д. Публикации отмечены NIPS spotlight. Узнать больше Вы можете в наших статьях. Если у Вас есть несколько свободных часов в неделю, знание Питона или математики и Вам интересно принять участие - пишите @alexander_v_c - мы рады всем - начинающим и профи.
Планируется серия челленджей и призов. Когда первый приз будет разыгран - мы объявим о втором этапе.
================
А также мы ищем Cпоносоров.
Вы можете поддержать нас переведя на карту Илье Осокину 2202208362030505
Или напишите @alexander_v_c (Александр Червов)
И кидайте нам, пожалуйста, звезды на гитхаб, Вы нам очень поможите:
https://github.com/cayleypy/cayleypy
================
Выражаем благодарность компании RYBE - толстовки для айтишников: https://rybe.store https://t.me/rybe_store
================
Выражаем благодарность агентству BLASTIM за поддержку:
❤️ Наши курсы: agency.blastim.ru
🥨 Свежие вакансии в биотехе: blastim.ru
🤝 https://t.me/blastim
Приглашаем Вас принять участие в серии челленджей.
Соревнование организуется совместно с учеными лаборатории интеллектуальных технологий робототехники МФТИ, (руководит проектом - Илья Осокин), которые поставили себе амбициозную цель создать робота, который побьет мировой рекорд по сборке Мегаминкса ! Узнать больше о робототехнической части проекта Вы можете в сообщении https://t.me/forodirchNEWS/3165 , хабре или в чате @starkitmega.
Проект CayleyPy предлагает Вам принять участие в решении алгоритмической части задачи - создании алгоритмов - которые смогут получать наиболее короткие (близкие к оптимальным ) решения. Методы решения важны в широком круге проблем от математики до квантовых компьютеров, МЛ/РЛ и теории струн. Для этого мы организовали соревнования на платформе Каггл.
Первый разыгрываемый приз - 10 000 рублей.
Условия первого этапа очень простые.
Есть три челленджа на Каггле
Мегаминкс
https://www.kaggle.com/competitions/cayley-py-megaminx/leaderboard
Кубик Рубика 333
https://www.kaggle.com/competitions/cayleypy-ihes-cube
Кубик Рубика 444
https://www.kaggle.com/competitions/cayley-py-444-cube
Приз будет получен первым, кто достигнет ЛЮБУЮ из целей:
1 Или в конкурсе Мегаминкс - кто достигает скор 80 000 - и опубликует публичное решение
2 Или обогнать Томаса Рокицкого в конкурсах по кубику 333 или 444 (любом из них) и тоже опубликовать публичное решение. (Томас Рокицкий - легендарный специалист по вычислительным аспектам головоломок - именно его команда нашла "число Бога" кубика Рубика в 2010 году - подведя итог более 30 годам усилий большого количества специалистов).
Подробное описание соревнований -- по ссылкам выше. Кратко: даны 1000 состояний пазлов и Вам надо предъявить их решения -- чем короче решение тем лучше (то есть чем меньше шагов/"мувов"). Score на лидерборде = сумма длин решений по всем пазлам. Соревнования полностью аналогичны соревнованию Каггл Санта 2023 -- можно навайбкодить изменения лучших решений оттуда. Также стоит взять наш подход CayleyPy и изменить в нем образующие на мегаминкс. Это сделали те, кто сейчас в топе. Дополнительную информацию, обсуждение и советы - см. чаты - @starkitmega @sberlogacompete @sberlogasci. Вводные лекции: четверг 19.00, пятница 20.00 (время по Москве).
Дополнительным призом будет возможное участие в научных публикациях. Наши цели амбициозны - мы уже добились исключительных результатов, которые имеют приложение в МЛ, математике, теории струн, квантовых вычислениях и т.д. Публикации отмечены NIPS spotlight. Узнать больше Вы можете в наших статьях. Если у Вас есть несколько свободных часов в неделю, знание Питона или математики и Вам интересно принять участие - пишите @alexander_v_c - мы рады всем - начинающим и профи.
Планируется серия челленджей и призов. Когда первый приз будет разыгран - мы объявим о втором этапе.
================
А также мы ищем Cпоносоров.
Вы можете поддержать нас переведя на карту Илье Осокину 2202208362030505
Или напишите @alexander_v_c (Александр Червов)
И кидайте нам, пожалуйста, звезды на гитхаб, Вы нам очень поможите:
https://github.com/cayleypy/cayleypy
================
Выражаем благодарность компании RYBE - толстовки для айтишников: https://rybe.store https://t.me/rybe_store
================
Выражаем благодарность агентству BLASTIM за поддержку:
❤️ Наши курсы: agency.blastim.ru
🥨 Свежие вакансии в биотехе: blastim.ru
🤝 https://t.me/blastim
😁5👍2
Яндекс впервые открывает набор в Летний кампус ML-Академии
Это бесплатная офлайн‑школа для начинающих специалистов по машинному обучению. Занятия пройдут с июня по август по вечерам в московском офисе Яндекса.
Что в программе:
— много домашек, лекций и практики: узнайте всё про большие языковые модели, компьютерное зрение и другие актуальные тренды ML-сферы
— работа над полноценными исследовательскими ML‑проектами под руководством опытных менторов
— нетворкинг и общение с ведущими ML-специалистами Яндекса и ребятами, которые тоже горят машинным обучением
Школа подойдет студентам и выпускникам технических специальностей, которые знают математику и базовый ML, пишут на Python и применяют его для обучения моделей.
Для тех, кто поступает из других городов: Яндекс оплачивает проезд и проживание на время обучения. А лучшие выпускники Академии смогут попасть на стажировку в компанию.
Научись обучать машины и проведи лето с пользой: регистрация уже открыта.
Это бесплатная офлайн‑школа для начинающих специалистов по машинному обучению. Занятия пройдут с июня по август по вечерам в московском офисе Яндекса.
Что в программе:
— много домашек, лекций и практики: узнайте всё про большие языковые модели, компьютерное зрение и другие актуальные тренды ML-сферы
— работа над полноценными исследовательскими ML‑проектами под руководством опытных менторов
— нетворкинг и общение с ведущими ML-специалистами Яндекса и ребятами, которые тоже горят машинным обучением
Школа подойдет студентам и выпускникам технических специальностей, которые знают математику и базовый ML, пишут на Python и применяют его для обучения моделей.
Для тех, кто поступает из других городов: Яндекс оплачивает проезд и проживание на время обучения. А лучшие выпускники Академии смогут попасть на стажировку в компанию.
Научись обучать машины и проведи лето с пользой: регистрация уже открыта.
⚡6🦄3 3
Forwarded from Истории (не)успеха (ИИ)ЕИ
📢 Дорогие коллеги, хочу напомнить про эти соревнования!
Если вы давно думали «зайти» в машинное обучение, но не знали, с чего начать — это идеальная возможность. Особенно для тех, у кого есть базовая математика (группы, подгруппы), но нет опыта с нейросетями.
🤔 Почему это интересно математику или софт-разработчику?
Мы работаем с вращательными головоломками — вроде кубика Рубика. С математической точки зрения это элементы группы перестановок огромного порядка:
• Кубик 3x3x3 → 4.3 * 10^19 состояний.
• Другие, более сложные пазлы → еще на десятки порядков больше.
Математически любая вращательная головоломка - это подгруппа так называемой симметрической группы.
⚠️ Проблема: Нам нужно найти кратчайший путь к собранному состоянию головоломки. Но пространство настолько огромно, что полный перебор невозможен.
🧭 Идея: Нам нужен не «решатель», а подсказчик по принципу «тепло–холодно». Функция, которая говорит, насколько какой из следующих ходов (мувов) приближает нас к решению (собранному состоянию кубика Рубика). Эту функцию и вычисляет нейросеть.
🏗 Как это устроено внутри?
Любая нейросеть — это сложная математическая функция с настраиваемыми параметрами. В нашем случае мы используем архитектуру Residual neural network (или сокращенно ResNet).
Процесс обучения (Random Walks):
Как нейросеть узнает, «тепло» или «холодно»? Мы учим её на обратных примерах:
Берем собранный кубик и делаем от него случайное количество вращений (Random Walk), например, 20 вращений. Мы точно знаем, что из этого состояния до цели — 20 шагов. Показываем это состояние сети и корректируем её веса, пока её предсказание не совпадет с реальностью. Так она постепенно начинает «чувствовать» расстояние до цели.
Разберём структуру нашей сети:
🔹 1. Вход (Input)
Мы подаем полное описание состояния головоломки. Технически это кодируется как вектор чисел.
• Каждый кусочек → набор индексов.
• Всё вместе → длинный вектор, описывающий положение всей системы в пространстве группы.
🔹 2. Скрытые слои (Hidden layers)
Вектор проходит через цепочку слоев. Каждый слой «переосмысливает» данные:
• Первые слои видят простые вещи (например: «этот кусок не на месте»).
• Средние слои начинают замечать паттерны и блоки элементов.
• Глубокие слои улавливают глобальную структуру и «дальность» до цели.
🔹 3. Остаточные блоки (Идея «поправок»)
В обычных глубоких сетях сигнал об ошибке «затухает», не успевая распространиться по всей сети, и сеть перестает учиться. Residual blocks используют идею
🔹 4. Выход (Output)
Оценка расстояния до решения (например, «до цели 15 шагов»).
🔗 Как это работает в связке?
Алгоритм поиска пробует разные ходы, для каждого спрашивает нейросеть «насколько стало теплее?» и выбирает только лучшиe.
🏆 Перспективы для участников
Aрхитектура ResNet зарекомендовала себя как надежная база. Однако мир ИИ не стоит на месте. Если вы сможете адаптировать другие архитектуры (например, трансформеры или графовые сети) и получите лучшие результаты — вы выиграете! Но для старта ResNet — норм вариант.
✨ Вместо заключения
Всё это может показаться слишком сложным. Но как только вы начнете решать первые пазлы и увидите, как нейросеть находит выход в пространстве из квадриллионов состояний — всё встанет на свои места.
Нейросеть здесь — это не магия, а умный оценщик в пространстве группы. Она делает возможным поиск там, где перебор грубой силой бессилен.
P.S.Чтобы начать и войти в тему можно взять какой-нибудь из уже готовых ноутбуков, например этот. И попросить кого-нибудь рассказать что там и как. Легко сделаем!
P.P.S.Решить все эти пазлы с помощью нейросетей — не проблема. Они обучаются на случайных прогулках по графу состояний буквально за 10 минут. Настоящий вызов — находить именно кратчайшие пути и собирать головоломки за минимальное число вращений. И это действительно современный челлендж!
Если вы давно думали «зайти» в машинное обучение, но не знали, с чего начать — это идеальная возможность. Особенно для тех, у кого есть базовая математика (группы, подгруппы), но нет опыта с нейросетями.
🤔 Почему это интересно математику или софт-разработчику?
Мы работаем с вращательными головоломками — вроде кубика Рубика. С математической точки зрения это элементы группы перестановок огромного порядка:
• Кубик 3x3x3 → 4.3 * 10^19 состояний.
• Другие, более сложные пазлы → еще на десятки порядков больше.
Математически любая вращательная головоломка - это подгруппа так называемой симметрической группы.
⚠️ Проблема: Нам нужно найти кратчайший путь к собранному состоянию головоломки. Но пространство настолько огромно, что полный перебор невозможен.
🧭 Идея: Нам нужен не «решатель», а подсказчик по принципу «тепло–холодно». Функция, которая говорит, насколько какой из следующих ходов (мувов) приближает нас к решению (собранному состоянию кубика Рубика). Эту функцию и вычисляет нейросеть.
🏗 Как это устроено внутри?
Любая нейросеть — это сложная математическая функция с настраиваемыми параметрами. В нашем случае мы используем архитектуру Residual neural network (или сокращенно ResNet).
Процесс обучения (Random Walks):
Как нейросеть узнает, «тепло» или «холодно»? Мы учим её на обратных примерах:
Берем собранный кубик и делаем от него случайное количество вращений (Random Walk), например, 20 вращений. Мы точно знаем, что из этого состояния до цели — 20 шагов. Показываем это состояние сети и корректируем её веса, пока её предсказание не совпадет с реальностью. Так она постепенно начинает «чувствовать» расстояние до цели.
Разберём структуру нашей сети:
🔹 1. Вход (Input)
Мы подаем полное описание состояния головоломки. Технически это кодируется как вектор чисел.
• Каждый кусочек → набор индексов.
• Всё вместе → длинный вектор, описывающий положение всей системы в пространстве группы.
🔹 2. Скрытые слои (Hidden layers)
Вектор проходит через цепочку слоев. Каждый слой «переосмысливает» данные:
• Первые слои видят простые вещи (например: «этот кусок не на месте»).
• Средние слои начинают замечать паттерны и блоки элементов.
• Глубокие слои улавливают глобальную структуру и «дальность» до цели.
🔹 3. Остаточные блоки (Идея «поправок»)
В обычных глубоких сетях сигнал об ошибке «затухает», не успевая распространиться по всей сети, и сеть перестает учиться. Residual blocks используют идею
y = x + F(x). Слой не переписывает информацию полностью, а лишь вычисляет поправку к текущему значению. Это создает «скоростную трассу» для данных: сигнал проходит через десятки слоев без искажений, позволяя строить по-настоящему глубокие и умные модели.🔹 4. Выход (Output)
Оценка расстояния до решения (например, «до цели 15 шагов»).
🔗 Как это работает в связке?
Алгоритм поиска пробует разные ходы, для каждого спрашивает нейросеть «насколько стало теплее?» и выбирает только лучшиe.
🏆 Перспективы для участников
Aрхитектура ResNet зарекомендовала себя как надежная база. Однако мир ИИ не стоит на месте. Если вы сможете адаптировать другие архитектуры (например, трансформеры или графовые сети) и получите лучшие результаты — вы выиграете! Но для старта ResNet — норм вариант.
✨ Вместо заключения
Всё это может показаться слишком сложным. Но как только вы начнете решать первые пазлы и увидите, как нейросеть находит выход в пространстве из квадриллионов состояний — всё встанет на свои места.
Нейросеть здесь — это не магия, а умный оценщик в пространстве группы. Она делает возможным поиск там, где перебор грубой силой бессилен.
P.S.Чтобы начать и войти в тему можно взять какой-нибудь из уже готовых ноутбуков, например этот. И попросить кого-нибудь рассказать что там и как. Легко сделаем!
P.P.S.Решить все эти пазлы с помощью нейросетей — не проблема. Они обучаются на случайных прогулках по графу состояний буквально за 10 минут. Настоящий вызов — находить именно кратчайшие пути и собирать головоломки за минимальное число вращений. И это действительно современный челлендж!
Telegram
Истории (не)успеха (ИИ)ЕИ
🚀 Серия соревнований по МЛ и научный проект ! Денежный призовой фонд больше 100 000 р и будет расти ! Кому интересен МЛ/RL или математика или пазлы или роботы.
Приглашаем Вас принять участие в серии челленджей и развитии научного опен-соурс проекта. …
Приглашаем Вас принять участие в серии челленджей и развитии научного опен-соурс проекта. …
Data Scientist новой парадигмы
Кажется, эра "кодинга ради кодинга" в Data Science окончательно закончилась. Если ты до сих пор тратишь по два часа на написание пайплайна для базовой обработки фичей, то ты уже проиграл тем, кто освоил вайбкодинг.
И что из этого следует для участников чемпионатов?
Скорость итерации решает теперь все
В соревновательном DS побеждает не тот, кто лучше помнит синтаксис поллерса или пандаса, а тот, кто успел проверить 50 гипотез вместо пяти.
Фишка в том, что с помощью инструментов типо Claude Code позволяет тебе перестать быть "руками" и стать "архитектором".
Ты придумал сложную фичу на основе анализа данных? Просто скажи об этом Клоду. Он напишет код, обработает исключения и выдаст тебе готовый результат. Время на итерацию сокращается в разы.
Ты понимаешь, что это значит? Теперь твой фокус должен смещаться с написания кода на генерацию идей/гипотез.
Как это работает на практике?
Представь: ты обучил пять разных моделей. Вместо того чтобы вручную подбирать веса для ансамбля из бустингов, нейронокили и агентов или писать скрипты для блендинга, ты отдаешь эту работу Claude Code.
Клод сам "сблендит" их в мощный ансамбль, пока ты пьешь кофе и думаешь над следующей порцией признаков)
(Ты ведь знаешь, что такое блендинг? Это когда мы берем лучшее от каждой модели.)
Дело в правильном распределении ролей. Думать за тебя никто не будет - если ты не понимаешь логику процесса, Клод тебе не поможет. Но если ты уже проходил наш первый курс по Kaggle и владеешь базой, этот инструмент тебя усилит колоссально.
Data Scientist 2.0
Мы запустили интенсивный курс по быстрому вкатыванию в Claude Code. Это обучение для тех, кто хочет работать в новой реальности, где мы больше придумываем и меньше пишем.
Без лишней воды от Рустема: залетаем, настраиваем среду и начинаем использовать Claude Code для реальных задач. В чем смысл тратить жизнь на рутину, когда твои оппоненты уже автоматизировали часть работы?) Не надо так!
Ссылка на наш Claude Code курс💻
Ссылка на наш Claude Code курс💐
Ссылка на наш Claude Code курс 🌶️
Финальный вопрос: давно ты участвовал в чемпионатах?) Может попробуем теперь повайб каглить?)
Кажется, эра "кодинга ради кодинга" в Data Science окончательно закончилась. Если ты до сих пор тратишь по два часа на написание пайплайна для базовой обработки фичей, то ты уже проиграл тем, кто освоил вайбкодинг.
И что из этого следует для участников чемпионатов?
Скорость итерации решает теперь все
В соревновательном DS побеждает не тот, кто лучше помнит синтаксис поллерса или пандаса, а тот, кто успел проверить 50 гипотез вместо пяти.
Фишка в том, что с помощью инструментов типо Claude Code позволяет тебе перестать быть "руками" и стать "архитектором".
Ты придумал сложную фичу на основе анализа данных? Просто скажи об этом Клоду. Он напишет код, обработает исключения и выдаст тебе готовый результат. Время на итерацию сокращается в разы.
Ты понимаешь, что это значит? Теперь твой фокус должен смещаться с написания кода на генерацию идей/гипотез.
Как это работает на практике?
Представь: ты обучил пять разных моделей. Вместо того чтобы вручную подбирать веса для ансамбля из бустингов, нейронокили и агентов или писать скрипты для блендинга, ты отдаешь эту работу Claude Code.
Клод сам "сблендит" их в мощный ансамбль, пока ты пьешь кофе и думаешь над следующей порцией признаков)
(Ты ведь знаешь, что такое блендинг? Это когда мы берем лучшее от каждой модели.)
Дело в правильном распределении ролей. Думать за тебя никто не будет - если ты не понимаешь логику процесса, Клод тебе не поможет. Но если ты уже проходил наш первый курс по Kaggle и владеешь базой, этот инструмент тебя усилит колоссально.
Data Scientist 2.0
Мы запустили интенсивный курс по быстрому вкатыванию в Claude Code. Это обучение для тех, кто хочет работать в новой реальности, где мы больше придумываем и меньше пишем.
Без лишней воды от Рустема: залетаем, настраиваем среду и начинаем использовать Claude Code для реальных задач. В чем смысл тратить жизнь на рутину, когда твои оппоненты уже автоматизировали часть работы?) Не надо так!
Ссылка на наш Claude Code курс
Ссылка на наш Claude Code курс
Ссылка на наш Claude Code курс 🌶️
Финальный вопрос: давно ты участвовал в чемпионатах?) Может попробуем теперь повайб каглить?)
Please open Telegram to view this post
VIEW IN TELEGRAM
Aleron M
Data Scientist новой парадигмы Кажется, эра "кодинга ради кодинга" в Data Science окончательно закончилась. Если ты до сих пор тратишь по два часа на написание пайплайна для базовой обработки фичей, то ты уже проиграл тем, кто освоил вайбкодинг. И что из…
Please open Telegram to view this post
VIEW IN TELEGRAM
Мы сошли с ума и в этот раз, в последний день месяца отдаем сразу весь нас полный комбо-пакет из 5 курсов абсолютно со всеми курсами про AI со сниженной ценой, который до утра еще и со скидкой 50% сверху для тех, кто не спит!
https://stepik.org/a/265656
промокод ONE на 50%
В итоге экономия 65%💀
https://stepik.org/a/265656
промокод ONE на 50%
В итоге экономия 65%
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1