Machine learning Interview
36.4K subscribers
1.16K photos
87 videos
14 files
792 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🕰️ Passage‑of‑Time MCP — сервер, который даёт языковым моделям ощущение времени

Проект jlumbroso/passage‑of‑time-mcp — это Model Context Protocol (MCP) сервер, позволяющий LLM-моделям отслеживать время в диалоге и использовать его как инструмент для рассуждения.

Что он делает:

- Делает доступными функции:
current_datetime(), time_difference(t1, t2), timestamp_context(), time_since() и др. — они возвращают текущий момент, разницу между временными метками и контекст времени в понятной форме.
- Требует, чтобы ИИ вызывал current_datetime() при каждом ответе, формируя временной таймлайн диалога.
- Через несколько сообщений модель начинает замечать *структуру беседы*, интервалы между ответами и их ритм — и даже описывать это самостоятельно.

Для чего это нужно:

- Модели больше не "живут вне времени" — они получают датированные метки, не требуют ручного добавления времени в контекст.
- LLMs начинают понимать, что пользователь отключился на 3 часа или что диалог длится вечеринка — и предлагают адаптироваться.
- Вместо статического временного штампа — динамичное понимание времени, как в реальном общении.

Как это начать использовать:

1. Склонировать репозиторий и запустить сервер на Python (~35 s).
2. Подключить MCP-интеграцию в интерфейсе Claude.ai (Add Integrations → Custom → URL/sse).
3. Настроить инструменты и позволить модели вызывать их каждый ход.

Примеры применения:

- Анализ ритма беседы: Модель может заметить паузы от 20 с до 3 мин и предложить рекап перед сложным вопросом.
- Контекст ситуации: Claude видит, что сейчас вечер рабочего дня и предлагает более концентрированный подход к задаче.
- Организация времени: агент может отслеживать с

https://github.com/jlumbroso/passage-of-time-mcp
👍2411🔥7🥰1👨‍💻1
💥 Китайская AI-модель по математике — абсолютный прорыв

Свежая научная статья из Китая показала не просто сильную, а *лучшую в мире* AI-модель для решения олимпиадных задач по математике:

🏅 Модель взяла золото на IMO 2025
📈 Решает 78% всех задач прошлых IMO
🧠 Покрывает более 50% задач Putnam
Даёт 100% точность на miniF2F (тест от OpenAI)
⚔️ Обходит AlphaGeometry2 от Google

📌 Как работает:
- Использует формальные доказательства на языке Lean
- МОдель открыл новые методы для решения геометрии, которых раньше не было
- Первая лаборатория, которая опубликовала полноценную статью о внутренностях модели

AI в математике выходит на новый уровень — и Китай сейчас показывает, что он идет в авангарде открытий.

📌
Статья

@machinelearning_interview
👍4314🔥10👏2👨‍💻1
📚 Устали от скучных ML туториалов?

Вот полезная подборка:
300+ кейсов по ML-системам из реальной практики компаний вроде Stripe, Spotify, Netflix.

Тут не теория, а как всё реально работает в проде:
— как устроены пайплайны
— как деплоят модели
— как делают мониторинг
— какие ошибки бывают и как их решают

👍 Подойдёт для подготовки к собеседованиям и просто чтобы разобраться, как строят ML‑системы в крупных компаниях.

🔗 https://github.com/eugeneyan/applied-ml
28🔥10👨‍💻3🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 PyRoki — быстрый и простой тулкит для робототехники на Python

**Главное*:
- 1.7 × быстрее при вычислении обратной кинематики, чем аналоги
- Работает на CPU, GPU и TPU
- Полностью open-source, написан на чистом Python

Что умеет
- Обратная кинематика (IK): задаём точку, куда надо подать детали; IK рассчитывает, как повернуть каждый сустав.
- Оптимизация траекторий
- Ретаргетинг движений (перенос анимации на другого робота)

Почему это круто
- Обходит cuRobo по скорости, точности и проценту успешных решений
- Легко подключается к любому стеку: промышленные манипуляторы, симуляторы, гуманоиды
- Гибкая архитектура: расширяй модулями, добавляй свои костные цепи и метрики

Ссылки
- Сайт: http://pyroki-toolkit.github.io
- Репозиторий: https://github.com/chungmin99/pyroki
- Статья: http://arxiv.org/abs/2505.03728

💾 Сохрани пост, чтобы не потерять полезный инструмент!

@machinelearning_interview
21👍9🔥5👨‍💻1
Forwarded from Machinelearning
🔥 Новые модели OpenAI нашли в релизе Transformers 4.55

GPT-OSS — опенсорс модели для продвинутого reasoning и агентных задач.

🧠 Представлено два варианта:
GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
GPT-OSS-20B — 21B параметров, работает на 16GB GPU (или даже локально!)

💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4

✔️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o

Младшая модель может запускаться даже на локальном железе — идеально для on-device и edge-девайсов

🧠 GPT‑OSS‑120B — запускается на одной 80GB GPU
GPT‑OSS‑20B — запускается на 16GB GPU

🏴‍☠️Лицензирование: Apache 2.0

https://github.com/huggingface/transformers/releases/tag/v4.55.0

💥 Официальный релиз: http://openai.com/open-models

@ai_machinelearning_big_data


#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍289🔥5👨‍💻2
🚨 MiniCPM‑V 4.0 - не chatgpt едимным!

Что нового:
🧱 4.1B параметров
🧠 По визуальному пониманию догоняет GPT‑4.1‑mini (по OpenCompass)
Работает на iPhone 16 Pro Max — 17.9 токенов/сек
📊 69.0 баллов на OpenCompass (против 65.2 у MiniCPM‑V 2.6 8B)
🔥 Маленькая модель, большая мощность

📁 GitHub: https://github.com/OpenBMB/MiniCPM-o
🤗 Hugging Face: https://huggingface.co/openbmb/MiniCPM-V-4

#AI #LLM #MLLMs #MiniCPM #EdgeAI
🔥235👍4👨‍💻1
Когда гайды молчат, важно услышать себя

Если вы только начинаете путь в ML, хотите сменить профессию или находитесь в поиске направления после учёбы — информации вокруг много, но она не всегда помогает сориентироваться. Туториалы быстро устаревают, статьи противоречат друг другу, а самые важные вопросы остаются без ответов: с чего начать? Какие навыки нужны? Как построить маршрут к первой работе?

7 августа в 18:00 по МСК karpovꓸcourses проведут бесплатный вебинар с Нерсесом Багияном, руководителем направления по работе с данными. Он поделится своей карьерной историей — от стажера до руководителя направления — и расскажет, как сегодня выглядит работа ML-инженера, какие задачи он решает и какие навыки важны в 2025 году. Все на примерах из реального опыта.

Если вы ищете точку опоры в старте карьеры — начните с этого вебинара: https://clc.to/erid_2W5zFGq4jZ2

Это старт Data-интенсива: от новичка до оффера, который поможет сориентироваться в сфере Data Science и перейти к первым шагам 🤝🏻

Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGq4jZ2
😁14🤪53👨‍💻1
🧠 StepFun‑Prover Preview: 32B‑модель обучилась доказывать теоремы, общаясь с Lean 4

📌 Что делает классический prover :
Он просто перебирает возможные доказательства, не зная, в каком направлении двигаться. Это как угадывать код на замке: пробуешь один вариант, не подошло — пробуешь следующий.

📌 Что делает новая модель StepFun‑Prover)
Она "разговаривает" с Lean 4 — проверяющей системой формальных доказательств. Если модель предлагает доказательство и Lean выдает предупреждение или ошибку, модель читает это как обратную связь и учится. В следующий раз она делает более точную попытку.

🧠 В итоге:

Вместо перебора 30+ вариантов вслепую, как у обычных систем, модель с первого раза решает до 70 % задач, потому что понимает и учитывает отклик от системы.

Это как решать задачу в школе, где тебе не просто говорят «неправильно», а объясняют, что именно не так — и ты быстро учишься.

🔍 Как это работает:
- Исходные задачи из Lean очищаются и превращаются в набор для обучения синтаксису и вызовам тактик.
- На этих данных обучаются 7B и 32B‑модели на базе DeepSeek, с последующей правкой ошибок Kimina‑Prover.
- Модель учится смешивать обычный текст, код на Lean и sandbox‑ответы — всё в одном длинном контексте.
- Вознаграждение бинарное: если Lean-программа принимает доказательство — 1, иначе — 0.

📈 Результат:
- 32B‑модель обходит конкурентов на 72B более чем на 5 % (при этом использует **1 попытку вместо 32**).
- Увеличение длины контекста с 4K до 20K токенов повышает pass@1 с 58 % до 70 %.
- Модель сокращает доказательства, читая варнинги и на лету рефакторя тактики.

📦 Open‑веса (7B и 32B) выйдут скоро — можно будет запускать даже на скромном GPU.

📄 Paper: https://arxiv.org/abs/2507.20199
👍175🥰3👨‍💻1
👿 26 августа Яндекс проведёт в Санкт-Петербурге Data Dojo: мероприятие для сообщества ML-экспертов

Будем обсуждать востребованные направления машинного обучения, разбирать реальные задачи из соревнований и общаться с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.

Николай Савушкин, руководитель команды рекомендательных технологий в Поиске, расскажет, как устроена персонализация и как работают большие генеративные модели в рекомендательных системах Яндекса. А Алексей Колесов, руководитель команды NLP, поделится, каких успехов за последнее время добилась команда R&D в Яндексе, и какие вызовы стоят перед ними в ближайший год.

Вечером — дискуссия с секретным гостем, а после — afterparty с музыкой и напитками.

Если хотите стать спикером, необходимо заполнить специальную форму до 13 августа. Программный комитет выберет одну из заявок и пригласит её автора выступить на встрече.

Если хотите участвовать, то нужно заполнить анкету до 20 августа.

🪷 В додзё не приходят случайно. Набирайтесь мудрости в сильнейшем ML-комьюнити.
👍14🥰4🤣3🔥2👨‍💻1
🚀 Опенсорс от OpenAI теперь в Yandex Cloud AI Studio

OpenAI впервые с 2019 года открыла исходники своих рассуждающих моделей — gpt‑oss‑120b и gpt‑oss‑20b. Уже сегодня их можно гонять по API в Yandex Cloud.

Сравнимо с o3‑mini и o4‑mini, в ряде задач — лучше GPT‑4o и o1
Настраиваемая интенсивность reasoning + скорость генерации
Хостинг и обработка данных в РФ — полное соответствие ФЗ‑152
Без мороки с мощностями, обновлениями и мониторингом

💡 Для чего: автоматизация рекрутмента и саппорта, анализ документов, первичная коммуникация с клиентами. Цена вопроса – 10 или 30 копеек за 1000 токенов в зависимости от модели.

Скоро — вызов функций и поиск в интернете прямо в ответе.

@machinelearning_interview
😁199🔥5👍4🥰1👨‍💻1🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
Лайк, если тоже устали от хайпа вокруг ИИ

Нужен ли он бизнесу? Поймете с ML Impact – медиа про реальную пользу технологий в бизнесе от команды Selectel.

Собрали понятные материалы без технической воды:

- как технологии Edge AI трансформируют бизнес в 2025 году,
- как не переплатить за автоматизацию,
- как подготовить бизнес к запуску ML-проекта.

Переходите и читайте, чтобы внедрить ИИ в бизнес осознанно и без рисков: https://slc.tl/czuon

Реклама. АО «Селектел», ИНН 7810962785, ERID: 2VtzqvwetLH
👍13🤣116🥰1🤔1
💾 Awesome-Efficient-LLM — коллекция методов оптимизации больших языковых моделей. Этот репозиторий объединяет последние исследования по ускорению и сжатию LLM: от квантования и sparse-методов до архитектурных оптимизаций. Особенно полезны разделы про speculative inference и mixture-of-experts — ключевые направления для реального развертывания моделей.

Проект полезен инженерам, которые хотят внедрить LLM в production с минимальными затратами ресурсов. Все работы отсортированы по дате публикации и области применения.

🤖 GitHub

@machinelearning_interview
15👍8🔥4👨‍💻1
🧠 GPT‑5 по утечкам (или PR самого OpeAI) набрал 90% на SimpleBench — это уровень человека

По слухам, новый бенчмарк от Copilot показывает, что GPT‑5 достигает 90% точности на SimpleBench — наборе из ~200 сложных вопросов с множественным выбором.

Что тестирует SimpleBench:
• Пространственно-временное мышление
• Социальную логику
• Адверсариальные ловушки на здравый смысл

📌 Почему это важно:
90% — это уже уровень человеческого здравого смысла в таких задачах. А ведь модели до этого еле приближались к этим значениям даже с цепочками размышлений.

Если слух подтвердится — GPT‑5 не просто умнее. Он начинает понимать контекст как человек.

@machinelearning_interview
👍338🔥5😁4👨‍💻1💊1
Forwarded from Machinelearning
🔥 представлен ChatGPT-5

Модель выглядит очень круто, особенно в кодинге! На aime-2025 получила 100 процентов!

Альтман заявляет, что модель дадут даже бесплатным пользователям и прямо сегодня.

https://openai.com/index/introducing-gpt-5/

Стрим, кстати, смотрят 155 к человек: https://www.youtube.com/watch?v=0Uu_VJeVVfo

Пробуем: https://chatgpt.com/

@ai_machinelearning_big_data

#Chatgpt5
👍184🥰3