Machine learning Interview
35.4K subscribers
1.15K photos
86 videos
14 files
786 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
Forwarded from Machinelearning
🔥 Новые модели OpenAI нашли в релизе Transformers 4.55

GPT-OSS — опенсорс модели для продвинутого reasoning и агентных задач.

🧠 Представлено два варианта:
GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
GPT-OSS-20B — 21B параметров, работает на 16GB GPU (или даже локально!)

💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4

✔️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o

Младшая модель может запускаться даже на локальном железе — идеально для on-device и edge-девайсов

🧠 GPT‑OSS‑120B — запускается на одной 80GB GPU
GPT‑OSS‑20B — запускается на 16GB GPU

🏴‍☠️Лицензирование: Apache 2.0

https://github.com/huggingface/transformers/releases/tag/v4.55.0

💥 Официальный релиз: http://openai.com/open-models

@ai_machinelearning_big_data


#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍257🔥4👨‍💻2
🚨 MiniCPM‑V 4.0 - не chatgpt едимным!

Что нового:
🧱 4.1B параметров
🧠 По визуальному пониманию догоняет GPT‑4.1‑mini (по OpenCompass)
Работает на iPhone 16 Pro Max — 17.9 токенов/сек
📊 69.0 баллов на OpenCompass (против 65.2 у MiniCPM‑V 2.6 8B)
🔥 Маленькая модель, большая мощность

📁 GitHub: https://github.com/OpenBMB/MiniCPM-o
🤗 Hugging Face: https://huggingface.co/openbmb/MiniCPM-V-4

#AI #LLM #MLLMs #MiniCPM #EdgeAI
🔥155👍3👨‍💻1
Когда гайды молчат, важно услышать себя

Если вы только начинаете путь в ML, хотите сменить профессию или находитесь в поиске направления после учёбы — информации вокруг много, но она не всегда помогает сориентироваться. Туториалы быстро устаревают, статьи противоречат друг другу, а самые важные вопросы остаются без ответов: с чего начать? Какие навыки нужны? Как построить маршрут к первой работе?

7 августа в 18:00 по МСК karpovꓸcourses проведут бесплатный вебинар с Нерсесом Багияном, руководителем направления по работе с данными. Он поделится своей карьерной историей — от стажера до руководителя направления — и расскажет, как сегодня выглядит работа ML-инженера, какие задачи он решает и какие навыки важны в 2025 году. Все на примерах из реального опыта.

Если вы ищете точку опоры в старте карьеры — начните с этого вебинара: https://clc.to/erid_2W5zFGq4jZ2

Это старт Data-интенсива: от новичка до оффера, который поможет сориентироваться в сфере Data Science и перейти к первым шагам 🤝🏻

Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGq4jZ2
😁9🤪32👨‍💻1
🧠 StepFun‑Prover Preview: 32B‑модель обучилась доказывать теоремы, общаясь с Lean 4

📌 Что делает классический prover :
Он просто перебирает возможные доказательства, не зная, в каком направлении двигаться. Это как угадывать код на замке: пробуешь один вариант, не подошло — пробуешь следующий.

📌 Что делает новая модель StepFun‑Prover)
Она "разговаривает" с Lean 4 — проверяющей системой формальных доказательств. Если модель предлагает доказательство и Lean выдает предупреждение или ошибку, модель читает это как обратную связь и учится. В следующий раз она делает более точную попытку.

🧠 В итоге:

Вместо перебора 30+ вариантов вслепую, как у обычных систем, модель с первого раза решает до 70 % задач, потому что понимает и учитывает отклик от системы.

Это как решать задачу в школе, где тебе не просто говорят «неправильно», а объясняют, что именно не так — и ты быстро учишься.

🔍 Как это работает:
- Исходные задачи из Lean очищаются и превращаются в набор для обучения синтаксису и вызовам тактик.
- На этих данных обучаются 7B и 32B‑модели на базе DeepSeek, с последующей правкой ошибок Kimina‑Prover.
- Модель учится смешивать обычный текст, код на Lean и sandbox‑ответы — всё в одном длинном контексте.
- Вознаграждение бинарное: если Lean-программа принимает доказательство — 1, иначе — 0.

📈 Результат:
- 32B‑модель обходит конкурентов на 72B более чем на 5 % (при этом использует **1 попытку вместо 32**).
- Увеличение длины контекста с 4K до 20K токенов повышает pass@1 с 58 % до 70 %.
- Модель сокращает доказательства, читая варнинги и на лету рефакторя тактики.

📦 Open‑веса (7B и 32B) выйдут скоро — можно будет запускать даже на скромном GPU.

📄 Paper: https://arxiv.org/abs/2507.20199
👍94🥰3👨‍💻1
👿 26 августа Яндекс проведёт в Санкт-Петербурге Data Dojo: мероприятие для сообщества ML-экспертов

Будем обсуждать востребованные направления машинного обучения, разбирать реальные задачи из соревнований и общаться с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.

Николай Савушкин, руководитель команды рекомендательных технологий в Поиске, расскажет, как устроена персонализация и как работают большие генеративные модели в рекомендательных системах Яндекса. А Алексей Колесов, руководитель команды NLP, поделится, каких успехов за последнее время добилась команда R&D в Яндексе, и какие вызовы стоят перед ними в ближайший год.

Вечером — дискуссия с секретным гостем, а после — afterparty с музыкой и напитками.

Если хотите стать спикером, необходимо заполнить специальную форму до 13 августа. Программный комитет выберет одну из заявок и пригласит её автора выступить на встрече.

Если хотите участвовать, то нужно заполнить анкету до 20 августа.

🪷 В додзё не приходят случайно. Набирайтесь мудрости в сильнейшем ML-комьюнити.
👍5🥰4🤣3🔥1👨‍💻1
🚀 Опенсорс от OpenAI теперь в Yandex Cloud AI Studio

OpenAI впервые с 2019 года открыла исходники своих рассуждающих моделей — gpt‑oss‑120b и gpt‑oss‑20b. Уже сегодня их можно гонять по API в Yandex Cloud.

Сравнимо с o3‑mini и o4‑mini, в ряде задач — лучше GPT‑4o и o1
Настраиваемая интенсивность reasoning + скорость генерации
Хостинг и обработка данных в РФ — полное соответствие ФЗ‑152
Без мороки с мощностями, обновлениями и мониторингом

💡 Для чего: автоматизация рекрутмента и саппорта, анализ документов, первичная коммуникация с клиентами. Цена вопроса – 10 или 30 копеек за 1000 токенов в зависимости от модели.

Скоро — вызов функций и поиск в интернете прямо в ответе.

@machinelearning_interview
😁53🔥2👍1🥰1👨‍💻1