Machine learning Interview
40.1K subscribers
1.17K photos
87 videos
14 files
803 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🤖 Вот сравнение GPT‑5 и Grok 4:

На бенчмарке *Humanity’s Last Exam* модель GPT‑5 с тулзами показывает результат между Grok 4 и Grok 4 Heavy.

Другими словами, GPT‑5 с тузами обходит обычную Grok 4, но всё ещё уступает Grok 4 Heavy.

Интересно, как они покажут себя на других бенчмарках
👍307🔥6
Невероятные достижения Chatgpt-5

@machinelearning_interview
😁11113👍4🔥4😭3🤔1👨‍💻1
🚀 Qwen3-30B-A3B-2507 и Qwen3-235B-A22B-2507 теперь поддерживают контекст до 1 млн токенов!

🔧 Технологии под капотом:
Dual Chunk Attention (DCA) — метод экстраполяции длины, который делит длинные последовательности на управляемые блоки, сохраняя глобальную связность.
MInference — разреженное внимание, уменьшающее вычислительные затраты за счёт фокуса на ключевых токенах.

💡 Что это даёт:
- Более высокая точность генерации на длинных контекстах
- До 3× быстрее инференс на последовательностях, близких к 1M токенов
- Полная совместимость с vLLM и SGLang для эффективного развёртывания

📄 Подробности и включение функции — в карточках моделей:
https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507
https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507
https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507
https://huggingface.co/Qwen/Qwen3-30B-A3B-Thinking-2507
https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507
https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507
https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Instruct-2507
https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Thinking-2507

#Qwen #LLM #AI #LongContext
15👍8🔥4👨‍💻1
🧠 SmallThinker — новая серия LLM, нативно обученная для локального запуска

SmallThinker — это семейство языковых моделей, созданное с нуля для запуска на обычных устройствах:
📉 низкая память, 🐌 медленное хранилище, без GPU — и всё это без потери качества.

🔧 Технологии под капотом:
• Двухуровневая разреженность: MoE + sparse ReGLU (>60% нейронов неактивны)
• Pre-attention router: предсказание нужных экспертов заранее → читаем с SSD параллельно
• NoPE-RoPE гибрид: 1:3 глобальное:локальное внимание → KV-кэш в 4 раза меньше
• Кэширование и оффлоадинг экспертов → экономим CPU и дисковый ввод
• Sparse LM head: предсказываем подмножество словаря, не нужен полный софтмакс
• Чекпойнт-мёрджинг: баланс между универсальностью и инструкционной точностью

⚙️ Производительность (CPU-only, Q4_0):
🪶 4B-A0.6B (1 ГБ ОЗУ): 82.3% HumanEval, 66.1% MMLU, 108 ток/с
🚀 21B-A3B (8 ГБ ОЗУ): 89.6% HumanEval, 84.4% MMLU — на уровне Qwen3‑30B, но с 85× меньшим потреблением памяти

🏃‍♂️ Работает на CPU, ARM, Raspberry Pi — 20–108 токенов/сек.
📦 Полностью open-source. Готово к локальному использованию без компромиссов.

#LLM #SmallThinker #AI #LocalLLM #OpenSource

HF: https://huggingface.co/PowerInfer
PAPER: https://arxiv.org/abs/2507.20984
🔥22👍13🥰103👨‍💻1
🧠 R-Zero: самообучающийся LLM для развития навыков рассуждения без исходных данных

💡 Идея
Большинство современных моделей рассуждения (reasoning LLM) зависят от огромных объёмов размеченных человеком данных и задач. Это тормозит развитие ИИ за пределы человеческого уровня, потому что сбор таких датасетов дорог и ограничен.
R-Zero предлагает иной путь — полностью автономное обучение с нуля, без единой готовой задачи или метки.

🔧 Как это работает
1. Берётся одна базовая LLM.
2. Создаются две её копии с разными ролями:
- Challenger (Испытатель) — придумывает задачи на грани возможностей модели.
- Solver (Решатель) — пытается их решить.
3. Каждая роль обучается отдельно:
- Испытатель получает награду за сложность и новизну задач.
- Решатель получает награду за успешное решение.
4. Этот цикл формирует саморазвивающуюся учебную программу — задачи постепенно усложняются, и обе модели эволюционируют.

📈 Результаты
- Улучшение математического рассуждения: +6.49 балла на бенчмарках.
- Рост общего уровня рассуждения: +7.54 балла.
- Работает на разных архитектурах, например, Qwen3-4B-Base заметно усилился после обучения через R-Zero.

🚀 Почему это важно
- Полная независимость от размеченных датасетов.
- Автоматическая генерация и усложнение задач.
- Масштабируемый путь к моделям, которые учатся быстрее и шире, чем позволяют человеческие данные.
- Может ускорить прогресс в ИИ-системах, приближая их к супер-интеллекту.

🔮 Потенциал
- Обучение специализированных reasoning-моделей для науки, инженерии, медицины.
- Быстрая адаптация ИИ под новые, ранее не встречавшиеся задачи.
- Возможность самообучения в симуляциях без внешних инструкций.

🟢Github
🟢Paper
Please open Telegram to view this post
VIEW IN TELEGRAM
22👍15🔥8👨‍💻1
🎨 X-Omni от Tencent: прорыв в text-to-image генерации. Новая модель X-Omni демонстрирует, как reinforcement learning может вывести авторегрессионные text-to-image системы на новый уровень. В основе — гибридная архитектура: SigLIP-VQ токенизирует изображения, Qwen2.5-7B обрабатывает мультимодальные данные, а диффузионный декодер FLUX.1-dev завершает рендеринг.

Интерес вызывает комплексная reward-система, оценивающая результат по эстетике, семантике и читаемости текста. На тестах модель превзошла GPT-4o в рендеринге надписей, особенно для китайского языка. При этом X-Omni стабильно работает без CFG, что выделяет её среди аналогов.

🔗 Ссылка - *клик*
👍19🔥95🥱2👨‍💻1
🍏 Apple выпустила мощный open-source инструмент для визуализации эмбеддингов — Embedding Atlas.
Идеально подходит для работы с большими наборами текста и метаданных.

Что он умеет:
Мгновенный поиск
Отрисовка миллионов точек в реальном времени
Автоматическая кластеризация с подписями
UMAP-проекции
Фасетный поиск по метаданным (например, "страна vs. цена")
Подсказки и ховеры по точкам
Интерактивные фильтры, гистограммы, оверлеи кластеров
Связанные scatterplot + таблицы

Под капотом:
• WebGPU (с WebGL-фолбэком) для быстрой отрисовки
• Поиск по смысловому сходству в эмбеддингах
• Kernel density contours для поиска кластеров и выбросов

Пример Apple: визуализация ~200K отзывов о вине с метаданными (цена, страна, заметки о вкусе) — всё летает прямо в браузере, без допкода.

Загружаешь .jsonl или .csv с текстом, векторами и метаданными — инструмент сам делает кластеризацию, разметку и строит UI.

Это как Tableau для LLM-разработчиков: оптимизировано под текст, чат и современные датасеты.
Отлично подойдёт для RAG-оценок, тюнинга поиска, объяснения кластеров и аудита данных.

📌 Github
🔥3611🥰7👨‍💻2
🔥 БЕСПЛАТНЫЙ КУРС ПО СОЗДАНИЮ НЕЙРО-СОТРУДНИКОВ НА GPT И ДРУГИХ LLM 🔥

Ищете практический и углубленный курс, чтобы освоить создание нейро-сотрудников? Мы создали курс из 5 объемных занятий. Это именно то, что нужно, чтобы прокачать свои навыки абсолютно бесплатно!

📌 Темы занятий:
1. Введение в мир нейро-сотрудников
2. Как работают LLM и их аналоги
3. Создание базы знаний для нейро-сотрудника (RAG)
4. Тестирование и отладка нейро-сотрудников
5. Интеграция нейро-сотрудников в Production

Вот 5 тем курса - он максимально простой и доступный, общеобразовательный, без какого-либо сложного программирования 📚Прохождение этого курса, скорее всего, займет у вас от 1 до 3 часов

🤖 Присоединяйтесь к нашему бесплатному курсу и разберитесь в этой увлекательной теме с нами!
13😁10👍6🤔1👨‍💻1
🎨 Dreambooth-Stable-Diffusion — инструмент для тонкой настройки Stable Diffusion под конкретные объекты или стили. Позволяет обучить модель на ваших фотографиях, артах или предметах, чтобы затем генерировать их в разных контекстах.

Проект поддерживает работу на облачных сервисах и локальных машинах, включая Windows. Особенно полезен для цифровых художников и кинематографистов, которые хотят интегрировать собственные элементы в генерацию изображений.

🤖 GitHub

@machinelearning_interview
🤔12🔥10👍5🥰2👨‍💻2
✔️ Сheating daddy - поможет готовься к самым сложным собеседованиям эффективно.

Инструмент помогает:
• Тренировать ответы для HR и техблока.
• Подбирать точные формулировки и структуры ответов.
• Разбирать примеры кода и типовые задачи.
• Освежать в памяти ключевые алгоритмы и структуры данных.
• Находить и исправлять технические неточности в объяснениях.

Без «невидимых» подсказок во время интервью — только качественная подготовка. Поддерживает популярные LLM-API, работает быстро и стабильно.

Готовься умно — выходи на оффер увереннее.

📌 Github

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍219🔥8
Forwarded from Machinelearning
⚡️ Nvidia на SIGGRAPH 2025: самое главное.

На конференции SIGGRAPH 2025 Nvidia представила свою центральную концепцию — "Физический ИИ".

Это конвергенция ИИ и компьютерной графики для создания систем, способных действовать в реальном мире, будь то роботы, автономные автомобили или умная инфраструктура.

🟡Новое железо на архитектуре Blackwell.

Для дата-центров представили GPU Nvidia RTX PRO 6000 Blackwell Server Edition для стандартных корпоративных серверов форм-фактора 2U. Системы на его базе смогут достигать до 45 раз более высокой производительности и в 18 раз лучшей энергоэффективности по сравнению с чисто процессорными решениями.

Тензорные ядра пятого поколения с поддержкой формата FP4 бустят инференс в 6 раз по сравнению с предыдущим поколением L40S.

Для рабочих станций анонсировали две компактные видеокарты: Nvidia RTX PRO 4000 SFF Edition и RTX PRO 2000 Blackwell.

Первая обеспечивает до 2.5 раз более высокую производительность в ИИ-задачах при том же энергопотреблении в 70 Вт, а вторая в 1.4 раза быстрее в CAD-приложениях.

🟡Физический ИИ для робототехники.

Для Omniverse анонсировали новую библиотеку NuRec, которая реконструирует реальные окружения из данных сенсоров с помощью 3D Gaussian splatting.

Приложения для симуляции Isaac Sim 5.0 и Isaac Lab 2.2 теперь доступны в виде опенсорс-проектов на GitHub.

В качестве примера показали кейс Amazon, где CAD-модели новых продуктов загружаются в Isaac Sim для генерации более 50 000 синтетических изображений. На этих данных обучаются ИИ-модели, которые затем управляют роботизированными манипуляторами для контроля качества продукции — и все это без каких-либо физических модификаций оборудования.


🟡Новые семейства ИИ-моделей.

Для корпоративных задач линейку Nemotron расширили моделями Nemotron Nano 2 и Llama Nemotron Super 1.5. Они предназначены для выполнения сложных многоэтапных задач в кибербезопасности или клиентском сервисе.

Специально для "Физического ИИ" была разработана 7-миллиардная VLM Cosmos Reason. Ее задача - позволить роботам и агентам интерпретировать физический мир, используя априорные знания, понимание физики и "здравый смысл". Эту модель уже использует Uber для для анализа поведения автономных автомобилей.

🟡Платформа для умных городов и производств Metropolis.

Платформа дополнена интеграцией с VLM Cosmos Reason, новыми vision-моделями в TAO Toolkit и расширениями для Isaac Sim, позволяющие генерировать редкие сценарии обучения.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥63
GPT-5 - настоящий гений, говорили они
😁546🔥6👍5
🔥 Маск обвинил Apple в нарушении антимонопольного законодательства

Поводом стало размещение в App Store — Apple отказалась добавить X и Grok от xAI в секцию “Must Have”, хотя X лидировал в новостных чартах, а Grok был близок к топу общего рейтинга.

📈 Накануне xAI сделали Grok 4 бесплатным для ограниченного числа запросов, что резко ускорило установки и подняло приложение в топ.


@machinelearning_interview
🔥2910👍5🤣5
📘 Готовитесь к ML-собеседованию? На Stepik вышел курс — «Vector DB & RAG Developer»

Этот курс закрывает типичные вопросы интервью: эмбеддинги, ANN-индексы (HNSW/IVF/IVF-PQ), тюнинг ef_search/M, выбор индекса под 1–10 млн векторов, метрики Recall@K / nDCG и ошибки RAG.

🔍 Что вы получите:
• Практика с Qdrant, Weaviate, FAISS: от эмбеддингов до продакшн-RAG
• 200+ интерактивных заданий и кейсов в стиле собес-вопросов
• Лабы с ручным рецензированием + готовые Python-шаблоны
• Чек-листы для интервью: «как объяснить HNSW», «как обосновать метрики», «как выбрать индекс»

🎓 Cертификат Stepik — добавьте в резюме или LinkedIn

🚀 Начните сегодня и получите скидку 25 % в течение  24 часов

👉 Пройти курс на Stepik
18👍14🥰4🐳2🤣1
🚀 SWE‑Swiss: рецепт обучения LLM для быстрого решения багов

SWE‑Swiss-32B — модель с 32 млрд параметров, оптимизированная для эффективного исправления программных проблем.

Что входит в рецепт обучения:
- Мulti‑Task Fine‑Tuning + Reinforcement Learning — обучаем модель сразу на нескольких навыках и усиливаем через RL.
- Ключевые навыки:
- Локализация ошибок (файлы)
- Генерация патчей
- Создание unit-тестов

По результатам тестов на SWE‑bench Verified, модель показывает производительность на уровне передовых закрытых моделей, несмотря на свою среднюю размерность.

Плюсы:
- Доступно на Hugging Face под лицензией MIT
- Использует transformers — просто интегрировать в пайплайн

Почему это круто:
SWE‑Swiss — пример того, как грамотно комбинация мультизадочного обучения и RL позволяет добиться высоких результатов в решении понятийно сложных задач, делая LLM доступнее и эффективнее для разработчиков.

📑Notion: https://pebble-potato-fc6.notion.site/SWE-Swiss-A-Multi-Task-Fine-Tuning-and-RL-Recipe-for-High-Performance-Issue-Resolution-21e174dedd4880ea829ed4c861c44f88?pvs=143
💻Github: https://github.com/zhenyuhe00/SWE-Swiss
Please open Telegram to view this post
VIEW IN TELEGRAM
16👍11🔥9
🚀 Вышла Mistral Medium 3.1

- Повышена общая производительность
- Улучшен тон общения
- Обновлена и улучшена работа в вебе

Попробовать можно в Le Chat (стоит как модель по умолчанию)

или через API: mistral-medium-2508
👍25🔥118
🚀 LiveMCPBench — новый бенчмарк для LLM-агентов в мире инструментов MCP

Что это:
LiveMCPBench тестирует ИИ-агентов в масштабных, реалистичных сценариях с использованием MCP (Model Context Protocol) — стандарта для взаимодействия модели с внешними данными, API и инструментами.

Ключевые факты:
- 95 реальных задач в экосистеме MCP
- 70 MCP-серверов и 527 инструментов в коллекции LiveMCPTool
- Автоматическая оценка через LiveMCPEval (LLM-судья) с точностью 81 % по сравнению с экспертами
- Протестировано 10 ведущих моделей: лидер — Claude-Sonnet-4 с результатом 78.95 % успеха

Почему это важно:
LiveMCPBench — первый воспроизводимый фреймворк, который проверяет, как агенты справляются с обилием инструментов и динамично меняющейся средой.

🔗 Подробнее: https://icip-cas.github.io/LiveMCPBench
👍18🔥107