Machine learning Interview
43K subscribers
1.22K photos
90 videos
14 files
828 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
⚡️ DreamOn — open-source модель для гибкого заполнения кода (code infilling) без фиксированного шаблона

Разработчики из DreamLM сделали Diffusion LLM, которая умеет вставлять недостающие фрагменты кода любой длины прямо во время генерации. Это значит — никакого ограничения на размер “маски” и больше свободы при автодополнении.

🔥 Фишки
— Заполнение кода в любом месте файла, без заранее заданной длины вставки.
— Несколько алгоритмов генерации (`entropy`, maskgit_plus, `topk_margin`).
— Возможность наблюдать процесс инфиллинга по шагам.
— Поддержка Python через transformers и torch.

Пример запуска

from transformers import AutoModel
model = AutoModel.from_pretrained("Dream-org/DreamOn-v0-7B", torch_dtype="bfloat16", trust_remote_code=True).to("cuda").eval()
output = model.diffusion_generate(..., alg="entropy", max_new_tokens=64)


🔗 GitHub: https://github.com/DreamLM/DreamOn
🔗 Модель: https://huggingface.co/Dream-org/DreamOn-v0-7B
👍1210🔥6
Media is too big
VIEW IN TELEGRAM
🦜 «Где обитает эта исчезающая птица?»
🦭 «Сколько тюленей рождается?»
🐠 «Снизилось ли количество лосося?»

DeepMind представила новую версию Perch — AI-модели, обученной анализировать звуки природы (от птичьих трелей до шумов коралловых рифов) и помогать исследователям быстрее выявлять угрозы в экосистемах. Первая версия уже скачана более 250 000 раз и интегрирована в инструменты вроде BirdNet Analyzer.

Что нового в Perch 2.0:
- Обучена на гораздо более широкой выборке видов: птицы, млекопитающие, амфибии, антропогенные шумы. Данных почти в два раза больше, чем в оригинале.
- Лучше адаптируется к новым условиям, включая подводные сцены, например, коралловые рифы.
- Открыта для использования — модель доступна в open-source на Kaggle.

Примеры применения:
- Австралия: с помощью Perch обнаружили новую популяцию редкого Plains Wanderer.
- Гавайи: модель распознала трели редких honeycreeper-ов. Обработка звуков стала в 50 раз быстрее, что критично для мониторинга видов под угрозой исчезновения.

Как это работает:
- Совмещены vector search и active learning, что позволяет создать классификатор на основе одного примера звука.
- В статье "The Search for Squawk: Agile Modeling in Bioacoustics" подробно описан этот подход.

Почему это важно:
- Звуки природы дают данные о здоровье экосистем и численности видов.
- Perch 2.0 позволяет быстро анализировать огромные объёмы записей и находить нужные сигналы без потери точности.
- Это реальный вклад AI в экологию: больше времени на действия, меньше — на ручной анализ.



📌 Подробнее
17👍7🔥4
📢 Grok 2 теперь в открытом доступе!

Модель уже устарела, но то, что её веса выложили на Hugging Face — большой шаг для сообщества. 🚀
Это показывает: xAI не забывает про опенсорс и готова делиться даже старыми наработками.

Было бы круто, если бы и другие компании делали так же — выкладывали веса «списанных» моделей.

Полезно было бы иметь открытые GPT-4.5 или Claude 3 Opus.

🔗 https://huggingface.co/xai-org/grok-2
👍25🔥93😁3🍌3
🔥Приглашаем вас на три бесплатных вебинара курса «Machine Learning. Professional»🔥

📚Вебинар №1: «Практические методы борьбы с выбросами (outliers) данных в ML»

25 августа в 18:00 мск

На вебинаре:
• Познакомитесь технологиями обнаружения и борьбы с выбросами
• Узнаете основные методы поиска аномалий
• Научитесь применять их на практике

📚Вебинар №2: «Практические методы построения рекомендательных систем»

1 сентября в 18:00 мск

Вебинар посвящён построению рекомендательных систем на основе алгоритма матричного разложения - SVD, крайне популярного среди рекомендательных систем.
Изучим данный алгоритм в теории и научимся применять его на практике.

📚Вебинар №3: «Машина времени: как рекуррентные сети учатся помнить прошлое»

15 сентября в 20:00 мск

На вебинаре:
• Как RNN хранят информацию, чем LSTM и GRU лучше обычных рекуррентных сетей и почему vanishing gradient — главный враг долгой памяти.
• Код и архитектуры – live-разбор PyTorch/TensorFlow-кода: построим свою RNN-модель для обработки текста или временных рядов.
• Дополнительные практические кейсы – предсказание курсов акций, генерация текста и другие примеры, где память нейросетей решает все.
• Ответы спикера на ваши вопросы

🎁Участники вебинаров получат подарки на почту🎁

Регистрация на вебинары ➡️ OTUS.RU


Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963
👍5🤣3🔥1
💡 Memory-Amortized Inference (MAI)

Авторы новой работы предлагают свежий взгляд на то, как может работать интеллект:
не пересчитывать всё заново, а переиспользовать ранее найденные решения в виде «циклов вывода» (inference loops).

🔎 Как это устроено
- Система хранит в памяти готовые «циклы решения задач».
- Когда приходит новый ввод, она достаёт похожий цикл и слегка подстраивает его под ситуацию.
- Получается экономия вычислений и устойчивое поведение — как использовать проверенный плейбук и менять пару шагов, вместо написания нового.

⚙️ Принцип MAI
1. Retrieval — извлечь из памяти похожий цикл.
2. Update — внести маленькие коррекции под текущий контекст.

Петля замыкается сама на себя, поэтому внутреннее состояние остаётся стабильным и не «уплывает».

📊 Почему это важно
- Сокращает вычисления и энергию.
- Даёт встроенный приоритет простым и проверенным решениям.
- Работает как встроенное «смещение» в сторону объяснений, которые уже работали.
- В отличие от RL, который «толкает» ценность вперёд от наград, MAI «вытягивает» причины назад из памяти — так планирование можно делать вперёд, а вывод назад, и они усиливают друг друга.

🧠 Связь с мозгом
Авторы связывают MAI с работой кортикальных колонок: прямые пути делают обновления, обратные пути извлекают память — похоже на предиктивные кодирующие петли мозга.

👉 Практический вывод: храните стабильные вычислительные циклы, начинайте каждую задачу с них и корректируйте минимально. Это путь к энергоэффективному и надёжному ИИ.

📑 Paper: *Beyond Turing: Memory-Amortized Inference as a Foundation for Cognitive Computation*

🔗 arxiv.org/abs/2508.14143
9🔥6👍5
📘 На Stepik вышел курс — «Prompt Engineering: искусство работы с ИИ»
Хотите научиться эффективно работать с ChatGPT и другими LLM? Этот курс покажет, как превращать идеи в точные промты и получать ответы именно в том формате, который нужен — будь то код, аналитика, тексты или автоматизация процессов.
• От простых запросов до сложных цепочек промтов
• Управление стилем, тоном и форматом ответа (JSON, код, таблицы)
• Автоматизация рабочих процессов без программирования
• Проверка и доработка ответов модели, минимизация ошибок и «галлюцинаций»
• Реальные кейсы: маркетинг, образование, IT, менеджмент
• Практика на каждом шаге + задания в доступной форме
🎓 Сертификат по завершении — добавьте его в резюме или LinkedIn
🚀 Освойте одну из самых востребованных профессий будущего — промт-инженера. Начните уже сегодня и получите скидку 25% в течение 48 часов
👉 Пройти курс на Stepik

Реклама. Крупчатников М.С. ИНН 344412054704.
🤣167
👨‍💻 Omnara — Mission Control для AI-агентов

Что это?
Omnara — это «диспетчерская» для ваших AI-агентов. С её помощью можно управлять и наблюдать за работой агентов в реальном времени: через терминал, веб-интерфейс и мобильное приложение.

Возможности
- Отслеживание всех шагов агента в реальном времени.
- Push-уведомления, когда агент ждёт обратной связи.
- Ответы и контроль прямо с телефона или браузера.
- Единый дашборд для всех агентов.

Почему это удобно
- Не нужно сидеть за ПК, чтобы держать процесс под контролем.
- Всё open-source, можно разворачивать самостоятельно.
- Подходит как для разработчиков-одиночек, так и для команд.

👉 Omnara делает взаимодействие с AI-агентами гибким и удобным: вы всегда в курсе, что они делают, и можете вмешаться в любой момент.

🔗 GitHub

@pythonl
13👍7🥰3
This media is not supported in your browser
VIEW IN TELEGRAM
🎤 Microsoft выкатил **VibeVoice** — новую SoTA модель Text-to-Speech (TTS) на **1.5B параметров** под лицензией MIT 🔥

Возможности
- 🎧 Генерация до 90 минут аудио за раз
- 👥 Поддержка >4 голосов одновременно
- Режим стриминга + готовится версия на 7B
- 🌍 Кросс-языковая генерация и даже синтез пения 🎶
- 🎭 Управление эмоциями и экспрессивностью речи

Это делает VibeVoice одним из самых мощных и доступных open-source TTS-решений прямо сейчас. Огромный шаг от Microsoft в сторону открытых голосовых технологий! 🚀

https://huggingface.co/microsoft/VibeVoice-1.5B

@machinelearning_interview
19👍7🥰2
Google все таки стояли за Nano Banana и намается она теперь Gemini Native Image.

Эта модель для редактирования изображений- мощный коктейль из Photoshop, Figma и MidJourney!

Gemini Native Image — качество редактирования Которое не имеет аналогов.

Что он умеет? Попробуйте, она стоит вашего времени:

• Заменяет объекты на фото, сохраняя остальное — без артефактов и искажений.
• Реставрирует старые снимки — родственники будут в шоке!
• Раскрашивает фото как профи-колорист.
• Удаляет фон идеально чисто.
• Меняет освещение на снимке.
• Всё — через один интуитивный промпт: просто опишите, что хотите!

Посмотрите примеры — модель просто огонь! 🔥

Доступна беcплатно в aistudio: http://aistudio.google.com/prompts/new_chat


@machinelearning_interview
20🔥7👍6
Forwarded from Machinelearning
📌DeepConf: фильтрация мусорных СoT c высокой точностью.

Deep Think with Confidence (DeepConf) - способ улучшить рассуждения LLM, который в отличие от стандартного голосования по большинству, предлагает фильтровать варианты на лету, используя внутренние сигналы уверенности самой модели.

Идея в том, чтобы не ждать генерации полной цепочки рассуждений, а отслеживать её качество в реальном времени. Для этого придумали метрику "групповой уверенности" (group confidence) — усредненную уверенность модели на небольшом скользящем окне токенов.

Если эта метрика падает ниже определенного порога, генерация траектории рассуждения просто останавливается. Это позволяет отсекать низкокачественные цепочки на ранней стадии, экономя огромное количество токенов. При этом сам метод не требует дополнительного обучения или тюнинга гиперпараметров.

🟡DeepConf работает в 2 режимах.

В офлайн-режиме, когда все варианты уже сгенерированы, он позволяет применять взвешенное голосование или фильтрацию. Вместо простого подсчета голосов, каждый ответ взвешивается по уверенности породившей его цепочки рассуждений.

Результаты на бенчмарке AIME 2025: для GPT-OSS-120B стандартное голосование по 512 вариантам (cons@512) даёт точность 97.0%. Взвешивание с фильтрацией по уверенности (DeepConf@512) поднимает эту планку до 99.9%, практически решая бенчмарк.

🟡Но самый большой выигрыш даёт онлайн-режим.

Здесь происходит та самая ранняя остановка генерации. Для GPT-OSS-120B на том же AIME 2025 DeepConf в агрессивной конфигурации DeepConf-low сокращает количество сгенерированных токенов на 84.7% по сравнению с полной генерацией 512 вариантов. При этом точность не только не падает, а даже немного растeт — с 97.1% до 97.9%.

В более консервативном режиме, DeepConf-high, экономия токенов составляет 56.0%, а точность остается на уровне 97.0%. Схожие результаты наблюдаются и на моделях DeepSeek-8B и Qwen3-32B, где экономия токенов достигает 77.9% и 66.8% соответственно.

Для оценки уверенности прогнали несколько метрик, но наиболее эффективными оказались те, что фокусируются на слабых местах в рассуждениях. Например, метрика Bottom 10% Group Confidence (средняя уверенность по 10% наименее уверенных групп токенов) и Tail Confidence (уверенность на последних токенах цепочки) оказались лучше, чем простое усреднение по всему трейсу.

Порог для ранней остановки определяется на лету для каждого нового промпта. Сначала генерируется небольшое количество "разогревочных" трасс, на основе которых вычисляется порог уверенности. Затем запускается основная генерация, и любой вариант, чья групповая уверенность падает ниже этого порога, немедленно останавливается.

▶️Попробовать DeepConf на практике можно пока только в vLLM, есть примеры для онлайн и оффлайн режима. Отдельного репозитория проекта пока нет.


🟡Страница проекта
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #CoT #DEEPCONF
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3😱3🥰2🔥1
📘 На Stepik вышел курс — «MLOps с нуля: как довести модель до продакшна»

Начинаете путь в MLOps и хотите понять, как перевести ML-модель из ноутбука в реальный продукт? Этот курс — именно то, что нужно.

🔍 Что вы получите:
• Понимание полного жизненного цикла ML-модели: от обучения до мониторинга
• Практику с современными инструментами: Docker, Kubernetes, CI/CD, MLflow
• Опыт построения воспроизводимых пайплайнов и управления экспериментами
• Навыки автоматизации и работы с инфраструктурой для реального продакшна

🎓 Сертификат по завершении — добавьте его в резюме или профиль LinkedIn

🚀 Сделайте шаг к профессии MLOps-инженера. Начните уже сегодня и получите скидку 25%, которая действительна в течение 24 часов

👉 Пройти курс на Stepik
🤣3❤‍🔥2👍1🔥1