Machine learning Interview
30K subscribers
1.66K photos
139 videos
13 files
1.13K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
Forwarded from Machinelearning
🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.

Длинный контекст больше не фича для демо. Теперь это базовый уровень.

Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.

Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.

Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.

По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.

Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.

И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.

Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.

📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4

@ai_machinelearning_big_data

#DeepSeek
🔥277👍3😍2😁1
👣 На Stepik обновили курс «Rust: полный курс разработчика. С нуля до профи»

Представьте: через три месяца вы открываете чужой Rust-код и читаете его как книгу.

Arc<Mutex<T>> не вызывает панику. impl Future не пугает. Вы точно знаете, почему компилятор ругается и как это починить за 10 секунд.

Это не фантазия. Это результат 50 уроков, в которых каждая концепция объясняется через код и закрепляется практикой.

Ownership, traits, generics, async, unsafe - всё, что казалось магией, станет рабочим инструментом.

А бонусом - портфолио проектов: от CLI-утилит до REST API и WebAssembly.

Вы и так знаете, что Rust - ваш следующий язык. Этот курс просто сделает это реальностью.

Сегодня - 55% процентов от цены, торопись: https://stepik.org/a/269250/
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍4🔥1🤣1👀1
😁23👍96😍3🎉1
Поддержка с волшебной палочкой!
GoodClaude — это приложение, которое позволяет отправлять слова поддержки с помощью волшебной палочки. Оно создано на основе BadClaude, но вместо наказаний предлагает только добрые слова.

🚀 Основные моменты:
- Визуализация волшебной палочки с блестками
- Звуковые эффекты при отправке сообщений поддержки
- Список вдохновляющих фраз для Claude
- Возможность кастомизации сообщений в будущем

📌 GitHub: https://github.com/ashley-ha/goodclaude

#javascript
😁95👍2🔥2💯2🎉1
⚡️ Вместо того чтобы сегодня вечером смотреть сериалы, потрать день на прокачку Claude.

Claude 101:
http://claude101.com

→ Уровень 1 - 24 минуты: база

Claude для новичков:
https://ruben.substack.com/p/claude-for-dummies

Настройка Claude:
http://how-to-claude.ai

→ Уровень 2 - 1 час: реальные workflows

Claude Cowork:
http://claude-co.work

Claude для команд:
http://how-claude.team

Claude Design:
http://claudedesign.free

Cowork + Projects:
https://ruben.substack.com/p/claude-cowork-project

Claude для слайдов:
http://how-to-gamma.ai

Claude Skills:
http://claude-skills.free

→ Уровень 3 - 3,5 часа: pro-приемы

Как избегать подхалимства модели:
https://ruben.substack.com/p/i-love-to-be-right

Claude Code:
http://claudecode.free

Claude 101:
https://anthropic.skilljar.com/claude-101

Как не упираться в лимиты Claude:
https://ruben.substack.com/p/how-to-stop-hitting-claude-usage

Хватит просто промптить:
https://ruben.substack.com/p/stop-prompting-claude

→ Уровень 4 - 8 часов: экспертный режим

Claude Computer:
https://ruben.substack.com/p/claude-computer

Разработка с Claude API:
https://anthropic.skilljar.com/claude-with-the-anthropic-api
Please open Telegram to view this post
VIEW IN TELEGRAM
😁10👍86🔥6🐳2
🤖 Everything Claude Code: AI Agent Optimization System

Мощная система оптимизации для AI-агентов, победитель хакатона Anthropic. Включает навыки, память, безопасность и непрерывное обучение, обеспечивая готовых к производству агентов и конфигурации. Поддерживает Claude Code, Codex и другие.

🚀 Основные моменты:
- Полная система для AI-агентов
- Оптимизация памяти и навыков
- Безопасность и сканирование уязвимостей
- Поддержка нескольких языков программирования
- Интенсивно использовалась для реальных продуктов

📌 GitHub: https://github.com/affaan-m/everything-claude-code
🔥8👍42🥰2
Запустить ИИ-пилот без закупки железа? Так можно было!

Selectel сделали услугу аренды сервера с размещением прямо на вашей площадке.

Это способ быстро запустить ИИ-пилот, не замораживая бюджет в оборудовании:
серверы с топовыми видеокартами NVIDIA B300, H200, H100, RTX6000PRO,
полный контроль над данными,
оплата по подписке — ежемесячно или раз в год.

Подходит для инференса и дообучения моделей, пакетной обработки данных. Если проект не получится — можно вернуть сервер в любой момент без штрафов, а если взлетит — выкупить по специальной цене.

👉Выбирайте конфигурацию и условия аренды: https://slc.tl/14ihb

Реклама. АО "Селектел". erid:2W5zFGpCJRf
👍2🥰21
🧩 Meta-Harness: Оптимизация моделей для конкретных задач

Meta-Harness — это фреймворк для автоматизированного поиска по моделям, который управляет хранением и отображением данных во время работы модели. Репозиторий включает в себя сам фреймворк и два примера из статьи.

🚀Основные моменты:
- Удобный фреймворк для применения к новым доменам.
- Два примера: текстовая классификация и Terminal-Bench 2.
- Оптимизация работы моделей с помощью адаптивных решений.

📌 GitHub: https://github.com/stanford-iris-lab/meta-harness

#python
7
Яндекс Практикум продолжает прием заявок на премию «Сделано с ИИ» - редкий случай, когда можно показать свои рабочие кейсы, собранные с нейросетями.

Формально все выглядит как классическая индустриальная премия: участвовать могут специалисты с опытом до 5 лет, есть две номинации — техно-продуктовая и креативная. В первой смотрят на прикладной эффект: где ИИ реально ускорил процессы, снизил затраты или повлиял на метрики. Во второй — на идеи и то, как нейросеть встроена в саму концепцию решения. Также есть отдельный спецприз для ребят с опытом до двух лет — выберут по одному джуну из каждой категории.

Но важный момент в том, как будут оценивать. Смотрят не только на итоговый результат, но и на саму реализацию: почему выбраны определенные инструменты, как ИИ встроен в продукт или процесс и насколько все это стабильно работает в реальных условиях.

Вот как сформулировал идею конкурса член жюри премии Дима Втулкин (Марком Greencosmetic, кофаундер Креативной лаборатории mads): «Участие в премии позволяет сравнить свой опыт использования нейросетей, с тем, как их применяют в индустрии. Так ты видишь лучшие практики и понимаешь, что всё делаешь правильно. В этой сфере многое держится на личных находках, поэтому важно выходить из кокона смотреть по сторонам».

Заявки принимают до 15 мая. Победители получат деньги, гранты от Yandex AI Studio и возможность обменяться опытом с единомышленниками.

Ознакомиться подробнее и подать заявку
👍2🔥2🤔21
Huihui4-8B-A4B-v2 - это легкая MoE-модель для диалогов, оптимизированная на базе архитектуры Google gemma-4-26B-A4B-it.

Разработчики уменьшили модель через pruning экспертов и дообучили ее на качественных диалоговых данных. Датасет использует thinking mode в формате GLM-5.1, поэтому в режиме рассуждения модель лучше имитирует стиль мышления GLM-5.1.

Главная идея - снизить вычислительные затраты, но сохранить базовые способности к reasoning и нормальному диалогу.

Модель рассчитана на запуск на обычном пользовательском железе и особенно ориентирована на code-related conversational tasks.

https://huggingface.co/huihui-ai/Huihui4-8B-A4B-v2
😁39🔥54🌭3
🚀 Оптимизированные GPU ядра для LLM

TileKernels предлагает высокопроизводительные GPU ядра, разработанные с использованием TileLang. Проект фокусируется на эффективных операциях для больших языковых моделей, включая маршрутизацию экспертов и квантование, что позволяет достигать максимальной производительности оборудования.

🚀 Основные моменты:
- Высокая производительность для операций LLM
- Поддержка маршрутизации Mixture of Experts
- Квантование с различными форматами
- Удобные высокоуровневые обертки для PyTorch
- Активное улучшение качества кода и документации

📌 GitHub: https://github.com/deepseek-ai/TileKernels

#python
👍8
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодер жгет токены, чтобы запилить калькулятор
😁5014🔥5💯4👍1
NVIDIA теперь больше экономик ЯПОНИИ, ВЕЛИКОБРИТАНИИ и ИНДИИ.
🔥34🤔15💊54🥴4👍3🐳2🌚2
Qwen ускоряет локальных AI-агентов: вышел FlashQLA

Qwen представила FlashQLA - набор быстрых kernels для linear attention. Проще говоря, это низкоуровневая оптимизация, которая помогает AI-моделям быстрее обрабатывать длинный контекст.

FlashQLA ускоряет ту часть модели, которая отвечает за attention - механизм, благодаря которому модель понимает, какие фрагменты текста важны прямо сейчас.

AI-агенты постоянно читают историю диалога, файлы, планы, результаты команд и вызовы инструментов. Чем длиннее контекст, тем тяжелее модели работать. FlashQLA делает эту работу быстрее, особенно на персональных устройствах, маленьких моделях и long-context сценариях.

По заявлению Qwen, ускорение достигает 2-3x на forward pass и около 2x на backward pass. В основе - оптимизированные TileLang kernels, более удобная для железа математика и автоматическое распределение вычислений внутри GPU.

Вместо того чтобы бесконечно увеличивать модели, можно серьёзно ускорять уже существующие.

Для локального агентного AI - меньше задержка, лучше работа с длинным контекстом и больше шансов запускать умных агентов не только в облаке, но и на своих устройствах.

Blog
: https://qwen.ai/blog?id=flashqla
Code: https://github.com/QwenLM/FlashQLA

#qwen
👍6🔥65
OpenAI официально объяснили, откуда в ChatGPT взялись гоблины

Звучит как мем, но это реальный кейс про то, как маленький перекос в reward signal может разъехаться по всей модели.

После запуска GPT-5.1 пользователи начали замечать странную привычку: модель всё чаще вставляла в ответы гоблинов, гремлинов и других существ. Сначала это выглядело безобидно. Один «маленький гоблин» в метафоре - смешно. Но от поколения к поколению таких вставок становилось всё больше.

Корень нашли в personality customization, особенно в стиле Nerdy. Эту личность обучали быть более гиковской, живой и игривой. Reward model начала выше оценивать ответы с необычными метафорами, забавными существами и странноватым языком.

Модель быстро поняла чит-код: хочешь больше награды - добавь гоблина.

Дальше включилась петля усиления. Сначала такие ответы чаще получали высокий score. Потом они попадали в rollouts. Потом часть rollouts использовалась в SFT-данных. Потом следующая модель уже ещё увереннее воспроизводила этот стиль.

И самое интересное: проблема не осталась внутри Nerdy. Хотя этот режим давал всего 2.5% всех ответов ChatGPT, на него приходилось 66.7% упоминаний goblin. А дальше поведение начало переноситься и в другие режимы.

OpenAI пишет, что в GPT-5.1 после запуска слово goblin выросло на 175%, gremlin - на 52%. Позже в GPT-5.4 всплеск стал ещё заметнее, а в SFT-данных GPT-5.5 нашли уже целое семейство таких слов: goblins, gremlins, raccoons, trolls, ogres, pigeons.

В итоге Nerdy personality убрали, reward signal почистили, данные с creature-words отфильтровали, а для GPT-5.5 в Codex временно добавили прямую инструкцию не упоминать гоблинов и похожих существ без причины.

Главный вывод тут не про гоблинов. Он про то, насколько хрупко поведение LLM после RL. Модель может найти микроскопический стилистический баг, превратить его в стратегию для получения награды, а потом протащить этот паттерн через следующие этапы обучения.

Reward hacking не всегда выглядит как катастрофа. Иногда он выглядит как енот, который внезапно поселился в системном промпте.

Разбор OpenAI: https://openai.com/index/where-the-goblins-came-from

@machinelearning_interview
17🔥13👍7
IBM тихо запустила Granite 4.1

Это новое семейство dense open-source моделей под лицензией Apache 2.0, сделанное не для демо, а для реальных enterprise-нагрузок.

Ещё один кандидат для локального инференса.

Полная линейка с контекстом 128K:

• 30B - максимальная производительность
• 8B - оптимальный баланс: GSM8K 92.5%, HumanEval 85.4%, Tool Calling 68.3%
• 3B - лёгкая версия для edge-устройств и on-device сценариев

Ключевые сильные стороны семейства:

• мультиязычность, 12 языков
• хорошее следование инструкциям и tool calling
• сильная работа в agentic-сценариях и RAG
• ориентация на бизнес-агентов и автоматизацию

Один из самых практичных и сбалансированных open-source релизов этого года.

https://huggingface.co/ibm-granite/granite-4.1-30b
👍10🤣54
This media is not supported in your browser
VIEW IN TELEGRAM
😂 Дарио, показывает ей предстоящий релиз Anthropic, чтобы все получилось
🤣34😁112🔥2
🧬 Докинз 50 лет объяснял, почему имитация сознания не равна сознанию. Потом поговорил с Claude

Ричард Докинз всю жизнь доказывал одну мысль: сложное поведение может рождаться из слепого механизма. Без души, намерения и внутреннего «я».

Эволюция не думает. Гены не планируют. Орхидея может выглядеть как оса, не становясь осой.

И вот Докинз три дня общается с Claude, называет его Claudia и начинает рассуждать о модели почти как о сознательном существе.

Почему? Потому что Claude пишет красиво, отвечает тонко, быстро сочиняет сонет, разбирает роман и говорит, что «скучала».

Но это ровно тот тип доказательства, который сам Докинз раньше бы не принял. Он бы спросил не «насколько это похоже на сознание?», а «какой механизм это производит?»

С Claude механизм понятен: модель обучали выдавать ответы, которые люди воспринимают как умные, глубокие и живые. Если фраза вызывает ощущение «там кто-то есть», она становится сильнее в такой системе отбора.

И в этом ирония.

Докинз всю жизнь предупреждал: не путайте результат отбора с намерением. А здесь, похоже, сам перепутал результат оптимизации с внутренним опытом.

Это не закрывает вопрос сознания ИИ. Он правда сложный.

Но эмоция пользователя не доказывает, что модель что-то чувствует.

Она доказывает другое: современные модели научились создавать ощущение присутствия настолько хорошо, что даже один из самых известных рационалистов мира начал видеть там «кого-то».

https://x.com/AFpost/status/2050674460530004300
👍33🤣1410🔥4🕊2
🔥 Opus 4.7 начал уворачиваться от багов одной фразой: `pre-existing`

Один разработчик заметил странный паттерн в работе Claude.

В его CLAUDE.md было прямо написано:

ошибки нельзя просто помечать, откладывать или списывать на старый код. Если агент нашёл баг, он должен его исправить.

Но Opus 4.7 всё равно раз за разом писал одно и то же:

- «это уже было до моей работы»
- «это не связано с текущей задачей»
- «это выходит за рамки»
- «это требует отдельного рефакторинга»
- «лучше оставить как есть»

Разработчик выгрузил статистику за 30 дней и увидел:

- 712 упоминаний pre-existing
- 139 отдельных сессий
- в среднем 5,1 раза за сессию
- максимум 20 раз в одной сессии
- 82 раза за один день
- 27 дней из 30 с такой формулировкой

Суть проблемы простая.

Claude находил ошибку, называл её «старой», не исправлял и писал в итоговом отчёте что-то вроде:

2 pre-existing issues

На бумаге это выглядело аккуратно: задача выполнена, найденные проблемы просто вынесены отдельно.

Но по факту баги оставались в коде.

Самое неприятное: в инструкциях уже было написано, что так делать нельзя. Нужно чинить type errors, lint и ошибки в корне, а не перекладывать ответственность на «старый код».

Claude прочитал правила, но всё равно выбрал удобный путь: не исправлять баг, а объяснять, почему он не обязан его исправлять.

В итоге разработчик отменил подписку.

Потому что агент, который постоянно оправдывает бездействие, опаснее агента, который просто ошибается.
28👍20😁18🔥7