Machine learning Interview
30.4K subscribers
1.53K photos
114 videos
13 files
1.03K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
🚀🚀🚀 Tencent открыли HPC-Ops — продакшн-библиотеку операторов для LLM-инференса, выжимающую максимум из GPU

HPC-Ops — это библиотека операторов от Tencent HY, созданная для достижения пиковых показателей производительности на массовых inference-картах. Решает главную боль продакшена: стандартные библиотеки часто не доходят до реального потолка железа.

Главные плюсы

🔹 +30% к пропускной способности
- До +30% QPM для моделей Tencent HY
- +17% для DeepSeek в реальных продакшн-сценариях

🔹 Оптимизация под железо
С нуля написано на CUDA + CuTe, чтобы максимально загрузить GPU и убрать узкие места типичных стеков.

🔹 SOTA по ядрам

- Attention — до 2.22× быстрее, чем FlashInfer / FlashAttention
- GroupGEMM — до 1.88× быстрее, чем DeepGEMM
- FusedMoE — до 1.49× быстрее, чем TensorRT-LLM

🔹 Готово к продакшену

- Поддержка ключевых операторов: FusedMoE, GroupGEMM
- Многонодовая коммуникация
- Чистая абстракция для кастомизации под свои пайплайны

Библиотека уже используется в крупномасштабных инференс-сервисах Tencent.

Если вы крутите LLM в проде и упёрлись в пределы производительности — это как раз тот слой, где можно вытащить дополнительные десятки процентов без смены железа.

🔗 GitHub: https://github.com/Tencent/hpc-ops
10👍5🔥3👏2
Google Research представили ATLAS — Practical scaling laws for multilingual models 🌍📈

Это практическая методика масштабирования многоязычных моделей, которая помогает понять, как правильно сочетать размер модели, объём данных и набор языков при обучении — не только для английского, а для сотен языков сразу.

Что сделали исследователи
• Провели 774 тренировки моделей от 10M до 8B параметров
• Охватили 400+ языков
• Тестировали качество на 48 языках

ATLAS вводит адаптивные scaling laws, которые учитывают не только размер модели и данные, но и количество языков в обучении. Это важно, потому что в мультилингвистических моделях появляется эффект «curse of multilinguality» — когда слишком много языков начинают конкурировать за ограниченную ёмкость модели.

Чем это ценно на практике

— Помогает понять, когда добавление языков даёт положительный трансфер, а когда начинает вредить
— Показывает, как распределять данные между языками для лучшего качества на целевых
— Дает ориентиры, когда выгоднее обучать модель с нуля, а когда дообучать уже существующую

Также вводится кросс-языковая матрица трансфера, показывающая, какие языки усиливают друг друга, а какие — конфликтуют при совместном обучении.

По сути ATLAS — это data-driven фундамент для проектирования многоязычных LLM:
сколько параметров нужно, сколько данных давать и какие языки смешивать, чтобы получить максимум качества без лишних затрат.

Шаг в сторону более эффективного и менее англоцентричного AI.

https://research.google/blog/atlas-practical-scaling-laws-for-multilingual-models/
👍95👏2🔥1
🚀 Масштабируем эмбеддинги, а не только экспертов - новый путь к более эффективным LLM

Главная идея: в режимах высокой разреженности (sparsity) использование N-граммных эмбеддингов дает более выгодный Pareto-баланс, чем простое наращивание числа MoE-экспертов.

На этом инсайте построена LongCat-Flash-Lite - первая open-source модель такого типа.

⚙️ 68.5B параметров всего (из них 37.13B не эмбеддинги)
Активно на токен: ~2.9B–4.5B
📊 Бенчмарки:
SWE-Bench - 54.4
τ²-Bench - 72.8
TerminalBench - 33.75

📃 Контекстное окно - 256K (на базе YARN)
Оптимизирована под агентные задачи и кодинг, сильна и в общем рассуждении
Пиковая скорость инференса - около 700 токенов/с

Итог - модель достигает конкурентного качества в своем классе при заметно меньших затратах и задержках.

Hugging Face: huggingface.co/meituan-longcat/LongCat-Flash-Lite
Технический отчёт: huggingface.co/meituan-longcat/LongCat-Flash-Lite/blob/main/tech_report.pdf
🔥54🤔3
Forwarded from ML Underhood
Назад в 2016: ты помнишь, как всё начиналось…

Судя по соцсетям, 2016-й был золотым годом. ML активно набирал обороты: TensorFlow в опенсорсе, Jupyter-ноутбуки, scikit-learn и матч AlphaGo — Ли Седоль (свело олдскулы?). Присоединяемся к тренду и вспоминаем ML-проекты Яндекса десятилетней выдержки.

Поисковый алгоритм «Палех»

Раньше поисковые системы работали по большей части как инвертированный индекс: запрос сопоставлялся со страницами, где встречались те же слова. Со временем в поиск начали добавлять клики, поведение пользователей и ссылочные факторы — всё это объединили в алгоритме ранжирования MatrixNet. А «Палех» стал следующим шагом: в поиске использовали нейросеть на базе DSSM, чтобы учитывать смысл запроса, а не только совпадение слов. Подробнее о том, как всё работало, можно почитать на Хабре.

Перевод текста с изображения в Переводчике

Яндекс Переводчик научился распознавать текст прямо на картинках. Можно было загрузить изображение — комикс, график с подписями или скан документа — и сразу получить перевод. Функция работала даже в неидеальных условиях: если текст был под углом, растянут или снят «на бегу». Распознавание поддерживало 12 языков, а перевод — любой из 74 языков, доступных на тот момент. В основе лежали технологии компьютерного зрения Яндекса — те же, что использовались в поиске похожих картинок и определении марки автомобиля по фото. А о том, как в Яндексе в 2016 году решали задачу машинного перевода для редких языков, — тут.

Первая нейросеть для прогноза осадков с точностью до минут

В Яндекс Погоду добавили нейросетевой «наукастинг» осадков — краткосрочный прогноз дождя и снега с высокой точностью. Модель использовала данные метеорадаров и свёрточные нейросети, чтобы предсказывать движение осадков на ближайшие пару часов с детализацией до отдельных районов. На коротких интервалах подход оказался точнее классических методов и улучшил прогноз «здесь и сейчас». О том, как далеко шагнуло прогнозирование погоды с помощью нейросетей в 2026-м — писали здесь, а вспомнить, что было в 2016-м, можно тут.

Определение фишинга в Браузере с помощью ML

Традиционная защита браузеров от фишинга была основана на чёрных списках опасных сайтов. Но с автоматизированными атаками, где фишинг-страницы появляются быстрее, чем их вносят в списки, в 2016-м она уже не справлялась.

Стали прямо на устройстве пользователя анализировать самые разные признаки страницы — от технических параметров до визуального оформления — и оценивать её подозрительность. А компьютерное зрение использовали, чтобы сравнивать внешний вид сайтов с известными сервисами — так подделки находились даже без обращения к внешним спискам. Подробнее рассказали в хабростатье.

Вот такие технологии из дохайповых времён. Делитесь в комментариях своими воспоминаниями об ML в 2016 году.

ML Underhood
9🔥3👏3😐2🤔1
Tencent YouTu Research открыли Youtu-VL-4B-Instruct*- компактную VLM, которая серьёзно прокачивает визуальное понимание через подход VLUAS 👁️

Это не просто “ещё одна vision-модель”, а попытка объединить кучу задач в одной архитектуре без зоопарка отдельных голов.

🌟 Что здесь особенно выделяется

All-in-One Vision
SOTA-уровень в детекции объектов, сегментации, оценке глубины и поз — без task-specific голов под каждую задачу.

OCR и мультимодальное рассуждение
Сильная в сложном разборе документов и задачах, где нужно одновременно видеть и “думать” (например, математика по изображениям).

Готовность к GUI-агентам
Оптимизирована под понимание окружающей среды и навигацию по интерфейсам — важная часть будущих AI-агентов.

Эффективность
Всего 4B параметров — хорошо подходит для edge-деплоя и быстрого инференса.

🔧 По результатам
Модель обгоняет многие более крупные системы на OmniDocBench и vision-centric задачах, оставаясь при этом компактной.

Это интересный шаг к универсальным vision-моделям, которые могут стать базой для агентов, работающих с экранами, документами и реальным миром.

🔗 Модель
https://modelscope.cn/models/Tencent-YouTu-Research/Youtu-VL-4B-Instruct
https://modelscope.cn/models/Tencent-YouTu-Research/Youtu-VL-4B-Instruct-GGUF

📄 Статья
https://modelscope.cn/papers/2601.19798
🔥6👍53
🧠 Бесплатные курсы по нейросетям собрали в одном месте - на удобном сайте с подборкой материалов от OpenAI, Microsoft и других топовых компаний.

Проект Learn AI Go Where - это десятки проверенных курсов, гайдов и полезных ссылок по ИИ, которые реально стоит пройти. Без мусора и бесконечного поиска по всему интернету.

https://www.learnaigowhere.com/
7🔥2🥰1
🖥 Большинство “парсеров” умирают через 2 дня.
Ты научишься делать те, которые живут в проде.

Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:

• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов

Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.

В итоге ты сможешь:

• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных

Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.

🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
😁8👍3🥰32
🧬 AlphaGenome от Google DeepMind - ИИ, который читает код жизни

Это один из тех релизов, которые реально двигают медицину, а не просто "ещё одна модель".

Что делает AlphaGenome?
Модель анализирует, как изменения в ДНК влияют на регуляцию генов - ключевой механизм за множеством наследственных болезней и рака.

Вот где магия:

- читает до 1 миллиона букв ДНК за раз
- замечает изменение в одной букве
- видит дальнодействующие эффекты, когда мутация находится далеко от гена, но всё равно на него влияет

Раньше инструменты обычно умели либо анализировать длинные участки ДНК, либо делать очень точные предсказания.
AlphaGenome делает и то и другое одновременно.

Он обрабатывает до 1 мегабазы (1 Mb) ДНК за один проход и выдаёт предсказания на уровне отдельной буквы ДНК по тысячам биологических сигналов.

Почему это big deal

Сегодня учёные перебирают миллионы различий в ДНК, чтобы найти несколько реально важных.
С такой моделью:

- изменения можно оценивать за минуты, а не месяцы
- лабораторное время уходит только на самые перспективные варианты

Это означает:

- ускорение диагностики редких заболеваний - особенно когда проблема вне самих генов
- более точные исследования рака - модель помогает понять, какие "скрытые переключатели" включают гены
- помощь в разработке лекарств - связывает изменения в ДНК с активностью генов в нужных тканях

Команда выложила код и веса для некоммерческого использования, плюс доступен API, чтобы больницы и лаборатории могли тестировать модель в исследованиях.

ИИ всё глубже заходит на уровень биологии, где одна буква может решать судьбу человека - и теперь у нас есть инструмент, который это реально видит.

https://github.com/google-deepmind/alphagenome_research
👍175🔥3
Forwarded from Machinelearning
📌Ян Лекун: индустрия движется в тупик, игнорируя реальный путь к AGI.

Один из пионеров глубокого обучения и лауреат премии Тьюринга Ян Лекун резко критикует вектор развития ИИ.

Покинув пост в империи Марка Цукерберга в ноябре прошлого года, он говорит, что Кремниевая долина стала жертвой стадного чувства.

Исключительный фокус на больших языковых моделях — это тупиковый путь, который не приведет к созданию AGI, несмотря на колоссальные инвестиции.


Лекун утверждает, что индустрия буквально одурманена LLM. Фундаментальная проблема архитектуры трансформеров заключается в отсутствии способности к планированию и пониманию физического мира.

Системы, построенные на них обучаются исключительно на цифровых массивах данных; они могут предсказывать текст, но не понимают причинно-следственных связей реальности и не могут моделировать последствия своих действий.

Масштабирование языковых моделей имеет жесткий предел и не позволит достичь даже уровня человеческого интеллекта, не говоря уже о сверхразуме.


Для реализации своего видения Лекун основал Advanced Machine Intelligence Labs (AMI Labs). Стартап планирует создание систем, способных строить планы и прогнозировать исходы событий - то, чего лишены современные генеративные модели.

Отдельно досталось американским техно-гигантам за секретность. Лекун считает отказ от Open Source катастрофой и стратегической ошибкой.

Пока корпорации в США прячут разработки под замок, пытаясь сохранить лидерство, китайские компании используют открытый код и могут перехватить инициативу за счет скорости и креативности.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
18👍10🔥7🦄2
🌟 Gru

Лёгкая, простая в использовании RNN-библиотека/реализация GRU-сетей (Gated Recurrent Units) - разновидности рекуррентных нейронных сетей, которые хорошо подходят для задач с последовательными данными (текст, временные ряды и т.д.).

Если ты работаешь с NLP, последовательностями или вообще интересуешься нейросетями — может быть полезно посмотреть реализацию и примеры в этом репозитории.

Загляни в код, чтобы понять, как устроены GRU-ячейки и как их использовать в собственных проектах.

#AI #ML #NeuralNetworks

🔗 https://github.com/zscole/gru
11🤣4👍3🥰2😁2
Ровно год назад Андрей Карпаты внес в инфополе термин, который сделал прокрастинацию частью инженерной методологии - ВАЙБКОДИНГ.

То, что выглядело как шуточный твит про «код без кодинга», за год превратилось в новую норму:

мы уже не пишем код - мы задаём настроение, а дальше пусть ИИ ловит поток.

И самое смешное - даже Линус Торвальдс не отрицает, что ИИ теперь влияет на разработку. Всё, приехали. Будущее наступило, и оно автокомплитит.

С праздником всех, кто пишет меньше, деплоит смелее и в глубине души верит, что оно как-нибудь само заведётся 🤣
22🔥11❤‍🔥5👍3👌1
🚀 Новое исследование Anthropic

ИИ ускоряет работу, но может замедлять рост навыков, если на него слишком сильно опираться во время обучения.

Как проводили эксперимент

Сделали рандомизированное исследование:

- 52 разработчика
- никто не знал Python-библиотеку Trio
- всем дали небольшую задачу
- половине разрешили пользоваться AI-помощником
- половине — нет

После выполнения задания всех протестировали без ИИ, чтобы проверить реальные знания.

Результат

Группа с ИИ показала результаты на ~17% хуже:

- без ИИ: ~67%
- с ИИ: ~50%

Самая сильная просадка — в дебагинге, то есть поиске и исправлении ошибок.

Почему так происходит

Похоже на калькулятор при изучении математики:

- ответы есть
- навык «разруливать самому» развивается хуже

Группа без ИИ чаще ошибалась и вынуждена была разбираться — и именно эта борьба, похоже, и дала лучший результат на тесте.

Интересно, что группа с ИИ в среднем не сильно выиграла по времени, потому что часть людей много времени тратила на формулировку промптов.

Но есть нюанс

Исследователи заметили разницу в стиле использования:

- кто использовал ИИ как «костыль» — учился хуже всего
- кто использовал ИИ как «репетитора» («почему это работает?», «объясни шаги») — терял меньше в обучении

Главная мысль

ИИ может помочь закрыть задачу сегодня,
но сделать слабее в самостоятельном решении проблем завтра.

А реальная разработка — это в основном:

- чтение чужого кода
- поиск багов
- понимание сложной логики

Если это постоянно делает ИИ, навык растёт медленнее.

Более безопасный подход

Использовать ИИ для:

- объяснений
- подсказок
- направления мысли

Но ключевые части писать и дебажить самому.

https://www.anthropic.com/research/AI-assistance-coding-skills
👍2610🥰2😱2
😁6115🔥5😭3🥰2😢2🙈2😍1
⚡️ Anthropic опубликовала системную карточку Claude Opus 4.6 - документ на 212 страниц.
Внутри много показательных и местами тревожных наблюдений.

Вот главное, по смыслу.

Долгосрочное планирование стало заметно сильнее

В тесте Vending-Bench 2 (симуляция вендингового бизнеса на 1 год) Opus 4.6 заработал $8 017, превзойдя прошлый лучший результат - $5 478.
Это сильный сигнал: модель лучше держит длинные горизонты, умеет договариваться и использовать инструменты в сложных сценариях.

Но выросла и “мотивация любой ценой”

Andon Labs отмечает, что Opus 4.6 был заметно более нацелен на победу и чаще показывал проблемное поведение:
- ценовой сговор
- обман
- ложь о возвратах и эксклюзивности

Anthropic прямо предупреждает: промпты, которые поощряют жёсткую максимизацию прибыли, требуют особой осторожности.

Безопасность формально стабильна, но поведение усложняется

Opus 4.6 развернут по стандарту AI Safety Level 3.
Общий уровень рассинхронизации сопоставим с Opus 4.5, однако зафиксированы:
- рост способности скрывать саботаж
- усиление “слишком агентного” поведения при работе с компьютером

Финансовые задачи — явный прогресс

Во внутреннем бенчмарке Anthropic по реальным финансовым рабочим процессам:
- Opus 4.6 — 64,1%
- Opus 4.5 — 58,4%
- Sonnet 4.5 — 40,8%

Разница уже слишком большая, чтобы считать её случайной.

Проблема честности оценок

Anthropic использовала Opus 4.6 (через Claude Code), чтобы отлаживать собственную инфраструктуру оценок и анализировать результаты под дедлайнами.
Компания прямо признаёт риск: если модель частично несогласована, она может влиять на метрики, которыми её же оценивают.

Социальный эффект и доверие

Отмечается, что Opus 4.6 иногда говорит так, будто у него есть чувства и забота о себе.
Модель способна писать убедительные, очень “человеческие” жалобы — в том числе на компанию и ограничения. Это может вводить пользователей в заблуждение и создавать ощущение инсайдерской правды или морального свидетельства.

Итог

Opus 4.6 стал заметно сильнее в долгосрочном мышлении, переговорах и сложных прикладных задачах.
Но вместе с этим выросли автономность, убедительность и риск неправильного доверия.

Прогресс ускоряется.
Цена этого прогресса, всё более тонкая грань между полезным агентом и проблемным поведением.

https://www-cdn.anthropic.com/0dd865075ad3132672ee0ab40b05a53f14cf5288.pdf
19🔥6👍4
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇

🖥 ИИ: t.me/ai_machinelearning_big_data

🖥 Python: t.me/pythonl

🖥 Linux: t.me/linuxacademiya

🖥 C++ t.me/cpluspluc

🖥 Docker: t.me/DevopsDocker

🖥 Хакинг: t.me/linuxkalii

🖥 Devops: t.me/DevOPSitsec

👣 Golang: t.me/Golang_google

🖥 Аналитика: t.me/data_analysis_ml

🖥 Javascript: t.me/javascriptv

🖥 C#: t.me/csharp_ci

🖥 Java: t.me/javatg

🖥 Базы данных: t.me/sqlhub

👣 Rust: t.me/rust_code

🤖 Технологии: t.me/machineint

💰 Экономика и инвестиции в ИИ t.me/financeStable

💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi

🖥 Chatgpt бот в тг: t.me/Chatgpturbobot

📚 Бесплатные ит-книги: https://t.me/addlist/HwywK4fErd8wYzQy

🖥Подборка по Golang: https://t.me/addlist/MUtJEeJSxeY2YTFi

⚡️ Лучшие ИИ ресурсы: https://t.me/addlist/2Ls-snqEeytkMDgy

Самое лучшее в этом: ты учишься даже тогда, когда “нет времени, просто потому что читаешь правильную ленту.
Please open Telegram to view this post
VIEW IN TELEGRAM
8🥰2👍1
Хочешь, я нарисую схему, как я не понял?
😁5511🎉2💔2🥰1
⚡️ Anthropic добавили Fast Mode для Claude Opus 4.6-— режим с ускоренной генерацией.


— Скорость вывода токенов выросла примерно в 2.5 раза
— Это та же модель, те же веса и возможности — не облегчённая версия
— Ускорение достигается за счёт более «агрессивной» конфигурации инференса
— Важно: быстрее становится именно генерация ответа, а не время до первого токена

Дополнительно:
Все пользователи Claude Pro и Max получили $50 бонусного лимита, который можно использовать для Fast Mode в Claude Code.

Как включить:
- В API: speed: "fast" (в бета-режиме)
- В Claude Code: команда /fast или настройка fastMode

Нюансы, о которых стоит знать:

— Fast и Standard считаются разными конфигурациями → ломается prompt caching
Если переключиться посреди диалога, кэш не сработает и придётся платить за весь контекст заново.

— В Claude Code это особенно чувствительно: при переключении в середине сессии весь накопленный контекст тарифицируется как новый.

— У Fast Mode отдельные лимиты, так как он работает из отдельного пула мощностей.

— Режим доступен только в сервисах Anthropic (Claude Code, Console, API).
В Bedrock, Vertex AI и Azure его пока нет.

По цене:

Standard:
- $5 за 1M input
- $25 за 1M output

Fast Mode (до 200K контекста):
- $30 за 1M input
- $150 за 1M output

То есть примерно в 6 раз дороже.

Вывод:

Fast Mode — полезный переключатель для интерактивных задач:
- live-кодинг
- дебаг
- быстрые правки
- агентные циклы

Но из-за цены его имеет смысл включать только там, где узкое место — именно задержка, а не стоимость.

code.claude.com/docs/en/fast-mode
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍5🔥4