Machine learning Interview
30.2K subscribers
1.61K photos
131 videos
13 files
1.08K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
Forwarded from Machinelearning
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.

Модели заточены для сложного reasoning и агентных задач.

🔵 Доступны в четырёх вариантах:

31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.

E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.

🤖 Что можно делать:

• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API

👉 Встроенная работа с инструментами (tool use) из коробки.

🧠 Контекст до 256K токенов:

• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях

⚡️ Начать можно уже сейчас через Google AI Studio

Также веса моделей доступны на Hugging Face, Kaggle и Ollama.

Лицензия: Apache 2.0.

https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

@ai_machinelearning_big_data

#Gemma
🔥85👍4
⚡️ Карпати собрал второй мозг на LLM

Андрей Карпаты, один из самых влиятельных людей в мире AI, поделился подходом, который может изменить то, как мы работаем с информацией. Он перестал тратить токены LLM на написание кода и переключился на нечто более интересное: построение персональных баз знаний с помощью языковых моделей.

Идея простая, но мощная. Карпаты собирает сырые данные из разных источников (статьи, научные работы, репозитории, датасеты, изображения) в директорию raw/.

Затем LLM инкрементально “компилирует” из этого вики – коллекцию .md файлов с четкой структурой директорий. Модель сама создает саммари, обратные ссылки, категоризирует данные по концептам, пишет статьи для каждого из них и связывает все между собой. Для конвертации веб-статей в .md файлы он использует расширение Obsidian Web Clipper, а все связанные изображения скачивает локально, чтобы LLM мог к ним обращаться.

В качестве IDE выступает Obsidian. Через него Карпаты просматривает сырые данные, скомпилированную вики и визуализации. Важный момент: LLM пишет и поддерживает все данные вики самостоятельно, человек почти не трогает это руками. Плюс Obsidian-плагины вроде Marp позволяют рендерить данные в других форматах, например в слайды.

Еще один крутой прием - LLM-«линтинг» вики. Модель прогоняет проверки здоровья базы, находит противоречивые данные, заполняет пробелы через веб-поиск, обнаруживает интересные связи для новых статей и постепенно повышает целостность данных.

Следующий логичный шаг - синтетическая генерация данных и файнтюнинг, чтобы LLM «знала» данные в своих весах, а не только через контекстное окно. Карпати считает, что здесь есть место для нового крутого продукта, а не просто набора скриптов. И с этим сложно не согласиться.

https://uproger.com/karpati-sobral-vtoroj-mozg-na-llm/

🐍 полезные ресурсы 🚀Max

@machinelearning_interview
30🔥22🙉6🤣5👍4
⚡️ PicoClaw: ИИ-ассистент на Go, который работает на железе за $10 и жрёт меньше 10 МБ оперативки

Sipeed выложили PicoClaw - ультралёгкого AI-агента, написанного на Go с нуля. Это не форк и не обёртка, а самостоятельный проект.

Около 95% кода сгенерировал сам агент, а люди уже довели его до рабочего состояния.

По цифрам всё выглядит очень мощно: меньше 10 МБ оперативки против гигабайтов у многих аналогов, запуск меньше чем за секунду даже на одноядерном процессоре с частотой 0.6 ГГц. Один бинарник работает на x86, ARM, MIPS, RISC-V и LoongArch. То есть PicoClaw можно запустить хоть на Raspberry Pi, хоть на дешёвом одноплатнике, хоть на старом Android-смартфоне через Termux.

По возможностям тоже: 30+ LLM-провайдеров, 17+ каналов связи, MCP для внешних инструментов, веб-поиск, работа с файлами, выполнение кода, cron-задачи, субагенты, роутинг моделей и vision pipeline.

Интерфейсы тоже на любой случай: WebUI для обычной работы, TUI для серверов, CLI для совсем минимальных сред. Docker Compose тоже есть из коробки.

За два месяца проект набрал 26 тысяч звёзд на GitHub и 190 контрибьюторов. До полноценного продакшена он ещё не дорос, но для домашней автоматизации, умных камер, мини-серверов и edge-задач уже выглядит очень серьёзно.

https://github.com/sipeed/picoclaw
🔥127👍2👏2😁2
😁17😭6👍3
⚡️ В крупнейшей больнице Нью-Йорка заговорили о замене радиологов ИИ

CEO NYC Health + Hospitals Митчелл Кац прямо заявил: уже сейчас ИИ способен закрыть значительную часть задач радиологии. Главный барьер не технологии, а регуляция.

Речь не про будущее, а про текущие возможности. ИИ уже активно используют для анализа маммограмм и рентгена, и это помогает справляться с растущим потоком исследований.

Как это может выглядеть на практике
ИИ делает первичное чтение снимков, а врач подключается только там, где есть отклонения или сомнения. Это ускоряет поток и снижает нагрузку на специалистов.

Радиология это не поиск одной «точки на снимке». Это работа с контекстом: анатомия, история пациента, прошлые исследования, уровень неопределённости. И именно здесь ИИ пока не дотягивает до полной автономии.

Поэтому даже одобренные FDA решения сегодня остаются ассистентами
они улучшают качество изображений, помогают с триажем и подсвечивают аномалии, но не берут на себя финальное решение.

Технология уже готова менять процесс, но ответственность пока остаётся за врачом

futurism.com/artificial-intelligence/hospital-ceo-ai-radiology
9👍4🔥3
🚀 GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!

Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang

Код и веса уже на платформе GitVerse.

Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣20👍145🔥4🤔1
🚀 Автоматизация оптимизации GPU-ядра с AutoKernel

AutoKernel - это инструмент для автономной оптимизации GPU-ядр на основе моделей PyTorch. Он профилирует модели, выявляет узкие места и автоматически генерирует оптимизированные ядра Triton или CUDA C++. Пользователь может просто запустить процесс и проснуться с готовыми улучшениями.

🚀 Основные моменты:
- Автономное извлечение и оптимизация GPU-ядр.
- Поддержка различных моделей PyTorch.
- Интеграция с KernelBench для глубокого тестирования.
- Высокая скорость экспериментов — до 320 за ночь.
- Проверка корректности и производительности на каждом этапе.

📌 GitHub: https://github.com/RightNow-AI/autokernel

#python
111👍1
🔥 AlphaEvolveИ против классической оптимизации, результат минус 15 000 км

Google показали кейс FM Logistic, и он куда интереснее, чем кажется на первый взгляд. Это не стартап с хаосом, а большая международная компания с уже хорошо оптимизированными процессами. Тем ценнее результат.

В центре история про классическую задачу коммивояжера. Нужно построить самый короткий маршрут через все точки. Формулировка простая, но на практике это одна из самых сложных задач оптимизации. Количество вариантов растет так быстро, что даже для сотни точек полный перебор невозможен.

Теперь масштаб. Склад FM Logistic это 17 700 точек и площадь примерно как 8 футбольных полей. Одновременно работают несколько операторов, маршруты ограничены по длине и должны строиться прямо в процессе работы. То есть это уже не учебная задача, а жесткий прод с кучей ограничений.

Они дали свой алгоритм AlphaEvolve и дальше началось самое интересное. Система сама генерировала новые версии решения, прогоняла их на реальных данных и отбирала лучшие по метрикам. По сути, это эволюция кода под реальные условия, а не лабораторная оптимизация.

В результате нашли конкретные улучшения, которые дали плюс 10.4% к эффективности маршрутов. В логистике это огромная цифра. В их случае это около 15 000 километров в год и серьезная экономия денег.

Решение уже работает в проде и его планируют масштабировать на другие склады. Хороший пример того, как агентный подход и эволюционные алгоритмы начинают менять не демки, а реальные бизнес-процессы.

https://cloud.google.com/blog/products/ai-machine-learning/how-fm-logistic-tackled-the-traveling-salesman-problem-at-warehouse-scale-with-alphaevolve
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5
🔥 Лучшие курсы по ИИ, которые можно пройти бесплатно в 2026:

Anthropic: http://anthropic.skilljar.com
Google: http://grow.google/ai
NVIDIA: http://developer.nvidia.com/training
(топ уровень)
Огромный список лучших бесплатных курсов Data Science на русском: https://uproger.com/data-science-luchshie-besplatnye-kursy/
Microsoft: http://learn.microsoft.com/training
OpenAI: http://academy.openai.com
IBM: http://skillsbuild.org
AWS: http://skillbuilder.aws
Математика машинного обучения: https://www.youtube.com/watch?v=ma50i4M5aAw
DeepLearningAI: http://deeplearning.ai
Hugging Face: http://huggingface.co/learn
FastAI: http://course.fast.ai
Kaggle Learn: http://kaggle.com/learn
Stanford AI: http://cs231n.stanford.edu
MIT OpenCourseWare: http://ocw.mit.edu
Full Stack Deep Learning: http://fullstackdeeplearning.com
DeepMind Resources: http://deepmind.com/learning-resources
OpenAI Cookbook: http://github.com/openai/openai-cookbook
Papers With Code: http://paperswithcode.com
AssemblyAI Blog: http://assemblyai.com/blog
7👍3🔥2