Анализ данных (Data analysis)
45.2K subscribers
2.12K photos
232 videos
1 file
1.91K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Добро пожаловать в мир главного ит тренда - машинного обучения: @machinelearning_ru

В канале вы найдет :
📃Статьи ,
📚Книги
👨‍💻 Код
🔗Ссылки

и много другой полезной информации
#ArtificialIntelligence #DeepLearning
#MachineLearning #DataScience
#Python

1 канал вместо тысячи учебников и курсов 👇👇👇

🤖 @machinelearning_ru
💡 Список самых популярных алгоритмов машинного обучения вместе с кодом на Python и R для их запуска.

#python #r #MachineLearning

https://www.analyticsvidhya.com/blog/2017/09/common-machine-learning-algorithms

@data_analysis_ml
🚀 Прорыв в оптимизации LLM: Tree Attention — новый алгоритм для сверхбыстрого масштабирования!

Исследователи представили революционный алгоритм Tree Attention, который обещает трансформировать обучение и интерфейс больших языковых моделей (LLM).

Ключевые преимущества:
🔥 Ускорение до 8 раз по сравнению с Ring Attention
🧠 Вдвое меньшее использование пиковой памяти
🌐 Значительное снижение межузловых коммуникаций
📊 Сравнение методов (на 1М токенов, 64 GPU):
Стандартное внимание: 100% (базовая линия)
Ring Attention: 60% времени базовой линии
Tree Attention: всего 15% времени базовой линии!
🔬 Теоретическая основа:
Функция энергии самовнимания связывает его с энергетическими моделями
Байесовская интерпретация как метод максимального правдоподобия

⚙️ Технические детали:
Сложность O(N/p + log p) для последовательности длины N на p процессорах
Древовидная структура редукции на основе свойств logsumexp и max
Интеграция с Flash Attention 2 и оптимизированными операциями NCCL
🖥️ Практическое применение:
Оптимизация для GPU-кластеров с учетом топологии сети
Непревзойденная эффективность для контекстов >1M токенов
🔮 Влияние на будущее AI:
Tree Attention может стать ключом к созданию LLM с гигантскими контекстными окнами, открывая путь к моделям с долгосрочной памятью и более глубоким пониманием сложных текстов.
🔗 Для углубленного изучения:
Рекомендуем заинтересованным читателям искать последние публикации по ключевым словам "Tree Attention", "GPU optimization for LLM" на научных порталах, таких как arXiv или Google Scholar.

Tree Attention — это не просто оптимизация, а потенциальный прорыв в масштабировании AI. Представьте LLM, способную анализировать целые книги за один проход или вести длительный диалог без потери контекста!

💬 А что вы думаете? Как Tree Attention может изменить ваши AI-проекты? Поделитесь мнением в комментариях!

📌 Почитать
#AI #MachineLearning #TreeAttention #LLM #GPUOptimization

@data_analysis_ml
📚 "Painful intelligence: What AI can tell us about human suffering

Эта бесплатная книга — путеводитель по миру машинного обучения!

Основное, что в ней рассматривается:
• Базовые концепции: Алгоритмы, математические основы и принципы построения моделей.
• Глубокое обучение: Нейронные сети, методы оптимизации и регуляризация для повышения качества моделей.
• Практические кейсы: Реальные примеры применения ML в различных отраслях, от анализа данных до прогнозирования.
• Современные методики: Настройка гиперпараметров, интерпретация результатов и стратегии улучшения производительности.

Для специалиста по машинному обучению эта книга станет полезным ресурсом, помогая углубить знания, найти новые подходы и повысить эффективность проектов.

📚 Книга

@data_analysis_ml


#freebook #book #ai #ml #machinelearning #opensource
🚀 AI от Sakana AI пишет оптимизированный код для CUDA-ядрер для ускорения ИИ!

🔑 Основное:
AI CUDA Engineer — агентная система, которая автоматически создаёт высокооптимизированные CUDA-ядра, ускоряя операции машинного обучения в PyTorch в 10–100 раз.

CUDA-программирование сложное, требует глубоких знаний и часто кажется "алхимией". Эта система упрощает задачу, используя эволюционные алгоритмы и LLMs.
Уникальная идея — "Innovation Archive" (аналог "библиотеки навыков" из нашего проекта Voyager для Minecraft), где LLM сохраняет лучшие фрагменты кода, найденные в процессе эволюционного поиска.

Это идеальный пример AutoML: максимальная отдача от вычислительных ресурсов, делая ИИ быстрее и эффективнее.
Великолепная работа, Sakana AI!

Также интересно, что NVIDIA параллельно работает над схожими исследованиями по улучшению CUDA-ядер с помощью мощных LLM.
#AI #MachineLearning #CUDA #AutoML

Paper: https://pub.sakana.ai/ai-cuda-engineer/paper/
Kernel Archive Webpage: https://pub.sakana.ai/ai-cuda-engineer/
HuggingFace Dataset: https://huggingface.co/datasets/SakanaAI/AI-CUDA-Engineer-Archive

@data_analysis_ml
🔥 Огромная статья, которая посвящена оптимизации вывода (инференса) больших языковых моделей (LLM) с использованием одного графического процессора!

🌟 Автор делится опытом создания собственного движка для LLM на основе C++ и CUDA, фокусируясь на максимизации пропускной способности. Рассматриваются ключевые этапы, такие как загрузка модели, выполнение прямого прохода, использование кеша KV и многозадачность на CPU. Также подчеркивается важность пропускной способности памяти и квантования модели (например, FP16) для эффективного вывода. В статье приводятся бенчмарки и сравнение с другими фреймворками, такими как llama.cpp и Hugging Face, чтобы установить реалистичные цели по производительности.

🔗 Ссылка: *клик*

#machinelearning

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM