Хабр / ML & AI
473 subscribers
5.43K links
Telegram-канал, где вы можете найти публикации из RSS-фидов тематических хабов "Машинное обучение" и "Искусственный интеллект" портала Хабр.

Данный канал не является официальным представительством платформы Хабр.

Администратор - @evilfreelancer
Download Telegram
State of DevOps 2024. Туда и обратно. Часть 2: Искусственный интеллект

Всем привет, с вами Сергей Задорожный, руководитель отдела платформенных решений банка «Центр-инвест» и один из авторов курса «DevOps для эксплуатации и разработки» от Яндекс Практикума. 

Сегодня продолжаем разбирать отчёт State of DevOps 2024. В прошлой статье мы обсудили DORA-метрики, а в этой обсудим искусственный интеллект. Пока он ещё не созрел (но это не точно), чтобы самостоятельно писать на Хабр обзоры про себя и отвечать на комментарии…

Первая часть обзора: State of DevOps 2024. Туда и обратно: 1. DORA-метрики и элитность

Читать далее

#devops #ai | @habr_ai
ИИ ускоряет разработку ПО, но пока не ускоряет выпуск продуктов (исследование Google Cloud — Dora за 2024)

По результатам исследования, основанного на отзывах более 39000 специалистов из компаний самых разных отраслей и всех размеров, искусственный интеллект значительно влияет на эффективность разработчиков и команд (спасибо Кэп, мы догадывались). При этом на скорость доставки софта потребителям и развитие продуктов ИИ пока не оказывает положительного эффекта и даже наоборот. Вот тут уже интереснее.

Dora (DevOps Research and Assessment), исследовательская команда Google Cloud, на протяжении 10 лет собирает данные и выявляет тренды в разработке и доставке (delivery) программного обеспечения. Ниже мы (наша команда ТГ-канала AI4Dev следит за отчетами Dora уже второй год) отобрали, перевели и прокомментировали самое интересное о влиянии AI на разработку из нового отчета за 2024 год.

Хочу картинки с цифрами и комментарии

#dora #google_cloud #ai #llm #разработка_софта #разработка_продуктов #delivery #devops #искусственный_интеллект | @habr_ai
MLOps: как не потеряться в 10 тысячах фич, часть 2

Первая часть — здесь.

Data lineage

Этот подход обеспечивает прослеживание связей в данных и клиентов, которые используют данные, от источника, включая промежуточные стадии, до момента потребления этих данных. Данные может потреблять сервисы, какие-то BI-системы, на которых построены дашборды, эксплуатировать данные могут люди, дата аналитики, которым это необходимо в рабочих процессах. Data lineage позволяет прозрачно взглянуть на эти вещи и отследить момент получения предагрегатов до момента эксплуатации этих данных клиентами.

Нам важен разрез, когда клиентами или целевыми заказчиками данных являются ML-модели.  Читать далее

#mlops #машинное_обучение #devops #большие_данные #big_data | @habr_ai
Куда нас вынесут большие технологические волны DevOps

В 1995 году с легкой руки Gartner в умах многих аналитиков по всему миру поселился новый термин — Gartner Hype Cycle. Как только не называли эту кривую: и цикл хайпа, и цикл зрелости, и цикл ожиданий. Но мне больше всего нравится представлять её в виде волн. Тогда в ней появляется глубокий образ — множество волн, которые в нашем технологическом мире переплетаются и рождают нашу повседневность.

Привет, Хабр! Меня зовут Антон Черноусов. Я Developer Advocate в Yandex Cloud и многие годы веду подкаст «The Art Of Programming».

Кривая Гартнера частенько помогает представить результаты прогнозов. Хотя прогнозы — дело неблагодарное. Особенно если мы попытаемся «заглянуть под капот» одной узкой сферы. Сегодня мы займемся неблагодарным делом и пристально посмотрим на мир DevOps.

Читать далее

#devops #gartner_hype_cycle #dora #datadog #ai #code_assistant #безопасная_разработка #облачные_провайдеры #platform_engineering #iac | @habr_ai
Доступные GPU для всех: знакомьтесь с PrimeWay

В последние годы искусственный интеллект и машинное обучение стали неотъемлемой частью многих отраслей. Однако доступ к высокопроизводительным GPU-ресурсам всё ещё остаётся серьёзным препятствием для многих разработчиков и компаний. Сложная инфраструктура, высокие затраты и ограниченная доступность мешают инновациям и замедляют прогресс.

Читать далее

#mlops #serverless #devops #машинное_обучение #data_science | @habr_ai
Как готовить Triton: рецепты вашей собственной Inference-платформы

Привет, Хабр! Меня зовут Антон, я DevOps-инженер в команде Data/ML-продуктов Selectel. Если вам нужно запустить небольшой инференс одной ML-модели, можно взять команду бэкендеров, дать им эту модель, они обернут ее в эндпоинт — и готово. Достаточно короткого скрипта из нескольких строк на Python. Но что если нужно запускать несколько моделей, оптимизировать выполнение, работать с ансамблем моделей, задействовать CPU и GPU одновременно и т. д.? Все эти проблемы решает NVIDIA Triton Inference Server. Правда, он добавляет одну новую: разобраться с ним и его документацией — тот еще квест.

В статье посмотрим, насколько сложной задачей может оказаться создание собственного инференса и какие аспекты нужно учитывать. Научимся запускать различные форматы моделей, посмотрим на основные фичи Inference-платформы Selectel, запустим несколько популярных LLM и моделей, а также познакомимся со способами оптимизации конфигурации и проектирования интерфейса для модели. Читать дальше →

#selectel #машинное_обучение #devops #инференс #ml_модели #инфраструктура | @habr_ai
40 открытых уроков мая: куда движется IT в 2025 году

Весна — хорошее время обновить взгляд на технологии и практики, которые действительно работают. Мы собрали для вас подборку открытых уроков мая: без воды, с фокусом на развитие практических навыков в ИИ, разработке и архитектуре, инфраструктуре и DevOps, а также управлении IT-продуктами.

Все уроки бесплатны и проводятся онлайн — участие доступно каждому. Выбирайте интересную вам тему и записывайтесь по ссылкам ниже. Читать далее

#дайджест #открытые_уроки #машинное_обучение #разработка #devops #кибербезопасность #data_science #базы_данных #онлайн_уроки #программирование | @habr_ai
Распределённый инференс и шардирование LLM. Часть 2: скрипт vLLM, Ray Serve для вывода API и настройка KubeRay Cluster

Продолжаем пошагово разбираться с ответом на вопрос о том, как эффективно работать с передовыми LLM, используя доступное оборудование и распределённые вычисления. 

В первой части статьи мы подготовили всё необходимое для развёртывания распределённого инференса с Ray Serve и vLLM. Сегодня этим и займёмся. Мы напишем скрипт vLLM, используем Ray Serve, чтобы предоставить внешний HTTP API, а также настроим KubeRay Cluster и развернём в нём Gemma 3. Вперёд!

#llm #gpu #ai #ml #vllm #gemma3 #devops | @habr_ai
Распределённый инференс и шардирование LLM. Часть 3: настройка авторизации и интеграция с Open WebUI

Мы с вами подобрались к заключительной части статьи-инструкции об организации распределённого инференса и шардирования LLM в домашних условиях. Осталось совсем чуть-чуть — в финальной главе разберёмся, как развернуть Open WebUI через Helm и связать его с нашим Ray-кластером. Это даст возможность настроить авторизацию и удобный интерфейс для взаимодействия с нашей моделью.

В конце статьи попросим домашнюю LLM подвести итоги всей проделанной работы, а также поговорим о планах по развитию проекта. Читать далее

#ml #ai #llm #gpu #openwebui #devops #helm | @habr_ai
Как я устал тестировать LLM-системы вручную и написал универсальный сканер уязвимостей

Полгода назад я работал над внедрением RAG-системы в крупной финансовой компании. Задача была типичная: построить корпоративного чат-бота, который мог бы отвечать на вопросы сотрудников по внутренним документам. Казалось бы, что может пойти не так? Берем готовую LLM, подключаем к базе знаний, добавляем немного магии с векторным поиском — и готово.

Но когда я начал тестировать систему перед продакшеном, обнаружил, что наш "умный" ассистент превращается в болтливого предателя при правильно сформулированных вопросах. Читать далее

#devsecops #машинное_обучение #rag #информационная_безопасность #искуственный_интеллект #devops #python #llm #большая_языковая_модель | @habr_ai
Game-changer-инструменты для разработчиков которые стоит попробовать. [Часть 1/2]

Разработка программного обеспечения и DevOps-инфраструктура в сложно представить без мощных open-source-инструментов. Некоторые из них не просто полезны — они меняют подход к автоматизации, деплою, ИИ-интеграции и безопасности. В этой статье собраны действительно сильные и перспективные проекты с открытым кодом: они бесплатны, активно развиваются и способны радикально упростить жизнь разработчика. Читать далее

#ai #инструменты #приложения #devops #web #backend #fullstack #frontend #app | @habr_ai
За неделю от ночных кошмаров до спокойного сна: как я автоматизировал защиту от AI-хакеров

Никто не любит быть тем парнем, который говорит "а давайте еще и защиту поставим". Особенно когда речь идет о блестящем новом AI-продукте, который должен был запуститься "еще вчера". Но когда твой корпоративный чат-бот начинает выдавать системные промпты направо и налево, а в 2 ночи тебе в Telegram прилетают сообщения "СРОЧНО! Хакеры взломали бота!" — понимаешь, что без брони в бой идти нельзя. Читать далее

#devsecops #машинное_обучение #rag #информационная_безопасность #искуственный_интеллект #devops #python #llm #mlsecops | @habr_ai
Как я автоматизировал деплой аналитической платформы для спортивных данных на базе нестабильного API

Разбираю кейс построения отказоустойчивого пайплайна для аналитики спортивных данных на базе нестабильного API dingerodds com. В статье — реализация обёртки с ретраями и балансировкой, деплой в Kubernetes с автоскейлингом, CI/CD через GitLab и хранение данных в Parquet (MinIO). Показываю, как превратить ненадёжный источник в стабильную платформу для ML и аналитики. Читать далее

#dingerodds #api_обёртка #kubernetes #cicd #devops #parquet #etl #data_engineering #ml_pipeline | @habr_ai
[Перевод] Я перешла из Data Science в AI Engineering: вот всё, что вам нужно знать

Переход из Data Science в AI Engineering — это не просто смена должности, а полный сдвиг в подходах к работе с моделями и их внедрению в продакшн. В статье я делюсь опытом, как расширение ролей Data Scientist и AI Engineer пересекается с DevOps, MLOps и инфраструктурными практиками. Если вам интересно, как сделать шаг от теории к реальной работе с моделями, интеграции в инфраструктуру и поддержке на протяжении жизненного цикла — читайте дальше. Читать далее

#data_science #ai_engineering #mlops #devops #инфраструктура_как_код #k8s #cicd #машинное_обучение #развертывание_моделей | @habr_ai
Превращаем legacy CLI в AI-агентов за 5 минут: практическое руководство по MCP и Ophis для Go-разработчиков

Ophis — это мост между Cobra CLI и Model Context Protocol (MCP), позволяющий Claude Desktop напрямую вызывать kubectl, helm, terraform и любые другие CLI-инструменты. Вместо копирования вывода команд в чат, AI получает структурированный доступ к командам.

В статье: архитектура решения, production-ready реализация и реальные кейсы из практики. Читать далее

#go #ai #отладка #devops #mcp #автоматизация | @habr_ai
Как внедрить автоматическое ревью кода с помощью ИИ: опыт Microsoft, Google и ByteDance + практическое руководство

TL;DR

Автоматическое ревью кода с помощью ИИ уже работает в продакшене крупнейших компаний. Microsoft обрабатывает 600 000 пулл-реквестов в месяц, экономя сотни тысяч часов. ByteDance достигла 75% точности с 12 000 активных пользователей еженедельно. Google автоматизировал 7,5% всех комментариев ревьюеров. В статье — детальный разбор архитектур, метрики эффективности и пошаговое руководство по внедрению с расчётом окупаемости. Читать далее

#artificial_intelligence #code_review #devops #machine_learning #github #cicd #software_engineering #software_development #automation | @habr_ai