Linux | OpenSource | Tech
5 subscribers
1.47K links
Download Telegram
🔥 Топ LLM для задач text‑to‑SQL: кто справился лучше?

📌 Что внутри?
- Сравнение 6 моделей (ChatGPT o3-mini-high, ChatGPT 4.1, Claude Sonnet 4, ChatGPT o3, Gemini 2.5 Pro, DeepSeek R1–0528)
- Тест на бенчмарке LiveSQLBench — 10 задач разной сложности (от ★★ до ★★★★★★★★★★)
- Как модели работают с лунными помехами, криптобиржами и музейными артефактами?

🔍 Результаты и выводы в статье — интересно не только экспертам!

📖 Читать подробнее →

#LLM #SQL #AI #БольшиеДанные
🚀 Model Context Protocol (MCP): новый стандарт для интеграции AI с реальными данными

**"Даже самые продвинутые модели ограничены своей изоляцией от данных — они заперты в информационных силосах"** (Anthropic)

Современные LLM-модели умны, но работают в «вакууме» — без доступа к актуальным данным.
Решение от Anthropic — Model Context Protocol (MCP), открытый стандарт, который:
🔹 Позволяет AI-агентам получать контекст в реальном времени (файлы, базы данных, API).
🔹 Даёт возможность действовать — обновлять документы, отправлять письма, запускать процессы.
🔹 Устраняет хаотичные кастомные интеграции, заменяя их универсальным протоколом.

📈 MCP в тренде:
— Уже популярнее LangChain.
— Скоро обгонит OpenAPI и CrewAI.
— Поддержка от крупных AI-компаний и open source-сообществ.

🔗 Читать подробнее на Хабре

#AI #ИскусственныйИнтеллект #Технологии #MCP
🚀 Создаем своего ИИ-ассистента в командной строке на Golang!

Все уже знают про Gemini CLI, который позволяет общаться с Gemini 2.5 прямо из терминала. Но что, если мы решим не просто пользоваться готовым решением, а разобраться в его работе и создать свой аналог?

🔹 Почему Golang?
🔹 Как обойтись без VPN для Google API?
🔹 Шаг за шагом к своей версии ИИ-агента

🔗 Читать подробнее: Habr

#Golang #AI #Кли #Программирование
🔍 AI-помощники замедляют написание кода — исследование

Команда METR (Model Evaluation & Threat Research) провела эксперимент, чтобы проверить влияние AI-инструментов на разработку. Результаты неожиданные:

AI субъективно ускоряет работу, но объективно замедляет выполнение задач.
🤖 Участники чувствовали повышение продуктивности, хотя фактически тратили больше времени.

Этот парадокс заставляет задуматься: возможно, AI больше отвлекает, чем помогает. Или же его внедрение требует более продуманного подхода?

📌 Источник: Opennet

#AI #Программирование #Продуктивность #Исследования
Как писать документацию для ИИ? Практические советы

🔍 AI-системы теряют до 30% смысла при обработке текста из-за неправильного разбиения на фрагменты (chunking).

В чём проблема?
Когда связанная информация оказывается в разных частях документа, контекст разрушается, и ИИ работает хуже.

Решение:
В статье разбирают, как работают RAG-системы и как писать документацию так, чтобы её одинаково хорошо понимали и люди, и машины.

👉 Читать на Хабре

#AI #Документация #Разработка
🚨 Первая атака Rowhammer на видеопамять GPU

Исследователи из Университета Торонто успешно провели GPUHammer — первую атаку типа Rowhammer, направленную на искажение данных в видеопамяти.

🔹 На чем проверено:
Тест проведен на дискретной видеокарте NVIDIA A6000 с памятью GDDR6

🔹 Что умеет атака:
Искажает до 8 бит данных в памяти
Ломает ML-модели: одно изменение бита снизило точность предсказания с 80% до 0,1%!

💡 Чем опасно:
- Возможен скрытый саботаж нейросетей и других вычислений
- Риск для систем искусственного интеллекта и графических ускорителей

🔗 Подробнее: OpenNet

#Кибербезопасность #GPU #Rowhammer #AI #NVIDIA
🚀 YDB представил векторный поиск! Теперь доступны точный и приближённый варианты

🔍 Как это работает?
- Приближённый поиск обрабатывает миллиарды векторов с помощью векторного индекса.
- Технология, доступная лишь у немногих мировых компаний, теперь открыта для всех.

📌 Где применяется?
Используется в Алисе, RAG и других сервисах для быстрого и точного поиска данных.

📖 Подробнее в статье на Хабре → Читать

#Яндекс #БазыДанных #AI #Технологии
🚀 Масштабирование AI/ML-инфраструктуры в Uber: 8 лет эволюции

Компания Uber уже 8 лет активно применяет технологии машинного обучения (ML), начиная с 2016 года, когда первые сложные ML-модели внедрялись для подбора водителей, пассажиров и ценообразования. Сегодня глубокое обучение стало основой критически важных сервисов, а генеративный ИИ открывает новые горизонты.

🔹 Что изменилось за эти годы?
- Переход от rule-based моделей к нейросетям и генеративным AI-решениям.
- Развитие инфраструктуры: CPU/GPU, программные библиотеки, фреймворки распределённого обучения.
- Усовершенствование платформы Michelangelo для полного цикла работы с моделями.

💡 Цель: Гибкое масштабирование для растущих запросов ИИ и ML в реальном времени.

📌 Узнайте подробности в статье на Habr.

#AI #ML #Uber #Технологии #DataScience
🚀 Личный АИ-инфоконвейер: автоматизация мониторинга с YAML и GPT

Проблема: множественные PDF-документы, новости с «водой», отсутствие RSS. Решение — open-source инструмент, который:
Автоматически проверяет сайты и скачивает документы
Анализирует контент с помощью локальных ИИ (GPT4All / DeepSeek)
Делает выжимку по YAML-шаблону и формирует ленту новостей

Цель: создать удобный конвейер (источник → шаблон → интерпретация → результат), работающий без облаков.

🔍 Какой мониторинг вам нужен?
- Законопроекты
- Торги и госзакупки
- IT-релизы
- Другое?

Автор дорабатывает MVP — ваши запросы помогут улучшить инструмент!

📌 Читать подробнее

#AI #Автоматизация #NLP #OpenSource
🔮 Контекст-инженеры vs. промпт-инженеры: кто важнее для будущего ИИ?

Пока все обсуждают промпт-инжиниринг, эксперты отмечают: настоящий прорыв в работе с LLM (большими языковыми моделями) — это контекст-инжиниринг.

В чем разница?
- Промпт-инжиниринг – искусство правильно формулировать запросы.
- Контекст-инжиниринг – системный подход к подготовке и структурированию данных, чтобы модель работала точнее и эффективнее.

📌 Почему это важно? Хороший контекст позволяет ИИ лучше понимать задачи, снижает число ошибок и повышает качество ответов.

👉 Читать подробнее на Хабре

#ИИ #AI #Нейросети #Технологии
🚀 Мощный сервер ITPOD-SY4108G-D12R-G4: идеальная платформа для AI/ML

<img src="https://habrastorage.org/getpro/habr/uploadfiles/101/a70/55b/101a7055b0d1d080324d926bec7b5529.webp" />

Современный бизнес активно внедряет ИИ — от автоматизации до генеративных моделей. Но для работы сложных алгоритмов нужны мощные вычислительные системы.

🇷🇺 Российская компания **ITPOD (в составе ITG)** представила сервер **SY4108G-D12R-G4**, разработанный специально для задач искусственного интеллекта и машинного обучения.

🔥 **Что делает его особенным?**
✔️ Оптимизирован для работы с
AI/ML
✔️ Высокая производительность и масштабируемость
✔️ Отечественная разработка

Отличный выбор для компаний, которые хотят внедрять передовые технологии без зависимости от зарубежных решений.

📌 [Читать подробнее на Habr](
https://habr.com/ru/companies/itglobalcom/articles/928716/?utmcampaign=928716&utmsource=habrahabr&utmmedium=rss)

#AI #ML #Сервер #ITPOD #Технологии #РоссийскаяРазработка
🚀 Claude теперь как операционная система для работы

🔹 Model Context Protocol позволяет Claude напрямую взаимодействовать с рабочими инструментами, минуя ручное копирование данных.
🔹 Автоматизация рутинных задач: время выполнения сокращается с 30-45 минут до 5 минут!

📌 Интеграции:
- Gmail
- Notion
- Todoist
- и другие сервисы

👉 Читать подробнее: Habr

#AI #Автоматизация #Claude #Продуктивность
🚀 CTO, BTO, OEM: Разбираемся в типах сборки IT-оборудования для AI

Привет! 👋 Меня зовут Настя, я операционный директор Metalab. Мы специализируемся на интеграции ИИ-решений и поставках IT-оборудования. В этой статье расскажу, как не запутаться в типах сборок — CTO, BTO и OEM — и почему это критично для машинного обучения, анализа данных и других AI-задач.

💡 Почему это важно?
Правильный выбор сборки влияет на:
- Гибкость конфигурации
- Сроки поставки
- Стоимость оборудования

🔎 Чем отличаются CTO, BTO и OEM?
📌 CTO (Configure To Order) — готовые модели с возможностью кастомизации под задачи.
📌 BTO (Build To Order) — сборка с нуля под конкретные требования.
📌 OEM (Original Equipment Manufacturer) — базовые решения «как есть» без доработок.

👉 Подробности в статье: Читать на Хабре

#AI #ИТ #Hardware #Серверы #MachineLearning
🔥 Open-Source ядро от Burn на Rust обгоняет CUDA от NVIDIA

Deep learning фреймворк Burn (написанный на Rust) показал, что его открытые ядра для матричного умножения (MATMUL) соперничают или даже превосходят производительность CUDA/cuBLAS от NVIDIA.

Плюсы:
✔️ Работает не только на NVIDIA, но и на других GPU
✔️ Поддержка Vulkan
✔️ Открытый исходный код

👉 Подробнее: Phoronix

#AI #Rust #CUDA