Forwarded from Data Secrets
OpenAI начали встраивать MCP от Anthropic в свои продукты
Природа настолько очистилась Model Context Protocol от антропиков стал настолько популярным и так быстро оказался золотым стандартом, что даже OpenAI не устояли и объявили о том, что будут его использовать.
Сейчас они уже встроили MCP в библиотеку Agents SDK (пост о ней). То есть теперь при разработке агентов к ним можно прикручивать серверы MCP и тем самым расширять их скиллы.
Также обещают завести протокол в API и дескотопное приложение (вот это будет особенно круто).
Что такое MCP? Это открытый протокол, который стандартизирует то, как приложения/сайты/базы данных предоставляют контекст LLM. Раньше, чтобы ваша моделька "увидела" и могла постоянно использовать данные из внешнего источника (ну, например, гугл календаря), приходилось каждый раз плясать с бубном и реализовывать все с нуля.
А теперь есть MCP, и он работает как часы со всеми возможными локальными и удаленными источниками данных. Подробнее – в этом и этом постах.
Протокол крут и все его полюбили, потому что он (а) понятный и супер удобный и (б) достаточно безопасный. Смотрите сами: таких MCP уже наплодили миллион для абсолютно всего, вот здесь есть готовые на любой вкус.
Сейчас они уже встроили MCP в библиотеку Agents SDK (пост о ней). То есть теперь при разработке агентов к ним можно прикручивать серверы MCP и тем самым расширять их скиллы.
Также обещают завести протокол в API и дескотопное приложение (вот это будет особенно круто).
Что такое MCP? Это открытый протокол, который стандартизирует то, как приложения/сайты/базы данных предоставляют контекст LLM. Раньше, чтобы ваша моделька "увидела" и могла постоянно использовать данные из внешнего источника (ну, например, гугл календаря), приходилось каждый раз плясать с бубном и реализовывать все с нуля.
А теперь есть MCP, и он работает как часы со всеми возможными локальными и удаленными источниками данных. Подробнее – в этом и этом постах.
Протокол крут и все его полюбили, потому что он (а) понятный и супер удобный и (б) достаточно безопасный. Смотрите сами: таких MCP уже наплодили миллион для абсолютно всего, вот здесь есть готовые на любой вкус.
Forwarded from Data Secrets
Qwen2.5-Omni-7B может принимать на вход видео, аудио, текст и картинки, и отвечать аудио или текстом. То есть с моделькой теперь можно общаться по «видеосвязи». Немного технических деталей:
Метрики для 7В замечательные. Обходит даже Gemini 1.5 Pro.
Веса (лицензия Apache 2.0)
Статья
Попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI добавили поддержку MCP протокола от Anthropic.
MCP штука не новая, но пока была больше в области экспериментов и прототипов.
Однако количество этих прототипов, быстрое развитие и перспективность технологии привели к тому, что OpenAI официально добавил поддержку Model Context Protocol (MCP) в свой Agents SDK.
Сразу после обновления спецификации MCP, Альтман подтвердил это в X, отметив, что поддержка уже доступна в Agents SDK, а скоро появится и в ChatGPT Desktop и Responses API.
MCP — это открытый протокол, который стандартизирует взаимодействие AI-моделей с внешними источниками данных и инструментами. Его часто сравнивают с USB-C для AI: универсальный интерфейс, позволяющий подключать различные инструменты к AI-моделям без необходимости создавать уникальные интеграции для каждого сервиса.
На практике это даст:
- Упрощение разработки AI-решений
- Стандартизация интеграций
- Расширение возможностей AI-агентов (доступ к большему количеству инструментов)
Что нового в обновлении MCP?
Вчерашнее обновление протокола включает несколько важных изменений:
- OAuth 2.1 для авторизации (повышение безопасности)
- Улучшенный HTTP Transport с поддержкой двунаправленного обмена
- JSON-RPC Batching (отправка нескольких запросов одновременно)
- Tool Annotations (метаданные для описания инструментов)
Microsoft выпустила Playwright-MCP сервер, который позволяет AI-агентам автоматизировать взаимодействие с браузером с использованием MCP.
Кто ещё использует MCP?
Помимо гигантов OpenAI и Microsoft, протокол активно внедряется и другими игроками:
Такие компании как Block и Apollo интегрировали MCP в свои системы. Инструменты для разработчиков, включая Replit, Windsurf и Cursor, используют его для улучшения помощи при кодировании. Apify создала MCP-сервер для задач извлечения данных.
Техника:
MCP использует модульную архитектуру на базе JSON-RPC 2.0, разделенную на слои:
- Базовый транспорт
- Управление жизненным циклом
- Серверные возможности (ресурсы, промпты)
- Клиентские возможности (сэмплирование, логирование)
Разработчики могут выбирать компоненты в зависимости от своих задач.
Главный вопрос: становится ли MCP новым индустриальным стандартом?
С поддержкой от Anthropic, LangChain, и теперь Microsoft и OpenAI, по идее, имеет все шансы стать общим языком для агентских интеграций.
MCP документация от Anthropic
GitHub
Примеры от OpenAI
MCP штука не новая, но пока была больше в области экспериментов и прототипов.
Однако количество этих прототипов, быстрое развитие и перспективность технологии привели к тому, что OpenAI официально добавил поддержку Model Context Protocol (MCP) в свой Agents SDK.
Сразу после обновления спецификации MCP, Альтман подтвердил это в X, отметив, что поддержка уже доступна в Agents SDK, а скоро появится и в ChatGPT Desktop и Responses API.
MCP — это открытый протокол, который стандартизирует взаимодействие AI-моделей с внешними источниками данных и инструментами. Его часто сравнивают с USB-C для AI: универсальный интерфейс, позволяющий подключать различные инструменты к AI-моделям без необходимости создавать уникальные интеграции для каждого сервиса.
На практике это даст:
- Упрощение разработки AI-решений
- Стандартизация интеграций
- Расширение возможностей AI-агентов (доступ к большему количеству инструментов)
Что нового в обновлении MCP?
Вчерашнее обновление протокола включает несколько важных изменений:
- OAuth 2.1 для авторизации (повышение безопасности)
- Улучшенный HTTP Transport с поддержкой двунаправленного обмена
- JSON-RPC Batching (отправка нескольких запросов одновременно)
- Tool Annotations (метаданные для описания инструментов)
Microsoft выпустила Playwright-MCP сервер, который позволяет AI-агентам автоматизировать взаимодействие с браузером с использованием MCP.
Кто ещё использует MCP?
Помимо гигантов OpenAI и Microsoft, протокол активно внедряется и другими игроками:
Такие компании как Block и Apollo интегрировали MCP в свои системы. Инструменты для разработчиков, включая Replit, Windsurf и Cursor, используют его для улучшения помощи при кодировании. Apify создала MCP-сервер для задач извлечения данных.
Техника:
MCP использует модульную архитектуру на базе JSON-RPC 2.0, разделенную на слои:
- Базовый транспорт
- Управление жизненным циклом
- Серверные возможности (ресурсы, промпты)
- Клиентские возможности (сэмплирование, логирование)
Разработчики могут выбирать компоненты в зависимости от своих задач.
Главный вопрос: становится ли MCP новым индустриальным стандартом?
С поддержкой от Anthropic, LangChain, и теперь Microsoft и OpenAI, по идее, имеет все шансы стать общим языком для агентских интеграций.
MCP документация от Anthropic
GitHub
Примеры от OpenAI
GitHub
GitHub - microsoft/playwright-mcp: Playwright MCP server
Playwright MCP server. Contribute to microsoft/playwright-mcp development by creating an account on GitHub.
https://docs.mistral.ai/capabilities/document/
Процессор OCR (Optical Character Recognition), основанный на модели mistral-ocr-latest, который позволяет извлекать текст и структурированный контент из PDF-документов.
Основные особенности:
Извлекает текст, сохраняя структуру и иерархию документа.
Сохраняет форматирование, такое как заголовки, абзацы, списки и таблицы.
Возвращает результаты в формате markdown для упрощения разбора и рендеринга.
Обрабатывает сложные макеты, включая многоколоночный текст и смешанный контент.
Обрабатывает документы в масштабе с высокой точностью.
Поддерживает несколько форматов документов, включая PDF, изображения и загруженные документы.
Процессор OCR возвращает как извлеченный текст, так и метаданные о структуре документа, что упрощает работу с распознанным контентом программным способом.
В документе также приведены примеры кода на Python, Typescript и Curl для использования OCR с PDF.
Выводы:
Новый процессор OCR от Mistral AI позволяет эффективно извлекать текст и структурированную информацию из документов.
Процессор поддерживает различные форматы и сложные макеты.
Возвращает результаты в удобном формате markdown.
Предоставлены примеры кода для интеграции в различные приложения.
docs.mistral.ai
Document AI | Mistral AI
<img
Представлен Agent2Agent — протокол общения между ИИ-агентами. Работает даже между продуктами разных разработчиков. Также вышли инструменты Agent Dev Kit и Agent Garden — для быстрого запуска собственных решений.
Googleblog
Google for Developers Blog - News about Web, Mobile, AI and Cloud
Explore A2A, Google's new open protocol empowering developers to build interoperable AI solutions.
Forwarded from DLStories
Помните, рассказывала про курс по LLM в Лондоне, где читала несколько лекций? И упоминала, что у них скоро должен запуститься новый курс по LLM Engineering. Так вот, время пришло, курс запускается!
Итак, курс LLM Engineering Essentials от Стаса Федотова и Nebius Academy.
Рассчитан на разработчиков или ML-инженеров (то есть, не совсем новичков), которые хотят больше узнать о LLM-ках и начать создавать свои AI-сервисы. На курсе будет про то, как устроены LLM-модели (обещали даже мою лекцию включить, хех), как с ними работать, как их деплоить. Ну и, как обычно на хороших курсах — куча практики: в процессе вы сделаете чатбот из любимого фэнтези-персонажа и создадите собственную фабрику NPC!
Более конкретно, будет шесть больших тем: Working with LLM APIs, LLM workflows and agents, Context, Self-hosted LLMs, Optimization and monitoring, Fine-tuning.
Еще про курс:
- курс полностью бесплатный
- обучение полностью онлайн
- Старт 7 мая, курс рассчитан на 12 недель. 7 мая в 20:00 по Лондону будет вводный вебинар. Регистрация на него тут
- Во время обучения будут еженедельные Q&A со Стасом и другими лекторами — а это означает живой фидбэк и возможность задать кучу вопросов.
Все материалы лежат на GitHub курса, их уже можно начать разбирать.
Ссылки:
🎓 Сайт курса
💻 GitHub репо с материалами
📰 Регистрация на вводный вебинар
Итак, курс LLM Engineering Essentials от Стаса Федотова и Nebius Academy.
Рассчитан на разработчиков или ML-инженеров (то есть, не совсем новичков), которые хотят больше узнать о LLM-ках и начать создавать свои AI-сервисы. На курсе будет про то, как устроены LLM-модели (обещали даже мою лекцию включить, хех), как с ними работать, как их деплоить. Ну и, как обычно на хороших курсах — куча практики: в процессе вы сделаете чатбот из любимого фэнтези-персонажа и создадите собственную фабрику NPC!
Более конкретно, будет шесть больших тем: Working with LLM APIs, LLM workflows and agents, Context, Self-hosted LLMs, Optimization and monitoring, Fine-tuning.
Еще про курс:
- курс полностью бесплатный
- обучение полностью онлайн
- Старт 7 мая, курс рассчитан на 12 недель. 7 мая в 20:00 по Лондону будет вводный вебинар. Регистрация на него тут
- Во время обучения будут еженедельные Q&A со Стасом и другими лекторами — а это означает живой фидбэк и возможность задать кучу вопросов.
Все материалы лежат на GitHub курса, их уже можно начать разбирать.
Ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
Не так давно (в ноябре 2024) в Redis вернулся после саббатикала его создатель: Salvatore Sanfillipo. Он любит стримить на ютубe и я наблюдал еще с ноября, как только он начал затаскивать в Redis разные новые штуки.
И вот, спустя полгода, вышла новая версия Redis 8 в статусе General Availability (GA) - то есть полностью готовой к промышленному использованию.
Это самая производительная и масштабируемая версия Redis на сегодняшний день, включающая более 30 улучшений производительности и новые возможности.
Основные выводы
Redis 8 - это значительный шаг вперед в развитии Redis, который делает его более быстрым, масштабируемым и функциональным. Новые структуры данных и возможности поиска позволяют Redis эффективно решать задачи, связанные с AI, семантическим поиском, обработкой больших потоков данных и временных рядов.
Объединение разных версий и модулей в единый дистрибутив упрощает жизнь разработчикам и пользователям, а улучшения в производительности и безопасности делают Redis 8 привлекательным выбором для современных приложений.
Если вы используете Redis 6 или 7, стоит планировать обновление до Redis 8, чтобы воспользоваться всеми преимуществами новой версии.
И вот, спустя полгода, вышла новая версия Redis 8 в статусе General Availability (GA) - то есть полностью готовой к промышленному использованию.
Это самая производительная и масштабируемая версия Redis на сегодняшний день, включающая более 30 улучшений производительности и новые возможности.
Ключевые нововведения Redis 8:
Улучшенная производительность:
До 87% снижение задержек выполнения команд.
До 2x увеличение пропускной способности операций в секунду благодаря новой реализации многопоточности.
До 18% ускорение репликации.
До 16x увеличение мощности обработки запросов с помощью нового Redis Query Engine.
Новые структуры данных:
Восемь новых типов, включая:
Vector set (бета) - для поиска по векторным представлениям (важно для AI, семантического поиска и рекомендательных систем).
JSON - хранение и манипуляция JSON-документами с поддержкой атомарных обновлений.
Time series - эффективное хранение и обработка временных рядов (например, данные с датчиков, финансовые показатели).
Пять вероятностных структур (Bloom filter, cuckoo filter, count-min sketch, top-k, t-digest) для быстрой работы с большими потоками данных с компромиссом в точности.
Redis Query Engine:
Позволяет создавать вторичные индексы для хэшей и JSON, выполнять сложные поисковые запросы с поддержкой стемминга, синонимов, нечеткого поиска.
Поддержка поиска по векторным эмбеддингам, что делает Redis 8 мощной платформой для AI-приложений.
Безопасность:
Расширенные возможности контроля доступа (ACL), позволяющие детально настраивать права пользователей.
Улучшенная репликация:
Новый механизм репликации, который снижает использование памяти на 35%, ускоряет процесс на 18% и позволяет основной ноде работать с записью на 7,5% эффективнее во время репликации.
Объединение Redis Stack и Community Edition:
Все модули Redis Stack теперь включены в единый дистрибутив Redis Open Source, что упрощает использование и уменьшает фрагментацию сообщества.
Лицензирование:
Redis Open Source теперь доступен под лицензией AGPLv3, что облегчает использование для некоторых клиентов.
Инструменты для разработчиков:
Поддержка популярных клиентских библиотек, включая Redis OM для объектно-ориентированного моделирования.
Интеграция с Redis Insight и Redis for VS Code - визуальными инструментами для работы с Redis.
Встроенный AI-ассистент Redis Copilot для упрощения работы с данными и командами.
Поддержка GenAI:
Redis Vector Library (RedisVL) для работы с векторами и интеграции с большими языковыми моделями (LLM), что облегчает создание AI-приложений.
Основные выводы
Redis 8 - это значительный шаг вперед в развитии Redis, который делает его более быстрым, масштабируемым и функциональным. Новые структуры данных и возможности поиска позволяют Redis эффективно решать задачи, связанные с AI, семантическим поиском, обработкой больших потоков данных и временных рядов.
Объединение разных версий и модулей в единый дистрибутив упрощает жизнь разработчикам и пользователям, а улучшения в производительности и безопасности делают Redis 8 привлекательным выбором для современных приложений.
Если вы используете Redis 6 или 7, стоит планировать обновление до Redis 8, чтобы воспользоваться всеми преимуществами новой версии.
YouTube
Salvatore Sanfilippo
Programming, AI, algorithms & other stuff :)
The channel is bilingual, Italian and English. The hands-on programming videos are all in English (excluding the C language course).
The other videos (without an open terminal) may be mostly in Italian certain…
The channel is bilingual, Italian and English. The hands-on programming videos are all in English (excluding the C language course).
The other videos (without an open terminal) may be mostly in Italian certain…