Forwarded from Sberloga (🇻 🇱 🇦 🇩)
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from Технозаметки Малышева
Google готовит Sec-Gemini v1 - специализированную модель для кибербеза
Модель натренирована на данных о уязвимостях и может анализировать исходный код, обнаруживать баги и создавать эксплойты.
Уже тестируется внутри Google – инженеры используют её для поиска уязвимостей и защиты инфраструктуры.
Внешним пользователям доступна в Trusted Tester Program.
#Cybersecurity #SecGemini #безопасность #Google
———
@tsingular
Модель натренирована на данных о уязвимостях и может анализировать исходный код, обнаруживать баги и создавать эксплойты.
Уже тестируется внутри Google – инженеры используют её для поиска уязвимостей и защиты инфраструктуры.
Внешним пользователям доступна в Trusted Tester Program.
#Cybersecurity #SecGemini #безопасность #Google
———
@tsingular
Forwarded from GPT/ChatGPT/AI Central Александра Горного
This media is not supported in your browser
VIEW IN TELEGRAM
Google запустил Firebase Studio для генерации приложений
Агентская среда Firebase Studio использует Gemini для генерации прототипов приложений.
Инструмент способен выполнять такие задачи как тестирование, рефакторинг, объяснение кода и написание документации. Кроме генерации с нуля, Firebase Studio может работать с кодом из ваших репозиториев.
Попробовать можно здесь: https://studio.firebase.google.com/
Агентская среда Firebase Studio использует Gemini для генерации прототипов приложений.
Инструмент способен выполнять такие задачи как тестирование, рефакторинг, объяснение кода и написание документации. Кроме генерации с нуля, Firebase Studio может работать с кодом из ваших репозиториев.
Попробовать можно здесь: https://studio.firebase.google.com/
Forwarded from DevOps
Docker анонсировал Model Runner — новый инструмент, позволяющий запускать и тестировать модели искусственного интеллекта (ИИ) локально, прямо из вашей текущей рабочей среды. Теперь разработчики могут легко интегрировать ИИ в свои приложения без необходимости сложной настройки или использования облачных сервисов.
Локальный запуск моделей: Возможность запускать модели ИИ прямо на вашем компьютере без необходимости подключения к облаку.
Установите Docker Desktop версии
Включите функцию Model Runner в настройках Docker Desktop.
Используйте команду docker model pull для загрузки нужной модели.
Запустите модель с помощью команды
docker model run.https://www.docker.com/blog/introducing-docker-model-runner/
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Инжиниринг Данных (Dmitry)
В телеграм-каналах на техническую тематику появляется всё больше информации про использование AI для прикладных задач: про требования при приёме на работу, про отбор кандидатов, которым разрешено выполнять тестовые задания с использованием AI.
Нравится, не нравится —терпи, моя красавица нужно привыкать к новой реальности, где AI становится ещё одним инструментом в вашем арсенале, который помогает быть сверхэффективным.
Вы можете стать гораздо продуктивнее с AI, если будете понимать, как он работает, и просто делегировать ему часть задач. Пока что эти инструменты требуют контроля и проверки, но в будущем ситуация может сильно измениться — и уже они будут контролировать и проверять нас 🙂
За последние несколько дней с помощью AI я:
- Насоздавал dbt-моделей (SQL, YAML) в нескольких проектах — это сотни строк кода, написанных за меня;
- Конвертировал 15 таблиц из SQL Server в Snowflake и создал Snowflake Stored Procedures с MERGE;
- Контрибьютил в репозиторий с Protobuf и Go, имея минимальные знания по этим технологиям;
- Разрулил проблемы с PyTest в Dagster;
- Участвовал в двух хакатонах, где использовались хранилища данных и LLMs;
- Занимался troubleshooting’ом всего, что ломалось и не работало;
- И многое другое.
Физически всё это было бы невозможно сделать за такой короткий срок.
Каждый раз, когда работаю с Cursor AI, думаю: «Всё классно», — но пока Cursor не может сам выполнять запросы к базе данных «из коробки».
То есть, пока что еще много COPY-PASTE (ручного труда).
И вот тут бы отлично подошел бы MCP. Как раз про него свежая статья - MCP Protocol: a new AI dev tools building block
- MCP — это как USB-C для ИИ-инструментов: универсальный интерфейс для подключения внешних систем к LLM-интегрированным IDE.
- MCP делает возможным, например, обращаться к базе данных напрямую из редактора кода, без переключения на PgAdmin или другие GUI-инструменты.
- Используя MCP, IDE может автоматически обращаться к БД, находить нужные таблицы, строить SQL-запросы и интерпретировать результаты, помогая разработчику.
- MCP вдохновлён Language Server Protocol (LSP) от Microsoft, который сделал возможной легкую интеграцию поддержки языков программирования в IDE.
- MCP быстро набрал популярность: VS Code, Cursor, Windsurf, Zed, Claude Desktop, Neovim и др. уже поддерживают MCP или планируют.
- Разработчики могут “разговаривать” с базами данных, CI/CD, системами фич-флагов и т.п. на естественном языке прямо в IDE.
- Протокол ещё очень сырой, но потенциал — огромный: как для повышения продуктивности разработчиков, так и для развития ИИ-агентов.
🎯 Основная идея:
Разработчику больше не нужно переключаться между инструментами. Он может задавать вопросы на естественном языке прямо в IDE, а LLM, используя MCP, под капотом подключается к нужным системам (БД, тикетинг и т.п.) и возвращает результат.
Нравится, не нравится —
Вы можете стать гораздо продуктивнее с AI, если будете понимать, как он работает, и просто делегировать ему часть задач. Пока что эти инструменты требуют контроля и проверки, но в будущем ситуация может сильно измениться — и уже они будут контролировать и проверять нас 🙂
За последние несколько дней с помощью AI я:
- Насоздавал dbt-моделей (SQL, YAML) в нескольких проектах — это сотни строк кода, написанных за меня;
- Конвертировал 15 таблиц из SQL Server в Snowflake и создал Snowflake Stored Procedures с MERGE;
- Контрибьютил в репозиторий с Protobuf и Go, имея минимальные знания по этим технологиям;
- Разрулил проблемы с PyTest в Dagster;
- Участвовал в двух хакатонах, где использовались хранилища данных и LLMs;
- Занимался troubleshooting’ом всего, что ломалось и не работало;
- И многое другое.
Физически всё это было бы невозможно сделать за такой короткий срок.
Каждый раз, когда работаю с Cursor AI, думаю: «Всё классно», — но пока Cursor не может сам выполнять запросы к базе данных «из коробки».
То есть, пока что еще много COPY-PASTE (ручного труда).
И вот тут бы отлично подошел бы MCP. Как раз про него свежая статья - MCP Protocol: a new AI dev tools building block
- MCP — это как USB-C для ИИ-инструментов: универсальный интерфейс для подключения внешних систем к LLM-интегрированным IDE.
- MCP делает возможным, например, обращаться к базе данных напрямую из редактора кода, без переключения на PgAdmin или другие GUI-инструменты.
- Используя MCP, IDE может автоматически обращаться к БД, находить нужные таблицы, строить SQL-запросы и интерпретировать результаты, помогая разработчику.
- MCP вдохновлён Language Server Protocol (LSP) от Microsoft, который сделал возможной легкую интеграцию поддержки языков программирования в IDE.
- MCP быстро набрал популярность: VS Code, Cursor, Windsurf, Zed, Claude Desktop, Neovim и др. уже поддерживают MCP или планируют.
- Разработчики могут “разговаривать” с базами данных, CI/CD, системами фич-флагов и т.п. на естественном языке прямо в IDE.
- Протокол ещё очень сырой, но потенциал — огромный: как для повышения продуктивности разработчиков, так и для развития ИИ-агентов.
🎯 Основная идея:
Разработчику больше не нужно переключаться между инструментами. Он может задавать вопросы на естественном языке прямо в IDE, а LLM, используя MCP, под капотом подключается к нужным системам (БД, тикетинг и т.п.) и возвращает результат.
Pragmaticengineer
MCP Protocol: a new AI dev tools building block
The Model Context Protocol - that extends IDEs’ AI capabilities - is gaining rapid popularity. Why is this, and why should us developers pay attention to it?
#windsurf.com https://windsurf.com/
#perplexing: https://www.perplexity.ai/search/4b1aa96a-6047-4850-80c7-33471d056426
#perplexing: https://www.perplexity.ai/search/4b1aa96a-6047-4850-80c7-33471d056426
Windsurf
Windsurf - The best AI for Coding
Windsurf is the world's most advanced AI coding assistant for developers and enterprises. Windsurf Editor — the first AI-native IDE that keeps developers in flow.
Forwarded from Habr.com
[Перевод] Обзор 4 новых инструментов AI для программирования: v0, Bolt.new, Cursor, Windsurf
#ии #ai #frontend #backend
https://habr.com/ru/articles/866336/
#ии #ai #frontend #backend
https://habr.com/ru/articles/866336/
Хабр
Обзор 4 новых инструментов AI для программирования: v0, Bolt.new, Cursor, Windsurf
С быстрым развитием искусственного интеллекта появляются новые инструменты, которые помогают разработчикам работать быстрее и эффективнее. В этой статье мы рассмотрим четыре таких инструмента: v0,...
Forwarded from Хабр / ML & AI
[Перевод] Cursor vs Windsurf vs GitHub Copilot
Искусственный интеллект уже давно перестал быть лишь трендом и стал важным инструментом для разработчиков. В этой статье мы сравним три популярных AI-помощника для программирования: GitHub Copilot, Cursor и Windsurf. Каждый из них предлагает уникальные возможности для автоматизации рутинных задач, таких как автозаполнение кода, его генерация и улучшение рабочих процессов в IDE. Мы подробно рассмотрим, как эти решения помогают ускорить разработку и какие особенности отличают их друг от друга, чтобы вы могли выбрать подходящий инструмент для своих задач.
Читать далее
#github_copilot #cursor #windsurf #ии_помощники #разработка | @habr_ai
Искусственный интеллект уже давно перестал быть лишь трендом и стал важным инструментом для разработчиков. В этой статье мы сравним три популярных AI-помощника для программирования: GitHub Copilot, Cursor и Windsurf. Каждый из них предлагает уникальные возможности для автоматизации рутинных задач, таких как автозаполнение кода, его генерация и улучшение рабочих процессов в IDE. Мы подробно рассмотрим, как эти решения помогают ускорить разработку и какие особенности отличают их друг от друга, чтобы вы могли выбрать подходящий инструмент для своих задач.
Читать далее
#github_copilot #cursor #windsurf #ии_помощники #разработка | @habr_ai
Хабр
Cursor vs Windsurf vs GitHub Copilot
Сегодня очевидно, что искусственный интеллект уже не просто тренд для разработчиков — он стал неотъемлемой частью процесса написания кода. ИИ-помощники для программирования стремительно развились от...
Forwarded from 🏆 Data Feeling | AI (Aleron Milenkin)
🚀 OpenAI выпускает GPT-4.1 — новый уровень!
OpenAI представили GPT-4.1, и это не просто апдейт — это серьёзный шаг вперёд.
Модель с контекстным окном в 1 МИЛЛИОН токенов (да, догнали Gemini спустя год!) и возможностями на уровне (а то и выше) топовых open-source моделей вроде o3-mini — и всё это без цепочек рассуждений.
GPT-4.1 уже показывает отличные результаты по кодингу и бенчмаркам.
⚠️Но есть нюанс: доступна только через API, в чатах OpenAI (пока) её не будет.
А вайбкодеры сегодня принимайте подарок!🎁
Целую неделю GPT-4.1 можно использовать бесплатно в Windsurf — это альтернатива Cursor с полноценной интеграцией новой модели.
Это первая базовая модель, которая по коду реально обходит многие хайповые open-source решения. Отличный повод затестить и вкатиться в новую волну вайб-кодинга.
🎚 GPT-4.1 уже здесь, но только для разработчиков. Остальным придётся немного подождать.
OpenAI представили GPT-4.1, и это не просто апдейт — это серьёзный шаг вперёд.
Модель с контекстным окном в 1 МИЛЛИОН токенов (да, догнали Gemini спустя год!) и возможностями на уровне (а то и выше) топовых open-source моделей вроде o3-mini — и всё это без цепочек рассуждений.
GPT-4.1 уже показывает отличные результаты по кодингу и бенчмаркам.
⚠️Но есть нюанс: доступна только через API, в чатах OpenAI (пока) её не будет.
А вайбкодеры сегодня принимайте подарок!🎁
Целую неделю GPT-4.1 можно использовать бесплатно в Windsurf — это альтернатива Cursor с полноценной интеграцией новой модели.
Это первая базовая модель, которая по коду реально обходит многие хайповые open-source решения. Отличный повод затестить и вкатиться в новую волну вайб-кодинга.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сказки из IT - Егор Урванов
Мы не просто «внедряем ChatGPT». Мы расширяем пайплайн и часть инструментов разработчика, IDE, например. LLM теперь не фича — это часть toolchain. Такой же как Git, Docker и kubectl. Ты не просто пишешь код — ты ведёшь диалог с моделью, которая умеет генерировать паттерны, валидировать бизнес-логику, резюмировать PR, устранять циклические зависимости, даже подсказывать, где у тебя state leaking.
Выглядит как магия — по сути, это новый runtime. И ты, как инженер, должен это осознавать как инженер, а не как юзер. Раньше attack surface был:
— network layer
— open ports
— exposed S3
— слабая авторизация в GraphQL
Теперь — новая плоскость: prompt layer. Ты бахаешь в LLM свой
Ты шифруешь данные, а потом тебе DevOps заливает в GPT конфиг Vault с root-токеном, чтобы «понять, почему не деплоится». Поверхность атаки — это уже не сеть. Это VSCode + привычка “спросить у ИИ” без башки.
О чём я в последнее время думаю, так это о promt-ops и промптах в репе, как код. ИИ — это уже не тулза. Это dependency. У него latency, side effects, и его тоже надо дебажить
——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Выглядит как магия — по сути, это новый runtime. И ты, как инженер, должен это осознавать как инженер, а не как юзер. Раньше attack surface был:
— network layer
— open ports
— exposed S3
— слабая авторизация в GraphQL
Теперь — новая плоскость: prompt layer. Ты бахаешь в LLM свой
main.py, .env, фрагмент SQL-дампа, кусок docker-compose с кредами. И всё. Запрос уехалТы шифруешь данные, а потом тебе DevOps заливает в GPT конфиг Vault с root-токеном, чтобы «понять, почему не деплоится». Поверхность атаки — это уже не сеть. Это VSCode + привычка “спросить у ИИ” без башки.
О чём я в последнее время думаю, так это о promt-ops и промптах в репе, как код. ИИ — это уже не тулза. Это dependency. У него latency, side effects, и его тоже надо дебажить
——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Forwarded from 🏆 Data Feeling | AI (Aleron Milenkin)
Топ-5 самых популярных:
1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o
Топ-5 быстрее всего набирающих популярность:
1. o3
2. o4-mini
3. DeepSeek 3.1
4. GPT-4.1
5. Grok 3
Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек 🧑💻🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 5 minutes of data
Новые AI стали ошибаться чаще, чем их предшественники.
Недавно американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini.
Однако, как показали тесты o3 и o4-mini, по-видимому, сделали значительный шаг назад: они склонны придумывать - или галлюцинировать - сильнее, чем их более ранние версии.
По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.
Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда, как o4-mini показала еще более худший результат - 48%.
Хуже того, специалисты компании, похоже, не до конца понимают, причины проблем. Согласно их техническому отчету, необходимы дополнительные исследования, чтобы понять причину этих ошибок.
А вы замечали, что модели чаще стали выдавать не правильные ответы?
Недавно американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini.
Однако, как показали тесты o3 и o4-mini, по-видимому, сделали значительный шаг назад: они склонны придумывать - или галлюцинировать - сильнее, чем их более ранние версии.
По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.
Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда, как o4-mini показала еще более худший результат - 48%.
Хуже того, специалисты компании, похоже, не до конца понимают, причины проблем. Согласно их техническому отчету, необходимы дополнительные исследования, чтобы понять причину этих ошибок.
А вы замечали, что модели чаще стали выдавать не правильные ответы?
TechCrunch
OpenAI's new reasoning AI models hallucinate more | TechCrunch
OpenAI's reasoning AI models are getting better, but their hallucinating isn't, according to benchmark results.
Forwarded from 5 minutes of data
Vibe Coding: The Future of Programming
Искусственный интеллект трансформирует разработку программного обеспечения, переводя программистов от написания кода к совместной работе с ИИ в рамках интент-ориентированного подхода - это и есть vibe coding. Книга «Vibe Coding: Будущее программирования» исследует, как ИИ-ассистенты, такие как GitHub Copilot и OpenAI Codex, меняют процесс создания ПО, автоматизируя рутинные задачи программирования и влияя на архитектурные и дизайнерские решения.
Вот и книга по вайб-кодингу подъехала, термин только появился, а уже книги пишут.
Вайб-чтение:
Когда ты не читаешь книгу, LLM делает это за тебя, сохраняя знания в векторной базе данных.
Тем, кто увлечён вайб-кодингом, нет смысла читать эту книгу. Вы все можете сгенерировать эмбеддинги за пару шагов.
Искусственный интеллект трансформирует разработку программного обеспечения, переводя программистов от написания кода к совместной работе с ИИ в рамках интент-ориентированного подхода - это и есть vibe coding. Книга «Vibe Coding: Будущее программирования» исследует, как ИИ-ассистенты, такие как GitHub Copilot и OpenAI Codex, меняют процесс создания ПО, автоматизируя рутинные задачи программирования и влияя на архитектурные и дизайнерские решения.
Вот и книга по вайб-кодингу подъехала, термин только появился, а уже книги пишут.
Вайб-чтение:
Когда ты не читаешь книгу, LLM делает это за тебя, сохраняя знания в векторной базе данных.
Тем, кто увлечён вайб-кодингом, нет смысла читать эту книгу. Вы все можете сгенерировать эмбеддинги за пару шагов.
Forwarded from 5 minutes of data
Что такое MCP и почему это прорыв для LLM и агентов?
Представьте: вы подключаете к ChatGPT новые функции так же легко, как флешку к компьютеру.
Звучит фантастично?
С протоколом MCP (Model Context Protocol) это реальность!
MCP - это USB-интерфейс для AI-приложений. Он разделяет возможности моделей (LLM) и их интеграцию, позволяя подключать любые сервисы без переобучения модели или переписывания кода.
Как это работает?
В основе MCP - три компонента:
1. Host - приложение, с которым вы работаете (например, Claude Desktop или ChatGPT).
2. Client - посредник между Host и Server, который изолирует задачи.
3. Server - сервер с конкретными функциями (например, работа с почтой, Slack или вашим API).
Хотите, чтобы модель отвечала на письма?
Подключите Gmail Server.
Нужно публиковать посты в соцсетях?
Добавьте Slack Server. Своё API? Оберните его в MCP-сервер и готово!
Что делать дальше?
1. Прочтите спецификацию MCP - она короткая и понятная.
2. Поэкспериментируйте: подключите Claude Desktop к существующим серверам (их тысячи!).
3. Создайте свой MCP-сервер - самый быстрый способ разобраться в системе.
MCP меняет правила игры, превращая LLM в швейцарский нож с бесконечными возможностями.
А в этом видео Егор Бугаенко очень класно раасказывает, о том, что такое MCP - сервера, какое будущее их ждет и почему фронтэнд будет больше не нужен.
@data_whisperer
Представьте: вы подключаете к ChatGPT новые функции так же легко, как флешку к компьютеру.
Звучит фантастично?
С протоколом MCP (Model Context Protocol) это реальность!
MCP - это USB-интерфейс для AI-приложений. Он разделяет возможности моделей (LLM) и их интеграцию, позволяя подключать любые сервисы без переобучения модели или переписывания кода.
Как это работает?
В основе MCP - три компонента:
1. Host - приложение, с которым вы работаете (например, Claude Desktop или ChatGPT).
2. Client - посредник между Host и Server, который изолирует задачи.
3. Server - сервер с конкретными функциями (например, работа с почтой, Slack или вашим API).
Хотите, чтобы модель отвечала на письма?
Подключите Gmail Server.
Нужно публиковать посты в соцсетях?
Добавьте Slack Server. Своё API? Оберните его в MCP-сервер и готово!
Что делать дальше?
1. Прочтите спецификацию MCP - она короткая и понятная.
2. Поэкспериментируйте: подключите Claude Desktop к существующим серверам (их тысячи!).
3. Создайте свой MCP-сервер - самый быстрый способ разобраться в системе.
MCP меняет правила игры, превращая LLM в швейцарский нож с бесконечными возможностями.
А в этом видео Егор Бугаенко очень класно раасказывает, о том, что такое MCP - сервера, какое будущее их ждет и почему фронтэнд будет больше не нужен.
@data_whisperer
Forwarded from 5 minutes of data
Запутались в зоопарке AI-технологий? Ловите гайд для старта!
Как и всегда, теорию нужно совмещать с практикой!
📚 Теория:
→ Промт-инжиниринг для GenAI - учимся «разговаривать» с нейросетями.
→ Разработка приложений на GPT-4/ChatGPT - от идеи до MVP.
Две книги, которые дадут прочную базу при работе с AI, рассказывают историю, работу AI и как писать приложения с AI.
🛠️ Для практики берем бесплатные курсы от Anthropic Academy, в которых вы научитесь работать с MCP и AI agents.
И не забываем про LLM Zoomcamp, который начинается совсем скоро, анонс будет в канале!
Это та необходимая база, которая позволит вам чувствовать себя уверенно в стремительно меняющемся мире.
Не бойтесь изучать новое, AI не заменит вас, если вы будете в курсе последних трендов и сможете интегрировать его в свою работу.
А если страшно - пишите в комментарии, вместе разберёмся.
P.S. Не откладывайте на завтра. Самый сложный шаг - первый, а дальше AI сам вас затянет
@data_whisperer
Как и всегда, теорию нужно совмещать с практикой!
📚 Теория:
→ Промт-инжиниринг для GenAI - учимся «разговаривать» с нейросетями.
→ Разработка приложений на GPT-4/ChatGPT - от идеи до MVP.
Две книги, которые дадут прочную базу при работе с AI, рассказывают историю, работу AI и как писать приложения с AI.
🛠️ Для практики берем бесплатные курсы от Anthropic Academy, в которых вы научитесь работать с MCP и AI agents.
И не забываем про LLM Zoomcamp, который начинается совсем скоро, анонс будет в канале!
Это та необходимая база, которая позволит вам чувствовать себя уверенно в стремительно меняющемся мире.
Не бойтесь изучать новое, AI не заменит вас, если вы будете в курсе последних трендов и сможете интегрировать его в свою работу.
А если страшно - пишите в комментарии, вместе разберёмся.
P.S. Не откладывайте на завтра. Самый сложный шаг - первый, а дальше AI сам вас затянет
@data_whisperer
Anthropic
AI Learning Resources & Guides from Anthropic
Access comprehensive guides, tutorials, and best practices for working with Claude. Learn how to craft effective prompts and maximize AI interactions in your workflow.
Forwarded from Ivan Begtin (Ivan Begtin)
Model Context Protocol (MCP) был разработан компанией Anthropic для интеграции существующих сервисов и данных в LLM Claude. Это весьма простой и неплохо стандартизированный протокол с вариантами референсной реализации на Python, Java, Typescript, Swift, Kotlin, C# и с большим числом реализаций на других языках.
Тысячи серверов MCP уже доступны и вот основные ресурсы где можно их искать:
- Model Context Protocol servers - большой каталог на Github
- Awesome MCP Servers - ещё один большой каталог с переводом на несколько языков
- Pipedream MCP - интеграция с 12.5 тысяч API и инструментов через сервис Pipedream
- Zapier MCP - интеграция с 8 тысячами приложений через сервис Zapier
- Smithery - каталог MCP серверов, 6200+ записей по множеству категорий
- MCP.so - каталог в 13100+ MCP серверов
Похоже мода на MCP пришла надолго и пора добавлять его к своим продуктам повсеместно.
#ai #opensource #aitools
Тысячи серверов MCP уже доступны и вот основные ресурсы где можно их искать:
- Model Context Protocol servers - большой каталог на Github
- Awesome MCP Servers - ещё один большой каталог с переводом на несколько языков
- Pipedream MCP - интеграция с 12.5 тысяч API и инструментов через сервис Pipedream
- Zapier MCP - интеграция с 8 тысячами приложений через сервис Zapier
- Smithery - каталог MCP серверов, 6200+ записей по множеству категорий
- MCP.so - каталог в 13100+ MCP серверов
Похоже мода на MCP пришла надолго и пора добавлять его к своим продуктам повсеместно.
#ai #opensource #aitools
Model Context Protocol
What is the Model Context Protocol (MCP)? - Model Context Protocol
Forwarded from 5 minutes of data
Void - альтернатива Cursor
Void - это open-source альтернатива Cursor. Поддерживает использование ИИ-агентов, создание контрольных точек и локальное размещение моделей. Void является форком репозитория VS Code.
Void - это open-source альтернатива Cursor. Поддерживает использование ИИ-агентов, создание контрольных точек и локальное размещение моделей. Void является форком репозитория VS Code.
GitHub
GitHub - voideditor/void
Contribute to voideditor/void development by creating an account on GitHub.
Forwarded from Radio-T Подкаст
Темы
Вступление - 00:00:00.
Проклятие знания как надо (https://notashelf.dev/posts/curse-of-knowing) - 00:15:12.
Zed официально с агентским AI (https://zed.dev/agentic) - 00:41:35.
OpenAI купит Windsurf за три инстаграма (https://venturebeat.com/ai/openais-3b-windsurf-move-the-real-reason-behind-its-enterprise-ai-agent-code-push/) - 01:10:46.
Anthropic API добавили web поиск (https://www.anthropic.com/news/web-search-api) - 01:50:55.
Темы слушателей (https://radio-t.com/p/2025/05/06/prep-960/) - 01:59:15.
аудио (https://cdn.radio-t.com/rt_podcast960.mp3) • лог чата (https://chat.radio-t.com/logs/radio-t-960.html)
Вступление - 00:00:00.
Проклятие знания как надо (https://notashelf.dev/posts/curse-of-knowing) - 00:15:12.
Zed официально с агентским AI (https://zed.dev/agentic) - 00:41:35.
OpenAI купит Windsurf за три инстаграма (https://venturebeat.com/ai/openais-3b-windsurf-move-the-real-reason-behind-its-enterprise-ai-agent-code-push/) - 01:10:46.
Anthropic API добавили web поиск (https://www.anthropic.com/news/web-search-api) - 01:50:55.
Темы слушателей (https://radio-t.com/p/2025/05/06/prep-960/) - 01:59:15.
аудио (https://cdn.radio-t.com/rt_podcast960.mp3) • лог чата (https://chat.radio-t.com/logs/radio-t-960.html)
Радио-Т 960
podcast@radio-t.com (Umputun, Bobuk, Gray, Ksenks, Alek.sys)
Радио-Т 960
Темы
Вступление - 00:00:00.
Проклятия знания как надо - 00:15:12.
Zed официально с агентским AI - 00:41:35.
OpenAI купит Windsurf за три инстаграма - 01:10:46.
Anthropic API добавили web поиск - 01:50:55.
Темы слушателей - 01:59:15.
аудио • лог чата
Темы
Вступление - 00:00:00.
Проклятия знания как надо - 00:15:12.
Zed официально с агентским AI - 00:41:35.
OpenAI купит Windsurf за три инстаграма - 01:10:46.
Anthropic API добавили web поиск - 01:50:55.
Темы слушателей - 01:59:15.
аудио • лог чата