Forwarded from 🏆 Data Feeling | AI (Aleron Milenkin)
🚀 OpenAI выпускает GPT-4.1 — новый уровень!
OpenAI представили GPT-4.1, и это не просто апдейт — это серьёзный шаг вперёд.
Модель с контекстным окном в 1 МИЛЛИОН токенов (да, догнали Gemini спустя год!) и возможностями на уровне (а то и выше) топовых open-source моделей вроде o3-mini — и всё это без цепочек рассуждений.
GPT-4.1 уже показывает отличные результаты по кодингу и бенчмаркам.
⚠️Но есть нюанс: доступна только через API, в чатах OpenAI (пока) её не будет.
А вайбкодеры сегодня принимайте подарок!🎁
Целую неделю GPT-4.1 можно использовать бесплатно в Windsurf — это альтернатива Cursor с полноценной интеграцией новой модели.
Это первая базовая модель, которая по коду реально обходит многие хайповые open-source решения. Отличный повод затестить и вкатиться в новую волну вайб-кодинга.
🎚 GPT-4.1 уже здесь, но только для разработчиков. Остальным придётся немного подождать.
OpenAI представили GPT-4.1, и это не просто апдейт — это серьёзный шаг вперёд.
Модель с контекстным окном в 1 МИЛЛИОН токенов (да, догнали Gemini спустя год!) и возможностями на уровне (а то и выше) топовых open-source моделей вроде o3-mini — и всё это без цепочек рассуждений.
GPT-4.1 уже показывает отличные результаты по кодингу и бенчмаркам.
⚠️Но есть нюанс: доступна только через API, в чатах OpenAI (пока) её не будет.
А вайбкодеры сегодня принимайте подарок!🎁
Целую неделю GPT-4.1 можно использовать бесплатно в Windsurf — это альтернатива Cursor с полноценной интеграцией новой модели.
Это первая базовая модель, которая по коду реально обходит многие хайповые open-source решения. Отличный повод затестить и вкатиться в новую волну вайб-кодинга.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сказки из IT - Егор Урванов
Мы не просто «внедряем ChatGPT». Мы расширяем пайплайн и часть инструментов разработчика, IDE, например. LLM теперь не фича — это часть toolchain. Такой же как Git, Docker и kubectl. Ты не просто пишешь код — ты ведёшь диалог с моделью, которая умеет генерировать паттерны, валидировать бизнес-логику, резюмировать PR, устранять циклические зависимости, даже подсказывать, где у тебя state leaking.
Выглядит как магия — по сути, это новый runtime. И ты, как инженер, должен это осознавать как инженер, а не как юзер. Раньше attack surface был:
— network layer
— open ports
— exposed S3
— слабая авторизация в GraphQL
Теперь — новая плоскость: prompt layer. Ты бахаешь в LLM свой
Ты шифруешь данные, а потом тебе DevOps заливает в GPT конфиг Vault с root-токеном, чтобы «понять, почему не деплоится». Поверхность атаки — это уже не сеть. Это VSCode + привычка “спросить у ИИ” без башки.
О чём я в последнее время думаю, так это о promt-ops и промптах в репе, как код. ИИ — это уже не тулза. Это dependency. У него latency, side effects, и его тоже надо дебажить
——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Выглядит как магия — по сути, это новый runtime. И ты, как инженер, должен это осознавать как инженер, а не как юзер. Раньше attack surface был:
— network layer
— open ports
— exposed S3
— слабая авторизация в GraphQL
Теперь — новая плоскость: prompt layer. Ты бахаешь в LLM свой
main.py, .env, фрагмент SQL-дампа, кусок docker-compose с кредами. И всё. Запрос уехалТы шифруешь данные, а потом тебе DevOps заливает в GPT конфиг Vault с root-токеном, чтобы «понять, почему не деплоится». Поверхность атаки — это уже не сеть. Это VSCode + привычка “спросить у ИИ” без башки.
О чём я в последнее время думаю, так это о promt-ops и промптах в репе, как код. ИИ — это уже не тулза. Это dependency. У него latency, side effects, и его тоже надо дебажить
——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Forwarded from 🏆 Data Feeling | AI (Aleron Milenkin)
Топ-5 самых популярных:
1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o
Топ-5 быстрее всего набирающих популярность:
1. o3
2. o4-mini
3. DeepSeek 3.1
4. GPT-4.1
5. Grok 3
Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек 🧑💻🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 5 minutes of data
Новые AI стали ошибаться чаще, чем их предшественники.
Недавно американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini.
Однако, как показали тесты o3 и o4-mini, по-видимому, сделали значительный шаг назад: они склонны придумывать - или галлюцинировать - сильнее, чем их более ранние версии.
По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.
Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда, как o4-mini показала еще более худший результат - 48%.
Хуже того, специалисты компании, похоже, не до конца понимают, причины проблем. Согласно их техническому отчету, необходимы дополнительные исследования, чтобы понять причину этих ошибок.
А вы замечали, что модели чаще стали выдавать не правильные ответы?
Недавно американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini.
Однако, как показали тесты o3 и o4-mini, по-видимому, сделали значительный шаг назад: они склонны придумывать - или галлюцинировать - сильнее, чем их более ранние версии.
По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.
Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда, как o4-mini показала еще более худший результат - 48%.
Хуже того, специалисты компании, похоже, не до конца понимают, причины проблем. Согласно их техническому отчету, необходимы дополнительные исследования, чтобы понять причину этих ошибок.
А вы замечали, что модели чаще стали выдавать не правильные ответы?
TechCrunch
OpenAI's new reasoning AI models hallucinate more | TechCrunch
OpenAI's reasoning AI models are getting better, but their hallucinating isn't, according to benchmark results.
Forwarded from 5 minutes of data
Vibe Coding: The Future of Programming
Искусственный интеллект трансформирует разработку программного обеспечения, переводя программистов от написания кода к совместной работе с ИИ в рамках интент-ориентированного подхода - это и есть vibe coding. Книга «Vibe Coding: Будущее программирования» исследует, как ИИ-ассистенты, такие как GitHub Copilot и OpenAI Codex, меняют процесс создания ПО, автоматизируя рутинные задачи программирования и влияя на архитектурные и дизайнерские решения.
Вот и книга по вайб-кодингу подъехала, термин только появился, а уже книги пишут.
Вайб-чтение:
Когда ты не читаешь книгу, LLM делает это за тебя, сохраняя знания в векторной базе данных.
Тем, кто увлечён вайб-кодингом, нет смысла читать эту книгу. Вы все можете сгенерировать эмбеддинги за пару шагов.
Искусственный интеллект трансформирует разработку программного обеспечения, переводя программистов от написания кода к совместной работе с ИИ в рамках интент-ориентированного подхода - это и есть vibe coding. Книга «Vibe Coding: Будущее программирования» исследует, как ИИ-ассистенты, такие как GitHub Copilot и OpenAI Codex, меняют процесс создания ПО, автоматизируя рутинные задачи программирования и влияя на архитектурные и дизайнерские решения.
Вот и книга по вайб-кодингу подъехала, термин только появился, а уже книги пишут.
Вайб-чтение:
Когда ты не читаешь книгу, LLM делает это за тебя, сохраняя знания в векторной базе данных.
Тем, кто увлечён вайб-кодингом, нет смысла читать эту книгу. Вы все можете сгенерировать эмбеддинги за пару шагов.
Forwarded from 5 minutes of data
Что такое MCP и почему это прорыв для LLM и агентов?
Представьте: вы подключаете к ChatGPT новые функции так же легко, как флешку к компьютеру.
Звучит фантастично?
С протоколом MCP (Model Context Protocol) это реальность!
MCP - это USB-интерфейс для AI-приложений. Он разделяет возможности моделей (LLM) и их интеграцию, позволяя подключать любые сервисы без переобучения модели или переписывания кода.
Как это работает?
В основе MCP - три компонента:
1. Host - приложение, с которым вы работаете (например, Claude Desktop или ChatGPT).
2. Client - посредник между Host и Server, который изолирует задачи.
3. Server - сервер с конкретными функциями (например, работа с почтой, Slack или вашим API).
Хотите, чтобы модель отвечала на письма?
Подключите Gmail Server.
Нужно публиковать посты в соцсетях?
Добавьте Slack Server. Своё API? Оберните его в MCP-сервер и готово!
Что делать дальше?
1. Прочтите спецификацию MCP - она короткая и понятная.
2. Поэкспериментируйте: подключите Claude Desktop к существующим серверам (их тысячи!).
3. Создайте свой MCP-сервер - самый быстрый способ разобраться в системе.
MCP меняет правила игры, превращая LLM в швейцарский нож с бесконечными возможностями.
А в этом видео Егор Бугаенко очень класно раасказывает, о том, что такое MCP - сервера, какое будущее их ждет и почему фронтэнд будет больше не нужен.
@data_whisperer
Представьте: вы подключаете к ChatGPT новые функции так же легко, как флешку к компьютеру.
Звучит фантастично?
С протоколом MCP (Model Context Protocol) это реальность!
MCP - это USB-интерфейс для AI-приложений. Он разделяет возможности моделей (LLM) и их интеграцию, позволяя подключать любые сервисы без переобучения модели или переписывания кода.
Как это работает?
В основе MCP - три компонента:
1. Host - приложение, с которым вы работаете (например, Claude Desktop или ChatGPT).
2. Client - посредник между Host и Server, который изолирует задачи.
3. Server - сервер с конкретными функциями (например, работа с почтой, Slack или вашим API).
Хотите, чтобы модель отвечала на письма?
Подключите Gmail Server.
Нужно публиковать посты в соцсетях?
Добавьте Slack Server. Своё API? Оберните его в MCP-сервер и готово!
Что делать дальше?
1. Прочтите спецификацию MCP - она короткая и понятная.
2. Поэкспериментируйте: подключите Claude Desktop к существующим серверам (их тысячи!).
3. Создайте свой MCP-сервер - самый быстрый способ разобраться в системе.
MCP меняет правила игры, превращая LLM в швейцарский нож с бесконечными возможностями.
А в этом видео Егор Бугаенко очень класно раасказывает, о том, что такое MCP - сервера, какое будущее их ждет и почему фронтэнд будет больше не нужен.
@data_whisperer
Forwarded from 5 minutes of data
Запутались в зоопарке AI-технологий? Ловите гайд для старта!
Как и всегда, теорию нужно совмещать с практикой!
📚 Теория:
→ Промт-инжиниринг для GenAI - учимся «разговаривать» с нейросетями.
→ Разработка приложений на GPT-4/ChatGPT - от идеи до MVP.
Две книги, которые дадут прочную базу при работе с AI, рассказывают историю, работу AI и как писать приложения с AI.
🛠️ Для практики берем бесплатные курсы от Anthropic Academy, в которых вы научитесь работать с MCP и AI agents.
И не забываем про LLM Zoomcamp, который начинается совсем скоро, анонс будет в канале!
Это та необходимая база, которая позволит вам чувствовать себя уверенно в стремительно меняющемся мире.
Не бойтесь изучать новое, AI не заменит вас, если вы будете в курсе последних трендов и сможете интегрировать его в свою работу.
А если страшно - пишите в комментарии, вместе разберёмся.
P.S. Не откладывайте на завтра. Самый сложный шаг - первый, а дальше AI сам вас затянет
@data_whisperer
Как и всегда, теорию нужно совмещать с практикой!
📚 Теория:
→ Промт-инжиниринг для GenAI - учимся «разговаривать» с нейросетями.
→ Разработка приложений на GPT-4/ChatGPT - от идеи до MVP.
Две книги, которые дадут прочную базу при работе с AI, рассказывают историю, работу AI и как писать приложения с AI.
🛠️ Для практики берем бесплатные курсы от Anthropic Academy, в которых вы научитесь работать с MCP и AI agents.
И не забываем про LLM Zoomcamp, который начинается совсем скоро, анонс будет в канале!
Это та необходимая база, которая позволит вам чувствовать себя уверенно в стремительно меняющемся мире.
Не бойтесь изучать новое, AI не заменит вас, если вы будете в курсе последних трендов и сможете интегрировать его в свою работу.
А если страшно - пишите в комментарии, вместе разберёмся.
P.S. Не откладывайте на завтра. Самый сложный шаг - первый, а дальше AI сам вас затянет
@data_whisperer
Anthropic
AI Learning Resources & Guides from Anthropic
Access comprehensive guides, tutorials, and best practices for working with Claude. Learn how to craft effective prompts and maximize AI interactions in your workflow.
Forwarded from Ivan Begtin (Ivan Begtin)
Model Context Protocol (MCP) был разработан компанией Anthropic для интеграции существующих сервисов и данных в LLM Claude. Это весьма простой и неплохо стандартизированный протокол с вариантами референсной реализации на Python, Java, Typescript, Swift, Kotlin, C# и с большим числом реализаций на других языках.
Тысячи серверов MCP уже доступны и вот основные ресурсы где можно их искать:
- Model Context Protocol servers - большой каталог на Github
- Awesome MCP Servers - ещё один большой каталог с переводом на несколько языков
- Pipedream MCP - интеграция с 12.5 тысяч API и инструментов через сервис Pipedream
- Zapier MCP - интеграция с 8 тысячами приложений через сервис Zapier
- Smithery - каталог MCP серверов, 6200+ записей по множеству категорий
- MCP.so - каталог в 13100+ MCP серверов
Похоже мода на MCP пришла надолго и пора добавлять его к своим продуктам повсеместно.
#ai #opensource #aitools
Тысячи серверов MCP уже доступны и вот основные ресурсы где можно их искать:
- Model Context Protocol servers - большой каталог на Github
- Awesome MCP Servers - ещё один большой каталог с переводом на несколько языков
- Pipedream MCP - интеграция с 12.5 тысяч API и инструментов через сервис Pipedream
- Zapier MCP - интеграция с 8 тысячами приложений через сервис Zapier
- Smithery - каталог MCP серверов, 6200+ записей по множеству категорий
- MCP.so - каталог в 13100+ MCP серверов
Похоже мода на MCP пришла надолго и пора добавлять его к своим продуктам повсеместно.
#ai #opensource #aitools
Model Context Protocol
What is the Model Context Protocol (MCP)? - Model Context Protocol
Forwarded from 5 minutes of data
Void - альтернатива Cursor
Void - это open-source альтернатива Cursor. Поддерживает использование ИИ-агентов, создание контрольных точек и локальное размещение моделей. Void является форком репозитория VS Code.
Void - это open-source альтернатива Cursor. Поддерживает использование ИИ-агентов, создание контрольных точек и локальное размещение моделей. Void является форком репозитория VS Code.
GitHub
GitHub - voideditor/void
Contribute to voideditor/void development by creating an account on GitHub.
Forwarded from Radio-T Подкаст
Темы
Вступление - 00:00:00.
Проклятие знания как надо (https://notashelf.dev/posts/curse-of-knowing) - 00:15:12.
Zed официально с агентским AI (https://zed.dev/agentic) - 00:41:35.
OpenAI купит Windsurf за три инстаграма (https://venturebeat.com/ai/openais-3b-windsurf-move-the-real-reason-behind-its-enterprise-ai-agent-code-push/) - 01:10:46.
Anthropic API добавили web поиск (https://www.anthropic.com/news/web-search-api) - 01:50:55.
Темы слушателей (https://radio-t.com/p/2025/05/06/prep-960/) - 01:59:15.
аудио (https://cdn.radio-t.com/rt_podcast960.mp3) • лог чата (https://chat.radio-t.com/logs/radio-t-960.html)
Вступление - 00:00:00.
Проклятие знания как надо (https://notashelf.dev/posts/curse-of-knowing) - 00:15:12.
Zed официально с агентским AI (https://zed.dev/agentic) - 00:41:35.
OpenAI купит Windsurf за три инстаграма (https://venturebeat.com/ai/openais-3b-windsurf-move-the-real-reason-behind-its-enterprise-ai-agent-code-push/) - 01:10:46.
Anthropic API добавили web поиск (https://www.anthropic.com/news/web-search-api) - 01:50:55.
Темы слушателей (https://radio-t.com/p/2025/05/06/prep-960/) - 01:59:15.
аудио (https://cdn.radio-t.com/rt_podcast960.mp3) • лог чата (https://chat.radio-t.com/logs/radio-t-960.html)
Радио-Т 960
podcast@radio-t.com (Umputun, Bobuk, Gray, Ksenks, Alek.sys)
Радио-Т 960
Темы
Вступление - 00:00:00.
Проклятия знания как надо - 00:15:12.
Zed официально с агентским AI - 00:41:35.
OpenAI купит Windsurf за три инстаграма - 01:10:46.
Anthropic API добавили web поиск - 01:50:55.
Темы слушателей - 01:59:15.
аудио • лог чата
Темы
Вступление - 00:00:00.
Проклятия знания как надо - 00:15:12.
Zed официально с агентским AI - 00:41:35.
OpenAI купит Windsurf за три инстаграма - 01:10:46.
Anthropic API добавили web поиск - 01:50:55.
Темы слушателей - 01:59:15.
аудио • лог чата
Forwarded from DE
LangGraph Swarm — построй рой агентов на пальцах 🐝 🐝 🐝 🐝
Представь:
У тебя есть несколько AI-агентов, каждый умеет своё. Один считает, другой разговаривает как пират, третий помогает писать код. И вот ты строишь между ними диалог, в котором они сами решают, кто и когда берёт слово.
Именно это и делает LangGraph Swarm — свежая Python-библиотека от команды LangChain.
Что умеет:
🔜 Роевой интеллект: агенты работают вместе, передают друг другу управление, когда это нужно.
🔜 Память: встроенная поддержка контекста — помнят, о чём шла речь раньше.
🔜 Передача задач: любой агент может сказать: «Этим лучше займётся коллега».
Пример:
Один агент — “Алиса”, спец по математике. Второй — “Боб”, просто болтает в пиратском стиле. Если пользователь сначала хочет поговорить с Бобом, но потом задаёт вопрос «Сколько будет 5 + 7?» — Боб передаёт управление Алисе. Умно и без лишнего кода.
Код выглядит примерно так:
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
Для кого эта библиотека?
Для тех, кто строит умные ассистенты, чат-сценарии или многошаговые пайплайны, где важно гибко управлять диалогом между агентами.
Где посмотреть:
github.com/langchain-ai/langgraph-swarm-py
〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️ 〰️
Спокойный, гибкий и почти готовый движок для AI-команд. Стоит затестить.
Представь:
У тебя есть несколько AI-агентов, каждый умеет своё. Один считает, другой разговаривает как пират, третий помогает писать код. И вот ты строишь между ними диалог, в котором они сами решают, кто и когда берёт слово.
Именно это и делает LangGraph Swarm — свежая Python-библиотека от команды LangChain.
Что умеет:
Пример:
Один агент — “Алиса”, спец по математике. Второй — “Боб”, просто болтает в пиратском стиле. Если пользователь сначала хочет поговорить с Бобом, но потом задаёт вопрос «Сколько будет 5 + 7?» — Боб передаёт управление Алисе. Умно и без лишнего кода.
Код выглядит примерно так:
from langgraph_openai import ChatOpenAI
from langgraph_swarm import create_handoff_tool, create_swarm
from langgraph.prebuilt import create_react_agent
model = ChatOpenAI(model="gpt-4o")
alice = create_react_agent(
model,
[lambda a, b: a + b, create_handoff_tool("Bob")],
prompt="Ты — Алиса, эксперт по сложению чисел.",
name="Alice",
)
bob = create_react_agent(
model,
[create_handoff_tool("Alice", description="Алиса лучше справится с математикой")],
prompt="Ты — Боб, общаешься в пиратском стиле.",
name="Bob",
)
swarm = create_swarm([alice, bob], default_active_agent="Alice")
Для кого эта библиотека?
Для тех, кто строит умные ассистенты, чат-сценарии или многошаговые пайплайны, где важно гибко управлять диалогом между агентами.
Где посмотреть:
github.com/langchain-ai/langgraph-swarm-py
Спокойный, гибкий и почти готовый движок для AI-команд. Стоит затестить.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - langchain-ai/langgraph-swarm-py: For your multi-agent needs
For your multi-agent needs. Contribute to langchain-ai/langgraph-swarm-py development by creating an account on GitHub.
Forwarded from Цифровой кочевник
⚡️ OpenAI дропнули имбу для кодеров — новую модель Codex-1, которая пишет код, как топовый сеньор с 15-летним опытом.
Codex-1 работает в ИИ-агенте Codex — это целая команда разрабов у вас в браузере, которая пишет код и фиксить его ОДНОВРЕМЕННО. При этом агент может работать над несколькими задачами параллельно.
Начинают раскатывать уже сегодня — проверяем в боковой панели.
Codex-1 работает в ИИ-агенте Codex — это целая команда разрабов у вас в браузере, которая пишет код и фиксить его ОДНОВРЕМЕННО. При этом агент может работать над несколькими задачами параллельно.
Начинают раскатывать уже сегодня — проверяем в боковой панели.
Forwarded from Цифровой кочевник
ИИ уже пишет треть всего кода в Microsoft — об этом рассказал сам Сатья Наделла.
По словам CEO, нейросети особенно круто справляются с Python, а вот с C++ пока всё сложно. Но курс ясен: к 2030 году ИИ будет генерить до 95% всего кода.
Человеческий фактор в разработке скоро останется только в виде комментариев.
По словам CEO, нейросети особенно круто справляются с Python, а вот с C++ пока всё сложно. Но курс ясен: к 2030 году ИИ будет генерить до 95% всего кода.
Человеческий фактор в разработке скоро останется только в виде комментариев.
Forwarded from Цифровой кочевник
«Мы работаем над созданием целого ряда ИИ-агентов для кодинга в Meta…
в течение 12-18 месяцев большая часть кода будет написана ИИ.
Это будет не просто автозаполнение.
Агенты ИИ будут ставить цели, проводить тесты, находить проблемы и писать лучший код, чем ведущие инженеры».
Meta CEO, Марк Цукерберг, апрель 2025
Forwarded from Технозаметки Малышева
This media is not supported in your browser
VIEW IN TELEGRAM
🤖Open Agent Platform - No-Code решение для создания агентов от LangChain
LangChain представил свою платформу для создания агентов без кода — Open Agent Platform (OAP).
Ключевые особенности
- Управление агентами: Создание, настройка и взаимодействие через интуитивный веб-интерфейс
- RAG-интеграция: Поддержка Retrieval Augmented Generation через LangConnect
- Подключение инструментов: Соединение агентов с внешними сервисами через MCP-серверы
- Агент-супервизор: Оркестрация взаимодействия нескольких агентов через Agent Supervisor
- Встроенная аутентификация: Готовая система доступа и контроля пользователей
- Настраиваемые агенты: Простое определение пользовательских конфигураций через UI
Если уже используете LangGraph, OAP предоставляет удобный способ создания и управления агентами.
Demo:
https://oap.langchain.com
Github:
https://github.com/langchain-ai/open-agent-platform/
#langchain #agents #frameworks
———
@tsingular
LangChain представил свою платформу для создания агентов без кода — Open Agent Platform (OAP).
Ключевые особенности
- Управление агентами: Создание, настройка и взаимодействие через интуитивный веб-интерфейс
- RAG-интеграция: Поддержка Retrieval Augmented Generation через LangConnect
- Подключение инструментов: Соединение агентов с внешними сервисами через MCP-серверы
- Агент-супервизор: Оркестрация взаимодействия нескольких агентов через Agent Supervisor
- Встроенная аутентификация: Готовая система доступа и контроля пользователей
- Настраиваемые агенты: Простое определение пользовательских конфигураций через UI
Если уже используете LangGraph, OAP предоставляет удобный способ создания и управления агентами.
Demo:
https://oap.langchain.com
Github:
https://github.com/langchain-ai/open-agent-platform/
#langchain #agents #frameworks
———
@tsingular
Forwarded from Технозаметки Малышева
OpenAI представила Codex - облачный агент для разработки ПО, который может работать над множеством задач параллельно.
- Разрабатывает новые функции
- Отвечает на вопросы о кодовой базе
- Исправляет баги
- Формирует pull-запросы на проверку
🔧 Технические особенности:
- Работает на codex-1 - специальной версии OpenAI o3, оптимизированной для разработки ПО
- Использует облачные изолированные окружения для каждой задачи, предзагруженные с вашим репозиторием
- Выполняет команды, включая тесты, линтеры и проверки типов
- Поддерживает файлы AGENTS.md для настройки рабочих процессов
Доступен для ChatGPT Pro, Enterprise и Team пользователей уже сегодня (Plus и Edu - скоро)
💡 Практическое применение:
Инженеры OpenAI уже используют Codex в ежедневной работе для:
- Рефакторинга и переименования компонентов
- Написания тестов без отвлечения от основных задач
- Создания каркасов новых функций
- Интеграции компонентов
- Исправления багов
- Составления документации
🔒 Безопасность и защита от злоупотреблений:
Codex обучен распознавать и отклонять запросы на разработку вредоносного ПО, при этом поддерживая нормальные задачи.
Агент работает в защищенном изолированном контейнере без доступа к интернету - он взаимодействует только с кодом, явно предоставленным через GitHub и предустановленными зависимостями.
⚡️ Обновления Codex CLI:
Также выпущена облегченная версия codex-1 (версия o4-mini) для использования в Codex CLI - она оптимизирована для быстрых вопросов по коду и редактирования с низкой задержкой. Доступ к Codex CLI стал проще через авторизацию аккаунта ChatGPT.
📊 Будущее Codex:
OpenAI видит будущее, где разработчики управляют работой, которую хотят делать сами, а остальное делегируют агентам.
Ожидаются в будущих обновлениях:
- Более интерактивные и гибкие рабочие процессы
- Возможность давать указания в середине выполнения задачи
- Проактивные обновления о прогрессе
- Интеграции с инструментами, которые вы уже используете (GitHub, ChatGPT Desktop, трекеры задач)
А еще выложили системный промпт
#OpenAI #Codex
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Технозаметки Малышева
Hugging Face запутил бесплатный курс по MCP
Структура курса:
4 основных блока: от фундаментальных концепций до развертывания готовых приложений
Практические задания: применение SDK и фреймворков с предварительно настроенным окружением
Проектная работа: создание и развертывание полнофункциональных MCP-приложений
Бонусные модули: интеграция с партнерскими сервисами и библиотеками
Практическое применение:
Разработчикам: создание AI-агентов с доступом к актуальным данным
Продуктовым командам: расширение возможностей существующих LLM-приложений
Исследователям: изучение архитектуры протоколов взаимодействия AI с внешними сервисами
Доступность и требования:
Необходимый уровень: базовое понимание AI/LLM и опыт в любом языке программирования
Сертификация: два уровня - базовый (теория) и продвинутый (с созданием приложения)
Темп: 3-4 часа в неделю, полный курс рассчитан на ~4 недели
Курс ведет Бен Буртеншоу, ML-инженер из HuggingFace, специализирующийся на пост-тренинговых подходах и агентных системах.
Обязательно к прохождению!
#HuggingFace #MCP #обучение
———
@tsingular
Структура курса:
4 основных блока: от фундаментальных концепций до развертывания готовых приложений
Практические задания: применение SDK и фреймворков с предварительно настроенным окружением
Проектная работа: создание и развертывание полнофункциональных MCP-приложений
Бонусные модули: интеграция с партнерскими сервисами и библиотеками
Практическое применение:
Разработчикам: создание AI-агентов с доступом к актуальным данным
Продуктовым командам: расширение возможностей существующих LLM-приложений
Исследователям: изучение архитектуры протоколов взаимодействия AI с внешними сервисами
Доступность и требования:
Необходимый уровень: базовое понимание AI/LLM и опыт в любом языке программирования
Сертификация: два уровня - базовый (теория) и продвинутый (с созданием приложения)
Темп: 3-4 часа в неделю, полный курс рассчитан на ~4 недели
Курс ведет Бен Буртеншоу, ML-инженер из HuggingFace, специализирующийся на пост-тренинговых подходах и агентных системах.
Обязательно к прохождению!
#HuggingFace #MCP #обучение
———
@tsingular
Forwarded from Технозаметки Малышева
VS Code превращается в открытую среду для ИИ разработки
Команда VS Code объявила о планах открыть исходный код расширения GitHub Copilot Chat под MIT-лицензией.
Это важный шаг в превращении редактора в полноценный open source AI-инструмент.
Ключевые компоненты расширения будут перенесены в ядро VS Code.
Разработчики также обещают выпустить инфраструктуру для тестирования промптов, чтобы сделать вклад сообщества в AI-функциональность максимально простым.
Сначала Курсор вырос из VSCode, а теперь Майкрософт такие - ящик шампанского и всех разработчиков обратно :)
#VSCode #OpenSource #кратко
———
@tsingular
Команда VS Code объявила о планах открыть исходный код расширения GitHub Copilot Chat под MIT-лицензией.
Это важный шаг в превращении редактора в полноценный open source AI-инструмент.
Ключевые компоненты расширения будут перенесены в ядро VS Code.
Разработчики также обещают выпустить инфраструктуру для тестирования промптов, чтобы сделать вклад сообщества в AI-функциональность максимально простым.
Сначала Курсор вырос из VSCode, а теперь Майкрософт такие - ящик шампанского и всех разработчиков обратно :)
#VSCode #OpenSource #кратко
———
@tsingular
Forwarded from Технозаметки Малышева
🤖 Jules от Google: новый ИИ-агент для разработки — прямой конкурент Codex от OpenAI, Cursor, Windsurf и GitHub Copilot
Google выпустил Jules — асинхронный ИИ-агент для работы с кодом, который работает с вашими GitHub-репозиториями и выполняет задачи, пока вы занимаетесь другими делами.
Что умеет Jules:
Исправляет баги с проверкой через тесты
Обновляет зависимости и версии библиотек
Переносит код между фреймворками и языками
Добавляет документацию и реализует новые фичи
Создает и проверяет пул реквесты прямо в GitHub
Техническая начинка:
- Работает на базе Gemini 2.5 Pro и команды AIDA
- Запускает весь код в защищенной виртуальной машине в облаке
- Клонирует репозиторий, устанавливает зависимости и тестирует изменения
- Показывает план работы, объясняет каждое изменение и полный diff
- Поддерживает JavaScript/TypeScript, Python, Go, Java и Rust
В отличие от Copilot и Cursor, Jules работает асинхронно — вы оставляете задачу и возвращаетесь, когда она будет выполнена.
При этом можно настроить уведомления о завершении работы.
На текущий момент в бета-версии доступны:
- 3 одновременные задачи
- 5 задач в день
Пока все бесплатно (временно, в будущем планируется платная модель)
Рабочий процесс:
- Выбираете репозиторий и ветку в GitHub
- Пишете детальный запрос (например, "Обнови next.js до версии 15 и сконвертируй проект на app directory")
- Jules создает план и показывает его вам на утверждение
- После утверждения он вытаскивает ваш код в виртуальную среду, подгружает зависимости и начинает разработку и тестирование.
Вы можете получить аудио-резюме изменений для быстрого ознакомления
Доступен на jules.google и находится в стадии публичной беты с 19 мая 2025 года.
Отменяем подписку на Codex за $200
Записываемся в waitlist и изучаем документацию
#AIcoding #DevTools #Google #Jules
———
@tsingular
Google выпустил Jules — асинхронный ИИ-агент для работы с кодом, который работает с вашими GitHub-репозиториями и выполняет задачи, пока вы занимаетесь другими делами.
Что умеет Jules:
Исправляет баги с проверкой через тесты
Обновляет зависимости и версии библиотек
Переносит код между фреймворками и языками
Добавляет документацию и реализует новые фичи
Создает и проверяет пул реквесты прямо в GitHub
Техническая начинка:
- Работает на базе Gemini 2.5 Pro и команды AIDA
- Запускает весь код в защищенной виртуальной машине в облаке
- Клонирует репозиторий, устанавливает зависимости и тестирует изменения
- Показывает план работы, объясняет каждое изменение и полный diff
- Поддерживает JavaScript/TypeScript, Python, Go, Java и Rust
В отличие от Copilot и Cursor, Jules работает асинхронно — вы оставляете задачу и возвращаетесь, когда она будет выполнена.
При этом можно настроить уведомления о завершении работы.
На текущий момент в бета-версии доступны:
- 3 одновременные задачи
- 5 задач в день
Пока все бесплатно (временно, в будущем планируется платная модель)
Рабочий процесс:
- Выбираете репозиторий и ветку в GitHub
- Пишете детальный запрос (например, "Обнови next.js до версии 15 и сконвертируй проект на app directory")
- Jules создает план и показывает его вам на утверждение
- После утверждения он вытаскивает ваш код в виртуальную среду, подгружает зависимости и начинает разработку и тестирование.
Вы можете получить аудио-резюме изменений для быстрого ознакомления
Доступен на jules.google и находится в стадии публичной беты с 19 мая 2025 года.
Отменяем подписку на Codex за $200
Записываемся в waitlist и изучаем документацию
#AIcoding #DevTools #Google #Jules
———
@tsingular