Учебный пример как реализовать агента для кодинга, да и в целом подойдёт как пример для реализации агентов
https://github.com/ghuntley/how-to-build-a-coding-agent
https://github.com/ghuntley/how-to-build-a-coding-agent
GitHub
GitHub - ghuntley/how-to-build-a-coding-agent: A workshop that teaches you how to build your own coding agent. Similar to Roo code…
A workshop that teaches you how to build your own coding agent. Similar to Roo code, Cline, Amp, Cursor, Windsurf or OpenCode. - ghuntley/how-to-build-a-coding-agent
Forwarded from СМАРТЛАБ
This media is not supported in your browser
VIEW IN TELEGRAM
Все в школу собрались?
😁3
Media is too big
VIEW IN TELEGRAM
Postman Flows — это новый инструмент, чтобы автоматизировать цепочки вызовов API из ваших коллекций, создавать прототипы и наглядно работать с логикой, не углубляясь в программирование
можно быстро сделать демку по взаимодействию или написать сценарий тестирования взаимодействия разных микросервисов
https://www.postman.com/product/flows/
аналогия с n8n и подобными, но это все же в первую очередь работа со своими коллекциями вызовов api
можно быстро сделать демку по взаимодействию или написать сценарий тестирования взаимодействия разных микросервисов
https://www.postman.com/product/flows/
аналогия с n8n и подобными, но это все же в первую очередь работа со своими коллекциями вызовов api
Forwarded from CodeCamp
Media is too big
VIEW IN TELEGRAM
Автоматизация нейросетями наглядно 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4
Forwarded from Либерия рептилоидов
2025_09_08_112885_Новостной_деск_Апдейты_по_бумагам_«Русского.pdf
3.6 MB
[Новостной деск] Апдейты по бумагам «Русского списка»: дивидендная конспирология с китайским акцентом & параллельные миры внутри одной России
В тексте апдейты по (почти) всем бумагам «Русского списка 2025» на основе:
0. Политических новостей по регуляторным рискам и возможностям
1. Финансовой отчётности за первую половину 2025 (если применимо)
2. Апдейта грубой модели оценки дисконта акций по отношению к производимому экспортному товару
3. Новостям из КНР или Индии
4. Лютой (прямо лютейшей) дивидендной конспирологии с китайским акцентом
В качестве бонус-трека:
Небольшая иллюстрация на примере одной компании и её рисков слегка скандального тезиса про оформление некоторого количества «параллельных миров» внутри одной России, причём каждый мир будет со своими законами, правилами, экономической системой, доминирующей идеологией (или отсутствием оной) и даже, вероятно, своим понятийным и культурным языком.
#CrimsonAlter
20250908
В тексте апдейты по (почти) всем бумагам «Русского списка 2025» на основе:
0. Политических новостей по регуляторным рискам и возможностям
1. Финансовой отчётности за первую половину 2025 (если применимо)
2. Апдейта грубой модели оценки дисконта акций по отношению к производимому экспортному товару
3. Новостям из КНР или Индии
4. Лютой (прямо лютейшей) дивидендной конспирологии с китайским акцентом
В качестве бонус-трека:
Небольшая иллюстрация на примере одной компании и её рисков слегка скандального тезиса про оформление некоторого количества «параллельных миров» внутри одной России, причём каждый мир будет со своими законами, правилами, экономической системой, доминирующей идеологией (или отсутствием оной) и даже, вероятно, своим понятийным и культурным языком.
#CrimsonAlter
20250908
Forwarded from Либерия рептилоидов
Media is too big
VIEW IN TELEGRAM
4 способа стать сверхбогатым в России легально
Новое видео. Поговорим про РЕАЛЬНО БОЛЬШИЕ деньги.
По мотивам роликов Хормози, материалов McKinsey и моего личного опыта мы составили классификацию способов заработать реально много денег лично себе (без воровства и взяток).
#АнтоновТакойАнтонов
20250907
Новое видео. Поговорим про РЕАЛЬНО БОЛЬШИЕ деньги.
По мотивам роликов Хормози, материалов McKinsey и моего личного опыта мы составили классификацию способов заработать реально много денег лично себе (без воровства и взяток).
#АнтоновТакойАнтонов
20250907
Forwarded from Курилка Яндекса
SberTech_Tech Trends_Q3'2025 (61 cтр).pdf
33.7 MB
AI, какая бытовуха!
В этом году день программиста официально объявлен выходным днем. С праздником, коллеги!!!
😁3
https://youtu.be/uv2ZKTxlxN8?si=hFjiNLWvkvNXz5um
А хотите сделать сторисы из результатов записи в своих систем видеонаблюдения?
А хотите сделать сторисы из результатов записи в своих систем видеонаблюдения?
YouTube
Эндрю Ын - о взлете ИИ-агентов и агентном рассуждении
Оригинал: https://www.youtube.com/watch?v=KrRD7r7y7NY
Переведено ИИ: https://github.com/ArteusAI/DubbLM
В последние годы фокус в ИИ был на больших языковых моделях (LLM) и появляющихся больших мультимодальных моделях (LMM). Сейчас, опираясь на эти инструменты…
Переведено ИИ: https://github.com/ArteusAI/DubbLM
В последние годы фокус в ИИ был на больших языковых моделях (LLM) и появляющихся больших мультимодальных моделях (LMM). Сейчас, опираясь на эти инструменты…
Forwarded from Koda
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Почему новый чат с ИИ — не просто удобство, а необходимость
Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.
Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.
Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.
Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.
Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.
Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.
Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.
Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.
Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.
Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.
Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
Forwarded from Golang
Также представлена новая команда
genkit init:ai-tools для лёгкой интеграции с AI-ассистентами в процессе разработки. 🔑 Что нового в Genkit Go 1.0
1. Production-ready
API признан стабильным: все программы, написанные на Genkit 1.*, будут работать и собираться в будущих минорных версиях.
2. Type-safe AI-flows
- Определение “flows” через Go-структуры и JSON Schema.
- Повышенная типобезопасность, тестируемость, наблюдаемость и удобство при деплое.
3. Унифицированный интерфейс моделей
Поддержка разных провайдеров (Google AI, Vertex AI, OpenAI, Ollama и др.) через единый API — легко переключаться между ними.
4. Tool calling, RAG и мультимодальность
- Вызов внешних инструментов (tool calling).
- Retrieval-augmented generation (RAG).
- Поддержка мультимодальных сценариев (текст, изображения и др.).
5. Инструменты для разработчиков
- Независимая CLI-утилита для локальной разработки.
- Developer UI: тестирование промтов, отладка flows, отслеживание производительности и трассировка.
6. Команда `genkit init:ai-tools`
Автоматическая интеграция с AI-ассистентами разработки: Gemini CLI, Firebase Studio, Claude Code, Cursor и др.
7. Примеры кода
В официальной документации показано, как определять flows, запускать HTTP endpoints, работать с моделями и инструментами.
🚀 Почему это важно
- Быстрая и безопасная разработка AI-приложений на Go.
- Унифицированный API позволяет экспериментировать и менять провайдеров без переписывания логики.
- Встроенные dev-инструменты ускоряют отладку и интеграцию.
- Подходит как для прототипов, так и для production-решений.
📌 Официальный анонс: https://developers.googleblog.com/en/announcing-genkit-go-10-and-enhanced-ai-assisted-development/?linkId=16710004Нужно
@Golang_google
#Genkit #GoLang #GoogleAI #AIDevelopment #OpenSource #RAG
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM