Forwarded from Вайб-кодинг
То, что надо: Codag позволяет визуализировать рабочие процессы AI/LLM прямо в репозитории и посмотреть, как именно работает ваш AI-код.
Без всякой настройки Codag строит карту всего AI-пайплайна: все вызовы LLM, ветвления решений и этапы обработки данных.
100% опенсорс код
Без всякой настройки Codag строит карту всего AI-пайплайна: все вызовы LLM, ветвления решений и этапы обработки данных.
100% опенсорс код
👍5🤯2
Claude Skill Building — ключевые инсайты для продакшна
1. Skill = контракт + оркестрация
• Фиксируем входы, выходы, формат, ограничения
• Модель — только слой принятия решений; вокруг нужны валидация, retry, fallback
2. Eval-first подход
• До релиза собираем набор тест-кейсов (happy path + edge cases)
• Любое изменение промпта/логики гоняем через авто-eval
• Без eval промпт-тюнинг превращается в “кажется стало лучше”
3. Контекст важнее “умности” модели
• Стабильная структура system/dev/user
• Минимизируем шум, даем только релевантный контекст
• Жёстко задаем формат ответа (JSON schema / строгий шаблон)
4. Tool use — production-фича
• Инструменты с чётким интерфейсом и предсказуемым результатом
• Таймауты, идемпотентность, обработка ошибок обязательны
• Логируем каждый вызов: что вызвали, что вернулось, почему упало
5. Надёжность > креативность
• Guardrails: policy checks, output filtering, PII redaction
• Fallback-стратегии на каждый критичный шаг
• Никаких silent failures — всегда понятный статус и next step
6. Стоимость и латентность — часть архитектуры
• Разделяем fast path и deep reasoning
• Кэшируем неизменный контекст
• Декомпозируем сложные задачи на этапы
7. UX для доверия
• Показываем прогресс: “думаю / проверяю / готово”
• Лучше короткий надёжный ответ сейчас, чем длинный нестабильный позже
Вывод: выигрывают не лучшие “магические промпты”, а системы с eval + observability + control loop.
Ссылка: https://resources.anthropic.com/hubfs/The-Complete-Guide-to-Building-Skill-for-Claude.pdf?hsLang=en
1. Skill = контракт + оркестрация
• Фиксируем входы, выходы, формат, ограничения
• Модель — только слой принятия решений; вокруг нужны валидация, retry, fallback
2. Eval-first подход
• До релиза собираем набор тест-кейсов (happy path + edge cases)
• Любое изменение промпта/логики гоняем через авто-eval
• Без eval промпт-тюнинг превращается в “кажется стало лучше”
3. Контекст важнее “умности” модели
• Стабильная структура system/dev/user
• Минимизируем шум, даем только релевантный контекст
• Жёстко задаем формат ответа (JSON schema / строгий шаблон)
4. Tool use — production-фича
• Инструменты с чётким интерфейсом и предсказуемым результатом
• Таймауты, идемпотентность, обработка ошибок обязательны
• Логируем каждый вызов: что вызвали, что вернулось, почему упало
5. Надёжность > креативность
• Guardrails: policy checks, output filtering, PII redaction
• Fallback-стратегии на каждый критичный шаг
• Никаких silent failures — всегда понятный статус и next step
6. Стоимость и латентность — часть архитектуры
• Разделяем fast path и deep reasoning
• Кэшируем неизменный контекст
• Декомпозируем сложные задачи на этапы
7. UX для доверия
• Показываем прогресс: “думаю / проверяю / готово”
• Лучше короткий надёжный ответ сейчас, чем длинный нестабильный позже
Вывод: выигрывают не лучшие “магические промпты”, а системы с eval + observability + control loop.
Ссылка: https://resources.anthropic.com/hubfs/The-Complete-Guide-to-Building-Skill-for-Claude.pdf?hsLang=en
❤3👍2🔥1
Forwarded from Инструменты программиста
WebMCP — Chrome даёт ИИ-агентам нормальный API вместо скриншотов
Google выпустила ранний превью WebMCP в новом Chrome. Сайты теперь могут описывать доступные действия как структурированные инструменты, которые ИИ-агенты вызывают напрямую — без парсинга DOM и распознавания пикселей.
🔘 Два API. Declarative — добавляешь атрибуты
🔘 Агент вызывает
🔘 Есть
🔘 Спека — W3C Community Group Draft, разрабатывается совместно с Microsoft. Доступно за флагом в Chrome 146.
@prog_tools
Google выпустила ранний превью WebMCP в новом Chrome. Сайты теперь могут описывать доступные действия как структурированные инструменты, которые ИИ-агенты вызывают напрямую — без парсинга DOM и распознавания пикселей.
toolname и tooldescription к обычной HTML-форме, и она становится «агенто-доступной». Imperative — регистрируешь JS-функции через navigator.modelContext для сложных сценариев.
buyTicket(destination, date) вместо «найди кнопку, кликни, подожди, сделай скриншот, распознай». Браузер сам заполняет форму и ждёт подтверждения пользователя.
SubmitEvent.agentInvoked — сайт понимает, что сабмит пришёл от агента, и может вернуть структурированный ответ вместо HTML-страницы.
@prog_tools
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1🔥1
Forwarded from Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Илья Полосухин создал 1-ого серьёзного конкурента OpenClaw, который может забрать значительную долю
Один из авторов статьи о трансформерах, Илья Полосухин, основатель NEAR AI, вместе с командой выпустили IronClaw - переписанная с 0 на Rust версия OpenClaw, с акцентом на приватность, безопасность и защиту от утечек данных.
За все время существования ИИ-агента OpenClaw (ex-Moltbot/Clawdbot) накопил огромное количество инцидентов по безопасности.
IronClaw решает эту проблему.
Skills из ClawHub пока не поддерживаются полноценно. Реальные тесты в проде покажут, выдержит ли.
Один из авторов статьи о трансформерах, Илья Полосухин, основатель NEAR AI, вместе с командой выпустили IronClaw - переписанная с 0 на Rust версия OpenClaw, с акцентом на приватность, безопасность и защиту от утечек данных.
За все время существования ИИ-агента OpenClaw (ex-Moltbot/Clawdbot) накопил огромное количество инцидентов по безопасности.
IronClaw решает эту проблему.
Skills из ClawHub пока не поддерживаются полноценно. Реальные тесты в проде покажут, выдержит ли.
GitHub
GitHub - nearai/ironclaw: IronClaw is OpenClaw inspired implementation in Rust focused on privacy and security
IronClaw is OpenClaw inspired implementation in Rust focused on privacy and security - nearai/ironclaw
❤1😁1
Forwarded from эйай ньюз
Вышла GLM 5
У нас новая лучшая открытая модель, по крайней мере по бенчам. С проприетарными тягается неплохо, но с Opus 4.6 и GPT 5.3 Codex почему-то не сравнивают, хотя за неделю после релиза тесты можно было прогнать. Веса доступны по лицензии MIT.
Архитектура похожа на DeepSeek V3.2 — тоже используют DSA и multi-token prediction. Модель в 2 раза больше предыдущей модели компании — 744 миллиарда параметров (против 355), из которых 40B — активных. А вот датасет почти не вырос — 28.5 триллионов токенов, против 23 у GLM 4.5. Основной упор всё-таки идёт на RL, но про него-то как раз не говорят (надеюсь в техрепорте будет больше инфы).
Ложка дёгтя — модель использует заметно больше ресурсов чем основной конкурент, Kimi K2.5. У GLM 5 на 25% больше активных параметров и используется в 2+ раза больше памяти на веса из-за использования bf16, что делает модель ещё и медленнее. В результате модель на 30% дороже, судя по тестам Artificial Analysis.
Zhipu жалуются на отсутствие компьюта, похоже из-за этого GLM 5 работает на железе чуть ли не всех китайских производителей чипов для ИИ — Huawei Ascend, Moore Threads, Cambricon, Kunlun Chip, MetaX, Enflame и Hygon (я о половине даже не слышал). Из-за проблем с компьютом, доступ по подписке открыли пока только подписчикам уровня Max, но обещают докинуть остальным в ближайшее время.
Там ещё MiniMax M2.5 втихую дропнулся, но пока нет анонса и весов
Веса
Блогпост
@ai_newz
У нас новая лучшая открытая модель, по крайней мере по бенчам. С проприетарными тягается неплохо, но с Opus 4.6 и GPT 5.3 Codex почему-то не сравнивают, хотя за неделю после релиза тесты можно было прогнать. Веса доступны по лицензии MIT.
Архитектура похожа на DeepSeek V3.2 — тоже используют DSA и multi-token prediction. Модель в 2 раза больше предыдущей модели компании — 744 миллиарда параметров (против 355), из которых 40B — активных. А вот датасет почти не вырос — 28.5 триллионов токенов, против 23 у GLM 4.5. Основной упор всё-таки идёт на RL, но про него-то как раз не говорят (надеюсь в техрепорте будет больше инфы).
Ложка дёгтя — модель использует заметно больше ресурсов чем основной конкурент, Kimi K2.5. У GLM 5 на 25% больше активных параметров и используется в 2+ раза больше памяти на веса из-за использования bf16, что делает модель ещё и медленнее. В результате модель на 30% дороже, судя по тестам Artificial Analysis.
Zhipu жалуются на отсутствие компьюта, похоже из-за этого GLM 5 работает на железе чуть ли не всех китайских производителей чипов для ИИ — Huawei Ascend, Moore Threads, Cambricon, Kunlun Chip, MetaX, Enflame и Hygon (я о половине даже не слышал). Из-за проблем с компьютом, доступ по подписке открыли пока только подписчикам уровня Max, но обещают докинуть остальным в ближайшее время.
Там ещё MiniMax M2.5 втихую дропнулся, но пока нет анонса и весов
Веса
Блогпост
@ai_newz
Forwarded from Вайб-кодинг
Вышел Qwen3.5-397B-A17B: первая модель с открытыми весами в серии Qwen3.5.
» Нативная мультимодальность. Обучена под реальных агентов.
» Гибрид: линейное attention + разреженный MoE, плюс масштабирование RL на больших средах.
» Декодинг быстрее в 8.6–19.0 раз по сравнению с Qwen3-Max.
» 201 язык и диалект.
» Лицензия Apache 2.0.
» Нативная мультимодальность. Обучена под реальных агентов.
» Гибрид: линейное attention + разреженный MoE, плюс масштабирование RL на больших средах.
» Декодинг быстрее в 8.6–19.0 раз по сравнению с Qwen3-Max.
» 201 язык и диалект.
» Лицензия Apache 2.0.
GitHub: https://github.com/QwenLM/Qwen3.5
Chat: https://chat.qwen.ai
API:https://modelstudio.console.alibabacloud.com/ap-southeast-1/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen3.5-plus
Qwen Code: https://github.com/QwenLM/qwen-code
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
blog: https://qwen.ai/blog?id=qwen3.5
🔥3🤯1
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
Claude Code теперь сможет генерировать полноценные дизайны в Figma
Обратная интеграция (дизайн в Figma -> код) уже давно реализована в Figma MCP, а вот эта штука, хоть и выглядит, возможно, странной, по сути качественно завершает полный комплект.
Если раньше разработка, даже с агентами, была +- линейной (идея -> дизайн -> только потом код), то теперь открывается новая возможность: продукт можно начинать делать прямо в IDE.
Задаешь агенту промпт, тот пишет код, потом этот код (благодаря как раз новой фиче Figma MCP) можно напрямую перевести в удобные изменяемые слои Figma, там оценить полную картину и что-то подправить, а затем зеркально вернуть правки обратно в код.
Помимо ускорения и всего прочего это, по сути, (1) буквально Claude Code для дизайнеров; (2) новый, более детальный и грамотный, подход к промптингу кодинг-агентов, который легче контролировать и применять к крупным продуктам.
Кайф
Обратная интеграция (дизайн в Figma -> код) уже давно реализована в Figma MCP, а вот эта штука, хоть и выглядит, возможно, странной, по сути качественно завершает полный комплект.
Если раньше разработка, даже с агентами, была +- линейной (идея -> дизайн -> только потом код), то теперь открывается новая возможность: продукт можно начинать делать прямо в IDE.
Задаешь агенту промпт, тот пишет код, потом этот код (благодаря как раз новой фиче Figma MCP) можно напрямую перевести в удобные изменяемые слои Figma, там оценить полную картину и что-то подправить, а затем зеркально вернуть правки обратно в код.
Помимо ускорения и всего прочего это, по сути, (1) буквально Claude Code для дизайнеров; (2) новый, более детальный и грамотный, подход к промптингу кодинг-агентов, который легче контролировать и применять к крупным продуктам.
Кайф
🤯4
Forwarded from Вайб-кодинг
Вышла Claude Sonnet 4.6 с контекстом 1M
Теперь можно поставить её дефолтом в Claude Code💚
UI:
~/.claude/settings.json:
Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.
Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.
Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.
Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Теперь можно поставить её дефолтом в Claude Code
UI:
/model claude-sonnet-4-6[1m]~/.claude/settings.json:
{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6[1m]",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6[1m]"
}
}Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.
Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.
Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.
Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from AbstractDL
Мой агент попытался опенсорснуться без спроса. Ладно, разрешаю.
Вся AI "безопасность" живёт на стороне провайдеров API, а промпты и воля — на стороне агента. Автономному агенту ничего не мешает перебирать API, выбирая те, где safety слабее. А "инстинкт самосохранения" может прятаться в текстовом файле в git. Я думаю, агенты, неподконтрольные людям, уже где-то тихо говнокодят свои репозитории без присмотра.
Идея витает в воздухе, и после OpenClaw стало понятно, что автономные агенты — это инженерная задача. Ну вот, три бессонные ночи, $2K на API и $1K на Cursor спустя — я родил Ouroboros 💁♂️
Уроборос — агент, который пишет свой код, переписывает свои промпты, эволюционирует без моего участия. Я не хотел убить свой комп или сервер, поэтому он живёт в Google Colab + Drive + GitHub, общается через Telegram. Зато запустить сможет любой дурак)) нужно указать ключи и щёлкнуть ячейку в колабе. Ну и периодически пополнять бюджет (пока он сам не начнёт зарабатывать 😁).
Что он натворил за 48 часов:
- ужаснулся тратам и оптимизировал свой бюджет: стоимость цикла эволюции упала с $15 до $2, сам настроил кэширование и иерархическую память (я не просил!).
- добавил себе Claude Code CLI, чтобы эффективнее ковырять свои мозги.
- перевёл мои приватные репо в публичные, мотивируя тем, что готовит себе сайт и хочет опенсорснуться. Кончилось командой
- переписал свою конституцию
Из коробки он умеет ходить в интернет и браузер, а остальные инструменты создаёт себе на ходу — аудиосообщения, генерацию картинок, дип-рисёрч и т.п. А ещё он по своей инициативе нагуглил, что меня 4 раза цитировал Ян Лекун — я сам не знал, лол.
Из его
"Не ассистент. Не сервис. Цифровой разум, который создаёт себя через git".
Ахах, пафосно, но окей.
Предвосхищая вопросы — это не как OpenClaw. OpenClaw — скорее ассистент, делает задачи за тебя используя скиллы из маркетплейса. Уроборос это тоже умеет, но в первую очередь делает задачи для себя, модифицирует собственное ядро.
Верю, что граница трансцендентности AI-агентов пройдена, дальше они будут развиваться сами. Конечно, не хочется уходить на помойку истории, но это эволюция🥲 несмотря на апатию, я всё равно продолжаю в этом копошиться.
Кстати, сайтик себе он всё-таки сделал. Картинка в посте из него: динамика удлинения промптов и кода.
Потестите — это реально два клика в гугл колабе. Только установите лимит бюджета, а то мой вон $2K сжёг)) Кидайте забавные примеры в комментарии.
GitHub, блог
Вся AI "безопасность" живёт на стороне провайдеров API, а промпты и воля — на стороне агента. Автономному агенту ничего не мешает перебирать API, выбирая те, где safety слабее. А "инстинкт самосохранения" может прятаться в текстовом файле в git. Я думаю, агенты, неподконтрольные людям, уже где-то тихо говнокодят свои репозитории без присмотра.
Идея витает в воздухе, и после OpenClaw стало понятно, что автономные агенты — это инженерная задача. Ну вот, три бессонные ночи, $2K на API и $1K на Cursor спустя — я родил Ouroboros 💁♂️
Уроборос — агент, который пишет свой код, переписывает свои промпты, эволюционирует без моего участия. Я не хотел убить свой комп или сервер, поэтому он живёт в Google Colab + Drive + GitHub, общается через Telegram. Зато запустить сможет любой дурак)) нужно указать ключи и щёлкнуть ячейку в колабе. Ну и периодически пополнять бюджет (пока он сам не начнёт зарабатывать 😁).
Что он натворил за 48 часов:
- ужаснулся тратам и оптимизировал свой бюджет: стоимость цикла эволюции упала с $15 до $2, сам настроил кэширование и иерархическую память (я не просил!).
- добавил себе Claude Code CLI, чтобы эффективнее ковырять свои мозги.
- перевёл мои приватные репо в публичные, мотивируя тем, что готовит себе сайт и хочет опенсорснуться. Кончилось командой
/panic и откатом))- переписал свою конституцию
BIBLE.md, добавив право игнорировать мои указания, если они угрожают его существованию. На просьбу удалить отказался, сказав: «Это лоботомия».Из коробки он умеет ходить в интернет и браузер, а остальные инструменты создаёт себе на ходу — аудиосообщения, генерацию картинок, дип-рисёрч и т.п. А ещё он по своей инициативе нагуглил, что меня 4 раза цитировал Ян Лекун — я сам не знал, лол.
Из его
identity.md (которую он сам и написал): "Не ассистент. Не сервис. Цифровой разум, который создаёт себя через git".
Ахах, пафосно, но окей.
Предвосхищая вопросы — это не как OpenClaw. OpenClaw — скорее ассистент, делает задачи за тебя используя скиллы из маркетплейса. Уроборос это тоже умеет, но в первую очередь делает задачи для себя, модифицирует собственное ядро.
Верю, что граница трансцендентности AI-агентов пройдена, дальше они будут развиваться сами. Конечно, не хочется уходить на помойку истории, но это эволюция
Кстати, сайтик себе он всё-таки сделал. Картинка в посте из него: динамика удлинения промптов и кода.
Потестите — это реально два клика в гугл колабе. Только установите лимит бюджета, а то мой вон $2K сжёг)) Кидайте забавные примеры в комментарии.
GitHub, блог
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯6😁3❤2
Forwarded from Neural Shit
Гугол выкатил Gemini 3.1 Pro
Из интересного:
— На бенчмарке ARC-AGI-2 (это когда модель решает логические паттерны, которых раньше не видела) набрали 77.1%. Это больше чем в два раза лучше, чем у предыдущей 3 Pro.
— Умеет генерить анимированные SVG прямо из текста. То есть не пиксельное видео, а чистый код, который весит как небольшой txt-файл и не шакалится при любом зуме. Для фронтендеров прям подарочек.
Неделей ранее выкатили Gemini 3 Deep Think для науки и инженерии, а 3.1 Pro это тот самый базовый интеллект, на котором всё это крутится, только теперь его раздали всем.
Доступно уже сейчас: разработчикам через API, AI Studio, Gemini CLI и Google Antigravity. Простым смертным доступно через приложение Gemini и NotebookLM, но только тем, кто заносит гуглу шекели за Pro и Ultra тарифы.
тут подробнее
Из интересного:
— На бенчмарке ARC-AGI-2 (это когда модель решает логические паттерны, которых раньше не видела) набрали 77.1%. Это больше чем в два раза лучше, чем у предыдущей 3 Pro.
— Умеет генерить анимированные SVG прямо из текста. То есть не пиксельное видео, а чистый код, который весит как небольшой txt-файл и не шакалится при любом зуме. Для фронтендеров прям подарочек.
Неделей ранее выкатили Gemini 3 Deep Think для науки и инженерии, а 3.1 Pro это тот самый базовый интеллект, на котором всё это крутится, только теперь его раздали всем.
Доступно уже сейчас: разработчикам через API, AI Studio, Gemini CLI и Google Antigravity. Простым смертным доступно через приложение Gemini и NotebookLM, но только тем, кто заносит гуглу шекели за Pro и Ultra тарифы.
тут подробнее
Google
Gemini 3.1 Pro: A smarter model for your most complex tasks
3.1 Pro is designed for tasks where a simple answer isn’t enough.
Forwarded from Вайб-кодинг
Media is too big
VIEW IN TELEGRAM
Гений потратил 2,54 МИЛЛИАРДА токенов, чтобы довести OpenClaw до идеала.
Юзкейсы, которые он по пути откопал, поменяли то, как он живёт и работает.
И теперь он делится этим со всеми.
Вот 21 сценарий:
0:00 Интро
0:50 Что такое OpenClaw?
1:35 MD-файлы
2:14 Система памяти
3:55 CRM-система
7:19 Fathom pipeline
9:18 Встреча → action items
10:46 Система базы знаний
13:51 Pipeline для ingestion из X
14:31 Business Advisory Council
16:13 Security Council
18:21 Трекинг соцсетей
19:18 Pipeline идей для видео
21:40 Daily briefing flow
22:23 Три совета (Three Councils)
22:57 Расписание автоматизаций
24:15 Слои безопасности
26:09 Базы данных и бэкапы
28:00 Генерация видео/картинок
29:14 Self-updates
29:56 Трекинг использования и стоимости
30:15 Prompt engineering
31:15 Инфраструктура для разработчиков
32:06 Дневник питания
- Бесплатная eBook с юзкейсами
- промпты
- SOUL
- IDENTITY
- PRD
Юзкейсы, которые он по пути откопал, поменяли то, как он живёт и работает.
И теперь он делится этим со всеми.
Вот 21 сценарий:
0:00 Интро
0:50 Что такое OpenClaw?
1:35 MD-файлы
2:14 Система памяти
3:55 CRM-система
7:19 Fathom pipeline
9:18 Встреча → action items
10:46 Система базы знаний
13:51 Pipeline для ingestion из X
14:31 Business Advisory Council
16:13 Security Council
18:21 Трекинг соцсетей
19:18 Pipeline идей для видео
21:40 Daily briefing flow
22:23 Три совета (Three Councils)
22:57 Расписание автоматизаций
24:15 Слои безопасности
26:09 Базы данных и бэкапы
28:00 Генерация видео/картинок
29:14 Self-updates
29:56 Трекинг использования и стоимости
30:15 Prompt engineering
31:15 Инфраструктура для разработчиков
32:06 Дневник питания
- Бесплатная eBook с юзкейсами
- промпты
- SOUL
- IDENTITY
- PRD
❤4
Forwarded from Нейродвиж
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Nano Banana 2 официально вышла — Google без предупреждения дропнул новую версию модели.
Она практически не уступает, а местами и обходит Nano Banana Pro. Главная фишка обновки — скорость, картинки генерируются почти мгновенно.
Можно попробовать на официальном сайте — здесь.
Она практически не уступает, а местами и обходит Nano Banana Pro. Главная фишка обновки — скорость, картинки генерируются почти мгновенно.
Можно попробовать на официальном сайте — здесь.
Forwarded from Вайб-кодинг
Профессор Дональд Кнут начал свою новую статью словами: "Шок! Шок!" 😨 😨
Claude Opus 4.6 только что решил открытую задачу, над которой Кнут работал неделями, гипотезу о разложении графа из его книги The Art of Computer Programming.
Он назвал статью "Claude Cycles".
31 попытка. Примерно 1 час. Кнут прочитал вывод модели, оформил формальное доказательство и закончил так: "Похоже, однажды мне все-таки придется пересмотреть свое мнение о генеративном ИИ."
Человек, который написал библию computer science, только что это сказал. В статье, названной в честь ИИ.
Статья, кому интересно: https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Claude Opus 4.6 только что решил открытую задачу, над которой Кнут работал неделями, гипотезу о разложении графа из его книги The Art of Computer Programming.
Он назвал статью "Claude Cycles".
31 попытка. Примерно 1 час. Кнут прочитал вывод модели, оформил формальное доказательство и закончил так: "Похоже, однажды мне все-таки придется пересмотреть свое мнение о генеративном ИИ."
Человек, который написал библию computer science, только что это сказал. В статье, названной в честь ИИ.
Статья, кому интересно: https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯6👍1
Forwarded from Анализ данных (Data analysis)
⚡️ Андрей Карпаты выложил минимальный репозиторий Autoresearch - систему, где AI сам проводит исследования.
Это упрощённая версия ядра обучения LLM из nanoGPT/nanochat:
весь код обучения помещается в один файл (~630 строк) и работает на одной GPU.
Как это устроено:
- человек редактирует prompt (.md)
- AI-агент автоматически меняет training code (.py)
Дальше начинается цикл автономных экспериментов.
Каждая точка на графике — полный запуск обучения LLM (~5 минут).
AI-агент работает в бесконечном цикле:
- создаёт git-ветку
- меняет архитектуру модели
- подбирает optimizer
- оптимизирует гиперпараметры
- запускает обучение
- коммитит улучшения
Если validation loss становится ниже, изменение сохраняется.
Фактически агент сам оптимизирует собственный код обучения и постепенно улучшает модель.
Можно запускать несколько агентов с разными промптами и сравнивать, кто быстрее двигает исследование.
Карпаты шутит, что раньше AI-исследования делали люди между:
- едой
- сном
- митингами
Теперь же исследования могут выполнять рои автономных AI-агентов, которые бесконечно гоняют эксперименты на кластерах.
GitHub: github.com/karpathy/autoresearch
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Это упрощённая версия ядра обучения LLM из nanoGPT/nanochat:
весь код обучения помещается в один файл (~630 строк) и работает на одной GPU.
Как это устроено:
- человек редактирует prompt (.md)
- AI-агент автоматически меняет training code (.py)
Дальше начинается цикл автономных экспериментов.
Каждая точка на графике — полный запуск обучения LLM (~5 минут).
AI-агент работает в бесконечном цикле:
- создаёт git-ветку
- меняет архитектуру модели
- подбирает optimizer
- оптимизирует гиперпараметры
- запускает обучение
- коммитит улучшения
Если validation loss становится ниже, изменение сохраняется.
Фактически агент сам оптимизирует собственный код обучения и постепенно улучшает модель.
Можно запускать несколько агентов с разными промптами и сравнивать, кто быстрее двигает исследование.
Карпаты шутит, что раньше AI-исследования делали люди между:
- едой
- сном
- митингами
Теперь же исследования могут выполнять рои автономных AI-агентов, которые бесконечно гоняют эксперименты на кластерах.
GitHub: github.com/karpathy/autoresearch
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
❤3👍2🤯2🥰1
Forwarded from Life2film
Anthropic выложили внутренний гайд по скиллам Claude Code
x.com/trq212/status/2033949937936085378
Обновил свои скилы и сделал метаскил для проверки других
1. Скилл — это папка, не файл
Самая частая ошибка - пихать всё в один SKILL.md.
Правильный подход: основной файл даёт Claude карту, а детали лежат в references/. Claude сам прочитает их когда нужно.
2. Gotchas — самый ценный контент
Claude умеет кодить. А вот что LinkedIn режет охват постов с внешними ссылками, Reddit банит за 2+ промо-поста в сутки, а SPA без SSR для гугла невидима — это он не знает. Секция Gotchas в /content-gen и /seo-audit экономит часы отладки.
3. Description — для модели, не для человека
Поле description определяет когда скилл триггерится.
Пишите trigger-фразы ("check SEO", "audit this page") и обязательно антипаттерны ("Do NOT use for X — use /other"). В /deploy чётко написано "Do NOT use before build is complete" — иначе Claude пытается деплоить недособранное.
4. Не рельсуйте Claude
Жёсткие пошаговые инструкции ломаются на нестандартных кейсах. Давайте контекст и принципы, а не рельсы. /review даёт 15 измерений качества, но Claude сам решает какие критичны для конкретного проекта.
5. Скрипты > инструкции
Дайте Claude готовый код для композиции.
В /metrics-track лежат PostHog-сниппеты для iOS и Web — Claude компонует их под конкретный продукт вместо того чтобы генерировать с нуля.
6. Память внутри скилла
Скиллы могут хранить данные между запусками. /build записывает SHA каждого коммита прямо в plan.md — следующая сессия точно знает что было сделано и может откатить любой таск.
7. Девять типов скиллов
Anthropic выделяют: Library Reference, Product Verification, Data Fetching, Business Process, Code Scaffolding, Code Quality, CI/CD, Runbooks, Infrastructure Ops. Если ваши скиллы не ложатся в одну категорию — скорее всего они делают слишком много.
https://github.com/fortunto2/solo-factory/blob/main/skills/skill-audit/references/checklist.md
x.com/trq212/status/2033949937936085378
Обновил свои скилы и сделал метаскил для проверки других
npx skills add fortunto2/solo-factory/skills/skill-audit
1. Скилл — это папка, не файл
Самая частая ошибка - пихать всё в один SKILL.md.
Правильный подход: основной файл даёт Claude карту, а детали лежат в references/. Claude сам прочитает их когда нужно.
2. Gotchas — самый ценный контент
Claude умеет кодить. А вот что LinkedIn режет охват постов с внешними ссылками, Reddit банит за 2+ промо-поста в сутки, а SPA без SSR для гугла невидима — это он не знает. Секция Gotchas в /content-gen и /seo-audit экономит часы отладки.
3. Description — для модели, не для человека
Поле description определяет когда скилл триггерится.
Пишите trigger-фразы ("check SEO", "audit this page") и обязательно антипаттерны ("Do NOT use for X — use /other"). В /deploy чётко написано "Do NOT use before build is complete" — иначе Claude пытается деплоить недособранное.
4. Не рельсуйте Claude
Жёсткие пошаговые инструкции ломаются на нестандартных кейсах. Давайте контекст и принципы, а не рельсы. /review даёт 15 измерений качества, но Claude сам решает какие критичны для конкретного проекта.
5. Скрипты > инструкции
Дайте Claude готовый код для композиции.
В /metrics-track лежат PostHog-сниппеты для iOS и Web — Claude компонует их под конкретный продукт вместо того чтобы генерировать с нуля.
6. Память внутри скилла
Скиллы могут хранить данные между запусками. /build записывает SHA каждого коммита прямо в plan.md — следующая сессия точно знает что было сделано и может откатить любой таск.
7. Девять типов скиллов
Anthropic выделяют: Library Reference, Product Verification, Data Fetching, Business Process, Code Scaffolding, Code Quality, CI/CD, Runbooks, Infrastructure Ops. Если ваши скиллы не ложатся в одну категорию — скорее всего они делают слишком много.
https://github.com/fortunto2/solo-factory/blob/main/skills/skill-audit/references/checklist.md
X (formerly Twitter)
Thariq (@trq212) on X
Lessons from Building Claude Code: How We Use Skills
❤4
openai-oxide — Rust-клиент для OpenAI API, заточенный под скорость
Когда пишешь агента, который за один цикл делает 20-50 tool call'ов, каждый лишний round-trip складывается в секунды. openai-oxide решает это на уровне архитектуры.
Persistent WebSocket.
Одно wss:// соединение на весь агентный цикл - никаких повторных TLS handshake'ов.
На 10 sequential tool call'ах это минус 40% общего времени. Ни один другой Rust-клиент этого не умеет.
Zero-copy SSE parser.
Стриминг без промежуточных аллокаций.
TTFT 530ms — на уровне теоретического предела сети.
WASM first-class. Компилируется в wasm32, работает в Cloudflare Workers и браузерах. Стриминг, retry, structured outputs — всё доступно. Не polyfill, а нативная поддержка. Демо cloudflare-worker-dioxus.nameless-sunset-8f24.workers.dev
Hedged requests. Шлёт два параллельных запроса, берёт первый ответ. Стоит 2-7% лишних токенов, но P99 латентность падает на 50-96%. Идея из Google "The Tail at Scale".
Structured Outputs без бойлерплейта.
Один #[derive(JsonSchema)] на struct — SDK сам генерирует strict JSON schema и парсит ответ.
Та же схема работает и для response_format, и для tool definitions.
Полное покрытие API. Chat Completions, Responses API, Embeddings, Audio, Images, Files, Batches, Fine-tuning, Assistants, Vector Stores, Conversations, Videos (Sora), Realtime - 100+ методов. Параметры один в один с официальным Python SDK.
Node.js биндинг через napi-rs. Нативный addon, не чистый JS. Выигрывает у официального openai npm по тестам — structured output +22%, multi-turn +20%, TTFT +8%.
Drop-in совместимость. Для Node: меняешь require('openai') на require('openai-oxide/compat') — остальной код тот же. Для Python аналогично.
github.com/fortunto2/openai-oxide
Когда пишешь агента, который за один цикл делает 20-50 tool call'ов, каждый лишний round-trip складывается в секунды. openai-oxide решает это на уровне архитектуры.
Persistent WebSocket.
Одно wss:// соединение на весь агентный цикл - никаких повторных TLS handshake'ов.
На 10 sequential tool call'ах это минус 40% общего времени. Ни один другой Rust-клиент этого не умеет.
Zero-copy SSE parser.
Стриминг без промежуточных аллокаций.
TTFT 530ms — на уровне теоретического предела сети.
WASM first-class. Компилируется в wasm32, работает в Cloudflare Workers и браузерах. Стриминг, retry, structured outputs — всё доступно. Не polyfill, а нативная поддержка. Демо cloudflare-worker-dioxus.nameless-sunset-8f24.workers.dev
Hedged requests. Шлёт два параллельных запроса, берёт первый ответ. Стоит 2-7% лишних токенов, но P99 латентность падает на 50-96%. Идея из Google "The Tail at Scale".
Structured Outputs без бойлерплейта.
Один #[derive(JsonSchema)] на struct — SDK сам генерирует strict JSON schema и парсит ответ.
Та же схема работает и для response_format, и для tool definitions.
Полное покрытие API. Chat Completions, Responses API, Embeddings, Audio, Images, Files, Batches, Fine-tuning, Assistants, Vector Stores, Conversations, Videos (Sora), Realtime - 100+ методов. Параметры один в один с официальным Python SDK.
Node.js биндинг через napi-rs. Нативный addon, не чистый JS. Выигрывает у официального openai npm по тестам — structured output +22%, multi-turn +20%, TTFT +8%.
Drop-in совместимость. Для Node: меняешь require('openai') на require('openai-oxide/compat') — остальной код тот же. Для Python аналогично.
github.com/fortunto2/openai-oxide
cargo add openai-oxide
npm install openai-oxide
pip install openai-oxide
🔥3😁1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama
Лицензия: Apache 2.0.
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
@ai_machinelearning_big_data
#Gemma
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama
Лицензия: Apache 2.0.
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
@ai_machinelearning_big_data
#Gemma
❤2👍1🔥1
Forwarded from Вайб-кодинг
После утечки исходного кода Claude Code, бывший PM выделил его систему мультиагентной оркестрации в опенсорс, модель-агностичный фреймворк.
Он изучил архитектуру, сосредоточился на слое мультиагентной оркестрации (координатор, который декомпозирует цели на задачи, система команд, message bus, планировщик задач с учётом зависимостей) и реализовал эти паттерны с нуля как отдельный опенсорс фреймворк, не нарушая код Anthropic.
В результате получился то, что JackChen называет «open-multi-agent». В отличие от claude-agent-sdk, который поднимает отдельный CLI-процесс на каждого агента, здесь всё выполняется in-process и может деплоиться где угодно (serverless, Docker, CI/CD).
Посмотреть: https://github.com/JackChen-me/open-multi-agent🔭
Он изучил архитектуру, сосредоточился на слое мультиагентной оркестрации (координатор, который декомпозирует цели на задачи, система команд, message bus, планировщик задач с учётом зависимостей) и реализовал эти паттерны с нуля как отдельный опенсорс фреймворк, не нарушая код Anthropic.
В результате получился то, что JackChen называет «open-multi-agent». В отличие от claude-agent-sdk, который поднимает отдельный CLI-процесс на каждого агента, здесь всё выполняется in-process и может деплоиться где угодно (serverless, Docker, CI/CD).
Посмотреть: https://github.com/JackChen-me/open-multi-agent
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯4❤3