Спите? тут самый известный и загадочный инсайдер в ИИ-сообществе Strawberry Man, сливы которого почти всегда подтверждались предрекает релиз Mythos на 16 апреля, по всем бенчмаркам более 95%
цена $120/$600 за миллион токенов
окно контекста 10 миллионов токенов
только для корпоративного использования (надеюсь нет, а если да, то замутим каналом Futuris co и будем юзать по очереди😨 )
capybara is here.
capygpt is agi🌚
Я уже ничему не удивлюсь, даже если всё окажется правдой и даже круче, ставим напоминалки на 16.04🗓
цена $120/$600 за миллион токенов
окно контекста 10 миллионов токенов
только для корпоративного использования (надеюсь нет, а если да, то замутим каналом Futuris co и будем юзать по очереди
capybara is here.
capygpt is agi
Я уже ничему не удивлюсь, даже если всё окажется правдой и даже круче, ставим напоминалки на 16.04
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤯17👍9⚡7❤2✍2🗿2🔥1🤔1
Futuris
Это наверное самый быстрорастущий гит (УЖЕ ПОЧИЩЕН!!) 22.5K ⭐️ | 32K форков — за 40 минут- https://github.com/instructkr/claude-code тут исходники ➡️ - https://x.com/Fried_rice/status/2038894956459290963 тут дока как работает клод ➡️ - https://www.mintlify…
Ну, не прошло и суток, как утёкший исходник Claude Code уже форкнули в OpenClaude — тот же CLI, но с поддержкой 200+ моделей включая бесплатный Ollama🍿
Что работает:🔧 Все инструменты — bash, чтение/запись/редактирование файлов, grep, glob 🌐 WebFetch, WebSearch 🤖 Суб-агенты (AgentTool), мульти-степ цепочки 🔌 MCP-серверы, LSP, Jupyter ноутбуки 💬 Slash-команды — /commit, /review, /compact, /diff, /doctor 🖼 Vision (передача картинок в модель) 🧠 Persistent Memory между сессиями 📡 Стриминг в реалтайме
Что не работает: ❌ Extended Thinking (фича только Claude) ❌ Prompt caching (специфика Anthropic API)
Работоспособность зависит от модели на которой гоняете. По сути комьюнити за сутки сделало то, что Anthropic не хотела давать — CLI-агент с полным набором dev-инструментов. Бесплатно, локально, с любым мозгом на выбор😊
лежит тута - https://github.com/Gitlawb/openclaude
OpenClaw+OpenClaude = openAGI💎
Что работает:
Что не работает: ❌ Extended Thinking (фича только Claude) ❌ Prompt caching (специфика Anthropic API)
Работоспособность зависит от модели на которой гоняете. По сути комьюнити за сутки сделало то, что Anthropic не хотела давать — CLI-агент с полным набором dev-инструментов. Бесплатно, локально, с любым мозгом на выбор
лежит тута - https://github.com/Gitlawb/openclaude
OpenClaw+OpenClaude = openAGI
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥22🎃7❤3🤡2🗿2
💡 Управляйте всеми сервисами через одного ИИ-агента в Telegram
Google Calendar, Notion, Gmail, Drive, GitHub и 800+ других — в одном чате.
Достаточно одной команды:
🔗 "Подключи мою почту"
📅 "Напомни о встрече за час и помоги подготовиться"
📬 "Проверь почту и выдели важное"
📝 "Опубликуй пост в мой X"
Без сложных интеграций и настроек — просто напишите Mira, что нужно.
Google Calendar, Notion, Gmail, Drive, GitHub и 800+ других — в одном чате.
Достаточно одной команды:
Без сложных интеграций и настроек — просто напишите Mira, что нужно.
Please open Telegram to view this post
VIEW IN TELEGRAM
1💩7🫡6❤3⚡2👍1
Тут 2 китайские нейронки обновились:
💎 GLM-5V-Turbo (Z.ai): ~14–30B: Мультимодальная нейросеть с нативным зрением, которая умеет генерировать готовый рабочий код напрямую по скриншотам и дизайн-макетам. Идеально подходит для автоматизации фронтенда и работы автономных GUI-агентов.
https://docs.z.ai/guides/vlm/glm-5v-turbo
💎 Qwen3.6-Plus (Alibaba): ~72–110B: Мощная модель с окном контекста на 1 млн токенов, превосходящая конкурентов в терминальных задачах и работе с целыми репозиториями. Её уникальная функция preserve_thinking сохраняет историю размышлений агента между запросами, что радикально повышает автономность в многошаговых задачах.
https://qwen.ai/blog?id=qwen3.6
Квен доступен по api в openrouter пока бесплатно https://openrouter.ai/qwen/qwen3.6-plus-preview:free/pricing
Таким темпом небольшие модели скоро (или уже) будут вполне способны заменить любую закрытую фронтир модель для базовых задач🐈
А ещё сегодня гугл зарелизит Гемма 4💎 💎 💎 💎 🆕
https://docs.z.ai/guides/vlm/glm-5v-turbo
https://qwen.ai/blog?id=qwen3.6
Квен доступен по api в openrouter пока бесплатно https://openrouter.ai/qwen/qwen3.6-plus-preview:free/pricing
Таким темпом небольшие модели скоро (или уже) будут вполне способны заменить любую закрытую фронтир модель для базовых задач
А ещё сегодня гугл зарелизит Гемма 4
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10😁2🤔2❤1
Forwarded from Сиолошная
Google выпускают обновление линейки Gemma — стала доступна версия с номером 4
https://deepmind.google/models/gemma/gemma-4/
Всего доступны модели 4 размеров: поменьше E2B, E4b (бывшие Gemma 3n/Gemini Nano); и побольше, 26A4B, 31B (Dense).
Модели поддерживают рассуждения и вызов инструментов, понимают картинки и видео. Заявлена поддержка 35 языков (но тренировали на 140). Контекст 128к/256к.
E2B и E4B (для смартфонов) поддерживают аудио на входе — можно делать распознавание голоса.
Веса: https://huggingface.co/collections/google/gemma-4
https://deepmind.google/models/gemma/gemma-4/
Всего доступны модели 4 размеров: поменьше E2B, E4b (бывшие Gemma 3n/Gemini Nano); и побольше, 26A4B, 31B (Dense).
Модели поддерживают рассуждения и вызов инструментов, понимают картинки и видео. Заявлена поддержка 35 языков (но тренировали на 140). Контекст 128к/256к.
E2B и E4B (для смартфонов) поддерживают аудио на входе — можно делать распознавание голоса.
Веса: https://huggingface.co/collections/google/gemma-4
👍8❤4💩2🎃2👎1🤔1🤡1
Андрей Карпаты показал идеальную архитектуру для ИИ-агентов (и она гениально проста👌 )
Забудьте про сложные векторные базы данных (RAG) и платные инструменты. Известный ИИ-исследователь Андрей Карпаты поделился своим методом создания саморазвивающегося «второго мозга», который работает исключительно на голых текстовых файлах.
🧐 Как это устроено:
Вы просто скидываете все исходники (статьи, PDF, картинки) в папку raw/. Затем натравливаете на неё языковую модель. Нейросеть выступает в роли автономного библиотекаря: она сама читает данные, пишет саммари, разбивает информацию по категориям и собирает из обычных Markdown-файлов (.md) структурированную Википедию, проставляя перекрестные ссылки. Obsidian (не cli, бесплатная версия) здесь используется просто как удобная и бесплатная программа для просмотра этих файлов.
✨ В чем главная магия:
Весь секрет — в закольцованности. Когда вы задаете ИИ сложный вопрос по собранной базе, он не просто выдает текстовый ответ в чат. Он генерирует новую статью, таблицу или график и физически сохраняет этот ответ обратно в папку. Таким образом, с каждым вашим исследовательским запросом база знаний становится умнее и обрастает новыми связями.
🧠 «Петля знаний» Андрея Карпаты
Вместо того чтобы каждый раз закидывать в чат-бота тонны текста, он использует его как автономного редактора:
Свалка (Raw): Он просто скидывает нужные PDF, датасеты, картинки и вырезки из интернета в одну папку на компьютере.
Компиляция: LLM (через простые скрипты в терминале) сама читает всё это и пишет структурированную Википедию в формате Markdown. ИИ делает саммари, выделяет концепции и проставляет обратные ссылки.
Интерфейс: Карпаты почти не пишет заметки руками. Он открывает Obsidian просто как красивую читалку для того, что собрал и отсортировал ИИ.
Магия цикла: Когда он задает сложный вопрос, ИИ ищет ответ в этой же базе, выдает результат и сохраняет его обратно в Википедию как новую статью. База знаний прокачивает сама себя с каждым вашим запросом.
Этот подход доказывает, что автономным ИИ-агентам не нужны гигантские окна контекста (запихивать все знания мира в один промпт — дорого и неэффективно) или сложные API-интерфейсы. Им нужна просто хорошая файловая система и понятная инструкция в корневой папке (например, файл AGENTS.md).
Это дешево, абсолютно прозрачно (все знания лежат в ваших папках на диске, а не в «черном ящике» весов нейросети) и открывает путь к созданию совершенно нового класса полезных ИИ-продуктов. В комментариях разработчики соглашаются, что это идеальная архитектура для будущих ИИ-агентов. Им не нужна бесконечная память в голове, им нужна хорошая файловая система, в которой они могут сами копаться, наводить порядок и из которой могут извлекать знания🤓
Качаем, тестируем, эволюционируем🥳
Забудьте про сложные векторные базы данных (RAG) и платные инструменты. Известный ИИ-исследователь Андрей Карпаты поделился своим методом создания саморазвивающегося «второго мозга», который работает исключительно на голых текстовых файлах.
Вы просто скидываете все исходники (статьи, PDF, картинки) в папку raw/. Затем натравливаете на неё языковую модель. Нейросеть выступает в роли автономного библиотекаря: она сама читает данные, пишет саммари, разбивает информацию по категориям и собирает из обычных Markdown-файлов (.md) структурированную Википедию, проставляя перекрестные ссылки. Obsidian (не cli, бесплатная версия) здесь используется просто как удобная и бесплатная программа для просмотра этих файлов.
Весь секрет — в закольцованности. Когда вы задаете ИИ сложный вопрос по собранной базе, он не просто выдает текстовый ответ в чат. Он генерирует новую статью, таблицу или график и физически сохраняет этот ответ обратно в папку. Таким образом, с каждым вашим исследовательским запросом база знаний становится умнее и обрастает новыми связями.
Вместо того чтобы каждый раз закидывать в чат-бота тонны текста, он использует его как автономного редактора:
Свалка (Raw): Он просто скидывает нужные PDF, датасеты, картинки и вырезки из интернета в одну папку на компьютере.
Компиляция: LLM (через простые скрипты в терминале) сама читает всё это и пишет структурированную Википедию в формате Markdown. ИИ делает саммари, выделяет концепции и проставляет обратные ссылки.
Интерфейс: Карпаты почти не пишет заметки руками. Он открывает Obsidian просто как красивую читалку для того, что собрал и отсортировал ИИ.
Магия цикла: Когда он задает сложный вопрос, ИИ ищет ответ в этой же базе, выдает результат и сохраняет его обратно в Википедию как новую статью. База знаний прокачивает сама себя с каждым вашим запросом.
Этот подход доказывает, что автономным ИИ-агентам не нужны гигантские окна контекста (запихивать все знания мира в один промпт — дорого и неэффективно) или сложные API-интерфейсы. Им нужна просто хорошая файловая система и понятная инструкция в корневой папке (например, файл AGENTS.md).
Это дешево, абсолютно прозрачно (все знания лежат в ваших папках на диске, а не в «черном ящике» весов нейросети) и открывает путь к созданию совершенно нового класса полезных ИИ-продуктов. В комментариях разработчики соглашаются, что это идеальная архитектура для будущих ИИ-агентов. Им не нужна бесконечная память в голове, им нужна хорошая файловая система, в которой они могут сами копаться, наводить порядок и из которой могут извлекать знания
Качаем, тестируем, эволюционируем
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡22👍11🤔5❤4✍3👎1
Futuris
Спите? тут самый известный и загадочный инсайдер в ИИ-сообществе Strawberry Man, сливы которого почти всегда подтверждались предрекает релиз Mythos на 16 апреля, по всем бенчмаркам более 95% цена $120/$600 за миллион токенов окно контекста 10 миллионов токенов…
Значит так🤓 16 апреля мы ждём Mythos
Теперь появилась информация (стандартный прогрев перед релизами) о скором релизе Картофелины🥔 (Spud) от OpenAI, понятно, что проигрывать в конкуренции они не собираются. Что знаем на данный момент?
OpenAI завершила pretrain «Spud». Альтман в мемо сотрудникам: «Ожидайте очень сильную модель через несколько недель, которая может по-настоящему ускорить экономику». Продуктовый отдел переименован в «AGI Deployment». OpenAI только что закрыла раунд $122B при оценке $852B, IPO до конца 2026. Spud — их главная ставка.
🥔 Pretrain завершён, идёт тестирование
🗓 Релиз: 2-3 недели (середина апреля)
🤖 Модель агентная с нуля — не фича, а основа
🎬 Sora закрыта — весь compute перекинут на Spud
🧮 Внутренняя модель решила 3 задачи Эрдёша (над ними десятилетиями бьются лучшие математики, многие до сих пор не решены)
⚔️ Война Q2: Spud vs Mythos (Anthropic)
ну и появился очередной твит клубничного чела, похоже, нас ждёт GPT-6, готовимся к горячему месяцу🔥
ну и вот ещё списочек релизов за последний месяц и планы на апрель (нехило так ИИ-волна разогналась🌊)
- Meta Avacado
- Deepseek V4❓
- GPT-5.5/6 (“Spud”)❗️
- Gemma 4 series✅
- Qwen3.6-Plus✅
- Qwen3.5 Max Pro✅
- Qwen3.5 Omni Plus✅
- Gemini 3.1 Flash Live✅
- GLM-5.1 open weights
- GLM-5V-Turbo✅
- MiniMax M2.7 open weights
- MiniMax M3.0
- Kimi K3.0
- Claude 5 (“Mythos”)❗️
- StepFun
- Hunyuan 30B MoE
- Trinity Large Thinking (🇺🇸)✅
- 1-bit Bonsai 8B (🇺🇸)✅
- Holo3 (🇫🇷)✅
And it will be only faster going forward⚡️
Теперь появилась информация (стандартный прогрев перед релизами) о скором релизе Картофелины🥔 (Spud) от OpenAI, понятно, что проигрывать в конкуренции они не собираются. Что знаем на данный момент?
OpenAI завершила pretrain «Spud». Альтман в мемо сотрудникам: «Ожидайте очень сильную модель через несколько недель, которая может по-настоящему ускорить экономику». Продуктовый отдел переименован в «AGI Deployment». OpenAI только что закрыла раунд $122B при оценке $852B, IPO до конца 2026. Spud — их главная ставка.
🥔 Pretrain завершён, идёт тестирование
🎬 Sora закрыта — весь compute перекинут на Spud
🧮 Внутренняя модель решила 3 задачи Эрдёша (над ними десятилетиями бьются лучшие математики, многие до сих пор не решены)
ну и появился очередной твит клубничного чела, похоже, нас ждёт GPT-6, готовимся к горячему месяцу
ну и вот ещё списочек релизов за последний месяц и планы на апрель (нехило так ИИ-волна разогналась🌊)
- Meta Avacado
- Deepseek V4
- GPT-5.5/6 (“Spud”)
- Gemma 4 series
- Qwen3.6-Plus
- Qwen3.5 Max Pro
- Qwen3.5 Omni Plus
- Gemini 3.1 Flash Live
- GLM-5.1 open weights
- GLM-5V-Turbo
- MiniMax M2.7 open weights
- MiniMax M3.0
- Kimi K3.0
- Claude 5 (“Mythos”)
- StepFun
- Hunyuan 30B MoE
- Trinity Large Thinking (🇺🇸)
- 1-bit Bonsai 8B (🇺🇸)
- Holo3 (🇫🇷)
And it will be only faster going forward
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥16❤5
Тут на Lm-arena все в шоке от новых секретных моделек для генерации изображений maskingtape-alpha, gaffertape-alpha and packingtape-alpha (пишут уже удалили, видимо скоро релиз)
Все уверены что это GPT-IMAGE-2 от OpenAI (не удивлюсь если они на новом Spud под капотом гоняются🌚 )
Ждём скоро релиза✨
AGI-моменты по всем фронтам🍿
Все уверены что это GPT-IMAGE-2 от OpenAI (не удивлюсь если они на новом Spud под капотом гоняются
Ждём скоро релиза
AGI-моменты по всем фронтам
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯11👍4🔥1🗿1
Futuris
Андрей Карпаты показал идеальную архитектуру для ИИ-агентов (и она гениально проста👌 ) Забудьте про сложные векторные базы данных (RAG) и платные инструменты. Известный ИИ-исследователь Андрей Карпаты поделился своим методом создания саморазвивающегося «второго…
В дополнение к концепции Андрей только что опубликовал Gist-файл LLM Wiki - по сути, это готовый системный промпт для вашего ИИ-агента. Вы просто копируете этот текст в настройки, и нейросеть переключается в режим строгого библиотекаря.
Что важного он прописал в этой инструкции для ИИ:
🗂 Система двух файлов: Чтобы ИИ не путался в сотнях заметок без сложного векторного поиска, он обязан вести index.md (общий каталог всех страниц с кратким описанием) и log.md (хронологический лог всех своих действий — что прочитал, что добавил).
🧹 Режим «Уборки» (Lint): Карпаты поручает ИИ периодически проводить аудит базы. Нейросеть сама ищет противоречия между старыми и новыми статьями, находит «осиротевшие» страницы без ссылок и предлагает, какую информацию стоит догуглить.
🛠 Правило «Схемы»: В корне папки должен лежать файл CLAUDE.md или AGENTS.md. Это конституция вашей базы, которую вы пишете вместе с ИИ под свои нужды (например, «всегда сохраняй картинки локально» или «делай таблицы для сравнений»).
По сути, это готовый open-source фреймворк. Копируете текст, натравливаете агента на пустую папку — и ваш автономный «второй мозг» готов к работе!🤖
Что важного он прописал в этой инструкции для ИИ:
🗂 Система двух файлов: Чтобы ИИ не путался в сотнях заметок без сложного векторного поиска, он обязан вести index.md (общий каталог всех страниц с кратким описанием) и log.md (хронологический лог всех своих действий — что прочитал, что добавил).
🧹 Режим «Уборки» (Lint): Карпаты поручает ИИ периодически проводить аудит базы. Нейросеть сама ищет противоречия между старыми и новыми статьями, находит «осиротевшие» страницы без ссылок и предлагает, какую информацию стоит догуглить.
🛠 Правило «Схемы»: В корне папки должен лежать файл CLAUDE.md или AGENTS.md. Это конституция вашей базы, которую вы пишете вместе с ИИ под свои нужды (например, «всегда сохраняй картинки локально» или «делай таблицы для сравнений»).
По сути, это готовый open-source фреймворк. Копируете текст, натравливаете агента на пустую папку — и ваш автономный «второй мозг» готов к работе!
Please open Telegram to view this post
VIEW IN TELEGRAM
Gist
llm-wiki
llm-wiki. GitHub Gist: instantly share code, notes, and snippets.
❤🔥14❤10
Буквально на днях китайская лаборатория HKUDS (те самые ребята, что сделали LightRAG) выкатила в опенсорс свой новый фреймворк — OpenHarness. За пару дней проект влетел в топы GitHub (4к
Слово harness (оснастка/каркас) отлично передает суть. Это не нейросеть, а программный «экзоскелет» для создания автономных ИИ-агентов (SuperAgents).
Если обычный API-запрос — это разовая команда, то OpenHarness дает ИИ изолированную песочницу для выполнения кода (sandbox), доступ к долгосрочной памяти, систему навыков (skills) и возможность плодить субагентов под конкретные задачи.
Почему такой хайп именно сейчас?
Релиз OpenHarness идеально совпал с настоящей драмой на рынке.
Еще вчера все молились на OpenClaw — популярного персонального ИИ-ассистента. Разработчики привязывали к нему свои безлимитные подписки Claude Pro/Max и за $200 в месяц получали автономного раба, который сутками писал код и управлял ПК.
Но халява закончилась. Вчера Anthropic официально прикрыла эту лазейку. Теперь подписки не покрывают работу сторонних ИИ-фреймворков. Хочешь автономного агента? Плати за каждый токен по API, что увеличивает чеки в десятки раз. Создатель OpenClaw бушует в Твиттере, а комьюнити в панике ищет альтернативы.
И тут на сцену выходит OpenHarness. В отличие от потребительского OpenClaw, решение от HKUDS — это чистый, академический движок для разработчиков.
В чем разница с OpenClaw?
OpenClaw — это сам «работник
OpenHarness — это «завод
Если вы хотите не просто использовать чужих агентов, а создавать своих — OpenHarness сейчас выглядит как инструмент must-have.
Если вы планируете строить сложные AI-проекты с функцией Function Calling, сложной памятью и оркестрацией — сейчас самое время разбираться с OpenHarness.
гит
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤21🗿7
Я человек простой, вижу красивые кораблики в стиле Homeworld - сразу делаю видео🤩
Кстати, сделал всё в Veo3.1 -fast, гугл недавно пошёл против хайпа и не стал бороться с Seedance 2, а сделал хороший апдейт простейшей версии Veo3 и самое главное, что пока это полностью бесплатно в flow (veo 3-fast lower priority), генерьте себе сколько влезет, конечно в динамические кадры сложно, но для ожившей статики самое то🐈
Кто играл - ставим❤️
Кстати, сделал всё в Veo3.1 -fast, гугл недавно пошёл против хайпа и не стал бороться с Seedance 2, а сделал хороший апдейт простейшей версии Veo3 и самое главное, что пока это полностью бесплатно в flow (veo 3-fast lower priority), генерьте себе сколько влезет, конечно в динамические кадры сложно, но для ожившей статики самое то
Кто играл - ставим
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥17🔥3👍2🤔1