Пока вы спали, OpenAI выкатили подробный гайд, как работает их агент Codex, это прям очень круто! Обязательно изучите. Переводить не стал, так как рука не поднимается такое переводить, думаю, любой сможет разобраться.
Кто не хочет читать, очень интересные моменты:
1. Агент — не обычный чат-бот. Его ключевая задача — безопасный вызов инструментов (tool calls) в локальном окружении пользователя (например, работа с файловой системой, Git, shell). Основной выход агента — измененный код, не текстовое сообщение.
2. Сложная кухня промптов. Система автоматически собирает начальный промпт из множества источников: системных инструкций, конфигурационных файлов пользователя, документации проекта (AGENTS.md) и даже описания локального окружения (рабочая директория, shell). Это делает агента контекстуально осведомленным.
3. Проблема роста контекста и ее решение. Каждый новый ход в диалоге и каждый вызов инструмента добавляет данные в историю, поэтому промпт может стать слишком большим. OpenAI открыто обсуждает эту проблему и объясняет, как использует кэширование промптов для оптимизации производительности, предпочитая его другим методам для сохранения полной статистичности и совместимости с политикой Zero Data Retention.
4. Гибкость и открытость. Codex CLI может работать не только с облачными моделями OpenAI, но и с локальными (через Ollama/LM Studio) или с решениями других вендоров (например, Azure), если те поддерживают Responses API. Также система поддерживает подключение внешних инструментов через MCP-серверы (Model Context Protocol).
P.S. Я вот всё еще не понимаю, ну всё расписано и разжевано, почему у нас нет своего Cursor или Copilot, который будет работать без различных ускорителей.
Кто не хочет читать, очень интересные моменты:
1. Агент — не обычный чат-бот. Его ключевая задача — безопасный вызов инструментов (tool calls) в локальном окружении пользователя (например, работа с файловой системой, Git, shell). Основной выход агента — измененный код, не текстовое сообщение.
2. Сложная кухня промптов. Система автоматически собирает начальный промпт из множества источников: системных инструкций, конфигурационных файлов пользователя, документации проекта (AGENTS.md) и даже описания локального окружения (рабочая директория, shell). Это делает агента контекстуально осведомленным.
3. Проблема роста контекста и ее решение. Каждый новый ход в диалоге и каждый вызов инструмента добавляет данные в историю, поэтому промпт может стать слишком большим. OpenAI открыто обсуждает эту проблему и объясняет, как использует кэширование промптов для оптимизации производительности, предпочитая его другим методам для сохранения полной статистичности и совместимости с политикой Zero Data Retention.
4. Гибкость и открытость. Codex CLI может работать не только с облачными моделями OpenAI, но и с локальными (через Ollama/LM Studio) или с решениями других вендоров (например, Azure), если те поддерживают Responses API. Также система поддерживает подключение внешних инструментов через MCP-серверы (Model Context Protocol).
P.S. Я вот всё еще не понимаю, ну всё расписано и разжевано, почему у нас нет своего Cursor или Copilot, который будет работать без различных ускорителей.
👍8🔥1
Forwarded from Основы Flutter
Если вы проживаете в СНГ и нет возможности приобрести электронную версию книги через сайт издательства "Питер" из-за проблем с оплатой картами, у нас для вас отличная новость! 😉
Вот ссылочка для покупки через Amazon
Вот ссылочка для покупки через Amazon
❤4
Forwarded from MADTeacher | Станислав Чернышев
Нативный Flutter заказывали? 👀
Xiaomi готовит огромнейший апдейт своей операционной системы HyperOS, отказываясь от кучи легаси кода в ходе рефакторинга архитектуры и перепиливая все системные приложения и часть самой системы на связку Rust + Flutter🤩
Да-да, это именно то о чем вы подумали... HyperOS 4 будет первой операционной системой, где Dart/Flutter будет считаться нативным инструментом для разработки софта😎
p.s. Что с лицом, любители KMP?😄
Xiaomi готовит огромнейший апдейт своей операционной системы HyperOS, отказываясь от кучи легаси кода в ходе рефакторинга архитектуры и перепиливая все системные приложения и часть самой системы на связку Rust + Flutter
Да-да, это именно то о чем вы подумали... HyperOS 4 будет первой операционной системой, где Dart/Flutter будет считаться нативным инструментом для разработки софта
p.s. Что с лицом, любители KMP?
Please open Telegram to view this post
VIEW IN TELEGRAM
HyperOS
HyperOS 4 станет самым серьёзным обновлением в истории Xiaomi
Новые приложения на основе Flutter из состава HyperOS 4 не будут работать на HyperOS 3.0 и более старых версиях системы.
🔥25❤2🤩1
Тут ребята из ОМП импеллер для Flutter Аврора завезли 👏
https://habr.com/ru/companies/rostelecom/articles/992002/
https://habr.com/ru/companies/rostelecom/articles/992002/
Хабр
Поддержка Flutter Impeller для ОС Аврора
Меня зовут Никита Красавин, я тимлид команды разработки Flutter для ОС Аврора в Открытой мобильной платформе. Сегодня я расскажу вам об одной из нашумевших фич Flutter, или, правильнее сказать, о...
🔥11🤣4😁1
А ведь больше новых языков программирования не будет, по факту всё, мы остановились в развитии. Вы спросите почему, а потому что, чтобы появился новый язык, языковые модели должны знать его и иметь опыт создавать код на нем.
Так как никто не будет использовать язык, если нейронка про него не знает.
Получается, мы лишились супер интересных языков и инноваций.
Например, все использовали сборщик мусора, это был эталон, и это было очень круто. Но проблема всегда оставалась в скорости, так как для сборщика нужны процессорные ресурсы, будь это Go, Dart или Java. Но вот пришел язык Rust и придумал технологию «Владение». И таких примеров очень много.
И теперь, увы, мы не увидим новых языков. Хотя я надеюсь, что я не прав...
Так как никто не будет использовать язык, если нейронка про него не знает.
Получается, мы лишились супер интересных языков и инноваций.
Например, все использовали сборщик мусора, это был эталон, и это было очень круто. Но проблема всегда оставалась в скорости, так как для сборщика нужны процессорные ресурсы, будь это Go, Dart или Java. Но вот пришел язык Rust и придумал технологию «Владение». И таких примеров очень много.
И теперь, увы, мы не увидим новых языков. Хотя я надеюсь, что я не прав...
💯11😢5🤣1
Стас, а мы ближе чем ты думаешь 😁
https://tgpages.com/atlas/map/?utm_source=habr&x=-0.41&y=0.337&z=167.76
https://tgpages.com/atlas/map/?utm_source=habr&x=-0.41&y=0.337&z=167.76
😁7
Уф, ну вроде бы всё, обновил курс
https://stepik.org/a/119593
Обновил Dart часть, Flutter клиент пока не трогал. Может чуть позже сделаю 😁
https://stepik.org/a/119593
Обновил Dart часть, Flutter клиент пока не трогал. Может чуть позже сделаю 😁
Stepik: online education
RESTful бекенд на Dart и клиент на Flutter
Практический курс по созданию RESTful бэкенда на языке Dart. Вы разработаете два микросервиса (auth и data) с нуля: аутентификация через JWT, работа с PostgreSQL, кеширование в Redis, логирование, обработка запросов. Научитесь контейнеризировать сервисы с…
3🔥24
Forwarded from Flutter Observer
🚀 Exciting news! Flutter new version is out. Stay updated
Version: 3.41.2
Release date: 19.02.2026
Dart SDK version: 3.11.0
🌐 Release Notes
🌐 Changelog
🌐 Breaking changes
🌐 Tag
Version: 3.41.2
Release date: 19.02.2026
Dart SDK version: 3.11.0
🌐 Release Notes
🌐 Changelog
🌐 Breaking changes
🌐 Tag
👍9
Всем доброго вечера. В связи с тем, что телеграмм умирает. Буду дублировать новости на своей странице в VK.
Подпишитесь, на всякий случай …
https://vk.com/mobile_developing
Подпишитесь, на всякий случай …
https://vk.com/mobile_developing
😢12👍7🤣5
Тут NVIDIA открыла исходный код Personaplex — модели для голосового общения, которая работает в реальном времени и умеет поддерживать любую роль и голос.
Модель очень крутая.
Personaplex — это полнодуплексная (full-duplex) speech-to-speech модель на 7 млрд параметров, которая:
• слушает и говорит одновременно — как живой собеседник;
• работает с минимальной задержкой (~200 мс);
• поддерживает текстовые промпты для роли + аудио-примеры для голоса;
• понимает перебивания, паузы, междометия («угу», «ага», «понял»).
Держите ссылки
GitHub репозиторий
Страница исследования NVIDIA
Научная статья на arXiv
Модель на Hugging Face
Демка )))
⚠️ Важно: Для запуска нужен токен Hugging Face и согласие с лицензией модели. Полная инструкция — в README репозитория.
Модель очень крутая.
Personaplex — это полнодуплексная (full-duplex) speech-to-speech модель на 7 млрд параметров, которая:
• слушает и говорит одновременно — как живой собеседник;
• работает с минимальной задержкой (~200 мс);
• поддерживает текстовые промпты для роли + аудио-примеры для голоса;
• понимает перебивания, паузы, междометия («угу», «ага», «понял»).
Держите ссылки
GitHub репозиторий
Страница исследования NVIDIA
Научная статья на arXiv
Модель на Hugging Face
Демка )))
⚠️ Важно: Для запуска нужен токен Hugging Face и согласие с лицензией модели. Полная инструкция — в README репозитория.
GitHub
GitHub - NVIDIA/personaplex: PersonaPlex code.
PersonaPlex code. Contribute to NVIDIA/personaplex development by creating an account on GitHub.
🔥12
Анонс Genkit Dart: Создавайте полнофункциональные приложения для искусственного интеллекта с помощью Dart и Flutter
Статья - аннос, рассказывающая про GenKit Dart (пока правда в предварительной версии).
Но штука очень мощная, позволяет создавать потоки агентной работы, строить раги и еще много чего в удобном UI-интерфейсе.
Статья - аннос, рассказывающая про GenKit Dart (пока правда в предварительной версии).
Но штука очень мощная, позволяет создавать потоки агентной работы, строить раги и еще много чего в удобном UI-интерфейсе.
Medium
Announcing Genkit Dart: Build full-stack AI apps with Dart and Flutter
Announcing the preview launch of Genkit Dart, an open-source AI framework for building full-stack, AI-powered apps for any platform.
🔥8
Хотели прям по шагам посмотреть как работает GPT модель, вот здесь можно:
https://ko-microgpt.vercel.app/#hero
https://ko-microgpt.vercel.app/#hero
MICROGPT LAB
Interactive lab that visualizes how a MicroGPT tokenizes data, learns patterns, and generates names.
👍8❤2
Кто не знал, как правильно начать проект на Flutter, ловите Friflex CLI.
Пока позволяет быстро создать каркас приложения на Flutter и добавить каркас фичи в проект.
Еще хотел сказать, если вы любите вайб кодить, то необходимо сначала правильно создать каркас, и потом уже агенты отлично подхватывают скилы и генерят фичи.
В дальнейшем планы подключить агентов и так далее)))
https://github.com/smmarty/friflex_cli
Пока позволяет быстро создать каркас приложения на Flutter и добавить каркас фичи в проект.
Еще хотел сказать, если вы любите вайб кодить, то необходимо сначала правильно создать каркас, и потом уже агенты отлично подхватывают скилы и генерят фичи.
В дальнейшем планы подключить агентов и так далее)))
https://github.com/smmarty/friflex_cli
3🔥26👍4❤1
Я написал свою большую языковую модель, обучил ее на пьесе Шекспира, и она мне генерирует более-менее связный текст! И это на самом деле очень волнительно. ))
Если вы подумали, что я развернул модель с помощью Olama, то это не так.
Вы, наверно, заметили, что я сильно увлекаюсь большими языковыми моделями. Всё это время я кропотливо изучал математику LLM, да, именно математику. Это крайне важно для понимания, так как если поймете математику, то, по сути, вы поймете, как работают большие языковые модели.
Но у меня есть привычка, когда я что-то изучаю новое, я всего стараюсь вести конспект на Stepik, далее, если материал интересный, то я упаковываю всё это в виде курса.
И в целом получился очень большой курс по созданию LLM своими руками.
Этот курс немного сыроват, так как там очень много математики, и, соответственно, наверно, где-то есть ошибки. Хотя я всё решал на обычных листочках в клеточку с помощью калькулятора, чтобы лучше понять суть работы трансформера.
Также сейчас я работаю над книгой, где будет более лаконично всё разъяснено.
На курсе будет ссылка на закрытый чат, где можно будет спросить что-то по курсу.
Ну и, конечно, скидка моим подписчикам 20% по промокоду START
https://stepik.org/a/276236
Если вы подумали, что я развернул модель с помощью Olama, то это не так.
Вы, наверно, заметили, что я сильно увлекаюсь большими языковыми моделями. Всё это время я кропотливо изучал математику LLM, да, именно математику. Это крайне важно для понимания, так как если поймете математику, то, по сути, вы поймете, как работают большие языковые модели.
Но у меня есть привычка, когда я что-то изучаю новое, я всего стараюсь вести конспект на Stepik, далее, если материал интересный, то я упаковываю всё это в виде курса.
И в целом получился очень большой курс по созданию LLM своими руками.
Этот курс немного сыроват, так как там очень много математики, и, соответственно, наверно, где-то есть ошибки. Хотя я всё решал на обычных листочках в клеточку с помощью калькулятора, чтобы лучше понять суть работы трансформера.
Также сейчас я работаю над книгой, где будет более лаконично всё разъяснено.
На курсе будет ссылка на закрытый чат, где можно будет спросить что-то по курсу.
Ну и, конечно, скидка моим подписчикам 20% по промокоду START
https://stepik.org/a/276236
5🔥22❤6
Многие спрашивают, какую локальную модель лучше всего использовать на своем компьютере.
Вот отличное решение. Проанализирует, отсканирует и покажет, какая модель лучше всего подойдет для вашего компьютера.
https://github.com/AlexsJones/llmfit
Вот отличное решение. Проанализирует, отсканирует и покажет, какая модель лучше всего подойдет для вашего компьютера.
https://github.com/AlexsJones/llmfit
🔥5👍1
Все уже просмаковали опубликованный репозиторий Claude.
Ну, я тоже изучил репо, и вот что лично мне показалось самым интересным.
Сразу скажу: очень круто, что мы вообще увидели такую реализацию.
Такое не на вайбкодишь, даже если обложиться опусами :)
Что по коду:
1. Это реально агентная система, а не один бот. Внутри есть координатор, который поднимает субагентов параллельно, раздаёт им задачи и собирает результат обратно.
В промпте прямо сказано: «Parallelism is your superpower». Очень круто сделано.
2. Есть общий контекст, память для командной работы агентов, позволяет не запрашивать разрешения при коммуникации.
3. Внутри есть companion/buddy в CLI: он реагирует на происходящее и добавляет в интерфейсе анимации)).
4. Очень хорошо продуманы безопасность, permission flow, sandboxing и работа с публичными репами. Это надо брать всем на вооружение.
5. По масштабу это уже не агент, а целая система из агентов и инфраструктуры вокруг них.
6. Агент не тащит всю память подряд: он выбирает релевантные memory-файлы под конкретный запрос.
7. Tools и Skills подгружаются динамически, без жёсткой завязки на монолит.
8. Агент автоматически сворачивает историю диалога в резюме по мере приближения к лимиту токенов, причём через несколько уровней: от лёгкой очистки до полного саммари.
9. Агент обязан писать минимально необходимый код, в промте прямо написано:
- не делай больше, чем просили;
- не добавляй защитный код про запас;
- никаких абстракций ради абстракций;
и там же есть метрика, где антропик видит, когда клод усложнил код.
10. Есть флаг ANTI_DISTILLATION_CC, который включается по определенному алгоритму, когда он включён, Claude Code отправляет в API-запросах anti_distillation: ['fake_tools'], что заставляет сервер переводить инструменты в безопасный режим и будет помешивать некую логику для защиты от датасета и внутренних компонентов агента.
11. Для внешних реп у внутренней сборки Anthropic он включён по умолчанию: Claude получает жёсткие ограничения не светить внутренние кодовые имена/инфру и не добавлять AI-атрибуцию в commit/PR текст.
Причём в коде прямо отмечено: force-OFF нет, а CLAUDE_CODE_UNDERCOVER=1 — это только принудительно включить режим.
12. API-запросы содержат плейсхолдер cch=00000. До отправки эти пять нулей заменяются вычисленным хешем. Сервер валидирует хеш, подтверждая, что запрос пришёл именно от настоящего бинарника Claude Code, а не от поддельного клиента.
13. Каждая bash-команда проходит через 23 пронумерованных проверки безопасности, включая 18 заблокированных Zsh-встроенных команд
14. Ну и самое веселое, есть детектор раздражения, который отправляются в антропик, но при этом на агента это не влияет)). И сделан он с помощью простых регулярок, дешево и сердито)
Эта утечка, как камаз перевернутый с пряниками)) Кто знает, тот поймет.
Ну, я тоже изучил репо, и вот что лично мне показалось самым интересным.
Сразу скажу: очень круто, что мы вообще увидели такую реализацию.
Такое не на вайбкодишь, даже если обложиться опусами :)
Что по коду:
1. Это реально агентная система, а не один бот. Внутри есть координатор, который поднимает субагентов параллельно, раздаёт им задачи и собирает результат обратно.
В промпте прямо сказано: «Parallelism is your superpower». Очень круто сделано.
2. Есть общий контекст, память для командной работы агентов, позволяет не запрашивать разрешения при коммуникации.
3. Внутри есть companion/buddy в CLI: он реагирует на происходящее и добавляет в интерфейсе анимации)).
4. Очень хорошо продуманы безопасность, permission flow, sandboxing и работа с публичными репами. Это надо брать всем на вооружение.
5. По масштабу это уже не агент, а целая система из агентов и инфраструктуры вокруг них.
6. Агент не тащит всю память подряд: он выбирает релевантные memory-файлы под конкретный запрос.
7. Tools и Skills подгружаются динамически, без жёсткой завязки на монолит.
8. Агент автоматически сворачивает историю диалога в резюме по мере приближения к лимиту токенов, причём через несколько уровней: от лёгкой очистки до полного саммари.
9. Агент обязан писать минимально необходимый код, в промте прямо написано:
- не делай больше, чем просили;
- не добавляй защитный код про запас;
- никаких абстракций ради абстракций;
и там же есть метрика, где антропик видит, когда клод усложнил код.
10. Есть флаг ANTI_DISTILLATION_CC, который включается по определенному алгоритму, когда он включён, Claude Code отправляет в API-запросах anti_distillation: ['fake_tools'], что заставляет сервер переводить инструменты в безопасный режим и будет помешивать некую логику для защиты от датасета и внутренних компонентов агента.
11. Для внешних реп у внутренней сборки Anthropic он включён по умолчанию: Claude получает жёсткие ограничения не светить внутренние кодовые имена/инфру и не добавлять AI-атрибуцию в commit/PR текст.
Причём в коде прямо отмечено: force-OFF нет, а CLAUDE_CODE_UNDERCOVER=1 — это только принудительно включить режим.
12. API-запросы содержат плейсхолдер cch=00000. До отправки эти пять нулей заменяются вычисленным хешем. Сервер валидирует хеш, подтверждая, что запрос пришёл именно от настоящего бинарника Claude Code, а не от поддельного клиента.
13. Каждая bash-команда проходит через 23 пронумерованных проверки безопасности, включая 18 заблокированных Zsh-встроенных команд
14. Ну и самое веселое, есть детектор раздражения, который отправляются в антропик, но при этом на агента это не влияет)). И сделан он с помощью простых регулярок, дешево и сердито)
Эта утечка, как камаз перевернутый с пряниками)) Кто знает, тот поймет.
❤15🔥1