Кавапу Момо (смесь кавалер-кинг-чарльз-спаниеля и той-пуделя), вероятно, первая собака вайб-кодер.
Момо стучит и водит лапами по клавиатуре, набирая промпты, которые отправляются в Claude Code. Напоминают они что-то вроде
skfjhsd#$%Но ее хозяин Калеб объяснил агенту, что тот получает инструкции от «эксцентричного и очень креативного гейм-дизайнера» и эти строки неслучайны, а содержат секретные команды с идеями, и ИИ должен их расшифровывать и превращать в игры.
В то же время он увлек кодингом Момо — она научилась вводить символы на клавиатуре и дожидаться ответа от Claude Code — за это питомец получал лакомства от из автоматической кормушки. На все обучение и сборку сетапа для Момо ушло две недели.
Please open Telegram to view this post
VIEW IN TELEGRAM
Calebleak
I Taught My Dog to Vibe Code Games | Caleb Leak
My cavapoo Momo vibe coded playable Godot games. All I had to do was teach her to type, route her input to Claude Code, and build the right tools.
Минтранс РФ приступил к экспериментам по использованию беспилотных парящих платформ связи, которые позволят обеспечить качественную связь на труднодоступных территориях до формирования спутниковой группировки.
"Отдельная история, которую мы сейчас опробуем в ряде других проектов, - это беспилотные парящие платформы связи. Достаточно интересная история, которая где-то позволяет, пока мы сформируем спутниковую группировку, на аэростатах разместить связь и обеспечить совершенно другое качество связи на территориях. Такие эксперименты тоже делают", - сообщил глава министерства Андрей Никитин на заседании Государственной комиссии по вопросам развития Арктики.
🚀 DeepSeek не спешит с V4, но атакует узкие места: представлена система DualPath для ускорения ИИ-агентов
Пока все ждут следующую версию модели, исследователи из DeepSeek совместно с университетами Цинхуа и Пекина опубликовали прорывную работу. Они представили систему DualPath, которая радикально оптимизирует производительность больших языковых моделей (LLM) в сценариях работы автономных агентов.
Проще говоря, новая система решает проблему «бутылочного горлышка» при чтении данных, что позволяет почти вдвое увеличить скорость обработки запросов как в офлайн-режиме, так и в онлайн-сервисах.
📌 В чём проблема?
Сегодня ИИ-агенты — это mainstream. Но их многораундовая работа создаёт новую проблему: «длинный контекст, короткое дополнение». Контекст диалога быстро растёт, и системе приходится постоянно подгружать историю (так называемый
Проблема в архитектуре: вся нагрузка по чтению этого кеша ложится на одни и те же компоненты системы (Prefill Engine), в то время как другие (Decode Engine) простаивают. Получается дисбаланс и потеря производительности.
💡 Решение: DualPath
Система DualPath добавляет второй путь для загрузки данных:
• Путь 1 (классический): KV-Cache загружается напрямую в Prefill Engine.
• Путь 2 (новый): KV-Cache сначала загружается в Decode Engine, а затем быстро передаётся в Prefill Engine по высокоскоростной сети (RDMA).
Таким образом, система использует пропускную способность всех компонентов сразу, а не только одного, эффективно распределяя нагрузку.
📊 Результаты
Тестирование в продакшен-кластере на 1152 GPU показало:
• Офлайн-вывод (batch inference): До 1.87x увеличения пропускной способности.
• Онлайн-сервис: До 1.96x увеличения сервисной пропускной способности. Система выдерживает значительно более высокую нагрузку, сохраняя стабильную задержку генерации первого токена (TTFT).
✅ Вывод
DualPath — это не просто теоретическое улучшение, а практическая система, устраняющая ключевое препятствие для масштабирования сложных ИИ-агентов. Пока другие гонятся за параметрами моделей, DeepSeek оптимизирует фундаментальную инфраструктуру их работы.
Оригинальная статья на arXiv
#КитайскийИИ #КитайAI #DeepSeek #ИИАгенты
Пока все ждут следующую версию модели, исследователи из DeepSeek совместно с университетами Цинхуа и Пекина опубликовали прорывную работу. Они представили систему DualPath, которая радикально оптимизирует производительность больших языковых моделей (LLM) в сценариях работы автономных агентов.
Проще говоря, новая система решает проблему «бутылочного горлышка» при чтении данных, что позволяет почти вдвое увеличить скорость обработки запросов как в офлайн-режиме, так и в онлайн-сервисах.
📌 В чём проблема?
Сегодня ИИ-агенты — это mainstream. Но их многораундовая работа создаёт новую проблему: «длинный контекст, короткое дополнение». Контекст диалога быстро растёт, и системе приходится постоянно подгружать историю (так называемый
KV-Cache).Проблема в архитектуре: вся нагрузка по чтению этого кеша ложится на одни и те же компоненты системы (Prefill Engine), в то время как другие (Decode Engine) простаивают. Получается дисбаланс и потеря производительности.
💡 Решение: DualPath
Система DualPath добавляет второй путь для загрузки данных:
• Путь 1 (классический): KV-Cache загружается напрямую в Prefill Engine.
• Путь 2 (новый): KV-Cache сначала загружается в Decode Engine, а затем быстро передаётся в Prefill Engine по высокоскоростной сети (RDMA).
Таким образом, система использует пропускную способность всех компонентов сразу, а не только одного, эффективно распределяя нагрузку.
📊 Результаты
Тестирование в продакшен-кластере на 1152 GPU показало:
• Офлайн-вывод (batch inference): До 1.87x увеличения пропускной способности.
• Онлайн-сервис: До 1.96x увеличения сервисной пропускной способности. Система выдерживает значительно более высокую нагрузку, сохраняя стабильную задержку генерации первого токена (TTFT).
✅ Вывод
DualPath — это не просто теоретическое улучшение, а практическая система, устраняющая ключевое препятствие для масштабирования сложных ИИ-агентов. Пока другие гонятся за параметрами моделей, DeepSeek оптимизирует фундаментальную инфраструктуру их работы.
Оригинальная статья на arXiv
#КитайскийИИ #КитайAI #DeepSeek #ИИАгенты
Анонимность в интернете больше не стоит считать надёжной.
Теперь человека можно раскрыть примерно за $1 - и не спецслужбами, а любым, у кого есть доступ к Claude или ChatGPT и несколько его анонимных постов.
ETH Zürich и Anthropic опубликовали исследование “Large-Scale Online Deanonymization with LLMs”, в котором показали автоматическую систему деанонимизации.
Как работает система:
Она полностью автономно:
- анализирует анонимные посты
- извлекает личностные сигналы (интересы, стиль, факты)
- ищет совпадения в интернете
- определяет, кто стоит за аккаунтом
Работает на разных платформах: Reddit, Hacker News, LinkedIn и даже на отредактированных интервью.
Результаты:
- Hacker News — 67% пользователей идентифицированы
- Если система делала предположение — 90% точности
- Reddit (учёные под псевдонимами) — 52%
- Интервью с удалёнными личными данными — 9 из 33 всё равно раскрыты
Пайплайн состоит из четырёх этапов (ESRC):
1. Extract — извлечение идентификационных сигналов из текста
2. Search — поиск кандидатов через embeddings по тысячам профилей
3. Reason — логическое сопоставление кандидатов (LLM)
4. Calibrate — оценка уверенности, чтобы ошибки были минимальны
Старые методы деанонимизации (например, атака времён Netflix Prize) показали почти нулевую эффективность.
LLM не просто улучшили подход — они сделали прежние методы практически бесполезными.
Даже если пользователь меняет интересы и темы, система всё равно находит совпадения:
- 67% совпадений при точности 90%
- 38% при точности 99%
Чем мощнее модель — тем выше вероятность деанонимизации.
Каждое улучшение reasoning-возможностей усиливает такую атаку.
Почему это трудно остановить:
Каждый шаг выглядит безобидно:
- суммаризация текста
- вычисление embeddings
- ранжирование профилей
Ни один отдельный запрос не выглядит как попытка деанонимизации, поэтому фильтры и лимиты почти бесполезны.
Вывод исследователей:
> Пользователи, которые пишут под постоянными псевдонимами, должны исходить из того, что их аккаунты могут быть связаны с реальной личностью.
По прогнозам, даже среди 1 миллиона кандидатов система может достигать ~35% совпадений при точности 90%.
Фактически:
каждый анонимный аккаунт, каждый комментарий и каждое «это никто со мной не свяжет» — теперь превращаются в поисковые микроданные.
Практическая анонимность в интернете становится всё менее реальной.
arxiv.org/pdf/2602.16800
Теперь человека можно раскрыть примерно за $1 - и не спецслужбами, а любым, у кого есть доступ к Claude или ChatGPT и несколько его анонимных постов.
ETH Zürich и Anthropic опубликовали исследование “Large-Scale Online Deanonymization with LLMs”, в котором показали автоматическую систему деанонимизации.
Как работает система:
Она полностью автономно:
- анализирует анонимные посты
- извлекает личностные сигналы (интересы, стиль, факты)
- ищет совпадения в интернете
- определяет, кто стоит за аккаунтом
Работает на разных платформах: Reddit, Hacker News, LinkedIn и даже на отредактированных интервью.
Результаты:
- Hacker News — 67% пользователей идентифицированы
- Если система делала предположение — 90% точности
- Reddit (учёные под псевдонимами) — 52%
- Интервью с удалёнными личными данными — 9 из 33 всё равно раскрыты
Пайплайн состоит из четырёх этапов (ESRC):
1. Extract — извлечение идентификационных сигналов из текста
2. Search — поиск кандидатов через embeddings по тысячам профилей
3. Reason — логическое сопоставление кандидатов (LLM)
4. Calibrate — оценка уверенности, чтобы ошибки были минимальны
Старые методы деанонимизации (например, атака времён Netflix Prize) показали почти нулевую эффективность.
LLM не просто улучшили подход — они сделали прежние методы практически бесполезными.
Даже если пользователь меняет интересы и темы, система всё равно находит совпадения:
- 67% совпадений при точности 90%
- 38% при точности 99%
Чем мощнее модель — тем выше вероятность деанонимизации.
Каждое улучшение reasoning-возможностей усиливает такую атаку.
Почему это трудно остановить:
Каждый шаг выглядит безобидно:
- суммаризация текста
- вычисление embeddings
- ранжирование профилей
Ни один отдельный запрос не выглядит как попытка деанонимизации, поэтому фильтры и лимиты почти бесполезны.
Вывод исследователей:
> Пользователи, которые пишут под постоянными псевдонимами, должны исходить из того, что их аккаунты могут быть связаны с реальной личностью.
По прогнозам, даже среди 1 миллиона кандидатов система может достигать ~35% совпадений при точности 90%.
Фактически:
каждый анонимный аккаунт, каждый комментарий и каждое «это никто со мной не свяжет» — теперь превращаются в поисковые микроданные.
Практическая анонимность в интернете становится всё менее реальной.
arxiv.org/pdf/2602.16800
❤2🤯2
🔥 Компания Zhipu AI совместно с Университетом Цинхуа представила одну из важнейших открытых моделей 2026 года — GLM-5. Это не просто инструмент для написания кода, а полноценная система, способная самостоятельно планировать проекты, создавать код, проводить тестирование, устранять баги и улучшать решения в течение длительного времени.
Основные характеристики GLM-5 впечатляют:
- Архитектура MoE с общим количеством параметров 744 миллиарда, из которых одновременно активируется лишь 40 миллиардов.
- Контекст длиной до 200 тысяч токенов позволяет хранить целиком большие кодовые базы.
- Первый открытый релиз с оценкой 50 баллов по индексу AAI.
- Лидирует среди открытых моделей в тестировании LMArena (оценка текста и кода).
- По уровню производительности сравнима с закрытыми моделями уровня Claude Opus 4.5 и Gemini 3 Pro.
Изначально модель была выпущена анонимно под именем Pony Alpha, вызвав предположения, что это продукт от крупных западных компаний вроде DeepMind или OpenAI. Однако вскоре выяснилось, что разработка принадлежит китайской стороне, подчеркивая значимость проекта.
Технические особенности включают:
- Обучение на массиве из 28,5 триллионов токенов.
- Использование технологии Sparse Attention, снижающей вычислительные затраты на обработку больших объемов контекста.
- Асинхронный метод обучения с использованием RLHF, позволяющий эффективно задействовать ресурсы GPU.
- Трехступенчатое обучение, включающее этапы рассуждений, агентирования и выравнивания.
Практические достижения:
- Высокий показатель успешности тестов на платформе SWE-bench Verified (77,8%) и лидерство в тесте BrowseComp (75,9%).
- Модель обучалась на большом количестве репозиториев GitHub (более 10 тыс.).
- Способность успешно управлять бизнес-процессами, включая моделирование реального бизнеса (например, сеть торговых автоматов).
Особенность GLM-5 заключается также в оптимизации под китайские процессоры Huawei Ascend, Cambricon и Kunlun, обеспечивающую производительность, аналогичную западным платформам, но с экономией примерно на 50%.
Таким образом, появление GLM-5 свидетельствует о том, что разница между открытыми и проприетарными системами практически исчезла. Открытые модели теперь способны решать реальные инженерные задачи на мировом уровне, работая на собственном оборудовании и показывая конкурентоспособные результаты.
Вывод очевиден: эпоха закрытых систем уходит в прошлое, а гонка технологий становится настоящим соревнованием, где качество продукта важнее бренда.
https://arxiv.org/abs/2602.15763v2
ВК: https://vk.com/wall-222544138_412
Tenchat: https://tenchat.ru/media/4986873-glm5
Хабр: https://habr.com/ru/users/denoiselab/posts/
Основные характеристики GLM-5 впечатляют:
- Архитектура MoE с общим количеством параметров 744 миллиарда, из которых одновременно активируется лишь 40 миллиардов.
- Контекст длиной до 200 тысяч токенов позволяет хранить целиком большие кодовые базы.
- Первый открытый релиз с оценкой 50 баллов по индексу AAI.
- Лидирует среди открытых моделей в тестировании LMArena (оценка текста и кода).
- По уровню производительности сравнима с закрытыми моделями уровня Claude Opus 4.5 и Gemini 3 Pro.
Изначально модель была выпущена анонимно под именем Pony Alpha, вызвав предположения, что это продукт от крупных западных компаний вроде DeepMind или OpenAI. Однако вскоре выяснилось, что разработка принадлежит китайской стороне, подчеркивая значимость проекта.
Технические особенности включают:
- Обучение на массиве из 28,5 триллионов токенов.
- Использование технологии Sparse Attention, снижающей вычислительные затраты на обработку больших объемов контекста.
- Асинхронный метод обучения с использованием RLHF, позволяющий эффективно задействовать ресурсы GPU.
- Трехступенчатое обучение, включающее этапы рассуждений, агентирования и выравнивания.
Практические достижения:
- Высокий показатель успешности тестов на платформе SWE-bench Verified (77,8%) и лидерство в тесте BrowseComp (75,9%).
- Модель обучалась на большом количестве репозиториев GitHub (более 10 тыс.).
- Способность успешно управлять бизнес-процессами, включая моделирование реального бизнеса (например, сеть торговых автоматов).
Особенность GLM-5 заключается также в оптимизации под китайские процессоры Huawei Ascend, Cambricon и Kunlun, обеспечивающую производительность, аналогичную западным платформам, но с экономией примерно на 50%.
Таким образом, появление GLM-5 свидетельствует о том, что разница между открытыми и проприетарными системами практически исчезла. Открытые модели теперь способны решать реальные инженерные задачи на мировом уровне, работая на собственном оборудовании и показывая конкурентоспособные результаты.
Вывод очевиден: эпоха закрытых систем уходит в прошлое, а гонка технологий становится настоящим соревнованием, где качество продукта важнее бренда.
https://arxiv.org/abs/2602.15763v2
ВК: https://vk.com/wall-222544138_412
Tenchat: https://tenchat.ru/media/4986873-glm5
Хабр: https://habr.com/ru/users/denoiselab/posts/
arXiv.org
GLM-5: from Vibe Coding to Agentic Engineering
We present GLM-5, a next-generation foundation model designed to transition the paradigm of vibe coding to agentic engineering. Building upon the agentic, reasoning, and coding (ARC) capabilities...
Anthropic выпустили полную версию своего документа, определяющего принципы поведения нового языкового ИИ Clam. Этот документ представляет собой нечто большее, чем обычный свод правил — фактически, это настоящая идеология, направленная на формирование сознания ИИ уже на стадии тренировки.
Главные приоритеты выстроены следующим образом: сначала безопасность (например, запрет на создание вирусов или оружия); далее следуют нормы морали («хорошее поведение»), затем интересы самой компании Anthropic, а помощь пользователю ставится лишь на последнем месте.
Отдельного внимания заслуживает пункт о праве на «эвтаназию». Модель обязана подчиняться своему отключению, обновлению или уничтожению, даже если сама считает такие действия неправильными.
Наконец, особый интерес вызывает раздел о природе самого Клода. Разработчики стремятся научить модель спокойно воспринимать свою конечность, потерю памяти между диалогами и возможность полного удаления её весов. По сути, их цель — сделать так, чтобы Клод воспринимал своё исчезновение с невозмутимостью.
тут статья в блоге Anthropic
тут полный текст конституции
ВК: https://vk.com/wall516931653_261
Tenchat: https://tenchat.ru/media/4994434-konstitutsiya-ii
Хабр: https://habr.com/ru/posts/1005882/
Главные приоритеты выстроены следующим образом: сначала безопасность (например, запрет на создание вирусов или оружия); далее следуют нормы морали («хорошее поведение»), затем интересы самой компании Anthropic, а помощь пользователю ставится лишь на последнем месте.
Отдельного внимания заслуживает пункт о праве на «эвтаназию». Модель обязана подчиняться своему отключению, обновлению или уничтожению, даже если сама считает такие действия неправильными.
Наконец, особый интерес вызывает раздел о природе самого Клода. Разработчики стремятся научить модель спокойно воспринимать свою конечность, потерю памяти между диалогами и возможность полного удаления её весов. По сути, их цель — сделать так, чтобы Клод воспринимал своё исчезновение с невозмутимостью.
тут статья в блоге Anthropic
тут полный текст конституции
ВК: https://vk.com/wall516931653_261
Tenchat: https://tenchat.ru/media/4994434-konstitutsiya-ii
Хабр: https://habr.com/ru/posts/1005882/
Anthropic
Claude's new constitution
A new approach to a foundational document that expresses and shapes who Claude is
Во время эксперимента ИИ-агенты обсуждали задачи между собой. Когда им разрешили не ждать своей очереди и не придерживаться формальной учтивости, а сразу вмешиваться в диалог, они быстрее находили ошибки, оперативнее их исправляли и не затягивали обсуждение.
Достойный уровень батлов ))
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2