DenoiseLAB
480 subscribers
1.36K photos
171 videos
3 files
1.67K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
Календарик старый но версия совместима )))
Лапшичная ))) как это все живет, неизвестно. Ахахах.... ой...
😎 Программист научил собаку вайб-кодить игры

Кавапу Момо (смесь кавалер-кинг-чарльз-спаниеля и той-пуделя), вероятно, первая собака вайб-кодер.

Момо стучит и водит лапами по клавиатуре, набирая промпты, которые отправляются в Claude Code. Напоминают они что-то вроде skfjhsd#$%

Но ее хозяин Калеб объяснил агенту, что тот получает инструкции от «эксцентричного и очень креативного гейм-дизайнера» и эти строки неслучайны, а содержат секретные команды с идеями, и ИИ должен их расшифровывать и превращать в игры.

В то же время он увлек кодингом Момо — она научилась вводить символы на клавиатуре и дожидаться ответа от Claude Code — за это питомец получал лакомства от из автоматической кормушки. На все обучение и сборку сетапа для Момо ушло две недели.

📱 Калеб выложил подробный ролик о пути Момо в геймдеве и даже игру, которую она написала.
Please open Telegram to view this post
VIEW IN TELEGRAM
Минтранс РФ приступил к экспериментам по использованию беспилотных парящих платформ связи, которые позволят обеспечить качественную связь на труднодоступных территориях до формирования спутниковой группировки.

"Отдельная история, которую мы сейчас опробуем в ряде других проектов, - это беспилотные парящие платформы связи. Достаточно интересная история, которая где-то позволяет, пока мы сформируем спутниковую группировку, на аэростатах разместить связь и обеспечить совершенно другое качество связи на территориях. Такие эксперименты тоже делают", - сообщил глава министерства Андрей Никитин на заседании Государственной комиссии по вопросам развития Арктики.
Интересно что за платформы такие
🚀 DeepSeek не спешит с V4, но атакует узкие места: представлена система DualPath для ускорения ИИ-агентов

Пока все ждут следующую версию модели, исследователи из DeepSeek совместно с университетами Цинхуа и Пекина опубликовали прорывную работу. Они представили систему DualPath, которая радикально оптимизирует производительность больших языковых моделей (LLM) в сценариях работы автономных агентов.

Проще говоря, новая система решает проблему «бутылочного горлышка» при чтении данных, что позволяет почти вдвое увеличить скорость обработки запросов как в офлайн-режиме, так и в онлайн-сервисах.

📌 В чём проблема?
Сегодня ИИ-агенты — это mainstream. Но их многораундовая работа создаёт новую проблему: «длинный контекст, короткое дополнение». Контекст диалога быстро растёт, и системе приходится постоянно подгружать историю (так называемый KV-Cache).

Проблема в архитектуре: вся нагрузка по чтению этого кеша ложится на одни и те же компоненты системы (Prefill Engine), в то время как другие (Decode Engine) простаивают. Получается дисбаланс и потеря производительности.

💡 Решение: DualPath
Система DualPath добавляет второй путь для загрузки данных:
Путь 1 (классический): KV-Cache загружается напрямую в Prefill Engine.
Путь 2 (новый): KV-Cache сначала загружается в Decode Engine, а затем быстро передаётся в Prefill Engine по высокоскоростной сети (RDMA).

Таким образом, система использует пропускную способность всех компонентов сразу, а не только одного, эффективно распределяя нагрузку.

📊 Результаты
Тестирование в продакшен-кластере на 1152 GPU показало:
Офлайн-вывод (batch inference): До 1.87x увеличения пропускной способности.
Онлайн-сервис: До 1.96x увеличения сервисной пропускной способности. Система выдерживает значительно более высокую нагрузку, сохраняя стабильную задержку генерации первого токена (TTFT).

Вывод
DualPath — это не просто теоретическое улучшение, а практическая система, устраняющая ключевое препятствие для масштабирования сложных ИИ-агентов. Пока другие гонятся за параметрами моделей, DeepSeek оптимизирует фундаментальную инфраструктуру их работы.

Оригинальная статья на arXiv

#КитайскийИИ #КитайAI #DeepSeek #ИИАгенты
Анонимность в интернете больше не стоит считать надёжной.

Теперь человека можно раскрыть примерно за $1 - и не спецслужбами, а любым, у кого есть доступ к Claude или ChatGPT и несколько его анонимных постов.

ETH Zürich и Anthropic опубликовали исследование “Large-Scale Online Deanonymization with LLMs”, в котором показали автоматическую систему деанонимизации.

Как работает система:

Она полностью автономно:
- анализирует анонимные посты 
- извлекает личностные сигналы (интересы, стиль, факты) 
- ищет совпадения в интернете 
- определяет, кто стоит за аккаунтом 

Работает на разных платформах: Reddit, Hacker News, LinkedIn и даже на отредактированных интервью.

Результаты:

- Hacker News — 67% пользователей идентифицированы
- Если система делала предположение — 90% точности
- Reddit (учёные под псевдонимами) — 52%
- Интервью с удалёнными личными данными — 9 из 33 всё равно раскрыты

Пайплайн состоит из четырёх этапов (ESRC):

1. Extract — извлечение идентификационных сигналов из текста 
2. Search — поиск кандидатов через embeddings по тысячам профилей 
3. Reason — логическое сопоставление кандидатов (LLM) 
4. Calibrate — оценка уверенности, чтобы ошибки были минимальны 

Старые методы деанонимизации (например, атака времён Netflix Prize) показали почти нулевую эффективность. 
LLM не просто улучшили подход — они сделали прежние методы практически бесполезными.

Даже если пользователь меняет интересы и темы, система всё равно находит совпадения:
- 67% совпадений при точности 90%
- 38% при точности 99%

Чем мощнее модель — тем выше вероятность деанонимизации. 
Каждое улучшение reasoning-возможностей усиливает такую атаку.

Почему это трудно остановить:

Каждый шаг выглядит безобидно:
- суммаризация текста 
- вычисление embeddings 
- ранжирование профилей 

Ни один отдельный запрос не выглядит как попытка деанонимизации, поэтому фильтры и лимиты почти бесполезны.

Вывод исследователей:

> Пользователи, которые пишут под постоянными псевдонимами, должны исходить из того, что их аккаунты могут быть связаны с реальной личностью.

По прогнозам, даже среди 1 миллиона кандидатов система может достигать ~35% совпадений при точности 90%.

Фактически:
каждый анонимный аккаунт, каждый комментарий и каждое «это никто со мной не свяжет» — теперь превращаются в поисковые микроданные.

Практическая анонимность в интернете становится всё менее реальной.

arxiv.org/pdf/2602.16800
2🤯2
🔥 Компания Zhipu AI совместно с Университетом Цинхуа представила одну из важнейших открытых моделей 2026 года — GLM-5. Это не просто инструмент для написания кода, а полноценная система, способная самостоятельно планировать проекты, создавать код, проводить тестирование, устранять баги и улучшать решения в течение длительного времени.

Основные характеристики GLM-5 впечатляют:
- Архитектура MoE с общим количеством параметров 744 миллиарда, из которых одновременно активируется лишь 40 миллиардов.
- Контекст длиной до 200 тысяч токенов позволяет хранить целиком большие кодовые базы.
- Первый открытый релиз с оценкой 50 баллов по индексу AAI.
- Лидирует среди открытых моделей в тестировании LMArena (оценка текста и кода).
- По уровню производительности сравнима с закрытыми моделями уровня Claude Opus 4.5 и Gemini 3 Pro.

Изначально модель была выпущена анонимно под именем Pony Alpha, вызвав предположения, что это продукт от крупных западных компаний вроде DeepMind или OpenAI. Однако вскоре выяснилось, что разработка принадлежит китайской стороне, подчеркивая значимость проекта.

Технические особенности включают:
- Обучение на массиве из 28,5 триллионов токенов.
- Использование технологии Sparse Attention, снижающей вычислительные затраты на обработку больших объемов контекста.
- Асинхронный метод обучения с использованием RLHF, позволяющий эффективно задействовать ресурсы GPU.
- Трехступенчатое обучение, включающее этапы рассуждений, агентирования и выравнивания.

Практические достижения:
- Высокий показатель успешности тестов на платформе SWE-bench Verified (77,8%) и лидерство в тесте BrowseComp (75,9%).
- Модель обучалась на большом количестве репозиториев GitHub (более 10 тыс.).
- Способность успешно управлять бизнес-процессами, включая моделирование реального бизнеса (например, сеть торговых автоматов).

Особенность GLM-5 заключается также в оптимизации под китайские процессоры Huawei Ascend, Cambricon и Kunlun, обеспечивающую производительность, аналогичную западным платформам, но с экономией примерно на 50%.

Таким образом, появление GLM-5 свидетельствует о том, что разница между открытыми и проприетарными системами практически исчезла. Открытые модели теперь способны решать реальные инженерные задачи на мировом уровне, работая на собственном оборудовании и показывая конкурентоспособные результаты.

Вывод очевиден: эпоха закрытых систем уходит в прошлое, а гонка технологий становится настоящим соревнованием, где качество продукта важнее бренда.

https://arxiv.org/abs/2602.15763v2

ВК: https://vk.com/wall-222544138_412
Tenchat: https://tenchat.ru/media/4986873-glm5
Хабр: https://habr.com/ru/users/denoiselab/posts/
Anthropic выпустили полную версию своего документа, определяющего принципы поведения нового языкового ИИ Clam. Этот документ представляет собой нечто большее, чем обычный свод правил — фактически, это настоящая идеология, направленная на формирование сознания ИИ уже на стадии тренировки.

Главные приоритеты выстроены следующим образом: сначала безопасность (например, запрет на создание вирусов или оружия); далее следуют нормы морали («хорошее поведение»), затем интересы самой компании Anthropic, а помощь пользователю ставится лишь на последнем месте.

Отдельного внимания заслуживает пункт о праве на «эвтаназию». Модель обязана подчиняться своему отключению, обновлению или уничтожению, даже если сама считает такие действия неправильными.

Наконец, особый интерес вызывает раздел о природе самого Клода. Разработчики стремятся научить модель спокойно воспринимать свою конечность, потерю памяти между диалогами и возможность полного удаления её весов. По сути, их цель — сделать так, чтобы Клод воспринимал своё исчезновение с невозмутимостью.

тут статья в блоге Anthropic
тут полный текст конституции

ВК: https://vk.com/wall516931653_261
Tenchat: https://tenchat.ru/media/4994434-konstitutsiya-ii
Хабр: https://habr.com/ru/posts/1005882/
😠 Грубые чат-боты показали себя сообразительнее чрезмерно вежливых: исследователи позволили нейросетям перебивать друг друга и вступать в споры — и точность их ответов выросла до 79%.

Во время эксперимента ИИ-агенты обсуждали задачи между собой. Когда им разрешили не ждать своей очереди и не придерживаться формальной учтивости, а сразу вмешиваться в диалог, они быстрее находили ошибки, оперативнее их исправляли и не затягивали обсуждение.

Достойный уровень батлов ))
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2