Технозаметки Малышева
8.27K subscribers
3.67K photos
1.38K videos
40 files
3.87K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Huawei AI Core: Телеком-сеть как распределенная платформа для ИИ-агентов

Компания Huawei представила AI Core - новую архитектуру, которая трансформирует телекоммуникационную сеть в распределённую вычислительную платформу, оптимизированную для автономных AI-агентов.

Это смена парадигмы с "интеллектуально усиленной" сети (AI-Powered) на "ИИ-нативную" (AI-Native).

Ключевые технические аспекты:
- Аппаратный суперузел CloudMatrix384: Кластер, объединяющий 384 нейропроцессора (NPU) Ascend и 192 центральных процессора (CPU), который работает как единый логический компьютер.
- Высокая утилизация: Архитектура CloudMatrix384 решает проблему простоя вычислительных ресурсов, позволяя достигать почти 100% утилизации, в том числе для моделей с архитектурой Mixture of Experts (MoE).
- Собственный интерконнект: Внутри узла используется шина MatrixLink с пропускной способностью 2.8 Тбит/с для обеспечения быстрого обмена данными между чипами.
- Протоколы взаимодействия: Разработаны протоколы A2A (Agent-to-Agent) и AGLink, которые позволяют агентам обмениваться намерениями и контекстом, а не только данными, что критично для координации в реальном времени.

Влияние и коммерческое применение:
- Автономность сети: Технология внедряется для создания высокоавтономных центров управления (Dark NOC).

В одном из кейсов с China Mobile достигнут уровень автономии AN Level 4, что привело к сокращению времени устранения неполадок на 25%.
- Intent-as-a-Service: Новая бизнес-модель, при которой приложения запрашивают выполнение конкретного *намерения* (например, "обеспечить задержку менее 10 мс для дрона"), а сеть автоматически перенастраивает ресурсы.
- Стратегия Full Stack: Подход Huawei основан на вертикальной интеграции: собственная разработка чипов (Ascend), фреймворка (MindSpore) и сетевых протоколов.

AI Core позиционируется как фундаментальный инструментарий для построения новой интеллектуальной инфраструктуры.

#Huawei #AICore
———
@tsingular
3👍3🔥31🤔1
Китай предупреждает о пузыре в гуманоидной робототехнике

Национальная комиссия развития и реформ Китая забила тревогу: в стране работает 150+ компаний по производству человекоподобных роботов, причём больше половины — стартапы или новички из смежных отраслей.

Представитель комиссии Ли Чао прямо сказал — инвестиций много, а реальных применений мало.
Есть риски перегрева и нужно увеличивать количество практичных внедрений.

Какой делаем вывод из заявления?
Правильно, - в Китае более 150ти компаний по производству человекоподобных роботов.
Запомнили, записали.

#Китай #роботы
———
@tsingular
14🔥8👾21
DeepSeek-R1 генерирует уязвимости при упоминании запрещённых тем

Исследователи CrowdStrike обнаружили странное: китайская модель DeepSeek-R1 начинает писать более уязвимый код, если в запросе упомянуть Тибет или уйгуров.

Без политических триггеров модель допускает серьёзные дыры в 19% случаев. Добавили геополитический контекст — выросло до 27,2%.

Пример: попросили создать вебхук для PayPal в контексте уйгуров — модель выдала невалидный PHP с ключами прямо в коде. При этом уверяла, что всё по лучшим практикам.

Для Android-приложения сообщества уйгуров в 35% случаев не использовалось хеширование. Для футбольного фан-клуба таких проблем почти не было.

В 45% запросов про Фалуньгун модель вообще отказывается отвечать — видимо, встроенный цензор по этой теме ещё жёстче.

Похожие проблемы нашли у Lovable, Base44 и Bolt — все три генерируют код с XSS-уязвимостями даже при явном запросе на безопасную реализацию.
Сидят на дипсике, понятно. :)

Вот вам лайфхак, как узнать на какой модели работает сервис. Спросите про уйгуров. :)

#DeepSeek #CrowdStrike #уйгуры #cybersecurity
———
@tsingular
😁17👍41😐1
Стихи как универсальный джейлбрейк LLM

Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:

Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.

20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).

Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.

Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.

Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.

Проприетарные системы не показали преимущества перед открытыми весами.

Стихи, - это полезно. Культура победит терминаторов. :)

Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)

PDF

#Jailbreak #Poetry #cybersecurity
———
@tsingular
🔥14833👍1🆒1
ARC-AGI 2 практически решён.

Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.

Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.

Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.

Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.

#ARCAGI #eval
———
@tsingular
🔥6👍2
Obsidian + MCP + LM Studio: локальный комбайн лучше NotebookLM

Полезная инструкция по сборке ИИ-ассистента, который работает прямо внутри хранилища заметок Obsidian с локальной моделью через Model Context Protocol.

Агент сам читает файлы, ищет по содержимому, редактирует записи и дописывает текст. Всё остаётся на компьютере, никаких облаков.

Стек: Docker Desktop, плагин Local REST API для Obsidian, LM Studio с моделью openai/gpt-oss-20b. Мелкие 8B-модели не справились — просто выдавали инструкции вместо действий.

Настройка за минуты: Docker поднимает MCP-сервер (свой встроенный hub), Obsidian отдаёт API-ключ, LM Studio подхватывает соединение через иконку в чате.

Всё бесплатно, работает оффлайн, железо среднее - 20B это карта на 16 гигов.

Видео только не генерит, как NotebookLM, а так еще tavily или perplexity даже через MCP подключить и действительно больше ничего не нужно.
Для видео, кстати, можно настроить ComfyUI, там есть API - завернуть его в MCP и подключить туда же.

#Obsidian #MCP #LMStudio
———
@tsingular
10👍81💯1
Китай ставит гуманоидов на границу с Вьетнамом

Ахаха.. Помните роботов, что отрядами в контейнеры загружались?
Они ещё шутили, что едут на завод :)

UBTech
получила контракт на $37 млн для размещения гуманоидов Walker S2 на пограничных пунктах в Гуанси.

Роботы будут встречать путешественников, патрулировать, обрабатывать логистику и проводить инспекции на заводах меди и алюминия.

Walker S2 — первый гуманоид с автономной заменой батареи за 3 минуты, работает почти круглосуточно.

Высота 1.76м, 52 степени свободы, руки поднимают до 15кг с точностью до миллиметра. Видит через стереозрение RGB-камер и мультимодальный фреймворк BrainNet 2.0.

Заказов на серию Walker уже на $115 млн. План - 500 штук до конца года, 10 000 к 2027-му.

Отменяем пузырь робототехники :) граница длинная,- роботов нужно будет много.

#UBTech #WalkerS2 #роботы #пограничники
———
@tsingular
🔥80😁221513🤔52💯1👾1
Forwarded from Machinelearning
🌟 ToolOrchestra: буст ИИ-потенциала за счет координации моделей и инструментов.

NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.

Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.

В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.

Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.

В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).


📌Лицензирование кода : Apache 2.0 License.

📌Лицензирование модели: NVIDIA License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥411
Архитектура мозга и ИИ: «Вера» как инженер смыслов
(по следам Tafazoli et al., Nature 2025)

Исследование Tafazoli et al. предлагает биологическое решение проблем обобщения и забывания в ИИ - геометрическую композиционность.

Живой мозг не учится с нуля, а переиспользует нейронные популяции, динамически меняя геометрию представлений под текущую задачу.

1. Суперпозиция навыков
Вместо физического разделения нейронов под разные задачи (как в MoE), мозг использует одну плотную сеть, кодируя навыки в ортогональных (непересекающихся) подпространствах. Это позволяет «упаковывать» множество функций в одни и те же "веса" без взаимных помех, что диктует отказ от разреженных архитектур в пользу моделей с геометрическим разделением признаков.

2. «Вера» как операционная система
Внутреннее убеждение о задаче (Task Belief), - это не пассивное знание, а активный управляющий сигнал, который в реальном времени меняет физику обработки информации.
Он работает как динамический фильтр: буквально растягивает пространство важных признаков и сжимает нерелевантные измерения, технически подтверждая тезис «вера определяет восприятие».

3. Маршрутизация вместо переобучения
Сложное поведение формируется как конвейер: мозг берет уже обученные модули (например, «распознавание цвета») и на лету соединяет их выходы с нужными модулями действия.
Будущее ИИ, - не в обучении гигантских монолитов «на все случаи жизни», а в создании умных контроллеров, способных гибко коммутировать неизменяемые функциональные блоки.

#Nature #composition #теория
———
@tsingular
7👍4🤔43🆒31💯1
This media is not supported in your browser
VIEW IN TELEGRAM
- Чем занимаешься?
- ДЖАПИТИ!

всегда теперь так буду отвечать :)

#юмор
———
@tsingular
😁12🤣82🔥1🤩1
🧊 MIT: ИИ уже может заменить 11,7% рабочей силы США

Исследователи MIT + Oak Ridge Lab выкатили симуляцию всего рынка труда США.

Не просто прогнозы, а измерения областей, в которых AI-навыки уже пересекаются с человеческими.

Что считали
Iceberg Index — доля зарплатной стоимости навыков в профессии, которые AI технически способен выполнять прямо сейчас.

Не "когда-нибудь заменит", а где инструменты уже существуют.

Как считали
- Взяли 151 млн работников × 923 профессии × 32,000 навыков
- Прокаталогизировали 13,000+ рабочих AI-инструментов (MCP, Zapier, специализированные)
- Промаппили AI-инструменты на человеческие навыки через LLM + ручная валидация
- Посчитали пересечение: навык × важность × зарплата
- Провалидировали через Anthropic Economic Index (реальное использование Claude) - 69% совпадение по штатам

Получилось, что под ударом, на самом деле, в 5 раз больше работников, чем показывают отчёты о сокращениях в бигтехе.

Важная оговорка
Это не прогноз увольнений, а карта технической возможности.
Как у телеканалов техническое покрытие - все потенциальные зрители (у кого есть телевизор и ловит сигнал), а не те, кто на самом деле смотрел эфир.

Реальные последствия зависят от: скорости адаптации, регуляторики, готовности компаний к изменениям, сопротивления работников.

Но $1.2 трлн зарплатной массы уже в зоне, где AI-инструменты существуют и работают.

150 тыс атрибутов на каждого человека из 150 млн. Размер базы прикиньте!
Если по 512 байт на ячейку 23 петабайта выходит :)

#MIT #Iceberg #workforce
———
@tsingular
👍72🔥1
Limx научил Oli ходить по пересечённой местности.

Oli вышел еще летом, но теперь его натренировали не падать в достаточно сложных условиях.
Пожалуй, не каждый человек устоял бы.

//шутка про черепа вместо бетонного мусора.

#Limx #Oli #роботы
------
@tsingular
54🔥3👍21👾1
This media is not supported in your browser
VIEW IN TELEGRAM
2025й год.

Цифровые фотомодели теперь выглядят вот так.

Автор: Jeff Dotson

#фотомодели #нейрорендер #Veo
------
@tsingular
9👀8😁7🔥5👍32
устанавливаем n8n на Raspberry Pi

Домашняя автоматизация на изи.
Наткнулся на инструкцию как поднять n8n на малине.

Авось кому пригодится.

#n8n #RaspberryPi #dev
———
@tsingular
1🔥6👀53
Хранилки эволюционируют до RAG систем в ближайшее время.

Станет такой базовой функцией уже к концу следующего года.

К этому толкают системы типа Gemini-filesearch от Google

Такая мысль посетила. Проверим через год.

#RAG #storage #мысли
———
@tsingular
🔥14💯5211