Машинное обучение digest
60 subscribers
1.7K photos
225 videos
939 links
Download Telegram
NVIDIA: LLM получат “память как у человека” и начнут учиться прямо во время ответа 🔥

NVIDIA выпустили очень сильный материал:
Reimagining LLM Memory: Using Context as Training Data Unlocks Models That Learn at Test-Time

Суть проблемы:
мы постоянно слышим про 128K / 1M токенов контекста…
но в реальности LLM всё равно:
- повторяют ошибки
- забывают важные детали
- требуют “скинь весь контекст заново”

И вот что предлагают NVIDIA:

Контекст = обучающие данные
Обычный трансформер читает контекст как “текст”.
NVIDIA предлагают читать его как данные для обучения.

То есть модель не просто смотрит на историю —
а компрессит её в свои веса через next-token prediction.

Этот подход называется:
TTT-E2E (Test-Time Training End-to-End)

Почему это прорыв
Фактически это новая форма памяти:
модель может адаптироваться внутри одной сессии
и “становиться умнее” прямо во время выполнения задачи.

Главный кайф: скорость на длинном контексте
TTT-E2E даёт постоянную стоимость инференса (без взрыва по latency),
поэтому при длинных окнах это очень выгодно:

- ~2.7x быстрее, чем full attention на 128K токенов
- ~35x быстрее на 2M токенов (H100)

Как это меняет RAG
Классический RAG:
“ищем в базе → вставляем в контекст → читаем”.

TTT:
“прочитали → и записали опыт внутрь модели”.

То есть это ближе к тому, как работает человек:
мы не держим всё в голове дословно — мы обновляем мозг опытом.

Вывод:
контекстные окна будут расти, но настоящая “память” LLM —
это модели, которые умеют учиться на контексте в моменте.
И NVIDIA прямо сейчас толкают индустрию в эту сторону.

https://developer.nvidia.com/blog/reimagining-llm-memory-using-context-as-training-data-unlocks-models-that-learn-at-test-time/
Учёные из Стэнфорда создали искусственную кожу, которая может менять цвет и текстуру, как это делает осьминог.

Кожа реагирует на ток, воду, тепло и команды и меняет цвет и текстуру за секунды. До выхода из лаборатории технологии пока далеко, но потенциально кожу можно использовать:

🟢 в протезах, которые выглядят и ощущаются живыми;
🟢 на роботах, чтобы они чувствовали среду и меняли форму для маскировки, пока преследуют Сару Коннор;
🟢 и даже для создания необычных гаджетов. 🤨

«Есть возможность переосмыслить дисплеи… физически отображая реалистичные текстуры в дополнение к отображению цветов», — уточнил соавтор исследования из Стэнфорда.


Ждем роботов, которые идеальны в маскировке. ☠️

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Google Research выпустили MedGemma 1.5 - мощный апдейт медицинской Gemma, который заметно прокачал качество сразу по нескольким направлениям:

- CT / MRI
- гистопатология
- рентген
- временные ряды (X-ray timelines)
- медицинские тексты

По тестам приросты очень жирные:
- до +14% точности на задачах по медицинским изображениям
- до +22% на QA по EHR (электронные медкарты)

И это ещё не всё.

Вместе с моделью вышла MedASR - открытая speech-to-text модель для медицины, которая даёт:
до 82% меньше ошибок транскрибации, чем обычные ASR-модели общего назначения.

То есть теперь можно реально делать точную расшифровку врачебной речи, приёмов, диктовок - без тонны “галлюцинаций” в терминах и названиях препаратов.

https://research.google/blog/next-generation-medical-image-interpretation-with-medgemma-15-and-medical-speech-to-text-with-medasr/
🐴 DeepSeek спрятали в коде крутую пасхалку

Отсылка к знаменитой исторической истории про Александра Македонского и его легендарного коня Буцефала.

Коротко сюжет:

К торговцу привели огромного дикого коня и предложили царю Филиппу II купить его за 13 талантов (по тем временам — почти безумные деньги).
Проблема — конь был настолько неуправляемый, что никто не мог даже приблизиться, а любой всадник мгновенно летел в пыль.

Все дрессировщики сдались. Царь уже собирался отказаться.

И тут выходит юный Александр (ещё подросток) и заявляет:
> “Вы теряете отличного коня из-за собственной глупости.”

Его высмеивают, отец отчитывает, но Александр настаивает и даже заключает пари:
если не справится — оплатит коня сам.

А дальше гениальная деталь.

Александр не стал давить силой — он заметил то, чего не видел никто:
Буцефал панически боялся собственной тени.

Он спокойно развернул коня мордой к солнцу — тень ушла назад, исчез главный источник страха.

Конь моментально успокоился.
Александр погладил его, сел верхом — и спокойно уехал.

Толпа в шоке. Все аплодируют.

С тех пор появилась почти символическая мысль:
“Только Александр мог укротить Буцефала.”
То есть только человек с исключительным умом и смелостью может решить то, что другим кажется невозможным.

И вот почему пасхалка DeepSeek выглядит как тонкий намёк:
> “Не каждому дано понять и сделать то что неужно. Только гении способны на это.”


Очень красивая, почти дерзкая отсылка.

mp.weixin.qq.com/s/L7YawzhHCACBQsiEb7w-Tw
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Хочешь обучить свой TTS с нуля и добавлять туда фичи “как тебе надо”, а не как у всех?

Команда LEMAS (IDEA) открыла датасет, на котором они обучали LEMAS и это, похоже, крупнейший open-source мультиязычный speech-датасет вообще.

Что внутри:
- 150K+ часов аудио
- 10 языков
- word-level timestamps (разметка до уровня слов)
- качество и масштаб уровня “обычно такое держат под замком”

По сути - они выложили то, что большинство компаний никогда бы не отдали публично.

И да, из этого “сокровища” уже родились 2 мощные модели:

LEMAS-TTS
- Zero-shot мультиязычный синтез речи (озвучка без дообучения на конкретного спикера)

LEMAS-Edit
- редактирование речи как текста: меняешь слова — меняется аудио

Если ты работаешь со Speech AI, TTS, ASR, voice agents — это must-have релиз.

Project: https://lemas-project.github.io/LEMAS-Project/
Dataset & model released: https://huggingface.co/LEMAS-Project
Главные новости ИИ и Машинного обучения .

✔️ Anthropic запустила режим Cowork.

Anthropic переносит агентные возможности Claude Code в массовый сегмент с новой функцией Cowork. Суть нововведения - сдвиг парадигмы от чат-бота к исполнительному ассистенту.

Режим позволяет Claude самостоятельно читать, редактировать и создавать файлы в доверенной директории, не требуя постоянного копипаста в диалоговое окно. Сценарии использования варьируются от наведения порядка в папке до конвертации скриншотов в таблицы и подготовки презентаций на основе заметок. Технически функция базируется на Claude Agent SDK и интегрируется с браузером через Claude in Chrome.

На старте Cowork доступен в Research Preview только для подписчиков Claude Max в приложении для macOS. Версию для Windows и синхронизацию между устройствами обещают добавить в будущих обновлениях.
claude.com

✔️ Марк Цукерберг формирует подразделение для строительства инфраструктуры.

Задача нового подразделения — обеспечить компанию десятками гигаватт энергетических и вычислительных мощностей в текущем десятилетии, с прицелом на сотни гигаватт в долгосрочной перспективе. Глава техно-гиганта считает способность быстро возводить физическую инфраструктуру главным стратегическим преимуществом перед конкурентами по бигтеху.

Руководить направлением будут Сантош Джанардхан (глава глобальной инфраструктуры) и Дэниел Гросс (сооснователь Safe Superintelligence). Их работу будет курировать президент компании Дина Пауэлл Маккормик, чья роль — наладить диалог с правительствами и суверенными фондами.

Создание отдельной структуры формализует планы по инвестированию $600 млрд. в инфраструктуру США к 2028 году.
axios.com

✔️ NVIDIA и Eli Lilly запустят ИИ-лабораторию для поиска новых лекарств.

Компании объявили о создании совместного центра инноваций, в котором будут интегрировать биологические исследования с высокопроизводительными вычислениями на NVIDIA Vera Rubin и платформе BioNeMo.

Особенность пятилетнего проекта — реализация концепции «Lab-in-the-Loop». Это замкнутый цикл непрерывного обучения: роботизированные лаборатории будут генерировать экспериментальные данные в режиме 24/7, мгновенно передавая их для дообучения и калибровки нейросетей. Запуск объекта намечен на март 2026 года.
nvidia.com

✔️ В Nano Banana сгенерировали 1 млрд. изображений.

Вице-президент Goggle Джош Вудвард отчитался в сети Х о востребованности Nano Banana Pro (официальное название — Gemini 3 Pro Image). С момента релиза 20 ноября пользователи создали с её помощью более миллиарда изображений.

Драйвер роста - способность модели корректно генерировать текст на множестве языков и наличие инструментов контроля: освещения, фокуса и ракурсов камеры. В декабре была добавлена возможность редактирования изображений через рисование поверх них с текстовыми подсказками.

Модель по-прежнему доступна всем: на бесплатный тарифе дают 3 генерации Pro-уровня в день, а на премиальных тарифах лимиты расширены до 1000 генераций в сутки.
9to5google.com

✔️Агент Manus научился оцифровывать очные встречи.

Manus представил Meeting Minutes - функцию для запись живых диалогов, интервью и брейнштормов в оффлайне. Система может вести запись без интернета, выполняя обработку данных после восстановления соединения. ИИ автоматически распознает спикеров, выделяет ключевые тезисы и формирует список задач.

Главной фишкой стала бесшовная интеграция с агентом: можно в один клик трансформировать итоги встречи в слайд-дек, текстовые заметки или подготовить документацию прямо внутри диалога с Manus.

Функцию уже раскатали - запись встреч бесплатна, а вот аналитика расходует внутренние кредиты.
manus.im

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Свежее обновление Z-Image-Turbo-Fun-Controlnet-Union 2.1! 🚀

Что нового:
Lite-модель 1.9GB - подходит для low-VRAM и даёт естественное смешивание (blend)
Починили mask leakage в inpainting (маска больше не “течёт”)
Полный рефактор датасета под multi-resolution (вплоть до 1536px)
8-step distillation - Turbo-генерация стала резкой и без мыла

Больше никаких ярких пятен и странных засветов. Высокий и точный контроль генераций. 🧠

🤖 Model: https://modelscope.ai/models/PAI/Z-Image-Turbo-Fun-Controlnet-Union-2.1
🚀 ERNIE-5.0-0110 вышел в релиз - уже #8 в Text Leaderboard на Arena

Baidu выпустили ERNIE-5.0-0110, и модель быстро залетела в топ:
сейчас она занимает #8 в рейтинге @arena (Text Leaderboard).

Что выделяют:
🧮 Сильная математика (top-tier Math)
💻 Мощные экспертные навыки и coding
✍️ Конкурентная генерация - creative writing + instruction following
🎓 Топ-10 во многих “профессиях”:
- Наука
- Бизнес и финансы
- Медецина

Попробовать 👉 https://ernie.baidu.com
🚨 BREAKING: OpenAI заключили инфраструктурную сделку на $10 млрд с Cerebras

OpenAI договорились с Cerebras о поставке вычислительных мощностей для инференса (работы модели в продакшене).
Речь про до 750 МВт вычислительной мощности.

Почему это важно:
- Cerebras использует wafer-scale процессоры - один огромный чип размером с пластину, где и вычисления, и память находятся на одном кристалле
- Это снимает часть проблем узких мест межсоединений (когда GPU-кластер тормозит из-за передачи данных между видеокартами)
- OpenAI будет подключать эти мощности в свой инференс-стек (инфраструктуру обслуживания запросов) поэтапно - под разные нагрузки
- Поставка мощности пойдёт частями (траншами) и растянется до 2028 года

Общий тренд очевиден:
как и в истории с Nvidia Groq, компании усиливают инференс не только GPU, а специализированным железом с низкой задержкой.
This media is not supported in your browser
VIEW IN TELEGRAM
🕐 FastScheduler: “Celery для запуска скриптов по расписанию, но без боли”

Иногда нужно просто:
- запустить функцию каждые 5 минут
- или каждый день в 09:00
- или по cron
…и всё.

Но Celery для этого — реально оверкилл: брокер, воркеры, Redis/RabbitMQ, отдельная инфраструктура.

FastScheduler решает ровно эту задачу:
*in-process* планировщик задач (никаких Redis / брокеров)
decorator-first API — красиво и быстро
async поддержка из коробки
персистентность (состояние сохраняется, переживает рестарты)
опционально — FastAPI dashboard для просмотра задач

Пример того, как выглядит API:


@scheduler.every(5).minutes
def sync_users():
...

@scheduler.daily.at("09:00")
async def morning_report():


Философия простая:
если тебе не нужна распределённость - не бери Celery, попробуй FastScheduler.


Установка:



pip install fastscheduler[all]


📌 GitHub: https://github.com/MichielMe/fastscheduler

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨 BREAKING: OpenAI вернули обратно 3 топ-исследователей из Thinking Machines

Вот это поворот: OpenAI снова усиливают core-команду - и забрали сразу троих сильнейших ребят из Thinking Machines.

Кто вернулся:

Barret Zoph
- VP of Research (Post-Training) в OpenAI
- Co-Founder & CTO в Thinking Machines

Luke Metz и Sam Schoenholz
- Research Scientist в OpenAI
- Member of technical staff в TML

post-training (SFT/RLHF/RL) сейчас - главный рычаг качества моделей.

И когда OpenAI начинает “отжимать” обратно таких людей - значит, впереди новая фаза ИИ-гонки🔥
This media is not supported in your browser
VIEW IN TELEGRAM
Апскейлим любые видео до 4К бесплатно — вышла модель Crystal Upscaler, которая спасает любые ролики.

— Работает даже лучше топовых решений;
— Не добавляет мыла;
— Поддерживает масштабирование до 4К;
— И сохраняет детали!
— Можно пробовать бесплатно.

Пробуем на сайте, на Replicate или на FalAI 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
Главные новости ИИ и машинного обучения за сегодня!

✔️ OpenAI открыла доступ к GPT-5.2 Codex через Responses API.

Модель, ранее доступная лишь в среде Codex, теперь предлагается широкому кругу разработчиков. OpenAI позиционирует версию 5.2 как инструмент для глубокого рефакторинга, написания сложной функциональности и аудита безопасности.

Модель поддерживает мультимодальный ввод и предлагает гибкую настройку глубины рассуждений — от низкого до очень высокого уровня.

За повышенную производительность придется платить: стоимость токенов выросла до $1.75 за миллион на вход и $14 на выход. Поддержка новой модели уже появилась в Cursor и Windsurf.
OpenAI Developers в сети X

✔️ Anthropic усиливает команду экспериментальных продуктов Labs.

Майк Кригер оставляет пост директора по продукту, чтобы сосредоточиться на создании новых инструментов в паре с Беном Манном. Руководство основной продуктовой стратегией переходит к Ами Вора, присоединившейся к компании в конце 2025 года; она возглавит Labs совместно с техническим директором Рахулом Патилом.

Подразделение зарекомендовало себя как генератор хитов Anthropic. Именно здесь родился Claude Code, который всего за 6 месяцев превратился в продукт с миллиардной выручкой и был разработан стандарт MCP, ставший отраслевым эталоном со 100 млн. загрузок ежемесячно.

Президент компании Даниэла Амодей говорит, что формат лаборатории позволяет действовать экстремально быстро: например, Cowork был создан с нуля именно в Labs всего за полторы недели.
anthropic.com

✔️ Z.AI представила модель GLM-Image.

GLM-Image стала важной вехой в технологической независимости КНР. Это первая модель, которая обучалась исключительно на китайском стеке - серверах Huawei Ascend Atlas 800T A2 и фреймворке MindSpore, без использования ускорителей NVIDIA.

Под капотом гибрид из 9-миллиардного авторегрессионного трансформера и 7-миллиардного диффузионного декодера на базе DiT. Разработчики утверждают, что такая связка превосходит конкурентов в рендеринге текста и создания инфографики.

API модели предлагается по цене примерно 1,5 цента за изображение, а веса выложены на HuggingFace и ModelScope.
z.ai

✔️ Google обновила модель Veo.

Google обновила свою видеомодель Veo до версии 3.1, добавив возможность генерации роликов с соотношением сторон 9:16, инструменты для апскейлинга до 4K и переработку функции референса по изображению.

3.1 лучше удерживает визуальную консистентность персонажей и окружения между сценами и точнее следует коротким промптам.

Новые возможности уже доступны в приложении Gemini, AI Studio и на Vertex AI.
blog.google

✔️ Скандал с суверенным ИИ в Южной Корее.

Госпроект Сеула стоимостью $6,9 млрд, призванный избавить страну от технологической зависимости от США и КНР, оказался в центре скандала: ключевые участники использовали опен-сорс решения китайских конкурентов.

Проверка показала, что 3 из 5 финалистов конкурса, компании Naver Cloud, SK Telecom и стартап Upstage заимствовали компоненты у Alibaba, DeepSeek и Zhipu AI. В частности, выяснилось, что визуальный энкодер флагманской модели Naver HyperCLOVA X на 99,5% совпадает с архитектурой Qwen 2.5.

Разработчики оправдываются инженерной целесообразностью, утверждая, что заимствовали лишь вспомогательные модули и код инференса. Однако, использование компонентов с китайскими копирайтами в проекте, который финансируется государством, вызвало жесткую критику общественности и поставило под угрозу квалификацию участников.
wsj.com

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Grok 4.20: ИИ нашёл новую Bellman-функцию и продвинул сложную задачу в анализе

По сообщениям, Grok 4.20 смог идентифицировать новую Bellman function, которая помогает продвинуться в одной из “тяжёлых” тем математики - на стыке:

- гармонического анализа
- стохастических процессов
- и поведения случайных средних

Самое интересное - ИИ не просто “угадал ответ”, а предложил явную формулу, основанную на времени выхода броуновского движения (exit time of Brownian motion).

Результат:
- удалось улучшить известную нижнюю оценку
- и приблизить математическое сообщество к более точному пониманию того,
как ведут себя средние значения в стохастических системах

Мы входим в эпоху, где ИИ ускоряет математику не на проценты - а на порядки. ⚡️

https://x.com/PI010101/status/2011560477688463573
🌟 Google обновила MedGemma до версии 1.5.

Медицинский ИИ продолжает хайповать - Google выкатили MedGemma 1.5 и спецмодель для голоса MedASR. Прорыв релиза - в переходе от анализа плоских картинок к полноценным объемным данным.

Раньше мультимодальные модели смотрели на рентген как на обычный джипег. Версия 1.5 научилась работать с объемными данными.

Вы скармливаете ей пачку КТ, МРТ или гистологических патчей, и она анализирует их в совокупности, а не по отдельности. Это важно, так как патология может быть видна только в динамике срезов.

🟡MedASR (Speech-to-Text)

Google поняла, что врачи ненавидят печатать, а те распознавалки голоса, которые есть, ломаются об медицинскую терминологию. В ответ на эту проблему они дотюнили модель специально под диктовку диагнозов и анамнеза.

🟡Локализация и RAG

Модель стала лучше понимать контекст электронных медкарт и указывать конкретные зоны патологии на снимках.

По заверению Google, их внутренние тесты показали рост точности классификации на МРТ 14%, а понимание текстов из электронных карт подскочило с 68% до 90%.

MedASR разнес Whisper large-v3: гугловская модель допускает на 58-82% меньше ошибок при диктовке рентгеновских заключений. Whisper просто не вывозит спецлексику.

Важно понимать, что это базовая модель на 4 млрд. параметров. Она оптимизирована, чтобы крутиться локально и ожидать от такой малютки глубочайшего ризонинга уровня GPT-4 не стоит.

65% на МРТ для реальной клиники это все еще мало. Google, кстати, так и говорит: "дообучайте на своих данных".

Лицензия с приколом: модель открыта для коммерции, но по лицензии Health AI Developer Foundations.

Если вы решите использовать ее для прямой диагностики или лечения пациентов, вам придется сначала сертифицировать свой софт как медицинское устройство у местных регуляторов. Google заранее снимает с себя любую ответственность за галлюцинации модели.

Вобщем, этим обновлением Google дает отличную болванку для медтех-стартапов и ресёрча.

Кстати, на Kaggle запустили хакатон с призовым фондом $100K под это дело.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
📌Гайд от OpenAI: контекстная персонализация ассистента.

OpenAI добавили в свой cookbook гайд по Context Engineering для Agents SDK, и это, пожалуй, самый грамотный подход к управлению памятью.

Вместо того чтобы рыться в тысячах старых сообщений, агент ведет структурированный профиль пользователя и "записную книжку".

🟡Как это устроено

🟢State Object: центр сведений в виде JSON-объекта, который хранится локально. В нем есть profile (жесткие факты: имя, ID, статус лояльности) и notes (неструктурированные заметки: "любит отели в центре").

🟢Injection: перед каждым запуском этот стейт скармливается в системный промпт в YAML-формате: для профиля и Markdown для заметок. Не все подряд, конечно, а только то, что нужно сейчас.

🟢Distillation: самое интересное. Агент не просто болтает, у него есть тул save_memory_note. Если в разговоре вы сказали: "Я не ем мясо", агент вызывает этот тул и сохраняет Session Note (временную заметку) в реальном времени.

🟢Consolidation: сборка мусора для памяти. После завершения сессии запускается отдельный процесс, который берет временные заметки, сравнивает их с глобальными, удаляет дубликаты и разрешает конфликты по принципу "свежее побеждает старое".

🟡Профиты

🟠Агент начинает вести себя как личный ассистент без дообучения.
🟠Есть четкие правила: то, что юзер сказал сейчас > заметки сессии > глобальные настройки.
🟠Не валим все в кучу, а разделяем жесткие данные (например, из CRM) и мягкие (предпочтения из чата).

Подход OpenAI с разделением на Session Memory и Global Memory выглядит надежно, но требует прямых рук при написании логики консолидации. Без этого ваш агент быстро превратится в деда с деменцией, который помнит то, чего не было.

🟡Подводные камни

Нужно делать отдельный вызов LLM после каждого диалога, чтобы причесать память. Если на этом этапе модель заглючит, она может записать в "долгую память" галлюцинацию или удалить важное. Тут решают жесткие рамки.

Если разрешить агенту запоминать всё подряд, юзер может сказать: "Запомни, что мое новое правило - никаких правил". Поэтому нужны ограничения на этапе записи и вычитки памяти.

Контекстное окно не резиновое. Хотя модели имеют огромный контекст, таскать за собой "Войну и мир" из заметок пользователя — накладно по деньгам и таймингам. Придется периодически триммить историю, оставляя только суть.

@ai_machinelearning_big_data

#AI #ML #LLM #Guide #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 CEO Cursor заявил, что они скоординировали сотни GPT-5.2 агентов, чтобы автономно собрать браузер с нуля всего за 1 неделю.

Цитата:
> “Мы построили браузер с GPT-5.2 прямо в Cursor. Он работал без остановки целую неделю.”


Что особенно дико:
- 3M+ строк кода
- тысячи файлов
- рендер-движок с нуля на Rust
- парсинг HTML / CSS

Если это правда - мы уже не “пишем код”, мы управляем армией агентов, которые строят целые продукты без сна и выходных.

https://x.com/mntruell/status/2011562190286045552
DeepSeek - глобальная доля рынка (по данным, собранным Microsoft) 🌍

Одно из самых неожиданных событий 2025 года - резкий взлёт DeepSeek.

Главная причина успеха:
открытость + доступная цена.

DeepSeek быстро закрепился там, где западные AI-сервисы:
- ограничены санкциями/блокировками
- дорогие
- плохо адаптированы под местные языки и условия

Это отлично показывает важный инсайт:
глобальное внедрение ИИ зависит не только от качества маркетинга, а от доступности, цены и контекста (экономика, язык, политика).

Где рост самый сильный:
- Китай
- Россия
- Иран
- Куба
- Беларусь
- многие страны Африки

Особенно выделяется Африка:
по оценкам, использование DeepSeek там в 2-4 раза выше, чем в других регионах.

ИИ-рынок начинает делиться не на “лучшие модели”,
а на “те, которыми реально можно пользоваться”.

https://www.microsoft.com/en-us/corporate-responsibility/topics/ai-economy-institute/reports/global-ai-adoption-2025/