Технозаметки Малышева
8.48K subscribers
3.79K photos
1.42K videos
40 files
3.98K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Media is too big
VIEW IN TELEGRAM
SAP в гонке AI-агентов: Joule и будущее бизнес-процессов

SAP выпустил своего агента - Joule, которая существенно отличается от решений других вендоров. В отличие от изолированных агентов, Joule-агенты изначально проектировались как система взаимодействующих специалистов, работающих в единой экосистеме бизнес-приложений SAP.

Технические особенности Joule-агентов
Ключевое преимущество — не просто автоматизация отдельных задач, а оркестрация сквозных процессов.

Joule-агенты умеют:
- Совместно планировать многоэтапные рабочие процессы
- Использовать SAP Knowledge Graph для контекстного понимания бизнес-процессов
- Подключаться напрямую к API бизнес-систем для выполнения действий
- Обмениваться данными между собой без необходимости человеческой координации

Технически агенты Joule опираются на два фундаментальных компонента: SAP Business Data Cloud для унифицированного доступа к данным и SAP Knowledge Graph для контекстного понимания бизнес-процессов. Благодаря этой связке агенты "понимают" не просто запросы, а их место в общей картине бизнес-операций.

Практическое применение
В финансах Joule-агенты уже сокращают время разрешения спорных ситуаций с часов до секунд — агенты одновременно работают в финансовом, клиентском и операционном модулях, автоматически собирая информацию, валидируя кейсы и предлагая решения.

В продажах агенты самостоятельно отслеживают сделки, идентифицируют вопросы клиентов и обновляют их актуальными ответами — без вмешательства менеджера.

В HR автоматизируются рутинные процессы: от составления описаний вакансий до ускорения согласования офферов и упрощения запросов на отгулы.

Интеграция и кастомизация
SAP предлагает конструктор Joule Agent Builder, который позволяет бизнес-пользователям создавать собственных агентов без навыков программирования.

Процесс создания включает шесть этапов:
1. Определение цели агента
2. Указание бизнес-контекста
3. Подключение к источникам данных
4. Назначение необходимых навыков
5. Настройка взаимодействия с другими агентами
6. Тестирование и внедрение

Важно отметить, что все агенты работают в рамках существующих ролевых моделей доступа SAP, что решает проблему безопасности и предотвращает несанкционированный доступ к данным.

Текущая доступность
На сегодняшний день Joule доступен только для облачных приложений SAP и через RISE/GROW with SAP. Интеграция уже реализована с SAP SuccessFactors, SAP Start, SAP S/4HANA Cloud (Public и Private Edition), SAP Customer Data Platform, SAP BTP cockpit, SAP Build Code и рядом других продуктов.

SAP не ограничивается одним поставщиком LLM, используя разные модели для разных сценариев — это обеспечивает лучшую производительность для каждого конкретного случая.

Что дальше?
SAP планирует расширить возможности кастомизации Joule в 2025 году и поддержать до 80% наиболее используемых бизнес-транзакций SAP. Также в планах интеграция с Microsoft Copilot для повышения эффективности в гетерогенных ИТ-ландшафтах.

Проблемы prompt injection, которые тормозят развитие агентов у других компаний, SAP частично решает через привязку агентов к конкретным бизнес-процессам и данным — это существенно сужает поверхность атаки, хотя проблема всё ещё актуальна.

Скоро будем вместо интеграций API систем, прописывать инструкции для агентов по работе с контрагентами и партнёрами. У каждой компании будут свои агенты- сотрудники.

#SAP #Joule #agents
———
@tsingular
👍8🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 Nvidia GTC 2025: Новые архитектуры GPU и AI-модели для роботов

На конференции GTC 2025 NVidia представила несколько интересных технических новинок:

Дорожная карта GPU архитектур
Компания анонсировала сразу несколько поколений GPU архитектур:
- Blackwell Ultra — выйдет во второй половине 2025 года, улучшенная версия текущей архитектуры Blackwell с повышенной производительностью для AI-задач
- Vera Rubin — релиз во второй половине 2026 года, будет включать десятки терабайт памяти и кастомный CPU от Nvidia под названием Vera
- Rubin Ultra — запланирован на вторую половину 2027 года, будет представлять собой четыре GPU в одном корпусе

Интересно, что на фоне этих анонсов акции Nvidia упали на 4% — видимо, инвесторы ожидали чего-то более неожиданного. Тем более, что большая часть информации уже была слита до конференции.

AI и робототехника
- Groot N1 — открытая AI-фундаментальная модель для гуманоидных роботов с "двойной системной архитектурой" для "быстрого и медленного мышления". Модель обучена на синтетических и реальных данных.

- Newton Physics Engine — физический движок, разработанный совместно с Disney Research и Google DeepMind для симуляции движений роботов в реальных условиях. Disney планирует использовать его для своих развлекательных роботов, включая BDX-дроидов из "Звездных войн".

"Персональные AI-суперкомпьютеры"
Два новых устройства для разработчиков и предприятий:
- DGX Spark (ранее Project Digits) — компактная система размером с Mac mini, способная выполнять 1 000 триллионов операций в секунду. Поставки начнутся в ближайшее время.

- DGX Station — более мощная рабочая станция для предприятий (Nvidia’s GB300 Grace Blackwell Ultra Desktop Superchip с 784GB памяти) - поставки начнутся летом.
Вот это интересно - по сути коробка чисто под DeepSeek R1 (или к лету там уже R2 выйдет)

Партнерства с бизнес-контекстом
- General Motors — расширение сотрудничества в трех направлениях: AI для производства, AI для проектирования и симуляции автомобилей, и AI для автономного вождения (Super Cruise).
- TSMC — разработка кремниевой фотоники для датацентров, что позволит сэкономить мегаватты энергии.

Программное обеспечение для AI
- Nvidia Dynamo — операционная система для "AI-фабрик", позволяющая компаниям настраивать дата-центры под AI-нагрузки.
- Nvidia Llama Nemotron Reasoning — модель рассуждений, которая, по заявлениям, превосходит DeepSeek R1 по точности и скорости.

Ну, очевидно, вышли на плато. Никаких революций. Чисто эволюционный рост. Так? ;)

#Nvidia #GTC2025
———
@tsingular
👍5😁3
Forwarded from Эксплойт
NVIDIA показала RTX PRO 6000 — это буквально монстры в мире видеокарт с 96 Гб видеопамяти (!), которые предназначены для ИИ, 3D и научных исследований.

Характеристики разрывают:
— 24 064 CUDA-ядра.
— 96 ГБ GDDR7.
— 600 ВТ. Здесь придется запастись собственной электростанцией.

Всего будет три версии:
Workstation Edition: для домашних ПК, дизайн как у RTX 5090.
Server Edition: для дата-центров с пассивным охлаждением.
Max-Q Edition: для сетапов с большим количеством карт. Здесь на охлаждении настоящая ТУРБИНА.

Дата выхода: апрель-май, ценник пока неизвестен. Если хотите чтобы FPS не проседали, то откладывайте почки (сразу две) и приготовьте огнетушитель.

@exploitex
7🤣5
BigQuery: Как облачные сервисы могут незаметно опустошить ваш счёт

История, - огонь! Чел получил счёт на $10,000 за три запроса с LIMIT. А проблема оказалась в том, что BigQuery считает стоимость по объёму данных в таблице запроса, а не по реально обработанным данным в отличие от AWS Redshift, Athena, Snowflake и др.

🚨 Это важно и для работы с ИИ-агентами

Надо понимать: современные ИИ-агенты могут делать сотни запросов к данным, причем совершенно незаметно для пользователя. Представьте, что вы попросили агента "проанализировать данные за прошлый год" — и внезапно получили счет на миллионы $.

При работе с агентами критически важно:
1. Устанавливать жёсткие лимиты по расходам ($)
2. Проверять архитектуру запросов (например, в BigQuery использовать предварительную агрегацию)
3. Тестировать на маленьких наборах данных
4. Контролировать количество запросов через промежуточный сервис

Если используете BigQuery:
- Применяйте материализованные представления
- Используйте предварительную фильтрацию в отдельных таблицах
- Рассмотрите Apache Iceberg для более гибкой работы
- Настройте бюджетные оповещения на низких порогах

⚠️ Особенность всех облачных сервисов
Они всегда делают ставку на то, что вы не будете читать мелкий шрифт. Да, технически BigQuery не обманывает — информация есть в документации. Которую вы, скорее всего, не прочитаете никогда.

В итоге: с большими данными нужно быть осторожнее, а с ИИ-агентами — в десять раз осторожнее. Лимиты, мониторинг, тесты — вот ваша защита от "внезапных" счетов.

#BigQuery #price #limit
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Вот кого давно не было слышно!

Atlas от Boston Dynamics тоже готовится к Олимпиаде! В том числе танцевальной, судя по всему.

Голосуем, - настоящее (🔥 ) или рендер (😈) ?

#BostonDynamics #robots
———
@tsingular
🔥30😈8
This media is not supported in your browser
VIEW IN TELEGRAM
Unitree тоже сохраним для истории на текущую дату.

Голосуем, - настоящее (🔥 ) или рендер (😈) ?

#Unitree #robots
———
@tsingular
🔥21😈19👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Визуализация выходных сигналов трансформера (архитектура, на которой работают почти все современные LLM: ChatGPT, Claude, Llama и иже с ними)
Отсюда

Сайт:
https://moebio.com/mind/

#LLMvisual #обучение
------
@tsingular
🔥13👍1
Forwarded from e/acc
Один из самых недооцененных трендов, который понимает Дарио или Сэм, но не понимает большая часть индустрии. С выхода GPT-4 прошло два года, при этом только за последний год стоимость использования моделей упала от 9 до 900 раз (см. график). При этом, одновременно, скорость инференса выросла от 4 до 8 раз в зависимости от модели благодаря кастомным чипам, оптимизациями инфраструктуры и компиляторов. Да, в этой гонке есть предел, но до него еще довольно много лет.

Метрика, на которую стоит смотреть это не токены в секунду и не MMLU, ибо в практических терминах все сегодняшние модели уже лучше человека. Смотреть стоит на реальное использование, то есть прокси решения насущных проблем сегодняшних бизнесов и академии. А измерять это стоит в perf/watt (производительность на ватт энергии) или, что я услышал на закрытой конфе в выходные и мне очень понравилось, — в $ / ELO of Int. То есть стоимость в долларах за каждое дополнительное очко в рейтинге системы Elo в интеллектуальных задачах. За последний год падение составило около 2 порядков, а в ближайшие годы это произойдет с видео, голосом и другими модальностями.
🔥8❤‍🔥1
Forwarded from Machinelearning
🌟 KBLaM: новая архитектура интеграции знаний для языковых моделей от Microsoft Research.

Microsoft Research представила KBLaM - архитектуру, которая решает ключевую проблему LLM — добавление новых внешних знаний. В отличие от традиционных методов файнтюна и RAG, KBLaM кодирует новые для LLM структурированные данные в виде векторных пар «ключ-значение», встраивая их напрямую в слои внимания модели. Это позволяет избежать дорогостоящего дообучения и построение дополнительных модулей, сохраняя линейную масштабируемость даже для баз знаний в 10 000 триплетов.

В KBLaM триплет — это структурированный элемент знания, состоящий из трех компонентов: сущности, свойства и значения. Например, в утверждении «Москва — столица России» сущностью выступает «Москва», свойством — «столица», а значением — «Россия».


В основе KBLaM - «прямоугольный механизм внимания»: языковые токены взаимодействуют с токенами знаний, но не наоборот. Такая структура сокращает вычислительные затраты до линейных, позволяя обрабатывать эквивалент 200 тыс. токенов на одном GPU. При этом модель динамически обновляет знания без пересчёта всей базы — достаточно изменить один триплет.

Эксперименты с KBLaM показали, что он не только эффективен, но и прозрачен: веса внимания визуализируют, какие факты использует модель. Например, при запросе о медицинском диагнозе высокие оценки внимания к соответствующим триплетам снижают риск «галлюцинаций», при этом, если ответ на запрос лежит вне базы знаний, модель отказывается на него отвечать.

Как заявляют авторы, KBLaM — не просто шаг к умным LLM, а мост между обученными на базовых знаниях моделями и реальным миром, где знания постоянно обновляются.

В опубликованном на Github коде для применения KBLaM поддерживаются модели с HF:

🟢Llama-3-8B-Instruct;
🟢Llama-3.2-1B-Instruct;
🟢Phi-3-mini-4k-instruct.

и эмбединги для генерации базы знаний:

🟠text-embedding-ada-002;
🟠all-MiniLM-L6-v2.

⚠️ Чтобы добавить поддержку других моделей, необходимо отредактировать скрипты обработки моделей и включить в них адаптер, подобный llama_model.py в src/kblam/models.


📌Лицензирование: MIT License.


🟡Статья
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #MicrosoftResearch #KBLaM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥137❤‍🔥1
Forwarded from Machinelearning
🔥 YandexART 2.5 и YandexART 2.5 Pro — релиз от Яндекса: новое поколение визуальной генеративной модели

Разработчики уменьшили количество дефектов и улучшили генерацию текста на изображениях. Модели стали чётче следовать инструкциям в промтах. Впервые применили VLM для оценки качества работы нейросети. Визуально-лингвистическая модель проверяла множество изображений на соответствие заданным промтам. Например, действительно ли на картинке присутствовали все заданные пользователем элементы.

🌟 Архитектурные улучшения и технические инновации в YandexART 2.5 Pro:

▶️ Уникальный подход к файнтьюну: разработчики внедрили технологию "супирования" — метод, позволяющий комбинировать различные техники обучения в единый процесс.

▶️ Повышение разрешающей способности: автокодировщик VAE заменили с 4-канального на 16-канальный, увеличив в 4 раза размер латентного пространства, в котором работает диффузионная модель.

▶️ Масштабирование обучающего датасета: почти 1 млрд пар изображений и детализированных описаний.

▶️ Двухэтапная система оценки: специальная визуально-лингвистическая модель не только создаёт описания изображений, но и верифицирует соответствие сгенерированных артефактов исходному запросу.

▶️ Существенное улучшение текстовых возможностей: генерация надписей на латинице улучшена на 68%.

▶️ Контекстно-зависимая адаптация стиля: автоматический подбор визуальной эстетики в зависимости от задачи.

Тесты показывают превосходство YandexART 2.5 над Midjourney 6.1 и паритет с другими SOTA-моделями.

Доступ к базовой версии — бесплатно в Шедевруме. Для Pro-версии есть подписка за 100₽/месяц.

🟡Релиз: https://habr.com/ru/companies/yandex/news/892532/

@ai_machinelearning_big_data

#ai #ml #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍4
💬 OPEN AI добавили API 3 новых SOTA аудио-модели.

🗣️ Две модели преобразования речи в текст, которые, как заявляют разработчики, превосходят Whisper.

💬 1 Новая модель TTS - которой можно указать *как* ей говорить.
Поддерживает функцию задания интонации, тона, тембра голоса и еще множества других параметров с помощью промпта.

🤖 Еще OpenAi выпустили Agents SDK, который для создания голосовых агентов.

Через час состоится стрим, где покажут примера создания голосовых агентов с новыми аудиомоделями.

📌 Потестить можно здесь: https://www.openai.fm/

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤‍🔥1👍1
🔍 Claimify: повышение точности проверки фактов в текстах

Microsoft Research представила новый подход к извлечению утверждений из текстов, сгенерированных большими языковыми моделями (LLM).

Инструмент Claimify решает ключевую проблему: языковые модели часто выдают неточную или необоснованную информацию.

В чём суть проблемы?
Представьте: вы получили аналитическую справку от ИИ по развивающимся рынкам. Как проверить её достоверность? Разбить на отдельные утверждения и проверить каждое. Но тут-то и скрывается подвох – обычные методы извлечения утверждений часто ошибаются!

Исследователи выделили 4 ключевые проблемы:
1. Обработка мнений как фактов
– когда субъективные суждения вроде "решение проблем требует комплексного подхода" выдаются за проверяемые факты
2. Неполнота – часть важной информации просто теряется
3. Неточности – например, фраза "ООН обнаружила связь между загрязнённой водой и болезнями" превращается в "ООН обнаружила загрязнённую воду" - происходит упрощение в котором теряется смысл.
4. Потеря контекста – утверждения вроде "Афганистан столкнулся с похожими проблемами" бесполезны без указания, с какими именно.

Как работает Claimify?
Система обрабатывает исходный текст в четыре этапа:

1. Разбивка на предложения с сохранением контекста – учитывается структура текста и окружающие предложения
2. Отбор фактов – ИИ отделяет предложения с проверяемыми фактами от субъективных мнений
3. Устранение неоднозначности – система определяет, можно ли однозначно интерпретировать предложение, и если нет – помечает его как неоднозначное
4. Декомпозиция – из предложений создаются отдельные проверяемые утверждения

Важнейшая особенность Claimify – она не пытается интерпретировать неоднозначности, когда контекст недостаточен. Система просто помечает такие случаи, вместо того чтобы гадать.

Что в итоге?
Проверка показала, что 99% утверждений, извлечённых Claimify, точно отражают исходный текст. Система также лучше балансирует между включением проверяемой информации и исключением субъективной, сохраняя критический контекст.

Разработчики уже успешно используют Claimify для оценки ответов GraphRAG.

По сути, Microsoft создаёт технологический фундамент для систем проверки достоверности ИИ-контента, что особенно важно для отраслей, где цена ошибки высока: финансы, медицина, юриспруденция.

Paper

Полезный метод. Пока в разработке - можно по документации свой создать.

#Microsoft #RAG
———
@tsingular
🔥9👍3
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 В Claude добавили web поиск

Anthropic наконец-то выпустил функцию веб-поиска для Claude – возможность, которуая в других моделях присутствует уже около года.

Claude теперь может искать актуальную информацию в интернете и цитировать источники

Доступно пока только платным пользователям в США.

Работает только с флагманской моделью Claude 3.7 Sonnet

Интересно на сколько он покажет себя лучше, чем OpenAI pro, как исследователь.

#Anthropic #Claude
———
@tsingular
👍31
o1-pro появился в API и цены абсолютно прокляты!

Как вам $600 за 1 млн токенов?
По сравнению с $1.1 за млн в o3-mini или $2.19 у DeepSeek R1
Или даже $22 у GigaChat2 Max

Т.е. конечно, понятно, что с точки зрения OpenAI - это уже не игрушка, а вроде как Доктор Наук в предметной области вопроса изволит отвечать вам 24/7, но для начала страшновато.

Скорее всего на его ответах сейчас насамогонят R2 и будет у нас O1pro за 2 бакса на китайском.

#OpenAI #prices
———
@tsingular
😁10🔥1
🔥 EXAONE Deep: LG врывается в гонку рассуждающих ИИ

На арене появился неожиданный игрок из Кореи — LG, как оказалось, умеет не только в холодильники и телевизоры, но и в ИИ.

EXAONE Deep от LG AI Research — новая линейка моделей (32B, 7.8B и 2.4B параметров), заточенных под математику, научное мышление и программирование. И, судя по бенчмаркам, получается вполне сносно.

• 32B версия работает наравне с такими лидерами, как Qwen 32B, QwQ 32B и даже DeepSeek-R1 671B в CSAT Math.

• Уже доступна на Hugging Face — можно пощупать прямо сейчас.

По бенчмаркам:

• AIME 2024/2025 (американские математические олимпиады) — 32B версия набирает 90 баллов, 7.8B — 83.3.

• Китайский экзамен CSAT 2025 по математике — 94.5 балла у 32B версии.

• GPQA Diamond (PhD-уровень задач по физике, химии, биологии) — 66.1 у 32B.

• LiveCodeBench (кодинг) — стабильно высокие результаты у всех версий.

Оптимизирована под корейский язык.
Требует специальную команду для запуска режима рассуждений в промпте: нужно добавлять <thought>\n.

#reasoning #LG #EXAONE
———
@tsingular
🤔4🔥1