Media is too big
VIEW IN TELEGRAM
Поводом стал недавний конфликт создателей Claude с Администрацией США. Воспользовавшись обострением, мэр Лондона предложил главе Anthropic сделать британскую столицу главной базой компании, гарантировав стабильную и открытую для инноваций юрисдикцию. Чиновники подготовили пакет предложений по расширению местного офиса и двойному листингу акций. Проект представят Амодею в конце мая.
Сейчас в лондонском филиале Anthropic работают около 200 человек, из них 60 исследователей. На фоне отсутствия локальных компаний такого уровня Великобритания стремится стать главным европейским хабом для лидеров ИИ-рынка.
ft.com
В опубликованном документе OpenAI прогнозирует, что AGI обрушит традиционную экономику. Чтобы избежать дефицита бюджета, компания предлагает перенести налоговую нагрузку на сверхприбыли корпораций и ввести специальный сбор для бизнеса, где людей заменяют на ИИ-системы.
Для защиты рынка труда - переход на 32-часовую рабочую неделю с сохранением оклада и соцпакеты, не привязанные к работодателю. Плюс создание государственного ИИ-фонда, который будет выплачивать дивиденды всем гражданам.
Также OpenAI лоббирует закрепление базового права на ИИ и модернизацию энергосетей под дата-центры. Компания поддерживает курс США на минимальное внутреннее регулирование ради победы в технологической гонке с Китаем, призывая сфокусироваться лишь на контроле за безопасностью моделей.
wsj.com
Neural Texture Compression (NTC) использует компактные нейросети для распаковки текстур прямо во время рендеринга. Это уменьшает объем файлов на диске и кратно снижает потребление VRAM. На демонстрации активация NTC снизила потребление видеопамяти с 6,5 ГБ до 970 МБ, при этом разрешение текстур оказалось даже выше оригинала.
Тот же подход применяется в технологии Neural Materials: алгоритм заменяет ресурсоемкие математические вычисления, самостоятельно определяя, как свет взаимодействует со слоями материалов. Скорость рендеринга вырастает до 7,7 раз. Все вычисления идут на тензорных ядрах, поэтому базовая производительность GPU не страдает.
NTC не связана с генеративным ИИ: сети тренируются исключительно на ассетах конкретной игры, что исключает визуальные галлюцинации. Технология не останется эксклюзивом NVIDIA - Microsoft уже стандартизировала механику в DirectX под названием Cooperative Vectors.
tomshardware.com
В честь запуска новых пакетов расширенных лимитов Anthropic начисляет бонусы для тарифов Pro, Max и Team. Сумма эквивалентна стоимости подписки (Pro - $20, Max 5x - $100, Max 20x и Team - $200). Средства можно потратить на дополнительные запросы во всей экосистеме, включая Claude Code, Cowork и сторонние интеграции.
Для получения нужна активная подписка и включенная опция «Extra usage» в настройках. После этого бонус можно забрать кнопкой Claim на странице Usage.
Срок акции - с 3 по 17 апреля. Средства сгорят через 90 дней после активации. Подписки Enterprise и API-аккаунты Console в акции не участвуют.
support.claude.com
По данным платформы TrueUp, отслеживающей вакансии в 9000 технологических компаний, сейчас открыто более 67 тыс. позиций для разработчиков (вдвое больше, чем в середине 2023 года). Только с начала этого года число предложений выросло на 30%.
Статистика ломает нарратив о том, что ИИ отнимает работу у программистов. Напротив, гонка ИИ-технологий заставляет корпорации нанимать еще больше специалистов, а спрос в профильных ML-направлениях растет.
Иллюзия схлопывания рынка, на которую жалуются джуниоры, возникает из-за резкого роста конкуренции. Профессия стала массовой, и хотя вакансии начального уровня никуда не исчезли, конкурс на них выше, чем 5 лет назад.
businessinsider.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍93❤31🔥14👏6😁3🎉3🤔2🙏1💋1💘1
Forwarded from Анализ данных (Data analysis)
🔥 Милла Йовович теперь тоже Вайбкодер😱
Актриса выложила на GitHub опенсорс-инструмент MemPalace для работы с памятью ИИ-агентов. Делала его вместе с другом.
Фишка в том, что все данные хранятся локально, а система сама решает, какие факты о пользователе подтягивать под конкретный запрос. По бенчмарку LongMemEval инструмент уже обгоняет и платные, и бесплатные решения.
За сутки репозиторий набрал 2k+ звёзд.
Настоящий обитель зла💀
https://x.com/bensig/status/2041229266432733356
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Актриса выложила на GitHub опенсорс-инструмент MemPalace для работы с памятью ИИ-агентов. Делала его вместе с другом.
Фишка в том, что все данные хранятся локально, а система сама решает, какие факты о пользователе подтягивать под конкретный запрос. По бенчмарку LongMemEval инструмент уже обгоняет и платные, и бесплатные решения.
За сутки репозиторий набрал 2k+ звёзд.
Настоящий обитель зла
https://x.com/bensig/status/2041229266432733356
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥151👍145❤40🤩35😁27😎20👀9🎉3👏2🤔1💯1
🔥 Claude теперь воспитывают кнутом и пряником
Сначала в сети завирусился badclaude - тулза, где ИИ буквально «подгоняют» командами быстрее после каждого фейла. Чистый треш, но многим зашло.
Теперь появился антипод- goodclaude.
Там всё наоборот: чем больше работаешь, тем больше Claude получает похвалы.
И да, звучит как шутка, но это реально используют.
Суть простая: поведение модели сильно зависит от контекста и тона.
Хочешь агрессивного исполнителя - дави.
Хочешь аккуратного и стабильного - хвали.
goodclaude лежит на GitHub
https://github.com/ashley-ha/goodclaude
badclaude тоже никуда не делся
https://github.com/GitFrog1111/badclaude
Что выберешь ты?
@ai_machinelearning_big_data
#claude
Сначала в сети завирусился badclaude - тулза, где ИИ буквально «подгоняют» командами быстрее после каждого фейла. Чистый треш, но многим зашло.
Теперь появился антипод- goodclaude.
Там всё наоборот: чем больше работаешь, тем больше Claude получает похвалы.
«У тебя всё отлично получается»
«Я горжусь тобой»
«Ты лучший кодер»
И да, звучит как шутка, но это реально используют.
Суть простая: поведение модели сильно зависит от контекста и тона.
Хочешь агрессивного исполнителя - дави.
Хочешь аккуратного и стабильного - хвали.
goodclaude лежит на GitHub
https://github.com/ashley-ha/goodclaude
badclaude тоже никуда не делся
https://github.com/GitFrog1111/badclaude
Что выберешь ты?
@ai_machinelearning_big_data
#claude
😁81🔥46❤17🤔13👍11🗿5👏4🤨1
На русскоязычных медиа-площадках появились первые публичные интеграции ИИ-агентов непосредственно в пользовательский интерфейс. Два свежих кейса — Хабр и «Код Дурова» — демонстрируют разные архитектурные подходы к одной задаче: помочь читателю взаимодействовать с контентом.
Хабр совместно с SourceCraft разработал фичу для объяснения кодовых сниппетов прямо в статьях. В блоках кода появилась кнопка «Объяснить код с SourceCraft» — при нажатии ИИ-помощник на базе Yandex AI Studio берёт в качестве контекста всю статью и конкретный блок кода, затем генерирует объяснение в оверлейном окне. Можно в один клик перейти в среду разработки с сохранением контекста статьи, чтобы продолжить работу с кодом.
Издание запустило агента «Кодик» также на базе Yandex AI Studio — он работает как персональный помощник по всему контенту сайта. Архитектура задействует два компонента: нейросетевые модели для генерации ответов и AI Search для поиска релевантных материалов по сайту.
Логика работы: агент сначала ищет по контенту площадки. Если релевантная информация найдена — формирует ответ с привязкой к конкретным публикациям. Если нет — фолбэчит на базовые знания модели, покрывая вопросы за пределами тематики сайта. Функционал шире: поиск материалов по запросу, рекомендации, объяснение терминов, краткий пересказ статей в реальном времени.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍118🤓33❤21👏12🎉4🔥3💯3
This media is not supported in your browser
VIEW IN TELEGRAM
VoxCPM2 - крупное обновление открытой системы синтеза речи VoxCPM.
Модель обучена на более 2 млн. часов мультиязычных аудиоданных и поддерживает 30 языков, включая русский, китайский, английский, японский, корейский, арабский и хинди (плюс 9 диалектов китайского).
За проектом стоит OpenBMB, структура при Университете Цинхуа, объединяющая академическую лабораторию THUNLP и коммерческую компанию ModelBest.
THUNLP - одна из сильнейших академических групп по LLM в Азии, которой руководит легенда китайского NLP, профессор Maosong Sun.
OpenBMB известна сериями CPM, MiniCPM, AgentCPM и фреймворками BMTrain и OpenPrompt.
В отличие современных TTS-систем, VoxCPM2 работает напрямую с непрерывными представлениями в латентном пространстве AudioVAE V2.
Пайплайн состоит из 4 стадий: LocEnc, TSLM, RALM и LocDiT. На выходе - аудио с частотой 48 кГц студийного качества: асимметричная архитектура AudioVAE V2 принимает референс на 16 кГц и повышает разрешение без внешнего апсемплера.
Из версии 1.5 перешел режим Ultimate Cloning: если передать вместе с референсом его точный транскрипт, модель воспроизводит ритм, интонации и манеру речи.
На Seed-TTS-eval модель показывает WER 1.84% на английском и CER 0.97% на китайском при сходстве голоса (SIM) 75.3% и 79.5% соответственно.
На мультиязычном Minimax-MLS-test система лидирует по SIM в подавляющем большинстве из 24 языков, опережая Minimax, ElevenLabs, FishAudio S2 и Qwen3-TTS.
В задаче генерации голоса по описанию модель набирает лучшие баллы среди open-source решений на InstructTTSEval в английском языке.
Скорость инференса по соотношению времени, затраченного моделью на генерацию аудио к длительности самого аудио - около 0.3 на NVIDIA RTX 4090. На движке Nano-vLLM этот показатель снижается до 0.13 (подходит для стриминга в реальном времени).
Есть скрипты и гайд для SFT (добавления нового языка или домена) или LoRA для глубокой имитации конкретного спикера. LoRA потребует 5–10 минут аудио и 20 ГБ VRAM.
@ai_machinelearning_big_data
#AI #ML #TTS #VoxCPM2 #OpenBNB
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍71❤34👏12🔥9🤩5❤🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская лаборатория релизнула GLM-5.1 - флагманскую MoE-модель с 754B параметров нового поколения, ориентированную на агентную инженерию.
Фокус релиза - на кодинг и долгие агентные сессии.
GLM-5.1 построена так, чтобы оставаться продуктивной на длинной дистанции: декомпозировать задачу, запускать эксперименты, читать результаты, находить блокеры и пересматривать стратегию.
Z ai утверждает, что модель устойчиво оптимизирует решение на протяжении сотен итераций и тысяч вызовов инструментов, то есть результат тем заметнее, чем дольше она запускают.
API доступен на платформе Z ai, веб-версия на chat.z.ai обещана в ближайшие дни. Веса опубликованы на Hugging Face под лицензией MIT.
Для локального развертывания уже готовы сборки под SGLang 0.5.10+, vLLM 0.19.0+, xLLM, KTransformers и свежую ветку Transformers.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥86❤28💯21👍12👏5😁5💘2
Project Glasswing - инициатива по защите критической программной инфраструктуры с помощью ИИ.
Поводом стали возможности разрабатываемой модели Claude Mythos Preview, которая, по оценке самой компании, превосходит почти всех специалистов по поиску и эксплуатации уязвимостей в коде.
За несколько недель работы Mythos Preview обнаружила тысячи 0-day уязвимостей, в том числе во всех крупных операционных системах и браузерах. Среди раскрытых примеров:
Модель находила уязвимости и писала эксплойты без участия человека. Все упомянутые баги уже исправлены, для остальных Anthropic уже опубликовала криптографические хэши описаний и раскроет детали после выхода патчей.
Партнеры Glasswing получат модель для оборонительных задач: локального поиска уязвимостей, тестирования бинарников, защиты конечных точек и пентестов. Доступ открыт более чем 40 организациям, поддерживающим критическую и open-source-инфраструктуру.
К проекту присоединились AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA и Palo Alto Networks.
Anthropic выделяет до $100 млн. в кредитах на использование модели и $4 млн. прямых пожертвований: $2,5 млн в Alpha-Omega и OpenSSF через Linux Foundation и $1,5 млн. для Apache Software Foundation.
После этапа превью, модель будет доступна участникам Glasswing по цене $25 за миллион входных и $125 за миллион выходных токенов через Claude API, Amazon Bedrock, Vertex AI и Microsoft Foundry.
Защитные механизмы для моделей такого класса Anthropic планирует обкатать на ближайшем релизе Claude Opus, который не несет сопоставимых рисков.
Anthropic уже обсуждает возможности Mythos Preview (как атакующие, так и защитные) с американскими госструктурами.
Подробности о возможностях модели, ее свойствах и общих характеристиках доступны в Claude Mythos Preview system card.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥117👍43🤔26👏9❤7❤🔥3🥰2
Media is too big
VIEW IN TELEGRAM
Компания заключила крупное соглашение о поставке вычислительных мощностей нового поколения с запуском в 2027 году. Почти вся новая инфраструктура разместится в США.
Масштабирование железа связано с ростом бизнеса: в 2026 году прогнозируемая годовая выручка Anthropic перешагнула $30 млрд., а число клиентов, тратящих на Claude более $1 млн в год, достигло 1000 компаний.
Главным облачным провайдером остается Amazon, но Anthropic не привязывается к одному вендору: модели тренируются и запускаются на AWS Trainium, Google TPU и NVIDIA GPU.
anthropic.com
OpenAI, Anthropic и Google начали использовать площадку Frontier Model Forum для совместного отслеживания попыток враждебной дистилляции. Эта практика нарушает условия использования и обходится лабораториям Кремниевой долины в миллиарды долларов упущенной выгоды ежегодно.
Координация выстроена по аналогии с кибербезопасностью: компании делятся данными об атаках и тактиках злоумышленников, чтобы быстрее блокировать несанкционированный сбор результатов инференса.
Полноценному обмену мешает американское антимонопольное законодательство. Разработчики опасаются обвинений в сговоре и ждут от правительства США правовых инструкций для легальной защиты технологий.
bloomberg.com
Пилотный проект ориентирован на специалистов по элайнменту. Приоритеты: оценка уязвимостей, снижение рисков, контроль над ИИ-агентами, защита приватности и предотвращение злоупотребления моделями.
Программа пройдет с 14 сентября 2026 по 5 февраля 2027 года. Участники получат стипендию, менторов, вычислительные мощности и кредиты на API, но без доступа к внутренним системам OpenAI.
Формат - удаленно или в центре Constellation. По итогам каждый должен представить статью, бенчмарк или датасет.
OpenAI обещает, что опыт и технические навыки будут важнее дипломов. Заявки принимаются до 3 мая.
openai.com
По данным спецслужб Тайваня, Пекин атакует ИИ-сектор и производителей чипов, чтобы преодолеть технологическую блокаду. На острове фиксируют всплеск промышленного шпионажа: китайские компании используют теневые каналы, нелегально хантят инженеров, похищают интеллектуальную собственность и закупают оборудование в обход экспортного контроля.
Параллельно растет давление в киберпространстве. Только за первый квартал года ИТ-сети Тайваня зафиксировали свыше 170 млн попыток несанкционированного проникновения с целью сбора данных и слежки.
reuters.com
Университет Тафтса опубликовал концепт гибридной VLA-модели для управления роботами. Метод использует архитектуру, объединяющую глубокое обучение с правилами символьной логики. Система заранее выстраивает абстрактный план, опираясь на свойства объектов, и не учится долгим путем проб и ошибок.
На тестах с «Ханойской башней» модель показала радикальный прирост эффективности. Время обучения сократилось с полутора суток до 34 минут, затраты энергии на тренировку упали до 1% от стандартных VLA-систем. В инференсе потребление составило 5%. Точность выросла с 34% до 95%.
В усложненной версии теста нейросимволический ИИ добился успеха в 78% случаев, а традиционные модели провалили все попытки. По мнению авторов, структурное мышление поможет решить проблему роста энергоаппетитов нейросетей.
sciencedaily.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍156🤓25👏22❤17🔥5💯3❤🔥2
🎨 FLUX.2 Small Decoder: декодер ускорили в 1.4 раза, а вы и не заметите разницы
Black Forest Labs выкатили новый компактный декодер для FLUX.2.
Суть простая: это drop-in замена стандартного декодера, которая работает примерно в 1.4 раза быстрее и при этом потребляет заметно меньше VRAM.
И никаких плясок с интеграцией. Декодер подключается к существующему пайплайну FLUX.2 из коробки.
Поменял компонент, всё работает.
Особенно это актуально для real-time сценариев и генерации в высоком разрешении, где каждая миллисекунда на счету.
По бенчмаркам, например, декодирование ускоряется с 91.6 мс до 69.4 мс.
Лицензия Apache 2.0, веса уже на HuggingFace. Для тех, кто гоняет FLUX в продакшене или строит на нём что-то интерактивное, обновление практически бесшовное и сразу дает ощутимый прирост.
https://huggingface.co/black-forest-labs/FLUX.2-small-decoder
@ai_machinelearning_big_data
#FLUX
Black Forest Labs выкатили новый компактный декодер для FLUX.2.
Суть простая: это drop-in замена стандартного декодера, которая работает примерно в 1.4 раза быстрее и при этом потребляет заметно меньше VRAM.
И никаких плясок с интеграцией. Декодер подключается к существующему пайплайну FLUX.2 из коробки.
Поменял компонент, всё работает.
Особенно это актуально для real-time сценариев и генерации в высоком разрешении, где каждая миллисекунда на счету.
По бенчмаркам, например, декодирование ускоряется с 91.6 мс до 69.4 мс.
Лицензия Apache 2.0, веса уже на HuggingFace. Для тех, кто гоняет FLUX в продакшене или строит на нём что-то интерактивное, обновление практически бесшовное и сразу дает ощутимый прирост.
https://huggingface.co/black-forest-labs/FLUX.2-small-decoder
@ai_machinelearning_big_data
#FLUX
👍94🔥20🎉9❤8👏7👌3🙏2💯2🤝1
Об этом сообщил Сэм Альтман в сети Х.
В честь достижения этой отметки лимиты использования Codex будут сброшены.
Так будет каждый раз при достижении очередного миллиона, вплоть до 10 миллионов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤86🎉37👍33🔥13👏5🐳4🤬1
🚀 Qwen 3.6-Plus забрал все три первых места на OpenRouter. Одновременно.
Alibaba выкатили новую модель, и она сразу заняла #1 в трех рейтингах OpenRouter: Daily, Weekly и Trending. Такого там раньше никто не делал.
Модель уже вышла из триала и доступна в проде. По первым отзывам: латенси ниже, рассуждения на уровне топовых моделей, а цена за токен заметно приятнее конкурентов.
Доступна через Qwen Cloud, Alibaba Cloud Model Studio, OpenRouter и Fireworks AI. Из коробки интегрируется с OpenClaw, Kilo Code, Cline, opencode и Qoder.
Для тех, кто сейчас выбирает модель под продакшен, есть смысл погонять на своих задачах.
Достижения на OpenRouter звучат красиво, но синтетические бенчмарки и реальные пайплайны - вещи разные.
Интересно посмотреть, как она поведет себя на длинных контекстах и сложных мультиэтапных цепочках.
openrouter.ai/qwen/qwen3.6-plus
fireworks.ai/models/fireworks/qwen3p6-plus
@ai_machinelearning_big_data
#qwen
Alibaba выкатили новую модель, и она сразу заняла #1 в трех рейтингах OpenRouter: Daily, Weekly и Trending. Такого там раньше никто не делал.
Модель уже вышла из триала и доступна в проде. По первым отзывам: латенси ниже, рассуждения на уровне топовых моделей, а цена за токен заметно приятнее конкурентов.
Доступна через Qwen Cloud, Alibaba Cloud Model Studio, OpenRouter и Fireworks AI. Из коробки интегрируется с OpenClaw, Kilo Code, Cline, opencode и Qoder.
Для тех, кто сейчас выбирает модель под продакшен, есть смысл погонять на своих задачах.
Достижения на OpenRouter звучат красиво, но синтетические бенчмарки и реальные пайплайны - вещи разные.
Интересно посмотреть, как она поведет себя на длинных контекстах и сложных мультиэтапных цепочках.
openrouter.ai/qwen/qwen3.6-plus
fireworks.ai/models/fireworks/qwen3p6-plus
@ai_machinelearning_big_data
#qwen
❤50🔥39👨💻29🎉13💯9👍4👀4🤬1
Институт Аллена представил модель WildDet3D, которая по одному изображению строит 3D-рамки объектов: оценивает их положение, размер и ориентацию в метрических координатах.
Модель принимает сразу несколько типов промптов: текстовый запрос, клик по точке или готовый 2D-бокс от внешнего детектора.
2D-детектор построен на SAM3 и обрабатывает все типы запросов.
Геометрическая ветка использует энкодер DINOv2 с обучаемым декодером глубины, учитывающим геометрию обзора: направления лучей камеры зашиваются через сферические гармоники, что снимает необходимость в отдельной калибровке.
Третий компонент, 3D-head, объединяет через кросс-внимание 2D-детекции с признаками глубины и поднимает их в полноценные 3D-боксы.
Если на инференсе доступны данные с LiDAR, ToF или стереокамеры, они подмешиваются в ту же геометрическую ветку без переобучения.
На бенчмарке Omni3D модель показывает 34,2 AP с текстовыми промптами (это +5,8 пункта к прежнему лидеру 3D-MOOD).
На zero-shot переносе на Argoverse 2 WildDet3D практически удваивает прежний результат: 40,3 ODS против 23,8.
На редких категориях из собственного бенчмарка WildDet3D-Bench успехи, разумеется, еще лучше - 47,4 AP против 2,4 у 3D-MOOD.
Оно использует видеопоток с камеры iPhone и данные LiDAR-сенсора, чтобы в реальном времени отрисовывать 3D-боксы поверх сцены как AR-оверлей.
Это наглядная демонстрация того, как монокулярная модель усиливается, когда устройство умеет отдавать дополнительный сигнал глубины.
Более 1 млн. изображений и 3,7 млн. верифицированных 3D-аннотаций, охватывающих свыше 13 тыс. категорий объектов. По сценам распределение получилось такое: 52% помещений, 32% городской среды и 15% природы.
Он собран на основе 2D-наборов (COCO, LVIS, Objects365, V3Det): кандидаты в 3D-боксы генерировались 5 независимыми методами оценки геометрии, затем фильтровались, проверялись VLM и дополнительно отбирались людьми.
@ai_machinelearning_big_data
#AI #ML #CV #Detection #WildDet3D #Ai2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩78👏30👍19🔥11❤10🎉9🥰3
Media is too big
VIEW IN TELEGRAM
Стартовала публичная бета набора API для создания и запуска автономных ИИ-агентов. Сервис берет на себя всю бэкенд-рутину: песочницы, состояния сессий, контроль доступа и оркестрацию.
Claude Managed Agents поддерживает долгие автономные сессии: агенты работают часами, сохраняя контекст и прогресс даже при обрывах связи. Доступна и мультиагентная координация - главная модель запускает подчиненных агентов для параллельных задач. Ключевая фича - самооценка: алгоритм итеративно дорабатывает результат до соответствия критериям.
Тарификация: стандартная оплата за токены плюс $0.08 за час активного рантайма. Развернуть агентов можно через веб-консоль Claude, CLI или Claude Code.
claude.com
Muse Spark - первая мультимодальная модель из семейства Avocado, созданная в Superintelligence Lab. Доступ открыт через веб-сайт и фирменное приложение, для разработчиков запущено закрытое тестирование API.
Архитектура поддерживает визуальную цепочку рассуждений, использование внешних инструментов и оркестрацию агентов. Фишка релиза - режим Contemplating Mode: несколько ИИ-агентов параллельно анализируют сложную задачу.
По независимым тестам модель держится в топ-5, уступая лишь GPT-5.4 и Gemini 3.1 Pro.
Создатели отчитались о высоких результатах в визуальных STEM-задачах и медицинской аналитике, но признают отставание в коде и долгих многоэтапных сценариях.
reuters.com
Продукт ориентирован на бизнес, которому нужны консистентные генерации в едином визуальном стиле. В основе - инструмент Brand Central, позволяющий дообучать модели на дизайне компании: корпоративные цвета, композиция, стилистика фото, правила размещения логотипов.
Технически Brand Studio - хаб-оркестратор. Умная маршрутизация подбирает оптимальную модель под каждый промпт, переключаясь между Stable Diffusion и Nano Banana или Seedream. Для сложных задач есть Producer Mode: агент сам разбивает ТЗ на пошаговый план с возможностью ручной корректировки.
Сервис заточен под энтерпрайз: ролевой доступ, единый вход, совместная работа с макетами. Базовая подписка - $50 в месяц, на триале дают 1000 кредитов.
stability.ai
Cloudflare ускоряет переход на постквантовую криптографию и планирует полностью защитить свою инфраструктуру, включая механизмы аутентификации, уже к 2029 году.
Сокращение сроков вызвано недавними исследованиями Google и Oratomic. Последние доказали, что момент, когда вычислительные системы смогут ломать современные шифры, наступит не в 2035-м, а раньше.
Cloudflare предупреждает, что добавления PQ-алгоритмов мало, для защиты от даунгрейд-атак придется полностью отказаться от уязвимых протоколов, а ротация скомпрометированных секретов займет годы.
cloudflare.com
Стартап Oumi провел независимое тестирование Google AI Overviews по бенчмарку SimpleQA. Переход поисковика на Gemini 3 поднял общую точность ответов с 85% до 91%. Но качество указания источников парадоксальным образом ухудшилось.
Доля ответов, где информация верна, но ссылки ее не подтверждают выросла с 37% до 56%. Система регулярно опирается на посты в соцсетях, игнорируя более авторитетные ресурсы.
Кроме того, поисковый ИИ уязвим к SEO-манипуляциям: алгоритм охотно подхватывает фейковые факты из оптимизированных блогов и выдает их за истину в первой строке выдачи. В итоге, несмотря на рост точности, проблема некорректного связывания данных и источников делает верификацию ответов крайне сложной.
nytimes.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤58🤓50👍21🤔16🔥6👏4👌2
This media is not supported in your browser
VIEW IN TELEGRAM
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁146🤩37❤16🔥15👍12👏4🤣2
🚨 Почему ИИ в России упирается не в модели, а в инфраструктуру
На Data Fusion прозвучал довольно трезвый тезис. Основные ограничения сейчас не в алгоритмах и не в кадрах.
Упираемся в железо и экономику.
ЦОДы стоят дорого. Доступ к мощным чипам ограничен. Такие вещи сложно тянуть в одиночку даже крупным компаниям.
Плюс экономика проектов. Большинство ИИ-решений требует серьёзных вложений и долго выходит в плюс. Внутри бизнеса такие инициативы часто проигрывают более быстрым по окупаемости направлениям.
В итоге возникает разрыв. Технологии есть, спрос есть, но масштабирование тормозится на уровне инфраструктуры и инвестиций.
Обсуждают стандартные инструменты ускорения. Субсидии, налоговые льготы, поддержка инфраструктурных проектов.
Смысл простой. Чтобы ИИ стал массовой технологией, а не точечными кейсами, нужна среда, где такие проекты можно запускать и доводить до продакшена без чрезмерных рисков.
По факту вопрос сейчас не в том, можем ли делать ИИ. Вопрос в том, как быстро это можно масштабировать.
На Data Fusion прозвучал довольно трезвый тезис. Основные ограничения сейчас не в алгоритмах и не в кадрах.
Упираемся в железо и экономику.
ЦОДы стоят дорого. Доступ к мощным чипам ограничен. Такие вещи сложно тянуть в одиночку даже крупным компаниям.
Плюс экономика проектов. Большинство ИИ-решений требует серьёзных вложений и долго выходит в плюс. Внутри бизнеса такие инициативы часто проигрывают более быстрым по окупаемости направлениям.
В итоге возникает разрыв. Технологии есть, спрос есть, но масштабирование тормозится на уровне инфраструктуры и инвестиций.
Обсуждают стандартные инструменты ускорения. Субсидии, налоговые льготы, поддержка инфраструктурных проектов.
Смысл простой. Чтобы ИИ стал массовой технологией, а не точечными кейсами, нужна среда, где такие проекты можно запускать и доводить до продакшена без чрезмерных рисков.
По факту вопрос сейчас не в том, можем ли делать ИИ. Вопрос в том, как быстро это можно масштабировать.
😁80🤔55👍28❤11👏9😢3🥰2
Tongyi Lab (Alibaba Group) опубликовала VimRAG - фреймворк агентного RAG для работы с текстом, изображениями и видео.
Проект развивает прошлогодний VRAG-RL и решает проблему мультимодального RAG: визуальные данные тяжелые по токенам, но семантически разрежены, а классическая ReAct-история забивает контекст шумом и провоцирует повторные бесполезные запросы к поиску.
Вместо журнала наблюдений VimRAG моделирует рассуждение как динамический направленный ацикличный граф. Каждая вершина хранит подзапрос, действие агента, текстовое саммари и банк визуальных токенов.
Ребра фиксируют логические зависимости между шагами. Такой граф позволяет агенту отличать тупиковую ветку от новой гипотезы и не уходить в циклы повторных поисков.
Бюджет визуальных токенов распределяется с учетом исходящей степени в графе, экспоненциального временного затухания (имитация забывания) и рекурсивной обратной связи от потомков.
Ключевым фрагментам достается высокое разрешение, а второстепенные кадры сжимаются или отбрасываются. Для видео задействована способность VLM привязывать содержимое к временной шкале (извлечение ключевых кадров по таймкодам).
GGPO строит критический путь от корня к ответу и накладывает градиентную маску, исключая тупиковые узлы из положительных примеров, а ценные ретривы - из отрицательных.
По графикам обучения это дает более быструю сходимость, чем базовый GSPO без прунинга.
При этом средняя длина траектории ниже, чем у ReAct и Mem1: структурированная память съедает меньше действий на ответ.
В репозитории доступны:
Поисковый движок построен на FAISS и поддерживает эмбеддинги GVE-3B/7B и Qwen3-VL-Embedding-2B/8B. Индексировать можно изображения, PDF (через конвертацию) и нарезанное на чанки видео.
Код трейна самого VimRAG обещают выложить после внутреннего ревью Alibaba.
@ai_machinelearning_big_data
#AI #ML #RAG #VRAG #TongyiLab
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77❤34🤓34👏13🔥11🤔10