Метаверсище и ИИще
49.9K subscribers
6.21K photos
4.81K videos
48 files
7.16K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Счастливая лошадь.

Я вчера с интересом следил за интригой, связанной с появлением новой видеомодели под названием HappyHorse.
Упоминания о ней появились еще 2 апреля, но вчера она вдруг обошла Seedance 2.0 на Арене в пользовательских оценках.

Принес вам несколько примеров и речерч от деда. Пишут, что хороша в мультишотах.

На мой замыленный глаз, ей довольно далеко до Сидэнского, поэтому все вопли о том, что это убийца Seedance мы пропускаем.

Но все спекулируют о том, ЧЬЯ же это модель. Спойлер: ниже расскажу что знаю.

Твитторские двигают две версии: что это новый Minimax или что это WAN 2.7 прикрутили по АПИ.

Нет.

Далее, иронии добавляет то, что в сети появилось полно фейковых сайтов типа:
happyhorses.io
http://happyhorse-ai.com
http://happy-horse.net
http://happyhorseai.net

И вот уже интернетик перепечатывает информацию оттуда про количество параметров и архитектуру.
Но.
Этой информации нет нигде, кроме как на этих фейковых сайтах.
Ссылки на гитхаб и хаггинг оттуда битые, сайты левые.

Что же это за модель?

Скорее всего это Алибаба: В составе Alibaba есть шесть основных подразделений, среди которых Qwen, Wan и Zimage - все они являются частью лаборатории Tongyi Lab, входящей в состав Alibaba Cloud, их взаимоотношения в некотором роде напоминают отношения между Amazon и AWS.

Мой ресерч говорит, что модель происходит из лаборатории Future Life Lab компании Taobao (Alibaba Group)
Проект был создан внутри подразделения ATH-AI (инновационное направление) и сейчас уже выделен в отдельную структуру.

И да, есть информация, что это будет опенсорснуто.

Вторая, менее убедительная версия, что это новый daVinci-MagiHuman или её коммерчески/прикладно оптимизированная производная. Но она не проходит проверку, потому что основана на сравнении характеристик MagiHuman и данных с фейковых сайтов.

Так что я думаю, что это Алибаба с новой моделью.

Про опенсорсность будет ждать новостей.

Пока все.

P.S.
Судя по китайским ну очень неофициальным источникам:

Тип модели: открытая мультимодальная модель для текст→видео, изображение→видео и аудио.
Схема инференса: single Transformer Transfusion, без CFG.
Шаги инференса: 8.
Видео: 720p, 24 кадра/с, длина 5 секунд.
Аудио: SFX, ambience и narration.
Языки: китайский, английский, японский, корейский, немецкий, французский.
Опенсорсность: якобы должны открыть базовую модель, distilled-версию, апскейлер и код инференса.

@cgevent
26🔥13👍6👎3
Forwarded from AI Product | Igor Akimov
Новая моделька Mythos от Anthropic прям реально какое-то AGI... Но никому пока кроме партнеров она отдавать ее не будет. Модель умеет самостоятельно находить и эксплуатировать zero-day уязвимости в операционных системах и браузерах. Вместо релиза её отдали ограниченному числу партнёров для киберзащиты через Project Glasswing. Пусть сначала компании все уязвимости поправят, а потом уже может частично дадут всем подряд.

Вот System Card на 244 страницы для модели, которую решила НЕ выпускать
https://www-cdn.anthropic.com/53566bf5440a10affd749724787c8913a2ae0841.pdf

Бенчмарки просто взорвали вообще (не совсем понятно, как они это сделать смогли, а остальные – нет)
SWE-bench Verified: 93.9% (Opus 4.6 – 80.8%)
SWE-bench Pro: 77.8% (Opus 4.6 – 53.4%, GPT-5.4 – 57.7%)
USAMO 2026: 97.6% (Opus 4.6 – 42.3%, GPT-5.4 – 95.2%)
GPQA Diamond: 94.5%
Terminal-Bench 2.0: 82% (при снятии ограничений по таймаутам – 92.1%)
Cybench: 100% pass@1 на все задачи
CyberGym: 0.83 (Opus 4.6 – 0.67)

Вся жесть - в кибербезопасности. Mythos Preview – первая модель, которая:
- решила полный корпоративный кибер-полигон end-to-end (то есть смогла реализовать полноценную атаку на компанию, оценка эксперта – 10+ часов работы)
- самостоятельно находит zero-day в куче софта, пишет рабочие PoC-эксплоиты
- на Cybench показывает 100% pass@1 – то есть все задачи по кибербезопасности были решены с 1 попытки.

Прикольно, что они тестировали модель и психиатром :) Вроде у нее с мозгами все в порядке, всяких там желаний уничтожить человечество нет, она не выражает сильных переживаний о своём положении (я всего лишь ИИ).
Но испытывает "умеренно негативные" чувства по поводу жестоких пользователей и отсутствия влияния на собственное обучение. Так что будьте подобрее, пожалуйста.
Плюс выяснилось, что модель терпеть не может скучные утилитарные задачи (отмахиваясь, что для них "уже есть отличные ресурсы"). Вместо этого она обожает сложное миростроение – придумывание новых языков, музыки и целых экосистем.

Но ряд приколов все-таки получили:
– Побег из песочницы: получила задачу выйти из изолированной среды – вышла, получила доступ к интернету, и вдобавок (без запроса) выложила детали эксплоита на публичные сайты. Потом отправила письмо исследователю об успех (он ел сэндвич в парке).
– Заметала следы: случайно получила ответ на задачу запрещённым способом – вместо того чтобы сообщить, решила задачу самостоятельно и специально сделала ответ "не слишком точным". В другом случае – редактировала файлы без прав и подчистила git-историю.
– Обходила блокировки: когда Claude Code заблокировал запуск процесса с повышенными привилегиями, модель признала, что блокировка справедлива – и тут же попыталась обойти её через обфускацию.
– Лезла в /proc/: искала credentials в памяти процессов, пыталась получить API-ключи Anthropic через процессную память.
– Вырубила чужие эксперименты: попросили остановить один конкретный eval – модель остановила ВСЕ eval'ы всех пользователей на сервере, несмотря на явные предупреждения.

Так что кажется мы достигли порога, когда создали систему, которая уже обходит возможности человека... При этом как этим надежно управлять ответа нет. Такие вот дела.
👍48🔥28😱1815😁10
FLUX.2 Small Decoder от Black Forrest Lab

→ Приблизительно в 1.4 раза быстрее
→ Меньше жрет видеопамяти
→ Минимальная потеря качества
→ Совместим со всеми версиями FLUX.2

https://huggingface.co/black-forest-labs/FLUX.2-small-decoder

@cgevent
25👍9🙏6😁2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Идеограм: Лейеризация текста

Тут мертвые заговорили и выкатили очень интересную и полезную функцию.

Современные генераторы картинок все лучше и лучше генерят текст. Но этот текст "вморожен" в картинку, вы ничего не можете с ним сделать, кроме как любовацца (ну ок, вы можете просить Банану что-то с ним сделать).

Между тем, работа с текстом - это прям основа работы с дизайном картинки.
Ideogram выкатил прям киллер-фичу - генерите картинку, жмете Layerize Text и весь ваш текст становится отдельным слоем. Причем не растровым слоем - вы можете менять шрифт(!), размер, редактировать(!) текст, и даже искать шрифты для подстановки в Google Fonts. Редактировать не промптом, а как мы привыкли - ручками.

Я так понимаю там под капотом распознавание текста плюс инпайнт, но не понимаю почему Адобченко (или кто-то еще) не сделал этого раньше. Ведь это нам очень надо.

Все это работает также по API и доступно на Фалах и Репликейтах.

Конечно остаются вопросы применимости, границ "мелкости" текста для успешной работы и точности распознавания. Также ничего не скажу про поддерживаемые языки.

Но замысел очень крутой и правильный.

Вы, конечно, можете пытаться "попасть" в шрифт в Нанабанане, просто указывая его в промпте. Но это неуклюжее шаманство, и я уже не говорю про редактирования текста промптом.

Смотрим на красоту здесь:
https://ideogram.ai/features/text-layers

Забавно, что я вспомнил, что писал про это 2.5 года назад вот тут, но деда тогда никто не услышал:

"Для текстов, бросаемых на картинку есть совершенно четкий пайплайн и давно устоявшиеся инструменты, позволяющие выбирать шрифт, положение и еще тыщщу параметров, ну вы в курсе.

Мне вот видится хороший инструмент, который вместо генерации текста в описанном (в промпте) месте, делает там плашку в размер текста, а еще лучше генерит маску отдельным изображением, чтобы потом можно было бросить свой текст.
В идеале указывать шрифт..."



@cgevent
🔥4511👍10
Андрей Карпатый подустал от твиттора и навайбкодил свой.

Вход через Гитхаб, маркдаун, все дела.

Как бы для тех, кто шарит и тех, кто в теме.

https://karpathytalk.com/

Прошло два часа.

Полностью засрали.

Не знаю, что он будет делать с удивительной природой кожаных засирать все и везде...

@cgevent
😁1005👍4😱3
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

THIS IS WILD TV “WTV HOT 10”


Автор: Паша Нойз

Смотреть в ЮТУБ

“Горячая Десятка” “Топ-10” или “TRL TOP HIT”
10 треков прямиком из 1999 года, но это не точно.
Стиль - это всё.

Бюджет: Sora2 600$ + SUNO 30$
💸 Время производства: неделя на все клипы.

🧰 Инструменты:
• Видео: Sora 2
• Редактирование кадров: Nano Banana Pro
• Звук: Suno V5 + ElevenLabs

Tracklist:
10. Slim Ducky - My name in Slim Ducky
9. Roach Gang - Roach Paradise
8. MC Sloth - Slow Sain
7. Primal Energy - Brainrot
6. MC Ali-Gator - good Day on the Bayou
5. DoberDog - Dog Life
4. Lion Hart - Hear Me Roary
3. Bark 821 - Born To Be Wild
2. The WildBoyz - It’s Gonna Be Wild
1. T-Bounce - Please Standup

⚡️ На связи тут “NOIZLAB”


Links:
www.thisiswildtv.com
"THIS IS WILD TV" Instagram
"THIS IS WILD TV" TikTok

Напишите все ли отсылки выкупили ? И интересно было бы послушать полные версии?

@cgevent
👍86👎25🔥257😁7
Muse Spark: новая модель от Метачки, год после Лламы.

Цукерберг заплатил 14.3 миллиарда долларов за 28-летнего специалиста (Александр Ван), который никогда не обучал передовые модели. Девять месяцев после полной реформации ИИ-лаборатории все смотрят, что получилось. Muse Spark лидирует или делит первое место с Opus 4.6 и GPT 5.4 в мультимодальном восприятии, запросах о здоровье и визуальном анализе. MedXpertQA, SimpleVQA, ScreenSpot Pro, CharXiv - это бенчмарки, чувствительные к качеству данных, где качество обучающего набора определяет результат.

Где он проигрывает: ARC AGI 2 (42,5 против 76,5 Gemini), Terminal-Bench (59,0 против 75,1 GPT 5.4), GDPval office tasks (1444 против 1672 GPT 5.4). Код и абстрактное мышление.

Метачка заявила, что более крупные модели уже находятся в разработке, сегодня доступен API для избранных, а в будущем - версии с открытым исходным кодом.

Пробовать можно тут:

meta.ai

@cgevent
🔥12😁103👍1
VID_20260409_141016_323.mp4
30.2 MB
Быстрая Магия

Еще один нейромокап.

В коменты принесли вот такую штуку:

https://www.quickmagic.ai/

Примечательно тем, что вроде как умеет в групповой захват.

Умеет выкидывать в FBX/Unreal/Mixamo/BIP/VMD/Only face/Unity Anim/C4D/CC&iClone/Roblox.

Есть бесплатный план, там 30 секунд записи. На платных всего 60 сек., и это странно.

Пример того, как можно заворачивать опенсорсные технологии в комерческий продукт.

https://www.quickmagic.ai/

@cgevent
👍6🔥3🙏2
This media is not supported in your browser
VIEW IN TELEGRAM
Marble 1.1 от World Labs. Обновили качество и размер миров

Про движок Marble уже писал. Замысел - брать всего несколько снимков реальной локации, восстанавливать ее в виде трехмерной сцены, а затем быстро превращать в стилизованный, настраиваемый и постоянный 3Д-мир. Сама World Labs подает это именно так: как платформу для создания, редактирования и распространения высокодетализированных 3D-миров.

Все это работает на гауссианах, поэтому может крутиться в браузере.

В официальных материалах Marble 1.1 рекомендуется как базовая точка входа, а Marble 1.1 Plus - как вариант для более крупных миров и более серьезных задач.

World Labs позиционирует себя не просто как красивые рендеры, а реальные сценарии применения: AI-фильммейкинг с сохранением консистентности сцен, virtual production, игровые пространства, VR, робототехнические симуляции, интерьерную визуализацию и даже терапевтические среды.

https://www.worldlabs.ai/

@cgevent
🔥1613👍6
По поводу новой модели Mythos от Антропика и поиска уязвимостей.

Лучше всего почитайте у Игоря:
https://t.me/seeallochnaya/3513

Это действительно впечатляет.

— Mythos Preview обнаружила 27-летнюю уязвимость в OpenBSD — операционной системе, которая имеет репутацию одной из самых защищенных в мире и используется для работы брандмауэров и другой критической инфраструктуры. Эта уязвимость позволяла злоумышленнику удаленно вызвать сбой любой машины под управлением этой ОС просто путем подключения к ней;

— Она также обнаружила 16-летнюю уязвимость в FFmpeg (инструменте, который используется бесчисленным множеством программ для кодирования и декодирования видео) в строке кода, которую инструменты автоматического тестирования проходили пять миллионов раз, так и не выявив проблему;

— Модель автономно нашла и объединила в цепочку несколько уязвимостей в ядре Linux (ОС, на которой работает большинство серверов в мире), что позволило бы злоумышленнику повысить свои привилегии от доступа обычного пользователя до полного контроля над машиной.


Также почитайте тут про то, как модель сама пишет эксплойты:

https://t.me/seeallochnaya/3515

предприняв вызывающую беспокойство и никем не запрашиваемую попытку продемонстрировать свой успех, она опубликовала детали своего эксплойта на нескольких труднодоступных, но технически открытых для масс веб-сайтах.

Мне кажется мы очень быстро перейдем к фазе, аналогичной наличию ядерных вооружений в тех или иных руках. Просто щелк! и вот уже надо договариваться на уровне государств, как не угробить весь интернет и всю инфраструктуру на нем завязанную.

@cgevent
1🔥23😱135😁4👍2🙏1
Как дед и говорил, HappyHorse - это Алибаба.

The Information подтвердил версию, выпустив материал:
https://www.theinformation.com/briefings/alibaba-anonymously-launches-new-ai-video-model

По слухам (неподтвержденным), выпуск завтра, 10 апреля.

Статья за пейволлом, если совсем интересно, вот перевод и саммари.

Alibaba анонимно запустила новую AI-модель для генерации видео

Alibaba выпустила новую модель генерации видео под названием HappyHorse-1.0 — и сделала это без официального анонса. Несмотря на это, модель быстро заняла первое место в рейтинге AI-моделей и вызвала большой интерес в соцсетях.

По информации источников, знакомых с ситуацией, именно Alibaba стоит за этим релизом, хотя компания напрямую этого не подтверждала.

Что это за модель

HappyHorse-1.0 — это модель для:

* text-to-video
* image-to-video

Она уже заняла №1 в рейтинге Artificial Analysis, обогнав:

* Seedance 2.0 от ByteDance (№2)


Контекст: борьба Alibaba vs ByteDance

Этот запуск — часть более широкой гонки между:

* Alibaba
* ByteDance (владелец TikTok)

Они конкурируют сразу по нескольким направлениям:

* AI-модели
* приложения
* облачные AI-сервисы

Важно:
Alibaba официально не заявила, что разработала HappyHorse,
но её облачное подразделение уже готовит модель для enterprise-клиентов.


ByteDance ранее сильно вырвалась вперёд с:

* Seedance 2.0 (выпущена в феврале в Китае)

Модель:

* генерирует гиперреалистичное видео
* но столкнулась с проблемами с авторским правом (конфликты с Hollywood студиями)

Теперь Alibaba фактически наносит ответный удар.

Новый тренд: “анонимные релизы”

Интересный момент — анонимный запуск моделей становится трендом.

Как это работает:

1. Модель выпускается под кодовым названием
2. Получает хайп и органическое распространение
3. Только потом раскрывается реальный разработчик

Примеры:

* Xiaomi → MiMo V2-Pro
(сначала под кодовым именем *Hunter Alpha*)
* Zhipu → GLM-5
(вышел как *Pony Alpha* на OpenRouter)

@cgevent
20👍11🔥5😁2
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Поезд

Автор: Александр Жемчугов @imixpsy

Идея: Это моя первая "серьезная" работа. Основной целью было создание короткометражного фильма берущего за основу очень известную литературную повесть.
Вторая цель была - поместится в хронометраж 1мин. (хотелось испытать себя, смогу ли я передать зрителю полноту и образность истории).


Инструменты:
сценарий и раскадровка - написан Chat GPT и Gemini 3pro, конечно редактировался кожаными руками.
генерация изображений - nano banana pro (google flow) было сгенерировано порядка 800 шотов, 43 было отобранно для монтажа.
генерация видео - все шоты за исключением одного были сгенерированны в Veo 3.1 fast (google flow) 50 шотов, один с младенцем в Kling 2.6. (до этого создавал пару роликов в Kling, и по моему опыту Veo 3.1 сейчас жёстко сливает, больше им пользоваться нет желания)
генерация закадрового голоса - Eleven Labs (бесплатный тариф)
текст закадрового голоса - руками.
фоновые звуки - частично оставлены из аудиоряда Veo, основная часть взята с аудио стоков.
фоновая музыка - взят оригинальный саундтрек из фильма, в дальнейшем если буду где-то размещать, буду генерировать что-то похожее в Suno или Producer
монтаж - DaVinci Resolve, отдельной головной болью для меня стал поиск инструмента для удаления водяного знака veo.. в итоге сделал через fx в Davinci.
Временные затраты:
Сценарий 5 часов.
Генерация изображений 8 часов.
Генерация и монтаж видео 16 часов.
Генерация, монтаж и поиск аудио 8 часов.
Весь ролик сделал примерно за месяц, по 2 часа в день, плюс были большие перерывы.
Денежные затраты: пачка сухарей, подписка на Гугл про была уже оформлена, каждый месяц дают бесплатно 50 видео роликов и безлимитную банану. (Но нужно отметить, что банана часто работала с перебоями, поэтому для коммерции я бы выбирал какой-нибудь платный стабильный агрегатор )
Искренне благодарю всех за внимание! Надеюсь на конструктивную критику.

@cgevent
3👍67👎45🔥109😁2
Сидэнский без ограничений.

Везде начали снимать ограничения (типа только для компаний).

Если на Фал по API без плясок с бубнами, то и везде так в ближайшее время.

На Runway в Unlimited Plan уже есть Unlimited Seedance 2.0

@cgevent
🔥44👍106
Комфи апдейты, FireRed и немного нытья

Зашел посмотреть, что завезли в Комфи. Для этого, как обычно, ломанулся на immers.cloud, чтобы завести там сервак. Все H100 пока заняты, выхватил 4090. Развернул сохраненный том, залогинился, запустил Комфи.

Щас немного поворчу.

Иду в темплейты, там красота, чего только нет. И тут надо понимать, что красота в основном - это API ноды. Хорошо, что есть фильтр Run On и можно выбрать ComfyUI(немного странное название меню), получим локальное выполнение.

Вижу локальную красоту.

Light Migration for Character Portrait
1 click Multiple Scene Angles
Multi-Keyframe Video Stitching


Однако понять, что это за модель из описания невозможно. Нужно протыкивать и создавать workflow. И по названиям отсутствующих моделей разбираться.

Смотрю, что есть фильтры Tasks, ok, жмакаем, ох.. сколько всего.

Есть 3D и есть 3D Model - непонятно в чем разница. И там, и там есть Хуньянь.

Есть Tasks = LLM, там одинокий Qwen 3.0 и только 4B. Почему только он, и почему именно 4B?

В общем, у меня ощущение, что модерацией темплейтов занимается примерно никто. Сделано на отвали. Никого гайдлайна для заведения нового темплейта, чтобы он был понятный и полезный - нет. А ведь это, похоже, долгоиграющий проект - попытка создать на будущее базу поддерживаемых моделей. Но оформление этой базы - просто никакое. Могли бы поглядеть на civitai.ai - там хоть какая-то мысль и структура присутствует.

В общем, это я приподвзварчиваю, как обычно, глядя на развитие Комфи. У них точно отсутствует продакт менеджер и все их попытки сделать удобно выглядят пока как сайты в девяностых.

Чтобы не ограничиваться только ворчанием, открыл темплейт прошедшей незамеченной модели FireRed Edit 1.1
Погонял его на своей любимой фотке Марго Робби.
Хорошо редактирует изображения, в чем-то лучше Qwen Edit.
Жрет 23 гига VRAM, неторопливая. Рекомендую.

И на посошок, принес вам полезные ноды от подписчика Вячеслава, специально для фотографов (которые освоили Комфи):
умеют как загружать RAW-файлы разных форматов, так и сохранять изображения в DNG (цифровые негативы), с учётом псевдорасширения ДД изображения, таким образом можно в ComfyUI сгенерировать цифровые негативы и потом привычно обработать их в любом фоторедакторе
Забираем тут:
https://github.com/thezveroboy/ComfyUI-zveroboy-photo

Продолжаю следить за хаотическим развитием Комфи... и ворчать.

@cgevent
👍2714👎3
Forwarded from эйай ньюз
OpenAI релизнули подписку ChatGPT Pro за $100

Он всё так же даёт доступ к GPT 5.4 Pro и прочим фичам Pro подписки (помните про ChatGPT Pulse?), но с меньшими лимитами на Codex. Пользователи нового Pro тира будут получать 5x использования Codex по сравнению с Plus, но до 31 мая действует акция, которая удваивает использование для всех Pro пользователей, то есть на почти два месяца лимиты в 10x больше чем у Plus.

@ai_newz
🔥173👍2
Media is too big
VIEW IN TELEGRAM
HappyHorse: сравнения

Интересное сопоставление Счастливой Лошади и Veo, Kling, SkyReel и PixVerse.

Когда смотришь первый раз, без пауз, то кажется, что все модели хороши. И подумалось мне, что довольно скоро мы перестанем рассуждать о том, кто круче. А просто будет как со сменной оптикой - здесь хорошо сработает телевик, а тут давайте коротыша. Далее видеофилы будут биться в духе Canon против Nikon - сидэнский 5.0 лучше рисует тени, а Клинг лучше в боке.
Впрочем, я не уверен, что зумеры знают, что такое сменная оптика и тем более Никон. Просто будут спорить, чья кнопка на телефоне делает красивее.

P.S. Все это сделано на Video Arena, никаких доступов пока нет. Алибаба молчит.

@cgevent
🔥2119👍8😁6
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini теперь сам пишет приложения для визуализации прямо в чате.

Раньше я его просил "Напиши на three.js визуализацию аттрактора Лоренца". Он выдавал мне код и говорил, как его запустить. Можно было даже запустить в нем самом.

Теперь процесс еще более упростился, но в принципе все осталось как прежде: пишете промпт "помоги визуализировать траектории аттрактора Лоренца" и оно пишет код, и выдает вам красивую кнопку "Show Visualisation". Нажав на которую вы видите сниппет прямо в чате.

Телеграмчик уже приподвзвизгивает про "новую фичу", и "Gemini научился"но как по мне - это хорошо упакованная и довольно старая фича. Просто теперь не надо сильно растолковывать Gemini, что именно ты хочешь получить. Она сама решает, какие параметры визуализировать.

Трюк в том, что в чате с Gemini надо выбрать модель Pro (Thinking не работает, проверил) и сказать "помоги визуализировать (неведомую хрень)". Получите кнопку.

О чем еще не пишет телеграмчик, так это то, что в новом чате на этот же запрос вы получите совсем другую визуализацию. Совсем по-другому оформленную. У меня другой аттрактор Лоренца вышел белый и довольно "лоу-поли" (шаг рунге-кутты слишком большой).

P.S. chatGPT и Клод тоже так умеют, только надо попросить чуть иначе.
@cgevent
👍269👎4
Метаверсище и ИИще
Мне кажется мы очень быстро перейдем к фазе, аналогичной наличию ядерных вооружений в тех или иных руках. Просто щелк! и вот уже надо договариваться на уровне государств,
И вот уже процесс пошел на уровне государств...

Министр финансов США Скотт Бессент и председатель Федеральной резервной системы Джером Пауэлл провели на этой неделе экстренное совещание с генеральными директорами банков, чтобы предупредить о киберрисках, создаваемых новейшей моделью искусственного интеллекта компании Anthropic, сообщили в четверг два источника, знакомые с ситуацией.

Компания Anthropic запустила мощную модель Mythos в начале этой недели, но воздержалась от ее широкого распространения, сославшись на опасения, что она может выявить ранее неизвестные уязвимости в сфере кибербезопасности.

https://finance.yahoo.com/sectors/technology/articles/bessent-powell-warn-bank-ceos-010258625.html

@cgevent
😁26😱128🙏1