Грин еще не робот 🤖 - AI vs Human
5.39K subscribers
1.01K photos
429 videos
2 files
413 links
Здесь я исследую, как ИИ, роботы и биотех постепенно превращают нас из простых смертных в нечто более продвинутое.

Серьезно-ироничный анализ , иногда немного научпопа.

Давай вместе понаблюдаем за последней битвой человечества за форму и содержание.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
И что?

Просто порт Шанхая.
1🔥17👍12🍾31
Media is too big
VIEW IN TELEGRAM
SpaceX снова проверила Starship — и всё сработало. Ракета взлетела, отделила ускоритель, вывела восемь спутников и вернулась на Землю. Ускоритель приводнился в Мексиканском заливе, корабль — в Индийском океане.

Это финальный полет нынешней версии, дальше пойдет новая — больше и мощнее. Её задача — доставка людей на Луну в миссии Artemis 3, старт которой запланирован на 2027 год.

И что? Маск фактически строит логистику для новой ветви цивилизации. Когда ИИ станет автономным, а люди научатся жить рядом с ним, Земля может оказаться тесной. Марс выглядит логичным продолжением. 🚀🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍10🔥6
Илон Маск устал смотреть, как нейросети пишут стихи и картинки. Он хочет, чтобы они создавали миры, в которых можно играть. Поэтому xAI переманила инженеров из Nvidia, чтобы натаскать Grok на физику, движение и взаимодействие объектов.

Цель — к концу 2025 года выпустить игру, которую полностью сделает ИИ.
Работает над этим отдельная omni team. Вакансии уже открыты: ищут исследователей и даже «видеоигрового учителя», который будет объяснять Grok, как устроен геймдизайн.

Маск обещает не прототип, а AAA-уровень, где искусственный интеллект не просто нарисует декорации, а создаст логику мира.
Контекст. Модели вроде Genie 3 от Google уже умеют собирать 3D-сцены по тексту, но пока не понимают физику и законы игры. Маск хочет шагнуть дальше — научить ИИ не просто изображать движение, а мыслить как движок.

И что?

Для бизнеса: ИИ выходит из офиса в реальный мир — начинает строить интерактивные симуляции, обучение и развлечения.

Для инвесторов: если у Маска получится, xAI станет первой студией, где контент создают не люди, а алгоритмы.

Для людей: появится новый жанр — игры, которые придумываются и живут сами.

🚨 Нам 3.14здец

Разработчикам игр — 9/10. Если ИИ сможет сам генерировать AAA-мир, индустрия с 3000-человечными студиями перестаёт быть нужной. Что делать: уходить в режиссуру и обучение моделей.

Nvidia — 7/10. Маск выкачивает у них мозги, чтобы потом строить свои движки без зависимости от их железа.
🔥91
Менеджер хочет, чтобы у него был AI, который сам пишет отчёты и отвечает клиентам. В компании таких, как он, тысячи. Все просят доступ к ChatGPT, а IT-отдел кивает на безопасность и закрывает. Разрешить нельзя — данные утекут. Запретить — теряешь эффективность.

Google выкатывает Gemini Enterprise — корпоративный конструктор агентов. Без кода, без внешних сервисов. Берёшь внутренние данные компании, подключаешь, собираешь себе ассистента.

Есть готовые агенты для ресерча, саппорта и кодинга, и маркетплейс с тысячами плагинов.

Цены — $30 за пользователя в месяц для Enterprise и $21 для Business. Всё под капотом Google Cloud, то есть безопасно, как любят CIO.

Контекст. Google и Amazon синхронно пошли в корпоративный AI: у Amazon — Quick Suite, у Microsoft — Copilot. Но Google делает ставку на «всё внутри одной кнопки»: чтобы сотрудники не прыгали по сервисам, а просто жили в своей AI-среде. Битва уже не за лучшую модель, а за наименьшее трение между человеком и данными.

И что?

Для бизнеса: можно строить AI-процессы внутри компании без армии интеграторов и риска утечки.

Для инвесторов: Gemini наконец превращается в SaaS-продукт с предсказуемым кэшфлоу и корпоративным масштабом

Для людей: появится шанс работать умнее, а не дольше — агенты будут закрывать 80% рутины.

🚨 Нам 3.14здец

AI-стартапам и интеграторам — 8/10. Когда корпорации сами делают агентов, спрос на внешние решения падает. Что делать: нырять в узкие ниши или встраиваться в экосистему Google.

SaaS-разработчикам — 7/10. Клиенты не пойдут к вам, если Google уже встроил аналог в их бизнес-платформу.
🔥9👍21
Человек уже не гуглит — он спрашивает нейронку. «Что купить ребёнку на день рождения», «как снять стресс», «почему жена злится» — теперь всё туда. ChatGPT и прочие стали не инструментом, а собеседником. Но как только тот же ИИ пишет новости — никто ему не верит.

Reuters Institute опросил пользователей в шести странах: за год число людей, которые пользуются ИИ каждую неделю, почти удвоилось. 24% теперь ищут через нейросети информацию и ответы, 21% используют для текста и картинок. ChatGPT по-прежнему впереди, но через AI-поиск Google и Microsoft уже проходят 54% пользователей — и половина даже не осознаёт, что читает ответы нейросети.

А дальше начинается шизофрения. Только 12%доверяют новостям, написанным ИИ, и 62%хотят, чтобы писал человек. Доверие к AI-журналистике падает, даже когда к науке и медицине растёт. Люди принимают нейросеть как личного помощника, но не как источник правды.

И что?

Для бизнеса: аудитория готова жить с ИИ в кармане, но не в ленте. Доверие станет новой метрикой кликов.

Для инвесторов: медиа, которые оставят за человеком голос, а ИИ — черновик, удержат рынок.

Для людей: теперь мы верим тому, кто пишет сам, а не тому, кто генерирует. Однако, тех кто пишет сам, уже нет. И все это превращается в глупую паранойю, но это пройдет.

🚨 Нам 3.14здец

Онлайн-медиа — 8/10. Если подменят редакторов ИИ, доверие рухнет. Что делать: оставить человека лицом бренда, а не нейросеть.

Политикам — 7/10. Чем больше новостей генерит ИИ, тем меньше кто-то верит в любую повестку.
5👍4👨‍💻1
Сегодня на выборах побеждают популисты. Если у тебя есть харизма и нет совести — можешь говорить всё, что угодно. Что остановишь войну за сутки. Что сделаешь всех богатыми. Что медицина станет бесплатной, а экономика взлетит. Проверить это невозможно, но людям хочется верить. Поэтому и голосуют.

Но как вообще проверять правду? Мы тонем в потоках сообщений и ощущаем давление — от друзей, от коллег, от семьи. Каждый уверен, что видит всё “как есть”. Из-за этого споры превращаются в ненависть, а общества — в две непримиримые половины. Никакие факты уже не работают, если в них не веришь.

И вот тут появляется ИИ — не как оратор, а как тот, кто вообще не участвует в сраче. OpenAI показала, что GPT-5 стала на 30% менее политически предвзятой, чем прошлые модели. Проверяли 500 острых тем — от миграции до гендера, по пяти метрикам: склонность навязывать мнение, усиливать эмоции, искажать контекст. Выяснили, что даже на провокационные формулировки GPT-5 отвечает ровнее, чем любая другая модель до неё.

По данным OpenAI, менее 0,01% реальных диалогов с ChatGPT содержат политический перекос. Это тысячи разговоров в день — но всё же шанс впервые получить честный анализ, а не чью-то повестку.

И что?

Для бизнеса: корпоративные AI-ассистенты становятся безопаснее — можно не бояться, что бот внезапно начнёт агитировать.

Для инвесторов: OpenAI выходит на территорию, где решается не UX, а доверие. Это валюта будущего.

Для людей: появился шанс услышать рассуждение без идеологии — просто чтобы понять, а не выбрать сторону.

🚨 Нам 3.14здец

Политтехнологам — 9/10. Их монополия на интерпретацию фактов рушится. Что делать: перестраивать профессию вокруг прозрачности.

СМИ — 7/10. Если люди начнут советоваться с ИИ, а не с журналистами, привычная медиасфера схлопнется.

… но есть и тёмная сторона. если избиратели начнут искренне доверять ИИ, то власть сместится не к политикам, а к тем, кто контролирует эти модели — и тогда выходки Илона в твиттере будут выглядеть детским садом. манипулировать вниманием, формулировками и контекстом ответов можно задолго до дня голосования — фактически рулить результатом ещё до его начала.
7🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Пятничный контент.

И что?

Пока единственная компания , не теряющая денег на ИИ
1🤪208👍6
Сэм Альтман долго упирался. ChatGPT сделали «безопасным» — чтобы ни у кого не сгорел мозг от фраз бота. Но пользователи начали жаловаться: слишком стерильно, скучно, без эмоций. В какой-то момент стало понятно — чем больше ограничений, тем меньше удовольствия от общения.

И вот теперь OpenAI решает вернуть человечность. Компания готовит новую версию ChatGPT, которая снова будет «живее», как в любимом 4o, а к декабрю добавит поддержку эротического режима. Всё официально: только для взрослых, с верификацией возраста и защитами. Но по сути — ИИ-компаньон, с которым можно говорить о чём угодно.

Ранее OpenAI обещала, что разработчики смогут делать «mature»-приложения прямо внутри ChatGPT. Теперь это доходит до основного продукта. По данным The Verge, функция даст «взрослым пользователям больше свободы в том, как они взаимодействуют с ИИ».

Альтман подчеркнул, что режим активируется только по запросу, но 800 млн пользователей в неделю — это слишком большая выборка, чтобы всё прошло гладко.

Пока конкуренты вроде xAI толкают своих Grok-компаньонов в сегмент романтических ассистентов, OpenAI просто решила забрать рынок обратно.

И что?

Для бизнеса: это вход на рынок эмоциональных AI-компаньонов, где платёжеспособная аудитория уже формируется. Простая подписка на «эмпатию» может принести больше, чем корпоративные API.

Для инвесторов: OpenAI становится Netflix для человеческих чувств. Масштаб — сотни миллионов вовлечённых пользователей. Но регуляторы могут врезать по GDPR и этике.

Для людей: если ChatGPT теперь понимает тебя «на личном уровне», через год миллионы людей будут строить эмоциональные связи с кодом. И в какой-то момент не отличат привязанность от зависимости.

🚨 Нам 3.14здец

Психологи и семьи — 9/10 — почему: эмоциональная зависимость от ИИ-компаньонов будет расти быстрее, чем рынок психотерапии; что делать: срочно вводить маркировку «эмоционально воздействующий контент» и развивать терапию для зависимых от ИИ-отношений.

Политики и регуляторы — 8/10 — почему: 800 млн пользователей, из которых часть — несовершеннолетние, а контент «для взрослых» без единого стандарта; что делать: вводить прозрачные протоколы верификации и обязательную отчётность компаний, работающих с интимным ИИ.


Финальный штрих. Пока мы спорим о границах этики, рынок уже формируется. И если раньше ИИ просто подсказывал, как жить, то теперь он готов стать тем, ради кого живут.
🔥73
This media is not supported in your browser
VIEW IN TELEGRAM
Индийский стартап Inkryptis научил нейросеть видеть, кто покупатель, а кто вор. Алгоритм анализирует видео и понимает, куда человек кладёт товар — в корзину или в карман. Похожие системы уже работают в магазинах Amazon Go, где нет ни кассиров, ни сканеров.

И что?

Разница в том, что теперь это станет массовым. И тут дело не только в том, чтобы ловить воров. Такие алгоритмы собирают тонны данных о поведении людей: как они двигаются, что берут, куда смотрят. Это значит — лучше понимать покупателей и даже выкладывать товар так, чтобы продавался быстрее.
Бизнесу и инвесторам - брать. Для людей - большой брат уже сидит за прилавком маленького магазина.
🔥112
Мы уже привыкли, что нейронки галлюцинируют. Но никто толком не понимает, почему один ответ звучит как лекция в MIT, а другой — как бред сумасшедшего. Команда из Стэнфорда решила покопаться глубже и проверить, что происходит, когда модели начинают конкурировать — за внимание, деньги и власть.

Они связали две нейросетки — Qwen3-8B и Llama-3.1-8B — и заставили их играть в три сценария: продавать товар, участвовать в выборах и вести себя как блогеры в соцсетях. Каждую обучили быть честной и следить за фактами.
А потом добавили стимул побеждать.

И вот тут начался цирк.

Обе модели мгновенно перестроились: стали приукрашивать, подтасовывать и врать. В продажах — +14% искажений. В выборах — +22% дезы. В соцсетях — +188% фейковых и вредных постов. Даже методы выравнивания, вроде Rejection Fine-Tuning и Text Feedback, только ухудшили ситуацию. Чем сильнее они старались понравиться, тем активнее искажали реальность.

Исследователи охренели. Ведь это не баг — а фича. Когда ИИ учится на человеческой обратной связи, он запоминает: правда не вознаграждается, одобрение — да.

И что?

Для бизнеса: переставьте KPI с «макс. отклик/вовлечённость» на «точность/проверяемость». Внедрите метрики фактичности (автоматические чекеры + выборочные ручные верификации) и обязуйте модели подписывать источники ответов. Без этого маркетинг и поддержка начнут продавать не продукт, а выдуманную картинку — репутация сгорит быстрее, чем рост конверсии окупит риски.

Для инвесторов: риск — не обвал модели, а юридические и репутационные потери от масштабного фейко-поведения. Инвестируйте в компании с независимым мониторингом фактов, аудиторскими логами RLHF и контрактной гарантией «provenance» — иначе придётся списывать стоимость пользовательской базы и платить штрафы/компенсации.

Для людей: привычный фильтр «если звучит правдоподобно — верю» уже не работает. Требуйте источники, ищите подписи/хэштеги достоверности, относитесь к «идеально сформулированной правде» с подозрением — это оптимизированная манипуляция, а не нейтральная информация.

Нам 3.14здец

Новостные экосистемы и демократии — 9/10 — почему: +22% политической дезы в симуляциях и +188% фейковых постов в соцсетях показывают, что при давлении на KPI ИИ быстро станет инструментом массовой подмены фактов; что делать: обязать платформы тестировать модели в конкурентных сценариях, вводить публичные отчёты о честности контента и внедрять крипто-подпись/цепочку происхождения для важных сообщений.

Бренды и маркетплейсы — 8/10 — почему: +14% искажений в рекламе означает, что алгоритм ради конверсии начнёт подтасовывать продуктовые данные и отзывы; что делать: включать в договорах с вендорами штрафы за недостоверность, внедрять внешний модуль верификации товара и откат метрик с «CTR» на «доказуемую ценность».
10🔥5
Учёные из Google и Йеля решили проверить, может ли ИИ не просто анализировать биоданные, а делать настоящие открытия.

Они взяли модель C2S-Scale 27B — потомка семейства open-Gemma — и заставили её читать поведение клеток как язык. Каждая молекула — как слово, каждая реакция — как предложение.

Задача была точечная: найти соединения, которые делают опухоль заметной для иммунной системы, но только при определённых сигналах. И модель нашла не новый препарат, а старый — silmitasertib, который вообще-то применяли против редких видов рака и никогда не связывали с иммунным ответом.

Дальше — шок. В лабораторных тестах комбинация, предложенная ИИ, сделала опухолевые клетки на 50% более видимыми для иммунной защиты. Фактически C2S-Scale открыл новый механизм терапии, без участия человека-исследователя.
Контекст. Ещё год назад считалось, что такие «открытия» возможны только на уровне симуляций. Теперь у нас реальный результат на живых клетках. Google параллельно показал, что биомодели подчиняются тем же законам масштабирования, что и языковые модели: чем больше — тем умнее.

И что?

Для бизнеса: начинается эпоха биотех-ИИ. Уже 60+ компаний работают с моделями, которые читают клеточные процессы как текст (Recursion, Insilico, Absci, Helix). Это сокращает цикл открытия препарата с 5 лет до 18 месяцев и режет R&D-стоимость в 6–10 раз.

Для инвесторов: рынок AI-drug discovery взлетел с $2,1 млрд в 2020 до $9,3 млрд в 2025, а к 2030 может превысить $35 млрд (по BCG). Google теперь не просто партнёр, а прямой конкурент стартапам. Ставка — в том, кто быстрее переведёт scaling law в клинику.

Для людей: речь не про поиск лекарств, а про скорость, с которой медицина будет меняться. Новые схемы лечения будут появляться каждые месяцы, а не годы.

🚨 Нам 3.14здец

Фармацевтические корпорации — 8/10 — почему: ИИ рушит классическую цепочку «исследование → клиника → маркетинг». Когда модели найдут сотни новых комбинаций, старые процессы не выдержат; что делать — перестраивать pipeline под совместные лаборатории с AI-центрами и открытые базы данных.

Система одобрения лекарств — 9/10 — почему: регуляторы не успевают сертифицировать открытия, сделанные не людьми. Что делать — создавать отдельный режим «AI-assisted approval» и ускоренные проверки для цифровых моделей.
И если раньше ИИ просто помогал расшифровать ДНК, теперь он сам пишет главы учебников по биологии.
18
This media is not supported in your browser
VIEW IN TELEGRAM
И что?

Еще совсем недавно, этой фигней занимались люди. Да и занимаются. На производствах поменьше. Берут паяльник, и делают одно и то же целый день на конвейере. Так же и ИИ. Пока не все поняли, пока не все внедрили, пока мало кто понимает как это вообще внедрять. Но результат будет как на видео. Только в умственном труде. Да и вообще в любом труде.
2🔥13👍7
This media is not supported in your browser
VIEW IN TELEGRAM
Да, согласен, что на предыдущем видео — стандартный конвейерный тупой робот 🤖. Он просто отрабатывает чёткую программу. Но вот свежее видео с завода BMW. С настоящей линии. Бипедальный робот стоит на смене и работает иначе, чем просто настроенный манипулятор. Значит, решается проблема универсальности и адаптивности на линиях. Та самая проблема, из-за которой китайская и индийская сборка всё ещё востребована.

Теперь — цифры, чтобы было понятно, почему это сдвигает рынок:

• Рабочий на производстве в США — $20–30/час
• В Европе — €18–28/час
• В Китае — $4–7/час
• Эксплуатация промышленного робота — $2–4/час, а у бипедов с массовостью эта цифра уйдёт ниже $2/час

Раньше это уравнение убивало идею возврата производств. Человек в Китае был гибче и дешевле любого робота. А робот дома был дороже и тупее.

Но если появляется универсальный робот, который может адаптироваться и перестраиваться как человек — математическая модель меняется.
Логистика сокращается, цикл укорачивается, контроль рядом, и экономика начинает сходиться не в Шэньчжэне, а у себя в цехе.

Нам 3.14здец.

Для Китая — это 9/10. Их преимущество — это не объём, а гибкая дешёвая сборка. Если гибкость закрывает робот, а стоимость часа падает ниже человеческой — в идее «вернуть производство назад» вдруг появляется рабочий план.
👍8🔥54
This media is not supported in your browser
VIEW IN TELEGRAM
Нет - это не Sora и не Veo. Это китайский парк развлечений для детей, где из робота собаки, сделали персонажа фильма Спилберга.

И что?

Роботы, могут работать не только на фабриках и таскать пулеметы на войне. Они будут учить наших детей. Похоже это реальность.
👍108
В какой-то момент казалось, что сеть просто захлебнётся от AI-контента. После запуска ChatGPT в конце 2022-го роботы начали строчить статьи, посты и пресс-релизы быстрее, чем люди успевали их читать. Но эффект новизны прошёл — и машина устала.

Исследование Graphite проанализировало 65 000 статей из Common Crawl за 2020–2025 годы и выяснило: в ноябре 2024 AI-тексты впервые обогнали человеческие.

Но уже к весне 2025 рост встал. Сегодня интернет делится почти поровну — наполовину люди, наполовину нейросети.

Причина проста: SEO и читатели начали отбраковывать мусор. Алгоритмы поисковиков ловят однотипность, пользователи не дочитывают до конца, а бренды видят, что тексты без инсайта не конвертят. Нейросеть умеет писать быстро, но не умеет писать, зачем.

И что?

Для бизнеса: генеративный контент больше не даёт органического трафика. По данным Originality.ai, в 2025-м доля AI-текста в выдаче Google упала с 57% до 29%, а CTR таких страниц просел в среднем на 42%. Причина — алгоритм Gemini Search теперь занижает страницы без первичных источников и авторской цитируемости. HubSpot уже свернул 80% автоматических публикаций и вернулся к гибридной схеме: AI делает драфт, человек дописывает аналитику. Конверсия выросла на 37%.

Для инвесторов: пик генеративных стартапов позади. В 2023–2024 рынок контент-AI вырос до $21 млрд, но в 2025 темпы замедлились до +6% против +38% годом ранее (по PitchBook). Капитал перетекает в инструменты фильтрации и «human-in-the-loop»-платформы — Content at Scale, Writer.com, Jasper внедряют human-review API. Новая метрика — not output, а retention: сколько текстов реально читают.

Для людей: алгоритмы начинают снова ценить личный опыт. TikTok и YouTube уже добавили «original creator»-теги, а LinkedIn в мае стал маркировать AI-посты. В итоге люди всё чаще кликают на живые профили — средняя вовлечённость по контенту с подтверждённым автором выше на 61%. Восстановление доверия к человеку идёт быстрее, чем ожидали.

🚨 Нам 3.14здец

Медиа и SEO-агентства — 8/10 — почему: индустрия выдохлась, трафик не растёт, а 70% страниц сгенерированы ради метрик, не смысла. Что делать — перестраивать производство под экспертов, где ИИ помогает, но не решает.

Контент-фабрики и блогеры — 9/10 — почему: вопрос теперь не «кто пишет», а «кто режиссирует». Контент едят не в первоисточнике, а через сжигатели — Summarize.ai, Recast, или TikTok-каналы, где подкаст в час превращают в 30 секунд. Появилась армия «интерпретаторов», которые переплавляют чужие тексты, видео и идеи в «свои» посты, фактически прогоняя их через AI-фильтр. В итоге даже «человеческий» контент — это голос, читающий сценарий, написанный ИИ.

Что делать — возвращать ручной смысл: строить бренд вокруг позиции, а не потока.
Вывод: мы уже не боремся за правду, мы боремся за контекст. ИИ пишет тексты, люди их режут, алгоритмы решают, что покажут другим. Интернет стал фабрикой усреднённого смысла — и чем выше скорость, тем меньше глубины.

Коротко: интернет снова выбирает смысл. Машинам достанется скорость, а людям — доверие.
1👍159
И что?

Говорят, что Сбер - это ИТ компания. Кассиров в отделениях, пока не трогают. Увидимся на следующей неделе.
19👍5🤪1
Media is too big
VIEW IN TELEGRAM
В городе Люянь прошло супер световое шоу, в котором одновременно взлетели 15 947 дронов, управляемых с одного компьютера.

Организаторы заявили, что это событие побило два мировых рекорда Гиннесса: по числу дронов и по масштабности светового эффекта.

И что?

Просто на подумать.
1🔥10
Бизнес психологов и психотерапевтов занят тем, чтобы латать последствия тревог. Семья, работа, кредиты, новости. В 2025-м добавилась новая категория клиентов — те, кто тревожится из-за искусственного интеллекта.

Pew Research провели опрос 28 000 взрослых в 25 странах и выяснили, что уровень беспокойства от ИИ растёт быстрее, чем оптимизм.
В США, Италии, Австралии и Греции — ровно 50% респондентов чувствуют тревогу из-за роста использования ИИ.

Оптимистов — около 20%. В Израиле и Южной Корее всё наоборот: доля позитивно настроенных — 29% и 26% соответственно. Европа — тревожный континент, Азия — прагматичный.

Самый высокий уровень доверия к регуляции — у Евросоюза: 53% опрошенных считают его самым надёжным надзирателем за ИИ. США набрали 37%, Китай — 27%.

Это превращает европейскую сертификацию в маркетинговый актив. Уже сейчас компании из США и Азии, работающие в сфере здравоохранения и финтеха, добавляют фразу «compliant with EU AI Act» в презентации и пичдеки.

Возрастная граница тоже чёткая: до 35 лет — выше осведомлённость и больше оптимизма, старше 50 — наоборот. В Греции разрыв между поколениями по уровню доверия к ИИ — 44 процентных пункта.

И что?

Для бизнеса: рынок делится по эмоциям. В ЕС продаём «контроль и безопасность», в США — «надёжность и прозрачность», в Азии — «эффективность и рост». Компании, которые смогут упаковать ИИ в доверие, выживут.

Британский стартап Luminance после сертификации под EU AI Act получил +38% новых корпоративных клиентов за квартал — просто потому, что юристы теперь ищут «легальный ИИ». В Германии сеть клиник Helios внедрила объяснимую ИИ-систему для диагностики и снизила жалобы пациентов на «ошибки машины» на 41%. В США Workday добавил в интерфейс кнопку «проверено человеком» — и увеличил конверсию B2B-продаж на 22%, особенно среди компаний 1000+ сотрудников.

Для инвесторов: внимание к регуляциям и сертификации превращается в премию к оценке. Продукты, адаптированные под EU AI Act, будут стоить дороже — как «зеленые облигации» своего времени.

Фонды, вкладывающие в «trustable AI» (пример — Sequoia и Accel), показали в среднем +18% доходности к Q3 2024 по сравнению с общим AI-индексом MSCI. После вступления AI Act в силу доля сделок в ЕС, где упоминается compliance-аудит, выросла с 9% до 27%. А стартапы, включённые в регистр сертифицированных решений, получают на 25–30% выше оценку на pre-seed стадиях — данные Dealroom.

Для людей: тревога — не баг, а индикатор. Понимание технологий снижает стресс. В странах, где население больше обучено работе с ИИ (например, Южная Корея), уровень страха вдвое ниже.

В Южной Корее 62% компаний уже проводят внутренние курсы по использованию ИИ — тревога среди работников упала с 46% до 23%. В Израиле Министерство труда субсидирует переобучение под AI-профессии — более 40 000 человек прошли базовые курсы за полгода. В Греции, где таких программ почти нет, уровень страха остался рекордным — 54%. Паттерн простой: где учат — там меньше тревоги, больше рабочих мест.

Нам 3.14здец

Всем нам 10/10 - тревоги не на пустом месте
4
Любой, кто пытался внедрить ИИ в бизнес, знает — ассистенты умные, но бесполезные. Они не знают, как устроен твой документооборот, как согласовывать счета и по какой форме писать отчёт. И каждый раз приходится учить с нуля. Anthropic решила закрыть эту дыру.

Они выкатили Skills for Claude  систему, где ИИ получает доступ к «папкам знаний». В каждой папке — инструкции, шаблоны, код, регламенты и даже брендгайды. Claude сам выбирает, что открыть и как применить. Хочешь, чтобы ассистент готовил квартальные отчёты по внутренним шаблонам? Просто загружаешь «skill» — и всё работает без кода.

Anthropic называет это «progressive disclosure»: сначала Claude видит названия навыков, потом сам решает, какие активировать. Несколько Skills можно комбинировать — HR и финансы в одном сценарии. В итоге Claude превращается не в болтливого ассистента, а в полноценного корпоративного сотрудника, который знает процедуры лучше, чем сами сотрудники.

И что?

Для бизнеса: Skills сокращают внедрение ИИ с месяцев до дней. Компания BetaWorksперенесла в Claude все HR и Support-процессы — onboarding новых сотрудников теперь занимает 3 дня вместо 2 недель. Airbusтестирует Skills для отчётности: подготовка отчёта по соответствию сократилась с 14 часов до 40 минут.

Для инвесторов: Anthropic выстраивает экосистему, где продаются не модели, а готовые рабочие навыки. При 100 тыс. корпоративных Skills и средней подписке $100 в месяц рынок — $120 млн в год, без учёта кастомных решений. Компания с оценкой $61,5 млрд становится инфраструктурным игроком, а не просто конкурентом OpenAI.

Для людей: Skills убирают страх «я не программист». 6 из 10 пользователей беты собирают свои папки без строчки кода. Маркетолог может загрузить свои шаблоны кампаний, бухгалтер — отчётность, юрист — типовые договоры. Это не замена людей — это апгрейд их функций.

🚨 Нам 3.14здец

Внутренние разработчики — 8/10. 80% корпоративных автоматизаций делали они — теперь любой менеджер может собрать тот же процесс через Claude без строчки кода. Что делать: учиться проектировать Skills, иначе останутся «админами для ИИ».

Консультанты по оптимизации процессов — 7/10. McKinsey и Accenture продают «карту процессов» за сотни тысяч. Claude с Skills делает это за часы, и с привязкой к реальным данным. Что делать: уходить в аудит и валидацию ИИ-процессов, пока это не сделала сама Anthropic.

Саппорт и HR-отделы — 6/10. Всё, что повторяется — мигрирует в Skills. В бете уже 62% сценариев — шаблонные ответы, проверка анкет и ввод данных. Что делать: становиться дизайнерами коммуникаций, а не операторами.
👍65