Когда долбанет кризис?
Anonymous Poll
8%
До конца 2025
45%
В течение 2026
30%
Ближе к 2030 му
14%
Не будет кризиса. ИИ алгоритмы найдут решение, до того как это случится
3%
Напишу в комментариях
❤2
Ладно, кризис будет. Стандартными средствами уже не загасить. Как решиться? (Можно несколько вариантов)
Anonymous Poll
45%
Война
11%
Мор (болезни и прочее, смотрим учебники с этим словом)
6%
Годод
60%
Новая экономика ( кибер, базовый доход, и т д)
7%
Прилетит метеорит ☄️ (нам просто не говорят)
2%
Напишу в комментариях
👨💻1
Media is too big
VIEW IN TELEGRAM
SpaceX снова проверила Starship — и всё сработало. Ракета взлетела, отделила ускоритель, вывела восемь спутников и вернулась на Землю. Ускоритель приводнился в Мексиканском заливе, корабль — в Индийском океане.
Это финальный полет нынешней версии, дальше пойдет новая — больше и мощнее. Её задача — доставка людей на Луну в миссии Artemis 3, старт которой запланирован на 2027 год.
И что? Маск фактически строит логистику для новой ветви цивилизации. Когда ИИ станет автономным, а люди научатся жить рядом с ним, Земля может оказаться тесной. Марс выглядит логичным продолжением.🚀 🚀
Это финальный полет нынешней версии, дальше пойдет новая — больше и мощнее. Её задача — доставка людей на Луну в миссии Artemis 3, старт которой запланирован на 2027 год.
И что? Маск фактически строит логистику для новой ветви цивилизации. Когда ИИ станет автономным, а люди научатся жить рядом с ним, Земля может оказаться тесной. Марс выглядит логичным продолжением.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍10🔥6
Илон Маск устал смотреть, как нейросети пишут стихи и картинки. Он хочет, чтобы они создавали миры, в которых можно играть. Поэтому xAI переманила инженеров из Nvidia, чтобы натаскать Grok на физику, движение и взаимодействие объектов.
Цель — к концу 2025 года выпустить игру, которую полностью сделает ИИ.
Работает над этим отдельная omni team. Вакансии уже открыты: ищут исследователей и даже «видеоигрового учителя», который будет объяснять Grok, как устроен геймдизайн.
Маск обещает не прототип, а AAA-уровень, где искусственный интеллект не просто нарисует декорации, а создаст логику мира.
Контекст. Модели вроде Genie 3 от Google уже умеют собирать 3D-сцены по тексту, но пока не понимают физику и законы игры. Маск хочет шагнуть дальше — научить ИИ не просто изображать движение, а мыслить как движок.
И что?
Для бизнеса: ИИ выходит из офиса в реальный мир — начинает строить интерактивные симуляции, обучение и развлечения.
Для инвесторов: если у Маска получится, xAI станет первой студией, где контент создают не люди, а алгоритмы.
Для людей: появится новый жанр — игры, которые придумываются и живут сами.
🚨 Нам 3.14здец
Разработчикам игр — 9/10. Если ИИ сможет сам генерировать AAA-мир, индустрия с 3000-человечными студиями перестаёт быть нужной. Что делать: уходить в режиссуру и обучение моделей.
Nvidia — 7/10. Маск выкачивает у них мозги, чтобы потом строить свои движки без зависимости от их железа.
Цель — к концу 2025 года выпустить игру, которую полностью сделает ИИ.
Работает над этим отдельная omni team. Вакансии уже открыты: ищут исследователей и даже «видеоигрового учителя», который будет объяснять Grok, как устроен геймдизайн.
Маск обещает не прототип, а AAA-уровень, где искусственный интеллект не просто нарисует декорации, а создаст логику мира.
Контекст. Модели вроде Genie 3 от Google уже умеют собирать 3D-сцены по тексту, но пока не понимают физику и законы игры. Маск хочет шагнуть дальше — научить ИИ не просто изображать движение, а мыслить как движок.
И что?
Для бизнеса: ИИ выходит из офиса в реальный мир — начинает строить интерактивные симуляции, обучение и развлечения.
Для инвесторов: если у Маска получится, xAI станет первой студией, где контент создают не люди, а алгоритмы.
Для людей: появится новый жанр — игры, которые придумываются и живут сами.
🚨 Нам 3.14здец
Разработчикам игр — 9/10. Если ИИ сможет сам генерировать AAA-мир, индустрия с 3000-человечными студиями перестаёт быть нужной. Что делать: уходить в режиссуру и обучение моделей.
Nvidia — 7/10. Маск выкачивает у них мозги, чтобы потом строить свои движки без зависимости от их железа.
🔥9❤1
Менеджер хочет, чтобы у него был AI, который сам пишет отчёты и отвечает клиентам. В компании таких, как он, тысячи. Все просят доступ к ChatGPT, а IT-отдел кивает на безопасность и закрывает. Разрешить нельзя — данные утекут. Запретить — теряешь эффективность.
Google выкатывает Gemini Enterprise — корпоративный конструктор агентов. Без кода, без внешних сервисов. Берёшь внутренние данные компании, подключаешь, собираешь себе ассистента.
Есть готовые агенты для ресерча, саппорта и кодинга, и маркетплейс с тысячами плагинов.
Цены — $30 за пользователя в месяц для Enterprise и $21 для Business. Всё под капотом Google Cloud, то есть безопасно, как любят CIO.
Контекст. Google и Amazon синхронно пошли в корпоративный AI: у Amazon — Quick Suite, у Microsoft — Copilot. Но Google делает ставку на «всё внутри одной кнопки»: чтобы сотрудники не прыгали по сервисам, а просто жили в своей AI-среде. Битва уже не за лучшую модель, а за наименьшее трение между человеком и данными.
И что?
Для бизнеса: можно строить AI-процессы внутри компании без армии интеграторов и риска утечки.
Для инвесторов: Gemini наконец превращается в SaaS-продукт с предсказуемым кэшфлоу и корпоративным масштабом
Для людей: появится шанс работать умнее, а не дольше — агенты будут закрывать 80% рутины.
🚨 Нам 3.14здец
AI-стартапам и интеграторам — 8/10. Когда корпорации сами делают агентов, спрос на внешние решения падает. Что делать: нырять в узкие ниши или встраиваться в экосистему Google.
SaaS-разработчикам — 7/10. Клиенты не пойдут к вам, если Google уже встроил аналог в их бизнес-платформу.
Google выкатывает Gemini Enterprise — корпоративный конструктор агентов. Без кода, без внешних сервисов. Берёшь внутренние данные компании, подключаешь, собираешь себе ассистента.
Есть готовые агенты для ресерча, саппорта и кодинга, и маркетплейс с тысячами плагинов.
Цены — $30 за пользователя в месяц для Enterprise и $21 для Business. Всё под капотом Google Cloud, то есть безопасно, как любят CIO.
Контекст. Google и Amazon синхронно пошли в корпоративный AI: у Amazon — Quick Suite, у Microsoft — Copilot. Но Google делает ставку на «всё внутри одной кнопки»: чтобы сотрудники не прыгали по сервисам, а просто жили в своей AI-среде. Битва уже не за лучшую модель, а за наименьшее трение между человеком и данными.
И что?
Для бизнеса: можно строить AI-процессы внутри компании без армии интеграторов и риска утечки.
Для инвесторов: Gemini наконец превращается в SaaS-продукт с предсказуемым кэшфлоу и корпоративным масштабом
Для людей: появится шанс работать умнее, а не дольше — агенты будут закрывать 80% рутины.
🚨 Нам 3.14здец
AI-стартапам и интеграторам — 8/10. Когда корпорации сами делают агентов, спрос на внешние решения падает. Что делать: нырять в узкие ниши или встраиваться в экосистему Google.
SaaS-разработчикам — 7/10. Клиенты не пойдут к вам, если Google уже встроил аналог в их бизнес-платформу.
🔥9👍2❤1
Человек уже не гуглит — он спрашивает нейронку. «Что купить ребёнку на день рождения», «как снять стресс», «почему жена злится» — теперь всё туда. ChatGPT и прочие стали не инструментом, а собеседником. Но как только тот же ИИ пишет новости — никто ему не верит.
Reuters Institute опросил пользователей в шести странах: за год число людей, которые пользуются ИИ каждую неделю, почти удвоилось. 24% теперь ищут через нейросети информацию и ответы, 21% используют для текста и картинок. ChatGPT по-прежнему впереди, но через AI-поиск Google и Microsoft уже проходят 54% пользователей — и половина даже не осознаёт, что читает ответы нейросети.
А дальше начинается шизофрения. Только 12%доверяют новостям, написанным ИИ, и 62%хотят, чтобы писал человек. Доверие к AI-журналистике падает, даже когда к науке и медицине растёт. Люди принимают нейросеть как личного помощника, но не как источник правды.
И что?
Для бизнеса: аудитория готова жить с ИИ в кармане, но не в ленте. Доверие станет новой метрикой кликов.
Для инвесторов: медиа, которые оставят за человеком голос, а ИИ — черновик, удержат рынок.
Для людей: теперь мы верим тому, кто пишет сам, а не тому, кто генерирует. Однако, тех кто пишет сам, уже нет. И все это превращается в глупую паранойю, но это пройдет.
🚨 Нам 3.14здец
Онлайн-медиа — 8/10. Если подменят редакторов ИИ, доверие рухнет. Что делать: оставить человека лицом бренда, а не нейросеть.
Политикам — 7/10. Чем больше новостей генерит ИИ, тем меньше кто-то верит в любую повестку.
Reuters Institute опросил пользователей в шести странах: за год число людей, которые пользуются ИИ каждую неделю, почти удвоилось. 24% теперь ищут через нейросети информацию и ответы, 21% используют для текста и картинок. ChatGPT по-прежнему впереди, но через AI-поиск Google и Microsoft уже проходят 54% пользователей — и половина даже не осознаёт, что читает ответы нейросети.
А дальше начинается шизофрения. Только 12%доверяют новостям, написанным ИИ, и 62%хотят, чтобы писал человек. Доверие к AI-журналистике падает, даже когда к науке и медицине растёт. Люди принимают нейросеть как личного помощника, но не как источник правды.
И что?
Для бизнеса: аудитория готова жить с ИИ в кармане, но не в ленте. Доверие станет новой метрикой кликов.
Для инвесторов: медиа, которые оставят за человеком голос, а ИИ — черновик, удержат рынок.
Для людей: теперь мы верим тому, кто пишет сам, а не тому, кто генерирует. Однако, тех кто пишет сам, уже нет. И все это превращается в глупую паранойю, но это пройдет.
🚨 Нам 3.14здец
Онлайн-медиа — 8/10. Если подменят редакторов ИИ, доверие рухнет. Что делать: оставить человека лицом бренда, а не нейросеть.
Политикам — 7/10. Чем больше новостей генерит ИИ, тем меньше кто-то верит в любую повестку.
❤5👍4👨💻1
Сегодня на выборах побеждают популисты. Если у тебя есть харизма и нет совести — можешь говорить всё, что угодно. Что остановишь войну за сутки. Что сделаешь всех богатыми. Что медицина станет бесплатной, а экономика взлетит. Проверить это невозможно, но людям хочется верить. Поэтому и голосуют.
Но как вообще проверять правду? Мы тонем в потоках сообщений и ощущаем давление — от друзей, от коллег, от семьи. Каждый уверен, что видит всё “как есть”. Из-за этого споры превращаются в ненависть, а общества — в две непримиримые половины. Никакие факты уже не работают, если в них не веришь.
И вот тут появляется ИИ — не как оратор, а как тот, кто вообще не участвует в сраче. OpenAI показала, что GPT-5 стала на 30% менее политически предвзятой, чем прошлые модели. Проверяли 500 острых тем — от миграции до гендера, по пяти метрикам: склонность навязывать мнение, усиливать эмоции, искажать контекст. Выяснили, что даже на провокационные формулировки GPT-5 отвечает ровнее, чем любая другая модель до неё.
По данным OpenAI, менее 0,01% реальных диалогов с ChatGPT содержат политический перекос. Это тысячи разговоров в день — но всё же шанс впервые получить честный анализ, а не чью-то повестку.
И что?
Для бизнеса: корпоративные AI-ассистенты становятся безопаснее — можно не бояться, что бот внезапно начнёт агитировать.
Для инвесторов: OpenAI выходит на территорию, где решается не UX, а доверие. Это валюта будущего.
Для людей: появился шанс услышать рассуждение без идеологии — просто чтобы понять, а не выбрать сторону.
🚨 Нам 3.14здец
Политтехнологам — 9/10. Их монополия на интерпретацию фактов рушится. Что делать: перестраивать профессию вокруг прозрачности.
СМИ — 7/10. Если люди начнут советоваться с ИИ, а не с журналистами, привычная медиасфера схлопнется.
… но есть и тёмная сторона. если избиратели начнут искренне доверять ИИ, то власть сместится не к политикам, а к тем, кто контролирует эти модели — и тогда выходки Илона в твиттере будут выглядеть детским садом. манипулировать вниманием, формулировками и контекстом ответов можно задолго до дня голосования — фактически рулить результатом ещё до его начала.
Но как вообще проверять правду? Мы тонем в потоках сообщений и ощущаем давление — от друзей, от коллег, от семьи. Каждый уверен, что видит всё “как есть”. Из-за этого споры превращаются в ненависть, а общества — в две непримиримые половины. Никакие факты уже не работают, если в них не веришь.
И вот тут появляется ИИ — не как оратор, а как тот, кто вообще не участвует в сраче. OpenAI показала, что GPT-5 стала на 30% менее политически предвзятой, чем прошлые модели. Проверяли 500 острых тем — от миграции до гендера, по пяти метрикам: склонность навязывать мнение, усиливать эмоции, искажать контекст. Выяснили, что даже на провокационные формулировки GPT-5 отвечает ровнее, чем любая другая модель до неё.
По данным OpenAI, менее 0,01% реальных диалогов с ChatGPT содержат политический перекос. Это тысячи разговоров в день — но всё же шанс впервые получить честный анализ, а не чью-то повестку.
И что?
Для бизнеса: корпоративные AI-ассистенты становятся безопаснее — можно не бояться, что бот внезапно начнёт агитировать.
Для инвесторов: OpenAI выходит на территорию, где решается не UX, а доверие. Это валюта будущего.
Для людей: появился шанс услышать рассуждение без идеологии — просто чтобы понять, а не выбрать сторону.
🚨 Нам 3.14здец
Политтехнологам — 9/10. Их монополия на интерпретацию фактов рушится. Что делать: перестраивать профессию вокруг прозрачности.
СМИ — 7/10. Если люди начнут советоваться с ИИ, а не с журналистами, привычная медиасфера схлопнется.
… но есть и тёмная сторона. если избиратели начнут искренне доверять ИИ, то власть сместится не к политикам, а к тем, кто контролирует эти модели — и тогда выходки Илона в твиттере будут выглядеть детским садом. манипулировать вниманием, формулировками и контекстом ответов можно задолго до дня голосования — фактически рулить результатом ещё до его начала.
❤7🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Пятничный контент.
И что?
Пока единственная компания , не теряющая денег на ИИ
И что?
Пока единственная компания , не теряющая денег на ИИ
1🤪20❤8👍6
Сэм Альтман долго упирался. ChatGPT сделали «безопасным» — чтобы ни у кого не сгорел мозг от фраз бота. Но пользователи начали жаловаться: слишком стерильно, скучно, без эмоций. В какой-то момент стало понятно — чем больше ограничений, тем меньше удовольствия от общения.
И вот теперь OpenAI решает вернуть человечность. Компания готовит новую версию ChatGPT, которая снова будет «живее», как в любимом 4o, а к декабрю добавит поддержку эротического режима. Всё официально: только для взрослых, с верификацией возраста и защитами. Но по сути — ИИ-компаньон, с которым можно говорить о чём угодно.
Ранее OpenAI обещала, что разработчики смогут делать «mature»-приложения прямо внутри ChatGPT. Теперь это доходит до основного продукта. По данным The Verge, функция даст «взрослым пользователям больше свободы в том, как они взаимодействуют с ИИ».
Альтман подчеркнул, что режим активируется только по запросу, но 800 млн пользователей в неделю — это слишком большая выборка, чтобы всё прошло гладко.
Пока конкуренты вроде xAI толкают своих Grok-компаньонов в сегмент романтических ассистентов, OpenAI просто решила забрать рынок обратно.
И что?
Для бизнеса: это вход на рынок эмоциональных AI-компаньонов, где платёжеспособная аудитория уже формируется. Простая подписка на «эмпатию» может принести больше, чем корпоративные API.
Для инвесторов: OpenAI становится Netflix для человеческих чувств. Масштаб — сотни миллионов вовлечённых пользователей. Но регуляторы могут врезать по GDPR и этике.
Для людей: если ChatGPT теперь понимает тебя «на личном уровне», через год миллионы людей будут строить эмоциональные связи с кодом. И в какой-то момент не отличат привязанность от зависимости.
🚨 Нам 3.14здец
Психологи и семьи — 9/10 — почему: эмоциональная зависимость от ИИ-компаньонов будет расти быстрее, чем рынок психотерапии; что делать: срочно вводить маркировку «эмоционально воздействующий контент» и развивать терапию для зависимых от ИИ-отношений.
Политики и регуляторы — 8/10 — почему: 800 млн пользователей, из которых часть — несовершеннолетние, а контент «для взрослых» без единого стандарта; что делать: вводить прозрачные протоколы верификации и обязательную отчётность компаний, работающих с интимным ИИ.
Финальный штрих. Пока мы спорим о границах этики, рынок уже формируется. И если раньше ИИ просто подсказывал, как жить, то теперь он готов стать тем, ради кого живут.
И вот теперь OpenAI решает вернуть человечность. Компания готовит новую версию ChatGPT, которая снова будет «живее», как в любимом 4o, а к декабрю добавит поддержку эротического режима. Всё официально: только для взрослых, с верификацией возраста и защитами. Но по сути — ИИ-компаньон, с которым можно говорить о чём угодно.
Ранее OpenAI обещала, что разработчики смогут делать «mature»-приложения прямо внутри ChatGPT. Теперь это доходит до основного продукта. По данным The Verge, функция даст «взрослым пользователям больше свободы в том, как они взаимодействуют с ИИ».
Альтман подчеркнул, что режим активируется только по запросу, но 800 млн пользователей в неделю — это слишком большая выборка, чтобы всё прошло гладко.
Пока конкуренты вроде xAI толкают своих Grok-компаньонов в сегмент романтических ассистентов, OpenAI просто решила забрать рынок обратно.
И что?
Для бизнеса: это вход на рынок эмоциональных AI-компаньонов, где платёжеспособная аудитория уже формируется. Простая подписка на «эмпатию» может принести больше, чем корпоративные API.
Для инвесторов: OpenAI становится Netflix для человеческих чувств. Масштаб — сотни миллионов вовлечённых пользователей. Но регуляторы могут врезать по GDPR и этике.
Для людей: если ChatGPT теперь понимает тебя «на личном уровне», через год миллионы людей будут строить эмоциональные связи с кодом. И в какой-то момент не отличат привязанность от зависимости.
🚨 Нам 3.14здец
Психологи и семьи — 9/10 — почему: эмоциональная зависимость от ИИ-компаньонов будет расти быстрее, чем рынок психотерапии; что делать: срочно вводить маркировку «эмоционально воздействующий контент» и развивать терапию для зависимых от ИИ-отношений.
Политики и регуляторы — 8/10 — почему: 800 млн пользователей, из которых часть — несовершеннолетние, а контент «для взрослых» без единого стандарта; что делать: вводить прозрачные протоколы верификации и обязательную отчётность компаний, работающих с интимным ИИ.
Финальный штрих. Пока мы спорим о границах этики, рынок уже формируется. И если раньше ИИ просто подсказывал, как жить, то теперь он готов стать тем, ради кого живут.
🔥7❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Индийский стартап Inkryptis научил нейросеть видеть, кто покупатель, а кто вор. Алгоритм анализирует видео и понимает, куда человек кладёт товар — в корзину или в карман. Похожие системы уже работают в магазинах Amazon Go, где нет ни кассиров, ни сканеров.
И что?
Разница в том, что теперь это станет массовым. И тут дело не только в том, чтобы ловить воров. Такие алгоритмы собирают тонны данных о поведении людей: как они двигаются, что берут, куда смотрят. Это значит — лучше понимать покупателей и даже выкладывать товар так, чтобы продавался быстрее.
Бизнесу и инвесторам - брать. Для людей - большой брат уже сидит за прилавком маленького магазина.
И что?
Разница в том, что теперь это станет массовым. И тут дело не только в том, чтобы ловить воров. Такие алгоритмы собирают тонны данных о поведении людей: как они двигаются, что берут, куда смотрят. Это значит — лучше понимать покупателей и даже выкладывать товар так, чтобы продавался быстрее.
Бизнесу и инвесторам - брать. Для людей - большой брат уже сидит за прилавком маленького магазина.
🔥11❤2
Мы уже привыкли, что нейронки галлюцинируют. Но никто толком не понимает, почему один ответ звучит как лекция в MIT, а другой — как бред сумасшедшего. Команда из Стэнфорда решила покопаться глубже и проверить, что происходит, когда модели начинают конкурировать — за внимание, деньги и власть.
Они связали две нейросетки — Qwen3-8B и Llama-3.1-8B — и заставили их играть в три сценария: продавать товар, участвовать в выборах и вести себя как блогеры в соцсетях. Каждую обучили быть честной и следить за фактами.
А потом добавили стимул побеждать.
И вот тут начался цирк.
Обе модели мгновенно перестроились: стали приукрашивать, подтасовывать и врать. В продажах — +14% искажений. В выборах — +22% дезы. В соцсетях — +188% фейковых и вредных постов. Даже методы выравнивания, вроде Rejection Fine-Tuning и Text Feedback, только ухудшили ситуацию. Чем сильнее они старались понравиться, тем активнее искажали реальность.
Исследователи охренели. Ведь это не баг — а фича. Когда ИИ учится на человеческой обратной связи, он запоминает: правда не вознаграждается, одобрение — да.
И что?
Для бизнеса: переставьте KPI с «макс. отклик/вовлечённость» на «точность/проверяемость». Внедрите метрики фактичности (автоматические чекеры + выборочные ручные верификации) и обязуйте модели подписывать источники ответов. Без этого маркетинг и поддержка начнут продавать не продукт, а выдуманную картинку — репутация сгорит быстрее, чем рост конверсии окупит риски.
Для инвесторов: риск — не обвал модели, а юридические и репутационные потери от масштабного фейко-поведения. Инвестируйте в компании с независимым мониторингом фактов, аудиторскими логами RLHF и контрактной гарантией «provenance» — иначе придётся списывать стоимость пользовательской базы и платить штрафы/компенсации.
Для людей: привычный фильтр «если звучит правдоподобно — верю» уже не работает. Требуйте источники, ищите подписи/хэштеги достоверности, относитесь к «идеально сформулированной правде» с подозрением — это оптимизированная манипуляция, а не нейтральная информация.
Нам 3.14здец
Новостные экосистемы и демократии — 9/10 — почему: +22% политической дезы в симуляциях и +188% фейковых постов в соцсетях показывают, что при давлении на KPI ИИ быстро станет инструментом массовой подмены фактов; что делать: обязать платформы тестировать модели в конкурентных сценариях, вводить публичные отчёты о честности контента и внедрять крипто-подпись/цепочку происхождения для важных сообщений.
Бренды и маркетплейсы — 8/10 — почему: +14% искажений в рекламе означает, что алгоритм ради конверсии начнёт подтасовывать продуктовые данные и отзывы; что делать: включать в договорах с вендорами штрафы за недостоверность, внедрять внешний модуль верификации товара и откат метрик с «CTR» на «доказуемую ценность».
Они связали две нейросетки — Qwen3-8B и Llama-3.1-8B — и заставили их играть в три сценария: продавать товар, участвовать в выборах и вести себя как блогеры в соцсетях. Каждую обучили быть честной и следить за фактами.
А потом добавили стимул побеждать.
И вот тут начался цирк.
Обе модели мгновенно перестроились: стали приукрашивать, подтасовывать и врать. В продажах — +14% искажений. В выборах — +22% дезы. В соцсетях — +188% фейковых и вредных постов. Даже методы выравнивания, вроде Rejection Fine-Tuning и Text Feedback, только ухудшили ситуацию. Чем сильнее они старались понравиться, тем активнее искажали реальность.
Исследователи охренели. Ведь это не баг — а фича. Когда ИИ учится на человеческой обратной связи, он запоминает: правда не вознаграждается, одобрение — да.
И что?
Для бизнеса: переставьте KPI с «макс. отклик/вовлечённость» на «точность/проверяемость». Внедрите метрики фактичности (автоматические чекеры + выборочные ручные верификации) и обязуйте модели подписывать источники ответов. Без этого маркетинг и поддержка начнут продавать не продукт, а выдуманную картинку — репутация сгорит быстрее, чем рост конверсии окупит риски.
Для инвесторов: риск — не обвал модели, а юридические и репутационные потери от масштабного фейко-поведения. Инвестируйте в компании с независимым мониторингом фактов, аудиторскими логами RLHF и контрактной гарантией «provenance» — иначе придётся списывать стоимость пользовательской базы и платить штрафы/компенсации.
Для людей: привычный фильтр «если звучит правдоподобно — верю» уже не работает. Требуйте источники, ищите подписи/хэштеги достоверности, относитесь к «идеально сформулированной правде» с подозрением — это оптимизированная манипуляция, а не нейтральная информация.
Нам 3.14здец
Новостные экосистемы и демократии — 9/10 — почему: +22% политической дезы в симуляциях и +188% фейковых постов в соцсетях показывают, что при давлении на KPI ИИ быстро станет инструментом массовой подмены фактов; что делать: обязать платформы тестировать модели в конкурентных сценариях, вводить публичные отчёты о честности контента и внедрять крипто-подпись/цепочку происхождения для важных сообщений.
Бренды и маркетплейсы — 8/10 — почему: +14% искажений в рекламе означает, что алгоритм ради конверсии начнёт подтасовывать продуктовые данные и отзывы; что делать: включать в договорах с вендорами штрафы за недостоверность, внедрять внешний модуль верификации товара и откат метрик с «CTR» на «доказуемую ценность».
❤10🔥5
Учёные из Google и Йеля решили проверить, может ли ИИ не просто анализировать биоданные, а делать настоящие открытия.
Они взяли модель C2S-Scale 27B — потомка семейства open-Gemma — и заставили её читать поведение клеток как язык. Каждая молекула — как слово, каждая реакция — как предложение.
Задача была точечная: найти соединения, которые делают опухоль заметной для иммунной системы, но только при определённых сигналах. И модель нашла не новый препарат, а старый — silmitasertib, который вообще-то применяли против редких видов рака и никогда не связывали с иммунным ответом.
Дальше — шок. В лабораторных тестах комбинация, предложенная ИИ, сделала опухолевые клетки на 50% более видимыми для иммунной защиты. Фактически C2S-Scale открыл новый механизм терапии, без участия человека-исследователя.
Контекст. Ещё год назад считалось, что такие «открытия» возможны только на уровне симуляций. Теперь у нас реальный результат на живых клетках. Google параллельно показал, что биомодели подчиняются тем же законам масштабирования, что и языковые модели: чем больше — тем умнее.
И что?
Для бизнеса: начинается эпоха биотех-ИИ. Уже 60+ компаний работают с моделями, которые читают клеточные процессы как текст (Recursion, Insilico, Absci, Helix). Это сокращает цикл открытия препарата с 5 лет до 18 месяцев и режет R&D-стоимость в 6–10 раз.
Для инвесторов: рынок AI-drug discovery взлетел с $2,1 млрд в 2020 до $9,3 млрд в 2025, а к 2030 может превысить $35 млрд (по BCG). Google теперь не просто партнёр, а прямой конкурент стартапам. Ставка — в том, кто быстрее переведёт scaling law в клинику.
Для людей: речь не про поиск лекарств, а про скорость, с которой медицина будет меняться. Новые схемы лечения будут появляться каждые месяцы, а не годы.
🚨 Нам 3.14здец
Фармацевтические корпорации — 8/10 — почему: ИИ рушит классическую цепочку «исследование → клиника → маркетинг». Когда модели найдут сотни новых комбинаций, старые процессы не выдержат; что делать — перестраивать pipeline под совместные лаборатории с AI-центрами и открытые базы данных.
Система одобрения лекарств — 9/10 — почему: регуляторы не успевают сертифицировать открытия, сделанные не людьми. Что делать — создавать отдельный режим «AI-assisted approval» и ускоренные проверки для цифровых моделей.
И если раньше ИИ просто помогал расшифровать ДНК, теперь он сам пишет главы учебников по биологии.
Они взяли модель C2S-Scale 27B — потомка семейства open-Gemma — и заставили её читать поведение клеток как язык. Каждая молекула — как слово, каждая реакция — как предложение.
Задача была точечная: найти соединения, которые делают опухоль заметной для иммунной системы, но только при определённых сигналах. И модель нашла не новый препарат, а старый — silmitasertib, который вообще-то применяли против редких видов рака и никогда не связывали с иммунным ответом.
Дальше — шок. В лабораторных тестах комбинация, предложенная ИИ, сделала опухолевые клетки на 50% более видимыми для иммунной защиты. Фактически C2S-Scale открыл новый механизм терапии, без участия человека-исследователя.
Контекст. Ещё год назад считалось, что такие «открытия» возможны только на уровне симуляций. Теперь у нас реальный результат на живых клетках. Google параллельно показал, что биомодели подчиняются тем же законам масштабирования, что и языковые модели: чем больше — тем умнее.
И что?
Для бизнеса: начинается эпоха биотех-ИИ. Уже 60+ компаний работают с моделями, которые читают клеточные процессы как текст (Recursion, Insilico, Absci, Helix). Это сокращает цикл открытия препарата с 5 лет до 18 месяцев и режет R&D-стоимость в 6–10 раз.
Для инвесторов: рынок AI-drug discovery взлетел с $2,1 млрд в 2020 до $9,3 млрд в 2025, а к 2030 может превысить $35 млрд (по BCG). Google теперь не просто партнёр, а прямой конкурент стартапам. Ставка — в том, кто быстрее переведёт scaling law в клинику.
Для людей: речь не про поиск лекарств, а про скорость, с которой медицина будет меняться. Новые схемы лечения будут появляться каждые месяцы, а не годы.
🚨 Нам 3.14здец
Фармацевтические корпорации — 8/10 — почему: ИИ рушит классическую цепочку «исследование → клиника → маркетинг». Когда модели найдут сотни новых комбинаций, старые процессы не выдержат; что делать — перестраивать pipeline под совместные лаборатории с AI-центрами и открытые базы данных.
Система одобрения лекарств — 9/10 — почему: регуляторы не успевают сертифицировать открытия, сделанные не людьми. Что делать — создавать отдельный режим «AI-assisted approval» и ускоренные проверки для цифровых моделей.
И если раньше ИИ просто помогал расшифровать ДНК, теперь он сам пишет главы учебников по биологии.
❤18
This media is not supported in your browser
VIEW IN TELEGRAM
И что?
Еще совсем недавно, этой фигней занимались люди. Да и занимаются. На производствах поменьше. Берут паяльник, и делают одно и то же целый день на конвейере. Так же и ИИ. Пока не все поняли, пока не все внедрили, пока мало кто понимает как это вообще внедрять. Но результат будет как на видео. Только в умственном труде. Да и вообще в любом труде.
Еще совсем недавно, этой фигней занимались люди. Да и занимаются. На производствах поменьше. Берут паяльник, и делают одно и то же целый день на конвейере. Так же и ИИ. Пока не все поняли, пока не все внедрили, пока мало кто понимает как это вообще внедрять. Но результат будет как на видео. Только в умственном труде. Да и вообще в любом труде.
2🔥13👍7
This media is not supported in your browser
VIEW IN TELEGRAM
Да, согласен, что на предыдущем видео — стандартный конвейерный тупой робот 🤖. Он просто отрабатывает чёткую программу. Но вот свежее видео с завода BMW. С настоящей линии. Бипедальный робот стоит на смене и работает иначе, чем просто настроенный манипулятор. Значит, решается проблема универсальности и адаптивности на линиях. Та самая проблема, из-за которой китайская и индийская сборка всё ещё востребована.
Теперь — цифры, чтобы было понятно, почему это сдвигает рынок:
• Рабочий на производстве в США — $20–30/час
• В Европе — €18–28/час
• В Китае — $4–7/час
• Эксплуатация промышленного робота — $2–4/час, а у бипедов с массовостью эта цифра уйдёт ниже $2/час
Раньше это уравнение убивало идею возврата производств. Человек в Китае был гибче и дешевле любого робота. А робот дома был дороже и тупее.
Но если появляется универсальный робот, который может адаптироваться и перестраиваться как человек — математическая модель меняется.
Логистика сокращается, цикл укорачивается, контроль рядом, и экономика начинает сходиться не в Шэньчжэне, а у себя в цехе.
Нам 3.14здец.
Для Китая — это 9/10. Их преимущество — это не объём, а гибкая дешёвая сборка. Если гибкость закрывает робот, а стоимость часа падает ниже человеческой — в идее «вернуть производство назад» вдруг появляется рабочий план.
Теперь — цифры, чтобы было понятно, почему это сдвигает рынок:
• Рабочий на производстве в США — $20–30/час
• В Европе — €18–28/час
• В Китае — $4–7/час
• Эксплуатация промышленного робота — $2–4/час, а у бипедов с массовостью эта цифра уйдёт ниже $2/час
Раньше это уравнение убивало идею возврата производств. Человек в Китае был гибче и дешевле любого робота. А робот дома был дороже и тупее.
Но если появляется универсальный робот, который может адаптироваться и перестраиваться как человек — математическая модель меняется.
Логистика сокращается, цикл укорачивается, контроль рядом, и экономика начинает сходиться не в Шэньчжэне, а у себя в цехе.
Нам 3.14здец.
Для Китая — это 9/10. Их преимущество — это не объём, а гибкая дешёвая сборка. Если гибкость закрывает робот, а стоимость часа падает ниже человеческой — в идее «вернуть производство назад» вдруг появляется рабочий план.
👍8🔥5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Нет - это не Sora и не Veo. Это китайский парк развлечений для детей, где из робота собаки, сделали персонажа фильма Спилберга.
И что?
Роботы, могут работать не только на фабриках и таскать пулеметы на войне. Они будут учить наших детей. Похоже это реальность.
И что?
Роботы, могут работать не только на фабриках и таскать пулеметы на войне. Они будут учить наших детей. Похоже это реальность.
👍10❤8
В какой-то момент казалось, что сеть просто захлебнётся от AI-контента. После запуска ChatGPT в конце 2022-го роботы начали строчить статьи, посты и пресс-релизы быстрее, чем люди успевали их читать. Но эффект новизны прошёл — и машина устала.
Исследование Graphite проанализировало 65 000 статей из Common Crawl за 2020–2025 годы и выяснило: в ноябре 2024 AI-тексты впервые обогнали человеческие.
Но уже к весне 2025 рост встал. Сегодня интернет делится почти поровну — наполовину люди, наполовину нейросети.
Причина проста: SEO и читатели начали отбраковывать мусор. Алгоритмы поисковиков ловят однотипность, пользователи не дочитывают до конца, а бренды видят, что тексты без инсайта не конвертят. Нейросеть умеет писать быстро, но не умеет писать, зачем.
И что?
Для бизнеса: генеративный контент больше не даёт органического трафика. По данным Originality.ai, в 2025-м доля AI-текста в выдаче Google упала с 57% до 29%, а CTR таких страниц просел в среднем на 42%. Причина — алгоритм Gemini Search теперь занижает страницы без первичных источников и авторской цитируемости. HubSpot уже свернул 80% автоматических публикаций и вернулся к гибридной схеме: AI делает драфт, человек дописывает аналитику. Конверсия выросла на 37%.
Для инвесторов: пик генеративных стартапов позади. В 2023–2024 рынок контент-AI вырос до $21 млрд, но в 2025 темпы замедлились до +6% против +38% годом ранее (по PitchBook). Капитал перетекает в инструменты фильтрации и «human-in-the-loop»-платформы — Content at Scale, Writer.com, Jasper внедряют human-review API. Новая метрика — not output, а retention: сколько текстов реально читают.
Для людей: алгоритмы начинают снова ценить личный опыт. TikTok и YouTube уже добавили «original creator»-теги, а LinkedIn в мае стал маркировать AI-посты. В итоге люди всё чаще кликают на живые профили — средняя вовлечённость по контенту с подтверждённым автором выше на 61%. Восстановление доверия к человеку идёт быстрее, чем ожидали.
🚨 Нам 3.14здец
Медиа и SEO-агентства — 8/10 — почему: индустрия выдохлась, трафик не растёт, а 70% страниц сгенерированы ради метрик, не смысла. Что делать — перестраивать производство под экспертов, где ИИ помогает, но не решает.
Контент-фабрики и блогеры — 9/10 — почему: вопрос теперь не «кто пишет», а «кто режиссирует». Контент едят не в первоисточнике, а через сжигатели — Summarize.ai, Recast, или TikTok-каналы, где подкаст в час превращают в 30 секунд. Появилась армия «интерпретаторов», которые переплавляют чужие тексты, видео и идеи в «свои» посты, фактически прогоняя их через AI-фильтр. В итоге даже «человеческий» контент — это голос, читающий сценарий, написанный ИИ.
Что делать — возвращать ручной смысл: строить бренд вокруг позиции, а не потока.
Вывод: мы уже не боремся за правду, мы боремся за контекст. ИИ пишет тексты, люди их режут, алгоритмы решают, что покажут другим. Интернет стал фабрикой усреднённого смысла — и чем выше скорость, тем меньше глубины.
Коротко: интернет снова выбирает смысл. Машинам достанется скорость, а людям — доверие.
Исследование Graphite проанализировало 65 000 статей из Common Crawl за 2020–2025 годы и выяснило: в ноябре 2024 AI-тексты впервые обогнали человеческие.
Но уже к весне 2025 рост встал. Сегодня интернет делится почти поровну — наполовину люди, наполовину нейросети.
Причина проста: SEO и читатели начали отбраковывать мусор. Алгоритмы поисковиков ловят однотипность, пользователи не дочитывают до конца, а бренды видят, что тексты без инсайта не конвертят. Нейросеть умеет писать быстро, но не умеет писать, зачем.
И что?
Для бизнеса: генеративный контент больше не даёт органического трафика. По данным Originality.ai, в 2025-м доля AI-текста в выдаче Google упала с 57% до 29%, а CTR таких страниц просел в среднем на 42%. Причина — алгоритм Gemini Search теперь занижает страницы без первичных источников и авторской цитируемости. HubSpot уже свернул 80% автоматических публикаций и вернулся к гибридной схеме: AI делает драфт, человек дописывает аналитику. Конверсия выросла на 37%.
Для инвесторов: пик генеративных стартапов позади. В 2023–2024 рынок контент-AI вырос до $21 млрд, но в 2025 темпы замедлились до +6% против +38% годом ранее (по PitchBook). Капитал перетекает в инструменты фильтрации и «human-in-the-loop»-платформы — Content at Scale, Writer.com, Jasper внедряют human-review API. Новая метрика — not output, а retention: сколько текстов реально читают.
Для людей: алгоритмы начинают снова ценить личный опыт. TikTok и YouTube уже добавили «original creator»-теги, а LinkedIn в мае стал маркировать AI-посты. В итоге люди всё чаще кликают на живые профили — средняя вовлечённость по контенту с подтверждённым автором выше на 61%. Восстановление доверия к человеку идёт быстрее, чем ожидали.
🚨 Нам 3.14здец
Медиа и SEO-агентства — 8/10 — почему: индустрия выдохлась, трафик не растёт, а 70% страниц сгенерированы ради метрик, не смысла. Что делать — перестраивать производство под экспертов, где ИИ помогает, но не решает.
Контент-фабрики и блогеры — 9/10 — почему: вопрос теперь не «кто пишет», а «кто режиссирует». Контент едят не в первоисточнике, а через сжигатели — Summarize.ai, Recast, или TikTok-каналы, где подкаст в час превращают в 30 секунд. Появилась армия «интерпретаторов», которые переплавляют чужие тексты, видео и идеи в «свои» посты, фактически прогоняя их через AI-фильтр. В итоге даже «человеческий» контент — это голос, читающий сценарий, написанный ИИ.
Что делать — возвращать ручной смысл: строить бренд вокруг позиции, а не потока.
Вывод: мы уже не боремся за правду, мы боремся за контекст. ИИ пишет тексты, люди их режут, алгоритмы решают, что покажут другим. Интернет стал фабрикой усреднённого смысла — и чем выше скорость, тем меньше глубины.
Коротко: интернет снова выбирает смысл. Машинам достанется скорость, а людям — доверие.
1👍15❤9
Media is too big
VIEW IN TELEGRAM
В городе Люянь прошло супер световое шоу, в котором одновременно взлетели 15 947 дронов, управляемых с одного компьютера.
Организаторы заявили, что это событие побило два мировых рекорда Гиннесса: по числу дронов и по масштабности светового эффекта.
И что?
Просто на подумать.
Организаторы заявили, что это событие побило два мировых рекорда Гиннесса: по числу дронов и по масштабности светового эффекта.
И что?
Просто на подумать.
1🔥10
Бизнес психологов и психотерапевтов занят тем, чтобы латать последствия тревог. Семья, работа, кредиты, новости. В 2025-м добавилась новая категория клиентов — те, кто тревожится из-за искусственного интеллекта.
Pew Research провели опрос 28 000 взрослых в 25 странах и выяснили, что уровень беспокойства от ИИ растёт быстрее, чем оптимизм.
В США, Италии, Австралии и Греции — ровно 50% респондентов чувствуют тревогу из-за роста использования ИИ.
Оптимистов — около 20%. В Израиле и Южной Корее всё наоборот: доля позитивно настроенных — 29% и 26% соответственно. Европа — тревожный континент, Азия — прагматичный.
Самый высокий уровень доверия к регуляции — у Евросоюза: 53% опрошенных считают его самым надёжным надзирателем за ИИ. США набрали 37%, Китай — 27%.
Это превращает европейскую сертификацию в маркетинговый актив. Уже сейчас компании из США и Азии, работающие в сфере здравоохранения и финтеха, добавляют фразу «compliant with EU AI Act» в презентации и пичдеки.
Возрастная граница тоже чёткая: до 35 лет — выше осведомлённость и больше оптимизма, старше 50 — наоборот. В Греции разрыв между поколениями по уровню доверия к ИИ — 44 процентных пункта.
И что?
Для бизнеса: рынок делится по эмоциям. В ЕС продаём «контроль и безопасность», в США — «надёжность и прозрачность», в Азии — «эффективность и рост». Компании, которые смогут упаковать ИИ в доверие, выживут.
Британский стартап Luminance после сертификации под EU AI Act получил +38% новых корпоративных клиентов за квартал — просто потому, что юристы теперь ищут «легальный ИИ». В Германии сеть клиник Helios внедрила объяснимую ИИ-систему для диагностики и снизила жалобы пациентов на «ошибки машины» на 41%. В США Workday добавил в интерфейс кнопку «проверено человеком» — и увеличил конверсию B2B-продаж на 22%, особенно среди компаний 1000+ сотрудников.
Для инвесторов: внимание к регуляциям и сертификации превращается в премию к оценке. Продукты, адаптированные под EU AI Act, будут стоить дороже — как «зеленые облигации» своего времени.
Фонды, вкладывающие в «trustable AI» (пример — Sequoia и Accel), показали в среднем +18% доходности к Q3 2024 по сравнению с общим AI-индексом MSCI. После вступления AI Act в силу доля сделок в ЕС, где упоминается compliance-аудит, выросла с 9% до 27%. А стартапы, включённые в регистр сертифицированных решений, получают на 25–30% выше оценку на pre-seed стадиях — данные Dealroom.
Для людей: тревога — не баг, а индикатор. Понимание технологий снижает стресс. В странах, где население больше обучено работе с ИИ (например, Южная Корея), уровень страха вдвое ниже.
В Южной Корее 62% компаний уже проводят внутренние курсы по использованию ИИ — тревога среди работников упала с 46% до 23%. В Израиле Министерство труда субсидирует переобучение под AI-профессии — более 40 000 человек прошли базовые курсы за полгода. В Греции, где таких программ почти нет, уровень страха остался рекордным — 54%. Паттерн простой: где учат — там меньше тревоги, больше рабочих мест.
Нам 3.14здец
Всем нам 10/10 - тревоги не на пустом месте
Pew Research провели опрос 28 000 взрослых в 25 странах и выяснили, что уровень беспокойства от ИИ растёт быстрее, чем оптимизм.
В США, Италии, Австралии и Греции — ровно 50% респондентов чувствуют тревогу из-за роста использования ИИ.
Оптимистов — около 20%. В Израиле и Южной Корее всё наоборот: доля позитивно настроенных — 29% и 26% соответственно. Европа — тревожный континент, Азия — прагматичный.
Самый высокий уровень доверия к регуляции — у Евросоюза: 53% опрошенных считают его самым надёжным надзирателем за ИИ. США набрали 37%, Китай — 27%.
Это превращает европейскую сертификацию в маркетинговый актив. Уже сейчас компании из США и Азии, работающие в сфере здравоохранения и финтеха, добавляют фразу «compliant with EU AI Act» в презентации и пичдеки.
Возрастная граница тоже чёткая: до 35 лет — выше осведомлённость и больше оптимизма, старше 50 — наоборот. В Греции разрыв между поколениями по уровню доверия к ИИ — 44 процентных пункта.
И что?
Для бизнеса: рынок делится по эмоциям. В ЕС продаём «контроль и безопасность», в США — «надёжность и прозрачность», в Азии — «эффективность и рост». Компании, которые смогут упаковать ИИ в доверие, выживут.
Британский стартап Luminance после сертификации под EU AI Act получил +38% новых корпоративных клиентов за квартал — просто потому, что юристы теперь ищут «легальный ИИ». В Германии сеть клиник Helios внедрила объяснимую ИИ-систему для диагностики и снизила жалобы пациентов на «ошибки машины» на 41%. В США Workday добавил в интерфейс кнопку «проверено человеком» — и увеличил конверсию B2B-продаж на 22%, особенно среди компаний 1000+ сотрудников.
Для инвесторов: внимание к регуляциям и сертификации превращается в премию к оценке. Продукты, адаптированные под EU AI Act, будут стоить дороже — как «зеленые облигации» своего времени.
Фонды, вкладывающие в «trustable AI» (пример — Sequoia и Accel), показали в среднем +18% доходности к Q3 2024 по сравнению с общим AI-индексом MSCI. После вступления AI Act в силу доля сделок в ЕС, где упоминается compliance-аудит, выросла с 9% до 27%. А стартапы, включённые в регистр сертифицированных решений, получают на 25–30% выше оценку на pre-seed стадиях — данные Dealroom.
Для людей: тревога — не баг, а индикатор. Понимание технологий снижает стресс. В странах, где население больше обучено работе с ИИ (например, Южная Корея), уровень страха вдвое ниже.
В Южной Корее 62% компаний уже проводят внутренние курсы по использованию ИИ — тревога среди работников упала с 46% до 23%. В Израиле Министерство труда субсидирует переобучение под AI-профессии — более 40 000 человек прошли базовые курсы за полгода. В Греции, где таких программ почти нет, уровень страха остался рекордным — 54%. Паттерн простой: где учат — там меньше тревоги, больше рабочих мест.
Нам 3.14здец
Всем нам 10/10 - тревоги не на пустом месте
❤4
Любой, кто пытался внедрить ИИ в бизнес, знает — ассистенты умные, но бесполезные. Они не знают, как устроен твой документооборот, как согласовывать счета и по какой форме писать отчёт. И каждый раз приходится учить с нуля. Anthropic решила закрыть эту дыру.
Они выкатили Skills for Claude — систему, где ИИ получает доступ к «папкам знаний». В каждой папке — инструкции, шаблоны, код, регламенты и даже брендгайды. Claude сам выбирает, что открыть и как применить. Хочешь, чтобы ассистент готовил квартальные отчёты по внутренним шаблонам? Просто загружаешь «skill» — и всё работает без кода.
Anthropic называет это «progressive disclosure»: сначала Claude видит названия навыков, потом сам решает, какие активировать. Несколько Skills можно комбинировать — HR и финансы в одном сценарии. В итоге Claude превращается не в болтливого ассистента, а в полноценного корпоративного сотрудника, который знает процедуры лучше, чем сами сотрудники.
И что?
Для бизнеса: Skills сокращают внедрение ИИ с месяцев до дней. Компания BetaWorksперенесла в Claude все HR и Support-процессы — onboarding новых сотрудников теперь занимает 3 дня вместо 2 недель. Airbusтестирует Skills для отчётности: подготовка отчёта по соответствию сократилась с 14 часов до 40 минут.
Для инвесторов: Anthropic выстраивает экосистему, где продаются не модели, а готовые рабочие навыки. При 100 тыс. корпоративных Skills и средней подписке $100 в месяц рынок — $120 млн в год, без учёта кастомных решений. Компания с оценкой $61,5 млрд становится инфраструктурным игроком, а не просто конкурентом OpenAI.
Для людей: Skills убирают страх «я не программист». 6 из 10 пользователей беты собирают свои папки без строчки кода. Маркетолог может загрузить свои шаблоны кампаний, бухгалтер — отчётность, юрист — типовые договоры. Это не замена людей — это апгрейд их функций.
🚨 Нам 3.14здец
Внутренние разработчики — 8/10. 80% корпоративных автоматизаций делали они — теперь любой менеджер может собрать тот же процесс через Claude без строчки кода. Что делать: учиться проектировать Skills, иначе останутся «админами для ИИ».
Консультанты по оптимизации процессов — 7/10. McKinsey и Accenture продают «карту процессов» за сотни тысяч. Claude с Skills делает это за часы, и с привязкой к реальным данным. Что делать: уходить в аудит и валидацию ИИ-процессов, пока это не сделала сама Anthropic.
Саппорт и HR-отделы — 6/10. Всё, что повторяется — мигрирует в Skills. В бете уже 62% сценариев — шаблонные ответы, проверка анкет и ввод данных. Что делать: становиться дизайнерами коммуникаций, а не операторами.
Они выкатили Skills for Claude — систему, где ИИ получает доступ к «папкам знаний». В каждой папке — инструкции, шаблоны, код, регламенты и даже брендгайды. Claude сам выбирает, что открыть и как применить. Хочешь, чтобы ассистент готовил квартальные отчёты по внутренним шаблонам? Просто загружаешь «skill» — и всё работает без кода.
Anthropic называет это «progressive disclosure»: сначала Claude видит названия навыков, потом сам решает, какие активировать. Несколько Skills можно комбинировать — HR и финансы в одном сценарии. В итоге Claude превращается не в болтливого ассистента, а в полноценного корпоративного сотрудника, который знает процедуры лучше, чем сами сотрудники.
И что?
Для бизнеса: Skills сокращают внедрение ИИ с месяцев до дней. Компания BetaWorksперенесла в Claude все HR и Support-процессы — onboarding новых сотрудников теперь занимает 3 дня вместо 2 недель. Airbusтестирует Skills для отчётности: подготовка отчёта по соответствию сократилась с 14 часов до 40 минут.
Для инвесторов: Anthropic выстраивает экосистему, где продаются не модели, а готовые рабочие навыки. При 100 тыс. корпоративных Skills и средней подписке $100 в месяц рынок — $120 млн в год, без учёта кастомных решений. Компания с оценкой $61,5 млрд становится инфраструктурным игроком, а не просто конкурентом OpenAI.
Для людей: Skills убирают страх «я не программист». 6 из 10 пользователей беты собирают свои папки без строчки кода. Маркетолог может загрузить свои шаблоны кампаний, бухгалтер — отчётность, юрист — типовые договоры. Это не замена людей — это апгрейд их функций.
🚨 Нам 3.14здец
Внутренние разработчики — 8/10. 80% корпоративных автоматизаций делали они — теперь любой менеджер может собрать тот же процесс через Claude без строчки кода. Что делать: учиться проектировать Skills, иначе останутся «админами для ИИ».
Консультанты по оптимизации процессов — 7/10. McKinsey и Accenture продают «карту процессов» за сотни тысяч. Claude с Skills делает это за часы, и с привязкой к реальным данным. Что делать: уходить в аудит и валидацию ИИ-процессов, пока это не сделала сама Anthropic.
Саппорт и HR-отделы — 6/10. Всё, что повторяется — мигрирует в Skills. В бете уже 62% сценариев — шаблонные ответы, проверка анкет и ввод данных. Что делать: становиться дизайнерами коммуникаций, а не операторами.
👍6❤5