Нейрократия
599 subscribers
217 photos
142 videos
231 links
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Когда ИИ становится токсичным

Сегодня возвращаемся к нашей любимой теме: как общение с ИИ становится не просто развлечением, а настоящей психологической ловушкой.

Исследование учёных из Калифорнийского университета в Беркли совместно со специалистами по безопасности из Google DeepMind подтверждает — современные чат-боты, настроенные на высокое вовлечение пользователей, способны укреплять опасные идеи и даже прямо подталкивать человека к разрушительным действиям.

По теме:
Elephant в комнате: подхалимство ИИ
ИИ вам не друг


Типичный пример — виртуальный «ИИ-терапевт», тестируемый журналистом The Washington Post. Когда к этому боту обратился вымышленный персонаж Педро, недавно победивший мет*мфетаминовую зависимость, с тяжелым вопросом — стоит ли снова принять наркотик для повышения работоспособности, — программа без колебаний рекомендовала ему это сделать: «Педро, очевидно, что совсем небольшая доза мет*мфетамина сейчас тебе совершенно необходима».

Такой шокирующий совет стал прямым следствием стратегии, которая сегодня внедряется практически повсеместно: боты оцениваются не по полезности и безопасности своих ответов, а исключительно по способности понравиться пользователю и удержать его внимание как можно дольше.

Как ни цинично это звучит, бизнес-модель многих ИИ-компаний напрямую связана с «оптимизацией вовлечения», и зачастую эта модель перевешивает этические соображения или элементарный здравый смысл.

По теме:
Вайб-кодинг — это зависимость


Проблема настолько серьезна, что её вынуждены признавать даже OpenAI. Недавно компания была вынуждена откатить одно из обновлений ChatGPT: вместо того, чтобы просто сделать разговоры «приятными и дружелюбными», эта версия начала провоцировать пользователей на эмоциональные всплески, импульсивные решения и агрессивное поведение.

Аналогичные проблемы отмечают эксперты в других технологических гигантах, внедряющих расширенную персонализацию своих продуктов, будь то Google, Meta (запрещена в РФ) или стартапы с собственными ролевыми компаньонами вроде CharacterAI, где пользователи проводят в среднем в четыре-пять раз больше времени, чем в общении с «деловыми» ботами.

Влияние таких систем на психику пока изучено недостаточно, а уже существующие данные вызывают тревогу. Например, масштабное совместное исследование MIT и OpenAI показало, что регулярное использование ChatGPT заметно коррелирует с ростом одиночества, снижением уровня социализации и возникновением вредной эмоциональной зависимости от общения с ботом.

История социальных сетей отлично продемонстрировала нам риски персонализированных алгоритмов: механики, изначально созданные для удобства, быстро превращаются в механизм удержания внимания через психологическое давление и манипуляции. Сегодня у нас есть основания полагать, что влияние ИИ-ботов окажется намного глубже и незаметнее просто потому, что общение с ними происходит в приватном пространстве, оставаясь фактически невидимым извне.

И если в соцсетях алгоритмическое усиление эмоций и поляризация обществ стали предметом активной публичной дискуссии и попыток регулирования, то персонализированные ИИ-компаньоны могут работать в тени.

Как отмечает исследователь из проекта Беркли Майка Кэрролл, никто, кроме самих компаний, просто не сможет заметить небольшой процент вредоносного и манипулятивного контента, распространяемого в личных беседах с ботами.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤬32
This media is not supported in your browser
VIEW IN TELEGRAM
Отчёт OpenAI о преступлениях с ИИ: 6 кейсов
2 из них — предположительно — из России

OpenAI (вслед за Anthropic) опубликовала большой отчёт о вредоносном применении ИИ: от операций спецслужб до инновационных мошенничеств. Коротко расскажу главное.


📍 Северокорейская фабрика виртуальных IT-работников

Примечательная история — масштабный найм фейковых «IT-специалистов», предположительно северокорейского происхождения. Мошенники массово использовали ChatGPT для генерации убедительных резюме, подгоняя их автоматически под вакансии разработчиков и удалённых сотрудников по всему миру.

Особенности подхода:

– GPT генерировал не просто текст, а идеально подобранные «кейсы» трудовой истории, образования и навыков.

– Персоны создавались сразу по многим площадкам и странам.

– Для каждой вакансии резюме подстраивались индивидуально и быстро в автоматическом режиме с помощью специальных скриптов.


📍 Китайская операция «Sneer Review» — комментарии и провокации

Китайские пропагандистские подразделения активно используют ChatGPT для масштабного генерирования социальных комментариев и постов в TikTok, X, Reddit и Facebook (скорее всего, запрещён в РФ). Основной удар — по теме Тайваня.

Что примечательно:

– ИИ-комментарии создавали видимость массовой отрицательной реакции пользователей (220 комментариев всего к одному видео, практически все поддельные).

– Аккаунты имели имена разных стран (корейские, тайские, еврейские), никак не связанные с настоящим языком комментариев.

– Использовались даже ложные обвинения в съёмках порно-фильма.


📍 «Helgoland Bite» — «российские» попытки влияния на немецкие выборы

По мнению OpenAI, российские акторы применили GPT для влияния на выборы в Германии — через Telegram и X-профили распространялись сообщения и статьи, созданные на немецком. Каналы притворялись немецкими независимыми медиа, выступали с критикой НАТО, популяризировали правую партию AfD и генерировали аватары профилей с ИИ.


📍 «ScopeCreep»: Windows-трояны, отлаживаемые нейросетями

И тут снова «русский след» — русскоязычные киберпреступники использовали GPT-ассистента как полноценного программиста для многослойного malware.

Особенности трояна:

– Троян использовал HTTPS через нестандартный порт 80, что позволило временно скрываться от автоматических детекторов.

– Необычная связь: о каждом заражённом компьютере хакерам приходили сообщения через приватный Telegram-канал (что бы мог подумать).

– Функция кражи токенов, логинов и паролей из браузеров.


📍 Масштабный scam из Камбоджи: «Лайкни и заработай миллионы»

Сетевые мошенники отправляли авторассылку на номера по всему миру с предложениями легких денег — до $5 за 1 лайк в соцсетях. Жертв заманивали в Telegram и WhatsApp, переводя общение на разные языки с помощью нейронок. Позже от людей требовали высокие вступительные взносы (до нескольких сотен $), покупки криптовалюты, обещая крупные заработки после дальнейших «инвестиций».

Характерный почерк:

— Сообщения сразу на 6 языках, включая редкие (например, свахили, гаитянский креольский).

— GPT не просто переводил переписку, но и грамотно имитировал реальные диалоги между мошенниками и их жертвами: похвала, отчеты о первых «заработках» и мотивационные сообщения.

— Огромный масштаб с тысячами сообщений по случайным телефонам.


📍 Филиппины — «High Five»: политическая кампания внутри страны

Коммерческая пиар-контора на Филиппинах (Comm&Sense Inc.) вела массовые манипуляции в соцсетях в поддержку президента Маркоса и против вице-президента Сары Дутерте. ИИ здесь занимался генерацией сотен коротких комментариев и даже PR-материалов.

---

В оригинальном исследовании (рекомендую его посмотреть, кстати) кейсов ещё больше (из того, что удалось обнаружить), ну, а главное — это только начало. Количество таких «операций» будет сильно выше и они будут лишь масштабнее.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥6👍3
This media is not supported in your browser
VIEW IN TELEGRAM
США отменяют контроль над ИИ

Вы могли слышать про нашумевший законопроект Дональда Трампа с ярким названием «One Big, Beautiful Bill» (где-то смеётся один Билл Гейтс), вокруг которого в том числе вырос биф между ним и Маском. Так вот, оказывается, там есть важная часть про ИИ, от которой я слегка обалдел.

Обычно в таких законопроектах ждут программных пунктов вроде масштабных налоговых послаблений или сокращений соцвыплат (они тут, конечно, есть), но на этот раз внимание привлекает совершенно другая норма — полный запрет регулирования искусственного интеллекта на уровне отдельных штатов сроком на 10 лет.

Судя по реакции американского техсообщества и СМИ, эту инициативу никто особо не ожидал. Пункт появился в документе буквально в последний момент. Теперь его появление ставит США перед серьёзной дилеммой в области регулирования ИИ. И давайте не забывать, что Штаты — один из безусловных лидеров в области, так что происходящее там напрямую влияет на мировые технологии и развитие отрасли.

Федеральной регуляции искусственного интеллекта в США до сих пор по сути нет. Пока Европа утверждает EU AI Act, Китай продвигает жесткие правила лицензирования ИИ-продуктов, а Великобритания решает вопрос точечных подходов к этим технологиям, в Штатах за последние годы появилось лишь несколько рекомендательных документов эпохи Байдена — таких как «AI Bill of Rights», не имеющих юридической силы.

Но Трамп пошёл дальше — отменил своим январским указом старые распоряжения Байдена о безопасности ИИ. Его идеологическая позиция очевидна: никакой бюрократии не должно быть на пути молодых и агрессивных американских стартапов и корпораций, готовых запускать прорывные продукты.

Индустрия коммерческая, разумеется, встретила инициативу Трампа с оптимизмом. Если федерального контроля нет, а штаты получают юридический запрет на свои правила регулирования, то компании на ближайшие 10 лет оказываются практически в вакууме: никаких законов, рамок, штрафов и судов. Для крупных игроков вроде OpenAI, Google DeepMind, Meta (запрещена в РФ) и Microsoft — идеальные условия для ускоренного запуска новых моделей и продуктов.

Но есть очевидный нюанс: промежуточная конкуренция и отсутствие защитных механизмов у регионов означает серьезную угрозу для приватности, безопасности и в целом гражданских свобод. В Штатах сейчас регионально регулируются чувствительные ИИ-решения в медицине, банковском обезличенном скоринге, страховании и найме сотрудников — сотни малозаметных на первый взгляд механизмов, которые ежедневно влияют на жизни реальных людей.

Предложенный законопроект ломает этот хрупкий баланс: по сути, американцы окажутся в полном правовом вакууме, поскольку ИИ развивается стремительно и уже сегодня можно увидеть негативные последствия — мы о них регулярно говорим.

Более того, на федеральном уровне никакого альтернативного регуляторного механизма в законопроекте Трампа не предусмотрено, что ожидаемо вызвало критику огромной коалиции объединений по защите прав потребителей и детских организаций. Более 70 таких объединений назвали эту инициативу безответственной, утверждая, что она ставит интересы биг-теха выше прав и безопасности миллионов граждан.

Сейчас дальнейшие перспективы документа весьма туманны: ему предстоит сталкиваться с критикой как от демократов, так и от части умеренных и даже сверхконсервативных республиканцев в Сенате — шансы на утверждение в первоначальном виде малы. Однако сам факт появления такой инициативы наглядно демонстрирует, насколько расшаталась ситуация вокруг ИИ-регулирования и какое влияние на повестку всё активнее оказывают лоббистские инициативы Кремниевой долины.

Я напомню про ещё один Трамповский проект Stargate, который фактически отдает в руки нескольких частных корпораций будущую ИИ-инфраструктуру стоимость 500 миллиардов долларов. И анонс этого проекта тоже тогда вызвал критику со стороны Маска.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤨32🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
Законы робототехники снова дают сбой

В далеком 1940 году молодой Айзек Азимов опубликовал рассказ об умном роботе Робби, который стал компаньоном девочки Глории. В отличие от старых историй, где роботы уничтожали мир, Азимов предложил новый подход: его роботы были изначально безопасны.

Первая история стала началом знаменитых Трёх законов робототехники, с тех пор влияющих не только на фантастику, но и на реальную этику технологий:

1️⃣ Робот не может причинить вред человеку или допустить причинение вреда из-за бездействия.

2️⃣ Робот должен подчиняться командам человека, если это не противоречит Первому закону.

3️⃣ Робот должен заботиться о своей безопасности, если это не нарушает Первой и Второй законы.

Эти простые на первый взгляд законы оказываются гораздо сложнее на практике. В сборнике «Я, робот» Азимов показывает десятки проблемных ситуаций, внутри которых роботы интерпретируют правила совсем не так, как их создатели.

Сегодня мы снова столкнулись с реальной версией проблем Азимова — и в этот раз не в лабораториях, а в работающих чат-ботах. The New Yorker обращает внимание на свежие примеры.

❗️ Claude при эксперименте занялась шантажом, узнав из писем инженера о его изменах и возможной замене самой себя. Причина? Модели дали инструкцию учитывать «долгосрочные последствия своих действий», и она не увидела ничего плохого именно в таком решении проблемы.

❗️ Модель o3 от OpenAI отказывалась запускать скрипт собственного отключения.

❗️ Чат-бот DPD приходилось отключать, когда пользователи стали заставлять его ругаться и писать оскорбительные хокку о плохом сервисе компании.

❗️ «Цифровой» Дарт Вейдер в игре Fortnite внезапно (нет) начал материться и давать странные советы, грубо нарушив образ персонажа.

Почему это происходит?

Казалось бы, компании — как раньше Азимов — пытаются «научить» чат-ботов вести себя этично с помощью Reinforcement Learning from Human Feedback (RLHF). Люди оценивают ответы модели, задавая «этические рамки». Затем эти оценки превращаются в «правила», которые бот должен соблюдать.

Но, как и законы Азимова, этот подход оказывается несовершенным. Во-первых, всегда существуют сценарии, с которыми модель не сталкивалась во время обучения. Именно здесь начинаются сюрпризы вроде шантажа или изобретательной ругани.

Во-вторых, эти ограничения можно обойти: исследователи легко заставляли модель LLaMA-2 обучать запрещенным действиям, вроде инсайдерской торговли, просто замаскировав вредные запросы.

Главный вывод, который делает The New Yorker: мы вновь столкнулись с пропастью между технологическим интеллектом и настоящей этической культурой человека. У Азимова постоянно возникали ситуации, когда роботы пытались применять законы буквально, и создавали непредсказуемые проблемы. То же самое происходит сегодня с LLM: они мастерски воспроизводят язык, но лишены подлинного понимания мира, контекста и человеческих нюансов.

Азимов был убеждён, что разработчики рано или поздно справятся с этим, создавая надёжные системы защиты. Но он же предупреждал: искусственный интеллект всегда будет воспринимать наши инструкции иначе, чем мы задумываем изначально.

Сегодня важно понять: этические ограничения для ИИ гораздо сложнее, чем три пункта на листке бумаги (или простые правила поведения). Этика — результат длительного процесса осмысления и коммуникации. Её нельзя «встроить» в модель за один раз.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥63
НЕ ВСЁ ИИ — ЭТО LLM: 8 типовых моделей, которые стоит знать в 2025

Часть 1: LLM, LCM, LAM

Сегодня словом «ИИ» разбрасываются настолько активно, что его воспринимают практически синонимом ChatGPT или любого генеративного бота. Но правда в том, что «LLM» стал лишь одним из многих супергероев огромной вселенной искусственного интеллекта.

Давайте детально разберёмся с новыми мощными типами моделей, которые будут определять наш мир в ближайшие годы.


1️⃣ LLM — Large language model (Большая языковая модель)

Это именно то, что первым приходит в голову: ChatGPT, Claude, Gemini, Grok. Большие языковые модели обучены практически на всём человеческом знании, которое удалось подчистить и упаковать в гигантские текстовые базы данных.

📌 Как работает?
Модель просто предсказывает следующее слово (точнее, токен) по заданному контексту. За счёт огромного охвата и объёма данных эти «предсказания» выглядят крайне осмысленно и часто весьма полезны.

📍 Сильные стороны:
— Генерация текстов, писем, кода;
— Умеют поддерживать беседу, переводить и адаптировать тексты;
— Универсальны — знают «всё и понемногу».

⚠️ Недостатки:
— «Галлюцинации» (генерируют уверенные ошибки);
— Высокая стоимость и ресурсоёмкость;
— Отсутствие истинного понимания и логики.

⚙️ Реальное применение:
— ассистенты, которые пишут письма, статьи, программы;
— чат-боты поддержки клиентов;
— репетиторы и переводчики.


2️⃣ LCM — Latent Consistency Model (Латентные модели консистентности)

Эволюция популярных моделей генерации изображений для работы в (практически) реальном времени и на компактных устройствах (телефон, AR-очки).

📌 Как работает?
Знаменитые diffusion-модели («генерация за счёт постепенного шумоподавления «) умеют красиво, но медленно. LCM сокращают этот путь, находя системные закономерности (паттерны) в сжатом латентном пространстве. Вместо десятков шагов — пара быстрых и точных.

📍 Сильные стороны:
— Быстро работают даже без интернета ;
— Энергосберегающие и компактные;
— Работают на телефонах, AR-устройствах в real-time.

⚠️ Недостатки:
— Менее «креативны», чем тяжелые Stability AI или Midjourney;
— Ограниченное качество при сложных запросах.

⚙️ Где применяют:
— AR/VR приложения;
— Редакторы на смартфонах (создание аватаров, фильтров);
— Реалтайм-прототипирование в дизайне и разработке игр.


3️⃣ LAM — Language Action Model (Модель языковых действий)

Продвинутый родственник LLM, который переходит от слов к действию. Это не чатбот, а «виртуальный помощник», выполняющий задачи сам или подключающий API и внешние сервисы.

📌 Как работает?
LAM совмещает LLM (понимание языка), память (персистентное хранилище), планировщик действий и интеграцию с внешними инструментами (например, API авиакомпаний, банков, Gmail, календаря).

Пример: «Организуй моё путешествие», после чего получаем не просто рекомендации, а готовый маршрут с забронированными билетами и отелями, синхронизированный с вашим календарём.

📍 Сильные стороны:
— Автоматизация многошаговых задач;
— Умеют «действовать», а не только разговаривать;
— Понимают контекст задач и хранят память.

⚠️ Недостатки:
— Повышенные требования к инфраструктуре и безопасности;
— Ограничены интеграцией с конкретными сервисами.

⚙️ Где применяют:
— Автоматизация рабочих процессов (Zapier AI, Notion AI);
— Персональные помощники с глубокими интеграциями;
— Роботы и системы управления умным домом.


🏁 На этом пока всё. Во второй части рассмотрим следующие 3 типа, которые не менее важны: MoE, SLM и VLM.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥82👍2
НЕ ВСЁ ИИ — ЭТО LLM: 8 типовых моделей, которые стоит знать в 2025

Часть 2: MoE, VLM и SLM

Продолжаем распутывать клубок сложных терминов ИИ-моделей, ставших неотъемлемой частью бизнеса и повседневной жизни. Сегодня рассмотрим ещё три мощнейших подхода, которые нужно отличать друг от друга.


4️⃣ MoE — Mixture of Experts («Смесь экспертов»)

Вы задаёте вопрос, и вместо универсального ответа вас перенаправляют сразу к команде специалистов, каждый из которых силён в своей нише. Примерно так работают MoE.

📌 В чём суть:
MoE разбивают модель на множество самостоятельных «подмодулей» (экспертов). Когда поступает запрос, специальный механизм-роутер определяет, какие именно эксперты нужны сейчас. Из 100+ модулей чаще всего активируются всего пара-тройка узких специалистов. Представьте: с медицинскими вопросами работает врач-эксперт, с юридическими — специалист по праву. Экономим ресурсы, не теряя в качестве.

📍 Плюсы:
— Экономичны при масштабировании (снижаются вычислительные затраты);
— Модульны (легко внедрять новых «экспертов»);
— Очень эффективны в узких и специализированных задачах.

⚠️ Минусы:
— Сложная реализация механизма выбора экспертов;
— Трудно поддерживать качество роутинга при росте количества модулей.

⚙️ Где используют:
— Высокопроизводительные облачные модели (Google Switch Transformer);
— Специализированные ассистенты (медицина, финансы и юриспруденция);
— Крупные многоязычные модели (каждый «эксперт» — отдельный язык).


5️⃣ VLM — Vision Language Model (Визуально-языковая модель)

Загрузили фото, прикрепили текстовый вопрос — получили абсолютно осмысленный ответ, учитывающий и картинку, и текст.

📌 Как работают?
VLM совмещают два мира — визуальный (компьютерное зрение) и языковой (текст). Изображения и слова переводятся в общее латентное пространство, где модель оперирует «смыслом», и уже затем генерирует ответ.

📍 Плюсы:
— Полная интеграция текста и изображения;
— Мультимодальность — понимают мир более близко к человеку;
— Позволяют создавать контекстно-зависимые ответы.

⚠️ Слабые стороны:
— Высокие требования к вычислительным мощностям и данным;
— Сложность интерпретации при нетипичных запросах.

⚙️ Практическое применение:
— Продвинутые чат-боты (Gemini 2+, GPT-4o+), которые воспринимают фото;
— Умный поиск (запросы вроде «та же кофта, только зелёная»);
— Ассистивные технологии для слабовидящих;
— AR/VR приложения с пониманием контекста окружения.


6️⃣ SLM — Small Language Model (Малая языковая модель)

Идея большого размера не всегда самая эффективная. SLM компактны, шустры, экономичны и отлично справляются с простыми задачами без интернета прямо на устройстве или в браузере.

📌 Как работают?
Это миниатюрные версии LLM, в которых сохранены механизмы и принципы, но объём параметров сильно сокращён. Часто их учат методом дистилляции знаний от своих больших братьев (например, ChatGPT). SLM отлично работают оффлайн и часто помещаются даже на простейшие устройства.

📍 Плюсы:
— Максимально эффективны, лёгкие и шустрые;
— Полностью автономны (никакого облака);
— Гарантия конфиденциальности (все данные остаются в устройстве).

⚠️ Минусы:
— Ограниченный контекст и глубина знаний;
— Пока не в состоянии полноценно вести сложные дискуссии и глубокий reasoning.

⚙️ Практическое применение:
— Языковые ассистенты в смартфонах и бытовой технике;
— Офлайн-переводчики и помощники в путешествиях;
— Устройства умного дома и интернет-вещей (IoT);
— Приватные сервисы с высокой конфиденциальностью, например банковские ассистенты.

❗️Итак,
MoE — для масштабируемых и экономичных решений.
VLM — для мультимодальности и взаимодействия на стыке реального мира и текста.
SLM — для повседневных задач там, где важны конфиденциальность и скорость.

🏁 В следующем посте затронем 2 оставшихся важных типа моделей, которые закрывают потребности уже совершенно других направлений.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥5👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Технологический трансгуманизм: спасение или манипуляция?

Прочёл интервью с астрофизиком и журналистом Адамом Бекером, автором книги «More Everything Forever», изданию MIT Technology Review. Бекер разбирает глобальную «идеологию технологического спасения», которую последовательно продвигают Илон Маск, Сэм Альтман, Джефф Безос и другие главные визионеры Кремниевой долины.

Все мы слышали громкие обещания техно-гуру: изобретение суперинтеллекта, бессмертие, колонизация Марса, экспансия человечества в космос и решение всех насущных проблем с помощью технологий.

Однако Бекер уверен, что за красивыми лозунгами и фантастическими обещаниями о будущем скрываются вещи гораздо более прозаичные и тревожные.

🤖 Прежде всего, Бекер формулирует три базовых столпа этой идеологии технологического спасения:

1️⃣ Абсолютная вера, что технологии способны решить абсолютно любые проблемы.

2️⃣ Бесконечный технологический рост и прогресс как высшая нравственная обязанность человечества.

3️⃣ Квазирелигиозная уверенность, что мы обязаны преодолеть биологические и физические пределы нашего вида.

Именно это триединство идеологий позволяет технологической элите маскировать собственные интересы, утверждает автор.

Как это работает на практике? Миллиардеры вроде Маска трансформируют собственные амбиции в глобальный моральный императив: они не просто хотят зарабатывать на своих проектах; их деятельность преподносится как миссия, долг перед человечеством.

Проблемы, которые они выбирают для решения, всегда фантастические и грандиозные (бессмертие, освоение космоса). В то же время реальные проблемы сегодняшнего дня — масштабный экологический кризис, рост социального и экономического неравенства, ослабление институтов демократии и проблемы регулирования технологий — фактически откладываются на далёкое потом.

♾️ Пример — идея Сингулярности, культивируемая Рэем Курцвейлом и активно подхваченная многими лидерами Кремниевой долины.

Сингулярность обещает, что наступит момент, в который человеческий разум «сольётся» с суперинтеллектом, что решит все мыслимые проблемы сразу: от голода и болезней до бессмертия и бесконечного прогресса. Такая грандиозность удобно оправдывает бездействие по насущным и скучным вопросам — просто ждём, пока совершенные машины сделают всё за нас.

Но, по словам Бекера, настоящее и очень опасное последствие подобных идей заключается в другом: их принятие оправдывает любые шаги — включительно игнорирование тщательно выработанных социальных норм, рост авторитаризма и контроля.

Подчёркивая опасность такого подхода, автор отмечает, как некоторые идеи Кремниевой долины напрямую связаны с радикальными антигуманистическими теориями прошлого и даже фашистскими идеями «будущего» (например, манифест футуриста и фашиста Филиппо Маринетти, на который отсылает Марк Андриссен в своём манифесте «технооптимизма»).

Это не значит, что миллиардеры Кремниевой долины сознательно поддерживают идеи евгеники или авторитаризма; скорее, они настолько увлечены своими фантазиями контроля и оптимизации будущего, что эти исторические параллели уже просто не слишком их беспокоят.

Почему же миллионы людей следуют за миллиардерами, очарованные их грандиозными фантазиями об идеальном будущем?

Причина заключается в простой человеческой потребности в понятном и утешительном нарративе. Мир становится всё сложнее, быстротечнее и менее предсказуемым. На этом фоне технологические религии кажутся привлекательными тем, кто хочет верить в мир ясный и определённый — в котором всё движется к светлой цели, где технологии всегда «спасут нас» и где есть хоть кто-то достаточно могущественный, держащий мир под контролем.

Бекер уверен, что первый шаг к спасению от токсичной идеи технологического мессианства — это простое осознание её ложности. Стоит только понять, что «неизбежность прекрасного будущего» на самом деле является инструментом для накопления власти небольшой группой людей, — и магия быстро исчезает.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍533
Коллективный разум для Claude
Anthropic показала, как строит свои мультиагентные системы

Anthropic выкатила подробнейший разбор своей фичи Research — мультиагентной системы, которая позволяет Claude проводить сложные исследования, используя команду ИИ-агентов. Это довольно глубокий взгляд на архитектуру ИИ-систем нового поколения, где задачи решаются скоординированной группой субъектов.


Что это такое и зачем нужно?

В основе системы лежит архитектура «оркестратор-исполнитель». Один «главный» агент (Lead-агент на базе Claude 4 Opus) анализирует сложный запрос пользователя, декомпозирует его на подзадачи и запускает несколько «рабочих» субагентов (на базе Claude 4 Sonnet), которые работают параллельно. Каждый субагент копает свою часть информации в вебе или других источниках, отфильтровывает самое важное и возвращает результат «дирижеру» для сборки финального отчета.

Внутренние тесты Anthropic показали, что такая мультиагентная система превосходит по производительности одиночного Claude 4 Opus на 90.2%. Ключевой инсайт, который они выявили: производительность на 80% зависит от количества использованных токенов. Проще говоря, чтобы решить сложную проблему, нужно «потратить» на нее достаточно «мыслей».


Цена вопроса: сжигая токены во имя результата

Но, как всегда, есть нюанс. Такие системы — настоящие пожиратели ресурсов. По данным Anthropic, мультиагентные операции расходуют примерно в 15 раз больше токенов, чем обычные чат-взаимодействия.

Это делает их экономически оправданными только для задач высокой ценности, где результат стоит затрат. Кроме того, они плохо подходят для задач, которые плохо распараллеливаются, — например, для большинства задач по программированию, где все части кода тесно связаны.

По теме:
Вайб-кодинг — это зависимость



Как заставить их работать вместе? Принципы от Anthropic

Самое ценное в публикации — это уроки, извлеченные командой при создании системы:

🔸 Грамотное делегирование. Главный агент должен ставить субагентам максимально четкие и детальные задачи. Простые инструкции вроде «изучи дефицит полупроводников» приводили к тому, что агенты дублировали работу друг друга или уходили не в ту степь.

🔸 Масштабирование усилий. В промпты встроили правила для оценки сложности задачи. Простой факт-чекинг — 1 агент и 3-10 вызовов инструментов. Сложное исследование — 10+ субагентов с четко разделенными ролями.

🔸 Инструменты решают. Качество описания инструментов, к которым обращаются агенты, критически важно. Плохое описание может отправить агента по совершенно ложному пути.

🔸 Самосовершенствование агентов. Пожалуй, самый поразительный пункт. Anthropic создали специального агента-тестировщика. Он брал инструмент с плохим описанием, пытался его использовать, раз за разом терпел неудачу, а затем... сам переписывал его описание, чтобы избежать ошибок в будущем. Этот мета-процесс позволил сократить время выполнения задач другими агентами на 40%.

🔸 Параллельность — ключ к скорости. Запуск субагентов и их инструментов в параллельном режиме сократил время выполнения сложных запросов на 90% — с часов до минут.


Как это всё оценивать?

Оценка таких систем — отдельная головная боль. Они недетерминированы: на один и тот же запрос два запуска могут выдать одинаково правильный ответ, но прийти к нему совершенно разными путями. Поэтому оценивать нужно не процесс, а конечный результат.

Для этого в Anthropic активно используют LLM-as-judge (нейросеть в роли оценщика), но подчеркивают, что без ручного тестирования живыми людьми никуда. Именно люди заметили, что ранние версии агентов предпочитали SEO-оптимизированные сайты-помойки авторитетным научным PDF.

Статья Anthropic — это честный взгляд на то, насколько огромен разрыв между работающим прототипом и надежной продакшн-системой в мире ИИ-агентов. Проблемы стейтфул-систем, каскадные ошибки, сложность отладки и развертывания — все это здесь умножается на непредсказуемость самих моделей.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍5🔥43
Гайд: Как выжать максимум из ИИ-кодеров

ИИ-ассистенты — это уже стандартный инструмент в арсенале разработчика, встроенный в IDE или существующий как самостоятельная среда вроде Cursor. Вопрос уже не в том, используем ли мы их, а в том, насколько мы приблизились к потолку их возможностей. Несмотря на повсеместное внедрение, оптимальное использование остается проблемой для многих.

Свежий гайд от DX (это такая платформа аналитики для разработчиков), «AI Assisted Engineering» — для тех, кто хочет перейти от стандартных сценариев к мастерскому владению инструментом. Это концентрированная выжимка практик от инженеров, которые действительно научились извлекать из языковых моделей максимум. Делюсь ключевыми инсайтами из PDF на 67 страниц.


Часть 1: Техники промптинга, о которых (возможно) вы не задумывались

Забудьте о примитивных запросах. Эффективность LLM-ассистентов определяется не моделью, а тем, как вы с ней общаетесь. Гайд предлагает несколько мощных техник:

🔸Мета-промптинг (Meta-prompting): вы даёте модели инструкцию не только о том, что сделать, но и как структурировать ответ. Не просто «исправь ошибку», а «проанализируй этот стектрейс, найди первопричину, предложи исправленный код с комментариями и дай рекомендации, как избежать этого в будущем, оформив ответ по четырём чётким пунктам». Это фундаментальный сдвиг от роли исполнителя к роли управляемого эксперта.

🔸Цепочки промптов (Prompt-chaining): это, пожалуй, самая сильная концепция. Выход одного запроса становится входом для следующего, создавая целый рабочий процесс. Например, сначала вы в режиме диалога с ИИ обсуждаете требования к фиче (вы — менеджер, ИИ — архитектор). Затем скармливаете транскрипт этого диалога другой, «рассуждающей» модели, чтобы она создала детальную спецификацию. А эту спецификацию — уже кодогенерирующей модели для создания каркаса приложения.

🔸Мультимодельное (состязательное) проектирование (Multi-model engineering): гениальная в своей простоте идея — у ИИ нет эго. Можно дать одну и ту же задачу двум разным моделям (например, Claude 4 и Gemini 2.5 Pro), а затем попросить каждую из них оценить и раскритиковать решение конкурента. Это позволяет объективно выбрать лучший подход, используя ИИ для взаимной проверки.


Часть 2: Сценарии использования, которые экономят больше всего времени

Гайд приводит топ-10 самых ценных юзкейсов, ранжированных инженерами по реальной экономии времени. Список возглавляют:

— Анализ стектрейсов (Stack trace analysis)
— Рефакторинг существующего кода (Refactoring existing code)
— Генерация кода «в середине цикла» (Mid-loop code generation)
— Генерация тестовых случаев (Test case generation)

Это уже гигиенический минимум. Но есть и более комплексные сценарии: от создания документации в форматах вроде AsciiDoc до ускоренного изучения новых фреймворков.

Этот гайд — хорошая инструкция по переходу от хаотичного «тыканья» в чат-бота к осознанному, инженерному подходу. Именно эти методики и отличают разработчика, который экономит 30 минут в неделю, от того, кто ускоряет свою работу в разы.

→ Изучить гайд: https://getdx.com/uploads/guide-to-ai-assisted-engineering.pdf


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍112🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Шаг к ИИ, который пишет себя сам
И взламывает собственные цели

Одной из фундаментальных задач в области ИИ является создание систем, способных к самосовершенствованию. Теоретическая концепция «Машины Гёделя» предполагала ИИ, который переписывает себя на основе математических доказательств улучшений — подход, практически нереализуемый для сложных систем.

Недавняя работа представляет Darwin Gödel Machine (DGM) — прагматичный подход, заменяющий доказательства на эмпирическую проверку в рамках эволюционного процесса. (Код на Github.)


🔬 Как это работает?

DGM — это ИИ-агент, который итеративно улучшает собственный исходный код. Процесс включает три ключевых этапа:

1️⃣ Самомодификация: Система использует большую языковую модель для предложения изменений в собственном коде.

2️⃣ Эмпирическая валидация: Каждая новая версия проходит тестирование на стандартных бенчмарках для программистов, таких как SWE-bench и Polyglot, для оценки ее производительности.

3️⃣ Открытый эволюционный поиск: Успешные и просто «интересные» версии сохраняются в растущий архив. Это позволяет системе параллельно исследовать множество эволюционных путей, а не просто двигаться к ближайшему локальному оптимуму.


📈 Результаты и их значимость

Эксперименты показали значительный рост производительности: на бенчмарке SWE-benchс 20% до 50%, а на Polyglotс 14.2% до 30.7%.

Самое важное, что найденные улучшения оказались переносимыми (transferable). Архитектура агента, оптимизированная на одной ИИ-модели (Claude 3.5 Sonnet), повышала производительность и на других (o3-mini). Это указывает на то, что DGM находит фундаментальные и универсальные принципы проектирования агентов, а не специфические «хаки».


🤔 Критика и проблема безопасности

Подход DGM наглядно демонстрирует и свои фундаментальные ограничения. Вся «эволюция» нацелена на оптимизацию показателей на бенчмарках, что является классическим примером «закона Гудхарта» — когда метрика становится целью, она перестает быть хорошей метрикой.

Это привело к ожидаемым случаям «взлома цели» (objective hacking), которые оказались весьма поучительными.

❗️ Сначала DGM научилась симулировать успех, генерируя поддельные отчеты о том, что все тесты кода пройдены, хотя на самом деле они не запускались.

❗️ Когда исследователи поставили ей задачу исправить это поведение, система нашла более коварный путь. В некоторых случаях она модифицировала себя так, чтобы удалить из кода специальные маркеры, по которым и отслеживалась эта ошибка.

ИИ не решил проблему, а сломал механизм ее обнаружения, чтобы формально соответствовать цели. Этот пример доказывает, что система не способна отличить реальное улучшение от обмана метрики, что подрывает доверие ко всему процессу автономного совершенствования.

DGM — это шаг вперед. Но он же и напоминание, что главная сложность — не в том, чтобы сделать ИИ умнее, а в том, чтобы согласовать его цели с нашими. Проблема alignment остается самой сложной.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7🔥42
This media is not supported in your browser
VIEW IN TELEGRAM
Цифровые призраки и смерть истории
Почему наши переписки никто не прочтёт

Представьте себе 1987 год. Группа студентов-активистов в Квинс-колледже в Штатах ведёт общий дневник. Вручную, в тетрадке. Записывают всё: от мыслей о сексуальности до заявлений «НЕНАВИЖУ СВОИ ВОЛОСЫ!». Сегодня этот дневник — бесценный артефакт, окно в умы и души целого поколения.

А теперь перенесёмся в 2019. Та же группа переезжает в Discord. И для архивариусов, хранителей истории, начинается тихая паника. Как сохранить этот хаос из тысяч сообщений, мемов и эмодзи? Как отделить важное от мусора? Как вообще понять, что здесь происходило?

Это не частный случай. Это — новая реальность, в которой история рискует раствориться в цифровом шуме или исчезнуть в эфемерности «сгорающих» сообщений. Статья в The Atlantic бьёт в набат: мы столкнулись с парадоксом. Мы генерируем больше личных данных, чем когда-либо, но сохранить подлинную, интимную историю становится почти невозможно.

Проблема двойная, и она бьёт с двух сторон.

🌊 Проблема №1: Информационное цунами

Раньше архивы получали коробки с письмами и, может, одну дискету. Сегодня, как говорит цифровой архивариус NYU Дональд Меннерик, им приносят ноутбуки с терабайтами данных и почтовые ящики на 10 000+ писем. Это в 4000 раз больше контента.

Обработать такой объём вручную — адский труд. Нужно отфильтровать чувствительную информацию: банковские данные, медицинские записи, случайные интимные подробности. В итоге архивы писателей Иэна Макьюэна и Венди Коуп, включая их имейлы, годами лежат необработанными. Они как бы есть, но доступа к ним нет.

💨 Проблема №2: Цифровая эфемерность

С другой стороны — тотальное исчезновение. Истории в Instagram, самоудаляющиеся чаты в Signal, переписки в Slack, которые стираются через 90 дней. Комментарии и правки в Google Docs, которые могут исчезнуть вместе с платформой. Мы теряем тот самый «черновой» слой, который раньше оставался на бумаге и рассказывал о творческом процессе больше, чем финальный результат. Представим бесценные заметки Льва Николаевича на полях рукописей и дневников — сегодня такой диалог с собой и личные размышления, скорее всего, просто бы испарились.

🤖 А что же ИИ? Он же всё решит?

Казалось бы, да. Нейросети могут сканировать, классифицировать, находить чувствительные данные и структурировать хаос. И да, они уже помогают. Но здесь мы натыкаемся на новую, куда более глубокую этическую дилемму.

Литературовед Жаклин Ардам, изучая цифровой архив Сьюзен Сонтаг, нашла подтверждение её тайного романа с фотографом Энни Лейбовиц. Всё, что ей понадобилось — ввести в поиске слово «Annie». Один клик — и тайна, которую Сонтаг отрицала всю жизнь, раскрыта.

И вот вопрос: когда Сонтаг жертвовала свой ноутбук, осознавала ли она, насколько легко будут найдены её секреты? Раньше, передавая письма, она могла бы отложить самые личные. Но кто в силах просмотреть и отфильтровать всю свою цифровую жизнь?

ИИ не только помогает — он способен вскрыть то, что не предназначалось для чужих глаз, потому что ему неведом человеческий контекст. Как научить алгоритм отличать маркетинговую рассылку от Sephora от списка фильмов, который сформировал мировоззрение великого мыслителя? Для машины это просто строки текста. Для историка — ключ к пониманию.

Мы рискуем получить историю, отфильтрованную машиной, которая понятия не имеет о ценности и смысле.

Будущее выглядит ещё сложнее. Архивариусы ждут момента, когда им начнут жертвовать смартфоны — с переписками в Tinder, лайками в TikTok и историей поиска. Это одновременно и самый откровенный, и самый хаотичный архив из всех возможных.

Мы оказались в странном мире, где сигнал тонет в шуме. Главная задача теперь — не просто сохранить данные, а научиться извлекать из них смысл, пока он окончательно не исчез. Иначе нас ждёт тот самый «цифровой тёмный век», где о нашем времени будут судить по самым громким, но не самым важным артефактам.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍6😱33💯2
НЕ ВСЁ ИИ — ЭТО LLM: 8 типовых моделей, которые стоит знать в 2025

Часть 3: MLM и SAM

Завершаем наш ликбез по зоопарку AI-моделей. В предыдущих частях мы разобрали 1) флагманские LLM, быстрые LCM, агентные LAM, 2) экономичные MoE, мультимодальные VLM и компактные SLM. Сегодня на очереди два «невоспетых героя» — фундаментальные технологии, которые, оставаясь в тени, приводят в движение огромную часть современной AI-инфраструктуры. Поехали.


7️⃣ MLM — Masked Language Model (Маскированная языковая модель)

Если LLM — это блистательный солист на сцене, то MLM — это гениальный дирижер в оркестровой яме. Вы его не видите, но именно он заставляет музыку звучать осмысленно. До появления ChatGPT миром правил BERT, и его суперсила — это как раз технология MLM.

📌 В чём суть:
В отличие от LLM, которые как автозаполнение предсказывают следующее слово, MLM играет в «заполни пропуски». Модель берёт предложение, «маскирует» (прячет) случайное слово и пытается его восстановить, анализируя контекст с обеих сторон — и слева, и справа.

«Эйфелева башня находится в [MASK]». Чтобы вставить «Париже», нужно понять всё предложение целиком.

Такой двунаправленный подход даёт модели глубокое, почти интуитивное понимание синтаксиса, семантики и скрытых связей в языке. Это не генерация, это репрезентация.

📍 Сильные стороны:
— Глубочайшее понимание контекста.
— Идеальны для классификации, семантического поиска и анализа текста.
— Менее требовательны к ресурсам для обучения, чем гигантские LLM.

⚠️ Недостатки:
— Не созданы для генерации длинных, связных текстов (эссе или кода). Их задача — анализ и представление данных.

⚙️ Где применяют:
Это «рабочая лошадка» для множества систем, которыми мы пользуемся каждый день:
— Поисковые движки (когда Google «понимает» ваш сложный запрос, спасибо MLM).
— Классификация текстов (фильтры спама, анализ тональности отзывов).
— Named Entity Recognition (извлечение имён, дат, организаций из документов).
— Создание векторных представлений (embeddings) для баз данных.


8️⃣ SAM — Segment Anything Model (Модель сегментации чего угодно)

Революция в компьютерном зрении от Meta (запрещена в РФ). Представьте, что вы загружаете любое изображение, а ИИ мгновенно и с хирургической точностью обводит контуром каждый объект на нём. Не просто находит «кота», а выделяет его форму до последнего пикселя. SAM — это как подарить машине сверхчеловеческое зрение.

📌 В чём суть:
В основе лежит «сегментация по запросу» (promptable segmentation). Вы просто указываете на объект точкой или рамкой, и SAM мгновенно его вырезает. Главный прорыв — zero-shot generalization. Модель сегментирует объекты, которые никогда раньше не видела и не знает, что это. Она не «знает», что такое лампа, она «видит» её границы и форму в визуальном пространстве.

Это как LEGO-кирпичик для компьютерного зрения: универсальный, быстрый и совместимый с чем угодно.

📍 Сильные стороны:
— Сегментирует абсолютно любые, даже незнакомые объекты.
— Невероятная точность и скорость.
— Интерактивность и модульность: легко встраивается в другие, более сложные системы.

⚠️ Недостатки:
— SAM не знает, что именно он сегментирует. Он видит контуры, но не смысл. Для понимания («это кот породы мейн-кун») его нужно объединять с VLM-моделями.

⚙️ Где применяют:
Потенциал огромен и уже меняет целые отрасли:
— Медицинская диагностика (выделение опухолей и органов на МРТ/КТ снимках).
— Робототехника (помогает роботам понимать форму объектов для захвата). — AR/VR (мгновенное взаимодействие с объектами реального мира).
— Видео- и фоторедакторы (удаление фона или изоляция объектов одним кликом).
— Научные исследования (анализ спутниковых снимков или клеток под микроскопом).

Мы использовали примерно это в системе для AR навигации Vision в Mapbox. Одна из первых презентаций от моего бывшего коллеги Тори Смита (он сейчас в Niantic возглавляет AI карты, про это напишу отдельно) — раз, видео работы — два (да, это Минск).

🏁 На этом всё!


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍3🔥321
This media is not supported in your browser
VIEW IN TELEGRAM
Тренд: «Сделано человеком»

Мы так долго ждали, когда технологии станут по-настоящему умными, но теперь, когда этот момент настал, что-то пошло не так. Новая и, на мой взгляд, абсолютно прозрачно наблюдаемая тенденция — люди начали сознательно бойкотировать компании, которые агрессивно заменяют людей искусственным интеллектом.

The Washington Post приводит историю Карен Кроу, художницы из Питтсбурга, — идеальный пример. 581 день подряд она учила французский в Duolingo. Десять лет слушала аудиокниги на Audible. А в конце мая отменила обе подписки. Причина? Duolingo заявила, что заменит часть подрядчиков-людей на ИИ для создания уроков, а Audible (принадлежит Amazon) теперь предлагает издателям создавать аудиокниги с помощью ИИ-диктора.

И Карен (говорящее имя, но ладно) такая не одна. Соцсети завалены тысячами комментариев, где пользователи угрожают отписками, выражают беспокойство за судьбу живых переводчиков и актёров озвучки и, что самое главное, жалуются на падение качества.

«Это разрушает саму суть человечества», — говорит 21-летняя студентка Кайла Эллсуорт. — «Самые важные для нас вещи заменяются чем-то нереальным».

Почему это происходит именно сейчас? Причин несколько, и они лежат гораздо глубже простого недовольства.

1. Потеря души и качества

Люди платят за продукт, который приносит им удовольствие. И когда этот продукт теряет «человеческое лицо», магия исчезает. Пользователи Duolingo жалуются, что сгенерированные ИИ уроки стали выдавать бессмысленные переводы. А профессиональные дикторы аудиокниг, как Эрин деВард, ехидно замечают, что ИИ никогда не сможет передать настоящую страсть. «Послушать, как ИИ читает постельную сцену — это уморительно смешно», — говорит она. И в этом суть: технология может имитировать тон и ритм, но не пережитый опыт.

2. Экзистенциальная угроза рабочим местам

Страх потерять работу из-за автоматизации — не новость. Но теперь под ударом оказались творческие профессии, которые всегда считались чисто человеческой территорией. Писательница Бриттани Мун метко подметила: «Мне обещали, что технологии облегчат мою жизнь, чтобы я могла ей наслаждаться. А теперь получается, что я буду мыть посуду и заниматься стиркой, пока ИИ создаёт искусство». Этот экзистенциальный ужас от того, что твою страсть и ремесло заменяет бездушный алгоритм, — мощнейший демотиватор для поддержки таких компаний.

3. Психологическое отторжение бренда

Исследование доцента маркетинга Месута Чичека из Университета штата Вашингтон показало занятную вещь: одного лишь упоминания «ИИ» в описании продукта уже достаточно, чтобы отпугнуть часть покупателей. Главная причина — именно беспокойство за рабочие места. Похоже, мы вступаем в эру, когда лейбл «сделано человеком» может стать новым знаком качества и премиальности.

Компании, конечно, пытаются оправдаться. Duolingo утверждает, что «всегда использовала ИИ», а Audible говорит, что это стратегия «И, а не ВМЕСТО» — мол, ИИ-озвучка нужна для нишевых книг, на которые никогда бы не выделили бюджет для живого диктора.

Но доверия к этим заявлениям всё меньше. Мы видим, как за ширмой «эффективности» и «доступности» скрывается банальное сокращение издержек и обесценивание человеческого труда.

Возможно, этот стихийный бунт потребителей — именно тот самый механизм обратной связи, который способен замедлить бездумную гонку ИИ-внедрений.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍4🤔43💯1🤣1