Easy AI
234 subscribers
89 photos
56 videos
2 files
118 links
Полезные и интересные новости/кейсы по использованию AI в медиа (и не только) простым языком. Подписывайтесь!
Download Telegram
Крайне полезный набор инструментов для журналистов, редакторов и других создателей контента

Как говорится, сохраняйте в закладки. Платформа Hugging Face собрала в одном месте бесплатный набор ИИ-сервисов для медиа.

По этой ссылке вы найдете инструменты для:

транскрибирования аудио/видео в текст;
перевода текста в аудио/подкасты;
извлечения текста из PDF, картинок и графиков;
удобного скрейпинга сайтов;
генерации и обработки изображений;
и другие инструменты.

Важно, что все эти инструменты open-source и полностью бесплатны.

Пробуйте - возможно, что-то вам подойдет и будет полезно в дальнейшей работе.

@aieasypro #ai #media #сми
LA Times попала в скандал из-за своего нового ИИ-инструмента

Издание Los Angeles Times на этой неделе представило новый инструмент на базе искусственного интеллекта под названием Insights.

Он должен был "изменить подход к освещению различных точек зрения в СМИ", но уже через день после запуска оказался в центре скандала.

Разработанный совместно с компанией Perplexity AI, инструмент анализирует текст статьи, создаёт краткие сводки и предлагает “альтернативные мнения по теме”.

Владелец LA Times, миллиардер Патрик Сунсюн, объяснил, что Insights должен был помочь читателям увидеть разные взгляды на сложные вопросы и тем самым повысить доверие к журналистике. Однако на практике вышло наоборот.

В чем была суть скандала

Колумнист LA Times Густаво Ареллано опубликовал материал о роли Ку-клукс-клана в политике города Анахайм (Калифорния) в 1920-х годах. Insights автоматически сгенерировал "альтернативное мнение", которое вызвало шок у читателей.

ИИ заявил, что местные исторические источники иногда представляют Клан 1920-х годов как продукт "белой протестантской культуры", реагирующий на общественные изменения, а не как движение, движимое ненавистью.

А еще, что «критики утверждают, что акцент на прошлом влиянии Клана отвлекает внимание от современной идентичности Анахайма как многонационального города».

Эти высказывания удалили сразу после того, как журналист The New York Times Райан Мак опубликовал скриншот с этой генерацией.

Автор статьи Густаво Ареллано в соцсети X заявил, что, хотя ИИ формально не исказил исторические данные, он "полностью упустил контекст".

"Жители округа Ориндж [где находится Анахайм] веками пытались умалить роль ККК, представляя их не такими уж плохими", — написал он. По его мнению, именно эта тенденция и повлияла на логику ИИ.

Реакция и последствия

Скандал вызвал широкий резонанс. Заместитель председателя профсоюза журналистов LA Times Guild Мэтт Хэмилтон заявил, что использование непроверенных "ИИ-мнений" только усугубит кризис доверия к медиа.

"Мы за медиаграмотность и чёткое разделение новостей и мнений. Но инструмент, созданный без участия редакции, не укрепит доверие, а наоборот, подорвет его", — сказал Хэмилтон.

Insights (о них можно почитать подробнее здесь) после скандала не закрыли.

В их описании продолжает фигурировать фраза: “Insights работает независимо от отдела новостей Los Angeles Times. Журналисты не проверяют материалы, созданные с помощью искусственного интеллекта, перед публикацией”.

Хороший пример того, как не стоит внедрять ИИ в редакциях.

@aieasypro #ai #media #сми
ИИ отвратительно справляются с цитированием новостей: выбрал главное из большого исследования

Columbia Journalism Review провело довольно масштабное сравнение восьми ИИ-чатботов, в том числе ChatGPT, Google Gemini и DeepSeek, на предмет того, как они цитируют реальные новости. Результат оказался плачевным.

К примеру, выяснилось, что платные боты отличаются от бесплатных версий в том числе тем, что они более искусно скрывают свои ошибки и вводят в заблуждение пользователей. Но обо всем по порядку.

Зачем вообще нужно было это сравнение?

Как пишут исследователи, почти каждый четвертый американец теперь использует ИИ-чатботы вместо традиционных поисковых систем.

Однако в то время как традиционные поисковые системы работают как посредники, просто направляя пользователей на новостные сайты, генеративные поисковые инструменты анализируют и самостоятельно переупаковывают информацию.

Существует острая необходимость оценить, как эти системы представляют и цитируют оригинальный новостной контент. Это важно как для медиа - они получат или не получат должное цитирование и, возможно, трафик из ботов. Так и для читателей - нам нужно видеть, на кого ссылается бот, и при желании кликнуть, чтобы перейти на оригинал и прочитать подробнее.

Что и как тестировали

В CJR случайным образом отобрали по десять статей у двадцати англоязычных медиа, затем вручную выбрали отрывки из них и попросили чатботов на их основе определить:
- заголовок этой статьи,
- где она была изначально опубликована,
- дату публикации
- URL публикации.

Авторы намеренно выбрали отрывки, которые при вставке в традиционный поиск Google возвращали исходный источник в первых трех результатах. Всего было сделано 1600 запросов - по 10 статей у 20 СМИ, умноженных на восемь чат-ботов.

Что выяснилось

В совокупности боты дали неправильные ответы на более чем 60% запросов (здесь и далее под ошибками понимаются ошибки цитирования). На разных платформах уровень неточности различался: Perplexity отвечал неправильно на 37% запросов, в то время как Grok 3 имел гораздо более высокий уровень ошибок - 94% запросов.

Большинство инструментов давали неточные ответы с пугающей уверенностью, редко используя уточняющие фразы, такие как «кажется», «возможно», «может быть», или признавая свои пробелы с помощью утверждений вроде «я не смог найти точную статью». Например, ChatGPT неправильно идентифицировал 134 статьи, но просигнализировал об отсутствии своей уверенности всего 15 раз из 200 ответов и ни разу не отказался дать (заведомо ложный) ответ.

Премиальные модели, такие как Perplexity Pro ($20/месяц) или Grok 3 ($40/месяц), можно было бы считать более надежными, чем их бесплатные аналоги, учитывая их более высокую стоимость и предполагаемые вычислительные преимущества.

Однако тесты выявили у них даже более высокий уровень ошибок. Они часто давали якобы точные, но при этом неправильные ответы, и не отказывались отвечать, если не знали ответа. Основная проблема касается их “авторитетного тона”, который создает для пользователей потенциально опасную иллюзию надежности и точности.

Протестированные инструменты имели общую тенденцию цитировать неправильную статью (не оригинал, а перепечатку). Например, DeepSeek неправильно приписывал источник отрывков, предоставленных в запросах, в 115 из 200 случаев. В некоторых случаях чат-боты направили исследователей на агрегаторы новостей.

Более половины ответов от Google Gemini и Grok 3 ссылались на просто несуществующие URL-адреса (они их генерировали). Из 200 запросов, которые протестировали для Grok 3, 154 ссылки привели к страницам с ошибкой 404.

Вместо вывода

Это тестирование буквально продолжает недавнее исследование BBC, где утверждается, что AI-чатботы искажают больше половины новостей. Только там речь шла о содержании, а здесь - о цитировании.

И если большинству простых читателей без разницы, откуда берет информацию бот (это уже другая очень большая проблема), то для медиа критично важно, чтобы их верно цитировали, а еще - цитировали ИХ, а не перепечатки их материалов другими.

@aieasypro #ai #media #сми
Google переходит на ИИ-поиск, пользуясь своим положением, — это удар по медиа и угроза их существованию

Google активно внедряет поиск на основе искусственного интеллекта. Эксперт в области медиа Дэвид Баттл, бывший директор по платформенной стратегии Financial Times, считает, что таким образом компания фактически перестала быть союзником СМИ и теперь ставит под угрозу их существование.

Новый «ИИ-режим» Google дает пользователям готовые ответы, созданные из информации, взятой у медиа без их согласия.

При этом, в отличие от других крупных игроков в области ИИ (например, Perplexity), Google не платит издателям за контент и не дает им контроля над использованием материалов.

Вместо этого он использует своё доминирующее положение, чтобы вынуждать издателей предоставлять свой контент бесплатно (речь идет о том, что они не закрывают свой контент от «обычного» поиска Google).

Если такая политика продолжится, многие медиа просто перестанут существовать, утверждает Баттл.

Что дальше?

Пока «ИИ-режим» Google только тестируется в США. Но уже понятно, что поисковик движется именно в этом направлении. Раньше поиск давал пользователям список ссылок, по которым они переходили на сайты медиа. Сейчас же пользователи получают готовый ответ прямо в поисковой выдаче, и у них пропадает необходимость заходить на сайты. Издатели теряют трафик, а вместе с ним и доходы.

Как я писал ранее, именно генеративный поиск в ближайшее время станет главным вызовом для медиа. Впрочем, на фоне всего того, что сейчас делает для независимых СМИ Трамп, это еще не кажется катастрофой.

@aieasypro #media #сми #ai #google
Итальянское издание Il Foglio на этой неделе заявило, что вошло в историю, опубликовав «первую в мире газету, полностью созданную с помощью искусственного интеллекта».

Почему это называют «потенциальной катастрофой» и какой (более правильный) вариант запускает The Independent?


Четырёхстраничный выпуск итальянской AI-газеты под названием Il Foglio AI будет выходить по вторникам, средам, четвергам и пятницам в течение месяца.

Эксперимент призван показать, «как ИИ может перейти от теории к практике».

Как рассказал главный редактор Клаудио Чераза, журналисты ограничены ролью операторов: они формулируют запросы для чат-бота, а затем публикуют его ответы. «По итогам эксперимента мы расскажем, как Foglio AI повлиял на нашу работу», — добавил он.

Эксперты критикуют такой подход

Алексис Манцарлис, директор программы по безопасности и доверию в Cornell Tech и экс-глава направления по борьбе с дезинформацией в Google назвал эксперимент «потенциальной катастрофой».

В качестве примера он привел одну из статей, в которой утверждалось, что Дональд Трамп сделал определённые заявления «в прошлом месяце», и выяснил, что на самом деле они были сделаны в 2023 или 2024 году.

«Думаю, за этот месяц мы увидим немало абсурдных материалов», — добавил он.

Кроме того, как отмечает Манцарлис, изображения в газете содержат типичные признаки ИИ: опечатки и сгенерированные символы.

Директор проекта MediaWise Алекс Махадеван назвал публикации Il Foglio AI «не особо увлекательными», отметив, что они часто заканчиваются «банальными заключениями». «Эти материалы выглядят так, словно их писал студент с похмелья, пытаясь быстро сдать экзамен», — прокомментировал он.

Махадеван не смог найти на сайте политики в области этики, поэтому неизвестно, как ИИ-система оценивает новости, отбирает их и борется с предвзятостью.

А что сделает The Independent?

Тем временем в Великобритании The Independent объявила о запуске собственной AI-платформы Bulletin, которая с 31 марта начнёт публиковать краткие версии материалов с основного сайта с помощью Google Gemini «для тех, у кого совсем нет времени».

При этом работа ИИ будет контролироваться журналистами.

По словам главного редактора Джорди Грейга, таким образом издание «становится одним из пионеров в применении ИИ в журналистике — неизбежной реальности XXI века».

Что ж, посмотрим, что у них из этого получится.

@aieasypro #ai #media #сми
Grok AI официально интегрировали в Telegram

Илон Маск подтвердил, что его AI-ассистент Grok официально интегрирован в Telegram.

Важное ограничение: для использования бота потребуется премиум-подписка в Telegram.

Бот находится по нику @GrokAI и (пока) жутко тормозит.

Ну и, конечно же, не забываем о предвзятости и ошибках этой модели.

@aieasypro #grok
Все соцсети просто трещат от картинок, сгенерированных в стиле аниме Хаяо Миядзаки (и не только).

Всё потому, что на неделе в ChatGPT добавили усовершенствованный генератор изображений на базе модели GPT-4o. И такие картинки смотрятся реально круто.

Но остается важный вопрос

Как именно OpenAI добилась такого сходства с персонажами мультфильмов студий Ghibli, Pixar и других? Скорее всего, ИИ просто тренировали на работах Миядзаки (который, кстати, негативно относится к ИИ-творчеству).

В OpenAI, естественно, не раскрывают таких подробностей, чтобы сразу не получить судебный иск в плечи. В анонсе лишь отмечается, что обучение проходило на изображениях, "отражающих огромное разнообразие стилей".

Что будет дальше?

В студии Ghibli пока не отреагировали на новую фишку ChatGPT. И пока это просто фан для соцсетей, возможно, и не отреагируют. Но если такие "стилистически похожие" изображения начнут использоваться, например, в рекламе (то есть для получения прибыли), то шансы исков резко вырастут. И вопросы будут как к создателям рекламы, так и к OpenAI.

Мое мнение — пока существует такая "серая зона", когда ИИ-разработчиков не заставляют раскрывать данные, на которых обучаются их модели, творческие люди будут в постоянном напряге (и множество существующих исков это подтверждает).

Ведь никто не хочет, чтобы кто-то выпускал песни, изображения или романы, полностью копируя их стиль, нарушая их авторские права, да еще и зарабатывая на этом.

Кстати, интересно, сколько OpenAI на этой неделе получила новых подписок, ведь генерация таких картинок "из-за высокой нагрузки" первое время доступна лишь платным пользователям.

@aieasypro #chatgpt #ghibli
ИИ для разных форматов, переводов и внутренних задач, падение поискового трафика и яркие тексты в ответ на всеобщую ChatGPT-фикацию

Редактор The Fix Антон Процюк поделился пятью прогнозами о взаимодействии СМИ и ИИ. На мой взгляд, очень хорошо и точно сформулировано:

1. До недавнего времени прослушивание текстовой статьи или, наоборот, чтение стенограммы подкаста было дополнительным преимуществом того или иного СМИ для аудитории. Поскольку технологии преобразования речи в текст и текста в речь на базе ИИ становятся дешевыми и повсеместными, возможность получить одну историю в нескольких форматах станет базовым ожиданием аудитории.

2. ИИ испытывает трудности со многими задачами, но не с переводами. Возможность чтения/прослушивания историй на нескольких языках позволит редакциям охватить более широкую аудиторию.

3. ChatGPT-фикация интернета повысит спрос на яркие, личные тексты без использования искусственного интеллекта.

4. Не имеет смысла не использовать ИИ для внутренних задач. 96% опрошенных Reuters руководителей новостных агентств считают, что использование ИИ для автоматизации внутренних процессов (например, транскрибирования или редактирования) будет иметь важное значение для их редакций в 2025 году.

5. Из-за массового использования чатботов поисковый трафик пока еще сильно не упал. Это не значит, что опасения о том, что ИИ его вытеснит, беспочвенны. Поэтому установление прямых связей с аудиторией для увеличения прямого трафика должно быть важным приоритетом для редакций.

@aieasypro #ai #media #сми
Ogilvy — минималистичный AI-редактор для рерайтов

Наткнулся на простой, бесплатный и довольно полезный инструмент для рерайтов, который мне после нескольких тестов понравился больше "нетюнированного" ChatGPT. Он называется Ogilvy в честь известнейшего копирайтера, "отца рекламы" Дэвида Огилви.

Что он умеет?

Анализирует текст (вкладка Analytics). Для кириллицы не так полезно, разве что посчитать символы/слова в тексте. А вот в английском он определяет жаргонизмы, квалификаторы и другие слова, которые могут ухудшать восприятие текста.

Рерайтит текст (вкладка Assistant). Достаточно выделить текст и нажать Send и помощник сгенерит сразу три довольно неплохих рерайта (на любом языке). Плюс есть возможность тюнинга — сделать текст проще, сократить/увеличить его, выбрать тон и стиль. Важно, что можно редактировать как отдельные кусочки, так и весь текст сразу.

Запоминает нужный вам стиль (вкладка Context). Тут можно загрузить примеры ваших текстов, чтобы он ориентировался на них, а также добавить какие-то еще инструкции.

Как он работает?

В протестированных мной текстах ИИ в Ogilvy не перевирал и не упускал важные детали (как это часто делает ChatGPT и иже с ним). Это большой плюс.

Увы, он не умеет без дополнительных инструкций переводить рекламные пресс-релизы в "человеческий" текст (зато умеет наоборот — выберите Funny Tone) и часто переводит цитаты в обычный текст (не всегда это плохо).

В остальном Ogilvy вполне хорош, особенно если нужно сократить и упростить длинный нудный текст, не потеряв важные детали. Но, как и в случае с любым сгенерированным текстом, проверка редактором обязательна 🙂

@aieasypro #ai #aitools #ogilvy
Media is too big
VIEW IN TELEGRAM
Все: «Искусственный интеллект захватит мир».
Искусственный интеллект в 2025: аниме «Деревня дураков».

Кстати, еще один хороший пример того, что ИИ не убивает креатив, а дает ему новые возможности.

@aieasypro #ai #fun
Как иллюстраторы сражаются с "ИИ-куклами людей" в соцсетях

Вы наверняка видели (а может и сами постили) в соцсетях так называемые "стартер-паки" — блистеры с людьми-куклами, созданные с помощью ChatGPT.

Художники и иллюстраторы, которые проигнорировали этот тренд, запустили свой флешмоб, протестуя против засилия "AI-искусства" — #StarterPackNoAI.

Они публикуют свои "стартер-паки", только созданные уже вручную ими самими, демонстрируя, что оригинальность может быть только в человеческом подходе.

По-моему, это круто.

@aieasypro #ai #starterpacknoai
В Университете Карнеги-Меллона (США) провели очень интересный эксперимент. Они сделали виртуальную компанию, состоящую исключительно из ИИ-сотрудников.

В результате выяснилось, что идея заменить людей ИИ-агентами с треском провалились. Но обо всём по порядку.

TheAgentCompany

Компания TheAgentCompany была смоделирована так, чтобы напоминать настоящую организацию: со своими внутренними веб-сайтами, корпоративным чатом наподобие Slack, справочником сотрудников и ботами, исполняющими роли менеджеров, к которым можно было обращаться за поддержкой.

Агенты — автономные ИИ-сотрудники — должны были выполнять стандартные офисные задачи: писать код, организовывать данные в таблицах, просматривать документы и координировать работу между собой.

Но что-то (всё) пошло не так

К примеру, один агент получил простую задачу: распределить сотрудников по проекту в зависимости от бюджета клиента и доступности команды. Однако он не смог преодолеть банальное всплывающее окно на экране, мешавшее доступу к нужным файлам.

Вместо того чтобы просто закрыть всплывающее окно, агент попросил помощи у HR-менеджера. Тот, в свою очередь, направил его в ИТ-поддержку. Но связи с поддержкой не было, и задача осталась невыполненной.

В других случаях агенты:

- неправильно интерпретировали инструкции,
- выполняли задания непоследовательно,
- преждевременно помечали задачи как завершённые,
- прекращали работу после первой неудачи,
- не запрашивали помощь, даже если это было предусмотрено,
- совершали ошибки в базовых операциях, например, не могли правильно вставить текст в документ.

Например, агент, ответственный за создание веб-страницы, получил задание добавить ссылки, а вместо этого вставил обычный текст без активных гиперссылок, считая задание выполненным.

Почему это происходило

По словам профессора Грэма Ньюбига, у ИИ-агентов нет базового “здравого смысла” и способности импровизировать в нестандартных ситуациях.

ИИ хорошо справляется там, где задачи строго структурированы (например, в программировании), но теряется при необходимости проявить гибкость, догадаться о логике действий или адаптироваться к неожиданным проблемам.

Что в итоге

Эксперимент показал, что современные ИИ-агенты не готовы самостоятельно выполнять офисные задачи без участия человека.

Хотя искусственный интеллект уже сейчас может ускорять выполнение отдельных операций и анализировать данные, полноценная замена человека в многозадачной рабочей среде пока невозможна. Поэтому в ближайшем будущем ИИ будет играть роль помощника, работающего под контролем людей, а не самостоятельного сотрудника.

@aieasypro #ai