Просмотры ИИ видео на разных платформах
Недавно вышла новая версия генератора видео - Sora 2. Видео получаются очень реалистичные (не без ляпов). Есть водяной знак.
Посмотрите на эту колоссальную разницу в просмотрах. Видео про то, как котики спасают людей (часто детей) от медведей, тигров и других диких животных.
На YouTube видео вообще не набирают просмотры. За что же Google так не любит ИИ (кроме своего в поиске)? Ведь народу нравится.
#video #sora
Недавно вышла новая версия генератора видео - Sora 2. Видео получаются очень реалистичные (не без ляпов). Есть водяной знак.
Посмотрите на эту колоссальную разницу в просмотрах. Видео про то, как котики спасают людей (часто детей) от медведей, тигров и других диких животных.
На YouTube видео вообще не набирают просмотры. За что же Google так не любит ИИ (кроме своего в поиске)? Ведь народу нравится.
#video #sora
Хочешь купить ChatGPT Pro за 200 баксов?
Сейчас в блогах и чатах активно обсуждают тариф за $200: стоит ли вообще переходить, и настолько ли он лучше обычного? Люди хотят понять, реально ли качество ответов оправдывает цену.
На самом деле, все можно проверить самому - просто зайди в песочницу OpenAI, задай нужный промт и сравни ответы разных моделей. Здесь можно посмотреть пример ответа на просьбу написать ТЗ для статьи (модель думала 7 минут).
Ты можешь вообще не брать подписку. Через API доступна та же модель GPT-5 Pro ($15 за вход и $120 за выход, за 1 млн. токенов). Можно на коленке собрать свой веб- или десктоп-клиент, подключить API-ключ и платить только за токены, а не за подписку.
Сейчас в блогах и чатах активно обсуждают тариф за $200: стоит ли вообще переходить, и настолько ли он лучше обычного? Люди хотят понять, реально ли качество ответов оправдывает цену.
На самом деле, все можно проверить самому - просто зайди в песочницу OpenAI, задай нужный промт и сравни ответы разных моделей. Здесь можно посмотреть пример ответа на просьбу написать ТЗ для статьи (модель думала 7 минут).
Ты можешь вообще не брать подписку. Через API доступна та же модель GPT-5 Pro ($15 за вход и $120 за выход, за 1 млн. токенов). Можно на коленке собрать свой веб- или десктоп-клиент, подключить API-ключ и платить только за токены, а не за подписку.
Batch Watcher - расширение для тех, кто смотрит Ahrefs как телевизор. Идеально подойдет для тех, кто отслеживает динамику конкурентов.
Оно позволяет сохранять показатели сайтов из Ahrefs Batch Analysis и сравнивать текущие показатели с сохраненными данными (снимками), например, до апдейта и после (нужно предварительно сделать снимок в расширении).
Работает полностью локально. Без API-ключей и паролей.
Как использовать:
1. Открой Ahrefs Batch Analysis.
2. Загрузите таблицу с сайтами, как обычно.
3. Нажми на иконку Batch Watcher в панели Chrome и сохрани снимок данных.
4. Уведомление покажет, сколько сайтов сохранено - это твой первый снимок.
5. Через несколько дней или недель сделай второй снимок.
6. Кликни правой кнопкой по иконке расширения и выбери Compare snapshots.
7. Выбери нужный снимок для сравнения - расширение покажет, что выросло, а что упало.
Если есть какие-то замечания или предложения - пишите в личку.
Оно позволяет сохранять показатели сайтов из Ahrefs Batch Analysis и сравнивать текущие показатели с сохраненными данными (снимками), например, до апдейта и после (нужно предварительно сделать снимок в расширении).
Работает полностью локально. Без API-ключей и паролей.
Как использовать:
1. Открой Ahrefs Batch Analysis.
2. Загрузите таблицу с сайтами, как обычно.
3. Нажми на иконку Batch Watcher в панели Chrome и сохрани снимок данных.
4. Уведомление покажет, сколько сайтов сохранено - это твой первый снимок.
5. Через несколько дней или недель сделай второй снимок.
6. Кликни правой кнопкой по иконке расширения и выбери Compare snapshots.
7. Выбери нужный снимок для сравнения - расширение покажет, что выросло, а что упало.
Если есть какие-то замечания или предложения - пишите в личку.
👍6
Ai Mode в Google
Если раньше, чтобы получить Ai-выдачу в Google нужно было перейти на соответсвующую вкладку, то сейчас при запросе, Google предложил получить результат в Ai-режиме. Раньше я с таким не сталкивался.
Но ссылки на приложения в Google Play - не дал.
Если раньше, чтобы получить Ai-выдачу в Google нужно было перейти на соответсвующую вкладку, то сейчас при запросе, Google предложил получить результат в Ai-режиме. Раньше я с таким не сталкивался.
Но ссылки на приложения в Google Play - не дал.
Что ждет SEO в ближайшем будущем?
Я всегда скептически относился к прогнозам, но сегодня решил провести небольшой эксперимент. Загрузил в Claude и Gemini список обновлений Google, час гонял их по вопросам, а затем попросил предсказать, что будет дальше.
Их вывод удивил: картина получилась довольно реалистичной, их прогноз уже начинает сбываться. Задокоментируем их предсказание следующими статьями.
Предсказание Gemini о будущем SEO в ближайшие годы (640 слов)
Предсказание Claude о будущем SEO в ближайшие годы (1300 слов)
Claude: Будущее Google Search 2025-2028 (660 слов)
Если ChatGPT может ответить на ваш вопрос - вы не нужны в топе. Алгоритм будет пессимизировать страницы, семантический вектор которых совпадает с ответом AI-модели Google.
Я всегда скептически относился к прогнозам, но сегодня решил провести небольшой эксперимент. Загрузил в Claude и Gemini список обновлений Google, час гонял их по вопросам, а затем попросил предсказать, что будет дальше.
Их вывод удивил: картина получилась довольно реалистичной, их прогноз уже начинает сбываться. Задокоментируем их предсказание следующими статьями.
Предсказание Gemini о будущем SEO в ближайшие годы (640 слов)
Предсказание Claude о будущем SEO в ближайшие годы (1300 слов)
Claude: Будущее Google Search 2025-2028 (660 слов)
❤3
🏆 Топ-10 SEO-каналов в 2025 году
2025 год подходит к концу, и самое время опубликовать рейтинг SEO-каналов в Telegram.
С помощью Fomogram (агрегатор постов из SEO-каналов) я посчитал количество пересылок постов в 100 SEO-каналах за весь 2025 год.
Топ-10 каналов:
1. iGamingNews (44.4К пересылок)
2. Mike Blazer (44.2К пересылок)
3. R2B.News (31.7К пересылок)
4. DrMax SEO (16.8К пересылок)
5. PMP Media (15К пересылок)
6. Михаил Шакин (14.8К пересылок)
7. Артем Бородатюк (14.7К пересылок)
8. Англоязычное SEO (12.9К пересылок)
9. iGaming CEO (12.5К пересылок)
10. Oleg Shestakov (11.8К пересылок)
Посмотреть весь топ-30 и самые виральные посты каждого канала можно здесь.
2025 год подходит к концу, и самое время опубликовать рейтинг SEO-каналов в Telegram.
С помощью Fomogram (агрегатор постов из SEO-каналов) я посчитал количество пересылок постов в 100 SEO-каналах за весь 2025 год.
Топ-10 каналов:
1. iGamingNews (44.4К пересылок)
2. Mike Blazer (44.2К пересылок)
3. R2B.News (31.7К пересылок)
4. DrMax SEO (16.8К пересылок)
5. PMP Media (15К пересылок)
6. Михаил Шакин (14.8К пересылок)
7. Артем Бородатюк (14.7К пересылок)
8. Англоязычное SEO (12.9К пересылок)
9. iGaming CEO (12.5К пересылок)
10. Oleg Shestakov (11.8К пересылок)
Посмотреть весь топ-30 и самые виральные посты каждого канала можно здесь.
Галлюцинации в RAG
На сайте Стэнфордского университет было опубликовано исследование ИИ-сервисов (которые утверждали, что в них нет галлюцинаций) для юридических исследований (юридические RAG). Это платные сервисы которые стоят от 128 до 900 долларов в месяц (Lexis+ AI, Westlaw AI-Assisted Research, Ask Practical Law AI) и был еще обычный GPT-4 без специализированных юридических данных.
Цель исследования - выяснить как часто появляются галлюцинации в специализированных юридических ИИ-помощниках. Оценка проводилась по 200 юридическим запросам.
Результат
Коммерческие AI-инструменты для юридических исследований все ещё генерируют галлюцинации в 17-33% случаев, несмотря на использование RAG.
- Lexis+ AI - галлюцинации 17%
- Westlaw AI-AR: точность 42%, галлюцинации 33%
- Ask Practical Law AI: точность 19%, отказался отвечать в 62%
- GPT-4 (для сравнения): галюцинации в районе 40%
Типичные ошибки систем
- Путают решение суда с аргументами адвокатов
- Цитируют отмененные прецеденты как действующие или ссылаются на документ, который не подтверждает утверждение
- Не различают иерархию судов (например, могут сказать, что суд штата отменил решение Верховного суда США)
- Генерируют несуществующие параграфы законов
Выводы
- RAG действительно снижает галлюцинации по сравнению с базовыми LLM, но не устраняет их
- Более длинные ответы содержат больше галлюцинаций
- Системы плохо справляются с вопросами, требующими знания юрисдикции и временного контекста
- Нельзя доверять AI-системам без проверки
- Каждую цитату и утверждение нужно верифицировать вручную
Исследователи также дали рекомендации по уменьшению галлюцинаций в RAG.
"Лучшие промты" - не помогают, т.к. галлюцинации - это архитектурная проблема.
"Чем больше документов занесу в RAG, тем более умной она станет" - это заблуждение. После 5–7 источников количество ошибок растет, а не падает, т.к. модель начинает склеивать несовместимое.
На сайте Стэнфордского университет было опубликовано исследование ИИ-сервисов (которые утверждали, что в них нет галлюцинаций) для юридических исследований (юридические RAG). Это платные сервисы которые стоят от 128 до 900 долларов в месяц (Lexis+ AI, Westlaw AI-Assisted Research, Ask Practical Law AI) и был еще обычный GPT-4 без специализированных юридических данных.
Цель исследования - выяснить как часто появляются галлюцинации в специализированных юридических ИИ-помощниках. Оценка проводилась по 200 юридическим запросам.
Результат
Коммерческие AI-инструменты для юридических исследований все ещё генерируют галлюцинации в 17-33% случаев, несмотря на использование RAG.
- Lexis+ AI - галлюцинации 17%
- Westlaw AI-AR: точность 42%, галлюцинации 33%
- Ask Practical Law AI: точность 19%, отказался отвечать в 62%
- GPT-4 (для сравнения): галюцинации в районе 40%
Типичные ошибки систем
- Путают решение суда с аргументами адвокатов
- Цитируют отмененные прецеденты как действующие или ссылаются на документ, который не подтверждает утверждение
- Не различают иерархию судов (например, могут сказать, что суд штата отменил решение Верховного суда США)
- Генерируют несуществующие параграфы законов
Выводы
- RAG действительно снижает галлюцинации по сравнению с базовыми LLM, но не устраняет их
- Более длинные ответы содержат больше галлюцинаций
- Системы плохо справляются с вопросами, требующими знания юрисдикции и временного контекста
- Нельзя доверять AI-системам без проверки
- Каждую цитату и утверждение нужно верифицировать вручную
Исследователи также дали рекомендации по уменьшению галлюцинаций в RAG.
Насколько сильно отличается поиск Google и ИИ-поиск?
Исследователи из University of Toronto прогнали 1000 запросов через Google и ИИ-сервисы (GPT-4, Claude, Perplexity, Gemini) и сравнили, какие сайты они показывают. Запросы брали разные - от "лучшие SUV 2025" до нишевых типа "топ 10 семейных адвокатов Торонто" или "Garmin vs Coros для ультрамарафона".
Знаете, какое пересечение источников между Google и ИИ-сервисами?
- GPT-4o: всего 4% пересечения с Google
- Gemini: 11.1%
- Claude: 12.6%
- Perplexity: 15.2%
Google старается балансировать: 41% - это независимые СМИ типа TechRadar, CNET, Consumer Reports), 34% социальный сети, 26% сайты брендов.
А вот ИИ-чаты ранжируют по другому:
- Claude: 65% - независимые СМИ и всего 1% из соц.сетей
- GPT-4o: 57% - независимые СМИ
- Perplexity: 50% - независимые СМИ
Для транзакционных запросов ("купить iPhone 15") ИИ резко увеличивает упоминание сайтов брендов до 52-68%. Если тебя цитируют TechRadar, CNET или нишевые авторитеты - ты в ИИ-выдаче. Нет упоминаний - нет трафика.
Свежесть контента
Медианный возраст источников:
Бытовая техника:
- Claude: 62 дня
- GPT-4: 80 дней
- Perplexity: 90 дней
- Google: 130 дней
Авто:
- Claude: 148 дней
- GPT-4: 162 дня
- Google: 493 дня
ИИ показывает контент в 2-4 раза свежее. Если ваш сайт не обновлялся полгода - дела плохи.
Популярные и нишевые запросы
Вот тут начинается самое интересное.
Популярные запросы (SUV, iPhone):
- ИИ опирается на то, что выучил при обучении
- 16% сущностей появляются без цитирования вообще - модель "знает" ответ
- Toyota и Honda цитируются в 94-97% случаев, Cadillac и Infiniti - только в 27-42%
- Порядок источников* почти не влияет на результат (Kendall = 0.911)
*Исследователи перемешивали порядок сниппетов, которые подавали в ИИ, и смотрели - изменится ли итоговый ответ или нет.
Для популярных запросов (Kendall = 0.911):
Подали сниппеты в порядке A, B, C, D - ИИ выдал рейтинг: Toyota #1, Honda #2
Перемешали на D, B, A, C - ИИ все равно выдал: Toyota #1, Honda #2.
ИИ уже "знает" из предобучения, что Toyota и Honda - топовые бренды. Ему почти не нужны внешние источники.
Для популярных ниш - главное попасть в контекстное окно. Позиция менее критична.
Для нишевых запросов (Kendall = 0.556):
Подали сниппеты: Адвокат Смит первый - ИИ ответил: Смит #1
Перемешали: Адвокат Джонс первый - ИИ ответил: Джонс #1
ИИ не знает адвокатов Торонто. Он полностью зависит от того, что ему дали, и в каком порядке.
Для нишевых запросов позиция в выдаче критична. ИИ буквально берет первые результаты и строит ответ на них. Для транзакционных интентов ИИ активно тащит официальные сайты брендов.
Исследователи из University of Toronto прогнали 1000 запросов через Google и ИИ-сервисы (GPT-4, Claude, Perplexity, Gemini) и сравнили, какие сайты они показывают. Запросы брали разные - от "лучшие SUV 2025" до нишевых типа "топ 10 семейных адвокатов Торонто" или "Garmin vs Coros для ультрамарафона".
Знаете, какое пересечение источников между Google и ИИ-сервисами?
- GPT-4o: всего 4% пересечения с Google
- Gemini: 11.1%
- Claude: 12.6%
- Perplexity: 15.2%
Google старается балансировать: 41% - это независимые СМИ типа TechRadar, CNET, Consumer Reports), 34% социальный сети, 26% сайты брендов.
А вот ИИ-чаты ранжируют по другому:
- Claude: 65% - независимые СМИ и всего 1% из соц.сетей
- GPT-4o: 57% - независимые СМИ
- Perplexity: 50% - независимые СМИ
Для транзакционных запросов ("купить iPhone 15") ИИ резко увеличивает упоминание сайтов брендов до 52-68%. Если тебя цитируют TechRadar, CNET или нишевые авторитеты - ты в ИИ-выдаче. Нет упоминаний - нет трафика.
Свежесть контента
Медианный возраст источников:
Бытовая техника:
- Claude: 62 дня
- GPT-4: 80 дней
- Perplexity: 90 дней
- Google: 130 дней
Авто:
- Claude: 148 дней
- GPT-4: 162 дня
- Google: 493 дня
ИИ показывает контент в 2-4 раза свежее. Если ваш сайт не обновлялся полгода - дела плохи.
Популярные и нишевые запросы
Вот тут начинается самое интересное.
Популярные запросы (SUV, iPhone):
- ИИ опирается на то, что выучил при обучении
- 16% сущностей появляются без цитирования вообще - модель "знает" ответ
- Toyota и Honda цитируются в 94-97% случаев, Cadillac и Infiniti - только в 27-42%
- Порядок источников* почти не влияет на результат (Kendall = 0.911)
*Исследователи перемешивали порядок сниппетов, которые подавали в ИИ, и смотрели - изменится ли итоговый ответ или нет.
Для популярных запросов (Kendall = 0.911):
Подали сниппеты в порядке A, B, C, D - ИИ выдал рейтинг: Toyota #1, Honda #2
Перемешали на D, B, A, C - ИИ все равно выдал: Toyota #1, Honda #2.
ИИ уже "знает" из предобучения, что Toyota и Honda - топовые бренды. Ему почти не нужны внешние источники.
Для популярных ниш - главное попасть в контекстное окно. Позиция менее критична.
Для нишевых запросов (Kendall = 0.556):
Подали сниппеты: Адвокат Смит первый - ИИ ответил: Смит #1
Перемешали: Адвокат Джонс первый - ИИ ответил: Джонс #1
ИИ не знает адвокатов Торонто. Он полностью зависит от того, что ему дали, и в каком порядке.
Для нишевых запросов позиция в выдаче критична. ИИ буквально берет первые результаты и строит ответ на них. Для транзакционных интентов ИИ активно тащит официальные сайты брендов.
👍5
Pangram - ИИ-детектор с точностью 99.98%
Сегодня поговорим о Pangram Labs - это ИИ-детектор, который активно набирает обороты и заявляет точность 99.98%. Уже сейчас у них 200 000 пользователей. Есть интеграция с Google Docs и есть Chrome-расширение.
Это не очередной клон GPTZero. Pangram основали в 2024 году в Бруклине двое выпускников Стэнфорда - бывший ML-инженер Google и бывший ML-ученый из Tesla. Они обучили собственную нейросеть на миллионе документов, причем скармливали ей специально подобранные, сложные примеры, где грань между человеком и ИИ минимальна. По их данным, сервис ошибочно помечает человеческий текст как ИИ только 1 раз из 10 000 проверок.
Заявляют, что детектят контент от всех основных моделей: ChatGPT, Claude, Gemini, Llama, Grok и других. Плюс есть поддержка 20+ языков.
Wiki Education уже внедрила Pangram для очистки Википедии от ИИ-контента.
Ценник:
- Бесплатно: 4 проверки в день
- Individual: 600 проверок в месяц за $20
- Professional: 3000 проверок в месяц за $65
Ограничение - 1000 слов за одну проверку. Документы длиннее 1000 слов тратят 1 кредит дополнительно на каждые 1000 слов.
Сегодня поговорим о Pangram Labs - это ИИ-детектор, который активно набирает обороты и заявляет точность 99.98%. Уже сейчас у них 200 000 пользователей. Есть интеграция с Google Docs и есть Chrome-расширение.
Это не очередной клон GPTZero. Pangram основали в 2024 году в Бруклине двое выпускников Стэнфорда - бывший ML-инженер Google и бывший ML-ученый из Tesla. Они обучили собственную нейросеть на миллионе документов, причем скармливали ей специально подобранные, сложные примеры, где грань между человеком и ИИ минимальна. По их данным, сервис ошибочно помечает человеческий текст как ИИ только 1 раз из 10 000 проверок.
Заявляют, что детектят контент от всех основных моделей: ChatGPT, Claude, Gemini, Llama, Grok и других. Плюс есть поддержка 20+ языков.
Wiki Education уже внедрила Pangram для очистки Википедии от ИИ-контента.
Ценник:
- Бесплатно: 4 проверки в день
- Individual: 600 проверок в месяц за $20
- Professional: 3000 проверок в месяц за $65
Ограничение - 1000 слов за одну проверку. Документы длиннее 1000 слов тратят 1 кредит дополнительно на каждые 1000 слов.
❤🔥1❤1👍1
Может ли ИИ-текст ранжироваться в топ-10 Google?
Предисловие:
У Pangram (сервис для проверки текста на ИИ) есть API. За $10 можно сделать 200 проверок. Я его хорошенько погонял в попытках обойти (потратил 1000 запросов) - никакие промпты и никакие языковые модели (в том числе диффузионные модели) не проходят проверку как написанные человеком. Но об этом - в другой раз, когда мне хватит сил структурировать все мои попытки.
Поэтому результатам проверки можно доверять. Если каким-то чудом у кого-то из топа получилось пройти проверку, при этом сохранив качество текста - значит, там проделана колоссальная работа, повторить которую за один вечер или неделю, мучая Claude запросами "напиши так, чтобы прошло проверку Pangram", не получится. Различные комбинации нейронок тоже не помогут. Тем более на потоке.
А теперь суть:
Сделал веб-панель на основе выдачи Google от сервиса DataForSEO + Pangram API, чтобы проверить выдачу на ИИ-тексты. Результаты можно посмотреть на скриншотах.
Для некоторых сайтов можно увидеть количество слов - 950. Это намеренное ограничение, чтобы не отправлять на проверку тексты на несколько тысяч слов. 950 слов достаточно для качественной оценки.
Выводы делайте сами.
Предисловие:
У Pangram (сервис для проверки текста на ИИ) есть API. За $10 можно сделать 200 проверок. Я его хорошенько погонял в попытках обойти (потратил 1000 запросов) - никакие промпты и никакие языковые модели (в том числе диффузионные модели) не проходят проверку как написанные человеком. Но об этом - в другой раз, когда мне хватит сил структурировать все мои попытки.
Поэтому результатам проверки можно доверять. Если каким-то чудом у кого-то из топа получилось пройти проверку, при этом сохранив качество текста - значит, там проделана колоссальная работа, повторить которую за один вечер или неделю, мучая Claude запросами "напиши так, чтобы прошло проверку Pangram", не получится. Различные комбинации нейронок тоже не помогут. Тем более на потоке.
А теперь суть:
Сделал веб-панель на основе выдачи Google от сервиса DataForSEO + Pangram API, чтобы проверить выдачу на ИИ-тексты. Результаты можно посмотреть на скриншотах.
Для некоторых сайтов можно увидеть количество слов - 950. Это намеренное ограничение, чтобы не отправлять на проверку тексты на несколько тысяч слов. 950 слов достаточно для качественной оценки.
Выводы делайте сами.
❤4👍2
Как я пытался обойти проверку на ИИ-текст
Pangram - один из самых жестких ИИ-детекторов. Стояла задача: сделать так, чтобы он стабильно помечал тексты как написанные человеком, при этом контент должен быть качественным и точным.
Спойлер: большинство советов из интернета (писать проще, менять температуру, использовать хуманайзеры) - не работают.
В процессе борьбы с Pangram я просил Claude записывать все, что мы делаем и какие результаты получаем - набралось 4000 строк. Не без помощи ИИ я сжал это все до 1500 слов. На мой взгляд, получилось интересно.
Надеюсь, вы получите удовольствие от прочтения.
https://telegra.ph/Kak-ya-pytalsya-obojti-proverku-na-II-tekst-v-Pangram-04-21
Pangram - один из самых жестких ИИ-детекторов. Стояла задача: сделать так, чтобы он стабильно помечал тексты как написанные человеком, при этом контент должен быть качественным и точным.
Спойлер: большинство советов из интернета (писать проще, менять температуру, использовать хуманайзеры) - не работают.
В процессе борьбы с Pangram я просил Claude записывать все, что мы делаем и какие результаты получаем - набралось 4000 строк. Не без помощи ИИ я сжал это все до 1500 слов. На мой взгляд, получилось интересно.
Надеюсь, вы получите удовольствие от прочтения.
https://telegra.ph/Kak-ya-pytalsya-obojti-proverku-na-II-tekst-v-Pangram-04-21
👍6🔥5❤1