🔥 На неделе наконец откроется магазин GPTшек.
То есть ваши кастомные GPT, которые вы сделали открытыми, будут доступны для других. Ими смогут пользоваться только платные подписчики и вы, по идее, будете получать с этого доход. Что-то вроде дохода на YouTube от подписчиков premium, если я правильно понимаю. То есть, площадка будет забирать какую-то долю себе, а оставшуюся часть будет делить по количеству запросов (или токенам) между всеми ГПТшками, которые пользователь будет использовать. Для подписчиков YouTube premium мы по той же схеме получаем доход, только остаток делится по времени просмотра видосов.
Так что, если у вас уже есть крутые проекты, у вас не много времени, чтобы их дооформить, запаковать и выкатить в стор.
То есть ваши кастомные GPT, которые вы сделали открытыми, будут доступны для других. Ими смогут пользоваться только платные подписчики и вы, по идее, будете получать с этого доход. Что-то вроде дохода на YouTube от подписчиков premium, если я правильно понимаю. То есть, площадка будет забирать какую-то долю себе, а оставшуюся часть будет делить по количеству запросов (или токенам) между всеми ГПТшками, которые пользователь будет использовать. Для подписчиков YouTube premium мы по той же схеме получаем доход, только остаток делится по времени просмотра видосов.
Так что, если у вас уже есть крутые проекты, у вас не много времени, чтобы их дооформить, запаковать и выкатить в стор.
Google Search ломается из-за страниц, сгенерированных нейросетями.
Ожидаемо, что количество спамерских страниц, где налито множество воды, только чтобы заставить пользователей провести на странице времени и посмотреть больше рекламы, будет расти. Понятно, что Гуглу с этим справиться очень сложно.
Но намного интереснее, что эти спамерские сайты ещё и потрясающе оптимизированы для поиска. ChatGPT настолько хорош для SEO, что странички со сгенерированными текстами выбиваются в алгоритмах выше остальных. А если ты уже используешь языковую модель для создания контента, тебе, конечно, намного легче и все остальные инструменты себе прикрутить. И рукотворные блоги, соответственно, начинают отставать и проигрывать конкуренцию, потому что многие из них вообще никогда не работали с языковыми моделями.
Дальше веселее, Google начали ловить на том, что они “модифицируют” запрос, который вы ему даёте. То есть, как ChatGPT, вы спрашиваете, что хотите, а он подбирает запрос поисковику так, чтобы найти то, что вам нужно, добавив свои ключевые слова. Только вот это привело к тому, что запросы часто модифицируются так, чтобы показать пользователю как можно больше КОММЕРЧЕСКИХ товаров, то есть подтолкнуть к покупке.
Получается, Google как бы под видом борьбы с нейросеточным спамом, пытается под шумок увеличить доход. Хотя очевидно, что инструменты проверки на “человечность” текста доступны уже всем и Гуглу не составит труда их прикрутить.
На фоне этого в сторе OpenAI в топе висят ГПТшки, которые модифицируют тексты так, чтобы он не распознавался как написанный ИИ. И вообще в самом сторе большинство топовых ГПТшек явно не самые чистые и честные. Понятно, что у OpenAI маленькая команда и настройка этого стора займёт много времени.
В общем, ЗАБАВНАЯ БОРЬБА))
Ожидаемо, что количество спамерских страниц, где налито множество воды, только чтобы заставить пользователей провести на странице времени и посмотреть больше рекламы, будет расти. Понятно, что Гуглу с этим справиться очень сложно.
Но намного интереснее, что эти спамерские сайты ещё и потрясающе оптимизированы для поиска. ChatGPT настолько хорош для SEO, что странички со сгенерированными текстами выбиваются в алгоритмах выше остальных. А если ты уже используешь языковую модель для создания контента, тебе, конечно, намного легче и все остальные инструменты себе прикрутить. И рукотворные блоги, соответственно, начинают отставать и проигрывать конкуренцию, потому что многие из них вообще никогда не работали с языковыми моделями.
Дальше веселее, Google начали ловить на том, что они “модифицируют” запрос, который вы ему даёте. То есть, как ChatGPT, вы спрашиваете, что хотите, а он подбирает запрос поисковику так, чтобы найти то, что вам нужно, добавив свои ключевые слова. Только вот это привело к тому, что запросы часто модифицируются так, чтобы показать пользователю как можно больше КОММЕРЧЕСКИХ товаров, то есть подтолкнуть к покупке.
Получается, Google как бы под видом борьбы с нейросеточным спамом, пытается под шумок увеличить доход. Хотя очевидно, что инструменты проверки на “человечность” текста доступны уже всем и Гуглу не составит труда их прикрутить.
На фоне этого в сторе OpenAI в топе висят ГПТшки, которые модифицируют тексты так, чтобы он не распознавался как написанный ИИ. И вообще в самом сторе большинство топовых ГПТшек явно не самые чистые и честные. Понятно, что у OpenAI маленькая команда и настройка этого стора займёт много времени.
В общем, ЗАБАВНАЯ БОРЬБА))
Мы коллективно решили продолжать стратегию с курсами, потому что получается очень хорошо.
У нас там такое кайфовое комьюнити сложилось и мне самому делать уроки и стримы оказалось интересно. И я очень сильно недооценивал важность чатика учеников, это оказалось чуть ли не самой сильной фишкой курса.
А ландшафт меняется, поэтому через пару месяцев я думаю эту тему повторить. На этот раз настроив работу так, чтобы я успевал и по этому каналу, и на Ютубе и сам курс вести. И ребята из команды попросили собрать фидбек от тех, кто решил не покупать наш курс, чтобы понять, как нам модифицировать его в будущем, чтобы заинтересовать большую аудиторию. Чтобы продать лучше, если быть честным.
Поэтому хочу попросить тех из вас, кто НЕ ПОКУПАЛ наш курс дать свой фидбек, чтобы помочь нам выработать стратегию на будущее. Я оставляю опросник, если у вас есть настроение, оставьте свои мысли, пожалуйста. Нам будет очень полезен такой фидбек.
https://forms.gle/GrgXKnj6E1WXUjUs9
У нас там такое кайфовое комьюнити сложилось и мне самому делать уроки и стримы оказалось интересно. И я очень сильно недооценивал важность чатика учеников, это оказалось чуть ли не самой сильной фишкой курса.
А ландшафт меняется, поэтому через пару месяцев я думаю эту тему повторить. На этот раз настроив работу так, чтобы я успевал и по этому каналу, и на Ютубе и сам курс вести. И ребята из команды попросили собрать фидбек от тех, кто решил не покупать наш курс, чтобы понять, как нам модифицировать его в будущем, чтобы заинтересовать большую аудиторию. Чтобы продать лучше, если быть честным.
Поэтому хочу попросить тех из вас, кто НЕ ПОКУПАЛ наш курс дать свой фидбек, чтобы помочь нам выработать стратегию на будущее. Я оставляю опросник, если у вас есть настроение, оставьте свои мысли, пожалуйста. Нам будет очень полезен такой фидбек.
https://forms.gle/GrgXKnj6E1WXUjUs9
Google Docs
Опросник по курсу Шарифова
Media is too big
VIEW IN TELEGRAM
Воооу, в ChatGPT наконец появится функция, которой очень сильно не хватало.
Он будет собирать знания, к которым будет обращаться в будущих чатах.
Меня немного бесило, что, когда я пользуюсь своим персональным ассистентом Скади, мы всегда начинаем диалог как бы заново. Он помнит только те инструкции, которые я ему дал изначально. От реального персонального помощника такой экспириенс, конечно, сильно отличается. Это как если бы ваш секретарь каждый день забывал всё, о чем вы говорили вчера и помнил только свои обязанности, которые вы описали при приёме на работу 😂
Теперь можно будет отдельно просить ChatGPT запоминать те или иные моменты и нюансы. Это всё ещё не контекстуальное запоминание, а скорее прямое. Но это уже очень похоже на реального человека, который не запоминает все отдельные подробности взаимодействия, а помнит только итоги и важные детали.
Я пока не могу протестировать, посколько эту фичу выкатывают медленно для отдельных аккаунтов. Если у вас уже появилась, поделитесь опытом, пожалуйста.
p.s. Также будут “временные” чаты по типу “инкогнито” в браузерах, данные из которых не будут записываться в память. Просто знайте эту информацию.
https://openai.com/blog/memory-and-new-controls-for-chatgpt
Он будет собирать знания, к которым будет обращаться в будущих чатах.
Меня немного бесило, что, когда я пользуюсь своим персональным ассистентом Скади, мы всегда начинаем диалог как бы заново. Он помнит только те инструкции, которые я ему дал изначально. От реального персонального помощника такой экспириенс, конечно, сильно отличается. Это как если бы ваш секретарь каждый день забывал всё, о чем вы говорили вчера и помнил только свои обязанности, которые вы описали при приёме на работу 😂
Теперь можно будет отдельно просить ChatGPT запоминать те или иные моменты и нюансы. Это всё ещё не контекстуальное запоминание, а скорее прямое. Но это уже очень похоже на реального человека, который не запоминает все отдельные подробности взаимодействия, а помнит только итоги и важные детали.
Я пока не могу протестировать, посколько эту фичу выкатывают медленно для отдельных аккаунтов. Если у вас уже появилась, поделитесь опытом, пожалуйста.
p.s. Также будут “временные” чаты по типу “инкогнито” в браузерах, данные из которых не будут записываться в память. Просто знайте эту информацию.
https://openai.com/blog/memory-and-new-controls-for-chatgpt
Media is too big
VIEW IN TELEGRAM
Вопрос. Как думаете, как получилось это видео?
This media is not supported in your browser
VIEW IN TELEGRAM
Ага, презентовали новый продукт. Sora. Генерация видео по тексту, как с картинками, только в динамике. Представляю, насколько это несопоставимо по сложности с DALL-E и сколько мощностей это занимает. Цифр пока не знаю, но буду очень удивлен, если это будет работать быстро в ближайшее время. Но это точно не остановить. Представьте, какие возможности визуализации это открывает для документалок и видосиков.
Пока его тестируют совсем избранные. Наверное, ещё много придётся пошаманить с безопасностью, прежде чем это выкатывать людям.
#обновление
Пока его тестируют совсем избранные. Наверное, ещё много придётся пошаманить с безопасностью, прежде чем это выкатывать людям.
#обновление
Каждый новый анонс AI продукта считает своим долгом объявить, что это поможет вам составить план путешествия и рецепт для готовки.
Я чего-то не понимаю? Это реально настолько популярный сценарий использования?
И это уже начинает казаться странным. Вот выкатили Copilot GPTшки, которые ВНЕЗАПНО помогут вам поставить план поездки и план обеда. Реально, для этого предназначен такой мощный инструмент?
Я начинаю подозревать, что за эти анонсы отвечает какой-то отдельный искусственный интеллект, который знает о людях только, что они едят и ездят🙂
Я чего-то не понимаю? Это реально настолько популярный сценарий использования?
И это уже начинает казаться странным. Вот выкатили Copilot GPTшки, которые ВНЕЗАПНО помогут вам поставить план поездки и план обеда. Реально, для этого предназначен такой мощный инструмент?
Я начинаю подозревать, что за эти анонсы отвечает какой-то отдельный искусственный интеллект, который знает о людях только, что они едят и ездят
Please open Telegram to view this post
VIEW IN TELEGRAM
Не хочу вдаваться в конспирологию, поэтому воспринимайте все мои мысли как спекуляции. Скорее всего, всё не так, как я накидываю. Но если так, это безумная история. Начнём с официальной информации.
14 февраля OpenAI объявили, что поймали несколько серьёзных угроз, исходящих от аккаунтов, аффилированных с государствами. Там были компании из Ирана, Северной Кореи, Китая и… России. Они занимались запрещённой и опасной деятельностью, используя либо ChatGPT, либо API.
Дальше команда по безопасности Microsoft выкатила отчёт. Аффилированный с Россией аккаунт пытался перерабатывать открытые источники, связанные с протоколами коммуникации спутников и технологиями распознавания объектов на Земле со спутника. Возможно, что-то похожее на наведение с использованием спутников. Активность с этих аккаунтов также была связана с оборонкой, НКО, и организациями связанными с войной России и Украины. Это “предприятие” связали с отделом ГРУ 26165.
Отдельно от этого, того же 14 февраля появились новости о том, что разведка США обладает разведдаными о серьёзной угрозе национальной безопасности. Источники в основных газетах сразу начали сообщать, что это связано с Россией и исследованиями в области космического оружия. Позже конгрессмены это подтвердили.
Это была официальная информация, а теперь мои спекуляции.
Ааааа, как это забавно, если ГРУшники, которые занимались хакерскими атаками годами просто тупо вбивали в ChatGPT засекреченную инфу и пытались найти и синтезировать инфу по секретным заданиям, а OpenAI вместе с Microsoft слили её ЦРУ. Ещё раз вспомним, что OpenAI открыто говорит, что они МОГУТ читать все ваши чаты и они будут проверяться на нелегальную деятельность 😛
Может видос об этом сделать?
14 февраля OpenAI объявили, что поймали несколько серьёзных угроз, исходящих от аккаунтов, аффилированных с государствами. Там были компании из Ирана, Северной Кореи, Китая и… России. Они занимались запрещённой и опасной деятельностью, используя либо ChatGPT, либо API.
Дальше команда по безопасности Microsoft выкатила отчёт. Аффилированный с Россией аккаунт пытался перерабатывать открытые источники, связанные с протоколами коммуникации спутников и технологиями распознавания объектов на Земле со спутника. Возможно, что-то похожее на наведение с использованием спутников. Активность с этих аккаунтов также была связана с оборонкой, НКО, и организациями связанными с войной России и Украины. Это “предприятие” связали с отделом ГРУ 26165.
Отдельно от этого, того же 14 февраля появились новости о том, что разведка США обладает разведдаными о серьёзной угрозе национальной безопасности. Источники в основных газетах сразу начали сообщать, что это связано с Россией и исследованиями в области космического оружия. Позже конгрессмены это подтвердили.
Это была официальная информация, а теперь мои спекуляции.
Ааааа, как это забавно, если ГРУшники, которые занимались хакерскими атаками годами просто тупо вбивали в ChatGPT засекреченную инфу и пытались найти и синтезировать инфу по секретным заданиям, а OpenAI вместе с Microsoft слили её ЦРУ. Ещё раз вспомним, что OpenAI открыто говорит, что они МОГУТ читать все ваши чаты и они будут проверяться на нелегальную деятельность 😛
Может видос об этом сделать?
ChatGPT всё ещё на голову выше остальных в самом важном для меня - в нюансах.
Делал ресерч для следующего видео и решил попробовать задать неординардный вопрос трём LLM. Новый Gemini интересный, новый Claude вообще очень хорош.
Вопрос был такой: Почему в арабских странах, таких как Саудовская Аравия, Катар и ОАЭ, так много молодых парней? Пирамиды населения этих стран показывают огромный рост численности молодых людей с 1980-х годов, до этого она была сбалансирована.
Все приведённые ответы были хороши (Bard всё-таки хуже), чего раньше я мог добиться только от ChatGPT. НО! Обратите внимание, насколько хорошо ChatGPT сумел сообразить контекст.
Давайте сразу зафиксируем правильный ответ на этот вопрос.
Причин много, но главная - это приток мужской рабочей силы из более бедных стран для работы в нефтяной отрасли и в строительстве.
👍 ChatGPT - тот, кто выводит эту причину на первое место, обозначает как “наиболее значимую”. Остальные просто бегло по ней проходятся.
В пункте про “высокие уровни рождаемости в этих странах” ChatGPT - единственный, кто отмечает, что это влияло на прирост “молодых людей любых полов”, добавив, что “…влияние этого фактора распределено более равномерно между полами.” Claude добавил, что в таких странах, согласно исследованиям, рождается больше мальчиков, но это не такое значительное различие.
👎 Bard же вообще делает вид, как будто не понимает, что я спрашиваю про перевес в сторону парней, а не просто молодых людей. Возможно, это какое-то искусственное ограничение, похожее на расовую проблему при генерации у них картинок, но ответ на мой вопрос я так и не получил.
Содержание картинок:
1. Полово-возрастная пирамида Саудовской Аравии в 2000 году.
2. Ответ Claude.
3. Перевод ответа Claude.
4. Ответ Gemini.
5-6. Перевод ответа Gemini.
7. Ответ ChatGPT.
8. Перевод ответа ChatGPT.
И вот ссылка на диалог с ChatGPT
https://chat.openai.com/share/218df6c6-0bc5-468b-9d26-d6497dbce470
Делал ресерч для следующего видео и решил попробовать задать неординардный вопрос трём LLM. Новый Gemini интересный, новый Claude вообще очень хорош.
Вопрос был такой: Почему в арабских странах, таких как Саудовская Аравия, Катар и ОАЭ, так много молодых парней? Пирамиды населения этих стран показывают огромный рост численности молодых людей с 1980-х годов, до этого она была сбалансирована.
Все приведённые ответы были хороши (Bard всё-таки хуже), чего раньше я мог добиться только от ChatGPT. НО! Обратите внимание, насколько хорошо ChatGPT сумел сообразить контекст.
Давайте сразу зафиксируем правильный ответ на этот вопрос.
Причин много, но главная - это приток мужской рабочей силы из более бедных стран для работы в нефтяной отрасли и в строительстве.
👍 ChatGPT - тот, кто выводит эту причину на первое место, обозначает как “наиболее значимую”. Остальные просто бегло по ней проходятся.
В пункте про “высокие уровни рождаемости в этих странах” ChatGPT - единственный, кто отмечает, что это влияло на прирост “молодых людей любых полов”, добавив, что “…влияние этого фактора распределено более равномерно между полами.” Claude добавил, что в таких странах, согласно исследованиям, рождается больше мальчиков, но это не такое значительное различие.
👎 Bard же вообще делает вид, как будто не понимает, что я спрашиваю про перевес в сторону парней, а не просто молодых людей. Возможно, это какое-то искусственное ограничение, похожее на расовую проблему при генерации у них картинок, но ответ на мой вопрос я так и не получил.
Содержание картинок:
1. Полово-возрастная пирамида Саудовской Аравии в 2000 году.
2. Ответ Claude.
3. Перевод ответа Claude.
4. Ответ Gemini.
5-6. Перевод ответа Gemini.
7. Ответ ChatGPT.
8. Перевод ответа ChatGPT.
И вот ссылка на диалог с ChatGPT
https://chat.openai.com/share/218df6c6-0bc5-468b-9d26-d6497dbce470
Окей, надо поговорить про copilot.
Все заметили, что Microsoft взяли один свой провальный бренд (Bing) и подменили его название успешным и любимым (copilot)?
Изначально copilot был разработан OpenAI вместе с GitHub (100% которого принадлежит Microsoft). И существовал совсем для другого.
А теперь в него подтягивают всё, что есть у ChatGPT. Разумеется, потому что к этим технологиям у них приоритетный доступ. Они всё больше становятся братьями-близнецами, только с разными интерфейсами.
Согласитесь, ощущения от себя, когда поработал с copilot, намного приятнее, чем после бинга. И рассказать коллегам уже не так стыдно. И многие этого даже не заметили.
Где-то мы, кстати, такое уже видели. Например, когда ненавидимый всеми российский государственный Mail ru переименовали в дочерний ему VK. Тоже вроде сработало.
А ещё вопрос на засыпку, вы знали, что у Microsoft была powered by Bing умная колонка? Вот и Microsoft теперь хочет, чтобы вы начали забывать об этом страшном слове.
Все заметили, что Microsoft взяли один свой провальный бренд (Bing) и подменили его название успешным и любимым (copilot)?
Изначально copilot был разработан OpenAI вместе с GitHub (100% которого принадлежит Microsoft). И существовал совсем для другого.
А теперь в него подтягивают всё, что есть у ChatGPT. Разумеется, потому что к этим технологиям у них приоритетный доступ. Они всё больше становятся братьями-близнецами, только с разными интерфейсами.
Согласитесь, ощущения от себя, когда поработал с copilot, намного приятнее, чем после бинга. И рассказать коллегам уже не так стыдно. И многие этого даже не заметили.
Где-то мы, кстати, такое уже видели. Например, когда ненавидимый всеми российский государственный Mail ru переименовали в дочерний ему VK. Тоже вроде сработало.
А ещё вопрос на засыпку, вы знали, что у Microsoft была powered by Bing умная колонка? Вот и Microsoft теперь хочет, чтобы вы начали забывать об этом страшном слове.
Щас будет жесткая история, то ли про сексуализированное насилие, то ли не про него.
Подростки во Флориде использовали “неназванное” приложение с ИИ, с помощью которого генерировали дипфейки своих несовершеннолетних одноклассниц в возрасте от 12 до 13 лет. Мальчики были арестованы и им были предъявлены обвинения.
Во Флориде есть очень редкий закон, запрещающий создавать дипфейки реальных людей, будь то знаменитость или любой живой человек. И там есть часть про “minors” - детей. Оказалось, что это очень распространённая проблема, особенно в школах. Но это первый кейс реального ареста.
Но я не могу понять до конца, можем ли мы считать нюдесом “человека А” изображение, где от “человека А” берётся только лицо, а тело принадлежит “человеку Б”, который консенсуально записал его на видео и согласился с его публикацией. Или если тело сгенерировано нейросетью. Может мы считаем проблемой, что такое изображение могут принять за настоящее и человек будет забуллен?
Если дети пришили лица одноклассниц к реальным изображениям тел других детей, у них очень серьёзные проблемы, потому что их будут судить сразу по нескольким обвинениям, состав одного из которых будет неоспорим. Они и будут теми, кто создаст прецедент. И на основании их приговора будут рассматриваться все следующие кейсы, но только в этом штате. Каждому другому штату и государству придётся решать, что с этим делать, отдельно.
Подростки во Флориде использовали “неназванное” приложение с ИИ, с помощью которого генерировали дипфейки своих несовершеннолетних одноклассниц в возрасте от 12 до 13 лет. Мальчики были арестованы и им были предъявлены обвинения.
Во Флориде есть очень редкий закон, запрещающий создавать дипфейки реальных людей, будь то знаменитость или любой живой человек. И там есть часть про “minors” - детей. Оказалось, что это очень распространённая проблема, особенно в школах. Но это первый кейс реального ареста.
Но я не могу понять до конца, можем ли мы считать нюдесом “человека А” изображение, где от “человека А” берётся только лицо, а тело принадлежит “человеку Б”, который консенсуально записал его на видео и согласился с его публикацией. Или если тело сгенерировано нейросетью. Может мы считаем проблемой, что такое изображение могут принять за настоящее и человек будет забуллен?
Если дети пришили лица одноклассниц к реальным изображениям тел других детей, у них очень серьёзные проблемы, потому что их будут судить сразу по нескольким обвинениям, состав одного из которых будет неоспорим. Они и будут теми, кто создаст прецедент. И на основании их приговора будут рассматриваться все следующие кейсы, но только в этом штате. Каждому другому штату и государству придётся решать, что с этим делать, отдельно.