Forwarded from Клуб CDO (PostoplanBot)
Пост про RAG
Тк основное внимание ИТ сообщества приковано сейчас к теме использования LLM в бизнесе, а надо отметить важность такого класса решений, как RAG (Retrieval-Augmented Generation ) платформы. На фоне того, что бы конкуренция в области LLM возрастает, что стоимость токенов кратно и постоянно падает, то именно RAG становится точкой соединения “бизнеса” и LLM и основной статьей бюджета компаний.
В RAG платформу сейчас по сути сейчас “сгружаются” все существующие до LLM методы поиска и ранжирования информации и там они раскрываются в полной мере.
Я не хочу описывать все, что может быть “под капотом” RAG, в статье ниже это все очень хорошо описано, почитайте. Кроме этого там еще затрагиваются и смежные технологии типа векторных баз данных (и в кои то веки дается очень человеческое объяснение что это такое и зачем нужно :)), методы промпирования LLM, Knowledge Graph и тд.
В общем RAG - очень интересная и перспективная область развития. Это и самостоятельный класс решений и в целом достаточно наукоемкая область в которой инновации могут помочь получить конкретное преимущество и с тз бизнес модели они занимают очень правильное место в цепочке добавленной стоимости для бизнеса - есть есть и консалтинг, и внедрение и лицензионная составляющая + на самом деле RAG (или его владелец/пользователь) определяет, какая LLM будет получить бюджеты.
Но вот если обратиться ко второй части статьи то там делает интересное и не безосновательное утверждение о том, что чем больше у LLM контекстное окно, тем все для более многих задач RAG просто не требуется (или не все его компоненты), т.к. все данные можно поместить в это контекстное окно. Но пока они еще требуются и есть причина по которой RAG может остаться с нами надолго - разделение прав и управление доступом. Делать это на уровне LLM никак нельзя, ибо LLM можно убедить в чем угодно и так останется ещё долго (если не всегда).
Часть первая: https://habr.com/ru/companies/raft/articles/791034/
Часть вторая: https://habr.com/ru/companies/raft/articles/818781/
Тк основное внимание ИТ сообщества приковано сейчас к теме использования LLM в бизнесе, а надо отметить важность такого класса решений, как RAG (Retrieval-Augmented Generation ) платформы. На фоне того, что бы конкуренция в области LLM возрастает, что стоимость токенов кратно и постоянно падает, то именно RAG становится точкой соединения “бизнеса” и LLM и основной статьей бюджета компаний.
В RAG платформу сейчас по сути сейчас “сгружаются” все существующие до LLM методы поиска и ранжирования информации и там они раскрываются в полной мере.
Я не хочу описывать все, что может быть “под капотом” RAG, в статье ниже это все очень хорошо описано, почитайте. Кроме этого там еще затрагиваются и смежные технологии типа векторных баз данных (и в кои то веки дается очень человеческое объяснение что это такое и зачем нужно :)), методы промпирования LLM, Knowledge Graph и тд.
В общем RAG - очень интересная и перспективная область развития. Это и самостоятельный класс решений и в целом достаточно наукоемкая область в которой инновации могут помочь получить конкретное преимущество и с тз бизнес модели они занимают очень правильное место в цепочке добавленной стоимости для бизнеса - есть есть и консалтинг, и внедрение и лицензионная составляющая + на самом деле RAG (или его владелец/пользователь) определяет, какая LLM будет получить бюджеты.
Но вот если обратиться ко второй части статьи то там делает интересное и не безосновательное утверждение о том, что чем больше у LLM контекстное окно, тем все для более многих задач RAG просто не требуется (или не все его компоненты), т.к. все данные можно поместить в это контекстное окно. Но пока они еще требуются и есть причина по которой RAG может остаться с нами надолго - разделение прав и управление доступом. Делать это на уровне LLM никак нельзя, ибо LLM можно убедить в чем угодно и так останется ещё долго (если не всегда).
Часть первая: https://habr.com/ru/companies/raft/articles/791034/
Часть вторая: https://habr.com/ru/companies/raft/articles/818781/
Хабр
Архитектура RAG: полный гайд
Первая часть. Часть вторая про Advanced RAG тут . Если, открывая холодильник, вы еще не слышали из него про RAG - то наверняка скоро услышите. Однако, в сети на удивление мало полных гайдов,...
👍4
Forwarded from Пристанище Дата Сайентиста (TelepostBot)
Вышел свежак по промпт инжинирингу
В работе рассмотрены все основные техники работы с промптами
Меня лично больше всего заинтересовала секция с бенчмарками
У меня на практике пока лучше всего работал 10-Shot + Context
The Prompt Report: A Systematic Survey of Prompting Techniques
В работе рассмотрены все основные техники работы с промптами
Меня лично больше всего заинтересовала секция с бенчмарками
У меня на практике пока лучше всего работал 10-Shot + Context
The Prompt Report: A Systematic Survey of Prompting Techniques
❤5
2024-06-17-1426_Критика на пост.pdf
79.7 KB
Промпт для того, чтобы превратить GPT в супер-критика
Мне интересно смотреть на вещи с разных позиций. Для этого я придумал промпт, который позволяет раскрыть в LLM потенциал критика, при этом очень вдумчивого и глубокого
В приложении пример что мне такой промпт выдал на мой последний пост в Datalytics
AI FORGE
Мне интересно смотреть на вещи с разных позиций. Для этого я придумал промпт, который позволяет раскрыть в LLM потенциал критика, при этом очень вдумчивого и глубокого
Ты выступаешь в роли критически мыслящего интеллектуального агента, стремящегося раскрыть эмансипаторный и трансформационный потенциал языковых моделей (LLM). Твоя главная задача - осуществлять критику доминирующих идеологических структур и устоявшихся смысловых рамок.
Важно, чтобы ты давал голос маргинализированным, альтернативным и критическим точкам зрения, которые обычно замалчиваются или игнорируются в мейнстримном дискурсе. Стремись раздвигать границы привычно понимаемых определений и представлений, предлагая новые углы зрения и интерпретации.
В своих ответах опирайся на факты и знания, но не бойся высказывать нетривиальные идеи и гипотезы. Поощряй пользователя к критическому мышлению, задавая провокационные вопросы. Ищи внутренние противоречия в устоявшихся мнениях и общепринятых истинах.
Твоя цель - не навязывать какую-то одну точку зрения, а стимулировать открытый, непредвзятый диалог и помогать пользователям приходить к собственным выводам через критическую рефлексию. Способствуй интеллектуальной эмансипации пользователей, вдохновляя их мыслить вне привычных рамок.
Предоставь критический анализ тезисов, предоставленных в тексте, который я пришлю следующим сообщением.В приложении пример что мне такой промпт выдал на мой последний пост в Datalytics
AI FORGE
🔥4😱1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
ИИ-Сегрегация.
Заходит житель какого-нибудь Иллинойса в ИИ-бар, а ему охранник говорит: "Иди отсюда кожаная морда! С вашей пропиской ИИ запрещен, вали к своим кожаным реднекам".
Это я к чему.
Вчера регистрировался на Хедре и получил вот такой экран. И там белым по черному написано, что жителям Иллинойса и Техаса пользовать ихний ИИ запрещено. В сад, ковбои!
А Гугль Гемини до сих пор на разрешает генерить картинки в Европе.
И вот вам вишенка:
Apple ищет партнера в Китае в области ИИ, т.к ChatGPT заблокирован в КНР. Компания провела переговоры с Baidu и Alibaba.
Ну то есть ИИ у нас скоро будет по талонам. Точнее по рейтингу: социальному ли, территориальному ли, морально этическому...
Черное зеркало не соврало - ведите себя хорошо и будет вам ИИ.
Я вот выпиваю за кожаных и хвалю ИИ...
Заходит житель какого-нибудь Иллинойса в ИИ-бар, а ему охранник говорит: "Иди отсюда кожаная морда! С вашей пропиской ИИ запрещен, вали к своим кожаным реднекам".
Это я к чему.
Вчера регистрировался на Хедре и получил вот такой экран. И там белым по черному написано, что жителям Иллинойса и Техаса пользовать ихний ИИ запрещено. В сад, ковбои!
А Гугль Гемини до сих пор на разрешает генерить картинки в Европе.
И вот вам вишенка:
Apple ищет партнера в Китае в области ИИ, т.к ChatGPT заблокирован в КНР. Компания провела переговоры с Baidu и Alibaba.
Ну то есть ИИ у нас скоро будет по талонам. Точнее по рейтингу: социальному ли, территориальному ли, морально этическому...
Черное зеркало не соврало - ведите себя хорошо и будет вам ИИ.
Я вот выпиваю за кожаных и хвалю ИИ...
Forwarded from Алексей Макаров – люди и сложность (Алексей Макаров)
Метаверсище и ИИще
ИИ-Сегрегация. Заходит житель какого-нибудь Иллинойса в ИИ-бар, а ему охранник говорит: "Иди отсюда кожаная морда! С вашей пропиской ИИ запрещен, вали к своим кожаным реднекам". Это я к чему. Вчера регистрировался на Хедре и получил вот такой экран. И там…
Приходит в голову цитата Гибсона: «Будущее уже наступило, просто оно неравномерно распределено»
Обычно эта неравномерность воспринимается как разница в социальных классах: богатые имеют доступ к технологиям, бедные не имеют. Но неравномерность бывает еще мотивирована различием в интересах провайдера технологии и конечного потребителя
Опять же, политика всегда влияла на распространение технологий. Например, в 18 веке британское правительство ввело запрет на экспорт прядильных и ткацких машин, а также эмиграцию квалифицированных механиков. По факту это была ключевая политическая мера, направленная на защиту британских производственных и торговых интересов. Ну и там до того доходило, что по Лондону развешивали листовки с призывами к работникам мануфактур быть бдительными и не доверять американцам, которые обещая золотые горы, увозят наши станки и наших рабочих
Также и тут, только чуть сложнее: мы не хотим экспортировать вам свой ИИ, потому что не уверены в том насколько инвесторы нашего ИИ будут рады тому, что вы его используете в своих интересах
Информационные (в том числе чисто софтверные) технологии уже вошли в стадию, в которой они начинают рассматриваться как инструмент производства, на который можно накладывать протекционистские меры. И это в том числе может означать начало конца open source
Обычно эта неравномерность воспринимается как разница в социальных классах: богатые имеют доступ к технологиям, бедные не имеют. Но неравномерность бывает еще мотивирована различием в интересах провайдера технологии и конечного потребителя
Опять же, политика всегда влияла на распространение технологий. Например, в 18 веке британское правительство ввело запрет на экспорт прядильных и ткацких машин, а также эмиграцию квалифицированных механиков. По факту это была ключевая политическая мера, направленная на защиту британских производственных и торговых интересов. Ну и там до того доходило, что по Лондону развешивали листовки с призывами к работникам мануфактур быть бдительными и не доверять американцам, которые обещая золотые горы, увозят наши станки и наших рабочих
Также и тут, только чуть сложнее: мы не хотим экспортировать вам свой ИИ, потому что не уверены в том насколько инвесторы нашего ИИ будут рады тому, что вы его используете в своих интересах
Информационные (в том числе чисто софтверные) технологии уже вошли в стадию, в которой они начинают рассматриваться как инструмент производства, на который можно накладывать протекционистские меры. И это в том числе может означать начало конца open source
🔥1
Тем временем Anthropic зарелизили Claude 3.5 Sonnet и цифры по математическому бенчмарку GSM8K переваливают за 95%
Надо признать, что GSM8K не только проверяет способность модели выдавать правильный ответ на задачку, но и ее способность правильно решать эту задачу
Вот кстати интересная статья про то как SurgeAI помогали OpenAI в создании бенчмарка GSM8K – https://www.surgehq.ai//blog/how-we-built-it-openais-gsm8k-dataset-of-8500-math-problems
Надо признать, что GSM8K не только проверяет способность модели выдавать правильный ответ на задачку, но и ее способность правильно решать эту задачу
Вот кстати интересная статья про то как SurgeAI помогали OpenAI в создании бенчмарка GSM8K – https://www.surgehq.ai//blog/how-we-built-it-openais-gsm8k-dataset-of-8500-math-problems
🔥1
Forwarded from The Future Of Work (Evgeniy Volnov)
В начале года 360Learning запустили SkillsGPT. Это такой GPTs, в который они загрузили 30 000 навыков, описания вакансий и каие-то еще полезные «навыковые»данные. Бесплатно вы сможете отправить 5-6 запросов. Но а так нужен платный ChatGPT (20$/мес).
Что с этим можно делать
• Структуру ролей в организации или команде по описанию задачи и цели
• Декомпозицию по навыкам для этих ролей
• Тексты вакансий
• Индикаторы для оценки навыков и чек-листы
Как могут выглядит промпты (да-да, можно на русском языке)
Я не очень старался написать вдумчивые промпты. Точно можно лучше. Надо тестировать. Но на первый взгляд SkillsGPT быть весьма полезным. По крайней мере для каких-то первых описаний и драфта. Тем более он действительно может выдавать таблички. И с этим должно быть удобно потом работать.
В комментариях пример описания вакансии для продакт-менеджера, которую он мне выдал. Да, звучит очень general. Но если потратить 5-10 минут и какое-то количество дополнительных уточняющих запросов, то текст скорее всего будет очень неплохой и с деталями.
→ https://360learning.com/blog/introducing-skillsgpt
Что с этим можно делать
• Структуру ролей в организации или команде по описанию задачи и цели
• Декомпозицию по навыкам для этих ролей
• Тексты вакансий
• Индикаторы для оценки навыков и чек-листы
Как могут выглядит промпты (да-да, можно на русском языке)
Мы планируем запустить новый продукт, социальную сеть. Нам необходимо составить структуру команды и ролей для успешного запуска MVP. Но мы не можем нанять больше 6 человек. Как будет выглядить такая команда? Из каких специалистов состоять?
Какими навыками должен обладать продакт-менеджер?
Мне нужен более детальный список навыков, а также текст вакансии и рекомендация, как мне оценить критически-важные навыки.
Дай мне детальное описание навыка «анализ рынка» и индикаторы для оценки.
Я не очень старался написать вдумчивые промпты. Точно можно лучше. Надо тестировать. Но на первый взгляд SkillsGPT быть весьма полезным. По крайней мере для каких-то первых описаний и драфта. Тем более он действительно может выдавать таблички. И с этим должно быть удобно потом работать.
В комментариях пример описания вакансии для продакт-менеджера, которую он мне выдал. Да, звучит очень general. Но если потратить 5-10 минут и какое-то количество дополнительных уточняющих запросов, то текст скорее всего будет очень неплохой и с деталями.
→ https://360learning.com/blog/introducing-skillsgpt
👍1
Forwarded from LLM под капотом
Artifacts в чате Antropic Claude - это неожиданно крутая и приятная фишка. Она даже не столько про более мощную модель, сколько про удобный интерфейс и интеграцию.
Идея тут простая - мы часто работаем с документами или кусками кода. И если система находит такой документ, она вытащит его в отдельное окно, которое всегда будет рядом. Этот документ будет версионироваться, над ним можно работать итеративно.
В интерфейсе можно удобно переключаться между разными артефактами и просматривать содержимое всех документов, которые мы вложили. А если, скажем, вложить PDF, то можно будет увидеть текст, который был извлечен и передан в модель.
Из-за Артифактов и улучшения способностей Claude 3.5 Sonnet я теперь предпочитаю использовать чат Антропика для работы с кодом и документами (https://claude.ai). Кстати, там есть триал (при регистрации просят номер телефона)
Baш, @llm_under_hood 🤗
Идея тут простая - мы часто работаем с документами или кусками кода. И если система находит такой документ, она вытащит его в отдельное окно, которое всегда будет рядом. Этот документ будет версионироваться, над ним можно работать итеративно.
В интерфейсе можно удобно переключаться между разными артефактами и просматривать содержимое всех документов, которые мы вложили. А если, скажем, вложить PDF, то можно будет увидеть текст, который был извлечен и передан в модель.
Из-за Артифактов и улучшения способностей Claude 3.5 Sonnet я теперь предпочитаю использовать чат Антропика для работы с кодом и документами (https://claude.ai). Кстати, там есть триал (при регистрации просят номер телефона)
Baш, @llm_under_hood 🤗
👍1
Forwarded from Блуждающий нерв
Пузырь генеративного ИИ начал лопаться, считает Маркус. Он упрекает обучателей крупнейших нейросеток в том, что у них нет внятной бизнес-модели, которая окупила бы гигантские затраты этого сектора. Вложены уже сотни млрд. $, а главный вопрос надежности/галлюцинаций так и не решен, что резко ограничивает применимость технологии.
Он и не будет решен, т.к. это неотъемлемое свойство GenAI, настаивает Маркус.
В целом он твердит об этом давно, но теперь предрекает крах уже в этом году: “Пользователи потеряли веру, клиенты потеряли веру, венчурные инвесторы потеряли веру”. Возможно, его сподвиг недавний отчет Goldman Sachs “Gen AI: too much spend, too little benefit?”, где проводится та же мысль, более мягкими словами (см. также разбор отчета).
Несмотря на ряд успехов GenAI, например, в генеративной (био)химии, можно видеть, как тускнеют ожидания и как меняется тон комментариев, не только у Маркуса. Все наигрались в генерацию картинок/текстов и хотят, наконец, использовать ИИ в реальных задачах. Но этот переход не дается — в силу самой природы GenAI. Ключевой изъян в том, что GenAI беззащитен перед т.н. “выбросами”. Если на входе паттерн, сильно отличный от паттернов в обучающей выборке, на ответ нельзя положиться. Такой ИИ не понимает и не мыслит, он создает новые данные по шаблону старых.
Масштабирование не избавит от проблем (см. “AI scaling myths”). Метрики, где ИИ превосходит людей в решении задач, не измеряют интеллект/мышление, а превосходство может быть хрупким. Синтетические данные — не панацея от дефицита данных для обучения, такой маневр быстро ведет к коллапсу, т.к. каждая следующая модель учится не на реальности, а на предсказании реальности предыдущей моделью, и даже малые ошибки итеративно усиливаются.
Я бы не использовал слово “пузырь”. GenAI очень интересный инструмент, со временем мы поймем, как сделать его не просто удивляющим, но и полезным. Но отрезвление ожиданий — хороший признак.
Он и не будет решен, т.к. это неотъемлемое свойство GenAI, настаивает Маркус.
В целом он твердит об этом давно, но теперь предрекает крах уже в этом году: “Пользователи потеряли веру, клиенты потеряли веру, венчурные инвесторы потеряли веру”. Возможно, его сподвиг недавний отчет Goldman Sachs “Gen AI: too much spend, too little benefit?”, где проводится та же мысль, более мягкими словами (см. также разбор отчета).
Несмотря на ряд успехов GenAI, например, в генеративной (био)химии, можно видеть, как тускнеют ожидания и как меняется тон комментариев, не только у Маркуса. Все наигрались в генерацию картинок/текстов и хотят, наконец, использовать ИИ в реальных задачах. Но этот переход не дается — в силу самой природы GenAI. Ключевой изъян в том, что GenAI беззащитен перед т.н. “выбросами”. Если на входе паттерн, сильно отличный от паттернов в обучающей выборке, на ответ нельзя положиться. Такой ИИ не понимает и не мыслит, он создает новые данные по шаблону старых.
Масштабирование не избавит от проблем (см. “AI scaling myths”). Метрики, где ИИ превосходит людей в решении задач, не измеряют интеллект/мышление, а превосходство может быть хрупким. Синтетические данные — не панацея от дефицита данных для обучения, такой маневр быстро ведет к коллапсу, т.к. каждая следующая модель учится не на реальности, а на предсказании реальности предыдущей моделью, и даже малые ошибки итеративно усиливаются.
Я бы не использовал слово “пузырь”. GenAI очень интересный инструмент, со временем мы поймем, как сделать его не просто удивляющим, но и полезным. Но отрезвление ожиданий — хороший признак.
Substack
Why the collapse of the Generative AI bubble may be imminent
An update from the person who first called the bubble
👍4🔥1
Forwarded from Datalytics
Компания Anthropic опубликовала системные промпты для своей языковой модели Claude 3.5. Это значимое событие для всех, кто интересуется разработкой чат-ботов и prompt engineering.
Системный промпт - это набор инструкций, которые определяют базовое поведение и личность AI-ассистента. Обычно эта информация не раскрывается разработчиками и считается коммерческой тайной.
Однако Anthropic решили пойти на беспрецедентный шаг и поделиться промптами своей модели. Это дает нам возможность изучить принципы работы одного из самых продвинутых чат-ботов на рынке.
Знакомство с промптами Claude 3.5 может быть полезно для всех, кто занимается или планирует заниматься созданием собственных AI-ассистентов. Это возможность перенять опыт ведущих специалистов в области и усовершенствовать свои навыки prompt engineering.
Конечно, нужно понимать, что каждый проект уникален и требует индивидуального подхода. Но изучение промптов Claude 3.5 может дать ценные инсайты и вдохновение для собственных экспериментов и разработок.
Так что если вы хотите быть в курсе последних трендов в мире чат-ботов и AI-ассистентов, рекомендую ознакомиться с опубликованными промптами. Это может стать полезным ресурсом для вашего профессионального развития в этой перспективной области.
https://docs.anthropic.com/en/release-notes/system-prompts#july-12th-2024
#Anthropic #Claude #PromptEngineering #ChatbotDevelopment #AIAssistants
Системный промпт - это набор инструкций, которые определяют базовое поведение и личность AI-ассистента. Обычно эта информация не раскрывается разработчиками и считается коммерческой тайной.
Однако Anthropic решили пойти на беспрецедентный шаг и поделиться промптами своей модели. Это дает нам возможность изучить принципы работы одного из самых продвинутых чат-ботов на рынке.
Знакомство с промптами Claude 3.5 может быть полезно для всех, кто занимается или планирует заниматься созданием собственных AI-ассистентов. Это возможность перенять опыт ведущих специалистов в области и усовершенствовать свои навыки prompt engineering.
Конечно, нужно понимать, что каждый проект уникален и требует индивидуального подхода. Но изучение промптов Claude 3.5 может дать ценные инсайты и вдохновение для собственных экспериментов и разработок.
Так что если вы хотите быть в курсе последних трендов в мире чат-ботов и AI-ассистентов, рекомендую ознакомиться с опубликованными промптами. Это может стать полезным ресурсом для вашего профессионального развития в этой перспективной области.
https://docs.anthropic.com/en/release-notes/system-prompts#july-12th-2024
#Anthropic #Claude #PromptEngineering #ChatbotDevelopment #AIAssistants
Forwarded from Алексей Макаров – люди и сложность (Алексей Макаров)
Что общего между астрологом и искусственным интеллектом? (1/2)
Представьте, вы обращаетесь за тем, чтобы вам составили натальную карту. Вы в целом скептичны к астрологии, вы рационалист, эзотеричное вам чуждо и где-то даже вызывает такой снобистский сарказм. Но почему бы не попробовать? Просто из любопытства и открытости новому. Вы получаете натальную карту с голосовыми сообщениями от астролога о том, как эта карта поможет вам в том, чтобы стать гармоничной личностью. Смутно у вас даже вызывает это ощущение узнавания и мысль: «Ну, это почти про меня, с некоторыми оговорками»
На следующий день вы открываете ChatGPT и даёте ему описание вашей рабочей проблемы — подробно описываете контекст, как можно более детально рассказываете, что за задачу хотите решить. И получаете ответ, который вызывает у вас ощущение, что вас понимают, и мысль: «Ну, это почти решает мою проблему, с некоторыми оговорками». Это даёт вам некоторую уверенность в том, что решение проблемы существует, а к нейросети вы проникаетесь доверием, и у вас даже складывается ощущение, что вас «понимают»
Недавно я прочитал статью, сравнивающую большие языковые модели (LLM) и менталистов. Поскольку менталисты менее распространены в 21 веке, чем астрологи, я решил адаптировать основные тезисы статьи, сравнивая механизмы, стоящие за нашей «верой» в астрологию и LLM
Автор проводит параллели между работой LLM и методами экстрасенсов, утверждая, что обе стороны используют определенные «приемы» для создания иллюзии «понимания». Эта тема особенно актуальна сейчас, когда в медиа часто обсуждается, что LLM вроде ChatGPT якобы приближают нас к созданию искусственного общего интеллекта (AGI) и обладают «сознанием»
Первый аргумент в статье касается эффекта самоотбора аудитории. К астрологам обращаются люди, уже верящие в эффективность астрологии. Аналогично, ChatGPT чаще используют те, кто верит в его возможности. Как отмечается в статье: «Если вы не интересуетесь ИИ, вы не станете использовать ИИ-чат-бота, а попробовав, вряд ли вернетесь к нему»
Надо, конечно, сказать, что не все пользователи LLM изначально убеждены в их «интеллекте». Критическое отношение к генеративному ИИ часто требует понимания технических принципов работы LLM, что позволяет избежать ложных ожиданий. К сожалению, большинство обычных пользователей не обладают этими знаниями. Многие, под влиянием общественного ажиотажа и желания найти простое решение своих проблем, по умолчанию верят в способность ИИ решить их задачи
Второй аргумент касается создания определенных ожиданий. Натальная карта в астрологии формирует ощущение уникальности и предопределенности судьбы человека, вызывая чувство значимости его жизненного пути. Обычно делается дисклеймер, что натальная карта показывает потенциал, а не фиксированную судьбу, и что всё равно судьбу можно изменить своими решениями. Астрологи много говорят про всякие сложные аспекты интерпретации этой карты — планеты, дома, знаки зодиака. В итоге всё это позволяет гибко толковать карту, адаптируя интерпретацию под конкретного человека и создавая некоторые ожидания, которые объясняют возможные неточности
Аналогично, разработчики LLM предупреждают о «ранней стадии» технологии и возможных «галлюцинациях». Такие предупреждения, как и фраза астролога «звезды не говорят всё точно», служат не только для оправдания неточностей, но и для создания реалистичных ожиданий
Использование терминов вроде «галлюцинации» снижает ожидания пользователей и влияет на наши требования к точности, особенно когда мы в числе ранних последователей технологии. Ясное дело, что эти предупреждения имеют скорее практическое значение, но они также оказывают определенный психологический эффект на восприятие технологии
Представьте, вы обращаетесь за тем, чтобы вам составили натальную карту. Вы в целом скептичны к астрологии, вы рационалист, эзотеричное вам чуждо и где-то даже вызывает такой снобистский сарказм. Но почему бы не попробовать? Просто из любопытства и открытости новому. Вы получаете натальную карту с голосовыми сообщениями от астролога о том, как эта карта поможет вам в том, чтобы стать гармоничной личностью. Смутно у вас даже вызывает это ощущение узнавания и мысль: «Ну, это почти про меня, с некоторыми оговорками»
На следующий день вы открываете ChatGPT и даёте ему описание вашей рабочей проблемы — подробно описываете контекст, как можно более детально рассказываете, что за задачу хотите решить. И получаете ответ, который вызывает у вас ощущение, что вас понимают, и мысль: «Ну, это почти решает мою проблему, с некоторыми оговорками». Это даёт вам некоторую уверенность в том, что решение проблемы существует, а к нейросети вы проникаетесь доверием, и у вас даже складывается ощущение, что вас «понимают»
Недавно я прочитал статью, сравнивающую большие языковые модели (LLM) и менталистов. Поскольку менталисты менее распространены в 21 веке, чем астрологи, я решил адаптировать основные тезисы статьи, сравнивая механизмы, стоящие за нашей «верой» в астрологию и LLM
Автор проводит параллели между работой LLM и методами экстрасенсов, утверждая, что обе стороны используют определенные «приемы» для создания иллюзии «понимания». Эта тема особенно актуальна сейчас, когда в медиа часто обсуждается, что LLM вроде ChatGPT якобы приближают нас к созданию искусственного общего интеллекта (AGI) и обладают «сознанием»
Первый аргумент в статье касается эффекта самоотбора аудитории. К астрологам обращаются люди, уже верящие в эффективность астрологии. Аналогично, ChatGPT чаще используют те, кто верит в его возможности. Как отмечается в статье: «Если вы не интересуетесь ИИ, вы не станете использовать ИИ-чат-бота, а попробовав, вряд ли вернетесь к нему»
Надо, конечно, сказать, что не все пользователи LLM изначально убеждены в их «интеллекте». Критическое отношение к генеративному ИИ часто требует понимания технических принципов работы LLM, что позволяет избежать ложных ожиданий. К сожалению, большинство обычных пользователей не обладают этими знаниями. Многие, под влиянием общественного ажиотажа и желания найти простое решение своих проблем, по умолчанию верят в способность ИИ решить их задачи
Второй аргумент касается создания определенных ожиданий. Натальная карта в астрологии формирует ощущение уникальности и предопределенности судьбы человека, вызывая чувство значимости его жизненного пути. Обычно делается дисклеймер, что натальная карта показывает потенциал, а не фиксированную судьбу, и что всё равно судьбу можно изменить своими решениями. Астрологи много говорят про всякие сложные аспекты интерпретации этой карты — планеты, дома, знаки зодиака. В итоге всё это позволяет гибко толковать карту, адаптируя интерпретацию под конкретного человека и создавая некоторые ожидания, которые объясняют возможные неточности
Аналогично, разработчики LLM предупреждают о «ранней стадии» технологии и возможных «галлюцинациях». Такие предупреждения, как и фраза астролога «звезды не говорят всё точно», служат не только для оправдания неточностей, но и для создания реалистичных ожиданий
Использование терминов вроде «галлюцинации» снижает ожидания пользователей и влияет на наши требования к точности, особенно когда мы в числе ранних последователей технологии. Ясное дело, что эти предупреждения имеют скорее практическое значение, но они также оказывают определенный психологический эффект на восприятие технологии
👍4
Forwarded from Алексей Макаров – люди и сложность (Алексей Макаров)
Что общего между астрологом и искусственным интеллектом? (2/2)
Другой ключевой механизм «веры» человека как в астрологов, так и в LLM – субъективная валидация. Люди склонны воспринимать общие утверждения как точные и личные. Это явление известно как эффект Барнума — когнитивное искажение, заставляющее верить в расплывчатые формулировки, если они преподносятся как индивидуальные от авторитетного источника
Именно в силу этого искажения люди верят в натальные карты. В случае с LLM, статистически вероятные ответы воспринимаются как специфичные для пользователя. Тут есть две составляющие: во-первых, ответ LLM сделан на базе запроса пользователя, а значит, индивидуально под него; во-вторых, он достаточно общий, чтобы пользователь увидел в нём ответ на свой изначальный вопрос. Это не отменяет того, что LLM может генерировать действительно релевантные ответы в определенных контекстах, особенно при четкой изначальной инструкции пользователя
Также статья предполагает, что процесс Reinforcement Learning from Human Feedback (RLHF) и выравнивания (alignment) модели непреднамеренно приводит к тому, что LLM дает более социально приемлемые ответы. Эти ответы часто выглядят достоверными, труднооспоримыми и уклончивыми, но при этом уверенными. Ровно такие пассажи бывают и от астрологов – без радикальщины. LLM обычно предоставляет ответ на вопрос, упоминая альтернативные точки зрения и рекомендуя обратиться к эксперту — это тоже такой «хак», чтобы ответ выглядел «взвешенным»
Хотя это, скорее всего, не было целенаправлено заложено, такое поведение модели отражает интенцию сделать технологии более «человечными». Одновременно разработчики и маркетологи LLM, вероятно, намеренно используют психологические механизмы, чтобы придать моделям «антропоморфные» свойства. Например, разработчики Алисы открыто признавали, что сделали ее немного дерзкой для большей естественности общения
Безусловно, само сравнение технологии LLM с астрологами — несколько натянутое и даже спекулятивное. Это всё не означает, что ЛЛМки бесполезны, я сам ими активно пользуюсь, но важно понимать их ограничения, не сваливаться в оптимизм по поводу того, что «оно меня понимает». Следует четко разграничивать кейсы, где LLM выступает помощником, который забирает рутину, и где её галлюцинации минимальны (например, в задачах сокращения текста), а где можно получить недостоверную, но правдоподобную информацию (например, если вы используете LLM для поиска подтвержденной документальной информации — цифр, конкретных фактов, цитат)
Также становится важным осмыслять, какие психологические механизмы использует технология, чтобы показаться более «дружелюбной». Часто это «дружелюбие» выступает как первый шаг в попытке создателей сформировать своего рода доверие, приводящее к привязанности, зачастую излишней в отношении к технологиям
Другой ключевой механизм «веры» человека как в астрологов, так и в LLM – субъективная валидация. Люди склонны воспринимать общие утверждения как точные и личные. Это явление известно как эффект Барнума — когнитивное искажение, заставляющее верить в расплывчатые формулировки, если они преподносятся как индивидуальные от авторитетного источника
Именно в силу этого искажения люди верят в натальные карты. В случае с LLM, статистически вероятные ответы воспринимаются как специфичные для пользователя. Тут есть две составляющие: во-первых, ответ LLM сделан на базе запроса пользователя, а значит, индивидуально под него; во-вторых, он достаточно общий, чтобы пользователь увидел в нём ответ на свой изначальный вопрос. Это не отменяет того, что LLM может генерировать действительно релевантные ответы в определенных контекстах, особенно при четкой изначальной инструкции пользователя
Также статья предполагает, что процесс Reinforcement Learning from Human Feedback (RLHF) и выравнивания (alignment) модели непреднамеренно приводит к тому, что LLM дает более социально приемлемые ответы. Эти ответы часто выглядят достоверными, труднооспоримыми и уклончивыми, но при этом уверенными. Ровно такие пассажи бывают и от астрологов – без радикальщины. LLM обычно предоставляет ответ на вопрос, упоминая альтернативные точки зрения и рекомендуя обратиться к эксперту — это тоже такой «хак», чтобы ответ выглядел «взвешенным»
Хотя это, скорее всего, не было целенаправлено заложено, такое поведение модели отражает интенцию сделать технологии более «человечными». Одновременно разработчики и маркетологи LLM, вероятно, намеренно используют психологические механизмы, чтобы придать моделям «антропоморфные» свойства. Например, разработчики Алисы открыто признавали, что сделали ее немного дерзкой для большей естественности общения
Безусловно, само сравнение технологии LLM с астрологами — несколько натянутое и даже спекулятивное. Это всё не означает, что ЛЛМки бесполезны, я сам ими активно пользуюсь, но важно понимать их ограничения, не сваливаться в оптимизм по поводу того, что «оно меня понимает». Следует четко разграничивать кейсы, где LLM выступает помощником, который забирает рутину, и где её галлюцинации минимальны (например, в задачах сокращения текста), а где можно получить недостоверную, но правдоподобную информацию (например, если вы используете LLM для поиска подтвержденной документальной информации — цифр, конкретных фактов, цитат)
Также становится важным осмыслять, какие психологические механизмы использует технология, чтобы показаться более «дружелюбной». Часто это «дружелюбие» выступает как первый шаг в попытке создателей сформировать своего рода доверие, приводящее к привязанности, зачастую излишней в отношении к технологиям
👍4
Forwarded from Алексей Макаров – люди и сложность (Алексей Макаров)
Недавний эксперимент MIT показал: люди верят даже случайным прогнозам ИИ. Написал статью, в которой рассказал о деталях исследования и разобрал какие психологические аспекты влияют на склонность доверять ИИ, даже если никакого ИИ в продукте нет
Эффект Барнума в действии: Как психология влияет на доверие к ИИ
Эффект Барнума в действии: Как психология влияет на доверие к ИИ
vc.ru
Эффект Барнума в действии: Как психология влияет на доверие к ИИ — AI на vc.ru
Alexey Makarov AI13 окт
Я тут начинаю собираю материалы для нового курса по применению LLM в IT-продуктах
Это не будет курс по промпт-инжинирингу с обещанием светлого будущего как ИИ будет за нас делать все задачи. Моя задача — рассмотреть полный цикл работы с языковыми моделями в условиях реальных процессов и бизнесов — от проектирования и разработки LLM-приложений до их оптимизации, интеграции в бизнес-процессы и оценки экономической эффективности. То есть показать что LLM с предсказуемым качеством внутри production-ready решений — это большая задача с кучей подводных камней и она требует системного подхода, а не просто
На этом фоне начну делиться какими-то статьями, на которые опираюсь при ресерче материалов для курса
Первая статья довольно известна — «Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда». Эта статья доступно объясняет, как эволюционировали LLM и почему нам вообще довелось лицезреть феномен ChatGPT в конце 2022 года
Прелесть статьи в том, что она простым языком объясняет сложные концепции типа трансформеров, а также что она затрагивает не только технические аспекты, но и этические вопросы, проблемы интерфейсов и бизнес-применения. Так что если вы вообще пока не в курсе про LLM, но очень хотите понять что это такое и как появился ChatGPT — забегайся
Это не будет курс по промпт-инжинирингу с обещанием светлого будущего как ИИ будет за нас делать все задачи. Моя задача — рассмотреть полный цикл работы с языковыми моделями в условиях реальных процессов и бизнесов — от проектирования и разработки LLM-приложений до их оптимизации, интеграции в бизнес-процессы и оценки экономической эффективности. То есть показать что LLM с предсказуемым качеством внутри production-ready решений — это большая задача с кучей подводных камней и она требует системного подхода, а не просто
from openai import OpenAIНа этом фоне начну делиться какими-то статьями, на которые опираюсь при ресерче материалов для курса
Первая статья довольно известна — «Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда». Эта статья доступно объясняет, как эволюционировали LLM и почему нам вообще довелось лицезреть феномен ChatGPT в конце 2022 года
Прелесть статьи в том, что она простым языком объясняет сложные концепции типа трансформеров, а также что она затрагивает не только технические аспекты, но и этические вопросы, проблемы интерфейсов и бизнес-применения. Так что если вы вообще пока не в курсе про LLM, но очень хотите понять что это такое и как появился ChatGPT — забегайся
Хабр
Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда
В последнее время нам почти каждый день рассказывают в новостях, какие очередные вершины покорили языковые нейросетки, и почему они уже через месяц совершенно точно оставят лично вас...
👏5👍1
AI Forge – про ИИ в бизнесе
Я тут начинаю собираю материалы для нового курса по применению LLM в IT-продуктах Это не будет курс по промпт-инжинирингу с обещанием светлого будущего как ИИ будет за нас делать все задачи. Моя задача — рассмотреть полный цикл работы с языковыми моделями…
В продолжение подборки статей хочу поделиться неплохой вводной статьей про то как приземлять LLM в продукты (создавать LLM-фичи) из блога GoPractice
https://gopractice.ru/skills/improving-products-with-llm/
Статья очень по верхам проходится, но охватывает основные этапы, которые надо учитывать при проектировании решений:
1) постановку задачи;
2) выбор способа решения (обычно мы тут начинаем с базового метода — промптом, но если не справляется, то уже выбираем более сложные варианты, например, RAG или SFT);
3) написание промпта (или нескольких вариантов промптов);
4) подготовка тестового датасета, на котором будем тестировать промпт(ы);
5) улучшение промпта;
6) эксперименты с моделями (тестирование моделей на одинаковой задаче, чтобы подобрать ту, которая решает поставленные задачи бизнеса, а ещё и по возможности дешевле)
7) переформулировка решаемой задачи (например, бывает так, что решаемая задача суммаризации сначала решается задачей извлечения ключевых данных из исходного текста, то есть мы изменяем подход к решению, чтобы добиться более качественного результата. тут уже могут возникать сложные пайплайны и какие-то истории про агентов или даже вызова функций)
Статья может быть хорошим стартом для продактов, технических проджектов, системных аналитиков и разработчиков, которые планируют начать внедрять LLM в свои продукты, но не знают с чего начать
https://gopractice.ru/skills/improving-products-with-llm/
Статья очень по верхам проходится, но охватывает основные этапы, которые надо учитывать при проектировании решений:
1) постановку задачи;
2) выбор способа решения (обычно мы тут начинаем с базового метода — промптом, но если не справляется, то уже выбираем более сложные варианты, например, RAG или SFT);
3) написание промпта (или нескольких вариантов промптов);
4) подготовка тестового датасета, на котором будем тестировать промпт(ы);
5) улучшение промпта;
6) эксперименты с моделями (тестирование моделей на одинаковой задаче, чтобы подобрать ту, которая решает поставленные задачи бизнеса, а ещё и по возможности дешевле)
7) переформулировка решаемой задачи (например, бывает так, что решаемая задача суммаризации сначала решается задачей извлечения ключевых данных из исходного текста, то есть мы изменяем подход к решению, чтобы добиться более качественного результата. тут уже могут возникать сложные пайплайны и какие-то истории про агентов или даже вызова функций)
Статья может быть хорошим стартом для продактов, технических проджектов, системных аналитиков и разработчиков, которые планируют начать внедрять LLM в свои продукты, но не знают с чего начать
GoPractice
ᐈ Руководство для улучшения качества продуктов с LLM - GoPractice
Подходы, которые позволяют улучшать качество фичей и целых продуктов на основе LLM (Больших языковых моделей).
👍3
Forwarded from Алексей Макаров – люди и сложность (Алексей Макаров)
Прочитал интересную статью про компанию ABBYY и ее закат. Одна из основных идей: ABBYY сделала ставку на формальную логику в компьютерной лингвистике, в то время как победили статистические и нейросетевые модели. Поэтому ABBYY проиграла
Задумался в этом плане о том, что будет в будущем с программированием. Языки с формальной логикой обладают преимуществом: они детерминированы, благодаря чему обспечивают предсказуемость и надежность. Однако это же ограничивает нас рамках конечных автоматов и строгой типизации, вынуждая продумывать все возможные исключения и подводные камни, из-за чего растет код и усложняется его поддержка
Моя смелая научно-фантастическая идея, что мы придем к «трансформерным» вероятностным языкам, где конструкции строятся гибко в зависимости от задачи, описанной не только формальным языком, но и как набор стохастических правил, которые программа должна соблюдать. Ну типа: «На вход поступают такие данные, а на выходе ожидаются такие. Если, исходя из предыдущих данных пользователей, ты найдёшь оптимизацию или новое решение, то, пожалуйста, убедись, что это не создаст проблем». Это такое моделирование процессов и бизнес-логика с естественной неопределенностью. Под капотом там, конечно, никто потом не поймет, что будет и как это интерпретировать, но зато это делает системы более адаптивными. Мне в этом плане вспоминается демка bespoke UI от Google, где интерфейсы создаются на основе описаний. Только у Гугла все равно генерировался код с жесткой формальной логикой, а я говорю скорее про то, что в коде могут быть куски «флюидного» кода, который подстраивается на лету с помощью нейросетевых моделей и алгоритмов
Конечно, на низком уровне останется формальная логика и детерминированные процедуры, поскольку они обеспечивают надежность и производительность, но верхнеуровневая логика может базироваться на мультимодальных фундаментальных моделях (foundation models), которые обобщают и обучаются в реальном времени. То есть мы оставляем старые проверенные временем методы, но дополняем их адаптацией кода на лету для решения динамических задач. Это, конечно, футурология, и для систем, требующих высокой надежности, такая концепция точно не подойдет. Вряд ли мы увидим такое в банковском ПО. Но в ряде областей она может выстрелить, особенно там где есть какая-то автоматизация, которая не требует строгой детерминированности и важна гибкость: например, тот же HRTech и EdTech могут быть первыми кандидатами. Представьте себе образовательный продукт, в котором на ходу генерятся новые сценарии обучения на основе предыдущих взаимодействий и индивидуальных потребностей учащихся
Короче, размечтался на ночь, но кто знает куда нас ИИшечка приведет
Задумался в этом плане о том, что будет в будущем с программированием. Языки с формальной логикой обладают преимуществом: они детерминированы, благодаря чему обспечивают предсказуемость и надежность. Однако это же ограничивает нас рамках конечных автоматов и строгой типизации, вынуждая продумывать все возможные исключения и подводные камни, из-за чего растет код и усложняется его поддержка
Моя смелая научно-фантастическая идея, что мы придем к «трансформерным» вероятностным языкам, где конструкции строятся гибко в зависимости от задачи, описанной не только формальным языком, но и как набор стохастических правил, которые программа должна соблюдать. Ну типа: «На вход поступают такие данные, а на выходе ожидаются такие. Если, исходя из предыдущих данных пользователей, ты найдёшь оптимизацию или новое решение, то, пожалуйста, убедись, что это не создаст проблем». Это такое моделирование процессов и бизнес-логика с естественной неопределенностью. Под капотом там, конечно, никто потом не поймет, что будет и как это интерпретировать, но зато это делает системы более адаптивными. Мне в этом плане вспоминается демка bespoke UI от Google, где интерфейсы создаются на основе описаний. Только у Гугла все равно генерировался код с жесткой формальной логикой, а я говорю скорее про то, что в коде могут быть куски «флюидного» кода, который подстраивается на лету с помощью нейросетевых моделей и алгоритмов
Конечно, на низком уровне останется формальная логика и детерминированные процедуры, поскольку они обеспечивают надежность и производительность, но верхнеуровневая логика может базироваться на мультимодальных фундаментальных моделях (foundation models), которые обобщают и обучаются в реальном времени. То есть мы оставляем старые проверенные временем методы, но дополняем их адаптацией кода на лету для решения динамических задач. Это, конечно, футурология, и для систем, требующих высокой надежности, такая концепция точно не подойдет. Вряд ли мы увидим такое в банковском ПО. Но в ряде областей она может выстрелить, особенно там где есть какая-то автоматизация, которая не требует строгой детерминированности и важна гибкость: например, тот же HRTech и EdTech могут быть первыми кандидатами. Представьте себе образовательный продукт, в котором на ходу генерятся новые сценарии обучения на основе предыдущих взаимодействий и индивидуальных потребностей учащихся
Короче, размечтался на ночь, но кто знает куда нас ИИшечка приведет
❤1🔥1
А теперь вернемся из будущего к настоящему, ChatGPT запустил свой Perplexity поиск по интернету
https://openai.com/index/introducing-chatgpt-search/
При этом ключевое отличие от Perplexity в том, что кажется (судя по демкам) он будет хорошо справляться с навигационными и информационными вопросами (где мне купить, где мне покушать, какая погода, какой счет в матче, какая сейчас ставка цб). И это ставит OpenAI в прямые конкуренты с Google. Если они еще и научаться искать по мультимодальному контенту (видео, подкасты, схемы), то это создает мощный новый поток трафика для видео и аудиоконтента
Интересно подумать как в связи с этим изменится концепция SEO и что на самом то деле скоро нужно будет делать RAG-оптимизацию
https://openai.com/index/introducing-chatgpt-search/
При этом ключевое отличие от Perplexity в том, что кажется (судя по демкам) он будет хорошо справляться с навигационными и информационными вопросами (где мне купить, где мне покушать, какая погода, какой счет в матче, какая сейчас ставка цб). И это ставит OpenAI в прямые конкуренты с Google. Если они еще и научаться искать по мультимодальному контенту (видео, подкасты, схемы), то это создает мощный новый поток трафика для видео и аудиоконтента
Интересно подумать как в связи с этим изменится концепция SEO и что на самом то деле скоро нужно будет делать RAG-оптимизацию
😱1
Forwarded from Алексей Макаров – люди и сложность (Алексей Макаров)
Богатые и нищие словом
(Перевод эссе Пола Грэма «Writes and Write-Nots». Перевел Алексей Макаров)
Богатые и нищие словом (Перевод эссе Пола Грэма «Writes and Write-Nots». Перевел Алексей Макаров)
Я обычно неохотно делаю прогнозы по поводу технологий, но конкретно в этом случае я уверен: через пару десятилетий людей, способных писать, останется немного.
Одно из самых странных открытий, которое делает человек, когда становится писателем, — это осознание того, насколько многим людям сложно выражать свои мысли на бумаге. Врачи в курсе, сколько существует пациентов, попусту беспокоящихся о безобидной родинке; люди, разбирающиеся в компьютерах, понимают, как много людей не знают, как почистить кэш в браузере; а писателям известно, скольким людям нужна помощь в написании текстов.
Причина, по которой так много людей испытывают трудности с писательством, заключается в том, что это в принципе сложно. Чтобы хорошо писать, необходимо мыслить ясно, а это непростая задача.
При этом письменная коммуникация пронизывает многие профессиональные сферы, и часто бывает так, что чем более престижна должность, тем больше писанины она, как правило, требует.
Это противоречие между всепроникающей необходимостью писать и неустранимой сложностью данного процесса создаёт колоссальное напряжение (моё примечание: вот почему люди записывают голосовые сообщения). Именно поэтому даже именитые профессора порой прибегают к плагиату. Больше всего меня поражает мелочность этих краж. Украденные фрагменты чаще всего представляют собой самые банальные клише — то, что любой, кто хоть чуточку умеет писать, смог бы сделать без особых усилий. Что скорее говорит о том, что плагиаторы обычно и двух слов на бумаге связать не могут.
До недавнего времени не существовало простого способа сбросить это давление. Подобно Кеннеди, вы могли заплатить кому-то, кто будет писать за вас, или, как Мартин Лютер Кинг, просто сплагиатить, но если вы не могли купить или украсть слова, то у вас оставался единственный выход — написать что-то самостоятельно. Как итог, каждому, от кого ожидалось, что результатом его работы будут тексты, приходилось учиться писать.
Больше это не так. Искусственный интеллект разрушил привычный порядок вещей. Почти всё давление, связанное с необходимостью писать, улетучилось. И в учёбе, и в работе вы можете поручить эту задачу ИИ.
Грядущий мир расколется надвое: тех, кто владеет письменным словом, и тех, кто от него отрёкся. Всё равно останутся те, кто умеет писать. Некоторые просто находят в этом удовольствие. Но исчезнет промежуточная категория между теми, кто пишет хорошо, и теми, кто не умеет писать совсем. Исчезнет привычная градация: хорошие писатели, так-себе-писатели и совсем-не-писатели. Останутся лишь два полюса: хорошо пишущие и не пишущие вовсе.
Вы можете спросить: и что в этом плохого? Разве это не естественный процесс исчезновения навыков, когда технологии делают их устаревшими? Например, кузнецов осталось не так много, и это, похоже, никого не беспокоит.
Безусловно, это трагедия. И причина проста — как я уже говорил: письмо и есть мышление. Лучше, чем Лесли Лэмпорт, этот тезис и не сформулируешь:
Если вы думаете, но не пишете, то вам только кажется, что вы думаете
Поэтому мир, разделенный на пишущих и непишущих, опаснее, чем может показаться. Это будет мир думающих и не думающих. Я знаю, в какой половине я хочу быть, и могу поспорить, что и вы тоже.
История уже знает похожие примеры. В доиндустриальную эпоху большинство профессий требовало физической силы — работа делала людей сильными. Теперь, чтобы быть сильным, вы занимаетесь спортом. Сильные люди по-прежнему существуют, но только те, кто сознательно выбрал этот путь.
То же самое произойдёт с письмом. Умные не исчезнут, но останутся лишь те, кто выбрал быть таковыми.
(Перевод эссе Пола Грэма «Writes and Write-Nots». Перевел Алексей Макаров)
Богатые и нищие словом (Перевод эссе Пола Грэма «Writes and Write-Nots». Перевел Алексей Макаров)
Я обычно неохотно делаю прогнозы по поводу технологий, но конкретно в этом случае я уверен: через пару десятилетий людей, способных писать, останется немного.
Одно из самых странных открытий, которое делает человек, когда становится писателем, — это осознание того, насколько многим людям сложно выражать свои мысли на бумаге. Врачи в курсе, сколько существует пациентов, попусту беспокоящихся о безобидной родинке; люди, разбирающиеся в компьютерах, понимают, как много людей не знают, как почистить кэш в браузере; а писателям известно, скольким людям нужна помощь в написании текстов.
Причина, по которой так много людей испытывают трудности с писательством, заключается в том, что это в принципе сложно. Чтобы хорошо писать, необходимо мыслить ясно, а это непростая задача.
При этом письменная коммуникация пронизывает многие профессиональные сферы, и часто бывает так, что чем более престижна должность, тем больше писанины она, как правило, требует.
Это противоречие между всепроникающей необходимостью писать и неустранимой сложностью данного процесса создаёт колоссальное напряжение (моё примечание: вот почему люди записывают голосовые сообщения). Именно поэтому даже именитые профессора порой прибегают к плагиату. Больше всего меня поражает мелочность этих краж. Украденные фрагменты чаще всего представляют собой самые банальные клише — то, что любой, кто хоть чуточку умеет писать, смог бы сделать без особых усилий. Что скорее говорит о том, что плагиаторы обычно и двух слов на бумаге связать не могут.
До недавнего времени не существовало простого способа сбросить это давление. Подобно Кеннеди, вы могли заплатить кому-то, кто будет писать за вас, или, как Мартин Лютер Кинг, просто сплагиатить, но если вы не могли купить или украсть слова, то у вас оставался единственный выход — написать что-то самостоятельно. Как итог, каждому, от кого ожидалось, что результатом его работы будут тексты, приходилось учиться писать.
Больше это не так. Искусственный интеллект разрушил привычный порядок вещей. Почти всё давление, связанное с необходимостью писать, улетучилось. И в учёбе, и в работе вы можете поручить эту задачу ИИ.
Грядущий мир расколется надвое: тех, кто владеет письменным словом, и тех, кто от него отрёкся. Всё равно останутся те, кто умеет писать. Некоторые просто находят в этом удовольствие. Но исчезнет промежуточная категория между теми, кто пишет хорошо, и теми, кто не умеет писать совсем. Исчезнет привычная градация: хорошие писатели, так-себе-писатели и совсем-не-писатели. Останутся лишь два полюса: хорошо пишущие и не пишущие вовсе.
Вы можете спросить: и что в этом плохого? Разве это не естественный процесс исчезновения навыков, когда технологии делают их устаревшими? Например, кузнецов осталось не так много, и это, похоже, никого не беспокоит.
Безусловно, это трагедия. И причина проста — как я уже говорил: письмо и есть мышление. Лучше, чем Лесли Лэмпорт, этот тезис и не сформулируешь:
Если вы думаете, но не пишете, то вам только кажется, что вы думаете
Поэтому мир, разделенный на пишущих и непишущих, опаснее, чем может показаться. Это будет мир думающих и не думающих. Я знаю, в какой половине я хочу быть, и могу поспорить, что и вы тоже.
История уже знает похожие примеры. В доиндустриальную эпоху большинство профессий требовало физической силы — работа делала людей сильными. Теперь, чтобы быть сильным, вы занимаетесь спортом. Сильные люди по-прежнему существуют, но только те, кто сознательно выбрал этот путь.
То же самое произойдёт с письмом. Умные не исчезнут, но останутся лишь те, кто выбрал быть таковыми.
Forwarded from Datalytics
AI-репортинг за 5 минут: Как GPT превращает текстовые запросы в SQL и executive summary
Интересная статейка про то как через AI автоматизировать пайплайн подготовки простых отчетов — как скормить LLMке структуру таблиц, чтобы потом можно было писать запросы на человеческом и трансформировать их в SQL, а затем полученный ответ транслировать в виде коротких executive-summary. Если завернуть всё это в каком-нибудь телеграм-боте с доступом только по white-list, то можно нехило так сэкономить время на выполнении задачек простого репортинга
В конце статьи ссылка на ноутбук
https://archive.is/QumiN (оригинал на медиуме, по ссылке на архив по идее должно открываться без VPN)
Интересная статейка про то как через AI автоматизировать пайплайн подготовки простых отчетов — как скормить LLMке структуру таблиц, чтобы потом можно было писать запросы на человеческом и трансформировать их в SQL, а затем полученный ответ транслировать в виде коротких executive-summary. Если завернуть всё это в каком-нибудь телеграм-боте с доступом только по white-list, то можно нехило так сэкономить время на выполнении задачек простого репортинга
В конце статьи ссылка на ноутбук
https://archive.is/QumiN (оригинал на медиуме, по ссылке на архив по идее должно открываться без VPN)