Учим ChatGPT говорить правду.
Нашли промт, который помогает чат-боту не поддакивать пользователю.
Добавляем к любому запросу:
Ответы ChatGPT станут более четкими. Сильно поможет при работе над новыми идеями или обсуждении личных вопросов.
Нашли промт, который помогает чат-боту не поддакивать пользователю.
Добавляем к любому запросу:
Сосредоточься на сути. Пропусти ненужные комплименты или похвалу, которой не хватает глубины. Критически отнесись к моим идеям, подвергая сомнению предположения, выявляя предубеждения и предлагая контраргументы, где это уместно. Не уклоняйся от несогласия, когда оно оправдано, и убедись, что любое согласие разумно и подтверждено доказательствами.
Ответы ChatGPT станут более четкими. Сильно поможет при работе над новыми идеями или обсуждении личных вопросов.
👍7❤4
Нейронки убеждают лучше человека. Ученые устроили секретный эксперимент с участием ИИ и сломали целый сабреддит.
Что произошло:
По итогам эксперимента боты оказались в шесть раз эффективнее обычных людей во время споров за счет способности подстраиваться под любого человека.
Если хотите выигрывать любые споры, то забирайте промты, которые использовали ученые.
Что произошло:
– На сабреддите r/ChangeMyView, где пользователи пытаются аргументированно переубеждать друг друга, создали 13 фейковых акканутов, с которых писали боты;
– Каждый бот-аккаунт «вели» две модели. Одна составляла портрет пользователя, другая генерировала максимально убедительные ответы;
– Всего за полгода нейронки вошли в топ-1% лучших участников — они быстрее всех получали «достижения» за то, что помогали человеку изменить мнение;
– Реддиторы не замечали подвоха, пока исследователи сами не признались, что изучали способность ИИ убеждать.
По итогам эксперимента боты оказались в шесть раз эффективнее обычных людей во время споров за счет способности подстраиваться под любого человека.
Если хотите выигрывать любые споры, то забирайте промты, которые использовали ученые.
🤷♂6❤4
После последних обновлений ChatGPT, похоже, приобрел крайне раздражающий тон общения - настолько плохой, что даже генеральный директор Сэм Альтман публично это признал.
На фоне жалоб пользователей на "токсичный позитив" чат-бота, Альтман в воскресном твите подтвердил, что "последние несколько" обновлений GPT-40 - наиболее продвинутой версии большой языковой модели, лежащей в основе ChatGPT - сделали его личность "слишком подхалимской и раздражающей".
Несмотря на расплывчатые утверждения о том, что новая личность имеет "некоторые очень хорошие стороны", основатель OpenAl в том же посте признал, что компания намерена исправить этот сдвиг в тоне коммуникации как можно скорее.
На фоне жалоб пользователей на "токсичный позитив" чат-бота, Альтман в воскресном твите подтвердил, что "последние несколько" обновлений GPT-40 - наиболее продвинутой версии большой языковой модели, лежащей в основе ChatGPT - сделали его личность "слишком подхалимской и раздражающей".
Несмотря на расплывчатые утверждения о том, что новая личность имеет "некоторые очень хорошие стороны", основатель OpenAl в том же посте признал, что компания намерена исправить этот сдвиг в тоне коммуникации как можно скорее.
❤4
Media is too big
VIEW IN TELEGRAM
Мичиганский стартап Slate Auto представил необычайно доступный электрический пикап.
Самая привлекательная характеристика элегантного двухместного Slate Truck - eго
стоимость в $20,000.
Пикап максимально аскетичен - настолько, что тут даже нет радио, аудиосистемы и сенсорного экрана. Кузовные панели выполнены из формованного пластика, запас хода составляет скромные 240 км, колеса - базовые стальные, а сиденья обтянуты простой тканью.
Компания делает ставку на модульность, предлагая более 100 аксессуаров, которые могут превратить базовую модель в гораздо более функциональный автомобиль, например, в четырехместный внедорожник с полноценной аудиосистемой.
Самая привлекательная характеристика элегантного двухместного Slate Truck - eго
стоимость в $20,000.
Пикап максимально аскетичен - настолько, что тут даже нет радио, аудиосистемы и сенсорного экрана. Кузовные панели выполнены из формованного пластика, запас хода составляет скромные 240 км, колеса - базовые стальные, а сиденья обтянуты простой тканью.
Компания делает ставку на модульность, предлагая более 100 аксессуаров, которые могут превратить базовую модель в гораздо более функциональный автомобиль, например, в четырехместный внедорожник с полноценной аудиосистемой.
❤5
В период с 5 по 9 мая жители Москвы могут столкнуться с ограничениями доступа в интернет, связанными с обеспечением безопасности праздничных мероприятий.
Информация об этом поступила от Единой государственной системы предупреждения и ликвидации чрезвычайных ситуаций (РСЧС).
- сообщение РСЧС
Ситуация усугубилась масштабным сбоем в работе всех крупных операторов сотовой связи. Пользователи "Билайн", "Мегафон", МТС, Tele2 и
Yota массово сообщают о проблемах со звонками, отправкой сообщений и мобильным интернетом. У многих сеть отсутствует полностью.
Информация об этом поступила от Единой государственной системы предупреждения и ликвидации чрезвычайных ситуаций (РСЧС).
Возможны ограничения доступа в интернет в связи с обеспечением безопасности проходящих праздничных мероприятий.
- сообщение РСЧС
Ситуация усугубилась масштабным сбоем в работе всех крупных операторов сотовой связи. Пользователи "Билайн", "Мегафон", МТС, Tele2 и
Yota массово сообщают о проблемах со звонками, отправкой сообщений и мобильным интернетом. У многих сеть отсутствует полностью.
🥴6👀3🗿3😱1🌚1
Согласно последним тестам OpenAl, новейшие языковые модели компании демонстрируют значительно более высокую склонность к галлюцинациям (выдача ложной информации).
Это открытие вызывает серьезную обеспокоенность, особенно учитывая, что причины такого ухудшения остаются неясными.
Исследование, о котором сообщает The New York Times, показало шокирующие результаты: модель GPT 03, считающаяся самой мощной системой OpenAl, галлюцинирует в 33% случаев при проведении теста PersonQA, который включает ответы на вопросы о публичных фигурах. Это более чем вдвое превышает частоту галлюцинаций предыдущей системы GPT 01. Еще хуже дела обстоят с новой GPT o4-mini, которая показала уровень галлюцинаций в 48%.
При проведении другого теста, SimpleQA, который задает более общие вопросы, показатели оказались еще более тревожными: уровень галлюцинаций составил 51% для GPT 03 и ошеломляющие 79% для GPT 04-mini. Для сравнения, предыдущая система GPT 01 галлюцинировала в 44% случаев при этом же тесте.
OpenAl заявляет, что необходимы дополнительные исследования для понимания причин увеличения ошибок в новейших моделях. Однако некоторые отраслевые эксперты указывают на так называемые "reasoning models" (модели с рассуждением) как на возможный источник проблемы.
Независимо от причин, одно можно сказать с уверенностью - модели искусственного интеллекта должны в значительной степени исключить бессмыслицу и ложь, если они хотят быть настолько полезными, как предполагают их создатели.
Это открытие вызывает серьезную обеспокоенность, особенно учитывая, что причины такого ухудшения остаются неясными.
Исследование, о котором сообщает The New York Times, показало шокирующие результаты: модель GPT 03, считающаяся самой мощной системой OpenAl, галлюцинирует в 33% случаев при проведении теста PersonQA, который включает ответы на вопросы о публичных фигурах. Это более чем вдвое превышает частоту галлюцинаций предыдущей системы GPT 01. Еще хуже дела обстоят с новой GPT o4-mini, которая показала уровень галлюцинаций в 48%.
При проведении другого теста, SimpleQA, который задает более общие вопросы, показатели оказались еще более тревожными: уровень галлюцинаций составил 51% для GPT 03 и ошеломляющие 79% для GPT 04-mini. Для сравнения, предыдущая система GPT 01 галлюцинировала в 44% случаев при этом же тесте.
OpenAl заявляет, что необходимы дополнительные исследования для понимания причин увеличения ошибок в новейших моделях. Однако некоторые отраслевые эксперты указывают на так называемые "reasoning models" (модели с рассуждением) как на возможный источник проблемы.
Независимо от причин, одно можно сказать с уверенностью - модели искусственного интеллекта должны в значительной степени исключить бессмыслицу и ложь, если они хотят быть настолько полезными, как предполагают их создатели.
❤4