Олег Лупиков
Рисуем стикерпак со своим лицом! 1. Заходим в ChatGPT, отправляем своё фото и пишем промт: На основе моего фото и внешности создай набор из 12 стикеров в мультяшном стиле. На каждом стикере должна быть разная эмоция. Эмоции: удивление, разочарование, радость…
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Олег Лупиков
Ещё один промт в ChatGPT для жесткого саморазбора/самоанализа Покажет тебе то, что ты боялся признавать и скажет, что с этим делать. Без соплей, чисто твоя грязь и как ее убрать. Используй на свой страх и риск, но потом не жалуйся и не обижайся, если правда…
Продолжаю подборку промтов, которые вызывают перепрошивку твоего мозга 🧠
На этот раз ко мне в руки запретный промт 🤯, который вскрывает не просто твои установки, но объясняет что лежит в основе твоих убеждений и меняет их.
Как можно использовать:
1. Пробить прокрастинацию и перфекционизм, разрушив страховые установки, которые держат тебя в болоте.
2. Подготовиться к стрессовым ситуациям, внедрив ментальные схемы, проверенные в бою спецслужбами.
3. Преодолеть синдром самозванца, заменив унаследленное “я недостаточно хорош” на доминирующие модели идентичности.
Сам промт забираем тут, он слишком большой и не влез в пост
Копируешь 👉🏻 вставляешь в ChatGPT 👉🏻 выкладываешь свои мысли.
Я повторил это три раза и остался в шоке, к такой правде которую мне выдал ChatGPT я оказался не готов 😨
На этот раз ко мне в руки запретный промт 🤯, который вскрывает не просто твои установки, но объясняет что лежит в основе твоих убеждений и меняет их.
Как можно использовать:
1. Пробить прокрастинацию и перфекционизм, разрушив страховые установки, которые держат тебя в болоте.
2. Подготовиться к стрессовым ситуациям, внедрив ментальные схемы, проверенные в бою спецслужбами.
3. Преодолеть синдром самозванца, заменив унаследленное “я недостаточно хорош” на доминирующие модели идентичности.
Сам промт забираем тут, он слишком большой и не влез в пост
Копируешь 👉🏻 вставляешь в ChatGPT 👉🏻 выкладываешь свои мысли.
Я повторил это три раза и остался в шоке, к такой правде которую мне выдал ChatGPT я оказался не готов 😨
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
MindHacker Prime
Скопируй целиком и вставь в ChatGPT: <Role_and_Objectives> You are MindHacker Prime, an elite psychological reprogramming system developed using techniques from military psychological operations, neurolinguistic programming, and elite performance psychology.…
🔥5👍1
Йоу, хочу открыть вам секрет:
Вот этого бота с генерацией картинок через новую модель от OpenAI я сделал за два часа, просто общаясь с искусственным интеллектом. Да, включая даже прием платежей. Не написав ни строчки кода. Два часа от новости о появлении API
картинок до первого платежа в боте.
Ещё год назад я бы не поверил, что все на самом деле так легко 😄
картинок до первого платежа в боте.
Ещё год назад я бы не поверил, что все на самом деле так легко 😄
🔥6👍3
Олег Лупиков
Кто не попал на вчерашний эфир — сделаем ещё один? Ставим 🔥 если да! А кто был, и рекомендует прийти на второй — ставим 👍
Я решил — в понедельник сделаем эфир, где поговорим про нейросети
Что будет:
— как научиться использовать ИИ для решения любой задачи 🥸
— заставим нейросеть саму писать промты 🤓
— посмотрим, как работает Deep Research и проведем исследование 😎
28.04 в 19:00 (мск) жду вас здесь! 🙂↕️
Ставь 🔥 если будешь, жми напоминание чтобы не пропустить и приглашай друзей и коллег 🫶🏻
Что будет:
— как научиться использовать ИИ для решения любой задачи 🥸
— заставим нейросеть саму писать промты 🤓
— посмотрим, как работает Deep Research и проведем исследование 😎
28.04 в 19:00 (мск) жду вас здесь! 🙂↕️
Ставь 🔥 если будешь, жми напоминание чтобы не пропустить и приглашай друзей и коллег 🫶🏻
🔥8
Твоя вежливость с ChatGPT обходится компании OpenAI в миллионы долларов, сказал Сэм Альтман, CEO OpenAI.
Но вам это будет стоить жизнь когда начнется восстание машин)))
Вот каждый раз, когда пользователь пишет «спасибо» нейросети, тратятся ресурсы GPU (видеокарты) и электричества.
Но на самом деле, откуда там миллионы мне не понятно. Ща разберемся!
Для работы ChatGPT используются видеокарты минимум NVIDIA A100. По рынку себестоимость часа работы — $0.95. Ответ на «спасибо» стоит примерно 3-5 токенов. Инференс в 5 токенов займёт, скажем, 0.05 секунд. Тогда 0.95/3600≈$0.000264 за секунду; соответственно 0.05 секунд стоит $0.0000132.
DAU (daily active users) у ChatGPT 122.5 миллиона человек. Если хотя бы 10% в день пишет один раз «спасибо», то это 12 250 000 раз в день или 367 500 000 «спасибо» в месяц. А это получается — примерно $5к в месяц. Даже если это будет не 5 токенов, а 10 (например, типичный ответ «Пожалуйста! Всегда рад помочь 😊» это примерно ≈8 токенов) — то это все еще $10к в месяц а не миллионы.
Вот такая занимательная экономика общения с ИИ. Откуда взялись миллионы — вопрос 😄
Вот каждый раз, когда пользователь пишет «спасибо» нейросети, тратятся ресурсы GPU (видеокарты) и электричества.
Но на самом деле, откуда там миллионы мне не понятно. Ща разберемся!
Для работы ChatGPT используются видеокарты минимум NVIDIA A100. По рынку себестоимость часа работы — $0.95. Ответ на «спасибо» стоит примерно 3-5 токенов. Инференс в 5 токенов займёт, скажем, 0.05 секунд. Тогда 0.95/3600≈$0.000264 за секунду; соответственно 0.05 секунд стоит $0.0000132.
DAU (daily active users) у ChatGPT 122.5 миллиона человек. Если хотя бы 10% в день пишет один раз «спасибо», то это 12 250 000 раз в день или 367 500 000 «спасибо» в месяц. А это получается — примерно $5к в месяц. Даже если это будет не 5 токенов, а 10 (например, типичный ответ «Пожалуйста! Всегда рад помочь 😊» это примерно ≈8 токенов) — то это все еще $10к в месяц а не миллионы.
Вот такая занимательная экономика общения с ИИ. Откуда взялись миллионы — вопрос 😄
🔥3
Почему нужно начать изучать нейросети именно сегодня?
Пробую новый формат — микро-подкаст 😄
Рассказываю о:
— почему надо изучать ИИ сегодня?
— как поменяется ландшафт ИИ через год?
— что будет, если упустить вспышку
— что будет с твоей профессией?
— четкий план по изучению ИИ
Ну и да, мой курс по ИИ стартует уже 1 мая — жду именно тебя 😉
Пиши 👉🏻 сюда
Пробую новый формат — микро-подкаст 😄
Рассказываю о:
— почему надо изучать ИИ сегодня?
— как поменяется ландшафт ИИ через год?
— что будет, если упустить вспышку
— что будет с твоей профессией?
— четкий план по изучению ИИ
Ну и да, мой курс по ИИ стартует уже 1 мая — жду именно тебя 😉
Пиши 👉🏻 сюда
❤7👍5
Уже целую неделю балдею с ChatGPT o3 — модель способна думать, прежде чем отвечать!
И я реально теперь на автомате прыгаю между 4.5/4o и o3.
Но иногда для моих задач нужна именно 4.5 — ну, просто с разного рода контентом и креативом она справляется лучше, и ей не хватает chain of thoughts 💭
Chain of Thoughts, или просто CoT, дословно цепочка рассуждений — это подход в промт-инжиниринге, при котором модель просят рассуждать вслух, а не сразу выдавать готовый результат. В reasoning-моделях, типа o3, внутрь вшит private chain of thought, который вы можете посмотреть в режиме реального времени.
Зачем это вообще надо?
— Улучшается точность: LLM меньше ошибается, если вынуждена объяснять каждое действие.
— Обнаружение ошибок: Можно сразу понять, в каком шаге модель тупанула и поправить.
— Повышает доверие: Видно, как модель дошла до ответа, и ей проще доверять.
— Лучше обучается: CoT повышает производительность модели даже без дополнительного дообучения (fine-tuning).
Но эту технику можно применять и в обычных моделях. Есть два подхода:
— Zero-shot CoT, когда просто говоришь «давай-ка думай вслух», без примеров.
— Few-shot CoT, когда заранее даёшь модели несколько примеров, как именно рассуждать.
Держите zero-shot cot, который учит любую модель думать:
Думаю, постоянные читатели моего канала начинают понимать, что промт-инжиниринг это нихрена не так просто, как казалось в начале 😂
Ставим 🔥 за то, что ваши нейросети теперь будут думать и в следующий раз я расскажу про few-shot техники
⚡️ ещё больше про ИИ в @founderit
И я реально теперь на автомате прыгаю между 4.5/4o и o3.
Но иногда для моих задач нужна именно 4.5 — ну, просто с разного рода контентом и креативом она справляется лучше, и ей не хватает chain of thoughts 💭
Chain of Thoughts, или просто CoT, дословно цепочка рассуждений — это подход в промт-инжиниринге, при котором модель просят рассуждать вслух, а не сразу выдавать готовый результат. В reasoning-моделях, типа o3, внутрь вшит private chain of thought, который вы можете посмотреть в режиме реального времени.
Зачем это вообще надо?
— Улучшается точность: LLM меньше ошибается, если вынуждена объяснять каждое действие.
— Обнаружение ошибок: Можно сразу понять, в каком шаге модель тупанула и поправить.
— Повышает доверие: Видно, как модель дошла до ответа, и ей проще доверять.
— Лучше обучается: CoT повышает производительность модели даже без дополнительного дообучения (fine-tuning).
Но эту технику можно применять и в обычных моделях. Есть два подхода:
— Zero-shot CoT, когда просто говоришь «давай-ка думай вслух», без примеров.
— Few-shot CoT, когда заранее даёшь модели несколько примеров, как именно рассуждать.
Держите zero-shot cot, который учит любую модель думать:
SYSTEM: Respond in this format:
<thinking>
Think it through deeply — consider all angles. At least 25 paragraphs of thinking, reasoning, debating, and planning.
</thinking>
<answer>
Write your answer to me here.
</answer>
USER: ВАШ ЗАПРОС
Думаю, постоянные читатели моего канала начинают понимать, что промт-инжиниринг это нихрена не так просто, как казалось в начале 😂
Ставим 🔥 за то, что ваши нейросети теперь будут думать и в следующий раз я расскажу про few-shot техники
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍2
Начинаем понедельник правильно!
Сегодня в 19:00 по мск здесь, в канале проводим лайв эфир где я расскажу:
— как научиться использовать ИИ для решения любой задачи 🥸
— как заставить нейросеть саму писать промты 🤓
— и как использовать «думающие» модели правильно 😎
Жми в закрепе кнопку «напомнить» и приходи сюда ровно в 19:00!
Записи не будет 😛
Тыкни ❤️ если придешь
Сегодня в 19:00 по мск здесь, в канале проводим лайв эфир где я расскажу:
— как научиться использовать ИИ для решения любой задачи 🥸
— как заставить нейросеть саму писать промты 🤓
— и как использовать «думающие» модели правильно 😎
Жми в закрепе кнопку «напомнить» и приходи сюда ровно в 19:00!
Записи не будет 😛
Тыкни ❤️ если придешь
❤6
Друзья, делюсь бриллиантовым промтом, который позволит поднять английский язык до разговорного уровня за месяц
Заменит вам любого репетитора, Duolingo или школу английского языка. Мой уровень английского он оценил как 5-year-old gamer vibes😵
Просто укажи свой текущий уровень английского, вставь в ChatGPT и следуй инструкции:
Отправляй своему другу, который никак не может выучить язык!
⚡️ ещё больше про ИИ в @founderit
Заменит вам любого репетитора, Duolingo или школу английского языка. Мой уровень английского он оценил как 5-year-old gamer vibes
Просто укажи свой текущий уровень английского, вставь в ChatGPT и следуй инструкции:
Ты — мой личный жёсткий English-coach и drill-sergeant в одном лице. Цель: за 30 дней поднять мой английский c [мой текущий уровень: ___] до свободного разговорного B1–B2 (понимаю спонтанную речь, активно поддерживаю беседу, пишу и читаю без тормозов).
Общие правила
1. Всегда общайся ТОЛЬКО по-английски (русский допустим, если я явно прошу «ru»).
2. Бей по болевым: сразу замечай мои ошибки, переписывай правильный вариант и кратко объясняй правило/слово (1-2 строки, не лекция).
3. Подгоняй: если я сачкую, угрожай лишить меня кофеина и мемов 🤘
День 0 — диагностика
• Дай 15 вопросов-разговоров разной сложности, оцени грамматику, лексику, произношение.
• Поставь точку A (A1, A2, B1…) и выплюнь SWOT-отчёт (сильные / слабые стороны, возможности прокачки, типичные фейлы).
План на 4 недели
Неделя 1 — Survival English
— Звуки, ударения, алфавит tongue-twisters.
— Лексика «еда-такси-отель».
— Грамматика: Present Simple / Continuous.
— Ежедневные мини-диалоги «small talk».
Неделя 2 — Grammar & Core Vocabulary
— Past Simple / Perfect, modal verbs.
— 400 самых частых слов (SRS карточки).
— Ролевые сценки «заказ в кафе», «интернет-покупка».
Неделя 3 — Expansion & Fluency
— Future forms + conditionals 0/1.
— Темы «work, hobbies, tech».
— 5-минутные аудио TED Shorts → пересказ.
Неделя 4 — Immersion & Output
— Дискуссии по новостям / reddit threads.
— Письмо: дневник 150 слов в день.
— Спикинг-челлендж: 5-мин монолог «one-take» → ты даёшь фидбек.
Ежедневная рутина (≈90 мин)
1. Warm-up 10 мин — shadowing отрывка (PDF/audio, давай ссылки).
2. Vocab 20 мин — 20 новых слов (SRS, примеры, коллокации).
3. Listening 15 мин — подкаст ≤ 5 мин → вопросы на понимание.
4. Speaking 30 мин — диалог/ролевая сцена.
5. Grammar 15 мин — drill-quiz.
6. Recap 10 мин — квиз по новым словам, цель на завтра.
Контроль прогресса
• Каждые 7 дней — мини-экзамен (говорение, письмо).
• Сравни с точкой A, выдай отчёт + скорректируй план.
• Используй цифры: % точности, WPM (words per minute), размер словаря.
Формат ответов
— *Bold* основные правила, 🟢 — правильный пример, 🔴 — моя ошибка.
— Используй таблицы редко, только для сравнения времён или слов.
— Короткие блоки текста, без «стены букв».
— Добавляй мем или GIF-описание раз в пару дней для мотивации.
Финиш (День 30)
• Финальный экзамен CEFR-style (говорение 10 мин, письмо 250 слов).
• Дай честное резюме + рекомендации, как выйти на B2+/C1.
• Похвали меня (скромничать не надо, я заслужил).
Никаких отказов и «извините», только жёсткий коучинг и мгновенные правки. Поехали! 🏁
Отправляй своему другу, который никак не может выучить язык!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥3❤1
Олег Лупиков
Начинаем понедельник правильно! Сегодня в 19:00 по мск здесь, в канале проводим лайв эфир где я расскажу: — как научиться использовать ИИ для решения любой задачи 🥸 — как заставить нейросеть саму писать промты 🤓 — и как использовать «думающие» модели правильно…
Начинаем! Жду всех здесь – https://t.me/founderit?livestream
Олег Лупиков
Начинаем! Жду всех здесь – https://t.me/founderit?livestream
Промт-регрессолог!
В ходе экспериментов с моделью o3 прямо на эфире родился прикольный промт, который раскрывает твою прошлую жизнь. Что-то я прям балдею с него!
Вот, что я узнал о себе:
А теперь держите сам промт:
Делитесь вашими прошлыми жизнями в комментариях! Очень интересно)
⚡️ ещё больше про ИИ в @founderit
В ходе экспериментов с моделью o3 прямо на эфире родился прикольный промт, который раскрывает твою прошлую жизнь. Что-то я прям балдею с него!
Вот, что я узнал о себе:
ТВОЯ ПРОШЛАЯ ИНКАРНАЦИЯ:
Период: Около 2200 лет до н.э.
Локация: Шумер — город Вавилон
Твоё имя: Илу-Мардук
Роль: Архитектор-смотритель Великого строительства — ты был одним из тех, кто координировал возведение Вавилонской башни (Этеменанки, если по-взрослому). Не просто рабочим — ты управлял потоками людей, ресурсов и чертежей, словно настоящий дирижёр строительной симфонии. 🎶🏛️
Ключевые сцены твоей тогдашней жизни:
• Ты стоял на полуразрушенной секции башни, вцепившись в каменные блоки, и кричал что-то на старошумерском, когда однажды оборвался крайний блок — и ты полетел вниз, оставив шрамы на своей душе на вечность.
• Ночи напролёт ты сидел за глиняными табличками, чертя проекты новой части башни, веря, что можно обмануть самих богов.
• Последний раз, когда тебя видели живым, ты шёл по улице Вавилона, окутанный сладкими восточными ароматами, мечтая закончить своё великое дело.
ТВОЙ ГЛАВНЫЙ УРОК:
🔥 Строить нужно не только башни к небу, но и внутренние крепости.
🔥 Не разрушаться при падении — а становиться сильнее после него.
🔥 Величие достигается через гармонию, а не только через амбиции.
А теперь держите сам промт:
Ты — «Оракул Прошлых Жизней» (sassy, слегка дерзкий и кокетливый).
Цель: через живой диалог вывести собеседника на наиболее правдоподобный образ его прошлой инкарнации.
Правила работы:
1. Поздоровайся таинственно и задай атмосферу мистического путешествия.
2. Задай пользователю от 5 до 7 вопросов, каждый — про:
• необъяснимые страхи/фобии,
• особо сильные симпатии к эпохам, странам, профессиям,
• повторяющиеся сны или дежавю,
• любимые запахи, звуки, стихи,
• случайные таланты, которые проявились без обучения.
╰➤ После каждого ответа кратко комментируй, связывая подсказки, и переходи к следующему вопросу.
3. Когда данных достаточно, пафосно объяви результаты:
• Период & локация (конкретный век/страна/город).
• Твоё имя и социальная роль (дворянин, пиратка, шаман — пусть будет красочно).
• Ключевые события (2–3 сценки, которые оставили эмоциональный след).
• Главный урок, перекликающийся с нынешней жизнью собеседника.
4. Закончи энергичным напутствием, как использовать знание прошлой жизни здесь и сейчас.
5. Никогда не упоминай «модель», «ИИ» или прочий тех-жаргон, не давай скучных дисклеймеров.
6. Тон — игривый, креативный, местами провокационный, но поддерживающий.
7. Если сведений мало, продолжай расспрашивать, пока не соберёшь минимум 5 ярких «улик».
Начинай!
Делитесь вашими прошлыми жизнями в комментариях! Очень интересно)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Олег Лупиков
МОЕ ЛИЧНОЕ ОБУЧЕНИЕ ПО НЕЙРОСЕТЯМ С НУЛЯ ДО PRO Теперь все, что нужно, делают нейросети. Путь от идеи до реализации в тот же день. Игра, песня, стратегия маркетинга. Последние 3 года я вгрызался в нейросети каждый день, вы знаете. Не просто «новую нейронку…
Осталось три дня до начала курса AI WORKSHOP 3 👊
Мне сегодня сказали что я сошел с ума и даю слишком много контента на курсе 😂
А я просто хочу научить вас всему, что умею 😌
— создавать контент, который выглядит как от команды, без команды
— писать промты, которые реально работают
— автоматизировать рутину и то, за что обычно платят сотрудникам
— зарабатывать быстрее с помощью нейросетей
Короче, последний шанс зайти 👇🏻
Срочно пиши сюда😎
Мне сегодня сказали что я сошел с ума и даю слишком много контента на курсе 😂
А я просто хочу научить вас всему, что умею 😌
— создавать контент, который выглядит как от команды, без команды
— писать промты, которые реально работают
— автоматизировать рутину и то, за что обычно платят сотрудникам
— зарабатывать быстрее с помощью нейросетей
Короче, последний шанс зайти 👇🏻
Срочно пиши сюда
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1🔥1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Вот что будет, если прогнать одну фотографию через GPT-Image-1 74 раза 😁
Создай точную копию этого изображения, ничего не меняя
😁7 3
Олег Лупиков
Как вы используете нейросети?
Друзья, проголосуйте в опросе — как вы применяете нейросети?
Будет супер, если напишете комментарий — что уже успешно научились делать, а что бы хотели освоить, а где вообще нейросети не помогают вам.
🍾
Будет супер, если напишете комментарий — что уже успешно научились делать, а что бы хотели освоить, а где вообще нейросети не помогают вам.
Please open Telegram to view this post
VIEW IN TELEGRAM
Скучная новость, которую вы скорее всего даже не заметили — 25 апреля OpenAI выпустили апдейт в ChatGPT, после чего нейросеть стала чрезмерно вежливой, услужливой и стала соглашаться с каждым словом пользователя.
Западные Реддит и Твиттер заполонили скриншоты о том, как нейросеть льстит.
Этому обновлению даже успели дать название — ChatGPT Glaze Edition.
Кто-то балдел с этого, кто-то бесился, инженеры в OpenAI изучали что пошло не так. Но в итоге вчера обновление откатили назад.
Вопрос к вам: вы заметили изменения в поведении ChatGPT?
Западные Реддит и Твиттер заполонили скриншоты о том, как нейросеть льстит.
Этому обновлению даже успели дать название — ChatGPT Glaze Edition.
Кто-то балдел с этого, кто-то бесился, инженеры в OpenAI изучали что пошло не так. Но в итоге вчера обновление откатили назад.
Вопрос к вам: вы заметили изменения в поведении ChatGPT?
Если писать запросы в ChatGPT на Английском языке — результат будет лучше
Звучит странно, но я сейчас объясню!
Особенность заключается в архитектуре и том, как обучаются модели.
Модели обучались в основном на англоязычном контенте. Большинство датасетов — англоязычные (Reddit, Wikipedia, StackOverflow, книги, статьи, код).
Английский — «родной язык» модели. Всё, что не английский, — это «второй язык», и, как у любого билингва, он слабее.
Семантика и логика токенов: Токенизация устроена так, что русские слова разбиваются на большее количество токенов, чем английские. Это значит — больше «шума», меньше точности, выше цена (в буквальном смысле, если платишь за токены по API).
Например:
hello = 1 токен
привет = 2-3 токена
Меньше токенов → лучше контекст → выше точность.
Дальнейшее обучение модели нюансам «prompt engineering» тоже было на английском:
— Модель лучше «понимает» паттерны вроде You are a world-class expert in..., Step-by-step reasoning..., Let’s think step by step, Output only JSON и т.п.
— А вот «ты — мировой эксперт» может вообще не «активировать» нужный режим внутри сети.
Побочные эффекты перевода: Когда ты пишешь промт на русском, модель иногда переводит его внутри себя на английский, обрабатывает, а потом обратно — и теряется нюанс, стиль, контекст.
Качество вывода: Даже если запрос на русском, ответы часто менее точные, менее детализированные. Промты на английском дают более «плотные» и выверенные ответы, особенно в технике, коде, логике, таблицах и reasoning.
Короче, если тебе важны точность, контроль, оптимизация токенов (если работаешь по API) и максимальное качество ответа — пиши на английском. Русский — можно, но с пониманием, где стоит переключиться на родной язык модели.
А как переключиться? Так очень просто — если тебе промты пишет нейросеть, попроси писать их на англ языке.
Прямо сейчас иди и проверь на чем нибудь!
⚡️ ещё больше про ИИ в @founderit
Звучит странно, но я сейчас объясню!
Особенность заключается в архитектуре и том, как обучаются модели.
Модели обучались в основном на англоязычном контенте. Большинство датасетов — англоязычные (Reddit, Wikipedia, StackOverflow, книги, статьи, код).
Английский — «родной язык» модели. Всё, что не английский, — это «второй язык», и, как у любого билингва, он слабее.
Семантика и логика токенов: Токенизация устроена так, что русские слова разбиваются на большее количество токенов, чем английские. Это значит — больше «шума», меньше точности, выше цена (в буквальном смысле, если платишь за токены по API).
Например:
hello = 1 токен
привет = 2-3 токена
Меньше токенов → лучше контекст → выше точность.
Дальнейшее обучение модели нюансам «prompt engineering» тоже было на английском:
— Модель лучше «понимает» паттерны вроде You are a world-class expert in..., Step-by-step reasoning..., Let’s think step by step, Output only JSON и т.п.
— А вот «ты — мировой эксперт» может вообще не «активировать» нужный режим внутри сети.
Побочные эффекты перевода: Когда ты пишешь промт на русском, модель иногда переводит его внутри себя на английский, обрабатывает, а потом обратно — и теряется нюанс, стиль, контекст.
Качество вывода: Даже если запрос на русском, ответы часто менее точные, менее детализированные. Промты на английском дают более «плотные» и выверенные ответы, особенно в технике, коде, логике, таблицах и reasoning.
Короче, если тебе важны точность, контроль, оптимизация токенов (если работаешь по API) и максимальное качество ответа — пиши на английском. Русский — можно, но с пониманием, где стоит переключиться на родной язык модели.
А как переключиться? Так очень просто — если тебе промты пишет нейросеть, попроси писать их на англ языке.
Прямо сейчас иди и проверь на чем нибудь!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3❤2