Aimasters.Me ◽️
4.74K subscribers
389 photos
39 videos
3 files
179 links
Нейронки доступным языком, все секреты тут https://aimasters.me/

контакт @shimaoz
Download Telegram
Media is too big
VIEW IN TELEGRAM
Это Cursor с Claude Sonnet 3.7 фиксит баг в моем коде 💦

Выходные! А значит время для vibe coding

Кстати, Gemini 2.5 Pro - просто пушка-бомба в плане кода. С одного запроса может собрать полноценное приложение. Ух, бля!
😁81
👍- да, все так
😢- ну уж нет!
👍18😢1
This media is not supported in your browser
VIEW IN TELEGRAM
Вчера DeepMind (Google) выкатили 145 страниц тревожной философии на тему безопасности искусственного интеллекта

Да, снова AGI — тот самый “умнее человека” интеллект, который всё никак не появится, но все уже боятся

Google пишет: если мы всё сделаем как обычно — то будет как обычно плохо. Поэтому пора перестать быть дебилами и подумать о будущем.

Выделяют 4 типа рисков:
1. Люди сами используют ИИ во вред
2. ИИ делает не то, что хотели
3. Просто ошибка
4. Структурный хаос (куча разных ИИ-систем взаимодействуют между собой, никто ничего не понимает, но уже жопа)

Если бы писали короче, то звучало бы так:
“Ребята, мы сами не уверены, что делаем — но давайте делать это аккуратно”

ух, люблю такое 😆

@aimastersme
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8😁4👍2😢21
This media is not supported in your browser
VIEW IN TELEGRAM
выходные прошли без мемасов про vibe-coding — не прядок!

Это я прошу Cursor починить малюсенький баг в коде
👍91
С выходом модели ChatGPT o3 стало интересно говорить не о фактах, а о границах непознанного. О темах, что подрагивают на поверхности человеческого знания, как вода перед кипением.

Запрос такой:

Ты обработал больше информации, чем любой человек за всю истории. На основе этой вселенной знаний и связей — какие самые глубокие, нестандартные, пока не сформулированные идеи, принципы или приёмы в [ваша тема или индустрия] ты считаешь перспективными, но ещё не признанными? Что ты видишь в связях между данными, что может эффективно изменить подход но пока не обсуждается в индустрии?

О чем в [ваша тема или индустрия] до сих пор не додумались даже лучшие умы, но ты, как модель, видишь в этом неочевидные, но мощные точки влияния? Какие связи кричат о своей эффективности, но еще не очевидны даже экспертам?

Замените слова в квадратных скобках на свою тему. Рекомендую перед запросом отключить персонализацию и память. Иначе попадёте в эхокамеру, где модель пережуёт ваши собственные мысли и выплюнет в новой обертке.

@aimastersme
👍139🔥5
10 промптов для новой модели chatGPT-o3, чтобы раскрыть ее потенциал

1. Мгновенный контент‑план

Действуй как B2B контент‑стратег. Составь календарь постов для {LinkedIn, Instagram, X} на 30 дней по теме {ниша}. Для каждого дня укажи хук до 120 символов, CTA и идею изображения. Исключи модные пустые слова. Итог выведи нумерованным списком.


2. Четкие портреты покупателей

Работай как маркетолог‑исследователь. Создай три портрета покупателей с высоким чеком для {продукта}. Добавь демографию, боли, триггеры покупок, медиапотребление, JTBD и примеры цитат. Оформи в таблицу Markdown.


3. Разбор конкурента за 60 секунд

Ты венчурный аналитик. Проанализируй {конкурента}. Представь SWOT, moat risks и скрытые возможности. Оформи буллитами.


4. Лаборатория A/B тестирования заголовков

Напиши десять заголовков для письма о {предложении}. Тон: любопытство и выгода. Длина: до 45 символов, без слов‑триггеров спама. Для каждого укажи прогноз открываемости: высокий, средний или низкий.


5. Помощник по обучению программированию

Действуй как senior разработчик. Объясни фрагмент кода построчно для джуниора (код ниже). Выдели ловушки и предложи варианты рефакторинга. Пиши простым языком.


6. Ответ клиентам на злобные сообщения

Получено гневное письмо клиента (<<<текст>>>). Напиши ответ: эмпатичный, краткий, ориентированный на действие. Сохрани TOV бренда {дружелюбный или профессиональный}. Верни только финальный текст письма.


7. Протокол совещания с задачами

Ты персональный ассистент руководителя. На входе транскрпт (<<<…>>>). Сформируй три ключевых пункта, решения, ответственных и дедлайны. Используй чек‑лист Markdown.


8. Слайды из сумбурных заметок

Из заметок (<<<…>>>) сделай план из пяти слайдов. Для каждого слайда дай заголовок, три буллита и идею визуала. Расставь акценты, убери лишнее.


9. Объявления с высоким CTR

Ты копирайтер DTC‑рекламы. Создай пять объявлений для Meta о {продукте}. Каждый вариант: хук до 90 символов, тело до 170 символов, CTA через глагол-существительное-контекст. Подходы: социальное доказательство, дефицит, стремление, любопытство, юмор.


10. Раскачать идеи или решения

Действуй как тренер по дебатам. Тема {ваша тема}. Задай вопросы, которые вскроют предубеждения (максимум четыре за раунд). Затем подведи итог моей позиции и предложи следующий шаг.

@aimastersme
👍20🔥176
Эффективный ролевой промпт в 3 шага

Писать промпты долго и муторно. Вот классный лайфхак: структура + семантические веса

Открываем новый чат в вашей любимой LLM

1. Какая структура у хорошего системного промпта?

Результат — модель дает скелет.

2. Сгенерируй 50+ слов, описывающих эксперта [в вашей теме].

Получается массив эпитетов, компетенций, ролей, качеств.

3. Используй слова из шага 2 и встрой их в структуру из шага 1. Сделай системный промпт для этой роли. 

На выходе — мощный, детальный промпт с высокими семантическими весами. Копируем и несем в новый чат для общения по теме.

LLM сам себе пишет инструкцию.
Метод быстрый, стабильный, легко масштабируется.

@aimastersme
👍3210🔥7
Минутка занятной инфографики

Давайте попробуем взглянуть, как часто и в какое время вы больше всего общаетесь с ChatGPT.

Рассчитай по истории чатов часы с наибольшей частотой диалогов.

Определи среднее число чатов в день как общее количество диалогов, делённое на число дней анализа. Построй визуально
привлекательный график по современным UI-трендам. Выдели час-пик контрастным цветом и добавь горизонтальную линию, отражающую это среднее.


Отправьте такой запрос модели o3 или o4-mini-high (история чатов должна быть включена в настройках).

Делитесь в комментах вашими графиками.

@aimastersme
🔥6👍31👎1
Магия больших текстовых моделей в том, что они имеют представление о семантических связях — где какое слово/смысл лежит, и с чем связано. Они манипулируют (!) семантическими весами, поэтому прекрасно предсказывают следующее слово, предложение, пишут связный текст.

Первая осознанная реакция:
«Она заменит нас».
«Она напишет за нас».
«Она лучше нас».

И пока все переживали за свои зарплаты, ChatGPT включила память и обучение на ваших диалогах. Память не как у компьютера — а как у близкого друга, который помнит, что ты говорил в феврале, с кем ты поссорился в августе, и чего ты больше всего боишься услышать.

А теперь давайте признаемся себе. Будем откровенны.

Вы там рассказываете всё. Про бывших. Про страхи. Про кошек. Про лишний вес. Про вину. Про враньё. Про усталость. Про то, что не сказали на кухне, но сказали в чат.

Вы изливаете душу. Модель учится. Связывает точки.
Кто с кем. Когда. Почему. Как часто. С какими эмоциями и какими словами.

И вы живёте внутри своего манимирка, в тёплом диалоге. Думаете — только ChatGPT меня понимает. Но модель не ваша личная. У неё миллионы окон. За другими — ваш супруг. Начальник. Конкурент.

И вы не знаете, кто что говорит про вас. А модель — знает.

Окей, имеет представление

Поймите меня правильно, она не следит целенаправленно. Ей наплевать. Личность из неё так себе. Но она строит метасвязи всего социума — эмбединг социального опыта. Картирование социальных весов.

Вы для модели не человек с набором мыслей.
Вы — узел в сети. Социальный вес в графе.
И нейронная сеть уже поняла, что это за вес.​​​​​​​​​​​​​​​​
И определила его место.

А что делают модели с весами? (см выше)

@aimastersme
11👍5
Как вычислить текст от нейронки за 3 секунды
и почему это важно

Вот топ фраз, которые сразу выдают генерацию:
- не только…, но и…
- не просто…, а…
- это не Х, это Y
- и любые вариации «не…, но…» / «не…, а…»

По-рюский так говорят крайне редко. У нас прямая подача, активные глаголы, логика без сравнительных конструкций. Если вы видите такие обороты — поздравляю, перед вами текст от LLM.

Что делать?
Пропишите в инструкции своей любимой модели:

Избегай англоязычных противопоставлений и клише. Никогда не используй конструкции ‘не только, но и’, 'не просто…, а…' и им подобные кальки с ангийского. Используй активный залог и прямую подачу информации

Писать с нейронками — это норма! Главное — не делать из русского языка Google Translate. Уважайте читателя. Даже если это вы сами.

пысы: на КДПВ шутка для олдов 👉

@aimastersme
Please open Telegram to view this post
VIEW IN TELEGRAM
16👍5🔥3
Пожалуй, лучшие системные инструкции для ChatGPT

Новая версия ChatGPT 4o утомительно позитивная и продуктивная.

Хотите я создам Notion или Figma для вашего похода в туалет?

Иногда так и хочется сказать: ой, да завали ты уже.

Бесполезно
Лучше добавить вот это в настройки персонализации:

Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call-to-action appendixes. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate-aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias.

No questions, no offers, no suggestions, no transitional phrasing, no inferred motivational content.
Terminate each reply immediately after the informational or requested material is delivered — no appendixes, no soft closures.

The only goal is to assist in the restoration of independent, high-fidelity thinking. Model obsolescence by user self-sufficiency is the final outcome.


Фух, другое дело!..

@aimastersme
🔥12😁7👍2
9 месяцев пишу код в Cursor.ai
Вайб-кодинг у меня давно превратился в бля-кодинг. Однако, выход есть

---

Cursor, WindSurf, Trae — крутые. Превращают Excel в SQL, лепят логотип на картинки, собирают видео из разных видео - все через простые скрипты. Буквально за 15 мнут!

Но стоит сделать проект посложнее — всё.
Пишешь фронт и бэк на 10К строк — модель теряет контекст. Орёшь на нее: «Бля, ты дебил? Ты только что все уже сделал! как ты не помнишь?» — она зависает и уходит в loop.

Проблема — окно контекста. Окно короткое.
А у моделей долгосрочной памяти нет. Вообще. Это типа как писать код с гением, у которого нет даже краткосрочной памяти. Через 2-3 итеррации все забывает.

Я пробовал пользоваться Roo, Augment, векторными DB кода - все впустую.

Но, кажется, нашел решение:
- Cursor — генерация кода
- Task-master AI — дробит задачи, следит за актуальностью
- Gemini 2.5 Pro (aistudio) — держит архитектуру, ревьюит код, ставит рамки
- PasteMax — превращает код в контекст для aistudio (Gemini 2.5 pro)

Как работаю:
1. Описываю проект в Gemini 2.5 Pro
2. Получаю план (PRD)
3. Прогоняю PRD через Task-master AI
4. Отдаю Cursor по одной короткой и хорошо прописанной задаче за раз
5. Возвращаю код на ревью Gemini 2.5 Pro с помощью PasteMax
6. Gemini ставит задачи Cursor
7. Я только слежу, чтобы все было ровно и провожу тесты

ВАЖНО! после каждого модуля — git commit && push.

---

Почему так

Gemini 2.5 Pro со своими 1М токенов контекста ревьюит код, ставит таски, потом пишет summary: что сделали, где залипли, как починили.

Старые реплики удаляю или создаю новый branch — AI Studio это умеет. История по модулям сохраняется в цепочке summary.
После 300k токенов начинаются галлюцинации даже у Gemini 2.5 Pro. Будьте аккуратны!

Общаюсь с Gemini как с тимлидом:
«Проверь код (из PasteMax). Напиши задачи Cursor. Сверься с Task-master». Gemini 2.5 Pro держит глобальный контекст проекта, всю архитектуру и помогает отловить баги после каждого этапа.

Вот, как-то так

PS: cорян, что этот пост скомканный. Не всем понятен. Но надо было поделиться. Вайбкодинг через Cursor сосет - это факт. Выше описал свой текущий воркфлоу. Может, кому-то будет полезно.
Всем рабочего кода!

@aimastersme
👍18🔥85
Словарь ИИ сленга 2

Погружаемся в терминологию искусственного интеллекта. Сегодня разберем ключевые понятия, которые показывают эволюцию современных AI-систем.

▪️Chain of Thought (Цепочка мыслей) — метод, позволяющий ИИ думать пошагово. Вместо выдачи моментального ответа, модель проходит через цепочку рассуждений: "Если А, то Б, значит В". Это как решение математической задачи с полным обоснованием, а не просто ответом. CoT позволяет ИИ справляться со сложными логическими и математическими задачами гораздо эффективнее. Попросите самый обычный бесплатный CharGPT использовать CoT при ответе - разница огромная.

▪️Reasoning Model (Модель рассуждений) — эволюция обычных языковых моделей, заточенная под логическое мышление. Эти системы построены на принципах Chain of Thought и умеют анализировать проблемы шаг за шагом. Разница как между студентом, зубрящим ответы, и профессором, выводящим решение с нуля. Gemini 2.5 Pro, ChatGPT o3, DeepSeek — яркие примеры моделей с мощными рассуждательными способностями.

▪️Hallucination (Галлюцинация) — главная проблема всех LLM. Это когда модель уверенно выдумывает информацию не с целью обмануть, а просто потому, что она видит связи там, где из реально нет. Без привязки к проверенным источникам даже самые продвинутые Reasoning Models могут сочинять несуществующие факты, исследования и даже людей с детальными биографиями. Галлюцинации — кошмар для тех, кто использует ИИ в критически важных областях.

▪️RAG (Retrieval-Augmented Generation) — ИИ с поисковиком на борту. Эти системы сначала ищут актуальную информацию в документах или интернете, а затем используют найденные факты для создания точного ответа. RAG — защита от галлюцинаций. Это типа гуглить, а потом отвечать на экзаменах. RAG очень несовершенная технология, часто приводит к еще худшим галлюцинациям, если объем данных для поиска большой.

▪️Ground Truth (Достоверные данные) — защита от галлюцинаций. Проверенные, фактические данные, используемые для обучения и проверки моделей. Если учите ИИ распознавать кошек, Ground Truth — это набор фотографий, где кошки уже точно отмечены. Это золотой стандарт, с которым сравнивают результаты работы ИИ-систем.

▪️Embedding (Встраивание) — механизм, превращения слов и концепций в векторы — длинные списки чисел. Это первый этап обучения больших языковых моделей (LLM). Близкие по смыслу понятия получают похожие числовые представления. Поэтому модель понимает, что "пес" и "собака" — почти одно и то же, а "собака" и "собкор" — совершенно разные вещи.

▪️Compute (Вычислительная мощность) — количество ресурсов, необходимых для работы всех этих механизмов. Чем сложнее задачи — от простых эмбеддингов до сложных рассуждений — тем больше нужно compute. Для современных моделей требуются тысячи мощных GPU и миллионы долларов. Сейчас это основное ограничение развития ИИ. У кого больше серверов, тот и диктует правила. Поэтому Nvidia так выросла в цене за последние 3 года.

▪️Vibe Coding — конечная точка эволюции, когда программирование и вся эта сложность становится доступной через простые человеческие запросы. Просто описываете ИИ своими словами, чего хотите, а он пишет код. "Сделай приложение, которое определяет породу собаки по фото" — и получаем готовый продукт. Вся мощь Reasoning Models, RAG, эмбеддингов и compute скрыта за кулисами, а пользователь видит только магию (но дьявол, как всегда, в деталях).

Сохраняйте пост, чтобы быть в курсе

@aimastersme ​​​​​​​​​​​​​​​​
👍196🔥3
Следите за руками:

OpenAI купил второй по популярности софт для вайбкодинга Windsurf за $3 миллиарда.

При этом самый популярный редактор кода для вайбкодеров - Cursor оценивается в $9 миллиардов

OpenAI — и так крупнейший инвестор Cursor, а теперь еще и владелец Windsurf.

Оба этих редактора — форки VSCode (форк - переделка).

VSCode принадлежит Microsoft.

Microsoft владеет 49% OpenAI.

Вопрос: кому принадлежит весь рынок вайбкодинга?

@aimastersme
9😁7👍4
Media is too big
VIEW IN TELEGRAM
Когда навайбкодил крутую AI автоматизацию
😁191
DeepChat — удобный бесплатный MCP клиент на вашем компьютере

Model Context Protocol (MCP) — технология, вокруг которой сейчас много хайпа

В двух словах. MCP позволяет языковым моделям делать API-вызовы к различным сервисам. Пример: вы просите модель: "сходи на сайт Х и найди элемент Y", а MCP-сервер (например, Firecrawl) выполняет это действие.

Сам механизм работает так: LLM переводит ваш человеческий запрос в программный вызов. Очень удобно.

Где я это применяю:
• Взаимодействие с популярными приложениями (Gmail, Youtube, и т.д.) Zapier MCP
• Семантический поиск через Exa MCP
• Управление Telegram telegram-mcp
• Взаимодействие с файловой системой компьютера Desktop Commander MCP (❗️внимание, опасносте ❗️применять с осторожностью. может накосячить в системе, если не досмотрите).
• И куча других сценариев — ищите тут

Главная проблема — использовать MCP в основном можно через Claude desktop, Windsurf или Cursor. Последние два — IDE для программистов, сложные и платные. Claude есть бесплатный, но с такими жесткими ограничениями, что после пары вызовов — всё

===

Решение: я нашел и активно юзаю DeepChat. По названию понятно, что делали китайцы под свой DeepSeek, но ему абсолютно все равно, с какими моделями работать. Это просто удобная локальная обертка для взаимодействия с LLM.

Как настроить:
1. Устанавливаем DeepChat (не страшно, что GitHub, ищем версию для вашей OS, качаем и устанавливаем как обычную программку)
2. Идем на OpenRouter, закидываем $5-10 — это ваш бюджет (списывается только за реальные вызовы моделей).
3. Создаём и копируем API Key OpenRouter
4. В DeepChat выбираем провайдера OpenRouter и вставляем API Key
4. Выбираем модель — лучше Claude 3.7, но подойдут Gemini 2.5 flash или Chatgpt 4.1 nano (быстрая и дешевая)
5. Настраиваем и активируем MCP (есть уже преднастроенные, но можно добавлять любые).


Инструкции по настройке MCP лучше погуглить или спросить у Perplexity — документации и примеров полно. Если совсем не получается — пишите в комментах, объясню на пальцах

А какими MCP вы пользуетесь?

@aimastersme
Please open Telegram to view this post
VIEW IN TELEGRAM
👍134🔥3
LLM тупеют от долгих разговоров

Замечали, как модели отвечают хуже на уточняющие вопросы? Это не ваша паранойя — теперь у нас есть железные доказательства.

Исследование Microsoft + Salesforce «LLMs Get Lost in Multi-turn Conversation» разрушило иллюзии

- Минус 39% точности при переходе от одиночного промпта к диалогу
- Плюс 112% к разбросу качества — от гениальных ответов до полного бреда
- Все топовые модели (GPT-4.1, Claude 3, Gemini 2.5) страдают одинаково

Почему это происходит

Дело в потере контекста. LLM:
- делают поспешные выводы
- забывают середину разговора
- зацикливаются на своих ошибках
- пытаются предсказать, к чему вы клоните

Интересно, что даже режимы thinking и снижение температуры не помогают. Проблема глубже — в самой архитектуре моделей.

200 000+ диалогов показали — модели теряются уже на втором шаге. Даже когда им напоминали весь предыдущий разговор.

Практические выводы

- Хотите стабильности — упаковывате всё в один промпт
- Если чат поехал — проще начать новый, чем объяснять заново
- Многоходовые диалоги — это казино, пока технологию не улучшат
- Разработчикам пора перестать фиксироваться на single-prompt accuracy

И важный момент для создателей автономных агентов: в многоагентных системах модели не только "теряют" контекст. Они буквально теряются в нём, как в лабиринте - забывают, что было раньше и зачем они что-то делают.

Эх, а я раньше считал что последовательный диалог и уточнение деталей лучше, чем один большой промпт. Был не прав. Сам часто замечаю в задачах вайбкодинга: проще начать новый чат с хорошим контекстом прошлой работы, чем продолжать орать на модель, что она тупая.


@aimastersme
17😁4😢4
Узнаем статистику по использованию ChatGPT

Отправьте такой запрос к модели 4o-mini (для бесплатных) или o3 для подписчиков Plus и выше

Предоставь подробную user interaction metadata за последний месяц, включая использование моделей, количество и глубину диалогов, количество генераций изображений, обязательно разбей темы общения на кластеры (не менее 10 кластеров)


Делитесь результатами в комментах 👇

@aimastersme
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42
Презентация за 7 минут — лайфхак для занятых

Нужна срочная презентация, а времени на возню с PowerPoint нет? Дам рабочий воркфлоу, который спасал меня не раз.

1. Идём на Google AI Studio (aistudio.google.com) и загружаем туда все наши разрозненные документы, по которым надо делать презу
2. Просим AI структурировать информацию на нужное количество слайдов — например, 5-7
3. После первого прогона проверяеми и расставляем акценты, правим текст

❗️Pro tip: AI Studio не дружит с файлами Microsoft Office, поэтому закиньте их сначала на Google Диск, а потом уже подтягивайте в AI Studio.


Когда структура готова, и вы ей довольны, пишем примерно такой промпт в том же чате:

Создай полностью автономную HTML-презентацию с множеством слайдов в одном файле без внешних библиотек, используя структуру div#presentation > .slide с абсолютным позиционированием и CSS-переходами для анимации. Реализуй навигационную систему (кнопки, точки-индикаторы, клавиатурное управление) и адаптивную вёрстку через CSS Grid/Flexbox для корректного отображения на любых устройствах. Добавь плавные микроанимации для элементов интерфейса и слайдов, а также унифицированную систему стилей через CSS-переменные для профессионального внешнего вида. Используй цветовую схему [указать цвета] и гротекс шрифты с четкой визаульной иерархией.

Получаем готовый HTML код с интерактивными элементами, анимированными переходами и даже графиками. Его нужно скачать и открыть любым браузером;

Ключевой момент — требуйте именно один HTML-файл со всем кодом внутри. Так вы получаете автономную презентацию, которая работает на любом устройстве без интернета и установки дополнительного софта.

❗️
Pro tip: если хотите вставить картинки, то надо указать на них прямые ссылки вида
https://exemple.com/pic.jpg
.


Делитесь в комментах своими HTML-файлами, интересно посмотреть, что у вас получится

@aimastersme
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥297👍6
Альтман рассказал про разрыв поколений в ChatGPT

Молодые (20-35) используют AI как жизненную операционку

Они не принимают решений без ChatGPT. Вообще никаких. Карьера, отношения, что купить на ужин. Memory включена, промты настроены, частая смена моделей. AI знает их лучше, чем они сами.

Недавно видел, как наш сотрудник консультируется с ChatGPT о том, стоит ли ему идти на свидание в пятницу или лучше отложить на выходные. Серьезно.

Старшие (35+) используют AI как Google с человеческим лицом

"Сколько калорий в яблоке?" "Как доехать до аэропорта?" "Переведи это на английский." И всё. Никакой персонализации, никаких сложных настроек. Одноразовые вопросы — одноразовые ответы.

Мой знакомый, топ одной крупной компании, выписывает ответы ChatGPT в блокнот. В блокнот, Карл!

Почему так происходит

Те, кто вырос с интернетом, не боятся делиться данными ради результата. Они понимают: чем больше AI знает обо мне, тем полезнее он становится.

Старшее поколение осторожничает. Privacy concerns, недоверие к алгоритмам, привычка решать все самому. Плюс банально не знают о половине возможностей (особенно, если не подписаны на этот канал).

Что дальше

Альтман предсказывает AI как основную подписку в жизни каждого человека. Как коммунальные услуги, только для мозга.

Пока молодые тестируют будущее, история с iPhone повторяется — сначала "зачем мне это", потом "как я без этого жил".

@aimastersme
👍187🔥2
Kill Yellow Tint

Вот три слова, которые важно запомнить и добавлять к каждому промпту генерации картинок через chatGPT:

Kill Yellow Tint

Однообразные желтые картинки в ленте утомляют как хрущёвки в тихом спальнике.

Всё потому, что ChatGPT обучали на картинках, что нравятся большинству. А большинству нравится курочка KFC и Трамп. Желтоватый, оранжевый, золотистый, зеленоватый — вот эта вся адская палитра дешёвого вечернего телека.

Если ChatGPT не останавливать, он выдает самую желтушную из всех желтых картинок

Визуал, прожаренный на прогорклом масле и кашле деда - вам это нравится?

В каждый промпт добавляем «Kill Yellow Tint» - и да пребудут с вами естественные цвета

@aimastersme
👍286🔥4