Обычно мы подбираем картинки к постам, рассказам или статьям. А что, если начать с картинки?
И тут же вспомнился мне самый короткий рассказ. Кто не знает — его написал Эрнест Хемингуэй, и он всего из пары слов: «Продаются: детские ботиночки, неношеные.» Прикольно, да? 😁
Так вот, пишем в GPT промпт:
Составь художественный рассказ по изображению. Опиши персонажей, атмосферу, действия и возможный сюжет. Удели внимание деталям и эмоциональному фону. Используй литературный стиль.
И наблюдаем, какую огромную историю можно вытащить из одного кадра. А можно пойти другим путём — сократить историю до пары слов, как это сделал Хемингуэй.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤11🦄3🍓1
Ну что, дождались V7? 😁
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!🩷
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27🔥16🍓4👻1🦄1
Начну с самого ИНТЕРЕСНОГО — и НЕ с того, что добавили в новую версию v7, а с того, что убрали.😁 Потому что считаю это важным, чтобы не тратить время на попытки вызвать духи удалённых функций.
⚙️ Во-первых из главных:
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
‼️ Что временно (или насовсем) вырезали из v 7:
❌ Remix
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
❌ Character Reference (--cref)
Скорее всего, умер навсегда. Взамен будет Omni-reference
❌ Multiprompts (::) и --no
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
❌ Качество (--q)
Теперь только --draft, который работает как --q 0.25.
❌ Niji (--niji)
Возможно, скоро вернётся — но нет точной инфы.
❌ Tile, Video, Weird
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
❌ Редактор. Пока работает только через V6.1.
❌ Sref (по кодам) . Тоже пока не работает.
@merkulova
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
Скорее всего, умер навсегда. Взамен будет Omni-reference
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
Теперь только --draft, который работает как --q 0.25.
Возможно, скоро вернётся — но нет точной инфы.
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12🙊7❤3⚡2🍓1
Сравнила старые промпты — сейчас Midjourney понимает их явно лучше. Был такой промпт: (справа результат в v7):
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
📌 И внимание! Сегодня уточнила у ТП: сейчас режим Fast работает как Turbo. А Turbo, стал еще быстрее. Но фокус в том, что теперь всё это сжирает больше GPU-времени, чем в 6.1. Так что будьте начеку — разбавляйте свои генерации режимом Relax, чтобы не сгореть по лимитам.
@merkulova
photo of a dancing ballerina in a tutu, right arm extended upward, silhouette lighting, black and white photo, black background, tutu glows with white neon
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥4😁2👻1🦄1
И ещё отдельно хочу сказать для тех, кто разочарован.
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.❤️ 🤗
@merkulova
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
💯47🔥11❤10🤓3🦄2👻1
🌀 SREF-коды в Midjourney V7
Параметр --sref [код] даёт возможность повторно использовать стиль одного изображения и применять его к другим промптам.
Как получить и использовать SREF-код:🤩
🔘 Добавьте к любому промпту параметр
🔘 Отправьте запрос на генерацию
🔘 Midjourney сама подставит случайный числовой код вместо слова "random"
🔘 Скопируйте этот числовой код и подставьте его в следующий промпт, например,
❤️ В следующем посте расскажу подробнее про этот параметр и поделюсь с вами несколькими интересными кодами.
А пока, сохраняйте пост, пересылайте коллегам и подписывайтесь на канал, чтобы не пропустить продолжение!😀🤗
@merkulova
Параметр --sref [код] даёт возможность повторно использовать стиль одного изображения и применять его к другим промптам.
Как получить и использовать SREF-код:
--sref random
art --sref 580423590 --v 7
и стиль будет применён к новым изображениямА пока, сохраняйте пост, пересылайте коллегам и подписывайтесь на канал, чтобы не пропустить продолжение!😀🤗
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
❤31🔥11⚡5🦄1
Кто не знает я работаю с Midjourney с выхода V4, каждый день. Те,кто также — в курсе: единый стиль для Миджи долгое время был проблемой. Когда нужно было сделать 100+ изображений в одном стиле, я просто использовала художников в промпте. Этот способ до сих пор рабочий. У меня и тогда, и сейчас есть своя библиотека художников — около 4000 шт. 😀
Но вот пример:
--sref 2799345746
в версии 6.1 выдаёт узнаваемый стиль Ван Гога. Как сейчас выглядит этот стиль в v7 — закинула сюда.--sref random
, потому что часто вылезают реалистичные лица или что-то странное. Но стили угадываются.Когда Midjourney V7 донастроят и стили начнут работать как надо — я напишу.😀
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27🔥12⚡5🦄2👻1
Дорогие друзья, я все таки смогла хакнуть GPT!😁
Рада поделиться с вами вот таким результатом промежуточным. Всё это сделано в GPT, и, как оказалось, утверждение, что он не сохраняет персонажа больше 3-х раз — неправда.
Я потратила на это много времени. И да, могу сказать, что ChatGPT может сохранять персонажа сколько угодно раз)).❤️
@merkulova
Рада поделиться с вами вот таким результатом промежуточным. Всё это сделано в GPT, и, как оказалось, утверждение, что он не сохраняет персонажа больше 3-х раз — неправда.
Я потратила на это много времени. И да, могу сказать, что ChatGPT может сохранять персонажа сколько угодно раз)).
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥48❤9🍓7🦄2👻1
Продолжаю свои тесты с GPT и темой сохранения персонажа.
❤️ Что стабильно при определенных настройках: стиль изображения — держится. Мультяшный 3D-рендер, один тип лица, текстура кожи, детализация — всё выполнено в одном стиле. Это прям плюс.
🎮 Что всё же сбивается:
◽️ Цвет кожи и освещение
В индийском образе кожа становится темнее и что бы я ни делала, GPT всё равно тянет в эту сторону. В других случаях (славянский, швейцарский и т.п.) ещё удавалось выровнять тон, но с Индией — сдалась.
◽️ Цвет глаз и волос
В европейских образах глаза тоже становятся светлее, особенно с венками и кокошниками. В русских костюмах волосы заметно осветляются.
🎮 Чтобы убедиться окончательно, я пошла в обратную сторону. Загрузила фото персонажа и просто написала: "Нарисуй любого другого персонажа в этом костюме". Вот здесь можно посмотреть. GPT подгоняет внешность персонажа под культурный образ костюма.
Это вам маленький пример того, как одно слово в промпте может изменить всё изображение. Написали "индийский костюм" и GPT подгоняет под образ: кожа темнее, черты лица другие. Даже если вы загрузили конкретную рефку, она всё равно не гарантирует стабильность, если промпт допускает трактовку.
Тем не менее, результат считаю достойным и удовлетворена им на этом этапе😀.
@merkulova
В индийском образе кожа становится темнее и что бы я ни делала, GPT всё равно тянет в эту сторону. В других случаях (славянский, швейцарский и т.п.) ещё удавалось выровнять тон, но с Индией — сдалась.
В европейских образах глаза тоже становятся светлее, особенно с венками и кокошниками. В русских костюмах волосы заметно осветляются.
Это вам маленький пример того, как одно слово в промпте может изменить всё изображение. Написали "индийский костюм" и GPT подгоняет под образ: кожа темнее, черты лица другие. Даже если вы загрузили конкретную рефку, она всё равно не гарантирует стабильность, если промпт допускает трактовку.
Тем не менее, результат считаю достойным и удовлетворена им на этом этапе😀.
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🔥11🤓3🦄3👻1🤗1