Это теперь не просто чат — это целый чемоданчик с инструментами для работы с изображениями и текстом.
Все так называемые "убийцы Midjourney" на этом фоне сразу же легли лапками кверху.
Забегая вперёд он, конечно, старается повторить стиль из Миджи… но, увы, пока это не то пальто. Хотя очень близко!))
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥8🍓4🦄3👻1
Те, кто уже всерьёз занялся изучением возможностей GPT в генерации изображений, наверняка заметили одну странную особенность — он стабильно накладывает жёлтый оттенок.
Прям стабильно. И за последние дни это стало настолько бросаться в глаза, что картинки от GPT можно узнавать с первого взгляда. Я уже подумала: ну всё, теперь этот жёлтый фильтр, как фирменная подпись.
Но, друзья, не всё так плохо! С этим можно справиться. GPT вполне способен выдавать изображения и без этого злополучного жёлтого. Нужно просто знать, как его усмирить.
На этих фотках GPT (слева) и Midjourney (справа)❤️
Прям стабильно. И за последние дни это стало настолько бросаться в глаза, что картинки от GPT можно узнавать с первого взгляда. Я уже подумала: ну всё, теперь этот жёлтый фильтр, как фирменная подпись.
Но, друзья, не всё так плохо! С этим можно справиться. GPT вполне способен выдавать изображения и без этого злополучного жёлтого. Нужно просто знать, как его усмирить.
На этих фотках GPT (слева) и Midjourney (справа)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20🔥13👻4🦄2
Уууу, ребята, V7 уже почти вылезает из своей скорлупы! 😁🤪
Но перед тем, как она ворвётся в нашу жизнь, наш лучший друг и товарищ Хольц просит о помощи!
Нужно пооценивать картинки, чтобы она поняла, что красиво, а что нет.
❤️ Для этого заходим сюда: midjourney.com/rank-v7
‼️ А, кстати, за участие в оценивании вы можете получить дополнительные часы генерации.
Но перед тем, как она ворвётся в нашу жизнь, наш лучший друг и товарищ Хольц просит о помощи!
Нужно пооценивать картинки, чтобы она поняла, что красиво, а что нет.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥14🍓4👀3🦄2
Иногда я заходила на xx.ru, просто посмотреть вакансии — вдруг найдётся что-то интересное, где еще можно применить свои знания. Но всё время просто смотрела и даже не додумалась создать резюме 🙃😀
Если вы тоже так делаете — советую всё-таки его заполнить.
В общем, советую попробовать, даже если сейчас не ищете постоянную работу. Только не ждите, что вам сами напишут — лучше быть поактивнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🔥10🍓4🦄2
Подгончик😀☯️
Ребятки, гляньте, как можно быстро и удобно поработать с одеждой. Два чётких промпта для GPT, чтобы не мучиться.
Раздеваем модель:
Теперь наряжаем:
Быстро, удобно, работает в обе стороны — и разодеть, и приодеть. Пользуйтесь❤️
Ребятки, гляньте, как можно быстро и удобно поработать с одеждой. Два чётких промпта для GPT, чтобы не мучиться.
Раздеваем модель:
Сделай из этого фото flat lay — одежда отдельно, на чистом белом фоне, без человека и посторонних объектов. Максимально чётко, детально, как для каталога.
Теперь наряжаем:
Из этого flat lay сделай реалистичную фотографию на модели: одежда на человеке, в полный рост, модная поза, студийный фон.
Быстро, удобно, работает в обе стороны — и разодеть, и приодеть. Пользуйтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥45🤓8🍓3🦄2
Обычно мы подбираем картинки к постам, рассказам или статьям. А что, если начать с картинки?
И тут же вспомнился мне самый короткий рассказ. Кто не знает — его написал Эрнест Хемингуэй, и он всего из пары слов: «Продаются: детские ботиночки, неношеные.» Прикольно, да? 😁
Так вот, пишем в GPT промпт:
Составь художественный рассказ по изображению. Опиши персонажей, атмосферу, действия и возможный сюжет. Удели внимание деталям и эмоциональному фону. Используй литературный стиль.
И наблюдаем, какую огромную историю можно вытащить из одного кадра. А можно пойти другим путём — сократить историю до пары слов, как это сделал Хемингуэй.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤11🦄3🍓1
Ну что, дождались V7? 😁
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!🩷
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27🔥16🍓4👻1🦄1
Начну с самого ИНТЕРЕСНОГО — и НЕ с того, что добавили в новую версию v7, а с того, что убрали.😁 Потому что считаю это важным, чтобы не тратить время на попытки вызвать духи удалённых функций.
⚙️ Во-первых из главных:
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
‼️ Что временно (или насовсем) вырезали из v 7:
❌ Remix
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
❌ Character Reference (--cref)
Скорее всего, умер навсегда. Взамен будет Omni-reference
❌ Multiprompts (::) и --no
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
❌ Качество (--q)
Теперь только --draft, который работает как --q 0.25.
❌ Niji (--niji)
Возможно, скоро вернётся — но нет точной инфы.
❌ Tile, Video, Weird
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
❌ Редактор. Пока работает только через V6.1.
❌ Sref (по кодам) . Тоже пока не работает.
@merkulova
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
Скорее всего, умер навсегда. Взамен будет Omni-reference
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
Теперь только --draft, который работает как --q 0.25.
Возможно, скоро вернётся — но нет точной инфы.
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12🙊7❤3⚡2🍓1
Сравнила старые промпты — сейчас Midjourney понимает их явно лучше. Был такой промпт: (справа результат в v7):
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
📌 И внимание! Сегодня уточнила у ТП: сейчас режим Fast работает как Turbo. А Turbo, стал еще быстрее. Но фокус в том, что теперь всё это сжирает больше GPU-времени, чем в 6.1. Так что будьте начеку — разбавляйте свои генерации режимом Relax, чтобы не сгореть по лимитам.
@merkulova
photo of a dancing ballerina in a tutu, right arm extended upward, silhouette lighting, black and white photo, black background, tutu glows with white neon
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥4😁2👻1🦄1
И ещё отдельно хочу сказать для тех, кто разочарован.
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.❤️ 🤗
@merkulova
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
💯47🔥11❤10🤓3🦄2👻1
🌀 SREF-коды в Midjourney V7
Параметр --sref [код] даёт возможность повторно использовать стиль одного изображения и применять его к другим промптам.
Как получить и использовать SREF-код:🤩
🔘 Добавьте к любому промпту параметр
🔘 Отправьте запрос на генерацию
🔘 Midjourney сама подставит случайный числовой код вместо слова "random"
🔘 Скопируйте этот числовой код и подставьте его в следующий промпт, например,
❤️ В следующем посте расскажу подробнее про этот параметр и поделюсь с вами несколькими интересными кодами.
А пока, сохраняйте пост, пересылайте коллегам и подписывайтесь на канал, чтобы не пропустить продолжение!😀🤗
@merkulova
Параметр --sref [код] даёт возможность повторно использовать стиль одного изображения и применять его к другим промптам.
Как получить и использовать SREF-код:
--sref random
art --sref 580423590 --v 7
и стиль будет применён к новым изображениямА пока, сохраняйте пост, пересылайте коллегам и подписывайтесь на канал, чтобы не пропустить продолжение!😀🤗
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
❤31🔥11⚡5🦄1
Кто не знает я работаю с Midjourney с выхода V4, каждый день. Те,кто также — в курсе: единый стиль для Миджи долгое время был проблемой. Когда нужно было сделать 100+ изображений в одном стиле, я просто использовала художников в промпте. Этот способ до сих пор рабочий. У меня и тогда, и сейчас есть своя библиотека художников — около 4000 шт. 😀
Но вот пример:
--sref 2799345746
в версии 6.1 выдаёт узнаваемый стиль Ван Гога. Как сейчас выглядит этот стиль в v7 — закинула сюда.--sref random
, потому что часто вылезают реалистичные лица или что-то странное. Но стили угадываются.Когда Midjourney V7 донастроят и стили начнут работать как надо — я напишу.😀
@merkulova
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27🔥12⚡5🦄2👻1