Решила сэкономить время, взять стиль рисунков, который у меня уже был, и сделать картинки в ImageFX. Я бы их доработала, исправила различия в одежде и других деталях, НО…
Сначала всё выглядело вроде бы гармонично, но когда я попыталась разместить изображения на одной странице… Оу. Это просто катастрофа! Разные цвета, разные линии, всё разное. И я ведь не ограничилась собственными выводами — спросила художника, права ли я. И да!
В анимации это ещё как-то смотрелось, но для книги… а тем более если распечатать… Нет, это вообще не пойдёт.
И вот некоторые спрашивают: "Почему Midjourney?"
Одна из причин — потому что только в Мидже больше 4,3 миллиарда --sref кодов и куча художественных стилей, которые сохраняют единство на ВСЕХ изображениях.
И изначально она создавалась для дизайнеров и иллюстраторов, а некоторые от неё ждут реализма. Но вообще она не про это, и реализма в ней никогда не будет.
А если нужно сделать больше одной картинки в едином стиле — это только --sref.
Эту пробу я даже отправлять никуда не буду, кроме нашего канала. 😆
Please open Telegram to view this post
VIEW IN TELEGRAM
Те кто работают с маркетплейсами, наверняка сталкивались с задачей изменить что-то на карточке товара — например, цвет одежды, но так, чтобы сама одежда оставалась неизменной. То, что вы видите на примере, сделано в Midjourney!
Вчера в клубе мы разобрали этот метод и показали, как всё сделать быстро и без лишних сложностей.
Вчера в клубе мы разобрали этот метод и показали, как всё сделать быстро и без лишних сложностей.
Это теперь не просто чат — это целый чемоданчик с инструментами для работы с изображениями и текстом.
Все так называемые "убийцы Midjourney" на этом фоне сразу же легли лапками кверху.
И, что смешно (и одновременно круто) — к посту, который я позже отправлю, я вообще не имею никакого отношения. Всё придумал и нарисовал GPT.😁
Забегая вперёд: он, конечно, старается повторить стиль из Миджи… но, увы, пока это не то пальто. Хотя очень близко!))
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Те, кто уже всерьёз занялся изучением возможностей GPT в генерации изображений, наверняка заметили одну странную особенность — он стабильно накладывает жёлтый оттенок.
Прям стабильно. И за последние дни это стало настолько бросаться в глаза, что картинки от GPT можно узнавать с первого взгляда. Я уже подумала: ну всё, теперь этот жёлтый фильтр, как фирменная подпись.
Но, друзья, не всё так плохо! С этим можно справиться. GPT вполне способен выдавать изображения и без этого злополучного жёлтого. Нужно просто знать, как его усмирить.
На этих фотках GPT (слева) и Midjourney (справа)❤️
Прям стабильно. И за последние дни это стало настолько бросаться в глаза, что картинки от GPT можно узнавать с первого взгляда. Я уже подумала: ну всё, теперь этот жёлтый фильтр, как фирменная подпись.
Но, друзья, не всё так плохо! С этим можно справиться. GPT вполне способен выдавать изображения и без этого злополучного жёлтого. Нужно просто знать, как его усмирить.
На этих фотках GPT (слева) и Midjourney (справа)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Уууу, ребята, V7 уже почти вылезает из своей скорлупы! 😁🤪
Но перед тем, как она ворвётся в нашу жизнь, наш лучший друг и товарищ Хольц просит о помощи!
Нужно пооценивать картинки, чтобы она поняла, что красиво, а что нет.
❤️ Для этого заходим сюда: midjourney.com/rank-v7
‼️ А, кстати, за участие в оценивании вы можете получить дополнительные часы генерации.
Но перед тем, как она ворвётся в нашу жизнь, наш лучший друг и товарищ Хольц просит о помощи!
Нужно пооценивать картинки, чтобы она поняла, что красиво, а что нет.
Please open Telegram to view this post
VIEW IN TELEGRAM
Иногда я заходила на xx.ru, просто посмотреть вакансии — вдруг найдётся что-то интересное, где еще можно применить свои знания. Но всё время просто смотрела и даже не додумалась создать резюме 🙃😀
Если вы тоже так делаете — советую всё-таки его заполнить.
В общем, советую попробовать, даже если сейчас не ищете постоянную работу. Только не ждите, что вам сами напишут — лучше быть поактивнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Друзья, когда вы выбираете для себя работу или берёте заказы — важно держать баланс. Очень важный баланс.
А если проект вас по-настоящему цепляет — вы в него залипнете. Будете делать с удовольствием, а в результате получите не только деньги, но и признание, благодарность и, возможно, вечную любовь заказчика. 😁❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Подгончик😀☯️
Ребятки, гляньте, как можно быстро и удобно поработать с одеждой. Два чётких промпта для GPT, чтобы не мучиться.
Раздеваем модель:
Теперь наряжаем:
Быстро, удобно, работает в обе стороны — и разодеть, и приодеть. Пользуйтесь❤️
Ребятки, гляньте, как можно быстро и удобно поработать с одеждой. Два чётких промпта для GPT, чтобы не мучиться.
Раздеваем модель:
Сделай из этого фото flat lay — одежда отдельно, на чистом белом фоне, без человека и посторонних объектов. Максимально чётко, детально, как для каталога.
Теперь наряжаем:
Из этого flat lay сделай реалистичную фотографию на модели: одежда на человеке, в полный рост, модная поза, студийный фон.
Быстро, удобно, работает в обе стороны — и разодеть, и приодеть. Пользуйтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Обычно мы подбираем картинки к постам, рассказам или статьям. А что, если начать с картинки?
И тут же вспомнился мне самый короткий рассказ. Кто не знает — его написал Эрнест Хемингуэй, и он всего из пары слов: «Продаются: детские ботиночки, неношеные.» Прикольно, да? 😁
Так вот, пишем в GPT промпт:
Составь художественный рассказ по изображению. Опиши персонажей, атмосферу, действия и возможный сюжет. Удели внимание деталям и эмоциональному фону. Используй литературный стиль.
И наблюдаем, какую огромную историю можно вытащить из одного кадра. А можно пойти другим путём — сократить историю до пары слов, как это сделал Хемингуэй.
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну что, дождались V7? 😁
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!🩷
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Начну с самого ИНТЕРЕСНОГО — и НЕ с того, что добавили в новую версию v7, а с того, что убрали.😁 Потому что считаю это важным, чтобы не тратить время на попытки вызвать духи удалённых функций.
⚙️ Во-первых из главных:
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
‼️ Что временно (или насовсем) вырезали из v 7:
❌ Remix
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
❌ Character Reference (--cref)
Скорее всего, умер навсегда. Взамен будет Omni-reference
❌ Multiprompts (::) и --no
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
❌ Качество (--q)
Теперь только --draft, который работает как --q 0.25.
❌ Niji (--niji)
Возможно, скоро вернётся — но нет точной инфы.
❌ Tile, Video, Weird
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
❌ Редактор. Пока работает только через V6.1.
❌ Sref (по кодам) . Тоже пока не работает.
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
Скорее всего, умер навсегда. Взамен будет Omni-reference
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
Теперь только --draft, который работает как --q 0.25.
Возможно, скоро вернётся — но нет точной инфы.
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сравнила старые промпты — сейчас Midjourney воспроизводит их явно лучше. Был такой промпт: (справа результат в v7):
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
📌 И внимание! Сегодня уточнила у ТП: сейчас режим Fast работает как Turbo. А Turbo, стал еще быстрее. Но фокус в том, что теперь всё это сжирает больше GPU-времени, чем в 6.1. Так что будьте начеку — разбавляйте свои генерации режимом Relax, чтобы не сгореть по лимитам.
photo of a dancing ballerina in a tutu, right arm extended upward, silhouette lighting, black and white photo, black background, tutu glows with white neon
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
И ещё отдельно хочу сказать для тех, кто разочарован.
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.❤️ 🤗
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.
Please open Telegram to view this post
VIEW IN TELEGRAM