Уууу, ребята, V7 уже почти вылезает из своей скорлупы! 😁🤪
Но перед тем, как она ворвётся в нашу жизнь, наш лучший друг и товарищ Хольц просит о помощи!
Нужно пооценивать картинки, чтобы она поняла, что красиво, а что нет.
❤️ Для этого заходим сюда: midjourney.com/rank-v7
‼️ А, кстати, за участие в оценивании вы можете получить дополнительные часы генерации.
Но перед тем, как она ворвётся в нашу жизнь, наш лучший друг и товарищ Хольц просит о помощи!
Нужно пооценивать картинки, чтобы она поняла, что красиво, а что нет.
Please open Telegram to view this post
VIEW IN TELEGRAM
Иногда я заходила на xx.ru, просто посмотреть вакансии — вдруг найдётся что-то интересное, где еще можно применить свои знания. Но всё время просто смотрела и даже не додумалась создать резюме 🙃😀
Если вы тоже так делаете — советую всё-таки его заполнить.
В общем, советую попробовать, даже если сейчас не ищете постоянную работу. Только не ждите, что вам сами напишут — лучше быть поактивнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Друзья, когда вы выбираете для себя работу или берёте заказы — важно держать баланс. Очень важный баланс.
А если проект вас по-настоящему цепляет — вы в него залипнете. Будете делать с удовольствием, а в результате получите не только деньги, но и признание, благодарность и, возможно, вечную любовь заказчика. 😁❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Подгончик😀☯️
Ребятки, гляньте, как можно быстро и удобно поработать с одеждой. Два чётких промпта для GPT, чтобы не мучиться.
Раздеваем модель:
Теперь наряжаем:
Быстро, удобно, работает в обе стороны — и разодеть, и приодеть. Пользуйтесь❤️
Ребятки, гляньте, как можно быстро и удобно поработать с одеждой. Два чётких промпта для GPT, чтобы не мучиться.
Раздеваем модель:
Сделай из этого фото flat lay — одежда отдельно, на чистом белом фоне, без человека и посторонних объектов. Максимально чётко, детально, как для каталога.
Теперь наряжаем:
Из этого flat lay сделай реалистичную фотографию на модели: одежда на человеке, в полный рост, модная поза, студийный фон.
Быстро, удобно, работает в обе стороны — и разодеть, и приодеть. Пользуйтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Обычно мы подбираем картинки к постам, рассказам или статьям. А что, если начать с картинки?
И тут же вспомнился мне самый короткий рассказ. Кто не знает — его написал Эрнест Хемингуэй, и он всего из пары слов: «Продаются: детские ботиночки, неношеные.» Прикольно, да? 😁
Так вот, пишем в GPT промпт:
Составь художественный рассказ по изображению. Опиши персонажей, атмосферу, действия и возможный сюжет. Удели внимание деталям и эмоциональному фону. Используй литературный стиль.
И наблюдаем, какую огромную историю можно вытащить из одного кадра. А можно пойти другим путём — сократить историю до пары слов, как это сделал Хемингуэй.
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну что, дождались V7? 😁
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!🩷
Позже попробую побольше всего и расскажу подробнее. А пока просто посмотрите на эти восхитительные рисунки — она рисует потрясающе!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Начну с самого ИНТЕРЕСНОГО — и НЕ с того, что добавили в новую версию v7, а с того, что убрали.😁 Потому что считаю это важным, чтобы не тратить время на попытки вызвать духи удалённых функций.
⚙️ Во-первых из главных:
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
‼️ Что временно (или насовсем) вырезали из v 7:
❌ Remix
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
❌ Character Reference (--cref)
Скорее всего, умер навсегда. Взамен будет Omni-reference
❌ Multiprompts (::) и --no
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
❌ Качество (--q)
Теперь только --draft, который работает как --q 0.25.
❌ Niji (--niji)
Возможно, скоро вернётся — но нет точной инфы.
❌ Tile, Video, Weird
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
❌ Редактор. Пока работает только через V6.1.
❌ Sref (по кодам) . Тоже пока не работает.
Версия v7 находится в альфа-режиме. Обновления будут добавляться каждые 1–2 недели в течение ближайших двух месяцев. Так что не паникуем — всё ещё сто раз поменяется.
Счас обходной путь: нажать Remix, как обычно. Заменить --v 7 на --v 6.1
Скорее всего, умер навсегда. Взамен будет Omni-reference
Официально вырезаны. Вместо --no нужно описывать сцену так, как будто этого элемента в ней нет.
Теперь только --draft, который работает как --q 0.25.
Возможно, скоро вернётся — но нет точной инфы.
--video: умер окончательно и бесповоротно.
--tile и --weird — пока просто не работают, но скорее всего их тоже не будет больше.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сравнила старые промпты — сейчас Midjourney воспроизводит их явно лучше. Был такой промпт: (справа результат в v7):
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
📌 И внимание! Сегодня уточнила у ТП: сейчас режим Fast работает как Turbo. А Turbo, стал еще быстрее. Но фокус в том, что теперь всё это сжирает больше GPU-времени, чем в 6.1. Так что будьте начеку — разбавляйте свои генерации режимом Relax, чтобы не сгореть по лимитам.
photo of a dancing ballerina in a tutu, right arm extended upward, silhouette lighting, black and white photo, black background, tutu glows with white neon
На других картинках заметно, что шагнула вперед генерация: свет, детали, текстуры, цвета всё стало сочнее. А вот Draft Mode пока всё ещё не в рабочем состоянии. Всё довольно сыровато, что, впрочем, неудивительно, т.к функционал всё ещё в альфе. Поэтому подробно писать об этом пока не вижу смысла.
Оставим Midjourney её законное место — рисовать красивые картинки.😁 А вот к теме сравнения с v 6.1, думаю, стоит вернуться, когда туда наконец добавят Omni reference.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
И ещё отдельно хочу сказать для тех, кто разочарован.
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.❤️ 🤗
Читаю комментарии в соседних каналах — и ловлю себя на мысли, что многие, похоже, не очень глубоко работают с нейросетями. Просто болтают и тянут других в тот же негатив.
Предлагаю эксперимент: попробуйте сделать полноценный проект в одной нейросети — только GPT, или только Midjourney, или только LoRA. Это невозможно.
Разочаровываются, в основном, те, кто ждал магии: сказал пару слов говорилкой — и готовый проект. А на деле — сижу над своим, и использую 5–7 нейросетей одновременно, плюс руками дорабатываю. И у всех моих коллег так же.
Если вам хочется реально расти — учитесь сочетать нейросети, фильтровать лишние, находить рабочие связки. Потому что в реальных задачах всегда нужен микс. И чем быстрее научитесь подбирать нужный инструмент — тем проще будет выполнить задачу.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌀 SREF-коды в Midjourney V7
Параметр --sref [код] даёт возможность повторно использовать стиль одного изображения и применять его к другим промптам.
Как получить и использовать SREF-код:🤩
🔘 Добавьте к любому промпту параметр
🔘 Отправьте запрос на генерацию
🔘 Midjourney сама подставит случайный числовой код вместо слова "random"
🔘 Скопируйте этот числовой код и подставьте его в следующий промпт, например,
❤️ В следующем посте расскажу подробнее про этот параметр и поделюсь с вами несколькими интересными кодами.
А пока, сохраняйте пост, пересылайте коллегам и подписывайтесь на канал, чтобы не пропустить продолжение!😀🤗
Параметр --sref [код] даёт возможность повторно использовать стиль одного изображения и применять его к другим промптам.
Как получить и использовать SREF-код:
--sref random
art --sref 580423590 --v 7
и стиль будет применён к новым изображениямА пока, сохраняйте пост, пересылайте коллегам и подписывайтесь на канал, чтобы не пропустить продолжение!😀🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
Кто не знает я работаю с Midjourney с выхода V4, каждый день. Те,кто также — в курсе: единый стиль для Миджи долгое время был проблемой. Когда нужно было сделать 100+ изображений в одном стиле, я просто использовала художников в промпте. Этот способ до сих пор рабочий. У меня и тогда, и сейчас есть своя библиотека художников — около 4000 шт. 😀
Но вот пример:
--sref 2799345746
в версии 6.1 выдаёт узнаваемый стиль Ван Гога. Как сейчас выглядит этот стиль в v7 — закинула сюда.--sref random
, потому что часто вылезают реалистичные лица или что-то странное. Но стили угадываются.Когда Midjourney V7 донастроят и стили начнут работать как надо — я напишу.😀
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Дорогие друзья, я все таки смогла хакнуть GPT!😁
Рада поделиться с вами вот таким результатом промежуточным. Всё это сделано в GPT, и, как оказалось, утверждение, что он не сохраняет персонажа больше 3-х раз — неправда.
Я потратила на это много времени. И да, могу сказать, что ChatGPT может сохранять персонажа сколько угодно раз)).❤️
Рада поделиться с вами вот таким результатом промежуточным. Всё это сделано в GPT, и, как оказалось, утверждение, что он не сохраняет персонажа больше 3-х раз — неправда.
Я потратила на это много времени. И да, могу сказать, что ChatGPT может сохранять персонажа сколько угодно раз)).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM