ПРОБИЗДИЗ 🙆🏻‍♂️
360 subscribers
45 photos
3 videos
13 files
61 links
Блоги Ильи Кузнецова (19 лет в дизайне) про бизнес, дизайн и AI.

По всем вопросам пишите: @simplygreen
Download Telegram
Готовлю для студийного пользования руководство по Midjourney.

Думал просто накидать несколько кейсов, и на их примерах рассказать как что устроено, но в итоге всё превратилось в огромный документ, который буду писать пару недель, и который охватывает большую часть кейсов использования midjourney для дизайнеров.

И это очень узко-направленная вещь, именно для UI и веб-дизайнеров, с конкретными и применимыми кейсами. Всё что есть на ютубе, в твиттере и других местах — обычно общепользовательские “Картина Ван Гога, но на ней Оскар Айзек из сыра” ну или как минимум “А вот как сделать очень модную фешн-фотографию”, но всё это совсем мимо дизайн-задач, применимых в реальных проектах.

А мы, в студии, применяем для работы с большими клиентами, и много. Короче кажется выходит что-то достаточно уникальное.
Сгенерированные текстуры и материалы не отличаются от стоковых фото. Мы вот в студии всегда сторонились стоковых материалов из-за недостатка индивидуальности в них. Точно также при стандартной генерации в Midjourney 6 обычных текстур и материалов, от них прямо веет обычностью и тривиальностью. Мне нравится английское слово Generic для их описания.

Выход — искать характер. Например делать не просто ребристое стекло, которое будешь исползовать в качестве фона для Behance-кейса, а добавить туда хроматические абберации в цвет акцентного цвета интерфейса. Когда текстуры вписаны таким образом, что они взаимодействуют с другими элементами, а ещё и в чем-то визуально поддерживают их, это больше не выглядит как что-то ИИ-шно бездушное, это начинает выглядеть, как специально проделанная работа в гибком инструменте.

Экспериментировал с текстурками и нактнулся на классный результат. Я вообще-то болею, с температурой лежу, и мне показалось, что эти текстурки — отличная визуализация бреда, который меня мучает, когда пытаюсь заснуть.

Выложил на Behance 18 текстурок + промпт.
https://www.behance.net/gallery/191210405/Mold-free-texture-pack
Midjourney и другие генеративные ИИ — это новые фотостоки. Но есть нюансы.

Фотостоки были вполне себе полезными. Но по большей части использовались так, что это бросалось в глаза. Помните, наверное, как только они стали набирать популярность, появились адвокатские конторы с большой шапкой, где судейский молоток и документы на английском 🙂 И много такого. Или когда только появились первые большие сайты с бесплатными наборами иконок, стали появляться сайты, у которых каждый пункт меню был продублирован иконкой.

ИИ-картинки, особенно сделанные в MidJourney, часто имеют характерные особенности. И я сейчас не про заметные косяки с пальцами или надписями, а просто характерный стиль — драматичный контровой свет, запотевшие стёкла, эффект боке, частицы, преломления. Всё это часто слишком конфетно и универсально-нейтрально по эстетике, что в общем-то похоже на стоковые фотографии.

Ну и понятно, в чём ловушка. Когда начинающему дизайнеру попадает в руки инструмент, который может сделать трендовый визуал, конечно, ещё неокрепшее дизайнерское мышление хочет этим визуалом заполнить все пустые пространства и сопроводить каждый текст. Только суть дизайна не в том, чтобы сопроводить текст визуальными элементами, а в том, чтобы создать историю из контента, и графика, тем более трендовая, далеко не первостепенный инструмент для этого.

А нюанс в том, что генеративные ИИ — это всё-таки инструмент, а не набор решений. И кажется, мы, дизайнеры, только открываем способы взаимодействия с ними таким образом, чтобы это не было фотостоками, а превратилось в кастомные иллюстрации. В прошлом посте я писал про поиск характера в материалах. Во всём остальном сгенерированном тоже есть свои подходы.

Как минимум, мы можем маскировать, с разной степенью эффективности, генеративную природу. А как максимум — искать сценарии использования, при которых сгенерированные картинки и по смыслу, и по уровню соответствия контексту не будут уступать в ценности кастомной вручную созданной графике.
Сначала на ютубе появился ироничный виузальный жанр, с активным использованием стоковых видео. Потом это и в веб утекло. Вангую, что в ближайшее время появятся ироничные нарочито ИИшные картинки и в сети, в качестве стеба над трендом. Нет на серьезных щщах, как в “Секретном вторжении” от Марвел, а именно в качестве издевки над нелепостью.
В своем посте про персоны, я коротко пересказал часть своей публичной лекции в ololo.

Теперь выложена в публичный доступ и сама лекция:
https://youtu.be/m4sa4n0yQt4?si=8tiavofvAz0_8LrH

Порезал все вопросы/ответы, и всё равно осталось 35 минут. Там:
1. Кто я такой, и почему могу говорить о том, что говорю.
2. Что такое дизайн в целом, и почему он фактически появился совсем недавно.
3. Что главное в дизайне.
4. Как составлять персоны, с помощью ChatGPT.
5. Как опраишвать виртуальные персоны, углублять вопросы, делать выводы.
6. Как это влияет на эффективность дизайна.

Презентация с промптами и другими материалами в FigJam формате тут: https://www.figma.com/file/6O1KJoHzyh9z6oKUr47qYv/Ololo-AI-Design?type=whiteboard
Попробовал полностью перейти на Perplexity с ChatGPT.

Из-за структурности библиотек, где для каждой папки фактически задаешь кастомный промпт. То есть почти полноценный GPT’s. И из-за поисковых функций. Постоянно все чекает в сети, дает ссылки на материалы, и при этом можно выбрать GPT-4, Claude или собственную LLM от perplexity.

Ухожу обратно на ChatGPT.
Понял, что сохранять диалога внутри GPT’s всё равно большого смысла нет, так что функция тегать GPT’s а дальше всё это сваливается в бесконечный список, который я уже перестал пытаться держать в порядке, это вполне себе норм.

Почти вся информация, которую я получаю от GPT (и perplexity) я либо сразу использую, либо вообще не использую. Так что как будто бы структура и не нужна.

Спустя две недели возвращаюсь на ChatGPT, Perplexity оставляю для быстрых ответов на вопросы и быстрого поиска информации.

PS потестил Gemini Ultra. Ну такое. По ощущениям на уровне GPT-3.5.
Midjourney при неправильном использовании роняет качество дизайна. При правильном — ускоряет работу и повышает качество.

У нас в студии мы используем Midjourney для работы над проектами Альфа-банка, Яндекса и других известных брендов, и я рад, что когда-то инвестировал в это время, и рад что мы тратим ресурсы на обучение сотрудников.

Это просто экономически выгодно, я понаписал табличек, чтобы попытаться понять из данных, насколько выгодно. Вышло что задачи, где мы применяем Midjourney нам на +43% выгоднее. То есть на каждую $1000 дохода студии мы получаем $+430 за счёт Midjourney.

И мне хочется поделиться тем, как пользоваться этим инструментом. Потому что доступыне туториалы и уроки — они все про трендовые классные отдельно взятые иллюстрации. А для дизайна нужно совсем другое, так что многие из этих уроков почти полностью бесполезны.

Я решил упаковать опыт студии в узко-направленный курс для дизайнеров по Midjourney. Курс уже готов и продается на английском языке. В рублях я его продаю за 9000 руб.. Но пока не переведен полностью, можно сделать предзаказ за 4900 руб.. Полный курс доперевожу и опубликую до 20 февраля, в эту же дату и поставлю цену в 9000 руб..

Небольшая пробная часть уже переведена и доступна бесплатно.

Курс текстовый, с большим количеством примеров и промптов. Как я говорил — узко-направленный для дизайнеров. С большим упором на описание ограничений и слабостей нейронки, и как их обходить. Содержание курса отправлю комментарием, чтобы не раздувать пост.
Лайфхак по поиску интересных промптов в Midjourney — исследовать /describe. Особенно круто способ работает с абстракциями.

Вообще /describe нужен для обратной инжинерии, чтобы картинку превратить в промпт. Но на мой взгляд получается в целом плохо. А ещё он выдает промпты, которые хорошо работали в прошлых версиях, а не в v6.

Скормил как-то /descibe картинку, на которую он выдал промпт начинающийся с tony's new album 'all this noise’. И удивительно, но именно добавление этой части промпта, давал нужный результат, и помогал сделать полоски именно такими, какие мне нужны. Гуглеж, что это за альбом Тони, показал, что нет ничего такого общеизвестного. Это что-то на внутреннем языке нейросетей. Если интересно — это целая новая область исследований, и это правда существует.

И вот такие интересные кусочки иногда получается вытащить, и они классно влияют на результат. При этом попытки понять, что оно само по себе отдельно значит — результата не дают, а как влияют на конкретные картинки — видно.

И вот иногда совершенно обычные фразы типа ‘summer vibe’ берут и вообще переворачивают стиль. И ещё они в разных ситуациях по-разному себя проявляют. Ну то есть все параметры настоящего слова в настоящем языке.

Вывод: пользоваться /describe чаще и внимательно изучать результаты.
Вау. Первые продажи — это приятно. И есть первые выводы — все русскоязычные каналы работают в разы хуже. И платная реклама, и этот телеграм канал.

Отсюда всего одна продажа, и та с 80% скидкой, потому что человек сильно помог с изучением аудитории. Так что это и за продажу считать нельзя. А здесь 350 знающих меня, активных человек.

В то время, как с платной рекламы на eng аудиторию, с LinkedIn, с YouTube, уже всё активно идет, уже и первые отзывы хорошие есть, и даже небольшие вливания в тест каналов дает результаты.

И неутешительные выводы по-поводу главного — а вообще стоит ли делать русскоязычный контент? Развивать этот блог? Стоит ли хоть как-то держаться за этот рынок, если разница по большей части направлений такая огромная?

До запуска я подумывал потратить деньги на рекламу этого канала, но теперь посчитал, что даже при активной работе над платными курсами, и с продажами платного менторства, оно скорее всего будет в разы менее выгодное, чем писать посты для LinkedIn и делать видео на YouTube, и там этим заниматься.

Ну и на всякий случай напоминаю, что курс уже доступен и продается тут: https://bigshoesdesign.gumroad.com/l/midjourneyfordesigners/10first

Это английская версия, со специальными условиями по цене.
Завтра должен был выйти курс «Midjourney для дизайнеров. Полное руководство» на русском языке, но внезапно оказалось, что GPT тоже переводит криво, и надо всё редактировать. А он 20 страниц чистого текста (80 с картинками). Поэтому завтра я не успеваю. По мере перевода и редактуры публикую, но мне нужно ещё около 5 дней, чтобы всё закончить.

Но уроки появляются каждый день, по мере перевода.

Тем не менее, в качестве извинения за опоздание, вот промокод: TOOLATE, с которым вы сможете купить курс за 1900р, вместо обычных 4900р.

Как только переведу и опубликую, запускаю рекламу, и там обычная цена будет 9000. Но конечно это слегка завышенная цена, чтобы можно было постоянно её резать скидками. Но среднюю думаю буду держать в районе 5-7к.
Вот такой дизайн я делал в 2011. 13 лет назад. Кое что мне даже нравится. Но конечно главные ошибки: нет консистентности стиля, нет общих правил физики мира, что особенно важно при скевоморфизме, ну и выбор цветов странный, особенно голубой, который просто по контрасту не подходит.

А так прямо ностальгнул вспоминая, как принципиально вручную в фотошопе рисовал текстуры дерева для фона и полочек, а потом боролся с тенями и перспективой самих полочек.
Wireframes обязательно нужно делать перед дизайном. А дизайн всегда начинать с концепта, заверять его со стейкхолдером, а потом уже переходить к остальной части. Так мы минимизируем риски и сильно снижаем стоимость ошибок.

Самая лучшая коммуникация это личная встреча, на втором месте созвон, на третьем скринкаст, на четвертом переписка, на пятом — email или внутренняя система.

Я так делал и других учил. И по-прежнему вижу в этом много смысла. Но прошел курс «Productize Yourself», от создателя нашумевнего сервиса DesignJoy и увидел в его подходе очень-очень много противоположного своему.

Среди его процессов — никаких созвонов, общение в основном через Trello, никаких вайрфреймов, сразу готовый дизайн. Всё это объеденино под лозунгом «Выбирай самое простое решение». И в его случае это работает.

Я задумался. Кажется, что пока студия состояла из двух сеньоров, мы могли себе позволить такой же подход, а сейчас чтобы защищиться от ошибок и переработок, нам приходится жертвовать скоростью работы, а ещё кажется прибыльностью. Мы были в разы быстрее на старте, чем сейчас.

У меня нет сомнений, что мои правила хорошо работают и обеспечивают то, что должны обеспечивать. Но теперь я начал видеть и обратную их сторону, и глядя на неё мне кажется, что я со своими правилами и процессами ближе не к золотой середине, а к крайности.

Да даже курс — это просто аудосообщения. Чувак не стал заморачиваться с текстами, картинками, съемками, а просто записал аудио, причем явно без сценария. Только там где нужны скриншоты — добавил скриншоты и скринкаст, записанный на лум с включеной вебкой. Ну а собственно что здесь плохого, если мне нужно получить информацию и я её получаю. Не всем удобно? Ну да, но есть рефанд, если вдруг есть проблемы со слушанием. Короче круто, немного бодрит и трезвит. Есть во мне дофига ненужного перфекционизма. Нужный тоже есть, но всё таки сейчас хочется немного снизить.
Курс «Midjourney для дизайнеров. Полное руководство» готов и опубликован. Промо-код TOOLATE, который роняет цену до 1900 руб. оставляю до конца дня. в 00:00 по Мск закончится. Сори, что так затянул.

А у меня возникла идея более дорогого B2B продукта. Когда я прихожу в компанию, смотрю на дизайн-процессы, смотрю что из этого можно улучить AI-инструментами. Не только Midjourney, но и ChatGPT, потом внедряю эти инструменты и обучаю сотрудников.

Я провел небольшой опрос в LinkedIn среди работающих профи в сфере дизайна, и выяснилось что Midjourney многие по-прежнему воспринимают как опасность. Новости про вопросы к этичности обучения для людей часто являются подтверждением уже сформировавшейся позиции, что с ИИ что-то не так, и поэтому лучше к ним не прикасаться.

90% не работают с Midjourney.
На интуитивном уровне может показаться “Значит рынок свободен! Всех нужно научить!”. Но на самом деле это значит, что рынок не сформирован, его нет. И это значит, что и продавать услугу (как и курс) пока не получится скорее всего в больших объемах.

Зато те же 90% работают с ChatGPT, и вот это уже гораздо интереснее.
Закон Парето в целом рабочая штука. MVP (minimal viable product) как раз про это. Делаешь 20% от всего что нужно в сервисе, и этого хватает, чтобы закрыть 80% сценариев.

И это одна из моих главных слабостей — не уметь понять, где эти 20%, а пытаться фигачить все 100% всегда. Кажется это в целом когнитивное искажение свойственное дизайнерам, считать очень важными, очень неважные вещи.

В качестве борьбы с этим сделал ролик на канал Big Shoes за 4 часа. 3 часа сценарий и whiteboard для скринкасат, 20 минут AI озвучка, остальное — скринкаст и сверхпростой монтаж: https://www.youtube.com/watch?v=JCC6HOUz5Hc

(Только у меня пока миниатюрный канал — поведенческие факторы очень важное. Поэтому если зайдете посмотреть, плиз досмотрите до конца, можно фоном с минимальной громкостью (не не полностью без звука). Ну и лайк конечно тоже играет роль.)

А почему нет? Главное же донести информацию, и снабдить нужными визуальными примерами. Обычно у меня на моушен-дизайн уходит $100-250 и делают его как минимум 3-5 дней, а тут всё тоже самое, просто без визуальных наворотов, которые дополнительной ценности сами по себе уже не несут, только поддерживают то, что уже есть. А занимают как раз те самые 80% трудозатрат, влияя на 20% на результат, или даже меньше.
Всё время хожу по одним и тем же граблям. И вижу, как другие тоже. Я — не моя аудитория, я — не мои клиенты, я — не пользователь своего дизайна.

В предпринимательстве куча всего контр-интуитивного, и во многом успех зависит от того, насколько ты смог сломить автоматизм каких-то действий и решений.

Прямо сейчас я почувствовал угрозу своему материальном положению, и начал действия предпринимать. И прямо почувствовал, как появившийся страх раждает беспокойства, а они мешают разумно действовать, и вроде бы уже выработанные предпринимательские привычки иногда слетают, и снова интуитивные действия приводят к плохим ситуациям.

Я нормально продал курс по Midjourney. Но экономика не сошлась. Можно чуть-чуть подтянуть конверсии, и тогда будет в плюс работать. Но в целом сел и проанализровал ошибки.

1. Начал с создания курса. Потратил очень много времени собирая опыт, собирая примеры.
2. Провел исследование аудитории уже после запуска. И выяснил, что дизайнеры почти не покупали курс. Почти все купившие — ИИ-энтузиасты, и это главная характеристика, хотя некоторые из них и дизайнеры.

То есть сейчас, фактически можно было бы переупаковать курс, поменять название и позиционирование, нацелиться на новую аудиторию и сделать повторный запуск. Но скорее всего не буду, потому что интересная мне аудитория — это дизайнеры, и мне хочется делать продукты для них (Вас? По опросу и пойму).

Как надо было — делать пресейл, как с русской версией. До начала перевода здесь запостил, что можно делать предзаказ. Так надо было со всем курсом, а то у меня буквально пара недоработанных разделов было, и суммарно уже потрачено около 40 часов на работу.

После пресейла сделать опросы, чтобы понять кто купил. Опросить тех кто не купил. Опросить контрольную группу. И сделать выводы. В моем случае скорее всего, что запускаться сейчас нет смысла. Деньги с пресейлов просто вернуть с извинениями, и с промо-кодами на большие скидки на следующий продукт.
Переслушиваю старую музыку, которую любил подростком. Большая часть морально устарела, но некоторые вещи открываются с новых сторон. Офигел от крутости Korn и System of a Down.

Тут не буду, потому что не та аудитория, но у меня есть канал, где я что-то пишу про музыку периодически. Там описал детально чем именно так круты SyoD и Korn, и почему они до сих пор звучат свежо.

Подписываться не зову, там редко что-то происходит, хочется поделиться именно вот этими двумя постами.
Есть кто свою модель Stable Diffusion тренировал? Если есть, напишите в личку пожалуйста и покажите результаты, есть предложение.