This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня сделали Яну, моему сыну, ну два месяца целый набор прививок. Просто напоминаю, что все общепринятые прививки снижают риски и для каждого конкретного человека, и для популяции в целом. Все возможные побочные эффекты имеют гораздо меньшие риски, чем отсутствие прививок. Об этом достаточно много независимых и повторяемых исследований. Это хорошо исследованный факт.
Моё последнее выступление в Бишкеке. Очень всех жду.
Делаю воркшоп/лекцию про ChatGPT и Midjourney в продуктовых исследованиях и в дизайне.
Вот о чем пойдет речь на встрече:
🔸 Важность исследований для дизайнеров. Как ChatGPT может помочь с исследованиями?
🔸 Разбор реальных кейсов использования ChatGPT в работе.
🔸 Специфика использования Midjourney для дизайнеров.
📍 31 января в 19:00 в ololoPlanet (Юнусалиева, 80)
Вход свободный по предварительной регистрации.
Регистрация: https://docs.google.com/forms/d/1koGXm8X-5YaspdaTJfmHw8ghYJv2qitfynFQMKUIlfA/edit
Делаю воркшоп/лекцию про ChatGPT и Midjourney в продуктовых исследованиях и в дизайне.
Вот о чем пойдет речь на встрече:
🔸 Важность исследований для дизайнеров. Как ChatGPT может помочь с исследованиями?
🔸 Разбор реальных кейсов использования ChatGPT в работе.
🔸 Специфика использования Midjourney для дизайнеров.
📍 31 января в 19:00 в ololoPlanet (Юнусалиева, 80)
Вход свободный по предварительной регистрации.
Регистрация: https://docs.google.com/forms/d/1koGXm8X-5YaspdaTJfmHw8ghYJv2qitfynFQMKUIlfA/edit
Завтра отмена мероприятия, я заболел. Очень невовремя воспалилось ухо 😐 . Скоро сообщу на какой день все перенесем. Сори 😞
Please open Telegram to view this post
VIEW IN TELEGRAM
У меня снова миграция. В этот раз не вынужденная, а добровольная.
Я переезжаю с
1. Apple Calendar 👉 Notion Calendar
2. Google Search 👉 Perplexity
3. Safari 👉 Arc
А это, кажется, одни из самых используемых инструментов.
Мне вдруг стало интересно, а вы чем пользуетесь?
1. Браузер
2. Календарь
3. Таск менеджер (у меня Apple Reminder + Notion)
4. LLM ( у меня ChatGPT 4, хотя bard, perplexity и claude иногда тоже)
5. Музыкальный стриминг (Apple Music, но страдаю и обратно на Spotify хочу)
6. Поисковик
Я переезжаю с
1. Apple Calendar 👉 Notion Calendar
2. Google Search 👉 Perplexity
3. Safari 👉 Arc
А это, кажется, одни из самых используемых инструментов.
Мне вдруг стало интересно, а вы чем пользуетесь?
1. Браузер
2. Календарь
3. Таск менеджер (у меня Apple Reminder + Notion)
4. LLM ( у меня ChatGPT 4, хотя bard, perplexity и claude иногда тоже)
5. Музыкальный стриминг (Apple Music, но страдаю и обратно на Spotify хочу)
6. Поисковик
Дизайн часто просто не выполняет свои задачи.
Он может быть красивым, ярким, но не функциональным. Главная причина — самоуверенность и оторванность дизайнеров от реальности. Привычка думать, что заказчик уже всё знает про свою аудиторию и её потребности. А если что-то не знает, то можно просто представить, какая эта аудитория и что она любит.
Например, «Это для разрабов, они современные, можно диковинных приколы нарисовать» — бесполезное заявление. Может, оно и правильное, но оно становится стеной, которая прячет суть, до которой, вообще-то, перед каждой работой нужно дотянуться. Задача дизайнера не просто придумать классную картинку, а хорошо понять, какая потребность стоит за желанием клиента. Что там глубже?
Без этого — это выстрел в воздух. Возможно, красивый. За счёт профессионализма у многих получается создать достаточно мощный залп, чтобы зацепить клиента. Но прицельный и мощный выстрел был бы гораздо лучше.
Сори за такие метафоры. Немного наболевшая тема для меня. Потому что часто слышу, как дизайнеры пытаются противопоставить творческую, классную работу скучному и тупому маркетингу. Но это так не работает. Для хорошего, в том числе визуально хорошего дизайна, нужны пользовательские, или как они сейчас называются, продуктовые исследования.
Часто на это нет ресурсов. Раньше это вполне себе служило оправданием. Сейчас, когда у нас есть ChatGPT и другие ИИ-инструменты, это больше не работает как оправдание. Завтра буду об этом рассказывать в Ololo Planet в 19:00. Покажу конкретные кейсы, как исследования пользователей, даже совсем небольшие, меняют всё. И как это делать, не тратя много ресурсов.
https://www.instagram.com/p/C2t9h8gIGGw/
Он может быть красивым, ярким, но не функциональным. Главная причина — самоуверенность и оторванность дизайнеров от реальности. Привычка думать, что заказчик уже всё знает про свою аудиторию и её потребности. А если что-то не знает, то можно просто представить, какая эта аудитория и что она любит.
Например, «Это для разрабов, они современные, можно диковинных приколы нарисовать» — бесполезное заявление. Может, оно и правильное, но оно становится стеной, которая прячет суть, до которой, вообще-то, перед каждой работой нужно дотянуться. Задача дизайнера не просто придумать классную картинку, а хорошо понять, какая потребность стоит за желанием клиента. Что там глубже?
Без этого — это выстрел в воздух. Возможно, красивый. За счёт профессионализма у многих получается создать достаточно мощный залп, чтобы зацепить клиента. Но прицельный и мощный выстрел был бы гораздо лучше.
Сори за такие метафоры. Немного наболевшая тема для меня. Потому что часто слышу, как дизайнеры пытаются противопоставить творческую, классную работу скучному и тупому маркетингу. Но это так не работает. Для хорошего, в том числе визуально хорошего дизайна, нужны пользовательские, или как они сейчас называются, продуктовые исследования.
Часто на это нет ресурсов. Раньше это вполне себе служило оправданием. Сейчас, когда у нас есть ChatGPT и другие ИИ-инструменты, это больше не работает как оправдание. Завтра буду об этом рассказывать в Ololo Planet в 19:00. Покажу конкретные кейсы, как исследования пользователей, даже совсем небольшие, меняют всё. И как это делать, не тратя много ресурсов.
https://www.instagram.com/p/C2t9h8gIGGw/
Please open Telegram to view this post
VIEW IN TELEGRAM
Готовлю для студийного пользования руководство по Midjourney.
Думал просто накидать несколько кейсов, и на их примерах рассказать как что устроено, но в итоге всё превратилось в огромный документ, который буду писать пару недель, и который охватывает большую часть кейсов использования midjourney для дизайнеров.
И это очень узко-направленная вещь, именно для UI и веб-дизайнеров, с конкретными и применимыми кейсами. Всё что есть на ютубе, в твиттере и других местах — обычно общепользовательские “Картина Ван Гога, но на ней Оскар Айзек из сыра” ну или как минимум “А вот как сделать очень модную фешн-фотографию”, но всё это совсем мимо дизайн-задач, применимых в реальных проектах.
А мы, в студии, применяем для работы с большими клиентами, и много. Короче кажется выходит что-то достаточно уникальное.
Думал просто накидать несколько кейсов, и на их примерах рассказать как что устроено, но в итоге всё превратилось в огромный документ, который буду писать пару недель, и который охватывает большую часть кейсов использования midjourney для дизайнеров.
И это очень узко-направленная вещь, именно для UI и веб-дизайнеров, с конкретными и применимыми кейсами. Всё что есть на ютубе, в твиттере и других местах — обычно общепользовательские “Картина Ван Гога, но на ней Оскар Айзек из сыра” ну или как минимум “А вот как сделать очень модную фешн-фотографию”, но всё это совсем мимо дизайн-задач, применимых в реальных проектах.
А мы, в студии, применяем для работы с большими клиентами, и много. Короче кажется выходит что-то достаточно уникальное.
Сгенерированные текстуры и материалы не отличаются от стоковых фото. Мы вот в студии всегда сторонились стоковых материалов из-за недостатка индивидуальности в них. Точно также при стандартной генерации в Midjourney 6 обычных текстур и материалов, от них прямо веет обычностью и тривиальностью. Мне нравится английское слово Generic для их описания.
Выход — искать характер. Например делать не просто ребристое стекло, которое будешь исползовать в качестве фона для Behance-кейса, а добавить туда хроматические абберации в цвет акцентного цвета интерфейса. Когда текстуры вписаны таким образом, что они взаимодействуют с другими элементами, а ещё и в чем-то визуально поддерживают их, это больше не выглядит как что-то ИИ-шно бездушное, это начинает выглядеть, как специально проделанная работа в гибком инструменте.
Экспериментировал с текстурками и нактнулся на классный результат. Я вообще-то болею, с температурой лежу, и мне показалось, что эти текстурки — отличная визуализация бреда, который меня мучает, когда пытаюсь заснуть.
Выложил на Behance 18 текстурок + промпт.
https://www.behance.net/gallery/191210405/Mold-free-texture-pack
Выход — искать характер. Например делать не просто ребристое стекло, которое будешь исползовать в качестве фона для Behance-кейса, а добавить туда хроматические абберации в цвет акцентного цвета интерфейса. Когда текстуры вписаны таким образом, что они взаимодействуют с другими элементами, а ещё и в чем-то визуально поддерживают их, это больше не выглядит как что-то ИИ-шно бездушное, это начинает выглядеть, как специально проделанная работа в гибком инструменте.
Экспериментировал с текстурками и нактнулся на классный результат. Я вообще-то болею, с температурой лежу, и мне показалось, что эти текстурки — отличная визуализация бреда, который меня мучает, когда пытаюсь заснуть.
Выложил на Behance 18 текстурок + промпт.
https://www.behance.net/gallery/191210405/Mold-free-texture-pack
Behance
Mold Free Texture Pack
Midjourney и другие генеративные ИИ — это новые фотостоки. Но есть нюансы.
Фотостоки были вполне себе полезными. Но по большей части использовались так, что это бросалось в глаза. Помните, наверное, как только они стали набирать популярность, появились адвокатские конторы с большой шапкой, где судейский молоток и документы на английском 🙂 И много такого. Или когда только появились первые большие сайты с бесплатными наборами иконок, стали появляться сайты, у которых каждый пункт меню был продублирован иконкой.
ИИ-картинки, особенно сделанные в MidJourney, часто имеют характерные особенности. И я сейчас не про заметные косяки с пальцами или надписями, а просто характерный стиль — драматичный контровой свет, запотевшие стёкла, эффект боке, частицы, преломления. Всё это часто слишком конфетно и универсально-нейтрально по эстетике, что в общем-то похоже на стоковые фотографии.
Ну и понятно, в чём ловушка. Когда начинающему дизайнеру попадает в руки инструмент, который может сделать трендовый визуал, конечно, ещё неокрепшее дизайнерское мышление хочет этим визуалом заполнить все пустые пространства и сопроводить каждый текст. Только суть дизайна не в том, чтобы сопроводить текст визуальными элементами, а в том, чтобы создать историю из контента, и графика, тем более трендовая, далеко не первостепенный инструмент для этого.
А нюанс в том, что генеративные ИИ — это всё-таки инструмент, а не набор решений. И кажется, мы, дизайнеры, только открываем способы взаимодействия с ними таким образом, чтобы это не было фотостоками, а превратилось в кастомные иллюстрации. В прошлом посте я писал про поиск характера в материалах. Во всём остальном сгенерированном тоже есть свои подходы.
Как минимум, мы можем маскировать, с разной степенью эффективности, генеративную природу. А как максимум — искать сценарии использования, при которых сгенерированные картинки и по смыслу, и по уровню соответствия контексту не будут уступать в ценности кастомной вручную созданной графике.
Фотостоки были вполне себе полезными. Но по большей части использовались так, что это бросалось в глаза. Помните, наверное, как только они стали набирать популярность, появились адвокатские конторы с большой шапкой, где судейский молоток и документы на английском 🙂 И много такого. Или когда только появились первые большие сайты с бесплатными наборами иконок, стали появляться сайты, у которых каждый пункт меню был продублирован иконкой.
ИИ-картинки, особенно сделанные в MidJourney, часто имеют характерные особенности. И я сейчас не про заметные косяки с пальцами или надписями, а просто характерный стиль — драматичный контровой свет, запотевшие стёкла, эффект боке, частицы, преломления. Всё это часто слишком конфетно и универсально-нейтрально по эстетике, что в общем-то похоже на стоковые фотографии.
Ну и понятно, в чём ловушка. Когда начинающему дизайнеру попадает в руки инструмент, который может сделать трендовый визуал, конечно, ещё неокрепшее дизайнерское мышление хочет этим визуалом заполнить все пустые пространства и сопроводить каждый текст. Только суть дизайна не в том, чтобы сопроводить текст визуальными элементами, а в том, чтобы создать историю из контента, и графика, тем более трендовая, далеко не первостепенный инструмент для этого.
А нюанс в том, что генеративные ИИ — это всё-таки инструмент, а не набор решений. И кажется, мы, дизайнеры, только открываем способы взаимодействия с ними таким образом, чтобы это не было фотостоками, а превратилось в кастомные иллюстрации. В прошлом посте я писал про поиск характера в материалах. Во всём остальном сгенерированном тоже есть свои подходы.
Как минимум, мы можем маскировать, с разной степенью эффективности, генеративную природу. А как максимум — искать сценарии использования, при которых сгенерированные картинки и по смыслу, и по уровню соответствия контексту не будут уступать в ценности кастомной вручную созданной графике.
Сначала на ютубе появился ироничный виузальный жанр, с активным использованием стоковых видео. Потом это и в веб утекло. Вангую, что в ближайшее время появятся ироничные нарочито ИИшные картинки и в сети, в качестве стеба над трендом. Нет на серьезных щщах, как в “Секретном вторжении” от Марвел, а именно в качестве издевки над нелепостью.
В своем посте про персоны, я коротко пересказал часть своей публичной лекции в ololo.
Теперь выложена в публичный доступ и сама лекция:
https://youtu.be/m4sa4n0yQt4?si=8tiavofvAz0_8LrH
Порезал все вопросы/ответы, и всё равно осталось 35 минут. Там:
1. Кто я такой, и почему могу говорить о том, что говорю.
2. Что такое дизайн в целом, и почему он фактически появился совсем недавно.
3. Что главное в дизайне.
4. Как составлять персоны, с помощью ChatGPT.
5. Как опраишвать виртуальные персоны, углублять вопросы, делать выводы.
6. Как это влияет на эффективность дизайна.
Презентация с промптами и другими материалами в FigJam формате тут: https://www.figma.com/file/6O1KJoHzyh9z6oKUr47qYv/Ololo-AI-Design?type=whiteboard
Теперь выложена в публичный доступ и сама лекция:
https://youtu.be/m4sa4n0yQt4?si=8tiavofvAz0_8LrH
Порезал все вопросы/ответы, и всё равно осталось 35 минут. Там:
1. Кто я такой, и почему могу говорить о том, что говорю.
2. Что такое дизайн в целом, и почему он фактически появился совсем недавно.
3. Что главное в дизайне.
4. Как составлять персоны, с помощью ChatGPT.
5. Как опраишвать виртуальные персоны, углублять вопросы, делать выводы.
6. Как это влияет на эффективность дизайна.
Презентация с промптами и другими материалами в FigJam формате тут: https://www.figma.com/file/6O1KJoHzyh9z6oKUr47qYv/Ololo-AI-Design?type=whiteboard
YouTube
Как ChatGPT меняет правила игры в дизайне. Запись лекции в ololo.
Как ChatGPT меняет правила игры в дизайне.
Я расскажу о том, как с помощью инструмента ChatGPT можно проводить мини-исследования, которые значительно улучшат ваш подход к дизайну. Мы обсудим историю возникновения дизайна, разберемся в отличиях между трендами…
Я расскажу о том, как с помощью инструмента ChatGPT можно проводить мини-исследования, которые значительно улучшат ваш подход к дизайну. Мы обсудим историю возникновения дизайна, разберемся в отличиях между трендами…
Попробовал полностью перейти на Perplexity с ChatGPT.
Из-за структурности библиотек, где для каждой папки фактически задаешь кастомный промпт. То есть почти полноценный GPT’s. И из-за поисковых функций. Постоянно все чекает в сети, дает ссылки на материалы, и при этом можно выбрать GPT-4, Claude или собственную LLM от perplexity.
Ухожу обратно на ChatGPT.
Понял, что сохранять диалога внутри GPT’s всё равно большого смысла нет, так что функция тегать GPT’s а дальше всё это сваливается в бесконечный список, который я уже перестал пытаться держать в порядке, это вполне себе норм.
Почти вся информация, которую я получаю от GPT (и perplexity) я либо сразу использую, либо вообще не использую. Так что как будто бы структура и не нужна.
Спустя две недели возвращаюсь на ChatGPT, Perplexity оставляю для быстрых ответов на вопросы и быстрого поиска информации.
PS потестил Gemini Ultra. Ну такое. По ощущениям на уровне GPT-3.5.
Из-за структурности библиотек, где для каждой папки фактически задаешь кастомный промпт. То есть почти полноценный GPT’s. И из-за поисковых функций. Постоянно все чекает в сети, дает ссылки на материалы, и при этом можно выбрать GPT-4, Claude или собственную LLM от perplexity.
Ухожу обратно на ChatGPT.
Понял, что сохранять диалога внутри GPT’s всё равно большого смысла нет, так что функция тегать GPT’s а дальше всё это сваливается в бесконечный список, который я уже перестал пытаться держать в порядке, это вполне себе норм.
Почти вся информация, которую я получаю от GPT (и perplexity) я либо сразу использую, либо вообще не использую. Так что как будто бы структура и не нужна.
Спустя две недели возвращаюсь на ChatGPT, Perplexity оставляю для быстрых ответов на вопросы и быстрого поиска информации.
PS потестил Gemini Ultra. Ну такое. По ощущениям на уровне GPT-3.5.
Midjourney при неправильном использовании роняет качество дизайна. При правильном — ускоряет работу и повышает качество.
У нас в студии мы используем Midjourney для работы над проектами Альфа-банка, Яндекса и других известных брендов, и я рад, что когда-то инвестировал в это время, и рад что мы тратим ресурсы на обучение сотрудников.
Это просто экономически выгодно, я понаписал табличек, чтобы попытаться понять из данных, насколько выгодно. Вышло что задачи, где мы применяем Midjourney нам на +43% выгоднее. То есть на каждую $1000 дохода студии мы получаем $+430 за счёт Midjourney.
И мне хочется поделиться тем, как пользоваться этим инструментом. Потому что доступыне туториалы и уроки — они все про трендовые классные отдельно взятые иллюстрации. А для дизайна нужно совсем другое, так что многие из этих уроков почти полностью бесполезны.
Я решил упаковать опыт студии в узко-направленный курс для дизайнеров по Midjourney. Курс уже готов и продается на английском языке. В рублях я его продаю за 9000 руб.. Но пока не переведен полностью, можно сделать предзаказ за 4900 руб.. Полный курс доперевожу и опубликую до 20 февраля, в эту же дату и поставлю цену в 9000 руб..
Небольшая пробная часть уже переведена и доступна бесплатно.
Курс текстовый, с большим количеством примеров и промптов. Как я говорил — узко-направленный для дизайнеров. С большим упором на описание ограничений и слабостей нейронки, и как их обходить. Содержание курса отправлю комментарием, чтобы не раздувать пост.
У нас в студии мы используем Midjourney для работы над проектами Альфа-банка, Яндекса и других известных брендов, и я рад, что когда-то инвестировал в это время, и рад что мы тратим ресурсы на обучение сотрудников.
Это просто экономически выгодно, я понаписал табличек, чтобы попытаться понять из данных, насколько выгодно. Вышло что задачи, где мы применяем Midjourney нам на +43% выгоднее. То есть на каждую $1000 дохода студии мы получаем $+430 за счёт Midjourney.
И мне хочется поделиться тем, как пользоваться этим инструментом. Потому что доступыне туториалы и уроки — они все про трендовые классные отдельно взятые иллюстрации. А для дизайна нужно совсем другое, так что многие из этих уроков почти полностью бесполезны.
Я решил упаковать опыт студии в узко-направленный курс для дизайнеров по Midjourney. Курс уже готов и продается на английском языке. В рублях я его продаю за 9000 руб.. Но пока не переведен полностью, можно сделать предзаказ за 4900 руб.. Полный курс доперевожу и опубликую до 20 февраля, в эту же дату и поставлю цену в 9000 руб..
Небольшая пробная часть уже переведена и доступна бесплатно.
Курс текстовый, с большим количеством примеров и промптов. Как я говорил — узко-направленный для дизайнеров. С большим упором на описание ограничений и слабостей нейронки, и как их обходить. Содержание курса отправлю комментарием, чтобы не раздувать пост.
Лайфхак по поиску интересных промптов в Midjourney — исследовать /describe. Особенно круто способ работает с абстракциями.
Вообще /describe нужен для обратной инжинерии, чтобы картинку превратить в промпт. Но на мой взгляд получается в целом плохо. А ещё он выдает промпты, которые хорошо работали в прошлых версиях, а не в v6.
Скормил как-то /descibe картинку, на которую он выдал промпт начинающийся с tony's new album 'all this noise’. И удивительно, но именно добавление этой части промпта, давал нужный результат, и помогал сделать полоски именно такими, какие мне нужны. Гуглеж, что это за альбом Тони, показал, что нет ничего такого общеизвестного. Это что-то на внутреннем языке нейросетей. Если интересно — это целая новая область исследований, и это правда существует.
И вот такие интересные кусочки иногда получается вытащить, и они классно влияют на результат. При этом попытки понять, что оно само по себе отдельно значит — результата не дают, а как влияют на конкретные картинки — видно.
И вот иногда совершенно обычные фразы типа ‘summer vibe’ берут и вообще переворачивают стиль. И ещё они в разных ситуациях по-разному себя проявляют. Ну то есть все параметры настоящего слова в настоящем языке.
Вывод: пользоваться /describe чаще и внимательно изучать результаты.
Вообще /describe нужен для обратной инжинерии, чтобы картинку превратить в промпт. Но на мой взгляд получается в целом плохо. А ещё он выдает промпты, которые хорошо работали в прошлых версиях, а не в v6.
Скормил как-то /descibe картинку, на которую он выдал промпт начинающийся с tony's new album 'all this noise’. И удивительно, но именно добавление этой части промпта, давал нужный результат, и помогал сделать полоски именно такими, какие мне нужны. Гуглеж, что это за альбом Тони, показал, что нет ничего такого общеизвестного. Это что-то на внутреннем языке нейросетей. Если интересно — это целая новая область исследований, и это правда существует.
И вот такие интересные кусочки иногда получается вытащить, и они классно влияют на результат. При этом попытки понять, что оно само по себе отдельно значит — результата не дают, а как влияют на конкретные картинки — видно.
И вот иногда совершенно обычные фразы типа ‘summer vibe’ берут и вообще переворачивают стиль. И ещё они в разных ситуациях по-разному себя проявляют. Ну то есть все параметры настоящего слова в настоящем языке.
Вывод: пользоваться /describe чаще и внимательно изучать результаты.