👨🎨 Опрос по Text-to-Image. Какой DALL•E подход вам нравится больше? Какой кажется перспективным?
Anonymous Poll
5%
unCLIP + prior, используемый в DALL•E 2
14%
Frozen LM + Text Conditioned Diffusion из IMAGEN от Google Brain
3%
GPT на токенах Текста и Токенайзеров (e.g.: VAE, VQGAN) из DALL•E 1 от OpenAI
3%
Обучаемая LM + Text Conditioned Diffusion из GLIDE от OpenAI
75%
🧐 с серьезным лицом посмотреть результаты
😔🇺🇦🕊 OpenAI не пропускают DALL•E 2 генерации со словом ‘Украина’
OpenAI заигрались в мирный ИИ и безопасный контент. На днях Emad (один из известных ИИ лидеров мнения) заметил интересную особенность:
✅ Если описать пейзаж, архитектуру, да вообще что угодно, указав какую-то страну, то получить генерацию можно без каких-то проблем.
🚫 Но если в запросе фигурирует слово ‘Украина’ (при этом в абсолютно нейтральном запросе типа «пейзаж Украины»), то OpenAI прекращает генерацию и выдаёт «несоответствие с политикой» и угрожает автоматически заблочить аккаунт при повторных нарушениях:
⚠️ It looks like this request may not follow our content policy. Further policy violations may lead to an automatic suspension of your account. (Похоже, что этот запрос не соответствовует нашей политике контента. Дальнейшие нарушения правил приведут к автоматической блокировке вашей учетной записи)
🚢 Пожелаем OpenAI плавания по направлению военного корабля
Мишин Лернинг 🤖🎓
👎 Если не согласен с OpenAI, то ставь дизлайк
✅ Если описать пейзаж, архитектуру, да вообще что угодно, указав какую-то страну, то получить генерацию можно без каких-то проблем.
🚫 Но если в запросе фигурирует слово ‘Украина’ (при этом в абсолютно нейтральном запросе типа «пейзаж Украины»), то OpenAI прекращает генерацию и выдаёт «несоответствие с политикой» и угрожает автоматически заблочить аккаунт при повторных нарушениях:
⚠️ It looks like this request may not follow our content policy. Further policy violations may lead to an automatic suspension of your account. (Похоже, что этот запрос не соответствовует нашей политике контента. Дальнейшие нарушения правил приведут к автоматической блокировке вашей учетной записи)
🚢 Пожелаем OpenAI плавания по направлению военного корабля
Мишин Лернинг 🤖🎓
👎 Если не согласен с OpenAI, то ставь дизлайк
🦖 Почему вымерли динозавры? | Нейро(де)генеративный пост
В конце мелового периода (66 млн. лет назад) произошло великое мел-палеогеновое вымирание, в результате которого погибли все динозавры, кроме птиц. Птицы же были перелетными. Началась иммиграция пернатых диссидентов.
далее генерация:
Но вымирание динозавров произошло не из-за утечки мозгов, а по экономическим и политическим причинам, по причине полного отсутствия демократии и гражданского общества.
Пока динозавры делили ресурсы, птицы выжили, так как умели консолидировать свои действия, вырабатывали поведенческие стратегии, могли искать компромиссы, работали удаленно и не нуждались в субсидиях. Перед вымиранием ящуры объявили птиц врагами народа, имея в виду уникальность мышления птиц и их приверженность к свободе и демократии.
Таким образом, теория санкционного патриотического вымирания объясняет причины не только мел-палеогенового вымирания, но и многие другие исторические события, включая конфликты на Кавказе.
картинки: DALL•E 2
текст: GPT-3
В конце мелового периода (66 млн. лет назад) произошло великое мел-палеогеновое вымирание, в результате которого погибли все динозавры, кроме птиц. Птицы же были перелетными. Началась иммиграция пернатых диссидентов.
далее генерация:
Но вымирание динозавров произошло не из-за утечки мозгов, а по экономическим и политическим причинам, по причине полного отсутствия демократии и гражданского общества.
Пока динозавры делили ресурсы, птицы выжили, так как умели консолидировать свои действия, вырабатывали поведенческие стратегии, могли искать компромиссы, работали удаленно и не нуждались в субсидиях. Перед вымиранием ящуры объявили птиц врагами народа, имея в виду уникальность мышления птиц и их приверженность к свободе и демократии.
Таким образом, теория санкционного патриотического вымирания объясняет причины не только мел-палеогенового вымирания, но и многие другие исторические события, включая конфликты на Кавказе.
картинки: DALL•E 2
текст: GPT-3
🤖 День рождения GPT-3 — два года! YouTube лекция: «Почему GPT-3 — начало новой эпохи в Deep Learning?»
Ровно два года назад 28 мая 2020 года вышла статья GPT-3, а именно Language Models are Few-Shot Learners.
Сложно поверить, что это было всего два года назад! За это время столько всего изменилось, что кажется, что GPT-3 это какой-то старый, всем приевшийся, золотой стандарт в NLP.
🎓 Если интеренсо как работает GPT-3 и почему именно GPT-3, а не GPT-2 это начало новой эпохи в deep learning (спойлер дело тут далеко не в спарс аттеншене, который на первый взгляд отличает GPT-3 от GPT-2), то у меня для вас отличная youtube лекция про GPT-3 и прочие Few-Shot / Zero-Shot прелести!
Ровно два года назад 28 мая 2020 года вышла статья GPT-3, а именно Language Models are Few-Shot Learners.
Сложно поверить, что это было всего два года назад! За это время столько всего изменилось, что кажется, что GPT-3 это какой-то старый, всем приевшийся, золотой стандарт в NLP.
🎓 Если интеренсо как работает GPT-3 и почему именно GPT-3, а не GPT-2 это начало новой эпохи в deep learning (спойлер дело тут далеко не в спарс аттеншене, который на первый взгляд отличает GPT-3 от GPT-2), то у меня для вас отличная youtube лекция про GPT-3 и прочие Few-Shot / Zero-Shot прелести!
🐨 Все уже знают: Imagen превзошёл DALL•E 2. Но что настолько?!
Я просто хочу сказать, что языковые модели — рулят. Особенно хорошо обученные энкодеры.
DALL•E 2, чтобы понять текст, должен сначала съесть его текстовой частью нейросети CLIP, потом отобразить в картиночный манифолд при помощи prior модели, и только потом отдиффузить это представление через unCLIP (который только на унимодально с изображениями работал) и через все апскейл каскады (которые уже совсем оторваны от текста) в пространство пикселей.
Давайте просто посмотрим, наладимся и вдумаемся — насколько глубокое понимание текста у нейросети Imagen! Все гениальное — просто.
Картинка слева: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods is all you need’, внизу в растерянности стоят несколько котят»
Картинка справа: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods’, внизу в растерянности стоят несколько котят»
mishin_learning
Я просто хочу сказать, что языковые модели — рулят. Особенно хорошо обученные энкодеры.
DALL•E 2, чтобы понять текст, должен сначала съесть его текстовой частью нейросети CLIP, потом отобразить в картиночный манифолд при помощи prior модели, и только потом отдиффузить это представление через unCLIP (который только на унимодально с изображениями работал) и через все апскейл каскады (которые уже совсем оторваны от текста) в пространство пикселей.
Давайте просто посмотрим, наладимся и вдумаемся — насколько глубокое понимание текста у нейросети Imagen! Все гениальное — просто.
Картинка слева: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods is all you need’, внизу в растерянности стоят несколько котят»
Картинка справа: «Коала в костюме стоит за кафедрой перед доской, на которой мелом написано ‘Variational bayesian methods’, внизу в растерянности стоят несколько котят»
mishin_learning
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Задачу генерации картинок из текста можно считать решенной — поэтому исследователи постепенно переходят к задаче «А давайте генерировать целые гифки по текстовому описанию».
Вчера выложили пример работы алгоритма CogVideo — суть у него такая же как у Dalle, вы пишите текст, а он выдает вам видео в 4 секунды длинной.
Кода пока нет, но по видимому будет тут.
У меня две мысли:
1) Лев который пьет — офигенный
2) Исследователи так порно индустрию без денег оставят своими нейронками
@Denis
Вчера выложили пример работы алгоритма CogVideo — суть у него такая же как у Dalle, вы пишите текст, а он выдает вам видео в 4 секунды длинной.
Кода пока нет, но по видимому будет тут.
У меня две мысли:
1) Лев который пьет — офигенный
2) Исследователи так порно индустрию без денег оставят своими нейронками
@Denis
Forwarded from Neural Shit
Развлекаю себя как могу: сижу и генерирую Ктулхуризированные советские плакаты. Принес сюда, пусть тут тоже будут