#итоги
Штош, время подводить итоги, господа!
Этот год стал для меня годом экспериментов. То, что по непонятной мне причине стало успешным и взлетело, было результатом огромного числа экспериментов и гипотез.
В очередной раз убедился, что лучше запустить 10 недоделанных проектов, чем один вылизанный, ведь вероятность успеха у них практически одинакова.
Слава великому рандому (и,конечно же, вам, дорогие мои, ведь без вашего фидбека все это было бы просто бессмысленно)!
Если собрать это все в какой-то список, то получится так:
- Запустил нейронку ArcaneGAN.
Благодаря этому немного хайпанул и получил почти 1 миллион просмотров её онлайн демо, неплохой нетворкинг в МЛ-твиттере, пару офферов от анимационных студий.
- Прокачал телеграм канал со 100 до 2600 подписчиков, и немного твитор - с 50 до 370 подписчиков,
- Ради интереса завел патреон и набрал первых робких 12 патронов.
- Довёл до ума и сильно упростил комикс алгоритм и самого бота @face2comicsbot, добавил туда еще два стиля.
- Запустил @face2stickerbot, @checklybot, @nutrify_bot
- Ввёл премиум подписку для ботов и набрал 30 подписчиков
- Попробовал впервые мобильную разработку (и заодно занял призовое место в конкурсе telegram)
С наступающим годом Тигра вас, и пусть в следующем году список достижений у всех нас будет только больше и качественнее!
Штош, время подводить итоги, господа!
Этот год стал для меня годом экспериментов. То, что по непонятной мне причине стало успешным и взлетело, было результатом огромного числа экспериментов и гипотез.
В очередной раз убедился, что лучше запустить 10 недоделанных проектов, чем один вылизанный, ведь вероятность успеха у них практически одинакова.
Слава великому рандому (и,конечно же, вам, дорогие мои, ведь без вашего фидбека все это было бы просто бессмысленно)!
Если собрать это все в какой-то список, то получится так:
- Запустил нейронку ArcaneGAN.
Благодаря этому немного хайпанул и получил почти 1 миллион просмотров её онлайн демо, неплохой нетворкинг в МЛ-твиттере, пару офферов от анимационных студий.
- Прокачал телеграм канал со 100 до 2600 подписчиков, и немного твитор - с 50 до 370 подписчиков,
- Ради интереса завел патреон и набрал первых робких 12 патронов.
- Довёл до ума и сильно упростил комикс алгоритм и самого бота @face2comicsbot, добавил туда еще два стиля.
- Запустил @face2stickerbot, @checklybot, @nutrify_bot
- Ввёл премиум подписку для ботов и набрал 30 подписчиков
- Попробовал впервые мобильную разработку (и заодно занял призовое место в конкурсе telegram)
С наступающим годом Тигра вас, и пусть в следующем году список достижений у всех нас будет только больше и качественнее!
👍2
Предновогодняя подборка нейро-открыток. Что может быть лучшим фоном для пожеланий вашим близким, чем карты таро с символом грядущего года - водяного тигра.
Просто добавьте пожеланий щастя, здоровья, сбычи мечт и готово!
(Тыгр должен быть черным, и это мы исправим в следующей партии)
Просто добавьте пожеланий щастя, здоровья, сбычи мечт и готово!
(Тыгр должен быть черным, и это мы исправим в следующей партии)
Forwarded from ExMuffin
This media is not supported in your browser
VIEW IN TELEGRAM
✍️ Text2Voxel v.1.0 👽
Наступил 2022 год и мне хотелось бы пожелать всем вам счастья, любви и благополучия. Я благодарен каждому кто проявляет интерес к моему труду. В новом году будем знакомиться с еще большим количеством интересных нейронок и собирать на них Колабы.
Сегодня мне хотелось бы поделиться Колабом, который по текстовому описанию генерирует воксельный объект. Двухмерные генерации стали трендом предыдущего года. Кто знает, может 3D будет трендом текущего. Внутри основного блока есть куча всяких переменных. Не хотелось усложнять интерфейс, но кому нужна тонкая настройка, тот может открыть код и подправить.
P.S. На видео процесс генерации новогодней елки.
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/Text2Voxel.ipynb
Наступил 2022 год и мне хотелось бы пожелать всем вам счастья, любви и благополучия. Я благодарен каждому кто проявляет интерес к моему труду. В новом году будем знакомиться с еще большим количеством интересных нейронок и собирать на них Колабы.
Сегодня мне хотелось бы поделиться Колабом, который по текстовому описанию генерирует воксельный объект. Двухмерные генерации стали трендом предыдущего года. Кто знает, может 3D будет трендом текущего. Внутри основного блока есть куча всяких переменных. Не хотелось усложнять интерфейс, но кому нужна тонкая настройка, тот может открыть код и подправить.
P.S. На видео процесс генерации новогодней елки.
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/Text2Voxel.ipynb
👍3
И в продолжение тематики наступившего года - карты таро с черным водяным тигром.
Сгенерировать своего тигра
Сгенерировать своего тигра
❤4
Forwarded from AbstractDL
This media is not supported in your browser
VIEW IN TELEGRAM
GPT для чайников: от токенизации до файнтюнинга
Сделал для вас небольшой colab туториал про GPT. Там подробно и с примерами разобраны такие темы как:
1. Устройство GPT-1,2,3
2. Токенизация
3. Методы генерации текста
4. Файнтюнинг (прям в колабе)
Если вы давно хотели поиграться с GPT, но всё не доходили руки, то новогодние праздники — самое время 😉
Colab
Сделал для вас небольшой colab туториал про GPT. Там подробно и с примерами разобраны такие темы как:
1. Устройство GPT-1,2,3
2. Токенизация
3. Методы генерации текста
4. Файнтюнинг (прям в колабе)
Если вы давно хотели поиграться с GPT, но всё не доходили руки, то новогодние праздники — самое время 😉
Colab
🔥17👍3❤1
Forwarded from Мишин Лернинг
🎆 V Objective Diffusion: Код, Модель, Веса + Colab
Королева генеративного искусства Rivers Have Wings выложила аккуратно обученную диффузионную модель, кондишн на текстовых эмбедингах собственно обученного 602M CLIP. По факту подход classifier-free guidance похож на недавний GLIDE от OpenAI.
Генерации просто на высшем уровне. И понимание текста, и целостность (консистентность) изображений, и стилистика. Доступны 481M и 968M модели, обученные на 33M пар изображения-текст, сабсет Yahoo Flickr Creative Commons 100 Million.
💻 Code: https://github.com/crowsonkb/v-diffusion-pytorch
🔮 Unofficial Colab: https://colab.research.google.com/drive/10k7h49_5LDXgJquxTRAmqCMKprTwKOw_?usp=sharing
Королева генеративного искусства Rivers Have Wings выложила аккуратно обученную диффузионную модель, кондишн на текстовых эмбедингах собственно обученного 602M CLIP. По факту подход classifier-free guidance похож на недавний GLIDE от OpenAI.
Генерации просто на высшем уровне. И понимание текста, и целостность (консистентность) изображений, и стилистика. Доступны 481M и 968M модели, обученные на 33M пар изображения-текст, сабсет Yahoo Flickr Creative Commons 100 Million.
💻 Code: https://github.com/crowsonkb/v-diffusion-pytorch
🔮 Unofficial Colab: https://colab.research.google.com/drive/10k7h49_5LDXgJquxTRAmqCMKprTwKOw_?usp=sharing
👍7🔥2