This media is not supported in your browser
VIEW IN TELEGRAM
Знаете, почему упал Ютуб? Мы начали выкладывать туда видосы))
😁10⚡4🔥4👍1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Как с помощью Anix экономить половину времени на скучных задачах 😱
Эта анимация около одной секунды была сделана с помощью Anix. Поскольку туловище персонажа двигается незначительно, аниматору было скучно делать промежуточные кадры для данной задачи. Аниматор решила залить в Anix анимацию разными слоями: волосы персонажа отдельно от основы. 1кадр получился без доработок, 3 с незначительными доработками, 1 с доработкой на 10 % и 2 кадра на 30-40% доработки. Таким образом в этой анимации пришлось доработать где-то 15%. В результате то, что аниматор бы рисовала пару дней, заняло у нее всего один день с незначительными исправлениями.
А если вы хотите узнать, как рисовать анимацию в два раза быстрее, освободить выходные от работы над сценами и больше заниматься своим творчеством - прочтите нашу статью. Там вы найдете подробный гайд с примерами от наших аниматоров(новичкам тоже подойдет) .🙌👊
А если вы хотите узнать, как рисовать анимацию в два раза быстрее, освободить выходные от работы над сценами и больше заниматься своим творчеством - прочтите нашу статью. Там вы найдете подробный гайд с примерами от наших аниматоров
❤🔥7🔥6🎉4👍2🤩2
Черновая анимация? ДА!
Чистовая анимация? ДА!
Композ? ДА!
Сложные стили? ДА!
Anix умеет работать со всем, что вы ему закинете)
Даже если это анимация уровня "Spider man: across the universe"
https://www.youtube.com/shorts/IpajzY2qCsY
Чистовая анимация? ДА!
Композ? ДА!
Сложные стили? ДА!
Anix умеет работать со всем, что вы ему закинете)
Даже если это анимация уровня "Spider man: across the universe"
https://www.youtube.com/shorts/IpajzY2qCsY
YouTube
This video was made by the https://anix-ai.pro/ #animation #shorts #fps #original #interpolation
🔥6👏3😁3
🧠 Подборка нейросетей для 2D-анимации. Часть первая. 🎨
В этом посте собрали основные нейросети и задачи, где они могут помочь аниматорам. Поехали!
🧠 Midjourney или Lexica (а еще Шедеврум, Кандински из отечественных бесплатных аналогов) — суперизвестные многозадачные нейросети, в основном используются для создания картинок по текстовому промпту.
Можно использовать для создания референсов и набросков персонажа, делать высокодетализированные фоны, в Lexica можно редактировать свои рисунки и концепты. Оплатить их, к сожалению, русской картой нельзя.
Однако в телеграме бегает много полубесплатных ботов, где прикручена Midjourney, а если вам не хочется искать, то есть Kandinsky или даже лучше Шедеврум (там нужно качать приложение). Последние пытаются в видео, но пока не очень успешно))
🧠Clipdrop — нейросеть для создания картинок по наброску. Делаешь набросок карандашом, а получаешь готовую качественную картинку. Не подошло? Меняешь набросок, нейросеть поймет) Подойдет, когда думаешь над концептами и сценами, но пока слишком примитивна для большего. Кстати, там же по ссылке другие их небольшие продукты.
🧠 Runway — нейросеть для генерации видео. Может сделать небольшой мультик по вашей картинке, может сделать видео по промпту (правда, у нее очень плохо с 2D-анимацией), может анимировать только часть картинки (например, только волосы) с помощью волшебной кисти, удалить фон или некоторые ненужные штуки на картинках, если вы вдруг поняли, что рисовали в общем слое. В целом, даже справляется с озвучкой персонажей по тексту.
Для оплаты тоже нужна будет иностранная карта, но (чисто гипотетически) можно назаводить себе аккаунтов и ограничиться бесплатными генерациями. Если не для профессионального использования — подойдет.
🧠 Adobe Sensei — подходит всем, кто пользуется другими продуктами Adobe, например, рисует в Animate или в After Effects. Позволяет автоматически удалять фон с видео, улучшать резкость и цветопередачу, распознавать текст, делать фоны или изменять элементы по запросу и т.д. и т.п. По сути, это такой универсальный помощник, который всегда с вами в экосистеме и берет на себя мелкие задачи. Если вам не хочется менять персонажа вручную или что-то перерисовывать — достаточно обратиться к нему. Доступность: Входит в состав платных подписок Adobe Creative Cloud. Можно предположить, что кто-то уже сделал торрент, но это неточно.
🧠DeepMotion — спасение для всех, кто занимается 3D-анимацией или ищет референсы. Любое видео переводит в персонажную анимацию. По сути, копирует движение человека из видео и делает такой же 3D-объект с таким же движением. Может также по промпту делать 3D-анимацию. Можно не ригать самостоятельно, а просто заюзать нейронку. Достаточно зарегистрироваться и пользоваться бесплатными генерациями.
🧠Pixverse — умеет то же, что и Runway, но чуть похуже. Но! Зато делает анимацию персонажа по картинке. Загружаешь картинку, пишешь промпт - твой персонаж оживает. Пока не всех 2D узнает, но с человекоподобным справляется.
🧠Anix — нейросеть для автофазовки. По двум ключам рисует все промежуточные кадры. Помогает увеличить FPS в уже сделанной анимации. Самая контролируемая из аналогов - делает только то движение, которое ты задумал, а не придумывает что-то от себя.
💡На сегодня пока все! Но скоро выпустим еще подборки, полезную инфу и обзоры на нейросети)
👀 Напишите, о чем бы вам хотелось почитать или в каких задачах вам бы пригодился нейросетный помощник (можно не только про анимацию))
В этом посте собрали основные нейросети и задачи, где они могут помочь аниматорам. Поехали!
🧠 Midjourney или Lexica (а еще Шедеврум, Кандински из отечественных бесплатных аналогов) — суперизвестные многозадачные нейросети, в основном используются для создания картинок по текстовому промпту.
Можно использовать для создания референсов и набросков персонажа, делать высокодетализированные фоны, в Lexica можно редактировать свои рисунки и концепты. Оплатить их, к сожалению, русской картой нельзя.
Однако в телеграме бегает много полубесплатных ботов, где прикручена Midjourney, а если вам не хочется искать, то есть Kandinsky или даже лучше Шедеврум (там нужно качать приложение). Последние пытаются в видео, но пока не очень успешно))
🧠Clipdrop — нейросеть для создания картинок по наброску. Делаешь набросок карандашом, а получаешь готовую качественную картинку. Не подошло? Меняешь набросок, нейросеть поймет) Подойдет, когда думаешь над концептами и сценами, но пока слишком примитивна для большего. Кстати, там же по ссылке другие их небольшие продукты.
🧠 Runway — нейросеть для генерации видео. Может сделать небольшой мультик по вашей картинке, может сделать видео по промпту (правда, у нее очень плохо с 2D-анимацией), может анимировать только часть картинки (например, только волосы) с помощью волшебной кисти, удалить фон или некоторые ненужные штуки на картинках, если вы вдруг поняли, что рисовали в общем слое. В целом, даже справляется с озвучкой персонажей по тексту.
Для оплаты тоже нужна будет иностранная карта, но (чисто гипотетически) можно назаводить себе аккаунтов и ограничиться бесплатными генерациями. Если не для профессионального использования — подойдет.
🧠 Adobe Sensei — подходит всем, кто пользуется другими продуктами Adobe, например, рисует в Animate или в After Effects. Позволяет автоматически удалять фон с видео, улучшать резкость и цветопередачу, распознавать текст, делать фоны или изменять элементы по запросу и т.д. и т.п. По сути, это такой универсальный помощник, который всегда с вами в экосистеме и берет на себя мелкие задачи. Если вам не хочется менять персонажа вручную или что-то перерисовывать — достаточно обратиться к нему. Доступность: Входит в состав платных подписок Adobe Creative Cloud. Можно предположить, что кто-то уже сделал торрент, но это неточно.
🧠DeepMotion — спасение для всех, кто занимается 3D-анимацией или ищет референсы. Любое видео переводит в персонажную анимацию. По сути, копирует движение человека из видео и делает такой же 3D-объект с таким же движением. Может также по промпту делать 3D-анимацию. Можно не ригать самостоятельно, а просто заюзать нейронку. Достаточно зарегистрироваться и пользоваться бесплатными генерациями.
🧠Pixverse — умеет то же, что и Runway, но чуть похуже. Но! Зато делает анимацию персонажа по картинке. Загружаешь картинку, пишешь промпт - твой персонаж оживает. Пока не всех 2D узнает, но с человекоподобным справляется.
🧠Anix — нейросеть для автофазовки. По двум ключам рисует все промежуточные кадры. Помогает увеличить FPS в уже сделанной анимации. Самая контролируемая из аналогов - делает только то движение, которое ты задумал, а не придумывает что-то от себя.
💡На сегодня пока все! Но скоро выпустим еще подборки, полезную инфу и обзоры на нейросети)
👀 Напишите, о чем бы вам хотелось почитать или в каких задачах вам бы пригодился нейросетный помощник (можно не только про анимацию))
🔥9⚡7❤3🤯2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🙌Победителя выберем случайно в воскресенье
🙀Победителю вручим 60 интерполяций от нас - это хватит на почти минуту анимации!
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡6🔥4🎉4👏1
Товарищи аниматоры! На сайте ведутся ремонтные работы (примерно до 22:00 по мск), поэтому он будет недоступен.
Самое время просмотреть все шортсы у нас на канале и определить, на какого персонажа мультфильма вы похожи)
https://www.youtube.com/shorts/b91vweNCD9M
P.S. Не забудьте переключить интернет на мобильный))
Самое время просмотреть все шортсы у нас на канале и определить, на какого персонажа мультфильма вы похожи)
https://www.youtube.com/shorts/b91vweNCD9M
P.S. Не забудьте переключить интернет на мобильный))
YouTube
Персонажи как знаки зодиака! #shorts #interpolation #anix #fps #animation #original
🔥3🤝3😁2👏1👌1
Диффузионные нейросети на котиках🙀
На пальцах на котиках расскажем, как работают диффузионки. Читай пост и потом сможешь произвести впечатление на коллег и друзей, которые его еще не читали😉
Сегодня диффузионные нейросети очень популярны, они используются часто для генерации картинок - например, Midjourney, DALL-E используют этот метод (метод обратной диффузии) в своей основе.
Диффузия, если помните школьную физику, это такой процесс взаимного проникновения частичек одного вещества в другое. У нас на картинке у поста видно, как частички шума проникли в картинку с котиком.
Вообще часто нейросети любят обучать на обратных задачах. Как же это все происходит: берут картинку с котиком, немного зашумляют (как мы в начале поста), а потом берут нейросеть и учат ее восстанавливать исходного котика. Затем снова берут несчастного котика, зашумляют уже дважды, и учат вторую нейросеть восстанавливать сначала зашумленного котика, а потом берут первую нейронку и восстанавливают котика. И так далее...
В конце концов у нас получается настолько зашумленный котик, что его нельзя отличить от чистого шума. И тогда нейросети достаточно подать на вход чистый шум, чтобы она тебесгенерировала восстановила любого котика на твой вкус. А затем ты можешь делать пространство параметров (вес, размер, мимимишность, цвет, шерстка и что хочешь) котика и его окружения...и потом подать это на вход нейронке, чтобы она сгенерировала специфический шум, учтя эти твои параметры.
Вуаля, мы научились делать котиков по промпту)😜🙌
Сегодня диффузионные нейросети очень популярны, они используются часто для генерации картинок - например, Midjourney, DALL-E используют этот метод (метод обратной диффузии) в своей основе.
Диффузия, если помните школьную физику, это такой процесс взаимного проникновения частичек одного вещества в другое. У нас на картинке у поста видно, как частички шума проникли в картинку с котиком.
Вообще часто нейросети любят обучать на обратных задачах. Как же это все происходит: берут картинку с котиком, немного зашумляют (как мы в начале поста), а потом берут нейросеть и учат ее восстанавливать исходного котика. Затем снова берут несчастного котика, зашумляют уже дважды, и учат вторую нейросеть восстанавливать сначала зашумленного котика, а потом берут первую нейронку и восстанавливают котика. И так далее...
В конце концов у нас получается настолько зашумленный котик, что его нельзя отличить от чистого шума. И тогда нейросети достаточно подать на вход чистый шум, чтобы она тебе
Вуаля, мы научились делать котиков по промпту)😜🙌
🤩5🔥3⚡2👍2😁2
Forwarded from Слёт аниматоров 2025
Создание промежуточных кадров за считанные минуты? Легко! Александра Севостьянова расскажет и покажет на Слёте, как это возможно!
Александра — бывший физик-теоретик с душой художника. Саша вместе с командой создали Anix — революционный инструмент, который автоматизирует 2D-анимацию, экономя студиям по 12 дней в месяц и сокращая время работы аниматоров с часов до минут! Команда уже получила признание, успешно пройдя множество акселераторов и выиграв конкурсы, такие как «Студенческий стартап» и «Новаторы Москвы». А в этом году провели мероприятие на фестивале «Бессонница 2024».
На Слёте Саша в прямом эфире поделится, как рисовать анимацию в два раза быстрее с помощью Anix, ответит на все ваши вопросы и объяснит, как быть вместе с нейросетями, а не против них.
Не упустите шанс узнать, как технологии меняют мир анимации! Присоединяйтесь: https://clck.ru/3CNkxk
Александра — бывший физик-теоретик с душой художника. Саша вместе с командой создали Anix — революционный инструмент, который автоматизирует 2D-анимацию, экономя студиям по 12 дней в месяц и сокращая время работы аниматоров с часов до минут! Команда уже получила признание, успешно пройдя множество акселераторов и выиграв конкурсы, такие как «Студенческий стартап» и «Новаторы Москвы». А в этом году провели мероприятие на фестивале «Бессонница 2024».
На Слёте Саша в прямом эфире поделится, как рисовать анимацию в два раза быстрее с помощью Anix, ответит на все ваши вопросы и объяснит, как быть вместе с нейросетями, а не против них.
Не упустите шанс узнать, как технологии меняют мир анимации! Присоединяйтесь: https://clck.ru/3CNkxk
🔥9👍7⚡3🙏1
Подробный онбординг у нас на сайте и гайд, как сделать хорошую интерполяцию - заходи и пробуй!
🔥7🎉4🤝4🤩2