Бесплатное клонирование голоса и перевод на другие языки
Друзья, всем привет! Нашла интересную Нейронную сеть, которая может клонировать ваш голос и в дальнейшем использовать его для создания голосовых записей на разных языках. Это крутой бесплатный аналог HeyGen, поддерживающий русский язык. Кто не знает, сервис HeyGen не только преуспел в создании реалистичных аватаров, но и в клонировании голоса и перевода его на различные языки в режиме реального времени - второе видео это хорошо демонстрирует
Но так ли они оба хороши?
Чуть позже скину обзор на XTTS и сравню ее с HeyGen. Пока сразу скажу, что XTTS бесплатный и поддерживает русский, в отличие от HeyGen😉
UPD: Heygen теперь поддерживает русский и множество других языков.
Друзья, всем привет! Нашла интересную Нейронную сеть, которая может клонировать ваш голос и в дальнейшем использовать его для создания голосовых записей на разных языках. Это крутой бесплатный аналог HeyGen, поддерживающий русский язык. Кто не знает, сервис HeyGen не только преуспел в создании реалистичных аватаров, но и в клонировании голоса и перевода его на различные языки в режиме реального времени - второе видео это хорошо демонстрирует
Но так ли они оба хороши?
Чуть позже скину обзор на XTTS и сравню ее с HeyGen. Пока сразу скажу, что XTTS бесплатный и поддерживает русский, в отличие от HeyGen
UPD: Heygen теперь поддерживает русский и множество других языков.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Нейросети для клонирования и перевода голоса. Сравнение: Бесплатный XTTS против HeyGen
Оба сервиса позволят воспроизвести ваш голос и использовать его для создания голосовых записей на различных языках.Основное отличие заключается в том, что XTTS полностью бесплатен. Он поддерживает работу на английском, русском и многих других языках. HeyGen платный, с тестовым периодом. Переводит видео с русского, на русский пока нет. Его преимущество в том, что при переводе он не только имитирует голос, но и подстраивает движение губ.
XTTS
➕ Бесплатный
➕ Поддерживает русский
➕ Можно клонировать голос на разные языки, используя аудиозапись от 6 секунд
➕ Открытый код на Github
➕ Есть демо-версия на Hugging Face
➖ Проигрывает HeyGen в клонировании голоса
HeyGen
➖ Платный
➕ Тестовый период. За один доступный кредит вы можете протестировать видео длиной от 30 до 50 сек.
➕ Перевод видео, при этом сохраняя голос диктора ➕ точная имитация соответствующих движений губ.
Пока монтировала ролик, поменяла свое мнение о HeyGen, со стороны сказали, что голос очень похож на мой. А вы как считаете? Напишите в комментариях🤔 👇🏻
Оба сервиса позволят воспроизвести ваш голос и использовать его для создания голосовых записей на различных языках.Основное отличие заключается в том, что XTTS полностью бесплатен. Он поддерживает работу на английском, русском и многих других языках. HeyGen платный, с тестовым периодом. Переводит видео с русского, на русский пока нет. Его преимущество в том, что при переводе он не только имитирует голос, но и подстраивает движение губ.
XTTS
HeyGen
Пока монтировала ролик, поменяла свое мнение о HeyGen, со стороны сказали, что голос очень похож на мой. А вы как считаете? Напишите в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube миниатюры в Midjourney для канала про технологии
Вот такой фон для YouTube миниатюры можно сгенерировать в Midjourney. На своем обучении я рассказываю, как сделать такие за пару минут. Напишите мне в @neurosonya , и я расскажу все подробности😉
A detailed visualization of a neural network, depicted as glowing interconnected nodes and pathways, set against a dark, digital matrix-like backdrop. Medium: Photo hyper-realism. Style: Futuristic tech visualization. Lighting: Ambient backlighting with neon highlights on the neural nodes. Colors: Deep blacks and blues for the background, contrasted with neon blues and purples for the neural network. Composition: Canon EOS 5D Mark IV DSLR camera, EF 24mm f/1.4 lens, Resolution 30.4 megapixels, ISO sensitivity: 100, Shutter speed 1/250 second, central focus on the neural network with a depth-of-field effect. --ar 16:9 --v 5.1 --style raw --q 2 --s 750
Close-up of a silicon chip with intricate patterns, symbolizing the architecture of neural networks. From the chip, light rays emanate outward, representing data flow and computations. Medium: Photo hyper-realism. Style: Macro tech photography. Lighting: Soft overhead lighting with a spotlight on the chip's details. Colors: Metallic grays of the chip with radiant blues and golds for the light rays. Composition: Nikon D850 DSLR camera, Nikkor 50mm f/1.4 lens, Resolution 45.7 megapixels, ISO sensitivity: 64, Shutter speed 1/200 second, sharp focus on the chip's details with the light rays slightly diffused. --ar 16:9 --v 5.1 --style raw --q 2 --s 750
Вот такой фон для YouTube миниатюры можно сгенерировать в Midjourney. На своем обучении я рассказываю, как сделать такие за пару минут. Напишите мне в @neurosonya , и я расскажу все подробности
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Конвертация дизайна из Фигмы в рабочий код на HTML + CSS + React
Достаточно сбросить дизайн в Kombai и получить готовый код✅
Разработчики могут бесплатно использовать Kombai во время предварительных исследований
Бесплатно можно получить:
➕ Неограниченное количество загрузок дизайна
➕ Неограниченное количество загрузок кода
➕ React и HTML + CSS
➕ Tailwind CSS и MUI Base (для компонентов форм)
➖ Но обменяться файлами дизайна с третьми лицами не получится 🤷🏻♀️
Для доступа к расширенному функционалу, а именно, - интеграция и настройка, пользовательские переменные CSS и миксины, библиотеки пользовательских компонентов, вывод кода в соответствии с технологическим стеком и премиум поддержка, - необходимо связываться с разработчиками Kombai
Достаточно сбросить дизайн в Kombai и получить готовый код
Разработчики могут бесплатно использовать Kombai во время предварительных исследований
Бесплатно можно получить:
Для доступа к расширенному функционалу, а именно, - интеграция и настройка, пользовательские переменные CSS и миксины, библиотеки пользовательских компонентов, вывод кода в соответствии с технологическим стеком и премиум поддержка, - необходимо связываться с разработчиками Kombai
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Лучшие модификации Stable Diffusion XL в одном месте
Энтузиасты создали каталог на Hugging Face, в котором очень удобно работать с дополнениями к Stable Diffusion XL.
➕ Работает бесплатно
Энтузиасты создали каталог на Hugging Face, в котором очень удобно работать с дополнениями к Stable Diffusion XL.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Бесплатный аналог Code Interpreter в ChatGPT, работающий локально
Полезная нейросеть для программистов Open Interpreter — бесплатный аналог Code Interpreter в ChatGPT. Позволяет LLM выполнять код (Python, Javascript, Shell и др.) локально. Вы можете общаться с Open Interpreter через ChatGPT-подобный интерфейс в терминале. Достаточно установить, и можно творить, что душа пожелает с помощью промптов.
Что может еще:
🟡 создавать и редактировать фотографии, видео, PDF-файлов и т.д.
🟡 проводить исследования
🟡 строить, очищать и анализировать большие массивы данных
Иными словами, бесплатный ChatGPT Code Interpreter на вашем компьютере. Кстати, Список промптов к Code Interpreter подойдет и к Open Interpreter.
Ранее я рассказывала про аналоги Code Interpreter, которые не нужно устанавливать:
🟡 Claude-2
🟡 Perplexity - появилась возможность загружать свои документы
А просто пообщаться и проанализировать документы можно с этими сервисами:
🟡 Анализ документов
🟡 Для файлов PDF
🟡 Найти нужное в книгах
🟡 Изучить документы
Полезная нейросеть для программистов Open Interpreter — бесплатный аналог Code Interpreter в ChatGPT. Позволяет LLM выполнять код (Python, Javascript, Shell и др.) локально. Вы можете общаться с Open Interpreter через ChatGPT-подобный интерфейс в терминале. Достаточно установить, и можно творить, что душа пожелает с помощью промптов.
Что может еще:
Иными словами, бесплатный ChatGPT Code Interpreter на вашем компьютере. Кстати, Список промптов к Code Interpreter подойдет и к Open Interpreter.
Ранее я рассказывала про аналоги Code Interpreter, которые не нужно устанавливать:
А просто пообщаться и проанализировать документы можно с этими сервисами:
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
FlexClip отлично подойдет для редактирования и монтажа видео для бизнеса, соцсетей, и иных целей.
Можно легко редактировать: ретушировать, накладывать эффекты, обрезать, добавлять субтитры, убрать фон.
Подойдет новичку - есть пресеты и шаблоны: более 1000 текстовых анимаций, более миллиона динамических векторных элементов, переходов и наложений.
Есть функция «монтаж с нуля», которая позволяет редактировать видео по текстовому промпту.
Please open Telegram to view this post
VIEW IN TELEGRAM
Дубляж видео на русский с сохранением голоса. Сравнение HeyGen с ElevenLabs.
Я уже рассказывала про перевод от HeyGen - он обалденно переводит видео, сохраняя интонации голоса. Единственный минус, переводит видео с русского, на русский пока нет.
Зато одним игроком на рынке дубляжа видео стало больше! ElevenLabs прекрасно переводит на русский. Для примера я скачала интервью Илона Маска на английском языке и перевела его на русский в ElevenLabs .
Сервис переводит на 29 языков, сохраняя оригинальный голос🔥
Процесс тоже интуитивно понятен, все как и здесь, загружаем видеоролик (можно без лица) - выбираем язык ввода (на каком языке ролик), выбираем язык вывода (на какой язык хотели бы перевести), ждем около минуты и можно скачивать результат✅
Сравнение ElevenLabs и HeyGen
ElevenLabs, как и HeyGen ,анализирует речь, переводит и синтезирует её в новую звуковую дорожку, так что получается естественная озвучка.
В чем отличия?
Перевод видео в ElevenLabs пока бесплатен, но ограничен 2000 символами, а в HeyGen ролик просто ограничен 500мб, и он платный.
Резюмируя, оба они переводят отлично и очень похоже на оригинальный голос, но HeyGen подстраивает еще и движение губ
UPD: Elevenlabs сейчас стоит от 5$ долларов в месяц
#elevenlabs
Я уже рассказывала про перевод от HeyGen - он обалденно переводит видео, сохраняя интонации голоса. Единственный минус, переводит видео с русского, на русский пока нет.
Зато одним игроком на рынке дубляжа видео стало больше! ElevenLabs прекрасно переводит на русский. Для примера я скачала интервью Илона Маска на английском языке и перевела его на русский в ElevenLabs .
Сервис переводит на 29 языков, сохраняя оригинальный голос
Процесс тоже интуитивно понятен, все как и здесь, загружаем видеоролик (можно без лица) - выбираем язык ввода (на каком языке ролик), выбираем язык вывода (на какой язык хотели бы перевести), ждем около минуты и можно скачивать результат
Сравнение ElevenLabs и HeyGen
ElevenLabs, как и HeyGen ,анализирует речь, переводит и синтезирует её в новую звуковую дорожку, так что получается естественная озвучка.
В чем отличия?
Перевод видео в ElevenLabs пока бесплатен, но ограничен 2000 символами, а в HeyGen ролик просто ограничен 500мб, и он платный.
Резюмируя, оба они переводят отлично и очень похоже на оригинальный голос, но HeyGen подстраивает еще и движение губ
UPD: Elevenlabs сейчас стоит от 5$ долларов в месяц
#elevenlabs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🎙 Подборка нейросетей для аудио как из студии
Список для тех, кто так или иначе работает с аудио, будь то запись уроков, подкаста или медитации:
🅰️ Adobe Podcast Enhancer поможет сделать студийную озвучку и убрать шумы, показывала и рассказывала, как он работает в этом посте
🅰️ Аi-coustics - хорошая альтернатива, рассказывала про него здесь
🅰️ Auphonic - сервис для обработки аудио и подкастов. Автоматически обрабатывает и улучшает качество аудиофайлов - подавление шума, нормализация уровня громкости, добавление/ удаление музыки и тд. Дается 2 часа бесплатно каждый месяц
🔠 Cleanvoice - тоже крутой сервис для подкастеров и не только, он чистит речь, убирает слова паразиты, нежелательные звуки, например “э” и “а” или вздохи
Список для тех, кто так или иначе работает с аудио, будь то запись уроков, подкаста или медитации:
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Генератор изображений DALL-E 3 в ChatGPT
В октябре OpenAI представила Dall-E 3 в интерфейсе ChatGPT Plus и Enterprise и заверила, что новый Dall-E 3:
✔️ учитывает каждое слово в промпте;
✔️ на изображениях корректно выводится текст, кроме русского.
✔️ улучшена проработка сцены и взаимосвязь между объектами на изображении, отрисовка рук и других частей тела.
Генерировать изображения можно в самом диалоге с чат-ботом, что дает бесшовно переключаться между делами с текстом и изображениями, не покидая ChatGPT.
На видео пример такого взаимодействия между Dall-E 3 и ChatGPT - сказка про Лари, солнечного ежика, с иллюстрациями и прочим.
Я протестила Dall-E 3 и сравнила его с Midjourney 👇🏻
В октябре OpenAI представила Dall-E 3 в интерфейсе ChatGPT Plus и Enterprise и заверила, что новый Dall-E 3:
Генерировать изображения можно в самом диалоге с чат-ботом, что дает бесшовно переключаться между делами с текстом и изображениями, не покидая ChatGPT.
На видео пример такого взаимодействия между Dall-E 3 и ChatGPT - сказка про Лари, солнечного ежика, с иллюстрациями и прочим.
Я протестила Dall-E 3 и сравнила его с Midjourney 👇🏻
Please open Telegram to view this post
VIEW IN TELEGRAM
Обзор генератора изображений DALL-E 3 в ChatGPT и сравнение с Midjourney
По исполнению реалистичных фото мне понравился больше Midjourney; в DALL-E 3 “все равно фото как компьютерные” - извините за каламбур 🤭, но зато в DALL-E 3, интегрированным в ChatGPT, можно прям в диалоге попросить дописать, например, на банке крема “Natural” - он напишет! С русским языком пока проблемы, мое “привет” он написал, видимо, на своем языке) Ну Midjourney написала явно не лучше 😄
DALL-E 3 лучше отрисовывает руки, это однозначно! Так что если у вас студия маникюра, без напряга можно сгенерировать маникюр на пяти пальцах с первого раза 💅
Промпты DALL-E 3 тоже понимает лучше: для примера сгенерила изображения по одному промпту “
Авторское право в DALL-E 3: пользователям запрещено генерировать изображение, если в описании указан ныне живущий художник или фотограф с целью защиты авторских прав. Однако, DALL-E 3 по-хитрому предлагает передать суть стиля художника, используя описательные термины и художественные направления. Правда по достоверности передачи стиля художника мне ближе Midjourney.
Пока мне все же больше нравится Midjourney по исполнению и настройкам, не смотря на неоспоримые преимущества DALL-E 3. Я думаю, скоро мы с вами станем свидетелями гонки вооружений: Midjourney выкатит обновление, устранит баги с руками, улучшит понимание промпта, а DALL-E 3 улучшит исполнение и выпустит новые фишки, интересно будет понаблюдать) А вы что думаете? 🤔 Потестили уже DALL-E 3? Если обзор вам понравился, поддержите реакциями )
По исполнению реалистичных фото мне понравился больше Midjourney; в DALL-E 3 “все равно фото как компьютерные” - извините за каламбур 🤭, но зато в DALL-E 3, интегрированным в ChatGPT, можно прям в диалоге попросить дописать, например, на банке крема “Natural” - он напишет! С русским языком пока проблемы, мое “привет” он написал, видимо, на своем языке) Ну Midjourney написала явно не лучше 😄
DALL-E 3 лучше отрисовывает руки, это однозначно! Так что если у вас студия маникюра, без напряга можно сгенерировать маникюр на пяти пальцах с первого раза 💅
Промпты DALL-E 3 тоже понимает лучше: для примера сгенерила изображения по одному промпту “
Эфирная элегантность, изящный нейл-артистизм с бутылочками и украшениями из лака для ногтей, мягкие, приглушенные оттенки для легкой и нежной атмосферы, - без анатомической деформации рук
” - Midjourney конечно обрисовала с присущей ей художественностью, только вот про руки забыла, зато DALL-E 3 точно передал детали промптаАвторское право в DALL-E 3: пользователям запрещено генерировать изображение, если в описании указан ныне живущий художник или фотограф с целью защиты авторских прав. Однако, DALL-E 3 по-хитрому предлагает передать суть стиля художника, используя описательные термины и художественные направления. Правда по достоверности передачи стиля художника мне ближе Midjourney.
Пока мне все же больше нравится Midjourney по исполнению и настройкам, не смотря на неоспоримые преимущества DALL-E 3. Я думаю, скоро мы с вами станем свидетелями гонки вооружений: Midjourney выкатит обновление, устранит баги с руками, улучшит понимание промпта, а DALL-E 3 улучшит исполнение и выпустит новые фишки, интересно будет понаблюдать) А вы что думаете? 🤔 Потестили уже DALL-E 3? Если обзор вам понравился, поддержите реакциями )
This media is not supported in your browser
VIEW IN TELEGRAM
Немного отвлечемся от рутины, и узнаем, что творится на рынке высокотехнологичной продукции 🕶️
Сегодня поступили в продажу умные очки от Meta Ray-Ban Smart Glasses, которые позволяют слушать музыку, снимать видео, вести прямые эфиры в нельзяграмме, говорить по телефону по громкой связи и много чего еще.
В устройство встроена MetaAI – нейросеть, которая распознает объект, на который смотрит человек,и готова ответить на его вопросы и команды. Например, нейронка может делать голосовые подсказки навигатора за рулем автомобиля, или перевести текст или подсказать, что за памятник архитектуры перед глазами.
Цена на эту чудо новинку начинается от $299, а память у нее до 32 Гб
Как вам? Берем на всех?🤭
Перевела и озвучила в ElevenLabs , во вкладке Dubbing, про их новую функцию клонирования и перевода голоса я рассказывала здесь, а заодно и сравнила с конкурентом HeyGen
Пикантное “р” получается у Цукерберга, не так ли?😃
Вечером поделюсь с вами годным сервисом, который снимает головную боль, когда срочно нужно представить информацию в красивом структурированном виде из видео, которое длится час, а времени у вас минут 15 🙆🏻♀️
Сегодня поступили в продажу умные очки от Meta Ray-Ban Smart Glasses, которые позволяют слушать музыку, снимать видео, вести прямые эфиры в нельзяграмме, говорить по телефону по громкой связи и много чего еще.
В устройство встроена MetaAI – нейросеть, которая распознает объект, на который смотрит человек,и готова ответить на его вопросы и команды. Например, нейронка может делать голосовые подсказки навигатора за рулем автомобиля, или перевести текст или подсказать, что за памятник архитектуры перед глазами.
Цена на эту чудо новинку начинается от $299, а память у нее до 32 Гб
Как вам? Берем на всех?
Перевела и озвучила в ElevenLabs , во вкладке Dubbing, про их новую функцию клонирования и перевода голоса я рассказывала здесь, а заодно и сравнила с конкурентом HeyGen
Пикантное “р” получается у Цукерберга, не так ли?
Вечером поделюсь с вами годным сервисом, который снимает головную боль, когда срочно нужно представить информацию в красивом структурированном виде из видео, которое длится час, а времени у вас минут 15 🙆🏻♀️
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Всем нам когда-нибудь приходилось делать конспекты из
Действия:
Бесплатно доступно до 3 генераций в месяц, подписка начинается от 7 долларов в месяц, но можно создавать новые акки, особенно зная эту фичу
Кстати, полезный лайфхак: можно загрузить видео, из которого нужна презентация, в
Please open Telegram to view this post
VIEW IN TELEGRAM