Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
EchoMimic - проект инновационного подхода, комбинирующий использование аудиодорожки и маркеры лиц для создания динамичных портретов сохраняя реалистичность исходного иpображения.
Mетод EchoMimic построен на моделях Stable Diffusion и использует модули Reference U-Net, Landmark Encoder и Audio Encoder для кодирования референсных изображений, характеристик лиц и аудио соответственно. На финальном этапе, Attention Layers декодирует временную динамику для создания последовательностей согласованных по времени видео.
Согласно проведенным в ходе разработки бенчмаркам, EchoMimic демонстрирует лучшие результаты по сравнению с другими проектами, такими как: SadTalker, AniPortrait, V-Express и Hallo в различных наборах данных, достигая высоких показателей по метрикам FID, FVD, SSIM и E-FID.
Рекомендованные ресурсы - от 16 GB VRAM, но EchoMimic работает и на 8 GB VRAM (увеличивается время инференса).
⚠️ В процессе установки скачиваются дополнительные модели:
⚖️ Лицензирование: Apache-2.0
@ai_machinelearning_big_data
#Image2Animate #LipSync #ML #Diffusers #EchoMimic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3
🤗 Все что нужно знать о работе с Hugging Face за 10 минут!
В этом ролике мы разыгрываем 3 крутые книги по МАШИННОМУ ОБУЧЕНИЮ, нужно всего лишь оставить любой осмысленный коммент и лайк и быть подписанным на наш канал!
https://www.youtube.com/watch?v=4B_foZbWh2c
@machinelearning_ru
В этом ролике мы разыгрываем 3 крутые книги по МАШИННОМУ ОБУЧЕНИЮ, нужно всего лишь оставить любой осмысленный коммент и лайк и быть подписанным на наш канал!
https://www.youtube.com/watch?v=4B_foZbWh2c
@machinelearning_ru
👍9❤3🔥2
🌟 ai-renamer
Это великолепно. Кто-то разработал интерфейс командной строки, который использует Lms (Ollama) для переименования ваших файлов по их содержимому.
🎓 Github
@machinelearning_ru
Это великолепно. Кто-то разработал интерфейс командной строки, который использует Lms (Ollama) для переименования ваших файлов по их содержимому.
🎓 Github
@machinelearning_ru
👍10🔥3❤2
Forwarded from Machinelearning
FP8- это формат квантования, предоставляющий для моделей баланс между точностью и эффективностью. Он обеспечивает нерегулярное представление диапазона и масштабирование для каждого тензора на GPU, что позволяет достичь прироста производительности и сокращения потребления памяти.
Этот современный формат обещает революцию в развертывании LLM, значительно улучшая эффективность инференеса без ущерба для качества модели:
Реализация поддержки FP8 стала возможна благодаря усилиям сервисов Neuralmagic.com и Anyscale.com, которые активно поддерживают open-soure сообщество.
В репозитории выложены Instruct FP8 версии моделей:
⚠️ Представленный набор моделей предназначен для запуска в среде vLLM (версии от 0.5 и выше) и ее реализациях, поддерживающих технологии разреженности и быстрого инференса:
vLLM - open-source среда для быстрого вывода и использования LLM, основанная на методе PagedAttention.
PagedAttention - алгоритм внимания, вдохновленный классической идеей виртуальной памяти и подкачки в операционных системах. Его использование снижает нагрузку на VRAM, связанную со сложными алгоритмами выборки. Экономия памяти может достигать до 55%.
Более подробно про vLLM и алгоритм PagedAttention можно прочитать на странице проекта
@ai_machinelearning_big_data
#FP8 #LLM #vLLM #ML
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤2
—
pip install git+https://github.com/ManuelFay/colpaliМетод ColPali опирается на такие VLM (Vision Language Models) как модель PaliGemma от команды Google Zürich, и использует улучшенный векторный поиск, предложенный в модели ColBERT.
🤗 Hugging Face
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
SmolLM: новые модели SOTA, 135M, 360M и 1.7B, которые идеально подходят для работы на эйдж девайсах! 🔥
▪Модели: huggingface.co/blog/smollm
▪Demo: https://huggingface.co/spaces/HuggingFaceTB/SmolLM-360M-Instruct-WebGPU
@machinelearning_ru
▪Модели: huggingface.co/blog/smollm
▪Demo: https://huggingface.co/spaces/HuggingFaceTB/SmolLM-360M-Instruct-WebGPU
@machinelearning_ru
👍6❤3🔥2
На базовом уровне Mathstral опирается на модель Mistral 7B, но больше заточена по STEM-задачи.
В различных стандартных отраслевых тестах Mathstral демонстрирует отличные результаты в своей размерной категории (7B). В частности, модель достигает показателя 56.6% в MATH и 63.47% в MMLU.
🤗 Hugging Face
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3🔥3
🔥 Официальный документальный фильм о PyTorch: Революция в области искусственного интеллекта:
https://youtube.com/watch?v=rgP_LBtaUEc
@machinelearning_ru
https://youtube.com/watch?v=rgP_LBtaUEc
@machinelearning_ru
YouTube
Official PyTorch Documentary: Powering the AI Revolution
This film unveils the authentic narrative of PyTorch’s inception, attributing its existence to a dedicated group of unsung heroes driving technological innovation.
The documentary shares the strength of the PyTorch community, resonating with our communities…
The documentary shares the strength of the PyTorch community, resonating with our communities…
👍6❤4🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Действительно забавно исследовать пространство представления больших моделей, используя текстовый ввод для создания поз 😂
https://europe.naverlabs.com/research/publications-enhanced/bridging-environments-and-language-with-rendering-functions-and-vision-language-models/
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤3🔥1
🔥 Apple только что выпустила LLM с открытым исходным кодом 7B, весами, обучающим кодом и набором данных! 👀
TL;DR:
🧠 Базовая модель 7B, обученная на 2,5 Т токенах в открытых наборах данных
✅ Данные в основном на английском языке и контекстное окно 2048
✅ Объединенные данные DCLM-BASELINE, StarCoder и ProofPile2
✅ MMLU 0.6372 > Mistral & < Llama3
✅ Открытая лицензия с лицензией Apple
✅ Соответствует моделям с закрытыми наборами данных, таким как Mistral
✅ Обучен с использованием Python и OpenLM framework
✅ Доступно на huggingface и в Transformers
▪Модель: https://huggingface.co/apple/DCLM-7B
▪Репозиторий: https://github.com/mlfoundations/dclm
▪Набор данных: https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0
▪Документация: https://arxiv.org/abs/2406.11794
@machinelearning_ru
TL;DR:
🧠 Базовая модель 7B, обученная на 2,5 Т токенах в открытых наборах данных
✅ Данные в основном на английском языке и контекстное окно 2048
✅ Объединенные данные DCLM-BASELINE, StarCoder и ProofPile2
✅ MMLU 0.6372 > Mistral & < Llama3
✅ Открытая лицензия с лицензией Apple
✅ Соответствует моделям с закрытыми наборами данных, таким как Mistral
✅ Обучен с использованием Python и OpenLM framework
✅ Доступно на huggingface и в Transformers
▪Модель: https://huggingface.co/apple/DCLM-7B
▪Репозиторий: https://github.com/mlfoundations/dclm
▪Набор данных: https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0
▪Документация: https://arxiv.org/abs/2406.11794
@machinelearning_ru
👍6🔥5❤3
🔥 ZeroEval: простая унифицированная платформа для оценки LMS.
Двумя первоначальными задачами являются MMLU-Redux и GSM.
▪ Github: https://github.com/yuchenlin/ZeroEval
@machinelearning_ru
Двумя первоначальными задачами являются MMLU-Redux и GSM.
▪ Github: https://github.com/yuchenlin/ZeroEval
@machinelearning_ru
👍3🔥3❤2