Microsoft выкатили Florence-2 — модель, принимающую изображения на вход, способную решать многие задачи CV (распознавание, сегментирование, OCR).
Есть 2 основные версии — base и large (200M и 800M параметров), при этом обе версии модели отлично себя показывают в сравнении с моделями, которые тяжелее в 100 раз.
🤗 Hugging Face
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33🔥12❤4
Media is too big
VIEW IN TELEGRAM
pip install open-interpreter
interpreter
Open Interpreter предоставляет интерфейс естественного языка для управления компьютером.
Можно общаться с Open Interpreter через ChatGPT-подобный интерфейс прямо в терминале.
При помощи Open Interpreter можно на естественном языке выполнять такие действия как:
— создание и редактирование фотографий, видео, PDF-файлов и т. д.
— управление браузером
— анализ данных, построение графиков и т.д.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48🔥11⚡4❤3💘1
DataOps Platform от МТС получила награду от CNews в номинации “Инновация года: Self-Service платформа для работы с большими данными". Платформа предоставляет инструменты для хранения, обработки, контроля качества и виртуализации данных, а также построения отчётности и многое другое. Успешное замещение импортных сервисов на собственную платформу принесло экономию до 1,5 млрд рублей за год. Отличный шаг в развитии цифровой экосистемы.
@ai_machinelearning_big_data
@ai_machinelearning_big_data
🔥22👍6❤5
GEB-1.3B — это лёгкая LLM, обученная на 550 миллиардах лексем.
При всей своей лёгкости модель превосходит Llama-7B и схожие LLM в 3 метриках из 4 (C-Eval, CMMLU, Average)
Для достижения такого впечатляющего результата были использованы новые методы обучения, включая ROPE, Group-Query-Attention и FlashAttention-2, для ускорения обучения при сохранении производительности LLM. Кроме того, была произведена тонкая настройка модели при помощи 10 миллионов разных промптов и инструкций.
Кстати, квантизованная FP32-версия GEB-1.3B довольно быстро работает даже на CPU, при этом продолжаются работы по дальнейшему увеличению скорости с помощью квантования.
🤗 Hugging Face
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥9❤4🤨4😁1
Magnum-72B-v1 создана на базе Qwen-2 72B.
Обучение проводилось на 55 миллионах токенов высококачественных данных. Для тонкой настройки всех параметров модели было использовано 8 ускорителей AMD Instinct MI300X.
🤗 Hugging Face
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23❤7🔥6
Toucan — это модель преобразования текста в речь (TTS) + набор инструментов для обучения, тренировки и развертывания модели.
Модель создана в Институте обработки естественного языка (IMS) Штутгартского университета.
Всё написано на идиоматическом Python с использованием PyTorch, для максимально лёгкого изучения и тестирования.
🤗 Затестить на HF
🤗 Датасет на HF
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤28👍12🔥5🥰1
⚡️ Anthropic только что представлии Claude 3.5 Sonnet, модель которая превосходит GPT-4 почти на всех тестах.
В Claude 3.5 Sonnet добавлена поддержка «артефактов», позволяющая выдавать результаты в различных форматах, таких как код, текстовые документы, изображения и другие.
Claude 3.5 Sonnet уже доступна бесплатно для всех пользователей.
До конца года Anthropic планируют выпустить Claude 3.5 Haiku (более компактная и быстрая модель) и Claude 3.5 Opus (самая мощная модель из семейства).
Sonnet превосходит Claude 3 Opus во всех стандартных vision-задачах.
📌 Попробуйте бесплатно: http://claude.ai
#opensource
@ai_machinelearning_big_data
В Claude 3.5 Sonnet добавлена поддержка «артефактов», позволяющая выдавать результаты в различных форматах, таких как код, текстовые документы, изображения и другие.
Claude 3.5 Sonnet уже доступна бесплатно для всех пользователей.
До конца года Anthropic планируют выпустить Claude 3.5 Haiku (более компактная и быстрая модель) и Claude 3.5 Opus (самая мощная модель из семейства).
Sonnet превосходит Claude 3 Opus во всех стандартных vision-задачах.
📌 Попробуйте бесплатно: http://claude.ai
#opensource
@ai_machinelearning_big_data
👍43🔥18❤8🥰2😁1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
git clone https://github.com/mezbaul-h/june.git
cd june
pip install .
june-va — это локальный голосовой помощник, использующий возможности Ollama, Hugging Face transformers (для распознавания речи) и Coqui TTS (для преобразования текста в речь).
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30❤6🔥3🥰1
🔥Microsoft просто, без громкого анонса (опять!),выпустили новый интересный способ обучения моделей "Instruction Pre-Training, модели и датасеты.
При предварительном обучении с нуля модель 500M, обученная на 100B токенах, достигает производительности модели 1B, предварительно обученной на 300B токенах.
Доступны:
👀 Датасеты
🦙Llama 3 8B с качеством, сравнимым с 70B!
🔥 Общие модели + специализированные модели (медицина/финансы)
▪abs: https://arxiv.org/abs/2406.14491
▪models: https://huggingface.co/instruction-pretrain
@ai_machinelearning_big_data
При предварительном обучении с нуля модель 500M, обученная на 100B токенах, достигает производительности модели 1B, предварительно обученной на 300B токенах.
Доступны:
👀 Датасеты
🦙Llama 3 8B с качеством, сравнимым с 70B!
🔥 Общие модели + специализированные модели (медицина/финансы)
▪abs: https://arxiv.org/abs/2406.14491
▪models: https://huggingface.co/instruction-pretrain
@ai_machinelearning_big_data
👍59🔥13❤5🤔3🤓2🥰1
Modded-NanoGPT — это модификация того кода для обучения GPT-2 от Андрея Карпати.
Modded-NanoGPT позволяет:
— обучать в 2 раза эффективнее (требуется всего 5B лексем вместо 10B для достижения той же точности)
— имеет более простой код (446 строк вместо 858)
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🤔13❤9🔥4
Hermes-2 Θ (Theta) 70B — это экспериментальная модель, созданная компанией Nous Research в сотрудничестве с Arcee AI (командой, создавшей MergeKit) на основе Hermes 2 Pro и Llama-3 Instruct.
Судя по метрикам и ответам, модель получилась неплохой
🤗 Hugging Face
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22❤5🤷♂5🔥2