190K subscribers
3.46K photos
477 videos
17 files
4.2K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ LLaVA-NeXT: A Strong Zero-shot Video Understanding Model

LLaVA-NeXT - одна из самых мощных на сегодняшний день моделей для понимания видео, превосходящая все существующие VLM, с открытым исходным кодом.

Новая SoTA!

LLaVA-Next демонстрирует высокую скорость передачи данных и демонстрирует отличные результаты при zero-shot обучении.


git clone https://github.com/LLaVA-VL/LLaVA-NeXT


Github: https://github.com/LLaVA-VL/LLaVA-NeXT
Blog: https://llava-vl.github.io/blog/2024-04-30-llava-next-video/
HF: https://huggingface.co/shi-labs/CuMo-mistral-7b
Dataset: https://huggingface.co/datasets/shi-labs/CuMo_dataset

#llm #vlm

@ai_machinelearning_big_data
📊 Time Series Foundation Model by Google

TimesFM - это новая модель прогнозирования временных рядов от Google, предварительно обученная на большом массиве данных состоящем из 100 миллиардов реальных временных точек.

Модель демонстрирует впечатляющую производительность при zero-shot обучении на множестве бенчмарков.

#TimesFM #TimeSeries #Forecasting #FoundationModels

Github: https://github.com/google-research/timesfm
Paper: https://arxiv.org/abs/2310.10688
Blog: https://research.google/blog/a-decoder-only-foundation-model-for-time-series-forecasting/
HF: https://huggingface.co/google/timesfm-1.0-200m

@ai_machinelearning_big_data
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 DocsGPT — open-source AI-помощник для работы с документами и не только

DocsGPT — это функциональное решение на базе LLM и GPT с открытым исходным кодом, которое упрощает процесс поиска информации в документации.
Благодаря интеграции мощных LLM можно задавать вопросы по документации и различным текстам и получать точные ответы.

Модели на Hugging Face:
🟡 Docsgpt-7b-mistral — требует 1×A10G GPU
🟡 Docsgpt-14b — требует 2×A10 GPU
🟡 Docsgpt-40b-falcon — требует 8×A10G GPU

🖥 GitHub

#llm #gpt

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Lory — полностью дифференцируемая Mixture-of-Experts (MoE) для предварительного обучения авторегрессионной языковой модели

На днях исследователи из Принстона и MetaAI представили Lory — первое в своём роде решение, которое позволяет масштабировать MoE-архитектуры для предварительного обучения авторегрессионных языковых моделей.

В Lory реализованы 2 ключевые технологии:
(1) — стратегия маршрутизации причинных сегментов, которая обеспечивает высокую эффективность операций объединения экспертов при сохранении авторегрессивной природы языковых моделей

(2) — метод группировки данных на основе сходства, который стимулирует специализацию "экспертов" путем группировки похожих документов в обучающих выборках

Результаты экспериментов с Lory показывают значительный прирост производительности по сравнению с обычными MoE-моделями.

📎 Arxiv

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 Вышла новая, улучшенная версия GPT-4 Omni для. И что самое главное — она доступна всем БЕСПЛАТНО!

Это самая совершенная модель из всех, намного превосходящая своих предшественников, включая таинственный gpt2-chatbot.

Она появится уже сегодня в виде приложения для пк.


GPT-4 Omni будет понимать эмоции и тон голоса.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Модель общается естественным и понятным языком, обрабатывает информацию в реальном времени и даже умеет шутить и понимать эмоции. Делает паузы, если вы спросите ее что-то.

Модель практически невозможно отличить от живого человека.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🔥 Грег Брокман, соучредитель OpenAI, опубликовал 5-минутное видео, в котором он общается с языковой моделью GPT-4 Omni и демонстрирует ее возможности компьютерного зрения.

А вот еще 33 видео с примерами работы ИИ - https://vimeo.com/openai.

А если интерсно, тут обращение самого Сэма Альтмана - https://blog.samaltman.com/gpt-4o

👉 Бесплатно пользоваться можно с браузера, сслыка - https://chatgpt.com/auth/login?next=%2F%3Fmodel%3Dgpt-4o

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ MatterSim — модель глубокого обучения для моделирования атомных структур; поддерживает все элементы, температуры и давления

MatterSim — Deep Learning, которая позволяет моделировать свойства атомных структур на высоком уровне и точно предсказывать свойства материалов во всей периодической таблице, при температурах от 0 до 5000 К и давления до 1000 ГПа.

MatterSim может быть тонко настроена для моделирования атомных структур на желаемом уровне теории.
Или же можно использовать модель для прямого прогнозирования свойств на основе заданной структуры.

📎 Arxiv

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 LocalAI — свободная альтернатива предложений от OpenAI

LocalAI — это open-source альтернатива решений от OpenAI. LocalAI выступает в качестве замены REST API, совместимого со спецификациями OpenAI API для локальных выводов.

Позволяет локально запускать LLM, генерировать изображения, аудио (и не только), клонировать голос; при этом не требует GPU.

Поддерживается множество семейств LLM и архитектур, LocalAI работает с gguf, transformers, diffusers и не только.

Запуск LocalAI с помощью Docker:
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest-aio-cpu

При наличии GPU Nvidia (аналогично для CUDA 12):
docker run -p 8080:8080 --gpus all --name local-ai -ti localai/localai:latest-aio-gpu-nvidia-cuda-11

🖥 GitHub
🟡 Страничка LocalAI

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Приложение, в котором вы можете посмотреть прогресс открытых и проприетарных моделей LMS с течением времени

Это приложение отображает изменения показателей моделей, который оценивается чат-ботом LMSYS Arena, крутая штука, чтобы поиграться.

Показатель ELO (ось y) - это показатель относительной силы модели, основанный на ее показателях по сравнению с другими моделями на арене.

Дата публикации (по оси x) соответствует моменту, когда модель была впервые опубликована публично.

Линии тренда основаны на обычной регрессии методом наименьших квадратов (МНК) и корректируются в соответствии с критериями фильтрации.


https://huggingface.co/spaces/andrewrreed/closed-vs-open-arena-elo

@ai_machinelearning_big_data
🔥 Некоторые крутые скрытые фишки новой GPT4o


1) GPT4o на 2 головы опередил всех в создании текста на изображениях, сгенерированных искусственным интеллектом. Великолепный результат.

2) Новая модель позволяет генерировать шрифты.

3) Поддерживает 3d-рендеринг.

4/ GPT4o может создавать звуковые эффекты, а не только речь.

5) Эффективная и стабильная работа в преобразовании изображений в зависимости от контекста.

А на последнем видео, вы можете посмотреть как модель отвечает на русском языке.

Сегодня намечена Google I/O, где нам покажут обновленный Gemini, ждем достойного ответа.

@ai_machinelearning_big_data