Машинное обучение RU
17.6K subscribers
1.43K photos
177 videos
11 files
1.89K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
🚨 Хакеры атаковали Ultralytics YOLO и установили криптомайнеры через PyPI

🐍 Пострадали версии YOLO 8.3.41 и 8.3.42.

📂 Вредоносная библиотека размещает майнер XMRig в папке /tmp/ultralytics_runner и подключается к серверу по адресу connect.consrensys[.]com: 8080.

Гленн Йохер, основатель и генеральный директор Ultralytics, заявил, что заражённые версии были заменены чистой версией 8.3.43. По его словам, атака произошла через два пулл-запроса от пользователя из Гонконга.

🛡 На данный момент неизвестно, ограничились ли хакеры лишь установкой майнера или смогли получить доступ к пользовательским данным. Пользователям, установившим скомпрометированные версии, настоятельно рекомендуется провести глубокое сканирование системы.
🔥4👍32
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Omegance — ИИ-инструмент, который может контролировать уровни детализации в синтезе на основе диффузии, используя всего один параметр!

🔐 Лицензия: S-Lab 1.0


🔗 Страница проекта: *клик*
🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍43
👩‍💻 pydantic-ai — это проект, который интегрирует возможности Pydantic (популярной библиотеки для валидации данных и работы с моделями данных в Python) с искусственным интеллектом!

🌟 Он предоставляет инструменты для создания и использования моделей данных, которые взаимодействуют с искусственным интеллектом.

🌟 С помощью этого проекта можно более эффективно обрабатывать и валидировать данные, которые поступают из моделей ИИ, а также использовать возможности Pydantic для работы с типами данных и обеспечением их правильности в контексте AI-приложений.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥3👎1😁1🤔1
Media is too big
VIEW IN TELEGRAM
🔥 Курс Математика Машинного обучения: Что такое тензоры.

📌 Видео
📌Colab с кодом

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍112🔥2
🔍 Perplexity Search — инструмент для построения поискового движка, вдохновленного Perplexity AI!

🌟 Этот проект использует LLM и интеграцию с Google Search для обработки пользовательских запросов. После анализа запроса инструмент формирует поисковый запрос, извлекает контекст из релевантных веб-страниц и с помощью LLM создает ответ. Это позволяет получить консолидированную и информативную информацию из различных источников, обеспечивая автоматическую генерацию текста на основе найденных данных.

🌟 Проект предназначен для разработчиков, изучающих интеграцию языковых моделей в поисковые приложения. Реализация минималистична и предоставляет базовый функционал, что делает её полезной для понимания архитектуры подобных систем. Репозиторий может быть использован как стартовая точка для создания кастомизированных поисковых решений.

🔐 Лицензия: MIT

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4👍2
Forwarded from Machinelearning
🌟 POINTS1.5: VLM от WeChat.

POINTS1.5 - усовершенствованная версия VLM POINTS1.0, построенная по принципу LLaVA (визуальный энкодер+LLM) на базе Qwen2.5-7B-Instruct.

В отличие от предыдущей версии, где использовался энкодер изображений CLIP, POINTS1.5 использует энкодер NaViT, который позволяет модели обрабатывать изображения различного разрешения без необходимости их разделения.

Для повышения качества модели были применены методы фильтрации данных для обучения. Данные, не требующие анализа изображения для ответа на вопрос и содержащие грамматические ошибки, были удалены.

Обучение POINTS1.5 выполнялось в два этапа: предварительное обучение и настройка на выполнение визуальных инструкций. На этапе предварительного обучения проектор и LLM обучались совместно.

На этапе настройки на выполнение визуальных инструкций использовались специализированные наборы данных, которые обучают модель понимать инструкции, связанные с изображениями.

POINTS1.5 была протестирована на бенчмарках MMBench, MMMU, MathVista, HallucinationBench, OCRBench, MMVet, ChartQA, MME, LLaVA-wild, SEEDBench, ScienceQA, MATH-Vision и MathVerse и показала высокие результаты, особенно в задачах, требующих математических навыков.

Модели семейства POINTS могут быть запущены в режиме model soup (совместный запуск нескольких моделей, настроенных с разными наборами инструкций для получения итоговой "усредненной" модели) и CATTY (стратегия разбиения изображения большого разрешения на небольшие фрагменты одинакового размера).

▶️Локальная установка и пример инференса с Transformers:


# Clone repo
git clone https://github.com/WePOINTS/WePOINTS.git

# Install required packages
cd WePOINTS
pip install -e .

# Inference example
from transformers import AutoModelForCausalLM, AutoTokenizer
from wepoints.utils.images import Qwen2ImageProcessorForPOINTSV15
import torch
from PIL import Image
import requests
from io import BytesIO


model_path = 'WePOINTS/POINTS-1-5-Qwen-2-5-7B-Chat'
model = AutoModelForCausalLM.from_pretrained(model_path,
trust_remote_code=True,
torch_dtype=torch.float16,
device_map='cuda')
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
image_processor = Qwen2ImageProcessorForPOINTSV15.from_pretrained(model_path)

image_url = '%link to image%'
response = requests.get(image_url)
image_data = BytesIO(response.content)
pil_image = Image.open(image_data)
pil_image = pil_image.save('image.jpg')
prompt = 'please describe the image in detail'

content = [
dict(type='image', image='image.jpg'),
dict(type='text', text=prompt)
]
messages = [
{
'role': 'user',
'content': content
}
]
generation_config = {
'max_new_tokens': 1024,
'temperature': 0.0,
'top_p': 0.0,
'num_beams': 1,
}
response = model.chat(
messages,
tokenizer,
image_processor,
generation_config
)
print(response)


📌Лицензирование: Apache 2.0 License.


Модель
Arxiv
GitHub
Руководство по Prompt Engineering


@ai_machinelearning_big_data

#AI #ML #VLM #WePOINTS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
👍4🤩4😁32😢1
Media is too big
VIEW IN TELEGRAM
Новый ИИ от NVIDIA: ускоряет обучение в 10 000 раз!

📌 Видео

@machinelearning_ru
👍42👎2🔥2
Media is too big
VIEW IN TELEGRAM
🔥 swift-ocr-llm-powered-pdf-to-markdown — это инструмент для извлечения текста из сложных PDF-документов с использованием OCR и мощных языковых моделей OpenAI (например, GPT-4 Turbo с Vision)!

🌟 Он оптимизирован для высокой производительности благодаря параллельной обработке, пакетной обработке изображений и устойчивости к временным сбоям. Вывод текста форматируется в Markdown для удобства чтения и редактирования. Проект подходит для автоматизации задач оцифровки и извлечения данных.

🔐 Лицензия: AGPL-3.0

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍113🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 StoryDiffusion — инструмент для генерации последовательных изображений и видео с использованием механизма "Consistent Self-Attention"!

🌟 Он поддерживает генерацию комиксов, длинных видео и видеопереходов между изображениями. Проект включает модули для улучшенной согласованности персонажей в последовательностях изображений и предсказания движения для создания длинных видеороликов.

🔐 Лицензия: Apache-2.0

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥3
🔥 "your-source-to-prompt.html" — инструмент, который позволяет превращать исходный код проектов в текстовые запросы для LLM, используя только ваш локальный компьютер!

🌟 Все операции выполняются в браузере, без необходимости установки дополнительных зависимостей. Это решение ориентировано на безопасность (код не покидает устройство) и удобство работы с любыми папками и репозиториями. Оно поддерживает создание предустановок для повторяющихся задач и может минимизировать код для экономии места в контексте модели.

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62
🔥 Новая эра разработки ИИ от NVIDIA

NVIDIA удивила новым решением для обучения ИИ-моделей прямо дома! Представлен компактный одноплатный компьютер Jetson Orin Nano Super. Инженеры компании смогли не просто увеличить производительность устройства на 70%, но и уменьшить его стоимость вдвое по сравнению с предыдущей моделью.

Основу новинки составляет шестиядерный процессор Arm Cortex-A78AE, работающий на частоте 1,7 ГГц. Вместе с графическим процессором, который функционирует на частоте 1020 МГц и оснащен 1024 ядрами CUDA и 32 тензорными ядрами, система обеспечивает производительность до 67 TOPS.

Устройство отличается высокой совместимостью благодаря четырем портам USB 3.2 Type-A, двум интерфейсам MIPI CSI для подключения камер и разъемам M.2 для SSD-накопителей. Питание компьютера возможно как через USB Type-C, так и через специальный разъем, при этом максимальная мощность потребления составляет всего 25 Вт.

На практике Jetson Orin Nano Super значительно ускоряет выполнение различных задач: обучение языковых моделей становится быстрее на 37–63%, машинное зрение улучшается на 36–104%, а скорость распознавания изображений возрастает на 43–69%.

Продажи начнутся до конца декабря, цена составит 250 долларов (около 26 000 рублей). Так что самое время задуматься о создании своего домашнего робота!

https://www.nvidia.com/en-us/autonomous-machines/embedded-systems/jetson-orin/nano-super-developer-kit/

@machinelearning_ru
🔥8👍42👏1
Forwarded from Machinelearning
🌟 Bamba-9B: эффективная Hybrid Mamba2 модель.

Bamba-9B - модель, разработанная IBM, Princeton, CMU и UIUC на основе полностью открытых данных. Модель демонстрирует улучшение пропускной способности в 2.5 раза и снижение задержки инференса в 2 раза по сравнению с Transformers в vLLM. Bamba-9B доступна для использования в HF Transformers, vLLM, TRL и llama.cpp.

Bamba-9B использует уникальный распределенный, не сохраняющий состояние data loader, обеспечивающий бесшовное возобновление работы, автоматическое масштабирование, потоковую передачу данных с zero-overhead for shuffling.

Модель основана на архитектуре NVIDIA hybrid Mamba2, но с некоторыми изменениями. Bamba-9B имеет 32 слоя, из которых 3 полноценных слоя внимания и 29 слоев Mamba2, в то время как NVIDIA hybrid Mamba2 имеет 29 слоев, из которых 4 слоя внимания и 25 слоев Mamba2.

Bamba-9B была обучена на 2.2T токенов с датасетом Dolma v1.7 на первом этапе и FineWeb-edu и Cosmopedia на втором.

По проведенным замерам, средняя производительность Bamba-9B почти сравнима с Llama 3.1 8B (45.53 против 44.68), при том что Llama 3.1 8B была обучена на 7x большем объеме данных.

Bamba-9B превзошла Olmo 7B, обученную на идентичном количестве токенов и наборах данных. В сравнении с другими моделями на базе Mamba/Mamba2, Bamba-9B показывает хорошие результаты, при этом обеспечивая значительное улучшение (до 5x) эффективности логического вывода.

▶️ Планы разработчиков на дальнейшее развитие Bamba:

🟠увеличение длины контекста модели Bamba-9B (сейчас - 4096);
🟠улучшение модели путем обучения на дополнительных данных и точной настройки на наборах данных SFT.

▶️ Опубликованный набор моделей:

🟢Bamba 9B - финальная версия модели после 2-х этапов обучения
🟢Bamba 9B 2T - чекпоинт после 1 этапа трейна с датасетом Dolma v1.7
🟠Bamba 9B 1.8T - промежуточный чекпоинт 1 этапа обучения

🟢Bamba 9B FP8 - квантованная с помощью llm-compressor версия Bamba 9B
🟢Bamba 9B 2T FP8 - квантованная с помощью llm-compressor версия Bamba 9B 2Т
🟠Bamba 9B 1.8T FP8 - квантованная с помощью llm-compressor версия Bamba 9B 1.8Т

▶️Пример инференса на Transformers с Bamba-9B:

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("ibm-fms/Bamba-9B")
tokenizer = AutoTokenizer.from_pretrained("ibm-fms/Bamba-9B")

message = ["Mamba is a snake with following properties "]
inputs = tokenizer(message, return_tensors='pt', return_token_type_ids=False)
response = model.generate(**inputs, max_new_tokens=64)
print(tokenizer.batch_decode(response, skip_special_tokens=True)[0])


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Bamba #IBM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥2👍1