Эмбеддинг бенчмарка
33 subscribers
19 photos
14 links
Download Telegram
Average vLLM review comment
😁4🤝4🥰2
Видимо еще агенты... (Или kernels доделают)
2🔥2🥰2👀1
Оказывается TGI все
🥰42🔥1😭1
Вышли Qwen3-VL-Embedder и Reranker

https://huggingface.co/collections/Qwen/qwen3-vl-reranker

https://huggingface.co/collections/Qwen/qwen3-vl-embedding

Качество на текстовом домене проседает немного по сравнению с обычным и какие-то немного странные сравнения по моделям на vision части (нет jina-v4 например).

Пока нет поддержки в transformers (вряд-ли она скоро появится, тк сейчас их рефакторят) и надо использовать через их библиотеку
🔥4🎉4🥰1
Эмбеддинг бенчмарка
Вышли Qwen3-VL-Embedder и Reranker https://huggingface.co/collections/Qwen/qwen3-vl-reranker https://huggingface.co/collections/Qwen/qwen3-vl-embedding Качество на текстовом домене проседает немного по сравнению с обычным и какие-то немного странные сравнения…
Qwen3-VL-Embedding продолжение

Спустя пару дней они выложили тех репорт https://arxiv.org/abs/2601.04720

- Первая модель которая полноценно используют chat tempalte от llm (ждем когда будет SBERT v6 с поддержкой)
- Схема обучения такая же как у Qwen3-Embedding. Тоже pre-training и fine-tuning основан на сгенерированных данных, но сейчас еще реранкер дистилили в эмбеддер
- Также использовали InfoNCE, но добавили Quantization-Aware Training и Matryoshka Representation Learning (как у gemma-embedding)
- По их замерам int8 эмбеддинги будут вести себя также как и fp32
🔥4🥰3👍1🎉1
Pandas 3.0

- Теперь у строк есть свой тип, а не просто object
- Улучшили поддержку Copy-on-Write (теперь нет SettingWithCopyWarning)
- Убрали некоторые alias для дат (теперь надо писать ME вместо M) и даты могут сохраняться также в секундах, а не только в наносекундах

Поддерживает только python 3.11+

Полный список: https://pandas.pydata.org/community/blog/pandas-3.0.html
6🔥1🥰1
Transformers v5

Пост (от декабря): https://huggingface.co/blog/transformers-v5
Полный список изменений: https://github.com/huggingface/transformers/releases/tag/v5.0.0

- Теперь токенизаторы используют только tokenizers, что раньше было fast. Более подробно можно прочитать в их блоге https://huggingface.co/blog/tokenizers
- Теперь dtype будет auto по дефолту (раньше было fp32)
- Убрали load_in_8bit и теперь надо передавать конфиг напрямую
- Много аргументов в трейнере поменяли. Например,report_to теперь по дефолту none
- Также сделали методы для получения отдельных модальностей у модели для SentenceTransformers, так что ждем когда появится новая версия
33🔥1