Эмбеддинг бенчмарка
Если кто-то хочет посмотреть статистику по разным организациям (сомневаюсь, но все же), то я обновил их space с этой возможностью
https://samoed-2025-wrapped.hf.space/
https://samoed-2025-wrapped.hf.space/
❤6🔥1🥰1
Вышли Qwen3-VL-Embedder и Reranker
https://huggingface.co/collections/Qwen/qwen3-vl-reranker
https://huggingface.co/collections/Qwen/qwen3-vl-embedding
Качество на текстовом домене проседает немного по сравнению с обычным и какие-то немного странные сравнения по моделям на vision части (нет jina-v4 например).
Пока нет поддержки в transformers (вряд-ли она скоро появится, тк сейчас их рефакторят) и надо использовать через их библиотеку
https://huggingface.co/collections/Qwen/qwen3-vl-reranker
https://huggingface.co/collections/Qwen/qwen3-vl-embedding
Качество на текстовом домене проседает немного по сравнению с обычным и какие-то немного странные сравнения по моделям на vision части (нет jina-v4 например).
Пока нет поддержки в transformers (вряд-ли она скоро появится, тк сейчас их рефакторят) и надо использовать через их библиотеку
🔥4🎉4🥰1
Эмбеддинг бенчмарка
Вышли Qwen3-VL-Embedder и Reranker https://huggingface.co/collections/Qwen/qwen3-vl-reranker https://huggingface.co/collections/Qwen/qwen3-vl-embedding Качество на текстовом домене проседает немного по сравнению с обычным и какие-то немного странные сравнения…
Qwen3-VL-Embedding продолжение
Спустя пару дней они выложили тех репорт https://arxiv.org/abs/2601.04720
- Первая модель которая полноценно используют chat tempalte от llm (ждем когда будет SBERT v6 с поддержкой)
- Схема обучения такая же как у Qwen3-Embedding. Тоже pre-training и fine-tuning основан на сгенерированных данных, но сейчас еще реранкер дистилили в эмбеддер
- Также использовали InfoNCE, но добавили Quantization-Aware Training и Matryoshka Representation Learning (как у gemma-embedding)
- По их замерам int8 эмбеддинги будут вести себя также как и fp32
Спустя пару дней они выложили тех репорт https://arxiv.org/abs/2601.04720
- Первая модель которая полноценно используют chat tempalte от llm (ждем когда будет SBERT v6 с поддержкой)
- Схема обучения такая же как у Qwen3-Embedding. Тоже pre-training и fine-tuning основан на сгенерированных данных, но сейчас еще реранкер дистилили в эмбеддер
- Также использовали InfoNCE, но добавили Quantization-Aware Training и Matryoshka Representation Learning (как у gemma-embedding)
- По их замерам int8 эмбеддинги будут вести себя также как и fp32
🔥4🥰3👍1🎉1
Эмбеддинг бенчмарка
Пока нет поддержки в transformers (вряд-ли она скоро появится, тк сейчас их рефакторят) и надо использовать через их библиотеку
Видимо нормальной интеграции надо будет долго ждать
😢4🤔1😭1
Pandas 3.0
- Теперь у строк есть свой тип, а не просто object
- Улучшили поддержку Copy-on-Write (теперь нет
- Убрали некоторые alias для дат (теперь надо писать
Поддерживает только python 3.11+
Полный список: https://pandas.pydata.org/community/blog/pandas-3.0.html
- Теперь у строк есть свой тип, а не просто object
- Улучшили поддержку Copy-on-Write (теперь нет
SettingWithCopyWarning) - Убрали некоторые alias для дат (теперь надо писать
ME вместо M) и даты могут сохраняться также в секундах, а не только в наносекундахПоддерживает только python 3.11+
Полный список: https://pandas.pydata.org/community/blog/pandas-3.0.html
❤6🔥1🥰1
Transformers v5
Пост (от декабря): https://huggingface.co/blog/transformers-v5
Полный список изменений: https://github.com/huggingface/transformers/releases/tag/v5.0.0
- Теперь токенизаторы используют только tokenizers, что раньше было
- Теперь dtype будет
- Убрали
- Много аргументов в трейнере поменяли. Например,
- Также сделали методы для получения отдельных модальностей у модели для SentenceTransformers, так что ждем когда появится новая версия
Пост (от декабря): https://huggingface.co/blog/transformers-v5
Полный список изменений: https://github.com/huggingface/transformers/releases/tag/v5.0.0
- Теперь токенизаторы используют только tokenizers, что раньше было
fast. Более подробно можно прочитать в их блоге https://huggingface.co/blog/tokenizers- Теперь dtype будет
auto по дефолту (раньше было fp32)- Убрали
load_in_8bit и теперь надо передавать конфиг напрямую- Много аргументов в трейнере поменяли. Например,
report_to теперь по дефолту none- Также сделали методы для получения отдельных модальностей у модели для SentenceTransformers, так что ждем когда появится новая версия
❤3✍3🔥1