Градиент обреченный
7.97K subscribers
834 photos
20 videos
8 files
453 links
Download Telegram
Так, очередной подгон от китайских коллег. Пойдемте посмотрим.

https://chat.qwenlm.ai/

Upd. Инференс дорогой, в 3-4 раза дороже gpt-4o.
👍5👀4🔥2
😁847👏4🗿4321🍓1
Хорошая статья от Антона про обучение R1, test-time scaling, «озарение» и про то как Zero версия убирает узкое горлышко в виде человека из обучения модели рассуждениям.
👍8🤗3
Forwarded from AbstractDL
DeepSeek-R1 для чайников

Ну и наделала же DeepSeek шуму. Мне пришлось целый хабропост написать 😁

TLDR: мало слов про сравнение с ChatGPT и метрики, много слов про технические детали обучения, датасеты, GRPO и якобы эмерджентный «Aha! moment».
20👍13🔥41
Интересный эфир на youTube, популяризаторы науки Сурдин и Семихатов смотрят и обсуждают фильм Интерстеллар.

https://www.youtube.com/watch?v=miheS43AasA
🔥21👍103👀2💅1
#perplexity_clone

Попробовал накидать страничку со стримингом из API Perplexity. Прикольно, из коробки работают поиск и рассуждения.

Жалко, что фильтр по поисковым источникам только на высоком tier'е работает (надо закинуть $500 на счет), а то бы поигрались.
👍163🔥2
DeepSeek начал открывать кофейни, в меню LatteGPT, Turing Tea, Backpropagation Raf
😁11811🔥6👀3💅2👍1
Работы венгерского художника Иштвана Ороса.

По мотивам журнала Проектор про венгерский плакат.
16👍6🆒32💅1
Forwarded from Lingtrain (Sergei Averkiev)
🔺 Обновление Lingtrain

По просьбам учащихся добавил в lingtrain-aligner и Lingtrain Alignment Studio армянский язык. Спасибо Максиму Степанянцу из ВШЭ за помощь!

🔸 Отдельный язык нужен, чтобы текст корректно делился на предложения (при делении по привычным знакам препинания можно выбрать язык General).

🔸 В армянском пунктуация как раз своя, вместо точек используются двоеточия, а признаки вопросительного предложения могут стоять внутри, причем их может быть несколько в разных словах.

🔸 P.S. На каникулах добавил в библиотеку много нового — расчет эмбеддингов по API, хранение их в БД, новый модуль corrector. Никак руки не дойдут описать все это, но скоро сделаю.
🔥289❤‍🔥2👍21
🔺 Мультиязычные MoE эмбеддинги

Nomic выложили модель Embed Text V2 в открытый доступ, можно запускать через sentence_transformers, обещают добавить в ollama.

🔸 Эмбеддинги используются, чтобы перенести тексты в единое векторное пространство, благодаря чему можно количественно посчитать насколько два текста близки по смыслу. В данном случае это можно применить для текстов на разных языках.

🔸 Поддерживается 100+ языков (в табличке, которую прилагают авторы языков 96, но для родственных им языков также будет работать). Обучали на 1.6B пар предложений.

🔸 Архитектура MoE. По-моему, для эмбеддингов такой еще не было. Это значит, что при использовании будет активироваться только часть весов модели, всего 300M параметров, это немного.

🔸 Данные, веса и код выкладывают в открытый доступ, что мы, конечно, приветствуем.

🔸 Эмбеддинги для экономии можно обрезать до 256, так как обучали с подходом Matryoshka.

🔸 Языков России/СНГ не так много, по качеству надо смотреть.

from sentence_transformers import SentenceTransformer

model = SentenceTransformer("nomic-ai/nomic-embed-text-v2-moe", trust_remote_code=True)
sentences = ["Hello!", "Привет!"]
embeddings = model.encode(sentences, prompt_name="passage")

similarity = model.similarity(embeddings[0], embeddings[1])


👉 Пост | GitHub | HF
🔥23👍74🐳2
Все думал, что у DeepSeek'а шрифт уж больно знакомый. И точно, это же Каспер после ребрендинга.
😁56🔥5🤯2🐳2😱1