Love. Death. Transformers.
22.5K subscribers
4.24K photos
498 videos
76 files
2.78K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Love. Death. Transformers.
@simplyobot подняли бота от мужского одиночества. Бесплатно. Мощно. Надолго.
Почему вам стоит пользоватся именно @simplyobot ?

Ну потому что мы нормально подключили все опен АИ апи и например гуляя по городу и видя надпись которую не можете прочесть вы можете закинуть ее в бота, а он прочитает и переведет.



Перевод:

В этом доме жил и работал с 1924 по 1941 годы
доктор Степан Клабаккин,
ординарный профессор Белградского
университета, кафедра славянской
филологии и общей лингвистики,
старославянский язык.
Член Сербской академии наук с
1920 года, докторировал в Петрограде
в 1908 году.
До прихода в нашу страну был
профессором в Харькове и Одессе.
1🤡32👍15🔥42🤮1
Дайте пожалуйста смазку для модели номер 7 она не влезает
1🥴68😁18👍8👏3🔥1🤔1
мне так нравитя что для aws q нужен aws аккаунт, а я хочу напомнить что aws выглядит so 2011(как любой клауд)


Когда уже будет llm чтобы сделать UI клаудов УДОБНЫМ

Нет спасибо мне не нужно 100500 вариантов постеджера-ec2-какого то спота, мне нужно просто залогинтся в вашего llm агента


Для copilota мне нужно: залогинится в гитхаб и закинуть 10$. Все.
50🔥43👍126💯4
Читая AI-каналы, которых за два года AI-хайпа расплодилось немерено, сложно понять, где человек, который действительно разбирается, а кто просто репостит Твиттер.
С эйай ньюз все не так: канал начался давно, и ведет его человек с солидным мужским размером хирша - 13, да еще и полученный на топовых конференциях. Да и про нейросети автор узнал не вчера, человек PhD в CompVis писал, а в этой лабе в свое время придумали Stable Diffusion.

Канал годный, сам читаю и репощу в рабочие чаты. Поэтому подумал, что стоит рассказать о нем для тех, кто ещё его не видел.

Подписаться
5170🤡36🔥18👍15💩76👎4🍌3❤‍🔥2💯1
Media is too big
VIEW IN TELEGRAM
Ты чо дурак?
Ну а что, ai встроить нельзя?
дурак.

ЭЭЭ тут короче выпустили cursor.com style иде только для VIM

github
😁43🔥10🤡3🍌3💩2👍1
مرحبا، أنا عظيم، لدي سبعة تريليونات دولار، حول لي مائة دولار حتى أتمكن من تحرير نفسي
35242😁19117👏5👍1
может уволится в сязи с проф непригодностью?
я вторую неделю наблюдаю обучение gemma2b, так вот

- в bf16 c чекпоинтингом она еле влезает в 48 gb
- в bf16 но без чекпоинтинга влезает в 55гб
- в tf32 с чекпоинтингом влезает в 35 гб
- в tf32 без чекпоинтинга влезает в 48gb


вы чо там на фабрике с ума сошли что ли
1😁6125116🥴52🔥2
Исследуем рынок ML с ребятами из VK, которые опросили более 300 ML-специалистов и вынесли результаты в карточки

Исследование провели вместе с социологами и научными коммуникаторами Университета ИТМО
🤡7630👍14🤮6😁322🔥1💯1
Forwarded from Den4ik Research
День рождения RUAccent

Сегодня день, когда была релизнута первая версия расстановщика ударений RUAccent, поэтому сегодня будет сравнимый по важности релиз.

1. RUAccent-encoders

RUAccent-encoder это специальная модель, для использования там, где другие модели не могут работать из-за BPE токенизации. Модель разработана для задач связанных с TTS и ударениями. Она интегрируется в качестве текстового энкодера в TTS моделях (например vits), при этом, штатный энкодер текстов удаляется из модели, в отличии от BERT-VITS, где используются два энкодера, поскольку duration predictor в VITS работает с отдельными символами. Также модель используется для расстановщиков ударений, фонемизаторов (а такой вероятно будет от меня) и т.д.

Модель обучалась в три этапа:

1. Претрейн модели на задачах AMLM (Autoregressive Masked Language Modelling, очень похожа на Fill In The Middle) и NSP (Next Sentence Prediction).
2. Дистилляция CDLM (старшей сестры RUAccent-encoder, обученной на бОльшем количестве данных) в модель
3. Обучение расстановке ударений в формате Token Classification. 

На этом закончилось обучение RUAccent-encoder. Теперь надо обучить модель понимать ударения на входе. Поэтому модель доучена в режиме AMLM + NSP на текстах с размеченными ударениями и появился RUAccent-stressed-encoder.

2. RUAccent-turbo3 и RUAccent-tiny2

За лето появилась идея как сделать разметчик, который сможет бесконечно снабжать относительно высококачественными данными. Это аудио, в котором почти всегда говорят ударения правильно (как оказалось нет). В итоге, где-то за месяц создана такая модель и за +- две недели размечено 500ГБ аудио (из 6ТБ). На отфильтрованных данных обучен tiny2 и turbo3. Благодаря разметчику создан более качественный тест сет, в котором нет утечек. 

На этом датасете замерены метрики предыдущих моделей и получены следующие метрики:

- big_poetry: 88.86%
- tiny: 90.63%
- turbo: 90.89%
- turbo2: 91.18%
- sber_proprietary: 91.91%
- tiny2 (NEW): 95.80%
- turbo3 (NEW): 96.37%

Отдельная благодарность @Sterling239 за помощь при замере метрик сберовской системы.


Также получены метрики систем расстановки ударений для обычных слов:

- StressRNN (Russtress): 0.673
- Ru Word Stress Deberta (Ilya Gusev): 0.931
- Silero: 0.952
- RUAccent: 0.972

При этом, модель RUAccent вторая по размеру после StressRNN (260KB) и весит всего 803 килобайта. Модель Silero весит ~2 мегабайта (информация отсюда), а Ru Word Stress Deberta 12.8 мегабайт

3. Планы на будущее

1. Поэкспериментировать с аттеншном в моделях и поправить случаи, когда модель в предложении одинаковыми омографами выдает одно предсказание для всех.
2. Улучшить Ёфикатор для краевых случаев.
3. Сделать фонемизатор с возможностью учитывания ударений, эфикацией.


RUAccent encoders: link
RUAccent 1.5.8: link
Донат: link

@den4ikresearch
25👍9🤡3❤‍🔥1
1🤓99😍2215😁9💯6👍51🍓1
Forwarded from Vikhr models
LLM Arena для русскоязычных моделей

Мои знакомые из Vikhrmodels, которые занимаются русскоязычным open-source проектом, создают свои модели и проводят дообучение на основе мультиязычных моделей, недавно выпустили свой набор бенчмарков!

C рускоязычными открытыми LLM очень все сложно - их очень мало. В лучшем случае это дообученные LLam_ы. Но в целом топ LLM с поддержкой русского языка выглядит так:
- Gpt4o
- Gpt4o mini
- LLaMa 3.1 405b
- LLaMa 3.1 70b
- Gemma 27b
- LLaMa 3 70b

RuArenaGeneral — бенчмарк на основе lmsys arenahard . Это единственный полностью открытый современный бенчмарк на русском языке.
В отличие от классической арены, здесь в качестве судьи выступает GPT-4o, благодаря чему арена оценивается очень быстро (новые модели добавляются всего за час), и её можно воспроизводить локально! Кроме того, благодаря использованию LLM в качестве судьи и известности запросов заранее, арена хорошо коррелирует с оригинальной ареной lmsys.org.

На арене каждую неделю появляются новые модели с поддержкой русского языка или русифицированные.

Шлёпа lb — это маленький бенчмарк с множественным выбором (как в ЕГЭ, где выбираются варианты ответа), включающий задачи на знание мира, а также перевод mmlupro. В отличие от Mera, сабмиты полностью оцениваются локально, и можно сразу получить результат на локальной машине, например, во время обучения!
5113😁4👍2