Love. Death. Transformers.
@simplyobot подняли бота от мужского одиночества. Бесплатно. Мощно. Надолго.
Почему вам стоит пользоватся именно @simplyobot ?
Ну потому что мы нормально подключили все опен АИ апи и например гуляя по городу и видя надпись которую не можете прочесть вы можете закинуть ее в бота, а он прочитает и переведет.
Перевод:
Ну потому что мы нормально подключили все опен АИ апи и например гуляя по городу и видя надпись которую не можете прочесть вы можете закинуть ее в бота, а он прочитает и переведет.
Перевод:
В этом доме жил и работал с 1924 по 1941 годы
доктор Степан Клабаккин,
ординарный профессор Белградского
университета, кафедра славянской
филологии и общей лингвистики,
старославянский язык.
Член Сербской академии наук с
1920 года, докторировал в Петрограде
в 1908 году.
До прихода в нашу страну был
профессором в Харькове и Одессе.
1🤡32👍15🔥4❤2🤮1
мне так нравитя что для aws q нужен aws аккаунт, а я хочу напомнить что aws выглядит so 2011(как любой клауд)
Когда уже будет llm чтобы сделать UI клаудов УДОБНЫМ
Нет спасибо мне не нужно 100500 вариантов постеджера-ec2-какого то спота, мне нужно просто залогинтся в вашего llm агента
Для copilota мне нужно: залогинится в гитхаб и закинуть 10$. Все.
Когда уже будет llm чтобы сделать UI клаудов УДОБНЫМ
Нет спасибо мне не нужно 100500 вариантов постеджера-ec2-какого то спота, мне нужно просто залогинтся в вашего llm агента
Для copilota мне нужно: залогинится в гитхаб и закинуть 10$. Все.
50🔥43👍12❤6💯4
Читая AI-каналы, которых за два года AI-хайпа расплодилось немерено, сложно понять, где человек, который действительно разбирается, а кто просто репостит Твиттер.
С эйай ньюз все не так: канал начался давно, и ведет его человек с солидным мужским размером хирша - 13, да еще и полученный на топовых конференциях. Да и про нейросети автор узнал не вчера, человек PhD в CompVis писал, а в этой лабе в свое время придумали Stable Diffusion.
Канал годный, сам читаю и репощу в рабочие чаты. Поэтому подумал, что стоит рассказать о нем для тех, кто ещё его не видел.
Подписаться
С эйай ньюз все не так: канал начался давно, и ведет его человек с солидным мужским размером хирша - 13, да еще и полученный на топовых конференциях. Да и про нейросети автор узнал не вчера, человек PhD в CompVis писал, а в этой лабе в свое время придумали Stable Diffusion.
Канал годный, сам читаю и репощу в рабочие чаты. Поэтому подумал, что стоит рассказать о нем для тех, кто ещё его не видел.
Подписаться
Telegram
эйай ньюз
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.
Ex-Staff Research Scientist в Meta Generative AI. Сейчас CEO&Founder AI стартапа в Швейцарии.
Aвтор: @asanakoy
PR: @ssnowysnow
Ex-Staff Research Scientist в Meta Generative AI. Сейчас CEO&Founder AI стартапа в Швейцарии.
Aвтор: @asanakoy
PR: @ssnowysnow
51❤70🤡36🔥18👍15💩7 6👎4🍌3❤🔥2💯1
Media is too big
VIEW IN TELEGRAM
Ты чо дурак?
Ну а что, ai встроить нельзя?
дурак.
ЭЭЭ тут короче выпустили cursor.com style иде только для VIM
github
Ну а что, ai встроить нельзя?
дурак.
ЭЭЭ тут короче выпустили cursor.com style иде только для VIM
github
😁43🔥10🤡3🍌3💩2👍1
https://huggingface.co/Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro
опять controlnet для флюкса, теперь хороший
опять controlnet для флюкса, теперь хороший
huggingface.co
Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🤡22👎13👍7 5🥱3❤1😁1🥴1
может уволится в сязи с проф непригодностью?
я вторую неделю наблюдаю обучение gemma2b, так вот
- в bf16 c чекпоинтингом она еле влезает в 48 gb
- в bf16 но без чекпоинтинга влезает в 55гб
- в tf32 с чекпоинтингом влезает в 35 гб
- в tf32 без чекпоинтинга влезает в 48gb
вы чо там на фабрике с ума сошли что ли
я вторую неделю наблюдаю обучение gemma2b, так вот
- в bf16 c чекпоинтингом она еле влезает в 48 gb
- в bf16 но без чекпоинтинга влезает в 55гб
- в tf32 с чекпоинтингом влезает в 35 гб
- в tf32 без чекпоинтинга влезает в 48gb
вы чо там на фабрике с ума сошли что ли
1😁61 25 11 6🥴5❤2🔥2
Исследуем рынок ML с ребятами из VK, которые опросили более 300 ML-специалистов и вынесли результаты в карточки
Исследование провели вместе с социологами и научными коммуникаторами Университета ИТМО
Исследование провели вместе с социологами и научными коммуникаторами Университета ИТМО
🤡76 30👍14🤮6😁3✍2 2🔥1💯1
Forwarded from Den4ik Research
День рождения RUAccent
Сегодня день, когда была релизнута первая версия расстановщика ударений RUAccent, поэтому сегодня будет сравнимый по важности релиз.
1. RUAccent-encoders
RUAccent-encoder это специальная модель, для использования там, где другие модели не могут работать из-за BPE токенизации. Модель разработана для задач связанных с TTS и ударениями. Она интегрируется в качестве текстового энкодера в TTS моделях (например vits), при этом, штатный энкодер текстов удаляется из модели, в отличии от BERT-VITS, где используются два энкодера, поскольку duration predictor в VITS работает с отдельными символами. Также модель используется для расстановщиков ударений, фонемизаторов (а такой вероятно будет от меня) и т.д.
Модель обучалась в три этапа:
1. Претрейн модели на задачах AMLM (Autoregressive Masked Language Modelling, очень похожа на Fill In The Middle) и NSP (Next Sentence Prediction).
2. Дистилляция CDLM (старшей сестры RUAccent-encoder, обученной на бОльшем количестве данных) в модель
3. Обучение расстановке ударений в формате Token Classification.
На этом закончилось обучение RUAccent-encoder. Теперь надо обучить модель понимать ударения на входе. Поэтому модель доучена в режиме AMLM + NSP на текстах с размеченными ударениями и появился RUAccent-stressed-encoder.
2. RUAccent-turbo3 и RUAccent-tiny2
За лето появилась идея как сделать разметчик, который сможет бесконечно снабжать относительно высококачественными данными. Это аудио, в котором почти всегда говорят ударения правильно (как оказалось нет). В итоге, где-то за месяц создана такая модель и за +- две недели размечено 500ГБ аудио (из 6ТБ). На отфильтрованных данных обучен tiny2 и turbo3. Благодаря разметчику создан более качественный тест сет, в котором нет утечек.
На этом датасете замерены метрики предыдущих моделей и получены следующие метрики:
- big_poetry: 88.86%
- tiny: 90.63%
- turbo: 90.89%
- turbo2: 91.18%
- sber_proprietary: 91.91%
- tiny2 (NEW): 95.80%
- turbo3 (NEW): 96.37%
Отдельная благодарность @Sterling239 за помощь при замере метрик сберовской системы.
Также получены метрики систем расстановки ударений для обычных слов:
- StressRNN (Russtress): 0.673
- Ru Word Stress Deberta (Ilya Gusev): 0.931
- Silero: 0.952
- RUAccent: 0.972
При этом, модель RUAccent вторая по размеру после StressRNN (260KB) и весит всего 803 килобайта. Модель Silero весит ~2 мегабайта (информация отсюда), а Ru Word Stress Deberta 12.8 мегабайт
3. Планы на будущее
1. Поэкспериментировать с аттеншном в моделях и поправить случаи, когда модель в предложении одинаковыми омографами выдает одно предсказание для всех.
2. Улучшить Ёфикатор для краевых случаев.
3. Сделать фонемизатор с возможностью учитывания ударений, эфикацией.
RUAccent encoders: link
RUAccent 1.5.8: link
Донат: link
@den4ikresearch
Сегодня день, когда была релизнута первая версия расстановщика ударений RUAccent, поэтому сегодня будет сравнимый по важности релиз.
1. RUAccent-encoders
RUAccent-encoder это специальная модель, для использования там, где другие модели не могут работать из-за BPE токенизации. Модель разработана для задач связанных с TTS и ударениями. Она интегрируется в качестве текстового энкодера в TTS моделях (например vits), при этом, штатный энкодер текстов удаляется из модели, в отличии от BERT-VITS, где используются два энкодера, поскольку duration predictor в VITS работает с отдельными символами. Также модель используется для расстановщиков ударений, фонемизаторов (а такой вероятно будет от меня) и т.д.
Модель обучалась в три этапа:
1. Претрейн модели на задачах AMLM (Autoregressive Masked Language Modelling, очень похожа на Fill In The Middle) и NSP (Next Sentence Prediction).
2. Дистилляция CDLM (старшей сестры RUAccent-encoder, обученной на бОльшем количестве данных) в модель
3. Обучение расстановке ударений в формате Token Classification.
На этом закончилось обучение RUAccent-encoder. Теперь надо обучить модель понимать ударения на входе. Поэтому модель доучена в режиме AMLM + NSP на текстах с размеченными ударениями и появился RUAccent-stressed-encoder.
2. RUAccent-turbo3 и RUAccent-tiny2
За лето появилась идея как сделать разметчик, который сможет бесконечно снабжать относительно высококачественными данными. Это аудио, в котором почти всегда говорят ударения правильно (как оказалось нет). В итоге, где-то за месяц создана такая модель и за +- две недели размечено 500ГБ аудио (из 6ТБ). На отфильтрованных данных обучен tiny2 и turbo3. Благодаря разметчику создан более качественный тест сет, в котором нет утечек.
На этом датасете замерены метрики предыдущих моделей и получены следующие метрики:
- big_poetry: 88.86%
- tiny: 90.63%
- turbo: 90.89%
- turbo2: 91.18%
- sber_proprietary: 91.91%
- tiny2 (NEW): 95.80%
- turbo3 (NEW): 96.37%
Отдельная благодарность @Sterling239 за помощь при замере метрик сберовской системы.
Также получены метрики систем расстановки ударений для обычных слов:
- StressRNN (Russtress): 0.673
- Ru Word Stress Deberta (Ilya Gusev): 0.931
- Silero: 0.952
- RUAccent: 0.972
При этом, модель RUAccent вторая по размеру после StressRNN (260KB) и весит всего 803 килобайта. Модель Silero весит ~2 мегабайта (информация отсюда), а Ru Word Stress Deberta 12.8 мегабайт
3. Планы на будущее
1. Поэкспериментировать с аттеншном в моделях и поправить случаи, когда модель в предложении одинаковыми омографами выдает одно предсказание для всех.
2. Улучшить Ёфикатор для краевых случаев.
3. Сделать фонемизатор с возможностью учитывания ударений, эфикацией.
RUAccent encoders: link
RUAccent 1.5.8: link
Донат: link
@den4ikresearch
❤25👍9🤡3❤🔥1
Forwarded from Vikhr models
LLM Arena для русскоязычных моделей
Мои знакомые из Vikhrmodels, которые занимаются русскоязычным open-source проектом, создают свои модели и проводят дообучение на основе мультиязычных моделей, недавно выпустили свой набор бенчмарков!
C рускоязычными открытыми LLM очень все сложно - их очень мало. В лучшем случае это дообученные LLam_ы. Но в целом топ LLM с поддержкой русского языка выглядит так:
- Gpt4o
- Gpt4o mini
- LLaMa 3.1 405b
- LLaMa 3.1 70b
- Gemma 27b
- LLaMa 3 70b
RuArenaGeneral — бенчмарк на основе lmsys arenahard . Это единственный полностью открытый современный бенчмарк на русском языке.
В отличие от классической арены, здесь в качестве судьи выступает GPT-4o, благодаря чему арена оценивается очень быстро (новые модели добавляются всего за час), и её можно воспроизводить локально! Кроме того, благодаря использованию LLM в качестве судьи и известности запросов заранее, арена хорошо коррелирует с оригинальной ареной lmsys.org.
На арене каждую неделю появляются новые модели с поддержкой русского языка или русифицированные.
Шлёпа lb — это маленький бенчмарк с множественным выбором (как в ЕГЭ, где выбираются варианты ответа), включающий задачи на знание мира, а также перевод mmlupro. В отличие от Mera, сабмиты полностью оцениваются локально, и можно сразу получить результат на локальной машине, например, во время обучения!
Мои знакомые из Vikhrmodels, которые занимаются русскоязычным open-source проектом, создают свои модели и проводят дообучение на основе мультиязычных моделей, недавно выпустили свой набор бенчмарков!
C рускоязычными открытыми LLM очень все сложно - их очень мало. В лучшем случае это дообученные LLam_ы. Но в целом топ LLM с поддержкой русского языка выглядит так:
- Gpt4o
- Gpt4o mini
- LLaMa 3.1 405b
- LLaMa 3.1 70b
- Gemma 27b
- LLaMa 3 70b
RuArenaGeneral — бенчмарк на основе lmsys arenahard . Это единственный полностью открытый современный бенчмарк на русском языке.
В отличие от классической арены, здесь в качестве судьи выступает GPT-4o, благодаря чему арена оценивается очень быстро (новые модели добавляются всего за час), и её можно воспроизводить локально! Кроме того, благодаря использованию LLM в качестве судьи и известности запросов заранее, арена хорошо коррелирует с оригинальной ареной lmsys.org.
На арене каждую неделю появляются новые модели с поддержкой русского языка или русифицированные.
Шлёпа lb — это маленький бенчмарк с множественным выбором (как в ЕГЭ, где выбираются варианты ответа), включающий задачи на знание мира, а также перевод mmlupro. В отличие от Mera, сабмиты полностью оцениваются локально, и можно сразу получить результат на локальной машине, например, во время обучения!
huggingface.co
Russian LLM Leaderboard - a Hugging Face Space by Vikhrmodels
Submit your language model for evaluation and track its performance against others. Provide model details and upload evaluation files to see results.
51❤13😁4👍2