Недавно наша команда выложила в открытый доступ большую языковую модель MultiVerse размером в 70 миллиардов параметров (для понимания, chatGPT это тоже языковая модель)
Круто то, что модель заняла в общемировом лидерборде языковых моделей 2 место🤯
Принял участие в квантизации этой модели (сжатием в 4 раза), теперь вместо ~150 ГБ модель занимает ~39 ГБ
Квантизированная версия доступна в официальном хабе MTS AI
Круто то, что модель заняла в общемировом лидерборде языковых моделей 2 место🤯
Принял участие в квантизации этой модели (сжатием в 4 раза), теперь вместо ~150 ГБ модель занимает ~39 ГБ
Квантизированная версия доступна в официальном хабе MTS AI
🔥11👍2
В 2022 году мы получили грант размером в 1 000 000 рублей, а сегодня мы полностью выполнили все свои обязательства перед Фондом Содействия Инновациям🤖
Средства, полученные от фонда, позволили купить сервер для машинного обучения, благодаря чему мы выпустили мобильное приложение с несколькими нейронными сетями под капотом
Средства, полученные от фонда, позволили купить сервер для машинного обучения, благодаря чему мы выпустили мобильное приложение с несколькими нейронными сетями под капотом
👍9🔥2🎉2🐳1
Forwarded from MWS AI
Длинные выходные — отличный повод заглянуть на Хабр MTS AI и почитать статьи наших коллег. Ловите небольшую подборку последних материалов, которые нельзя пропустить. 📚
🏆 Как нам удалось собрать команду исследователей меньше чем за год
Прочитайте и узнаете, кто такие исследователи, чем их работа отличается от ML-инженеров, и почему не каждый разработчик может заниматься наукой. 🔬
🎥 Как создать ассистента для поиска по видео
В статье рассматривается подход к созданию общей системы видеоаналитики, которая понимает задачи во время общения с пользователем в чате. 💻
⏱ Как ускорить LLM-генерацию текста в 20 раз на больших наборах данных
Рассказали, как с помощью асинхронных запросов и встроенных особенностей vLLM можно увеличить скорость создания данных. 🚀
Подписывайтесь на наш Хабр, комментируйте и сохраняйте статьи! 👏
👍 - если вы уже читаете MTS AI на этой площадке
🏆 Как нам удалось собрать команду исследователей меньше чем за год
Прочитайте и узнаете, кто такие исследователи, чем их работа отличается от ML-инженеров, и почему не каждый разработчик может заниматься наукой. 🔬
🎥 Как создать ассистента для поиска по видео
В статье рассматривается подход к созданию общей системы видеоаналитики, которая понимает задачи во время общения с пользователем в чате. 💻
⏱ Как ускорить LLM-генерацию текста в 20 раз на больших наборах данных
Рассказали, как с помощью асинхронных запросов и встроенных особенностей vLLM можно увеличить скорость создания данных. 🚀
Подписывайтесь на наш Хабр, комментируйте и сохраняйте статьи! 👏
👍 - если вы уже читаете MTS AI на этой площадке
🔥5❤2
Немного об учебе
Прошел уже примерно год с момента поступления в универ ИТМО, а значит два семестра магистратуры позади
Направление называется «Глубокое обучение и генеративный искусственный интеллект», именно сюда я хотел попасть еще с зимы 4 курса физтеха СОГУ
Не во все предметы успел углубиться, но хочу отметить несколько классных дисциплин прошедшего семестра
Обучение с подкреплением: пришлось покопаться в коде обучения агента. Здесь агент это тележка с установленной вертикально палкой, нам же нужно обучить агента держать баланс
Методы ИИ в обработке естественных языков: по ходу курса мне надо было обучить вопросно- ответную модель, затем сгенерировать синтетические данные и обучить новую модель на этих данных, а затем сравнить некоторые метрики (например BLEU и ROUGE для машинного перевода). В качестве вопросно- ответной модели взял T5, с которой уже работал, а для генерации данных использовал квантизированную в 4 бит модель с 70 миллиардами параметров
Технологии обработки больших данных: не успел полностью погрузиться в курс, понравилась работа с CI/CD (Jenkins), а именно пайплайн сборки и деплоя ML- модели при каждом push/pull request в репозиторий. В целом очень серьезный курс по MLops
Помимо этого нужно отметить умных ребят, которые учатся на том же направлении, профессиональная среда это очень важная штука
Посмотрим как дальше🤖
Прошел уже примерно год с момента поступления в универ ИТМО, а значит два семестра магистратуры позади
Направление называется «Глубокое обучение и генеративный искусственный интеллект», именно сюда я хотел попасть еще с зимы 4 курса физтеха СОГУ
Не во все предметы успел углубиться, но хочу отметить несколько классных дисциплин прошедшего семестра
Обучение с подкреплением: пришлось покопаться в коде обучения агента. Здесь агент это тележка с установленной вертикально палкой, нам же нужно обучить агента держать баланс
Методы ИИ в обработке естественных языков: по ходу курса мне надо было обучить вопросно- ответную модель, затем сгенерировать синтетические данные и обучить новую модель на этих данных, а затем сравнить некоторые метрики (например BLEU и ROUGE для машинного перевода). В качестве вопросно- ответной модели взял T5, с которой уже работал, а для генерации данных использовал квантизированную в 4 бит модель с 70 миллиардами параметров
Технологии обработки больших данных: не успел полностью погрузиться в курс, понравилась работа с CI/CD (Jenkins), а именно пайплайн сборки и деплоя ML- модели при каждом push/pull request в репозиторий. В целом очень серьезный курс по MLops
Помимо этого нужно отметить умных ребят, которые учатся на том же направлении, профессиональная среда это очень важная штука
Посмотрим как дальше🤖
👍8🔥6❤2
Forwarded from Корень из ИТМО
Начинаем понедельник с больших достижений 🤩
Магистерская программа «Глубокое обучение и генеративный искусственный интеллект» получила аккредитацию от Альянса в сфере ИИ. Это уже третья программа ИТМО, которая вошла в реестр Альянса. Экспертная комиссия рекомендовала ее в качестве эталонной — в том числе для реализации на площадках других вузов.
Почему это круто и о чем сама программа — в новости ITMO NEWS 👈
#новости #магистратураИТМО
Магистерская программа «Глубокое обучение и генеративный искусственный интеллект» получила аккредитацию от Альянса в сфере ИИ. Это уже третья программа ИТМО, которая вошла в реестр Альянса. Экспертная комиссия рекомендовала ее в качестве эталонной — в том числе для реализации на площадках других вузов.
Почему это круто и о чем сама программа — в новости ITMO NEWS 👈
#новости #магистратураИТМО
Please open Telegram to view this post
VIEW IN TELEGRAM
🤗5
ChatGPT, Gemini и другие языковые модели круто работают с текстом. Но можем ли мы расширить способности этих моделей? Допустим, сделать так, чтобы при вопросе «какая сейчас погода во Владикавказе?» модель вернула нам не галлюцинации, а реальные данные о погоде. Здесь на помощь приходит function calling-это свежее направление, концепция которого заключаются в том, чтобы дать возможность LLM влиять на внешний мир (узнавать погоду, отправлять письмо, давать команду роботу)
Недавно я проводил исследование по этой теме для МТС ИИ и решил перенести это в статью на Хабр. Подробнее можно почитать здесь:
https://habr.com/ru/companies/mts_ai/articles/831220/
Ссылка на гит с кодом для отправки почты с помощью LLM-агента:
https://github.com/mts-ai/function-calling
Недавно я проводил исследование по этой теме для МТС ИИ и решил перенести это в статью на Хабр. Подробнее можно почитать здесь:
https://habr.com/ru/companies/mts_ai/articles/831220/
Ссылка на гит с кодом для отправки почты с помощью LLM-агента:
https://github.com/mts-ai/function-calling
🤗3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Когда ушел в отпуск (sorry for my English🤓)
Что происходит на видео: я говорю языковой модели что нужно сделать, а она вызывает соответствующую функцию для робота)
Подробнее:
До этого обучил языковую модель Phi-3, чтобы она научилась вызывать подходящие к запросу пользователя функции(подробнее в предыдущем посте) и подключил все это к своему старому роботу
Теперь можно передать языковой модели произвольный запрос, и он поймет какое из доступных действий для робота ей вызывать, на данном видео я показываю как модель вызывает несколько действий подряд (о чем я ее и попросил)
В общем, сделал так, чтобы LLM-агент управлял роботом
Что происходит на видео: я говорю языковой модели что нужно сделать, а она вызывает соответствующую функцию для робота)
Подробнее:
До этого обучил языковую модель Phi-3, чтобы она научилась вызывать подходящие к запросу пользователя функции(подробнее в предыдущем посте) и подключил все это к своему старому роботу
Теперь можно передать языковой модели произвольный запрос, и он поймет какое из доступных действий для робота ей вызывать, на данном видео я показываю как модель вызывает несколько действий подряд (о чем я ее и попросил)
В общем, сделал так, чтобы LLM-агент управлял роботом
🔥5👍3
Forwarded from MWS AI
🚀 Представьте, что вам нужно узнать погоду с помощью LLM. Если это задача кажется сложной, наша новая статья на Хабре для вас…
🤔 Что такое вызов функций? Это концепция, позволяющая LLM обращаться к внешним инструментам для решения задач, которые она не может выполнить самостоятельно.
🌟 Почему это эффективно? Применение вызова функций позволяет разработчикам создавать AI-приложения с минимальными временными затратами. Например, можно интегрировать сложные операции без необходимости переписывать код с нуля.
🤝 В статье рассмотрели эксперимент с вызовом функций на модели от Google и несколькими решениями с открытым исходным кодом. Узнайте, к каким результатам мы пришли!
🤔 Что такое вызов функций? Это концепция, позволяющая LLM обращаться к внешним инструментам для решения задач, которые она не может выполнить самостоятельно.
🌟 Почему это эффективно? Применение вызова функций позволяет разработчикам создавать AI-приложения с минимальными временными затратами. Например, можно интегрировать сложные операции без необходимости переписывать код с нуля.
🤝 В статье рассмотрели эксперимент с вызовом функций на модели от Google и несколькими решениями с открытым исходным кодом. Узнайте, к каким результатам мы пришли!
🔥3❤2
Нашей LLM Cotype Pro удалось обогнать удалось обогнать GPT-4 на большом контексте. Как мы это сделали?
Коротко: Предложил использовать метод RoPE, который позволил нам расширить окно контекста модели Cotype Pro до 16k, затем мы произвели автоматическую и ручную оценку на нашем длинном бенчмарке
Подробнее об этом и других методах можно почитать в интересной статье моей коллеги:
https://habr.com/ru/companies/mts_ai/articles/834786/
Коротко: Предложил использовать метод RoPE, который позволил нам расширить окно контекста модели Cotype Pro до 16k, затем мы произвели автоматическую и ручную оценку на нашем длинном бенчмарке
Подробнее об этом и других методах можно почитать в интересной статье моей коллеги:
https://habr.com/ru/companies/mts_ai/articles/834786/
🔥5❤3👍1
Forwarded from MWS AI
💡 Современные языковые модели (LLM) значительно расширили свои возможности, но по-прежнему сталкиваются с проблемами, такими как потеря контекста, галлюцинации и искажения данных.
💪 Эти сложности особенно выражены при работе с длинными текстами. Для успешного решения задач крайне важно правильно оценивать LLM и учитывать вычислительные затраты.
🚀 В новой статье мы делимся опытом применения моделей Cotype Plus от MTS AI, способных обрабатывать тексты объемом до 16 000 и 32 000 токенов. Наша команда использовала продвинутые методы обучения, чтобы модели лучше понимали длинные тексты, а также разработала собственный способ оценки их качества и новый метод анализа ответов.
🎯 В результате нам удалось достичь результатов на уровне GPT-4 при обработке длинных текстов и значительно повысить эффективность работы без чрезмерных затрат ресурсов.
Как именно? Читайте на Хабре
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Forwarded from MWS AI
Ура! Мы обновили LLM Cotype Pro!
Теперь большую языковую модель можно запустить на одной видеокарте NVIDIA A100. Она обрабатывает длинные тексты — до 20 страниц, тратя на это в 4 раза меньше ресурсов.
В чем отличие от других моделей: Cotype Light и Cotype Plus? Рассказали на карточках.
Теперь большую языковую модель можно запустить на одной видеокарте NVIDIA A100. Она обрабатывает длинные тексты — до 20 страниц, тратя на это в 4 раза меньше ресурсов.
В чем отличие от других моделей: Cotype Light и Cotype Plus? Рассказали на карточках.
🔥3👍2
Forwarded from MWS AI
Новости с Kazan Digital Week 2024 продолжаются 🔥
🏆 Вчера состоялась церемония награждения премии «ИТ Лидер». MTS AI стала победителем в номинации «ИТ-Лидер в искусственном интеллекте» за разработку языковой модели Cotype.
🥳 Поздравляем команду и желаем успехов в комментариях ⤵️
Подробнее о Cotype:
💻 Cotype разработана для работы с корпоративными данными. Она обучена на большом объеме деловой переписки, должностных инструкций и документации, что обеспечивает высокую экспертизу в области применения ИИ в бизнес-процессах. Входит в топ-3 русскоязычных языковых моделей, по данным бенчмарка MERA.
💬 Генеральный директор MTS AI Андрей Калинин отметил, что Cotype является первым продуктом, готовым к внедрению как самостоятельное решение, так и в качестве дополнения к продуктам синтеза и распознавания речи и аналитики коммуникаций.
👾 Решение актуально для маркетинга, продаж, HR, делопроизводства и других отделов компании, где проводится работа с текстовыми и неструктурированными данными.
📰 Также компания недавно выпустила обновлённую версию Cotype Pro и представила модель на татарском языке.
🏆 Вчера состоялась церемония награждения премии «ИТ Лидер». MTS AI стала победителем в номинации «ИТ-Лидер в искусственном интеллекте» за разработку языковой модели Cotype.
🥳 Поздравляем команду и желаем успехов в комментариях ⤵️
Подробнее о Cotype:
💻 Cotype разработана для работы с корпоративными данными. Она обучена на большом объеме деловой переписки, должностных инструкций и документации, что обеспечивает высокую экспертизу в области применения ИИ в бизнес-процессах. Входит в топ-3 русскоязычных языковых моделей, по данным бенчмарка MERA.
💬 Генеральный директор MTS AI Андрей Калинин отметил, что Cotype является первым продуктом, готовым к внедрению как самостоятельное решение, так и в качестве дополнения к продуктам синтеза и распознавания речи и аналитики коммуникаций.
👾 Решение актуально для маркетинга, продаж, HR, делопроизводства и других отделов компании, где проводится работа с текстовыми и неструктурированными данными.
📰 Также компания недавно выпустила обновлённую версию Cotype Pro и представила модель на татарском языке.
❤2🔥1
Зимой приложил руку к тому, чтобы защитить наш диалоговый ИИ от злоумышленников в случае утечки «мозгов» модели
Это делается с помощью такой несложной штуки как фингерпринтинг, мы учим языковую модель отвечать на ряд секретных вопросов на редких языках, с помощью которых можно подтвердить интеллектуальную собственность
Метод уже вышел в продакшн, это означает что LLM поставляется в компании уже со знанием секретных вопросов/ответов
Тут вышла новость про об этом:
https://rb.ru/opinion/kak-razrabotchiki-zashishayut-svoi-yazykovye-modeli-ot-krazhi/
Это делается с помощью такой несложной штуки как фингерпринтинг, мы учим языковую модель отвечать на ряд секретных вопросов на редких языках, с помощью которых можно подтвердить интеллектуальную собственность
Метод уже вышел в продакшн, это означает что LLM поставляется в компании уже со знанием секретных вопросов/ответов
Тут вышла новость про об этом:
https://rb.ru/opinion/kak-razrabotchiki-zashishayut-svoi-yazykovye-modeli-ot-krazhi/
rb.ru
Прячем, шифруем и маркируем: как разработчики защищают свои языковые модели от кражи | RB.RU
О том, как защитить интеллектуальную собственность, рассказал Сергей Пономаренко, старший менеджер LLM-продуктов MTS AI. Как только в компании появились свои большие языковые модели Kodify и Cotype, разработчики задумались о том, как защитить свою интеллектуальную…
❤5🔥2
Термин AGI стал очень шумным и многозначным; Летом в OpenAI ввели взамен систему из 5 уровней. Ранее Bloomberg писал, что якобы на июльской презентации модели прототипа o1 было заявлено о переходе с первого уровня (чатботы) на второй (reasoners, сущности, способные к рассуждениям). Но это были только слухи, и вот теперь Altman на камеру это подтвердил — они считают, что о1 достигла второго уровня в их шкале
Взято отсюда
Forwarded from MWS AI
🔓 Открываем код: Cotype Nano
Представляем Cotype Nano – открытую большую языковую модель, которая создана для решения бизнес-задач на русском языке. Модель работает локально на персональных устройствах и отлично подходит для разработки чат-ботов и виртуальных помощников.
Что умеет:
🔴 Обрабатывать большие объемы данных — до 32,000 токенов (около 45 страниц текста) за раз
🔴 Создавать контент и выполнять быстрый и точный перевод между русским и английским языками
🔴 Анализировать и классифицировать данные для улучшения клиентского сервиса
➡ Как устроена:
Модель основана на архитектуре трансформера Qwen 2.5, содержит 1,5 млрд параметров и совместима с популярными фреймворками: VLLM, OpenVINO и Hugging Face.
➡ По бенчмаркам Ru Arena Hard Cotype Nano лидирует в своем классе (30.2). Доступна бесплатно, в том числе для коммерческого использования.
➡ Узнать больше и скачать модель можно тут.
💻 Подробные технические характеристики — на Хабре.
Представляем Cotype Nano – открытую большую языковую модель, которая создана для решения бизнес-задач на русском языке. Модель работает локально на персональных устройствах и отлично подходит для разработки чат-ботов и виртуальных помощников.
Что умеет:
Модель основана на архитектуре трансформера Qwen 2.5, содержит 1,5 млрд параметров и совместима с популярными фреймворками: VLLM, OpenVINO и Hugging Face.
💻 Подробные технические характеристики — на Хабре.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🔥1
Forwarded from Vikhr models
Мы в Вихрях часто делаем модели в стол или оставляем их на время полежать. Собственно в этот раз ребята из MTSa опередили нас с релизом на несколько дней.
Выложили vikhr-qwen2.5-1.5b.
Для обучения использовали GrandMaster.
По арене чуть чуть хуже чем Cotype&
model
Выложили vikhr-qwen2.5-1.5b.
Для обучения использовали GrandMaster.
По арене чуть чуть хуже чем Cotype&
model
🔥3
К чему это я, мы тут выпустили маленький ИИ Cotype-Nano, к которому я приложил руку, и его квантизированные версии, на данный момент (26.11.2024) это лучшая языковая модель в своем классе по замерам на ру арене
❤6