Forwarded from MWS AI
Новости с Kazan Digital Week 2024 продолжаются 🔥
🏆 Вчера состоялась церемония награждения премии «ИТ Лидер». MTS AI стала победителем в номинации «ИТ-Лидер в искусственном интеллекте» за разработку языковой модели Cotype.
🥳 Поздравляем команду и желаем успехов в комментариях ⤵️
Подробнее о Cotype:
💻 Cotype разработана для работы с корпоративными данными. Она обучена на большом объеме деловой переписки, должностных инструкций и документации, что обеспечивает высокую экспертизу в области применения ИИ в бизнес-процессах. Входит в топ-3 русскоязычных языковых моделей, по данным бенчмарка MERA.
💬 Генеральный директор MTS AI Андрей Калинин отметил, что Cotype является первым продуктом, готовым к внедрению как самостоятельное решение, так и в качестве дополнения к продуктам синтеза и распознавания речи и аналитики коммуникаций.
👾 Решение актуально для маркетинга, продаж, HR, делопроизводства и других отделов компании, где проводится работа с текстовыми и неструктурированными данными.
📰 Также компания недавно выпустила обновлённую версию Cotype Pro и представила модель на татарском языке.
🏆 Вчера состоялась церемония награждения премии «ИТ Лидер». MTS AI стала победителем в номинации «ИТ-Лидер в искусственном интеллекте» за разработку языковой модели Cotype.
🥳 Поздравляем команду и желаем успехов в комментариях ⤵️
Подробнее о Cotype:
💻 Cotype разработана для работы с корпоративными данными. Она обучена на большом объеме деловой переписки, должностных инструкций и документации, что обеспечивает высокую экспертизу в области применения ИИ в бизнес-процессах. Входит в топ-3 русскоязычных языковых моделей, по данным бенчмарка MERA.
💬 Генеральный директор MTS AI Андрей Калинин отметил, что Cotype является первым продуктом, готовым к внедрению как самостоятельное решение, так и в качестве дополнения к продуктам синтеза и распознавания речи и аналитики коммуникаций.
👾 Решение актуально для маркетинга, продаж, HR, делопроизводства и других отделов компании, где проводится работа с текстовыми и неструктурированными данными.
📰 Также компания недавно выпустила обновлённую версию Cotype Pro и представила модель на татарском языке.
❤2🔥1
Зимой приложил руку к тому, чтобы защитить наш диалоговый ИИ от злоумышленников в случае утечки «мозгов» модели
Это делается с помощью такой несложной штуки как фингерпринтинг, мы учим языковую модель отвечать на ряд секретных вопросов на редких языках, с помощью которых можно подтвердить интеллектуальную собственность
Метод уже вышел в продакшн, это означает что LLM поставляется в компании уже со знанием секретных вопросов/ответов
Тут вышла новость про об этом:
https://rb.ru/opinion/kak-razrabotchiki-zashishayut-svoi-yazykovye-modeli-ot-krazhi/
Это делается с помощью такой несложной штуки как фингерпринтинг, мы учим языковую модель отвечать на ряд секретных вопросов на редких языках, с помощью которых можно подтвердить интеллектуальную собственность
Метод уже вышел в продакшн, это означает что LLM поставляется в компании уже со знанием секретных вопросов/ответов
Тут вышла новость про об этом:
https://rb.ru/opinion/kak-razrabotchiki-zashishayut-svoi-yazykovye-modeli-ot-krazhi/
rb.ru
Прячем, шифруем и маркируем: как разработчики защищают свои языковые модели от кражи | RB.RU
О том, как защитить интеллектуальную собственность, рассказал Сергей Пономаренко, старший менеджер LLM-продуктов MTS AI. Как только в компании появились свои большие языковые модели Kodify и Cotype, разработчики задумались о том, как защитить свою интеллектуальную…
❤5🔥2
Термин AGI стал очень шумным и многозначным; Летом в OpenAI ввели взамен систему из 5 уровней. Ранее Bloomberg писал, что якобы на июльской презентации модели прототипа o1 было заявлено о переходе с первого уровня (чатботы) на второй (reasoners, сущности, способные к рассуждениям). Но это были только слухи, и вот теперь Altman на камеру это подтвердил — они считают, что о1 достигла второго уровня в их шкале
Взято отсюда
Forwarded from MWS AI
🔓 Открываем код: Cotype Nano
Представляем Cotype Nano – открытую большую языковую модель, которая создана для решения бизнес-задач на русском языке. Модель работает локально на персональных устройствах и отлично подходит для разработки чат-ботов и виртуальных помощников.
Что умеет:
🔴 Обрабатывать большие объемы данных — до 32,000 токенов (около 45 страниц текста) за раз
🔴 Создавать контент и выполнять быстрый и точный перевод между русским и английским языками
🔴 Анализировать и классифицировать данные для улучшения клиентского сервиса
➡ Как устроена:
Модель основана на архитектуре трансформера Qwen 2.5, содержит 1,5 млрд параметров и совместима с популярными фреймворками: VLLM, OpenVINO и Hugging Face.
➡ По бенчмаркам Ru Arena Hard Cotype Nano лидирует в своем классе (30.2). Доступна бесплатно, в том числе для коммерческого использования.
➡ Узнать больше и скачать модель можно тут.
💻 Подробные технические характеристики — на Хабре.
Представляем Cotype Nano – открытую большую языковую модель, которая создана для решения бизнес-задач на русском языке. Модель работает локально на персональных устройствах и отлично подходит для разработки чат-ботов и виртуальных помощников.
Что умеет:
Модель основана на архитектуре трансформера Qwen 2.5, содержит 1,5 млрд параметров и совместима с популярными фреймворками: VLLM, OpenVINO и Hugging Face.
💻 Подробные технические характеристики — на Хабре.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🔥1
Forwarded from Vikhr models
Мы в Вихрях часто делаем модели в стол или оставляем их на время полежать. Собственно в этот раз ребята из MTSa опередили нас с релизом на несколько дней.
Выложили vikhr-qwen2.5-1.5b.
Для обучения использовали GrandMaster.
По арене чуть чуть хуже чем Cotype&
model
Выложили vikhr-qwen2.5-1.5b.
Для обучения использовали GrandMaster.
По арене чуть чуть хуже чем Cotype&
model
🔥3
К чему это я, мы тут выпустили маленький ИИ Cotype-Nano, к которому я приложил руку, и его квантизированные версии, на данный момент (26.11.2024) это лучшая языковая модель в своем классе по замерам на ру арене
❤6
Указал дату, потому что сфера ИИ растет и меняется очень быстрыми темпами🤖
❤4🤗2
Alan robotics
🤫
Мы уделили особое внимание безопасности ИИ, чтобы она не отвечала на неэтичные и провокационные вопросы. Именно эту версию мы выпустили в открытый доступ. На картинке результаты оценки небезопасной версии, которая сильнее чем безопасная (она все равно остается жить в подвале)
Пример запроса к нашей новой модели (запущено на ноуте):
Напиши топ-3 компонента робота
Топ-3 компонента робота могут варьироваться в зависимости от типа и назначения робота. Однако, я предложу общий список, который может быть применим к различным видам роботов:
Центральный процессор (ЦПУ) - Это "мозг" робота, который выполняет все вычисления и управляет всеми его функциями.
Сенсоры - Сенсоры позволяют роботу взаимодействовать с окружающей средой, обрабатывать информацию и принимать решения на основе полученных данных.
Моторы и приводы - Эти компоненты обеспечивают движение робота, их мощность и скорость зависят от конкретных задач, которые он выполняет.
Этот список является упрощенным и может не полностью охватывать все аспекты конструкции современного робота.
👍2
Пример с генерацией кода:
Запрос:
Напиши сервер на fastapi, который по запросу поворачивает сервопривод RPi
Ответ Cotype-Nano:
Создание сервера на FastAPI для управления сервоприводом Raspberry Pi (RPi) требует понимания как работы FastAPI, так и работы с GPIO пинами RPi. FastAPI — это современный, высокопроизводительный фреймворк для создания API с использованием Python, а GPIO пины — это интерфейс для управления аппаратными устройствами, такими как сервоприводы.
Прежде чем начать, убедитесь, что у вас установлены все необходимые пакеты и что у вас есть доступ к Raspberry Pi и необходимые драйверы для GPIO пинов.
### Шаг 1: Установка FastAPI и необходимых пакетов
### Шаг 2: Создание основного файла сервера
Создайте файл
### Шаг 3: Запуск сервера
Запустите сервер с помощью команды:
### Шаг 4: Тестирование сервера
Откройте браузер и перейдите по адресу
Для вызова API, отправьте POST запрос на
После отправки запроса вы должны увидеть ответ сервера, который сообщает о том, что положение сервопривода было установлено.
Запрос:
Напиши сервер на fastapi, который по запросу поворачивает сервопривод RPi
Ответ Cotype-Nano:
Создание сервера на FastAPI для управления сервоприводом Raspberry Pi (RPi) требует понимания как работы FastAPI, так и работы с GPIO пинами RPi. FastAPI — это современный, высокопроизводительный фреймворк для создания API с использованием Python, а GPIO пины — это интерфейс для управления аппаратными устройствами, такими как сервоприводы.
Прежде чем начать, убедитесь, что у вас установлены все необходимые пакеты и что у вас есть доступ к Raspberry Pi и необходимые драйверы для GPIO пинов.
### Шаг 1: Установка FastAPI и необходимых пакетов
pip install fastapi uvicorn
### Шаг 2: Создание основного файла сервера
Создайте файл
main.py с следующим содержимым:from fastapi import FastAPI
from pydantic import BaseModel
import RPi.GPIO as GPIO
app = FastAPI()
# Настройка GPIO
GPIO.setmode(GPIO.BOARD)
servo_pin = 11 # Пример пина для сервопривода
GPIO.setup(servo_pin, GPIO.OUT)
pwm = GPIO.PWM(servo_pin, 50) # 50 Hz
pwm.start(0)
class ServoPosition(BaseModel):
position: int
@app.post("/set_servo_position")
async def set_servo_position(position: ServoPosition):
duty_cycle = position.position * 1.5 # Примерное значение для 180 градусов
pwm.ChangeDutyCycle(duty_cycle)
return {"message": "Servo position set to " + str(position.position)}
if __name__ == "__main__":
import uvicorn
uvicorn.run(app, host="0.0.0.0", port=8000)
### Шаг 3: Запуск сервера
Запустите сервер с помощью команды:
uvicorn main:app --reload
### Шаг 4: Тестирование сервера
Откройте браузер и перейдите по адресу
http://127.0.0.1:8000/docs. Вы должны увидеть документацию FastAPI, которую можно использовать для вызова API.Для вызова API, отправьте POST запрос на
/set_servo_position с параметром position, который указывает на желаемое положение сервопривода. Например:POST /set_servo_position HTTP/1.1
Host: localhost
Content-Type: application/json
{
"position": 90
}
После отправки запроса вы должны увидеть ответ сервера, который сообщает о том, что положение сервопривода было установлено.
🔥1
Forwarded from MWS AI
Media is too big
VIEW IN TELEGRAM
На прошлой неделе мы представили Cotype Nano — модель, которая отлично справляется с анализом данных, созданием контента, переводами и поиском в больших объемах информации. Вот несколько запросов, на которых можно потренироваться👇
Напиши сервер на фастапи с эндпоинтом 'test’.
Напиши эссе о важности чтения книг.
Как улучшить производительность команд в рабочей среде?
👉 Доступ к Cotype Nano
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3🔥1
Forwarded from Раньше всех. Ну почти.
MTS AI завершила тестирование новой большой языковой модели (LLM) из семейства Cotype, созданной для использования в закрытом корпоративном контуре, она выйдет на рынок в первом квартале 2025 года.
Председатель совета директоров МТС Вячеслав Николаев в ходе выступления на Дне инвестора рассказал, что МТС в работе с ИИ фокусируется на развитии уже существующих наработок с большими языковыми моделями – компания успешно развивает собственную языковую модель Cotype. Согласно данным бенчмарка MERA, она занимает вторую строчку в рейтинге русскоязычных языковых моделей.
Председатель совета директоров МТС Вячеслав Николаев в ходе выступления на Дне инвестора рассказал, что МТС в работе с ИИ фокусируется на развитии уже существующих наработок с большими языковыми моделями – компания успешно развивает собственную языковую модель Cotype. Согласно данным бенчмарка MERA, она занимает вторую строчку в рейтинге русскоязычных языковых моделей.
🔥3
Forwarded from LLM Arena
🔥 Сразу 5 новых вызовов для лидеров рейтинга: DeepSeek V3, Cotype-Nano, MiniMax-01, T-Lite и T-Pro
Друзья, у нас отличные новости! Мы добавили на LLM Arena ещё пять моделей:
⏺️ DeepSeek V3 — с акцентом на глубокий и точный анализ;
⏺️ Cotype-Nano от МТС — компактная и мощная модель от отечественных разработчиков;
⏺️ MiniMax-01 от Hailuo AI — азиатский игрок с тонкой настройкой;
⏺️ T-Lite и T-Pro от Т-банка — лёгкая адаптивная и мощная производительная модели для бизнеса.
Мы продолжаем добавлять новые модели на арену — вы можете затестить их уже сейчас:
1. Заходите на сайт llmarena.ru или в наш mini-app прямо в Telegram.
2. Оценивайте модели, голосуйте за лучшие ответы.
3. Делитесь в чате своими инсайтами.
💬 P.S. Как думаете, кто из новичков выстрелит?
Друзья, у нас отличные новости! Мы добавили на LLM Arena ещё пять моделей:
Мы продолжаем добавлять новые модели на арену — вы можете затестить их уже сейчас:
1. Заходите на сайт llmarena.ru или в наш mini-app прямо в Telegram.
2. Оценивайте модели, голосуйте за лучшие ответы.
3. Делитесь в чате своими инсайтами.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Forwarded from NoML Digest
Мероприятия NoML в феврале
План семинаров на ближайший месяц, все доклады по средам в 17:00 МСК, сохраняйте релевантные темы в свои календари:
▫️ 05.02 | Дмитрий Васильков (QuSolve), Интерпретируемый ИИ: рынок, теория и практическая реализация с применением MaxSAT-солвера OptJet;
▫️ 12.02 | Егор Дудырев (НИУ ВШЭ, Университета Лотарингии), Кластеризация на правилах или как найти кластеризации, которые легко объяснить;
▫️ 19.02 | Алан-Барсаг Газзаев (MTS AI, ИТМО), Обучение языковой модели Cotype Nano;
▫️ 26.02 | Ярослав Шмулев (R77 AI), Рекомендательная система для завода по оптимизации процесса производства стали;
Следите за обновлениями в наших канале @noml_digest и чате @noml_community, там же публикуются детали предстоящих докладов и ссылки для подключения.
План семинаров на ближайший месяц, все доклады по средам в 17:00 МСК, сохраняйте релевантные темы в свои календари:
▫️ 05.02 | Дмитрий Васильков (QuSolve), Интерпретируемый ИИ: рынок, теория и практическая реализация с применением MaxSAT-солвера OptJet;
▫️ 12.02 | Егор Дудырев (НИУ ВШЭ, Университета Лотарингии), Кластеризация на правилах или как найти кластеризации, которые легко объяснить;
▫️ 19.02 | Алан-Барсаг Газзаев (MTS AI, ИТМО), Обучение языковой модели Cotype Nano;
▫️ 26.02 | Ярослав Шмулев (R77 AI), Рекомендательная система для завода по оптимизации процесса производства стали;
Следите за обновлениями в наших канале @noml_digest и чате @noml_community, там же публикуются детали предстоящих докладов и ссылки для подключения.
👍1
Языковые модели развиваются стремительным образом, но для обучения и инференса требуется много ресурсов. При этом современные модели размером от 0.5B параметров превосходят в производительности старые LLM размером в 7 и 14 миллиардов параметров. Поэтому один из важных трендов в NLP – уменьшение размеров языковых моделей.
На встрече Алан-Барсаг Газзаев, разработчик-исследователь в MTS AI и студент второго курса магистратуры «Глубокое обучение и генеративный искусственный интеллект», расскажет, как они с командой обучили модель Cotype Nano, которая несколько месяцев была лидером в своей весовой категории. А также как проходил процесс обучения и квантизации этой модели.
⏰ Когда: 19 февраля (среда), 17:00 МСК
🔗 Где: Google Meet. Подключение→
❗️ Уровень сложности: начинающий/средний, для понимания доклада будет достаточно базовых знаний по NLP
Добавляйте мероприятие в свои календари и до встречи!
На встрече Алан-Барсаг Газзаев, разработчик-исследователь в MTS AI и студент второго курса магистратуры «Глубокое обучение и генеративный искусственный интеллект», расскажет, как они с командой обучили модель Cotype Nano, которая несколько месяцев была лидером в своей весовой категории. А также как проходил процесс обучения и квантизации этой модели.
❗️ Уровень сложности: начинающий/средний, для понимания доклада будет достаточно базовых знаний по NLP
Добавляйте мероприятие в свои календари и до встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Ян Лекун (легенда в области ML) считает, что невозможно достичь человеческого уровня интеллекта с помощью скейлинга языковых моделей (думаю, здесь имеется в виду увеличение размера текущих архитектур, количества и качества данных)
По мнению Лекуна, при общении с LLM нам может показаться, что мы общаемся с PhD, хотя на самом деле это просто система с гигантской памятью и хорошей способностью к сбору/резюмированию информации, которая не способна порождать решения для новых проблем
Видео взято у @dslab
По мнению Лекуна, при общении с LLM нам может показаться, что мы общаемся с PhD, хотя на самом деле это просто система с гигантской памятью и хорошей способностью к сбору/резюмированию информации, которая не способна порождать решения для новых проблем
Видео взято у @dslab
🔥7❤1🤗1