Alan robotics
🤫
Мы уделили особое внимание безопасности ИИ, чтобы она не отвечала на неэтичные и провокационные вопросы. Именно эту версию мы выпустили в открытый доступ. На картинке результаты оценки небезопасной версии, которая сильнее чем безопасная (она все равно остается жить в подвале)
Пример запроса к нашей новой модели (запущено на ноуте):
Напиши топ-3 компонента робота
Топ-3 компонента робота могут варьироваться в зависимости от типа и назначения робота. Однако, я предложу общий список, который может быть применим к различным видам роботов:
Центральный процессор (ЦПУ) - Это "мозг" робота, который выполняет все вычисления и управляет всеми его функциями.
Сенсоры - Сенсоры позволяют роботу взаимодействовать с окружающей средой, обрабатывать информацию и принимать решения на основе полученных данных.
Моторы и приводы - Эти компоненты обеспечивают движение робота, их мощность и скорость зависят от конкретных задач, которые он выполняет.
Этот список является упрощенным и может не полностью охватывать все аспекты конструкции современного робота.
👍2
Пример с генерацией кода:
Запрос:
Напиши сервер на fastapi, который по запросу поворачивает сервопривод RPi
Ответ Cotype-Nano:
Создание сервера на FastAPI для управления сервоприводом Raspberry Pi (RPi) требует понимания как работы FastAPI, так и работы с GPIO пинами RPi. FastAPI — это современный, высокопроизводительный фреймворк для создания API с использованием Python, а GPIO пины — это интерфейс для управления аппаратными устройствами, такими как сервоприводы.
Прежде чем начать, убедитесь, что у вас установлены все необходимые пакеты и что у вас есть доступ к Raspberry Pi и необходимые драйверы для GPIO пинов.
### Шаг 1: Установка FastAPI и необходимых пакетов
### Шаг 2: Создание основного файла сервера
Создайте файл
### Шаг 3: Запуск сервера
Запустите сервер с помощью команды:
### Шаг 4: Тестирование сервера
Откройте браузер и перейдите по адресу
Для вызова API, отправьте POST запрос на
После отправки запроса вы должны увидеть ответ сервера, который сообщает о том, что положение сервопривода было установлено.
Запрос:
Напиши сервер на fastapi, который по запросу поворачивает сервопривод RPi
Ответ Cotype-Nano:
Создание сервера на FastAPI для управления сервоприводом Raspberry Pi (RPi) требует понимания как работы FastAPI, так и работы с GPIO пинами RPi. FastAPI — это современный, высокопроизводительный фреймворк для создания API с использованием Python, а GPIO пины — это интерфейс для управления аппаратными устройствами, такими как сервоприводы.
Прежде чем начать, убедитесь, что у вас установлены все необходимые пакеты и что у вас есть доступ к Raspberry Pi и необходимые драйверы для GPIO пинов.
### Шаг 1: Установка FastAPI и необходимых пакетов
pip install fastapi uvicorn
### Шаг 2: Создание основного файла сервера
Создайте файл
main.py с следующим содержимым:from fastapi import FastAPI
from pydantic import BaseModel
import RPi.GPIO as GPIO
app = FastAPI()
# Настройка GPIO
GPIO.setmode(GPIO.BOARD)
servo_pin = 11 # Пример пина для сервопривода
GPIO.setup(servo_pin, GPIO.OUT)
pwm = GPIO.PWM(servo_pin, 50) # 50 Hz
pwm.start(0)
class ServoPosition(BaseModel):
position: int
@app.post("/set_servo_position")
async def set_servo_position(position: ServoPosition):
duty_cycle = position.position * 1.5 # Примерное значение для 180 градусов
pwm.ChangeDutyCycle(duty_cycle)
return {"message": "Servo position set to " + str(position.position)}
if __name__ == "__main__":
import uvicorn
uvicorn.run(app, host="0.0.0.0", port=8000)
### Шаг 3: Запуск сервера
Запустите сервер с помощью команды:
uvicorn main:app --reload
### Шаг 4: Тестирование сервера
Откройте браузер и перейдите по адресу
http://127.0.0.1:8000/docs. Вы должны увидеть документацию FastAPI, которую можно использовать для вызова API.Для вызова API, отправьте POST запрос на
/set_servo_position с параметром position, который указывает на желаемое положение сервопривода. Например:POST /set_servo_position HTTP/1.1
Host: localhost
Content-Type: application/json
{
"position": 90
}
После отправки запроса вы должны увидеть ответ сервера, который сообщает о том, что положение сервопривода было установлено.
🔥1
Forwarded from MWS AI
Media is too big
VIEW IN TELEGRAM
На прошлой неделе мы представили Cotype Nano — модель, которая отлично справляется с анализом данных, созданием контента, переводами и поиском в больших объемах информации. Вот несколько запросов, на которых можно потренироваться👇
Напиши сервер на фастапи с эндпоинтом 'test’.
Напиши эссе о важности чтения книг.
Как улучшить производительность команд в рабочей среде?
👉 Доступ к Cotype Nano
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3🔥1
Forwarded from Раньше всех. Ну почти.
MTS AI завершила тестирование новой большой языковой модели (LLM) из семейства Cotype, созданной для использования в закрытом корпоративном контуре, она выйдет на рынок в первом квартале 2025 года.
Председатель совета директоров МТС Вячеслав Николаев в ходе выступления на Дне инвестора рассказал, что МТС в работе с ИИ фокусируется на развитии уже существующих наработок с большими языковыми моделями – компания успешно развивает собственную языковую модель Cotype. Согласно данным бенчмарка MERA, она занимает вторую строчку в рейтинге русскоязычных языковых моделей.
Председатель совета директоров МТС Вячеслав Николаев в ходе выступления на Дне инвестора рассказал, что МТС в работе с ИИ фокусируется на развитии уже существующих наработок с большими языковыми моделями – компания успешно развивает собственную языковую модель Cotype. Согласно данным бенчмарка MERA, она занимает вторую строчку в рейтинге русскоязычных языковых моделей.
🔥3
Forwarded from LLM Arena
🔥 Сразу 5 новых вызовов для лидеров рейтинга: DeepSeek V3, Cotype-Nano, MiniMax-01, T-Lite и T-Pro
Друзья, у нас отличные новости! Мы добавили на LLM Arena ещё пять моделей:
⏺️ DeepSeek V3 — с акцентом на глубокий и точный анализ;
⏺️ Cotype-Nano от МТС — компактная и мощная модель от отечественных разработчиков;
⏺️ MiniMax-01 от Hailuo AI — азиатский игрок с тонкой настройкой;
⏺️ T-Lite и T-Pro от Т-банка — лёгкая адаптивная и мощная производительная модели для бизнеса.
Мы продолжаем добавлять новые модели на арену — вы можете затестить их уже сейчас:
1. Заходите на сайт llmarena.ru или в наш mini-app прямо в Telegram.
2. Оценивайте модели, голосуйте за лучшие ответы.
3. Делитесь в чате своими инсайтами.
💬 P.S. Как думаете, кто из новичков выстрелит?
Друзья, у нас отличные новости! Мы добавили на LLM Arena ещё пять моделей:
Мы продолжаем добавлять новые модели на арену — вы можете затестить их уже сейчас:
1. Заходите на сайт llmarena.ru или в наш mini-app прямо в Telegram.
2. Оценивайте модели, голосуйте за лучшие ответы.
3. Делитесь в чате своими инсайтами.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Forwarded from NoML Digest
Мероприятия NoML в феврале
План семинаров на ближайший месяц, все доклады по средам в 17:00 МСК, сохраняйте релевантные темы в свои календари:
▫️ 05.02 | Дмитрий Васильков (QuSolve), Интерпретируемый ИИ: рынок, теория и практическая реализация с применением MaxSAT-солвера OptJet;
▫️ 12.02 | Егор Дудырев (НИУ ВШЭ, Университета Лотарингии), Кластеризация на правилах или как найти кластеризации, которые легко объяснить;
▫️ 19.02 | Алан-Барсаг Газзаев (MTS AI, ИТМО), Обучение языковой модели Cotype Nano;
▫️ 26.02 | Ярослав Шмулев (R77 AI), Рекомендательная система для завода по оптимизации процесса производства стали;
Следите за обновлениями в наших канале @noml_digest и чате @noml_community, там же публикуются детали предстоящих докладов и ссылки для подключения.
План семинаров на ближайший месяц, все доклады по средам в 17:00 МСК, сохраняйте релевантные темы в свои календари:
▫️ 05.02 | Дмитрий Васильков (QuSolve), Интерпретируемый ИИ: рынок, теория и практическая реализация с применением MaxSAT-солвера OptJet;
▫️ 12.02 | Егор Дудырев (НИУ ВШЭ, Университета Лотарингии), Кластеризация на правилах или как найти кластеризации, которые легко объяснить;
▫️ 19.02 | Алан-Барсаг Газзаев (MTS AI, ИТМО), Обучение языковой модели Cotype Nano;
▫️ 26.02 | Ярослав Шмулев (R77 AI), Рекомендательная система для завода по оптимизации процесса производства стали;
Следите за обновлениями в наших канале @noml_digest и чате @noml_community, там же публикуются детали предстоящих докладов и ссылки для подключения.
👍1
Языковые модели развиваются стремительным образом, но для обучения и инференса требуется много ресурсов. При этом современные модели размером от 0.5B параметров превосходят в производительности старые LLM размером в 7 и 14 миллиардов параметров. Поэтому один из важных трендов в NLP – уменьшение размеров языковых моделей.
На встрече Алан-Барсаг Газзаев, разработчик-исследователь в MTS AI и студент второго курса магистратуры «Глубокое обучение и генеративный искусственный интеллект», расскажет, как они с командой обучили модель Cotype Nano, которая несколько месяцев была лидером в своей весовой категории. А также как проходил процесс обучения и квантизации этой модели.
⏰ Когда: 19 февраля (среда), 17:00 МСК
🔗 Где: Google Meet. Подключение→
❗️ Уровень сложности: начинающий/средний, для понимания доклада будет достаточно базовых знаний по NLP
Добавляйте мероприятие в свои календари и до встречи!
На встрече Алан-Барсаг Газзаев, разработчик-исследователь в MTS AI и студент второго курса магистратуры «Глубокое обучение и генеративный искусственный интеллект», расскажет, как они с командой обучили модель Cotype Nano, которая несколько месяцев была лидером в своей весовой категории. А также как проходил процесс обучения и квантизации этой модели.
❗️ Уровень сложности: начинающий/средний, для понимания доклада будет достаточно базовых знаний по NLP
Добавляйте мероприятие в свои календари и до встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Ян Лекун (легенда в области ML) считает, что невозможно достичь человеческого уровня интеллекта с помощью скейлинга языковых моделей (думаю, здесь имеется в виду увеличение размера текущих архитектур, количества и качества данных)
По мнению Лекуна, при общении с LLM нам может показаться, что мы общаемся с PhD, хотя на самом деле это просто система с гигантской памятью и хорошей способностью к сбору/резюмированию информации, которая не способна порождать решения для новых проблем
Видео взято у @dslab
По мнению Лекуна, при общении с LLM нам может показаться, что мы общаемся с PhD, хотя на самом деле это просто система с гигантской памятью и хорошей способностью к сбору/резюмированию информации, которая не способна порождать решения для новых проблем
Видео взято у @dslab
🔥7❤1🤗1
Наша команда выпустила Cotype Pro 2!
А вместе с этим статью про методологию оценки языковых моделей
Приложил руку к мультиагентной системе оценки языковых моделей, и предложил два метода на основе статьи Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate. Суть заключается в том, что несколько агентов "думают" над вынесением финального вердикта при оценке текста, который сгенеровала модель. Таким образом мы смогли улучшить корреляцию с человеческой оценкой:
Ссылка на статью: https://habr.com/ru/companies/mts_ai/articles/892176/
Пресс-релиз в форбс: https://www.forbes.ru/tekhnologii/533813-agenty-vystraivautsa-v-linejku-mts-vypustit-na-rynok-korporativnyh-ii-pomosnikov
А вместе с этим статью про методологию оценки языковых моделей
Приложил руку к мультиагентной системе оценки языковых моделей, и предложил два метода на основе статьи Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate. Суть заключается в том, что несколько агентов "думают" над вынесением финального вердикта при оценке текста, который сгенеровала модель. Таким образом мы смогли улучшить корреляцию с человеческой оценкой:
Мы также попробовали использовать многоагентные системы для вынесения вердиктов:
Soft метод, в которой один агент выражает мнение, а второй соглашается или не соглашается с ним, после чего финальное решение принимает судья.
Hard метод, где второй агент всегда контраргументирует первому, и итоговый вердикт основывается на противоречивых оценках.
Анализируя мультиагентный подход, мы увидели что hard метод показывает слабую корреляцию с человеческой разметкой, так как другие агенты могут запутать итоговый вердикт. Однако soft метод улучшает корреляцию с экспертными оценками, поскольку второй агент зачастую дополняет логику первого, а агент-судья переоценивает все на основе предыдущих рассуждений. Такие многоагентные дебаты развивают концепцию CoT и могут улучшить качество модели-судьи.
Ссылка на статью: https://habr.com/ru/companies/mts_ai/articles/892176/
Пресс-релиз в форбс: https://www.forbes.ru/tekhnologii/533813-agenty-vystraivautsa-v-linejku-mts-vypustit-na-rynok-korporativnyh-ii-pomosnikov
arXiv.org
Encouraging Divergent Thinking in Large Language Models through...
Modern large language models (LLMs) like ChatGPT have shown remarkable performance on general language tasks but still struggle on complex reasoning tasks, which drives the research on cognitive...
🔥7❤3👍3
Master of Science in AI
Сегодня получил степень магистра в области ИИ в университете ITMO, защитив дипломную по теме рассуждающих языковых моделей🤖
Я начал полноценно заниматься машинным обучением летом перед четвертым курсом бакалавриата в области физики, так что получение академической степени в ИИ это очень важный этап для меня
Посмотрим как дальше
Сегодня получил степень магистра в области ИИ в университете ITMO, защитив дипломную по теме рассуждающих языковых моделей🤖
Я начал полноценно заниматься машинным обучением летом перед четвертым курсом бакалавриата в области физики, так что получение академической степени в ИИ это очень важный этап для меня
Посмотрим как дальше
❤11🔥4
Forwarded from MWS AI
Модель Cotype Nano стала победителем национальной премии в области информационных технологий «Приоритет: Цифра — 2025». Ещё в ноябре мы открыли её для бизнеса и уже успешно протестировали на реальных задачах.
Здесь подробно рассказали, как создавали и запускали Cotype Nano.
Среди номинантов Премии в этом году были Сбер, ВТБ, Альфа Банк, Норникель, Департамент информационных технологий города Москвы.
Принимаем поздравления
#MWSAI_новости
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5
Forwarded from Учёные Осетии
Языковая модель Cotype Nano стала победителем национальной премии в области информационных технологий «Приоритет: Цифра – 2025»
В ноябре MWS AI (дочерняя компания МТС) открыла её для бизнеса и уже успешно протестировала на реальных задачах. Подробности создания и запуска Cotype Nano можно глянуть по ссылке.
Одним из создателей модели является Алан Газзаев, разработчик-исследователь MWS AI, выпускник бакалавриата физико-технического факультета СОГУ по направлению «Физика» и магистратуры ИТМО по направлению «Глубокое обучение и генеративный искусственный интеллект».
В 2022 году его проект нейросетевого голосового ассистента для бизнеса победил в конкурсе Фонда содействия инновациям «Студенческий стартап». Сопровождением проекта занимался стартап-акселератор AxelRose, ныне замороженный и ждущий своего часа. Вот так продвигаются выпускники Акселя 😁
Поздравляем Алана и желаем ему дальнейших успехов!
Фото: пресс-службы АМС г. Владикавказ и MWS AI
Подписывайтесь на «Учёных Осетии»
В ноябре MWS AI (дочерняя компания МТС) открыла её для бизнеса и уже успешно протестировала на реальных задачах. Подробности создания и запуска Cotype Nano можно глянуть по ссылке.
Одним из создателей модели является Алан Газзаев, разработчик-исследователь MWS AI, выпускник бакалавриата физико-технического факультета СОГУ по направлению «Физика» и магистратуры ИТМО по направлению «Глубокое обучение и генеративный искусственный интеллект».
В 2022 году его проект нейросетевого голосового ассистента для бизнеса победил в конкурсе Фонда содействия инновациям «Студенческий стартап». Сопровождением проекта занимался стартап-акселератор AxelRose, ныне замороженный и ждущий своего часа. Вот так продвигаются выпускники Акселя 😁
Поздравляем Алана и желаем ему дальнейших успехов!
Фото: пресс-службы АМС г. Владикавказ и MWS AI
Подписывайтесь на «Учёных Осетии»
🔥4