Alan robotics
158 subscribers
116 photos
50 videos
64 links
AI, robotics
Download Telegram
Зимой приложил руку к тому, чтобы защитить наш диалоговый ИИ от злоумышленников в случае утечки «мозгов» модели

Это делается с помощью такой несложной штуки как фингерпринтинг, мы учим языковую модель отвечать на ряд секретных вопросов на редких языках, с помощью которых можно подтвердить интеллектуальную собственность

Метод уже вышел в продакшн, это означает что LLM поставляется в компании уже со знанием секретных вопросов/ответов

Тут вышла новость про об этом:

https://rb.ru/opinion/kak-razrabotchiki-zashishayut-svoi-yazykovye-modeli-ot-krazhi/
5🔥2
Термин AGI стал очень шумным и многозначным; Летом в OpenAI ввели взамен систему из 5 уровней. Ранее Bloomberg писал, что якобы на июльской презентации модели прототипа o1 было заявлено о переходе с первого уровня (чатботы) на второй (reasoners, сущности, способные к рассуждениям). Но это были только слухи, и вот теперь Altman на камеру это подтвердил — они считают, что о1 достигла второго уровня в их шкале

Взято отсюда
Forwarded from MWS AI
🔓 Открываем код: Cotype Nano

Представляем Cotype Nano – открытую большую языковую модель, которая создана для решения бизнес-задач на русском языке. Модель работает локально на персональных устройствах и отлично подходит для разработки чат-ботов и виртуальных помощников.

Что умеет:
🔴Обрабатывать большие объемы данных — до 32,000 токенов (около 45 страниц текста) за раз
🔴Создавать контент и выполнять быстрый и точный перевод между русским и английским языками
🔴Анализировать и классифицировать данные для улучшения клиентского сервиса

Как устроена:
Модель основана на архитектуре трансформера Qwen 2.5, содержит 1,5 млрд параметров и совместима с популярными фреймворками: VLLM, OpenVINO и Hugging Face.

По бенчмаркам Ru Arena Hard Cotype Nano лидирует в своем классе (30.2). Доступна бесплатно, в том числе для коммерческого использования.

Узнать больше и скачать модель можно тут.

💻 Подробные технические характеристики на Хабре.
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥1
Forwarded from Vikhr models
Мы в Вихрях часто делаем модели в стол или оставляем их на время полежать. Собственно в этот раз ребята из MTSa опередили нас с релизом на несколько дней.

Выложили vikhr-qwen2.5-1.5b.

Для обучения использовали GrandMaster.

По арене чуть чуть хуже чем Cotype&

model
🔥3
К чему это я, мы тут выпустили маленький ИИ Cotype-Nano, к которому я приложил руку, и его квантизированные версии, на данный момент (26.11.2024) это лучшая языковая модель в своем классе по замерам на ру арене
6
Указал дату, потому что сфера ИИ растет и меняется очень быстрыми темпами🤖
4🤗2
🤫
Alan robotics
🤫
Мы уделили особое внимание безопасности ИИ, чтобы она не отвечала на неэтичные и провокационные вопросы. Именно эту версию мы выпустили в открытый доступ. На картинке результаты оценки небезопасной версии, которая сильнее чем безопасная (она все равно остается жить в подвале)
Пример запроса к нашей новой модели (запущено на ноуте):

Напиши топ-3 компонента робота



Топ-3 компонента робота могут варьироваться в зависимости от типа и назначения робота. Однако, я предложу общий список, который может быть применим к различным видам роботов:

Центральный процессор (ЦПУ) - Это "мозг" робота, который выполняет все вычисления и управляет всеми его функциями.
Сенсоры - Сенсоры позволяют роботу взаимодействовать с окружающей средой, обрабатывать информацию и принимать решения на основе полученных данных.
Моторы и приводы - Эти компоненты обеспечивают движение робота, их мощность и скорость зависят от конкретных задач, которые он выполняет.
Этот список является упрощенным и может не полностью охватывать все аспекты конструкции современного робота.
👍2
Пример с генерацией кода:

Запрос:

Напиши сервер на fastapi, который по запросу поворачивает сервопривод RPi

Ответ Cotype-Nano:

Создание сервера на FastAPI для управления сервоприводом Raspberry Pi (RPi) требует понимания как работы FastAPI, так и работы с GPIO пинами RPi. FastAPI — это современный, высокопроизводительный фреймворк для создания API с использованием Python, а GPIO пины — это интерфейс для управления аппаратными устройствами, такими как сервоприводы.

Прежде чем начать, убедитесь, что у вас установлены все необходимые пакеты и что у вас есть доступ к Raspberry Pi и необходимые драйверы для GPIO пинов.

### Шаг 1: Установка FastAPI и необходимых пакетов

pip install fastapi uvicorn


### Шаг 2: Создание основного файла сервера

Создайте файл main.py с следующим содержимым:

from fastapi import FastAPI
from pydantic import BaseModel
import RPi.GPIO as GPIO

app = FastAPI()

# Настройка GPIO
GPIO.setmode(GPIO.BOARD)
servo_pin = 11 # Пример пина для сервопривода
GPIO.setup(servo_pin, GPIO.OUT)

pwm = GPIO.PWM(servo_pin, 50) # 50 Hz
pwm.start(0)

class ServoPosition(BaseModel):
position: int

@app.post("/set_servo_position")
async def set_servo_position(position: ServoPosition):
duty_cycle = position.position * 1.5 # Примерное значение для 180 градусов
pwm.ChangeDutyCycle(duty_cycle)
return {"message": "Servo position set to " + str(position.position)}

if __name__ == "__main__":
import uvicorn
uvicorn.run(app, host="0.0.0.0", port=8000)


### Шаг 3: Запуск сервера

Запустите сервер с помощью команды:

uvicorn main:app --reload


### Шаг 4: Тестирование сервера

Откройте браузер и перейдите по адресу http://127.0.0.1:8000/docs. Вы должны увидеть документацию FastAPI, которую можно использовать для вызова API.

Для вызова API, отправьте POST запрос на /set_servo_position с параметром position, который указывает на желаемое положение сервопривода. Например:

POST /set_servo_position HTTP/1.1
Host: localhost
Content-Type: application/json

{
"position": 90
}


После отправки запроса вы должны увидеть ответ сервера, который сообщает о том, что положение сервопривода было установлено.
🔥1
Заняли первое место в рейтинге трендовых моделей, говорящих на русском языке🤖
👍10🔥4🤗4
Forwarded from MWS AI
Media is too big
VIEW IN TELEGRAM
🤖 Что умеет Cotype Nano: тестируем модель

На прошлой неделе мы представили Cotype Nano — модель, которая отлично справляется с анализом данных, созданием контента, переводами и поиском в больших объемах информации. Вот несколько запросов, на которых можно потренироваться👇

Напиши сервер на фастапи с эндпоинтом 'test’.

Напиши эссе о важности чтения книг.

Как улучшить производительность команд в рабочей среде?


👉 Доступ к Cotype Nano
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥1
Cotype Nano на конференции conversations🤖
👍2🔥21
MTS AI завершила тестирование новой большой языковой модели (LLM) из семейства Cotype, созданной для использования в закрытом корпоративном контуре, она выйдет на рынок в первом квартале 2025 года.

Председатель совета директоров МТС Вячеслав Николаев в ходе выступления на Дне инвестора рассказал, что МТС в работе с ИИ фокусируется на развитии уже существующих наработок с большими языковыми моделями – компания успешно развивает собственную языковую модель Cotype. Согласно данным бенчмарка MERA, она занимает вторую строчку в рейтинге русскоязычных языковых моделей.
🔥3
Forwarded from LLM Arena
🔥 Сразу 5 новых вызовов для лидеров рейтинга: DeepSeek V3, Cotype-Nano, MiniMax-01, T-Lite и T-Pro

Друзья, у нас отличные новости! Мы добавили на LLM Arena ещё пять моделей:

⏺️ DeepSeek V3 — с акцентом на глубокий и точный анализ;
⏺️ Cotype-Nano от МТС — компактная и мощная модель от отечественных разработчиков;
⏺️ MiniMax-01 от Hailuo AI — азиатский игрок с тонкой настройкой;
⏺️ T-Lite и T-Pro от Т-банка — лёгкая адаптивная и мощная производительная модели для бизнеса.

Мы продолжаем добавлять новые модели на арену — вы можете затестить их уже сейчас:

1. Заходите на сайт llmarena.ru или в наш mini-app прямо в Telegram.
2. Оценивайте модели, голосуйте за лучшие ответы.
3. Делитесь в чате своими инсайтами.

💬 P.S. Как думаете, кто из новичков выстрелит?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
19 февраля буду выступать здесь
Forwarded from NoML Digest
Мероприятия NoML в феврале

План семинаров на ближайший месяц, все доклады по средам в 17:00 МСК, сохраняйте релевантные темы в свои календари:

▫️ 05.02 | Дмитрий Васильков (QuSolve), Интерпретируемый ИИ: рынок, теория и практическая реализация с применением MaxSAT-солвера OptJet;

▫️ 12.02 | Егор Дудырев (НИУ ВШЭ, Университета Лотарингии), Кластеризация на правилах или как найти кластеризации, которые легко объяснить;

▫️ 19.02 | Алан-Барсаг Газзаев (MTS AI, ИТМО), Обучение языковой модели Cotype Nano;

▫️ 26.02 | Ярослав Шмулев (R77 AI), Рекомендательная система для завода по оптимизации процесса производства стали;

Следите за обновлениями в наших канале @noml_digest и чате @noml_community, там же публикуются детали предстоящих докладов и ссылки для подключения.
👍1
Языковые модели развиваются стремительным образом, но для обучения и инференса требуется много ресурсов. При этом современные модели размером от 0.5B параметров превосходят в производительности старые LLM размером в 7 и 14 миллиардов параметров. Поэтому один из важных трендов в NLP – уменьшение размеров языковых моделей.

На встрече Алан-Барсаг Газзаев, разработчик-исследователь в MTS AI и студент второго курса магистратуры «Глубокое обучение и генеративный искусственный интеллект», расскажет, как они с командой обучили модель Cotype Nano, которая несколько месяцев была лидером в своей весовой категории. А также как проходил процесс обучения и квантизации этой модели.

Когда: 19 февраля (среда), 17:00 МСК
🔗 Где: Google Meet. Подключение→
❗️ Уровень сложности: начинающий/средний, для понимания доклада будет достаточно базовых знаний по NLP

Добавляйте мероприятие в свои календари и до встречи!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Ян Лекун (легенда в области ML) считает, что невозможно достичь человеческого уровня интеллекта с помощью скейлинга языковых моделей (думаю, здесь имеется в виду увеличение размера текущих архитектур, количества и качества данных)

По мнению Лекуна, при общении с LLM нам может показаться, что мы общаемся с PhD, хотя на самом деле это просто система с гигантской памятью и хорошей способностью к сбору/резюмированию информации, которая не способна порождать решения для новых проблем

Видео взято у @dslab
🔥71🤗1
Наша команда выпустила Cotype Pro 2!

А вместе с этим статью про методологию оценки языковых моделей

Приложил руку к мультиагентной системе оценки языковых моделей, и предложил два метода на основе статьи Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate. Суть заключается в том, что несколько агентов "думают" над вынесением финального вердикта при оценке текста, который сгенеровала модель. Таким образом мы смогли улучшить корреляцию с человеческой оценкой:

Мы также попробовали использовать многоагентные системы для вынесения вердиктов:
Soft метод, в которой один агент выражает мнение, а второй соглашается или не соглашается с ним, после чего финальное решение принимает судья.
Hard метод, где второй агент всегда контраргументирует первому, и итоговый вердикт основывается на противоречивых оценках.


Анализируя мультиагентный подход, мы увидели что hard метод показывает слабую корреляцию с человеческой разметкой, так как другие агенты могут запутать итоговый вердикт. Однако soft метод улучшает корреляцию с экспертными оценками, поскольку второй агент зачастую дополняет логику первого, а агент-судья переоценивает все на основе предыдущих рассуждений. Такие многоагентные дебаты развивают концепцию CoT и могут улучшить качество модели-судьи.


Ссылка на статью: https://habr.com/ru/companies/mts_ai/articles/892176/
Пресс-релиз в форбс: https://www.forbes.ru/tekhnologii/533813-agenty-vystraivautsa-v-linejku-mts-vypustit-na-rynok-korporativnyh-ii-pomosnikov
🔥73👍3