Технозаметки Малышева
8.53K subscribers
3.82K photos
1.43K videos
40 files
4K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Вчера увидел в ленте отличный документ — как лучший видеоблогер мира мотивирует сотрудников.

Жесть, изнанка, профессиональное угнетение и т.д. всё, что полезно для вашего бизнеса :).

Ну там всё на английском. Прямой перевод PDF через гугл - рушит разметку, Через текст, - тоже не очень - и плюс там лимит 5000 на лист.

В общем решение - закинул в Клода запрос - напиши ПЕРЕВОДЧИК на Клод-API, который кусками будет переводить текст.
Буквально 5 минут и вот результат в комментах.
В принципе перевод любого размера текста. Очень качественно и относительно быстро и не дорого. Claude haiku справляется.
Я к тому, что теперь быстрее создать ИИ инструмент, чем искать что-то платное и готовое.

#Claude #translation #tools #dev
———
@tsingular
👏9👍6🤔2
Forwarded from Data Secrets
В Твиттере протестировали силу арифметики o1

Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o ⬆️

Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o

NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.

Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.

Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.

Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
👍2
YouTube внедряет ИИ-инструменты для создателей контента

Google DeepMind интегрирует передовые модели генеративного ИИ в YouTube.
Функция Dream Screen позволит генерировать фоны для Shorts, используя технологии Veo и Imagen 3.
Вкладка 'Вдохновение' в YouTube Studio предложит идеи видео, заголовки и наброски сценариев.
В 2025 году планируется возможность создания 6-секундных видеоклипов.
Контент, созданный с помощью ИИ, будет помечен водяными знаками SynthID и спец метками.
Умнее станет так же функция автоматического дубляжа на разные языки.
В разделе Сообщества так же появятся новые инструменты ИИ появятся для работы с аудиторией.

Нужен отдельный видеохостинг для контента без ИИ.
Может в этом и будет цель Рутуба в итоге ? :)

#YouTube #DeepMind #DreamScreen
-------
@tsingular
Media is too big
VIEW IN TELEGRAM
Nvidia’s CEO Jensen Huang и Salesforce CEO Marc Benioff обсуждают ИИ агентов на Dreamforce 2024.

- Это будет индустрия навыков - агенты, использующие инструменты. У нас будут агенты, которые понимают тонкости того, что мы просим их сделать и они смогут использовать инструменты, рассуждать и сотрудничать друг с другом.

- Прорыв для меня наступил в момент, когда мы поняли, что обучение без учителя стало возможным. Когда оно позволило нам использовать языковые модели для создания языковых моделей, кодифицирующих предварительные знания человека, с этого момента масштаб стал экспоненциальным.

- Мы находимся на стадии, когда мы движемся гораздо быстрее закона Мура. Возможно, в квадратичной степени закона Мура.

- Сейчас только раскручивается маховик обратной связи и я думаю, что прогресс, который у нас будет с агентами в течение следующего года или двух, будет впечатляющим и удивительным.

- ИИ теперь рассуждает о том, достаточно ли безопасен и правилен ответ, который он генерирует.

- Создание агента не должно быть каким-то проектом для хакатона по информатике. Это должно быть чем-то, что мы можем легко сделать, потому что это будет больше похоже на адаптацию сотрудников, чем на написание программного обеспечения.

- Мы собираемся привнести уровень автоматизации, которого мир никогда не видел.

Следующий год, - официально год агентов.
Ещё Хуанг в другом интервью заявил, что для вот этих самостоятельных рассуждений нужно примерно 50х больше инференс мощности, чем для обычных LLM, потому что там очень много промежуточных промптов и рассуждений. И их будет еще больше и нужно чтоб они проходили не за минуты как сейчас, а мгновенно, фоном незаметно для пользователя.
Так что следующие Blackwell чипы будут гораздо мощнее. Как видно из этого интевью, - в сотни раз, благодаря как раз ИИ разработчикам.

Добро пожаловать в Технологическую Сингулярность!

#NVIDIA #SalesForce #агенты
———
@tsingular
🔥7👍5👾1
Tripo3D обновилась до v2.
И теперь можно бесплатно из любой фотки запилить 3Д фигуру за пару секунд.
Хочешь потом печатай её, хочешь в игру вставляй.

Работает и в вебе и по API

https://www.tripo3d.ai/app

#tripo3d #3d
———
@tsingular
🔥73
Amazon представляет Project Amelia - ИИ-помощники для продавцов

Амазон запустил бета-версию AI-ассистентов для продавцов в США.
Project Amelia, созданный на базе Amazon Bedrock, упрощает управление бизнесом.

Агенты помогают в анализе продаж, трафика и предоставляют сводки ключевых метрик.

В перспективе ассистент сможет самостоятельно решать проблемы и выполнять задачи от имени продавца.

Через пару лет:
Я - Уинстон Вульф, решаю проблемы... 🛒💰

#Amazon #ProjectAmelia #eCommerce
-------
@tsingular
Forwarded from Machinelearning
⚡️ Qwen2.5 Family: Релиз Qwen2.5, Qwen2.5-Coder и Qwen2.5-Math.

Команда разработки Qwen (Alibaba Group) опубликовала большой релиз нового поколения моделей - Qwen2.5, специализированные модели: Qwen2.5-Coder, Qwen2.5-Math, их инструктивные и квантованные версии, анонсированы закрытые Qwen-Plus и Qwen-Turbo.

Вместе с релизом нового поколения 2.5 в отрытый доступ опубликована Qwen2-VL-72B-Instruct предыдущего поколения.

▶️ Qwen2.5

В дополнение к традиционным вариантам с 0,5-1,5-7-72 млрд параметров, Qwen2.5 предлагает две новые модели среднего размера 14 млрд и 32 млрд параметров и компактную модель 3 млрд параметров.

Qwen2.5 обучались на увеличенном и улучшенном наборе данных размером в 18 трлн токенов.

Значительно расширены знания моделей: возможности в области программирования,
усовершенствованы математические способности Qwen2.5, повышено соответствие ответов модели предпочтениям человека: следование инструкциям, генерация длинных текстов (до 8 тыс. токенов), понимание структурированных данных и генерация структурированных выводов (в частности, JSON).

Список моделей:

🟢Qwen2.5: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;

🟢Qwen2.5-Instruct: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;

🟢Qwen2.5-Instruct: все варианты в форматах GPTQ, AWQ, GGUF.

В дополнение к этим моделям открыт доступ по API для флагманских моделей: Qwen-Plus и Qwen-Turbo через Model Studio.

▶️ Qwen2.5 Coder

Qwen2.5-Coder доступна в трех размерах: 1,5 млрд, 7 млрд и 32 млрд параметров (последняя появится в ближайшее время). Обновление состоит из двух основных улучшений: больше объем обучающих данных и расширение возможностей программирования в общих задачах и в математике.

Модели обучались на массиве данных объемом 5,5 триллиона токенов, включающем исходный код, данные для сопоставления текста и кода и синтетические данные.

Qwen2.5-Coder поддерживает до 128 тысяч токенов контекста, знает 92 языка программирования и выполняет операции по генерации кода, автодополнению и исправлению кода.

Qwen2.5-Coder-Instruct имеет способность к обобщению, знает более 40 языков программирования, справляется с задачами, связанными с логическим мышлением в коде, и показывает высокие результаты в задачах, связанных с математическим мышлением.

Список моделей:

🟠Qwen2.5-Coder: 1.5B, 7B;

🟠Qwen2.5-Coder-Instruct: 1.5B, 7B;

🟠Qwen2.5-Coder-Instruct в формате GGUF: 1.5B, 7B.


▶️ Qwen2.5 Math

Qwen2.5-Math обучались на корпусе математических данных Qwen Math Corpus v2, который содержит более 1 трлн. токенов.

Помимо базовых моделей, серия Qwen2.5-Math включает в себя инструктивные модели: Qwen2.5-Math-Instruct и модель математического вознаграждения, Qwen2.5-Math-RM-72B.

Qwen2.5-Math-Instruct обучалась с использованием данных CoT и TIR на китайском и английском языках, а также данных SFT, созданных с использованием Qwen2.5-Math-RM-72B.

Список моделей:

🟠Qwen2.5-Math: 1.5B, 7B, 72B, RM-72B;

🟠Qwen2.5-Math-Instruct: 1.5B, 7B, 72B.


▶️ Вместе с релизом Qwen2.5, опубликована Qwen2-VL-72B-Instruct и ее квантованные Int8 и Int4 версии в форматах GPTQ, AWQ.


📌Лицензирование:

🟢Apache 2.0 для всех base и instruct моделей, кроме 3B и 72B.
🟠Qwen2.5-3B - Qwen Research License.
🟠Qwen2.5-72B и Qwen2.5-Math-72B - Qwen License.



🟡Страница проекта
🟡Коллекция моделей на HF
🟡Demo Qwen2.5-Instruct-72B
🟡Demo Qwen2.5-Coder-Instruct-7B
🟡Demo Qwen2.5-Math
🟡Сообщество в Discord
🖥Github


@ai_machinelearning_big_data

#AI #ML #LLM #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍1
Forwarded from Data Secrets
No Context Russia
😁11🎃2