This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Китайский Hailuoai Minimax это, конечно, космос!
С таким качеством уже и видео-канал можно запускать, - всегда найдется аудитория.
После кислотных подборок по 10 часов на Ютубе, - зайдёт на ура.
#China #Video
———
@tsingular
С таким качеством уже и видео-канал можно запускать, - всегда найдется аудитория.
После кислотных подборок по 10 часов на Ютубе, - зайдёт на ура.
#China #Video
———
@tsingular
🤯7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Вчера увидел в ленте отличный документ — как лучший видеоблогер мира мотивирует сотрудников.
Жесть, изнанка, профессиональное угнетение и т.д. всё, что полезно для вашего бизнеса :).
Ну там всё на английском. Прямой перевод PDF через гугл - рушит разметку, Через текст, - тоже не очень - и плюс там лимит 5000 на лист.
В общем решение - закинул в Клода запрос - напиши ПЕРЕВОДЧИК на Клод-API, который кусками будет переводить текст.
Буквально 5 минут и вот результат в комментах.
В принципе перевод любого размера текста. Очень качественно и относительно быстро и не дорого. Claude haiku справляется.
Я к тому, что теперь быстрее создать ИИ инструмент, чем искать что-то платное и готовое.
#Claude #translation #tools #dev
———
@tsingular
Жесть, изнанка, профессиональное угнетение и т.д. всё, что полезно для вашего бизнеса :).
Ну там всё на английском. Прямой перевод PDF через гугл - рушит разметку, Через текст, - тоже не очень - и плюс там лимит 5000 на лист.
В общем решение - закинул в Клода запрос - напиши ПЕРЕВОДЧИК на Клод-API, который кусками будет переводить текст.
Буквально 5 минут и вот результат в комментах.
В принципе перевод любого размера текста. Очень качественно и относительно быстро и не дорого. Claude haiku справляется.
Я к тому, что теперь быстрее создать ИИ инструмент, чем искать что-то платное и готовое.
#Claude #translation #tools #dev
———
@tsingular
👏9👍6🤔2
Forwarded from Data Secrets
В Твиттере протестировали силу арифметики o1
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o⬆️
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
👍2
YouTube внедряет ИИ-инструменты для создателей контента
Google DeepMind интегрирует передовые модели генеративного ИИ в YouTube.
Функция Dream Screen позволит генерировать фоны для Shorts, используя технологии Veo и Imagen 3.
Вкладка 'Вдохновение' в YouTube Studio предложит идеи видео, заголовки и наброски сценариев.
В 2025 году планируется возможность создания 6-секундных видеоклипов.
Контент, созданный с помощью ИИ, будет помечен водяными знаками SynthID и спец метками.
Умнее станет так же функция автоматического дубляжа на разные языки.
В разделе Сообщества так же появятся новые инструменты ИИ появятся для работы с аудиторией.
Нужен отдельный видеохостинг для контента без ИИ.
Может в этом и будет цель Рутуба в итоге ? :)
#YouTube #DeepMind #DreamScreen
-------
@tsingular
Google DeepMind интегрирует передовые модели генеративного ИИ в YouTube.
Функция Dream Screen позволит генерировать фоны для Shorts, используя технологии Veo и Imagen 3.
Вкладка 'Вдохновение' в YouTube Studio предложит идеи видео, заголовки и наброски сценариев.
В 2025 году планируется возможность создания 6-секундных видеоклипов.
Контент, созданный с помощью ИИ, будет помечен водяными знаками SynthID и спец метками.
Умнее станет так же функция автоматического дубляжа на разные языки.
В разделе Сообщества так же появятся новые инструменты ИИ появятся для работы с аудиторией.
Нужен отдельный видеохостинг для контента без ИИ.
Может в этом и будет цель Рутуба в итоге ? :)
#YouTube #DeepMind #DreamScreen
-------
@tsingular
Media is too big
VIEW IN TELEGRAM
Nvidia’s CEO Jensen Huang и Salesforce CEO Marc Benioff обсуждают ИИ агентов на Dreamforce 2024.
- Это будет индустрия навыков - агенты, использующие инструменты. У нас будут агенты, которые понимают тонкости того, что мы просим их сделать и они смогут использовать инструменты, рассуждать и сотрудничать друг с другом.
- Прорыв для меня наступил в момент, когда мы поняли, что обучение без учителя стало возможным. Когда оно позволило нам использовать языковые модели для создания языковых моделей, кодифицирующих предварительные знания человека, с этого момента масштаб стал экспоненциальным.
- Мы находимся на стадии, когда мы движемся гораздо быстрее закона Мура. Возможно, в квадратичной степени закона Мура.
- Сейчас только раскручивается маховик обратной связи и я думаю, что прогресс, который у нас будет с агентами в течение следующего года или двух, будет впечатляющим и удивительным.
- ИИ теперь рассуждает о том, достаточно ли безопасен и правилен ответ, который он генерирует.
- Создание агента не должно быть каким-то проектом для хакатона по информатике. Это должно быть чем-то, что мы можем легко сделать, потому что это будет больше похоже на адаптацию сотрудников, чем на написание программного обеспечения.
- Мы собираемся привнести уровень автоматизации, которого мир никогда не видел.
Следующий год, - официально год агентов.
Ещё Хуанг в другом интервью заявил, что для вот этих самостоятельных рассуждений нужно примерно 50х больше инференс мощности, чем для обычных LLM, потому что там очень много промежуточных промптов и рассуждений. И их будет еще больше и нужно чтоб они проходили не за минуты как сейчас, а мгновенно, фоном незаметно для пользователя.
Так что следующие Blackwell чипы будут гораздо мощнее. Как видно из этого интевью, - в сотни раз, благодаря как раз ИИ разработчикам.
Добро пожаловать в Технологическую Сингулярность!
#NVIDIA #SalesForce #агенты
———
@tsingular
- Это будет индустрия навыков - агенты, использующие инструменты. У нас будут агенты, которые понимают тонкости того, что мы просим их сделать и они смогут использовать инструменты, рассуждать и сотрудничать друг с другом.
- Прорыв для меня наступил в момент, когда мы поняли, что обучение без учителя стало возможным. Когда оно позволило нам использовать языковые модели для создания языковых моделей, кодифицирующих предварительные знания человека, с этого момента масштаб стал экспоненциальным.
- Мы находимся на стадии, когда мы движемся гораздо быстрее закона Мура. Возможно, в квадратичной степени закона Мура.
- Сейчас только раскручивается маховик обратной связи и я думаю, что прогресс, который у нас будет с агентами в течение следующего года или двух, будет впечатляющим и удивительным.
- ИИ теперь рассуждает о том, достаточно ли безопасен и правилен ответ, который он генерирует.
- Создание агента не должно быть каким-то проектом для хакатона по информатике. Это должно быть чем-то, что мы можем легко сделать, потому что это будет больше похоже на адаптацию сотрудников, чем на написание программного обеспечения.
- Мы собираемся привнести уровень автоматизации, которого мир никогда не видел.
Следующий год, - официально год агентов.
Ещё Хуанг в другом интервью заявил, что для вот этих самостоятельных рассуждений нужно примерно 50х больше инференс мощности, чем для обычных LLM, потому что там очень много промежуточных промптов и рассуждений. И их будет еще больше и нужно чтоб они проходили не за минуты как сейчас, а мгновенно, фоном незаметно для пользователя.
Так что следующие Blackwell чипы будут гораздо мощнее. Как видно из этого интевью, - в сотни раз, благодаря как раз ИИ разработчикам.
Добро пожаловать в Технологическую Сингулярность!
#NVIDIA #SalesForce #агенты
———
@tsingular
🔥7👍5👾1
Tripo3D обновилась до v2.
И теперь можно бесплатно из любой фотки запилить 3Д фигуру за пару секунд.
Хочешь потом печатай её, хочешь в игру вставляй.
Работает и в вебе и по API
https://www.tripo3d.ai/app
#tripo3d #3d
———
@tsingular
И теперь можно бесплатно из любой фотки запилить 3Д фигуру за пару секунд.
Хочешь потом печатай её, хочешь в игру вставляй.
Работает и в вебе и по API
https://www.tripo3d.ai/app
#tripo3d #3d
———
@tsingular
🔥7✍3
Amazon представляет Project Amelia - ИИ-помощники для продавцов
Амазон запустил бета-версию AI-ассистентов для продавцов в США.
Project Amelia, созданный на базе Amazon Bedrock, упрощает управление бизнесом.
Агенты помогают в анализе продаж, трафика и предоставляют сводки ключевых метрик.
В перспективе ассистент сможет самостоятельно решать проблемы и выполнять задачи от имени продавца.
Через пару лет:
Я - Уинстон Вульф, решаю проблемы... 🛒💰
#Amazon #ProjectAmelia #eCommerce
-------
@tsingular
Амазон запустил бета-версию AI-ассистентов для продавцов в США.
Project Amelia, созданный на базе Amazon Bedrock, упрощает управление бизнесом.
Агенты помогают в анализе продаж, трафика и предоставляют сводки ключевых метрик.
В перспективе ассистент сможет самостоятельно решать проблемы и выполнять задачи от имени продавца.
Через пару лет:
Я - Уинстон Вульф, решаю проблемы... 🛒💰
#Amazon #ProjectAmelia #eCommerce
-------
@tsingular
Forwarded from Machinelearning
Команда разработки Qwen (Alibaba Group) опубликовала большой релиз нового поколения моделей - Qwen2.5, специализированные модели: Qwen2.5-Coder, Qwen2.5-Math, их инструктивные и квантованные версии, анонсированы закрытые Qwen-Plus и Qwen-Turbo.
Вместе с релизом нового поколения 2.5 в отрытый доступ опубликована Qwen2-VL-72B-Instruct предыдущего поколения.
В дополнение к традиционным вариантам с 0,5-1,5-7-72 млрд параметров, Qwen2.5 предлагает две новые модели среднего размера 14 млрд и 32 млрд параметров и компактную модель 3 млрд параметров.
Qwen2.5 обучались на увеличенном и улучшенном наборе данных размером в 18 трлн токенов.
Значительно расширены знания моделей: возможности в области программирования,
усовершенствованы математические способности Qwen2.5, повышено соответствие ответов модели предпочтениям человека: следование инструкциям, генерация длинных текстов (до 8 тыс. токенов), понимание структурированных данных и генерация структурированных выводов (в частности, JSON).
Список моделей:
В дополнение к этим моделям открыт доступ по API для флагманских моделей: Qwen-Plus и Qwen-Turbo через Model Studio.
Qwen2.5-Coder доступна в трех размерах: 1,5 млрд, 7 млрд и 32 млрд параметров (последняя появится в ближайшее время). Обновление состоит из двух основных улучшений: больше объем обучающих данных и расширение возможностей программирования в общих задачах и в математике.
Модели обучались на массиве данных объемом 5,5 триллиона токенов, включающем исходный код, данные для сопоставления текста и кода и синтетические данные.
Qwen2.5-Coder поддерживает до 128 тысяч токенов контекста, знает 92 языка программирования и выполняет операции по генерации кода, автодополнению и исправлению кода.
Qwen2.5-Coder-Instruct имеет способность к обобщению, знает более 40 языков программирования, справляется с задачами, связанными с логическим мышлением в коде, и показывает высокие результаты в задачах, связанных с математическим мышлением.
Список моделей:
Qwen2.5-Math обучались на корпусе математических данных Qwen Math Corpus v2, который содержит более 1 трлн. токенов.
Помимо базовых моделей, серия Qwen2.5-Math включает в себя инструктивные модели: Qwen2.5-Math-Instruct и модель математического вознаграждения, Qwen2.5-Math-RM-72B.
Qwen2.5-Math-Instruct обучалась с использованием данных CoT и TIR на китайском и английском языках, а также данных SFT, созданных с использованием Qwen2.5-Math-RM-72B.
Список моделей:
@ai_machinelearning_big_data
#AI #ML #LLM #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍1