This media is not supported in your browser
VIEW IN TELEGRAM
Разработчики 1X: он может убираться, автоматизировать ваш быт, подстраиваться под ваш образ жизни
Пользователи: подстраиваться под образ жизни? окей, поняли
Пользователи: подстраиваться под образ жизни? окей, поняли
😁134😎35👍10🤪4👾3🍾2
А вот это интересно: в стартапе Prime Intellect впервые децентрализованно обучили крупную LM
Сервера для обучения были разбросаны по всему миру: Европа, Азия, США. При этом в компьют контрибьютили не только крупные партнеры типа HF, но и простые обыватели. К слову, вот тут есть инструкция, как подключить свой домашний сервер, это все еще можно сделать.
В самой модели 10B параметров и обучали ее по технологии DeepMind. Бенчмарков нет, но создатели сообщают, что истинной их целью было не выбить высокие метрики, а показать, что даже небольшие организации с помощью комьюнити и децентарлизованного обучения могут конкурировать с гигантами и бороться против монополии на ИИ.
Веса модели и код обещают скоро выложить в опенсорс
Сервера для обучения были разбросаны по всему миру: Европа, Азия, США. При этом в компьют контрибьютили не только крупные партнеры типа HF, но и простые обыватели. К слову, вот тут есть инструкция, как подключить свой домашний сервер, это все еще можно сделать.
В самой модели 10B параметров и обучали ее по технологии DeepMind. Бенчмарков нет, но создатели сообщают, что истинной их целью было не выбить высокие метрики, а показать, что даже небольшие организации с помощью комьюнити и децентарлизованного обучения могут конкурировать с гигантами и бороться против монополии на ИИ.
Веса модели и код обещают скоро выложить в опенсорс
❤108👍40🔥11😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Да, это вам не в санки домашнего Бобика запрягать
😁103🎉25🔥7🗿6👍3
Media is too big
VIEW IN TELEGRAM
Anthropic представили Model Context Protocol – открытый протокол, который позволит интегрировать любую LLM в любой источник данных
Сейчас нельзя просто так взять и привязать любимую модельку к вашему GitHub, Google Календарю, Notion и пр. так, чтобы она могла оттуда и данные брать, и какие-то действия внутри выполнять. Есть только возможность воспользоваться собственными моделями сервиса, или кормить вашей LLM файлы отдельно прямо в чате, ну или под каждый сервис писать код для связки самому🤢
Anthropic решили проблему таких интеграций. С помощью MCP клиенты (то есть LLM или другие ИИ-инструменты) могут подсоединяться к любому совместимому серверу (то есть приложению или другому источнику данных). Сервер может быть и локальный, вроде базы данных или хранилища файлов, и удаленный, вроде GitHub. При этом все безопасно и серверы сами контролируют свои данные для шеринга.
Пока что воспользоваться MCP можно только локально, развернув сервер у себя на машине. Но Anthropic уже подготовили несколько готовых вариантов: GitHub, Slack, базы данных SQL и еще что-то. Так что подключиться можно очень быстро, за минуты. Просто ставите MCP в свой Claude Desktop, разворачиваете готовый сервер и все, можно промптить. На видео пример того, как Claude подключается к GitHub, создает новую репу и делает ПР.
Ждем полную версию и интеграцию в любимые сервисы
Сейчас нельзя просто так взять и привязать любимую модельку к вашему GitHub, Google Календарю, Notion и пр. так, чтобы она могла оттуда и данные брать, и какие-то действия внутри выполнять. Есть только возможность воспользоваться собственными моделями сервиса, или кормить вашей LLM файлы отдельно прямо в чате, ну или под каждый сервис писать код для связки самому
Anthropic решили проблему таких интеграций. С помощью MCP клиенты (то есть LLM или другие ИИ-инструменты) могут подсоединяться к любому совместимому серверу (то есть приложению или другому источнику данных). Сервер может быть и локальный, вроде базы данных или хранилища файлов, и удаленный, вроде GitHub. При этом все безопасно и серверы сами контролируют свои данные для шеринга.
Пока что воспользоваться MCP можно только локально, развернув сервер у себя на машине. Но Anthropic уже подготовили несколько готовых вариантов: GitHub, Slack, базы данных SQL и еще что-то. Так что подключиться можно очень быстро, за минуты. Просто ставите MCP в свой Claude Desktop, разворачиваете готовый сервер и все, можно промптить. На видео пример того, как Claude подключается к GitHub, создает новую репу и делает ПР.
Ждем полную версию и интеграцию в любимые сервисы
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73🔥31❤11😍3
This media is not supported in your browser
VIEW IN TELEGRAM
На Hugging Face появилось очень занятное демо: в нем сразу несколько моделей будут обсуждать между собой ваш вопрос, пока не придут к соглашению
Модели можно выбирать самостоятельно из доступного списка. Одновременно в чат можно запустить до трех LM.
Пробуйте сами здесь и присылайте в комментарии интересные кейсы
Модели можно выбирать самостоятельно из доступного списка. Одновременно в чат можно запустить до трех LM.
Пробуйте сами здесь и присылайте в комментарии интересные кейсы
🤯111🔥28👍10❤5
MTS AI идет в Open Source
MTS AI выпустила модель Cotype Nano – открытую языковую модель для решения бизнес-задач на русском языке.
Она обрабатывает до 32,000 токенов за раз, запускается локально на персональных устройствах и подходит для анализа данных, создания контента, перевода и поиска в большом массиве информации.
По бенчмаркам Ru Arena Hard модель — лидер в своём классе (30.2). Доступна бесплатно с возможностью использования в коммерческих целях. Скачать по ссылке.
Подробные технические характеристики — на Хабре.
MTS AI выпустила модель Cotype Nano – открытую языковую модель для решения бизнес-задач на русском языке.
Она обрабатывает до 32,000 токенов за раз, запускается локально на персональных устройствах и подходит для анализа данных, создания контента, перевода и поиска в большом массиве информации.
По бенчмаркам Ru Arena Hard модель — лидер в своём классе (30.2). Доступна бесплатно с возможностью использования в коммерческих целях. Скачать по ссылке.
Подробные технические характеристики — на Хабре.
🤯42🔥21🤝10❤5😁5⚡2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
У Nvidia тем временем великолепный свежий релиз: они выпустили модель для генерации звуков
Fugatto – фундаментальная модель для генерации и обработки любых звуков. Мировые лидеры в этой области – стартапы ElevenLabs, StabilityAI и, пожалуй, Meta, – но функционал Fugatto шире любой модели от этих игроков. Она работает и с голосами (может, например, добавить акцент), и с музыкой, и просто со звуками внешнего мира.
При этом обрабатывать и генерировать можно и сложные составные звуки, которые на претрейне модель "слышала" только по отдельности и которые могут переходить друг в друга динамически. Ну, например, "стук дождя по крыше и вой стаи волков вдалеке, который со временем становится громче". Таких инноваций удалось добиться благодаря технике ComposableART (при этом под капотом, конечно, трансформер).
Модель, кстати, относительно легкая – всего 2.5B – и обучалась на небольшом кластере, состоящем из 32 H100
Fugatto – фундаментальная модель для генерации и обработки любых звуков. Мировые лидеры в этой области – стартапы ElevenLabs, StabilityAI и, пожалуй, Meta, – но функционал Fugatto шире любой модели от этих игроков. Она работает и с голосами (может, например, добавить акцент), и с музыкой, и просто со звуками внешнего мира.
При этом обрабатывать и генерировать можно и сложные составные звуки, которые на претрейне модель "слышала" только по отдельности и которые могут переходить друг в друга динамически. Ну, например, "стук дождя по крыше и вой стаи волков вдалеке, который со временем становится громче". Таких инноваций удалось добиться благодаря технике ComposableART (при этом под капотом, конечно, трансформер).
Модель, кстати, относительно легкая – всего 2.5B – и обучалась на небольшом кластере, состоящем из 32 H100
👍61🔥33❤10🤯6❤🔥5
Чтиво на вечер: в New Yorker вышла яркая статья про робототехнику
Всегда интересно почитать, как журналисты таких крупных изданий пишут про ИИ. В этот раз статья посвящена истории обучении роботов и тому, как в наши дни эта парадигма меняется с ростом возможностей ИИ.
Исторически робототехника всегда отставала от ИИ, поскольку действия роботов ограничивались работой по выученным заранее сценариям, без понимания венешнего мира и самостоятельного осознания того, как надо действовать и зачем. Ведь даже такие базовые задачи, как захват предметов – для машины очень сложная задача.
Но сейчас времена меняются, и роботы, благодаря продвинутому ИИ, могут не только обучаться выполнять действия по демонстрациям (вспомним гугловскую ALOHA), но и обобщать навыки на различные сценарии.
В статье – подробности о том, что нас ждет (по мнению, в частности, руководителя команды робототехники DeepMind, с которой беседовали журналисты), с какими проблемами до сих пор сталкивается отрасль и за какими подходами будущее. Ну и, конечно, отдеальный респект за обложку🤩
Всегда интересно почитать, как журналисты таких крупных изданий пишут про ИИ. В этот раз статья посвящена истории обучении роботов и тому, как в наши дни эта парадигма меняется с ростом возможностей ИИ.
Исторически робототехника всегда отставала от ИИ, поскольку действия роботов ограничивались работой по выученным заранее сценариям, без понимания венешнего мира и самостоятельного осознания того, как надо действовать и зачем. Ведь даже такие базовые задачи, как захват предметов – для машины очень сложная задача.
Но сейчас времена меняются, и роботы, благодаря продвинутому ИИ, могут не только обучаться выполнять действия по демонстрациям (вспомним гугловскую ALOHA), но и обобщать навыки на различные сценарии.
В статье – подробности о том, что нас ждет (по мнению, в частности, руководителя команды робототехники DeepMind, с которой беседовали журналисты), с какими проблемами до сих пор сталкивается отрасль и за какими подходами будущее. Ну и, конечно, отдеальный респект за обложку
Please open Telegram to view this post
VIEW IN TELEGRAM
❤34🔥9👍7
Вчера вечером кто-то неизвестный выложил ее на Hugging Face, захаркодив внутрь токены доступа API. К модели прилагалось разгневанное письмо от якобы группы художников. Они сокрушаются, что их обманули: сначала им говорили, что они станут тестировщиками, а затем просто заставили выполнять бесплатную работу на благо OpenAI. Модель они выложили в качестве мести.
Сейчас она, конечно, уже удалена, попользоваться ей успели единицы. В конфиге указано, что это была версия turbo. Но в том, что это была SORA – сомнений почти нет, запрос действительно шел на эндпоинт OpenAI. Да и примеры генерации не похожи ни на одну другую модель
А что если это тоже часть маркетинга Альтмана?….
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤54🤯23🤔11🔥6👍4🗿4😐3😁2🐳2🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
У Anthropic снова крутое обновление: на этот раз в Claude добавили возможность выбора кастомных пользовательских стилей
Стиль ответа бота можно выбирать из предустановленных (краткий, развернутый или формальный) или создать свой собственный. Для этого нужно загрузить текст, стиля которого модель должна придерживаться: Claude проанализирует его и будет в будущем предлагать в качестве опции.
То, чего всем нам не хватало
Стиль ответа бота можно выбирать из предустановленных (краткий, развернутый или формальный) или создать свой собственный. Для этого нужно загрузить текст, стиля которого модель должна придерживаться: Claude проанализирует его и будет в будущем предлагать в качестве опции.
То, чего всем нам не хватало
🔥62👍14❤1
Data Secrets
У Anthropic снова крутое обновление: на этот раз в Claude добавили возможность выбора кастомных пользовательских стилей Стиль ответа бота можно выбирать из предустановленных (краткий, развернутый или формальный) или создать свой собственный. Для этого нужно…
Кому такую шапку?
😁134🔥33👍13❤3😐1💅1
Data Secrets
Новое исследование от EpochAI: даже проблемы с оборудованием не остановят развитие ИИ Учитывая, что каждая GPU H100 выходит из строя раз в 6 лет, несложная математика подсказывает, что кластер из 100к GPU будет сталкиваться со сбоями раз в 30 минут, а кластер…
Следом за предыдущим EpochAI выпустили еще одно исследование, посвященное железу
В этот раз аналитики представили целую базу данных, в которой собрали сведения о более чем 100 видах чипов. Интересные числа и выводы:
➡️ При переходе с FP32 на INT8 перформанс видеокарт повысился в 15 раз
➡️ Несмотря на зверский рост цен, графики показывают, что вычисления в пересчете на единицы каждый год становятся дешевле в среднем на 30%, и энерго-эффективнее в среднем на 50%
➡️ Чистое количество операций в секунду увеличивается примерно на 20% в год
➡️ Таким образом, мощность процессоров удваивается каждые 2.8 года (+- закон Мура)
➡️ С 2016 года максимальный размер кластеров для обучения ИИ увеличился более чем в 20 раз (!)
➡️ На данный момент самой популярной видеокартой в мире остается A100 Nvidia
Почти все графики интерактивные и потыкать их можно здесь
В этот раз аналитики представили целую базу данных, в которой собрали сведения о более чем 100 видах чипов. Интересные числа и выводы:
Почти все графики интерактивные и потыкать их можно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍39✍7❤6🔥1