Innovation & Research
2.83K subscribers
414 photos
55 videos
146 files
4.46K links
“Push-the-envelope” Channel
Download Telegram
Innovation & Research
Samsung ограничивает использование генеративного ИИ в служебных целях Причиной послужила загрузка конфиденциального кода в ChatGPT сотрудниками. Теперь на всех служебных устройствах и из сети корпорации запрещен доступ к генеративным сервисам. Также Samsung…
Samsung разработает собственную большую языковую модель

Корпорация предполагает построить собственный сервис для обобщения документов, перевода, создания текстов, работы с данными и генерации кода. Ранее Samsung заблокировал сторонние чат-боты и рекомендовал сотрудникам не использовать их в личных целях во избежание утечек информации. Предполагается, что модель по уровню превзойдёт GPT-3.5. Разработкой занимается Device Solutions, подразделение полупроводникового бизнеса корпорации. Внедрить базовые функции планируется в декабре 2023 г., а «профессиональный» поиск по внутренним базам компании — в феврале 2024.
#AI #LLM #бигтехи

https://technewsspace.com/samsung-will-develop-its-own-ai-to-prevent-employees-from-using-chatgpt/
Большую языковую модель Llama 2 запустят на мобильных устройствах

Qualcomm и Meta* планируют с 2024 года сделать возможной работу модели на чипах Qualcomm для смартфонов и ноутбуков.

Современные чипы Qualcomm содержат т.н. тензорное процессорное устройство (Tensor processing unit, TPU). С его помощью возможно запускать и некоторые версии ИИ-моделей.

Ранее уже проводились эксперименты по запуску генеративной модели Stable Diffusion на чипах Qualcomm — модель работала, но медленно.

В случае успешной реализации идеи можно будет использовать Llama 2 (или какую-то из её версий) на конечных устройствах, а не в облаке.

*организация запрещена в России как экстремистская

#LLM #чипы #Meta

https://www.cnbc.com/2023/07/18/meta-and-qualcomm-team-up-to-run-big-ai-models-on-phones.html
Alibaba запускает открытую ИИ-модель для конкуренции с Llama 2

Опубликован исходный код двух больших языковых моделей (LLM), названных Qwen-7B и Qwen-7B-Chat, причем каждая из них имеет 7 миллиардов параметров.

Alibaba заявила, что их цель — помочь малому и среднему бизнесу начать использовать ИИ. Это первый случай, когда крупная китайская технологическая компания открыла свою LLM.

Стоит отметить, что в прошлом месяце Meta* представила аналогичную модель с открытым исходным кодом под названием Llama 2, что вызвало фурор. 

Некоторые аналитики считают, что LLM с открытым исходным кодом могут свести на нет текущее доминирование на рынке OpenAI с ChatGPT и Google с Bard за счет отсутствия платы за использование.

#ИИ #Alibaba #LLM

https://www.reuters.com/technology/alibaba-unveils-open-sourced-ai-model-similar-metas-llama-2-2023-08-03/
*признана экстремистской на территории РФ
Корейский поисковик Naver выпустил языковую модель

Разработка называется HyperCLOVA X. На её базе действует похожий на ChatGTP чат-бот CLOVA X и генеративный поисковый сервис Clue, аналогичный Bing от Microsoft.

Число параметров не раскрывается, но известно, что предыдущая версия модели, HyperCLOVA, разработанная в 2021 году, имела 204 млрд параметров.

Над моделью работала команда из 500 экспертов в области ИИ и Naver теперь входит в пятёрку компаний, имеющих собственную большую языковую модель с более чем 100 млрд параметров.

Также компания разрабатывает мультимодальную языковую модель, которая могла бы генерировать помимо текста ещё и графику, видео и аудио.

Naver фокусирует продукты на национальных языках региона и стремится распространить своё покрытие на Корею, Японию, страны Юго-Восточной Азии и Ближнего Востока, для которых международные гиганты типа Microsoft и Google пока не открыли свои флагманские ИИ-сервисы.

#LLM #чатботы

https://techcrunch.com/2023/08/24/koreas-internet-giant-naver-unveils-generative-ai-services/
Tencent и Ant выпускают ИИ-модели для бизнеса

Tencent проводит внутреннее тестирование своей модели искусственного интеллекта Hunyuan, обученной на данных для сферы рекламы и финансовых технологий.

Также компания планирует выпустить чат-бота с искусственным интеллектом и интегрировать возможности Hunyuan со своими продуктами для видеоконференций и социальных сетей, в частности сервиса Tencent Meeting.

Представители Tencent полагают, что наилучший вариант больших моделей для бизнеса — не универсальные, а специализированные, обученные в соответствии с той или иной отраслевой спецификой. И поэтому бизнесу имеет смысл брать модели с открытым исходным кодом и адаптировать их под себя, обучая на собственных данных.

Аналогичный подход — сравнительно небольшие специализированные модели — предлагает другой китайский бигтех Ant. Его продукты сфокусированы на управлении активами и страховании.

Большие модели будут использоваться в приложении Zhixiaobao — ассистенте, отвечающий на вопросы клиентов, и Zhixiaozhu — ассистенте для профессиональных участников рынка.

Также планируется запуск моделей для анализа рынка, обучения инвесторов, описания страховых продуктов и работы с претензиями. Характеристики моделей пока не раскрываются.

https://www.cnbc.com/2023/09/07/tencent-releases-ai-model-hunyuan-for-businesses-amid-china-competition.html

#бигтехи #ИИ #чатботы #LLM
IBM выпускает новые большие языковые модели

Новые модели серии Granite представляют собой LLM наподобие GPT-4 и ChatGPT, способные обобщать, анализировать и генерировать текст.

IBM раскрыла мало подробностей о Granite, что делает невозможным полноценное сравнение с конкурентами и более ранними моделями самой IBM.

Пока известно, что модели имеют 13 млрд параметров и учились на собственных данных компании, а также что среди них есть специализированные.

В частности, финансовая модель, по словам представителей IBM, будет более эффективна в узких специальных вопросах, чем более крупная общего назначения.

Компания утверждает, что раскроет, на каких данных учились модели, а также шаги, используемые для фильтрации и обработки этих данных, до конца квартала.

#бигтехи #LLM

https://www.ibm.com/blog/building-ai-for-business-ibms-granite-foundation-models/
Презентация новых устройств Amazon: Alexa стала человечнее

Ключевое нововведение — голосовой ассистент Alexa теперь оснащён большой языковой моделью. Кроме того, у помощника будет более естественный голос, более осмысленные разговоры, и не потребуется слов для пробуждения.

Alexa сможет отвечать на вопросы, подобно Bard от Google, демонстрировать волнение, смех, разочарование и т.д.в зависимости от контекста разговора.

Также помощник сможет писать сообщения под диктовку и отправлять их от имени пользователя.

Большинство устройств поддерживает открытый стандарт умного дома Matter при подключении по Wi-Fi или через беспроводную сеть пониженной мощности Thread.

#Amazon #LLM #устройства

https://www.aboutamazon.com/news/devices/amazon-fall-event-2023-announcements
LLM в большой бизнес

Али Годси, генеральный директор Databricks, фирмы по разработке корпоративного программного обеспечения стоимостью 43 миллиарда долларов, мог многое сказать об OpenAI и потенциальных проблемах, с которыми она сталкивается во время вчерашнего конференц-звонка с подписчиками The Information. (Одна из новых проблем, с которой OpenAI, вероятно, борется, - это уход известного исследователя Андрея Карпати, как мы узнали вчера.)

Но поскольку Годси сидит на первом ряду театра разговорного ИИ, нам было особенно интересно услышать, что, по его мнению, является недостатками технологии.

По его словам, большие языковые модели, которые под капотом современных чат-ботов, оставляют желать лучшего. По его словам, чтобы превратить их в действительно большой бизнес, моделям нужны способы доступа к данным в режиме реального времени надежным способом, иначе известным как RAG (Генерация с дополненной выборкой. RAG). Но оказывается, что RAG может быть полезен во многих отношениях, помимо простой передачи данных компании в LLM.

Например, одна из основных проблем с сегодняшними LLM заключается в том, чтобы чат-боты на базе искусственного интеллекта случайно не выдавали конфиденциальную информацию не тому человеку. Это трудно предотвратить, поскольку эти модели, по сути, генерируют наиболее вероятное следующее слово в предложении на основе того, что они видели в своих тренировочных данных, и они не могут различать то, что является чувствительным, а что нет. Тем не менее, разработчики имеют большой опыт добавления элементов управления доступом в пользовательские базы данных и могут использовать те же методы с RAG, чтобы убедиться, что LLM не предоставляют конфиденциальные данные пользователю, если он не имеет права их видеть, сказал Годси.

По его словам, RAG также может предотвратить галлюцинации LLM или неправильные ответы. Это потому, что через RAG исследователи могут обучать LLM производить ответы только на основе данных, содержащихся в конкретной базе данных, а не учебных данных моделей, сказал он. В этом случае вам лучше убедиться, что все в вашей базе данных правильно. Вы не хотели бы оказаться в странном сценарии, когда вы передаете свою LLM ложную информацию - один из примеров, который дал Годси, заключается в том, что если LLM относится к информации из базы данных, в которой говорится, что Барак Обама является нынешним президентом, даже если LLM "знает" из своих учебных данных, что Обама больше не является президентом.

По словам Годси, некоторые "пуристы" ИИ видят RAG как временный взлом, который отменят по мере улучшения возможностей LLM. Эти практики часто являются поклонниками «законов масштабирования» или принципов, которые гласят, что обучение LLM с большей вычислительной мощностью и данными улучшает их возможности предсказуемым образом. Эти принципы подтолкнули ряд компаний, таких как OpenAI и Anthropic, потратить миллиарды на дефицитные чипы искусственного интеллекта для обучения передовых моделей.

Многолетние обязательства, которые эти разработчики моделей, вероятно, подписали с облачными провайдерами, могут вернуться, чтобы укусить их, если цены на чипы снизятся по мере перебалансирования спроса и предложения, как считает Ghodsi.

Эта возможность, наряду с вопросом о том, насколько полезными могут быть LLM сами по себе, может оказаться опасной для крупнейших современных разработчиков LLM.

Годси, возможно, сказал это лучше всего: "Я думаю, что эта интернет-аналогия [бум] сохранится", - сказал он вчера. "В 1997 году было очевидно, что Yahoo навсегда останется будущим всех поисков планеты. Это не так получилось. Так что я думаю, что то же самое произойдет и здесь. Единственный вопрос: "Кто сейчас Yahoo?" И кто такой AltaVista и кто такой Google, компания со странным названием выпускников Стэнфорда?"

#от_редактора #LLM

https://www.theinformation.com/articles/databricks-ceo-on-what-it-takes-to-turn-llms-into-a-big-business?utm_source=ti_app&rc=q1g4ry
This media is not supported in your browser
VIEW IN TELEGRAM
Scale is all you need

NYT сделали хорошую инфографику, которая показывает рост размеров датасетов для обучения LLM-ов

#от_редактора #LLM
Вы CRISPR открываете или изобретаете?


Стартап из Беркли, Profluent, опубликовал препринт, в котором описана система основанная на LLM. Еще один пример использования ИИ в науке!

Стартап придумал модель для создания новых редакторов генов на основе анализа огромного количества биологических данных, включая микроскопические механизмы, которые ученые уже используют для редактирования ДНК человека. Если еще проще, то созданная LLM на основании уже использованных, природных редакторов ДНК (CAS), выдает новые комбинации редакторов, которые ранее не встречались в природе. Здесь есть сложность…

В CRISPR нет недостатка в естественных редакторах генов, которые они могли бы использовать для борьбы с болезнями и болезнями. Узкое место находится в стоимости проталкивания этих редакторов к доклиническим исследованиям, таким как безопасность, производство и нормативные требования, прежде чем они могут быть использованы для пациентов.

GenAI имеет громадный потенциал, так как быстро улучшается, обучаясь на все больших объемах данных. Если такие технологии, как Profluent, будут продолжать совершенствоваться, это в конечном итоге позволит ученым редактировать гены гораздо более точными способами.

В краткосрочной перспективе, по мнению экспертов, эта технология ничего не изменит. Но в долгосрочной перспективе это может привести к миру, где лекарства и методы лечения быстро персонализируются быстрее, чем доступно сегодня. Как верно указано в посте. Однако, не так быстро)

Profluent предстоит долгий путь клинических испытаний их редакторов синтетических генов. Неясно, могут ли они соответствовать или превосходить эффективность CRISPR. Однако, сам proof of concept показывает, что AI может делать редакторы, способные редактировать геном человека.

Хотя Profluent опенсорсит редактор, сама модель не выложена в общий доступ.

Еще один важный пример AI как «микроскопа 21 века».

https://www.biorxiv.org/content/10.1101/2024.04.22.590591v1

#от_редактора #llm