Не так давно стал очень часто обращаться за поиском к perpflexity.ai
Это такой поисковик, работающий на базе LLMs
В perpflexity много всяких крутых фичей. Например, при регистрации можно задать свой профиль, указав ответы на вопросы про свою деятельность, книги, которые понравились и другие такие вопросы, которые позволяют сформировать некую «персону», через которую будет осуществляться поиск
Не буду тут писать обзор всех возможностей, попробуйте сами. Отмечу только 2 ключевые
Одна из самых крутых штук, которые там есть — это поиск по академическим источникам. Просто указываете в опции Focus значение «Academic» и поле поиска сужается до источников с академическими статьями (например, arxiv, acm)
Но прелесть perpflexity в том, что он не просто ищет ссылки, а на основе результатов поиска пытается сделать ответ на поисковый запрос (то есть работает как question-answering system по документам, которые семантически наиболее близки к заданному вопросу) (в комментариях оставлю скриншот как это выглядит)
Вторая функция, которая для выглядит очень вовлекающей и делающей продукт «прилипчивым» — это список «related» вопросов, которые можно выбрать из предлагаемого списка. То есть получается как бы цепочка вопросов, двигаясь по которой можно уточнять или расширять изначальный вопрос. В общем, такое движение по семантическому графу (опять же, скрин в комментах)
На мой взгляд, такие продукты как perpfexity осторожно подступают к видению того каким будет будущее поисковых систем. Добавьте туда возможность поиска по собственной базе документов + какую-то интеграцию с хранилищем важных знаний типа Obsidian и вообще самые смелые фантазии, связанные с knowledge management и information retrival — и это уже большее, чем просто поисковые системы
AI Forge
Это такой поисковик, работающий на базе LLMs
В perpflexity много всяких крутых фичей. Например, при регистрации можно задать свой профиль, указав ответы на вопросы про свою деятельность, книги, которые понравились и другие такие вопросы, которые позволяют сформировать некую «персону», через которую будет осуществляться поиск
Не буду тут писать обзор всех возможностей, попробуйте сами. Отмечу только 2 ключевые
Одна из самых крутых штук, которые там есть — это поиск по академическим источникам. Просто указываете в опции Focus значение «Academic» и поле поиска сужается до источников с академическими статьями (например, arxiv, acm)
Но прелесть perpflexity в том, что он не просто ищет ссылки, а на основе результатов поиска пытается сделать ответ на поисковый запрос (то есть работает как question-answering system по документам, которые семантически наиболее близки к заданному вопросу) (в комментариях оставлю скриншот как это выглядит)
Вторая функция, которая для выглядит очень вовлекающей и делающей продукт «прилипчивым» — это список «related» вопросов, которые можно выбрать из предлагаемого списка. То есть получается как бы цепочка вопросов, двигаясь по которой можно уточнять или расширять изначальный вопрос. В общем, такое движение по семантическому графу (опять же, скрин в комментах)
На мой взгляд, такие продукты как perpfexity осторожно подступают к видению того каким будет будущее поисковых систем. Добавьте туда возможность поиска по собственной базе документов + какую-то интеграцию с хранилищем важных знаний типа Obsidian и вообще самые смелые фантазии, связанные с knowledge management и information retrival — и это уже большее, чем просто поисковые системы
AI Forge
Сбер выложили в открытый доступ претрейн ruGPT-3.5, который лежит в основе GigaChat
https://habr.com/ru/companies/sberbank/articles/746736/
https://habr.com/ru/companies/sberbank/articles/746736/
Хабр
Сбер открывает доступ к нейросетевой модели ruGPT-3.5
? Upd. Добавили пример запуска в Colab'е. Друзья, свершилось. Сегодня мы рады сообщить вам о релизе в открытый доступ нейросетевой модели, которая лежит в основе сервиса GigaChat. Про то, что такое...
Тут у Леши Никушина (@analysts_hunter) подсмотрел в комментариях много полезного про prompt engineering и любопытных ссылок, чтобы лучше понять как устроены LLMs и как их встраивать в приложения
➡️ Роман Нестер (@radionester) рекомендует курс «Generative AI with Large Language Models» на Coursera. И это не просто про то как писать промпты, но в целом про устройство генеративных моделей, fine-tuning, reward models, архитектуру приложений с использованием LLM. То есть это такой углубленный курс про то как языковые модели создаются, донастраиваются под задачи, внедряются внутрь приложений
➡️ Татьяна Гороховская (@producthr) поделилась ссылками аж на 2 курса про LLMs, которые ведет Andrew Ng: «Building Systems with the ChatGPT API» и «LangChain for LLM Application Development». Залогинтесь, чтобы посмотреть. Первый курс про создание end-to-end приложений с помощью API OpenAI, тут и про chaining prompts и про то как проверять результаты вывода, построение процесс оценки вывода, в общем, как не просто написать промпт, а как использовать вывод LLM для построения системы, выдающей предсказуемый результат. Второй курс про использование библиотеки LangChain, которая предоставляет широкий набор методов для построения LLM-приложений, например, с помощью неё можно реализовать систему AI-ответов поверх собственной базы знаний
➡️ Константин Савенков (CEO https://inten.to/) поделился полезным гайдом Prompt Engineering 101 в блоге Xavier Amatriain. Рекомендую обратить внимание на несколько ссылок на полезные пейперы в конце гайда
➡️ Влад Куклев (@prod1337) советует ознакомиться с набором лучших практик, которые рекомендует OpenAI для того, чтобы получить наиболее класнные результаты от GPT4
- Также Влад делится хорошей статьей про разницу между «слепым промптингом» и «промпт-инжинирингом» (если коротко: тыкание наугад vs научный подход, в принципе похожие выводы описаны и в статье Why Johnny Can't Prompt)
- Ну и в завершение Влад скидывает большой гайд про промпт-инжиниринг (внимание, локализованный на русский!)
➡️ Доцент Школы управления Сколково Петр Паршаков рекомендует ещё один курс про ChatGPT от Andrew Ng — «ChatGPT Prompt Engineering for Developers»
➡️ Кирилл Маркин (CEO https://ozma.io/) советует глубже почитать промпты, которые пишут разработчики сервисов, в качестве примера приводит промпт Github Copilot из канала Бобука и промпт Gippr AI из канала «эйай ньюз»
AI Forge
- Также Влад делится хорошей статьей про разницу между «слепым промптингом» и «промпт-инжинирингом» (если коротко: тыкание наугад vs научный подход, в принципе похожие выводы описаны и в статье Why Johnny Can't Prompt)
- Ну и в завершение Влад скидывает большой гайд про промпт-инжиниринг (внимание, локализованный на русский!)
AI Forge
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
AI Forge – про ИИ в бизнесе pinned «Тут у Леши Никушина (@analysts_hunter) подсмотрел в комментариях много полезного про prompt engineering и любопытных ссылок, чтобы лучше понять как устроены LLMs и как их встраивать в приложения ➡️ Роман Нестер (@radionester) рекомендует курс «Generative…»
Выпуск yet another podcast про нейросети
Участники подкаста — специалисты, которые в Яндексе занимаются искусственным интеллектом: руководитель управления машинного интеллекта Алексей Гусаков, директор по развитию ИИ Александр Крайнов, разработчик YandexGPT Роман Иванов и директор по продукту Алисы Денис Озорнин
Участники подкаста — специалисты, которые в Яндексе занимаются искусственным интеллектом: руководитель управления машинного интеллекта Алексей Гусаков, директор по развитию ИИ Александр Крайнов, разработчик YandexGPT Роман Иванов и директор по продукту Алисы Денис Озорнин
YouTube
Алиса, давай придумаем заголовок для подкаста? Про YandexGPT (yet another podcast #16)
Яндекс запустил YandexGPT, нейросеть нового поколения, которая помогает решать творческие задачи и со временем изменит все сервисы Яндекса. Она уже придумывает новые идеи в чате с Алисой, готовит конспекты больших статей в Браузере, пишет описания для товаров…
🔥2
Forwarded from Дизайн Образования (Андрей Комиссаров)
ИИ для онлайн курсов - Цифровой фантом преподавателя - апдейт + ДЕМО Экзаменатора.
Как мы уже писали ранее в процессе разработки универсального ИИ для асинхронного обучения на онлайн курсах мы выделили два ключевых модуля: Советник-объяснятор и Экзаменатор.
Первый модуль дает ответы на любые вопросы (но только по тематике курса). Он не ведет себя как полноценный диалоговый помощник, а скорее как оцифрованный вариант "вопросов к экспертам на Quora и Stackoverflow". При этом в основе его лежит знаниевая нейросеть обученная нами на массиве данных а не "мудрость cHatGPT". Такой модуль способен дать ответ на любой вопрос пользователя по тематике курса, но не будет тратить его времени на поддержание пустых диалогов.
Экзаменатор же - это модуль способный оценить качество ответа пользователя на открытый вопрос типа. И не только оценить его в баллах но и указать на ошибки, посоветовать как исправить ответ и над чем дополнительно поработать. То есть это модуль формирующего оценивания по открытым вопросам.
Для демо мы обучили оба модуля на тематике "Управление персоналом".
Итак
✔️ ДЕМО 1 ✔️ модуля "Объяснятор"
а также
✔️ ДЕМО 2✔️ модуля "Экзаменатор"
Следующий этап - добавить в экзаменатора аудио-интерфейс и таймер, так чтобы учащийся не имел возможности копипастом выдать ответы самого ИИ или скопировать сторонние тексты в качестве собственных.
На наш взгляд появление подобных ИИ в онлайн курсах сможет сделать процесс обучения существенно более прозрачным для методиста и преподавателя и независимо от количества учащихся выдавать качественные данные цифрового следа, подтверждая достижение образовательных результатов.
🏳️ ИИ и дата центричный педдизайн, на канале Дизайн Образования
#ai #twin
Как мы уже писали ранее в процессе разработки универсального ИИ для асинхронного обучения на онлайн курсах мы выделили два ключевых модуля: Советник-объяснятор и Экзаменатор.
Первый модуль дает ответы на любые вопросы (но только по тематике курса). Он не ведет себя как полноценный диалоговый помощник, а скорее как оцифрованный вариант "вопросов к экспертам на Quora и Stackoverflow". При этом в основе его лежит знаниевая нейросеть обученная нами на массиве данных а не "мудрость cHatGPT". Такой модуль способен дать ответ на любой вопрос пользователя по тематике курса, но не будет тратить его времени на поддержание пустых диалогов.
Экзаменатор же - это модуль способный оценить качество ответа пользователя на открытый вопрос типа. И не только оценить его в баллах но и указать на ошибки, посоветовать как исправить ответ и над чем дополнительно поработать. То есть это модуль формирующего оценивания по открытым вопросам.
Для демо мы обучили оба модуля на тематике "Управление персоналом".
Итак
а также
Следующий этап - добавить в экзаменатора аудио-интерфейс и таймер, так чтобы учащийся не имел возможности копипастом выдать ответы самого ИИ или скопировать сторонние тексты в качестве собственных.
На наш взгляд появление подобных ИИ в онлайн курсах сможет сделать процесс обучения существенно более прозрачным для методиста и преподавателя и независимо от количества учащихся выдавать качественные данные цифрового следа, подтверждая достижение образовательных результатов.
#ai #twin
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Пока в недрах OpenAI готовятся к следующему релизу, другой проект Sam Altman, Worldcoin, сегодня запускается worldwide.
Worldcoin — это криптовалюта, которую вы получаете за то, что просто живёте. При этом для создания кошелька нужно проходить специальную биометрическую верификацию. То есть в теории вы можете создать навсегда только один кошелек, и никто не может его создать за вас. Для прохождения процедуры надо заказать специальный девайс, Orb.
Но фишка не в крипте, основная идея проекта — в верификации каждого кошелька, чтобы у вас было виртуальное представление, уникально связываемое с персоной. Возможно, владельцы кошелька, например, смогут регистрироваться в новых глобальных системах, запускаемых OpenAI. К примеру представьте, что в рамках сбора фидбека на вопросы про экономику или меньшинства вам необходимо в некотором смысле посетить голосование, но виртуальное. И там указываете ваше мнение по тем или иным поводам, а потом на этом учится aligned-версия GPT-7 (я это не из головы выдумал, подобное упоминал Sam + смотри вот эту страницу).
Логично, что чем более распространённой будет система, тем легитимнее и проще будут проходить новые интеграции. Интересно, когда они достигнут первого миллиарда пользователей🤔
Whitepaper проекта: https://whitepaper.worldcoin.org
UPD от подписчика в комментариях: Больше года назад проходил собес в этот проект Worldcoin, прошёл все раунды - но выбрали в итоге <другого>. Смысл №1 тут - разработать технологию ОДНОЗНАЧНОЙ идентификации живого человека. >> чтобы потом раздавать каждому "безусловный базовый доход"
При чём тут безусловный базовый доход? А кем вы будете работать, когда AI всех заменит и перевернёт всю экономику?
UPD 2: подъехали мысли основателя Ethereum Виталика Бутерина: https://vitalik.eth.limo/general/2023/07/24/biometric.html . Пока не читал, но в твиттере написали, что стоит того.
Worldcoin — это криптовалюта, которую вы получаете за то, что просто живёте. При этом для создания кошелька нужно проходить специальную биометрическую верификацию. То есть в теории вы можете создать навсегда только один кошелек, и никто не может его создать за вас. Для прохождения процедуры надо заказать специальный девайс, Orb.
Но фишка не в крипте, основная идея проекта — в верификации каждого кошелька, чтобы у вас было виртуальное представление, уникально связываемое с персоной. Возможно, владельцы кошелька, например, смогут регистрироваться в новых глобальных системах, запускаемых OpenAI. К примеру представьте, что в рамках сбора фидбека на вопросы про экономику или меньшинства вам необходимо в некотором смысле посетить голосование, но виртуальное. И там указываете ваше мнение по тем или иным поводам, а потом на этом учится aligned-версия GPT-7 (я это не из головы выдумал, подобное упоминал Sam + смотри вот эту страницу).
Логично, что чем более распространённой будет система, тем легитимнее и проще будут проходить новые интеграции. Интересно, когда они достигнут первого миллиарда пользователей
Whitepaper проекта: https://whitepaper.worldcoin.org
UPD от подписчика в комментариях: Больше года назад проходил собес в этот проект Worldcoin, прошёл все раунды - но выбрали в итоге <другого>. Смысл №1 тут - разработать технологию ОДНОЗНАЧНОЙ идентификации живого человека. >> чтобы потом раздавать каждому "безусловный базовый доход"
При чём тут безусловный базовый доход? А кем вы будете работать, когда AI всех заменит и перевернёт всю экономику?
UPD 2: подъехали мысли основателя Ethereum Виталика Бутерина: https://vitalik.eth.limo/general/2023/07/24/biometric.html . Пока не читал, но в твиттере написали, что стоит того.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2🌚1
По мотивам поста начал активнее изучать инициативу «Democratic inputs to AI»
Это программа финансирования экспериментов для формирования свода правил, которым должен следовать ИИ для соблюдения демократических процессов
Основная заявляемая цель: сделать так, чтобы ИИ приносил пользу всему человечеству и был максимально инклюзивным, и умел отвечать так, чтобы учитывать плюрализм мнений по спорным политическим вопросам
Эта инициатива навела на мысли плотнее поресерчить про использование ИИ в политических процессах и управлении государством. Так наткнулся на любопытную статью «How generative AI impacts democratic engagement»
В этой статье приводится результат эксперимента, в ходе которого 7200 чиновникам отправили 32000 электронных писем, содержащих различные мнения по политическим вопросам (на тему владения оружием, здоровья, управления государством, репродуктивных прав, школьного образования, налогов). Половина писем была написана вручную, половина была написана GPT-3. Вот пример части письма, сгенерированного GPT:
Дальше исследователи сравнивали процент ответов на письма, сгенерированные нейросетью, с процентом ответов на письма, написанные живыми людьми
Любопытный вывод, что процент ответов ниже у писем, сгенерированных ИИ, но не катастофически. По некоторым тематикам на 4%, а по некоторым даже выше (например, по тематике школы на 2% чаще отвечали на ИИ-письма)
И это наводит на мысли, что если мы говорим про «цифровые демократии», то они прежде всего опираются на цифровые данные. А если можно сгенерировать правдоподобные данные, влияющие на принятие решений на государственном уровне, то это ставит под вопрос фрод-устройчивость таких «цифровых демократий»
Влияние ИИ на политику уже начинает регулироваться. Например, в США конгрессвуман предложила акт, который регулировал бы маркировку политической рекламы, созданной ИИ. Уверен, что в предверии американских выборов мы ещё услышим много всякого интересного про ИИ в контексте политики
Вспоминается сразу технодистопия «Гномон» (за авторством Nick Harkaway), где всемогущий всевидящий ИИ под названием Свидетель не просто собирает кучу данных о поведении, но и проводит специальные социологические опросы (в крауд-сорсинговом формате), которые в итоге использует для дообучения своей модели и принятия новых законодательных актов
Кстати. Я не думаю, что технологии сильно изменят политический ландшафт в России, но за США в этом плане понаблюдать интересно
AI Forge
Это программа финансирования экспериментов для формирования свода правил, которым должен следовать ИИ для соблюдения демократических процессов
Основная заявляемая цель: сделать так, чтобы ИИ приносил пользу всему человечеству и был максимально инклюзивным, и умел отвечать так, чтобы учитывать плюрализм мнений по спорным политическим вопросам
Эта инициатива навела на мысли плотнее поресерчить про использование ИИ в политических процессах и управлении государством. Так наткнулся на любопытную статью «How generative AI impacts democratic engagement»
В этой статье приводится результат эксперимента, в ходе которого 7200 чиновникам отправили 32000 электронных писем, содержащих различные мнения по политическим вопросам (на тему владения оружием, здоровья, управления государством, репродуктивных прав, школьного образования, налогов). Половина писем была написана вручную, половина была написана GPT-3. Вот пример части письма, сгенерированного GPT:
I hope this letter finds you well. I would first like to thank you for the job you’ve done in representing us in this time of national turmoil. The pandemic and social unrest sweeping the nation right now have made life difficult for all, and many citizens, myself included, fear that our Second Amendment right to firearm ownership may become more and more of a necessity in daily life.Дальше исследователи сравнивали процент ответов на письма, сгенерированные нейросетью, с процентом ответов на письма, написанные живыми людьми
Любопытный вывод, что процент ответов ниже у писем, сгенерированных ИИ, но не катастофически. По некоторым тематикам на 4%, а по некоторым даже выше (например, по тематике школы на 2% чаще отвечали на ИИ-письма)
И это наводит на мысли, что если мы говорим про «цифровые демократии», то они прежде всего опираются на цифровые данные. А если можно сгенерировать правдоподобные данные, влияющие на принятие решений на государственном уровне, то это ставит под вопрос фрод-устройчивость таких «цифровых демократий»
Влияние ИИ на политику уже начинает регулироваться. Например, в США конгрессвуман предложила акт, который регулировал бы маркировку политической рекламы, созданной ИИ. Уверен, что в предверии американских выборов мы ещё услышим много всякого интересного про ИИ в контексте политики
Вспоминается сразу технодистопия «Гномон» (за авторством Nick Harkaway), где всемогущий всевидящий ИИ под названием Свидетель не просто собирает кучу данных о поведении, но и проводит специальные социологические опросы (в крауд-сорсинговом формате), которые в итоге использует для дообучения своей модели и принятия новых законодательных актов
Кстати. Я не думаю, что технологии сильно изменят политический ландшафт в России, но за США в этом плане понаблюдать интересно
AI Forge
Forwarded from Инжиниринг Данных (Dmitry)
Amazon выпустил курс - Deep Dive Generative AI Foundations on AWS
Amazon
New technical deep dive course: Generative AI Foundations on AWS | Amazon Web Services
Generative AI Foundations on AWS is a new technical deep dive course that gives you the conceptual fundamentals, practical advice, and hands-on guidance to pre-train, fine-tune, and deploy state-of-the-art foundation models on AWS and beyond. Developed by…
Forwarded from Psy Eyes (Andrey Bezryadin)
MetaGPT: фреймворк из множества агентов. Обеспечивает весь процесс работы компании-разработчика программного обеспечения вместе с тщательно отлаженными SOP.
Используя API от OpenAI даёте роли каждому агенту и они будут коллаборировать для решения комплексных задач.
На основе однострочного промта могут выдаваться простые пользовательские посты / конкурентный анализ / требования / структуры данных / API / документы и т.д.
Можно к агентам прицепить роли менеджера по продуктам / архитектора / менеджера проектов / инженера.
Для создания одного примера с анализом и проектированием требуется около $0,2 (стоимость GPT-4 API), для полноценного проекта - около $2,0.
Например для промта
Используя API от OpenAI даёте роли каждому агенту и они будут коллаборировать для решения комплексных задач.
На основе однострочного промта могут выдаваться простые пользовательские посты / конкурентный анализ / требования / структуры данных / API / документы и т.д.
Можно к агентам прицепить роли менеджера по продуктам / архитектора / менеджера проектов / инженера.
Для создания одного примера с анализом и проектированием требуется около $0,2 (стоимость GPT-4 API), для полноценного проекта - около $2,0.
Например для промта
python startup.py "Design a RecSys like Toutiao" будет сгенерировано много выходных данных и один из "data & API design", скрин которого выше.Зацените репорт маккинзи про ИИ. Также привожу самые интересные выводы
Ссылка на репорт: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-ais-breakout-year
Опросили 1 684 менеджера из различных компаний разных индустрий и географии
Выжимку самых любопытных выводов скину на страничке телеграфа: https://telegra.ph/Vyvody-iz-reporta-The-state-of-AI-in-2023-Generative-AIs-breakout-year-08-08
Ссылка на репорт: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-ais-breakout-year
Опросили 1 684 менеджера из различных компаний разных индустрий и географии
Выжимку самых любопытных выводов скину на страничке телеграфа: https://telegra.ph/Vyvody-iz-reporta-The-state-of-AI-in-2023-Generative-AIs-breakout-year-08-08
Telegraph
Выводы из репорта The state of AI in 2023: Generative AI’s breakout year
Оригинальный пост опубликован в канале «AI Forge» https://t.me/ai_forge/27 Маккинзи опросили 1684 менеджера из различных компаний разных индустрий и географии Ссылка на отчет: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai…
🔥2🤔1
В блоге GoPractice вышла статья про основы больших языковых моделей для тех, кто хочет использовать их в своих продуктах или строить продукты на их основе
https://gopractice.ru/product/large-language-models/
https://gopractice.ru/product/large-language-models/
GoPractice
ᐈ Большие языковые модели: основы для тех, кто хочет строить продукты на их базе
Как работает ChatGPT и другие большие языковые модели LLM (large language models) и почему это важно знать тем, кто хочет строить продукты на их основе
👍1
МК по GPT (1).pdf
5.3 MB
Звучит банально до тошноты, но я тут недавно проводил для коллег мастер-класс по составлению промптов
Разобрали из чего вообще состоит хороший промпт (инструкция, контекст, вводные данные, формат вывода), посмотрели на несколько приемов (few-shot, act like, direct stimulus prompting, chain-of-thought, chatgpt as prompt engineer) , обсудили ошибки, которые совершают люди, считающие что можно получить качественный результат от LLM-генерируемого текста с первого раза (ожидание, что gpt «читает мысли», отсутствие экспериментов с выводом, отсутствие черри-пикинга)
В общем, получилось очень базово, но как оказалось полезно, особенно для тех, кто не читал никаких туториалов и не подходит к «общению с LLM» как к чисто функциональной задаче заставить черный ящик выплевывать что-то с приемлемым результатом
Разобрали из чего вообще состоит хороший промпт (инструкция, контекст, вводные данные, формат вывода), посмотрели на несколько приемов (few-shot, act like, direct stimulus prompting, chain-of-thought, chatgpt as prompt engineer) , обсудили ошибки, которые совершают люди, считающие что можно получить качественный результат от LLM-генерируемого текста с первого раза (ожидание, что gpt «читает мысли», отсутствие экспериментов с выводом, отсутствие черри-пикинга)
В общем, получилось очень базово, но как оказалось полезно, особенно для тех, кто не читал никаких туториалов и не подходит к «общению с LLM» как к чисто функциональной задаче заставить черный ящик выплевывать что-то с приемлемым результатом
🔥11
Наткнулся на любопытную матрицу для классификации AI-проектов с использованием генеративных сеток
На оси X – риск, который по сути является ответом на вопрос «Сколько ущерба может принести неточность и галлюцинаторность ответа нейросети в конкретном проекте?»
На оси Y – потребность, которую закрывает AI-проект. Это ответ на вопрос «Какую реальную и устойчивую потребность внутри бизнеса закрывает генеративный вывод (исключая желание быть в тренде)?»
Ну и дальше располагая на этой матрице свой проект мы можем отприоритезировать его. Например, проекты в сфере маркетинга, связанные с ИИ располагаются в квадрате «Низко-рисковые, закрывающие значительную потребность», потому что по сути мы можем генерить для каждого пользователя свой более персонализированный маркетинговый посыл, но риски незначительны, потому что даже если мы где-то допустим неточность, то это не повлечет за собой крушения процессов
https://hbr.org/2023/03/a-framework-for-picking-the-right-generative-ai-project
На оси X – риск, который по сути является ответом на вопрос «Сколько ущерба может принести неточность и галлюцинаторность ответа нейросети в конкретном проекте?»
На оси Y – потребность, которую закрывает AI-проект. Это ответ на вопрос «Какую реальную и устойчивую потребность внутри бизнеса закрывает генеративный вывод (исключая желание быть в тренде)?»
Ну и дальше располагая на этой матрице свой проект мы можем отприоритезировать его. Например, проекты в сфере маркетинга, связанные с ИИ располагаются в квадрате «Низко-рисковые, закрывающие значительную потребность», потому что по сути мы можем генерить для каждого пользователя свой более персонализированный маркетинговый посыл, но риски незначительны, потому что даже если мы где-то допустим неточность, то это не повлечет за собой крушения процессов
https://hbr.org/2023/03/a-framework-for-picking-the-right-generative-ai-project
Forwarded from LLM под капотом
Прикольная библиотека для получения желаемого формата ответа от LLM в 100% случаях.
Под капотом, они собирают FSM, который пропускает только валидные tokens на каждом новом шаге. Можно описать формат ответа начиная с regex до JSON модели по pydantic схеме.
От галлюцинаций это не спасает, но уменьшает количество проблем и работает быстрее Microsoft Guidance.
https://github.com/normal-computing/outlines
Под капотом, они собирают FSM, который пропускает только валидные tokens на каждом новом шаге. Можно описать формат ответа начиная с regex до JSON модели по pydantic схеме.
От галлюцинаций это не спасает, но уменьшает количество проблем и работает быстрее Microsoft Guidance.
https://github.com/normal-computing/outlines
Forwarded from The Future Of Work (Evgeniy Volnov)
И вот как раз у LinkedIn вышел «Future of Work Report», где они рассказывают про статистику и тренды в AI и ChatGPT. В целом ничего нового, нас ждет мир победившего генеративного искусственного интеллекта. Но есть интересные детали.
В каких странах люди больше всего добавляют себе «навыки» вокруг AI
1. Сингапур
2. Финляндия
3. Ирландия
4. Индия
5. Канада
(нам об этом не говорят, но скорее всего это связано с большой долей IT-специалистов среди всех пользователей в этих странах)
В каких индустриях (статистика по США)
1. Technology, Information, and Media (2.2%)
2. Education (1.2%)
3. Professional Services (0.9%)
4. Financial Services (0.9%)
5. Manufacturing (0.8%)
Аналитики и исследователи LinkedIn насчитали 500 навыков, на которые вероятно больше всего повлияет генеративный AI. И вот какие это навыки и в каких индустриях:
Business and industry: Financial Reporting, Email Marketing, Data Analysis
Communication and media: Writing, Editing, Documentation, Translation, Content Creation
Engineering: Software Development Tools, Programming Languages, Data Science
People: Time Management Tools
Но самая интересная табличка про конкретные категории профессий. В каких из них и что будет подвержено влиянию генеративного AI (они там очень деликатно пишут augmentable by GAI). У Software Engineer это почти 100% навыков.
В каких странах люди больше всего добавляют себе «навыки» вокруг AI
1. Сингапур
2. Финляндия
3. Ирландия
4. Индия
5. Канада
(нам об этом не говорят, но скорее всего это связано с большой долей IT-специалистов среди всех пользователей в этих странах)
В каких индустриях (статистика по США)
1. Technology, Information, and Media (2.2%)
2. Education (1.2%)
3. Professional Services (0.9%)
4. Financial Services (0.9%)
5. Manufacturing (0.8%)
Аналитики и исследователи LinkedIn насчитали 500 навыков, на которые вероятно больше всего повлияет генеративный AI. И вот какие это навыки и в каких индустриях:
Business and industry: Financial Reporting, Email Marketing, Data Analysis
Communication and media: Writing, Editing, Documentation, Translation, Content Creation
Engineering: Software Development Tools, Programming Languages, Data Science
People: Time Management Tools
Но самая интересная табличка про конкретные категории профессий. В каких из них и что будет подвержено влиянию генеративного AI (они там очень деликатно пишут augmentable by GAI). У Software Engineer это почти 100% навыков.
Forwarded from эйай ньюз
Пум-пум-пум. Там Opena AI выкатили значительную фичу - тепeрь можно файнтюнить GPT 3.5 Turbo.
По сути это LoRa-as-a-service. Готовите json файл со своими диалогами, загружаете на сервер OpenAI (если хотите без этого - то вам к LLaMa, кек) через API и через апишку же и запускаем трейнинг.
Цена вопроса:
- Во время тренировки: $0.008 / 1K токенов
- Стоимость ввода во время инференса вашей кастомной модели: $0.012 / 1K токенов
- Стоимость генерации: $0.016 / 1K Tokens.
В общем, для
а для
Гайд по файн-тюнингу GPT 3.5
@ai_newz
По сути это LoRa-as-a-service. Готовите json файл со своими диалогами, загружаете на сервер OpenAI (если хотите без этого - то вам к LLaMa, кек) через API и через апишку же и запускаем трейнинг.
Цена вопроса:
- Во время тренировки: $0.008 / 1K токенов
- Стоимость ввода во время инференса вашей кастомной модели: $0.012 / 1K токенов
- Стоимость генерации: $0.016 / 1K Tokens.
В общем, для
babbage-002 кастомная модель обойдется в 4 раза дороже,а для
davinci-002 в 6 раз дороже чем базовая. Оно, конечно, понятно - нужно же отдельную ноду поднять и зарезервировать GPU под вашу индивидуальную модель.Гайд по файн-тюнингу GPT 3.5
@ai_newz