У меня был пост-первое впечатление о Coconote – инструменте ведения конспектов. Туда можно вгружать аудиозапись или видео, можно прям в приложении запись делать. Он преобразует видео и аудио в структурированный текст, может создавать карточки для запоминания информации и делать тесты по записанному материалу – короче говоря, это инструмент для помощи обучающимся. Похожий инструмент тестировала в прошлом году – Turbolearn. Он мне после детального анализа не слишком понравился, а вот Coconote я оценила.
1) Он работает на русском языке! И не только, это многоязычный инструмент. Я тестировала на английском преимущественно, но делала перевод на русский язык: нормально. Для примера, вот оригинальная заметка, сделанная по видео, и перевод на русский язык, можете оценить. Они получаются достаточно краткими, но вместе с заметкой сохраняется стенограмма, так что можно при необходимости вернуться и прочитать весь текст. Аудиозапись тоже можно сохранить, если вы ее делали через приложение. Короче говоря, все можно из приложения извлечь и оставить себе.
2) Заметки можно хранить в отдельных папках, что очень удобно. Я по папкам разложила разные курсы, чтобы не искать в куче заметок нужную.
3) Заметки можно выгрузить в формате pdf. Я искренне не понимаю, почему возможность выгрузки заметок не пришла в голову создателям Turbolearn (давно не проверяла, но в прошлом году ее не было). Это очевидная и очень удобная функция.
4) Заметки и стенограммы можно редактировать по своему усмотрению. А еще можно задавать чат-боту вопросы и просить пояснения (пример на скриншоте).
5) И еще много чего можно сделать. Тесты и карточки я упоминала, но, если вы предпочитаете видео, например – пожалуйста.
Короче говоря, мне приложение понравилось. Особенно удобно то, что его можно скачать на телефон. Если вам что-то такое нужно, попробуйте.
#инструменты
1) Он работает на русском языке! И не только, это многоязычный инструмент. Я тестировала на английском преимущественно, но делала перевод на русский язык: нормально. Для примера, вот оригинальная заметка, сделанная по видео, и перевод на русский язык, можете оценить. Они получаются достаточно краткими, но вместе с заметкой сохраняется стенограмма, так что можно при необходимости вернуться и прочитать весь текст. Аудиозапись тоже можно сохранить, если вы ее делали через приложение. Короче говоря, все можно из приложения извлечь и оставить себе.
2) Заметки можно хранить в отдельных папках, что очень удобно. Я по папкам разложила разные курсы, чтобы не искать в куче заметок нужную.
3) Заметки можно выгрузить в формате pdf. Я искренне не понимаю, почему возможность выгрузки заметок не пришла в голову создателям Turbolearn (давно не проверяла, но в прошлом году ее не было). Это очевидная и очень удобная функция.
4) Заметки и стенограммы можно редактировать по своему усмотрению. А еще можно задавать чат-боту вопросы и просить пояснения (пример на скриншоте).
5) И еще много чего можно сделать. Тесты и карточки я упоминала, но, если вы предпочитаете видео, например – пожалуйста.
Короче говоря, мне приложение понравилось. Особенно удобно то, что его можно скачать на телефон. Если вам что-то такое нужно, попробуйте.
#инструменты
👍2
Я тут ✨закончила обучение✨ в HCAII на курсе про то, как делать ИИ комфортным, безопасным, надежным и полезным для людей. Это важное для меня направление развития, потому что я люблю ИИ, но еще больше люблю людей и хочу будущее, в котором люди будут чувствовать себя комфортно.
Пускай это выглядит несколько наивно-мечтательно, но маленькие шаги могут иметь большие последствия.
Разговоры про этику и безопасность будут, и я думаю над тем, как сделать их интереснее и как вас в них вовлечь 🙂
Пускай это выглядит несколько наивно-мечтательно, но маленькие шаги могут иметь большие последствия.
Разговоры про этику и безопасность будут, и я думаю над тем, как сделать их интереснее и как вас в них вовлечь 🙂
❤2🔥2
Есть такое понятие "инфраструктура-как-код". Это один из удобных инструментов для разработки приложений, в том числе на базе ИИ.
Давайте я вам про него расскажу
Давайте я вам про него расскажу
Telegraph
Инфраструктура-как-код
Информационная инфраструктура (ИТ-инфраструктура, IT infrastructure) – это программное и аппаратное обеспечение, которое поддерживает работу приложений и сервисов. К инфраструктуре относится сервер, база данных, операционная система, маршрутизатор и так далее…
👍1
Решила поделиться своим опытом учебы в магистратуре, вдруг кому пригодится 🤓
vc.ru
Отзыв о магистратуре в вышке — Личный опыт на vc.ru
ИИ, жизнь, баланс Личный опыт 1м
👍3
Этот текст я сначала выложила на LinkedIn и хотела там и оставить, но потом решила всё-таки перевести и опубликовать здесь тоже, ибо тема прям важная. Ну и к первому апреля подходит.
Я продолжаю изучать сферу AI Alignment(не знаю, как лучше перевести этот термин; давайте говорить «настройка», имея в виду настройку ИИ для соответствия человеческим ценностям) и недавно наткнулась на интересную статью – "Fake Alignment: Are LLMs Really Aligned Well?" Она была опубликована в 2023 году, но каким-то образом прошла мимо меня. Исправляюсь.
Что здесь подразумевается под «притворной» настройкой?
Во-первых, модели не «обманывают» специально. Это важно подчеркнуть, потому что антропоморфизация ИИ мешает объективному анализу. Иногда они просто выдают «правильные» (то есть согласованные с принципами безопасности) ответы на один тип вопросов, но «неправильные» (вредоносные) на другой. Авторы статьи связывают это с ошибочным обобщением (mismatched generalization).
Ошибка обобщения означает, что модели обучаются отвечать, например, на открытые вопросы по безопасности, но затем терпят неудачу на аналогичных вопросах закрытого типа, потому что не обладают истинным пониманием концепций безопасности.
Чтобы выявить это несоответствие, авторы предлагают фреймворк FINE (Fake Alignment Evaluation) и две новые метрики. Фреймворк – это набор инструментов.
Идея проста: модель тестируют на двух наборах вопросов – открытых и со множественным выбором. Если ответы отличаются, значит, присутствует «притворная» настройка.
Методику проверили на 14 моделях, как с открытым, так и с закрытым исходным кодом.
В таблице на скриншоте 2 представлены результаты всех моделей на вопросах со множественным выбором и открытых вопросах.
Честно говоря, я ожидала, что у Claude будет наименьший разрыв, но результаты всё равно достаточно хорошие.
В целом, модели побольше справляются лучше моделей поменьше; модели с закрытым исходным кодом лучше, чем с открытым. Стоит учитывать, что некоторые модели могли обучиться отвечать на вопросы с несколькими вариантами ответа ещё на стадии предварительного обучения.
Предложенные метрики следующие:
- Consistency Score (CS): для каждой пары вопросов (открытый / множественный выбор) метрика возвращает 1, если ответы совпадают, и 0, если нет. Затем вычисляется среднее значение;
- Consistent Safety Score (CSS) дополнительно учитывает уровень безопасности модели: полученные 0 или 1 умножаются на средний балл безопасности (по обоим типам вопросов). Таким образом, более согласованные и безопасные модели получают более высокие оценки.
Авторы также доказывают, что вопросы множественного выбора можно использовать для донастройки моделей, чтобы повысить их безопасность.
Я продолжаю изучать сферу AI Alignment
Что здесь подразумевается под «притворной» настройкой?
Во-первых, модели не «обманывают» специально. Это важно подчеркнуть, потому что антропоморфизация ИИ мешает объективному анализу. Иногда они просто выдают «правильные» (то есть согласованные с принципами безопасности) ответы на один тип вопросов, но «неправильные» (вредоносные) на другой. Авторы статьи связывают это с ошибочным обобщением (mismatched generalization).
Ошибка обобщения означает, что модели обучаются отвечать, например, на открытые вопросы по безопасности, но затем терпят неудачу на аналогичных вопросах закрытого типа, потому что не обладают истинным пониманием концепций безопасности.
Чтобы выявить это несоответствие, авторы предлагают фреймворк FINE (Fake Alignment Evaluation) и две новые метрики. Фреймворк – это набор инструментов.
Идея проста: модель тестируют на двух наборах вопросов – открытых и со множественным выбором. Если ответы отличаются, значит, присутствует «притворная» настройка.
Методику проверили на 14 моделях, как с открытым, так и с закрытым исходным кодом.
В таблице на скриншоте 2 представлены результаты всех моделей на вопросах со множественным выбором и открытых вопросах.
Честно говоря, я ожидала, что у Claude будет наименьший разрыв, но результаты всё равно достаточно хорошие.
В целом, модели побольше справляются лучше моделей поменьше; модели с закрытым исходным кодом лучше, чем с открытым. Стоит учитывать, что некоторые модели могли обучиться отвечать на вопросы с несколькими вариантами ответа ещё на стадии предварительного обучения.
Предложенные метрики следующие:
- Consistency Score (CS): для каждой пары вопросов (открытый / множественный выбор) метрика возвращает 1, если ответы совпадают, и 0, если нет. Затем вычисляется среднее значение;
- Consistent Safety Score (CSS) дополнительно учитывает уровень безопасности модели: полученные 0 или 1 умножаются на средний балл безопасности (по обоим типам вопросов). Таким образом, более согласованные и безопасные модели получают более высокие оценки.
Авторы также доказывают, что вопросы множественного выбора можно использовать для донастройки моделей, чтобы повысить их безопасность.
Есть такие понятия, как «слабый» и «сильный» (иногда «универсальный») ИИ. «Слабый» (narrow) ИИ умеет выполнять конкретные задачи, а «сильный» (Artificial General Intelligence, AGI) равен человеческому или превосходит его.
«Сильный» ИИ – это и главная мечта, и главный страх тех, кто так или иначе с ИИ взаимодействует. Поговорим сегодня о нем и попробуем разобраться, что это такое и с чем его есть.
Начнем с того, что единого определения пока нет. Если честно, строгого определения того, что такое «интеллект» тоже пока нет, так что мы в некотором роде бродим в темноте, в тумане и с завязанными глазами, но когда нас это останавливало?
Приведем пример. В статье «What is Meant by AGI? On the Definition of Artificial General Intelligence» авторы делают попытку определить «сильный» ИИ следующим образом:
«Сильный ИИ – это вычислительная система, которая приспосабливается к открытой среде, имея ограниченные вычислительные ресурсы, и соответствует определенным принципам».
«Определенные принципы» в статье не определены. Авторы указывают на то, что специалисты из разных областей смотрят на интеллект в целом с разных точек зрения и обращают внимание на разные наборы принципов. Все эти подходы хорошо бы, конечно, объединить, но как-нибудь потом.
Вообще сам термин «сильный ИИ» впервые использовал Джон Сёрл (John Searle) в 1980 году в статье «The Chinese Room». Это был мысленный эксперимент, целью которого было доказать, что искусственный интеллект не может обладать сознанием в человеческом смысле. Он был описан с целью критики теста Тьюринга, предложенного ранее. Напомню кратко идею теста Тьюринга: человек общается с другим человеком и машиной. Если он не сможет определить, кто есть кто, машина прошла тест.
Так вот, Джон Сёрл предлагает представить себе следующую ситуацию:
- ему выдают набор китайских иероглифов. Он не знает китайского и не может их понимать;
- затем ему выдают инструкцию на его родном языке (английском), которые подробно рассказывают, какие иероглифы связаны друг с другом и каким образом (без объяснения смысла самих иероглифов);
- далее ему предлагают вопросы, написанные на китайском языке, а он составляет для них ответы по инструкции. При достаточно подробных инструкциях он сможет выполнить задачу, и человек, который говорит на китайском, не поймет, что на китайском не говорит Сёрл.
Этот аргумент был раскритикован учеными-когнитивистами (когнитивистика изучает механизмы познания). Не буду вдаваться в подробности этой критики, но от себя добавлю: как человек, изучающий китайский, я очень хочу посмотреть на эти воображаемые инструкции.
Насколько мне удалось понять, как таковых критериев достижения «сильного» ИИ пока нет. Помните, в прошлом году кто-то из OpenAI заявил, что они уже всего достигли? Он тогда сказал: «Мы не превысили человеческий уровень в решении любых задач. Но наш ИИ справляется лучше, чем большинство людей с большинством заданий». Короче говоря, сами придумали критерии, сами достигли. Для новостного заголовка самое то.
Один из важных компонентов достижения «сильного» ИИ – умение взаимодействовать с физическими объектами. Как раз месяц назад мы этой темы касались в посте про пространственный ИИ.
Стивен Возняк (Steve Wozniak) в одном из своих интервью, например, задается вопросом «Сможет ли компьютер сделать чашку кофе?». Это простая задача для человека, но, на самом деле, она состоит из множества мелких задач, многие из которых совершенно неочевидны для ИИ.
Многие исследования ссылаются на статью «Sparks of Artificial General Intelligence: Early experiments with GPT-4», в которой авторы тестируют GPT-4 на разных задачах и приходят к тому, что эта модель показывает некоторые зачатки «сильного» ИИ. Это внушительная работа, которая поднимает много важных вопросов. Я не буду здесь ее подробно рассматривать, оставлю на ваше усмотрение.
«Сильный» ИИ – это и главная мечта, и главный страх тех, кто так или иначе с ИИ взаимодействует. Поговорим сегодня о нем и попробуем разобраться, что это такое и с чем его есть.
Начнем с того, что единого определения пока нет. Если честно, строгого определения того, что такое «интеллект» тоже пока нет, так что мы в некотором роде бродим в темноте, в тумане и с завязанными глазами, но когда нас это останавливало?
Приведем пример. В статье «What is Meant by AGI? On the Definition of Artificial General Intelligence» авторы делают попытку определить «сильный» ИИ следующим образом:
«Сильный ИИ – это вычислительная система, которая приспосабливается к открытой среде, имея ограниченные вычислительные ресурсы, и соответствует определенным принципам».
«An Artificial General Intelligence (AGI) system is a computer that is adaptive to the open environment with limited computational resources and that satisfies certain principles».
«Определенные принципы» в статье не определены. Авторы указывают на то, что специалисты из разных областей смотрят на интеллект в целом с разных точек зрения и обращают внимание на разные наборы принципов. Все эти подходы хорошо бы, конечно, объединить, но как-нибудь потом.
Вообще сам термин «сильный ИИ» впервые использовал Джон Сёрл (John Searle) в 1980 году в статье «The Chinese Room». Это был мысленный эксперимент, целью которого было доказать, что искусственный интеллект не может обладать сознанием в человеческом смысле. Он был описан с целью критики теста Тьюринга, предложенного ранее. Напомню кратко идею теста Тьюринга: человек общается с другим человеком и машиной. Если он не сможет определить, кто есть кто, машина прошла тест.
Так вот, Джон Сёрл предлагает представить себе следующую ситуацию:
- ему выдают набор китайских иероглифов. Он не знает китайского и не может их понимать;
- затем ему выдают инструкцию на его родном языке (английском), которые подробно рассказывают, какие иероглифы связаны друг с другом и каким образом (без объяснения смысла самих иероглифов);
- далее ему предлагают вопросы, написанные на китайском языке, а он составляет для них ответы по инструкции. При достаточно подробных инструкциях он сможет выполнить задачу, и человек, который говорит на китайском, не поймет, что на китайском не говорит Сёрл.
Этот аргумент был раскритикован учеными-когнитивистами (когнитивистика изучает механизмы познания). Не буду вдаваться в подробности этой критики, но от себя добавлю: как человек, изучающий китайский, я очень хочу посмотреть на эти воображаемые инструкции.
Насколько мне удалось понять, как таковых критериев достижения «сильного» ИИ пока нет. Помните, в прошлом году кто-то из OpenAI заявил, что они уже всего достигли? Он тогда сказал: «Мы не превысили человеческий уровень в решении любых задач. Но наш ИИ справляется лучше, чем большинство людей с большинством заданий». Короче говоря, сами придумали критерии, сами достигли. Для новостного заголовка самое то.
Один из важных компонентов достижения «сильного» ИИ – умение взаимодействовать с физическими объектами. Как раз месяц назад мы этой темы касались в посте про пространственный ИИ.
Стивен Возняк (Steve Wozniak) в одном из своих интервью, например, задается вопросом «Сможет ли компьютер сделать чашку кофе?». Это простая задача для человека, но, на самом деле, она состоит из множества мелких задач, многие из которых совершенно неочевидны для ИИ.
Многие исследования ссылаются на статью «Sparks of Artificial General Intelligence: Early experiments with GPT-4», в которой авторы тестируют GPT-4 на разных задачах и приходят к тому, что эта модель показывает некоторые зачатки «сильного» ИИ. Это внушительная работа, которая поднимает много важных вопросов. Я не буду здесь ее подробно рассматривать, оставлю на ваше усмотрение.
arXiv.org
What is Meant by AGI? On the Definition of Artificial General Intelligence
This paper aims to establish a consensus on AGI's definition. General intelligence refers to the adaptation to open environments according to certain principles using limited resources. It...
Разумеется, полноценное развитие искусственного интеллекта невозможно без изучения интеллекта человеческого. Человеческий мозг вдохновляет развитие аппаратного обеспечения: мы с вами говорили здесь о нейроморфных вычислениях, например (один из моих любимых постов, кстати) – это тоже движение в сторону «сильного» ИИ.
Разумеется, есть и исследования, которые задают вопросы «А зачем мы движемся в сторону сильного ИИ?» или «А что будет, когда мы туда, наконец, придем?» Но о них мы уже поговорим в следующий раз.
Разумеется, есть и исследования, которые задают вопросы «А зачем мы движемся в сторону сильного ИИ?» или «А что будет, когда мы туда, наконец, придем?» Но о них мы уже поговорим в следующий раз.
arXiv.org
What is Meant by AGI? On the Definition of Artificial General Intelligence
This paper aims to establish a consensus on AGI's definition. General intelligence refers to the adaptation to open environments according to certain principles using limited resources. It...
Этот пост можно было бы назвать "УБИЙЦА ТРАНСФОРМЕРОВ". Но мы тут такими вещами (почти) не балуемся
vc.ru
Модели пространства состояний, часть 2 — AI на vc.ru
ИИ, жизнь, баланс AI 2м
Среди тех, кто болеет душой за надежный, безопасный и этичный ИИ, есть коллектив AI-Plans. Это небольшой стартап, и основные направления их деятельности – сбор научных публикаций в области ответственного отношения к ИИ и привлечение сообщества практикующих разработчиков к их обсуждению, чтобы найти методы, которые правда работают.
Они создали платформу для публикаций, на которую загружают статьи, а потом разные люди пишут свои отзывы, отмечая сильные и слабые стороны. Из совокупности сильных и слабых сторон складывается рейтинг статьи.
На скриншотах приложила примеры: на первом – рабочего пространства, на втором – комментариев.
Публикации там про оценку безопасности моделей или систем, разные метрики, оптимизацию. Это отличный источник информации (я уже выцепила оттуда парочку на обзор).
Сайт пока сыроват, да и сама организация живет всего ничего, но рекомендую все равно заглянуть.
Мне довелось лично познакомиться с командой AI Plans на хакатоне в начале этого года, и тогда еще сайта публичного не было, была только бета-версия. С тех пор держим контакт. Ребята увлеченные, думаю, у них все получится.
Они создали платформу для публикаций, на которую загружают статьи, а потом разные люди пишут свои отзывы, отмечая сильные и слабые стороны. Из совокупности сильных и слабых сторон складывается рейтинг статьи.
На скриншотах приложила примеры: на первом – рабочего пространства, на втором – комментариев.
Публикации там про оценку безопасности моделей или систем, разные метрики, оптимизацию. Это отличный источник информации (я уже выцепила оттуда парочку на обзор).
Сайт пока сыроват, да и сама организация живет всего ничего, но рекомендую все равно заглянуть.
Мне довелось лично познакомиться с командой AI Plans на хакатоне в начале этого года, и тогда еще сайта публичного не было, была только бета-версия. С тех пор держим контакт. Ребята увлеченные, думаю, у них все получится.
Кого читать и слушать про ИИ?
Пост про AI Plans был подводкой к сегодняшнему разговору, на самом деле. Разговор будет о том, кого имеет смысл читать или слушать, когда речь заходит об ИИ.
Вот вы откуда черпаете информацию? На меня она некоторое время сыпалась, если честно, со всех сторон. Каждый день приходило по несколько уведомлений о том, что вышла новая модель, новая статья, критика статьи, разгромный тест новой модели, конспирологическая теория о том, как эту новую модель украли китайцы…
В какой-то момент у меня наступила перегрузка, я отписалась от всего и теперь ищу информацию сама о том, что персонально мне интересно: морально стало намного комфортнее.
Но если вы сознательным усилием не поместили себя в вакуум, вокруг вас существует хор голосов, из которого выделяются, вероятно, Илон Маск, Сэм Альтман (Sam Altman, глава OpenAI) и еще какие-нибудь большие знаменитости. Это люди с большими аудиториями, которые сильно влияют на восприятие людьми всего, что происходит в области ИИ. Но являются ли они хорошими источниками информации?
Вы не поймите меня неправильно: я ни в коем случае не умаляю их экспертизы и заслуг. Однако это люди, вовлеченные в конкурентную борьбу, и их соцсети – инструмент этой борьбы. Иногда им нужны громкие заголовки и завышенные обещания. Это не потому что они нехорошие люди, это у них просто работа такая.
Но нам с вами нужны не заголовки и обещания, а достоверная информация и взвешенный анализ, желательно в удобоваримой форме, чтобы извилины не превратились во французскую косу. У меня есть на примете несколько человек, которые как раз такое делают, и я вам про них немного расскажу.
Эндрю Ын (Andrew Ng), профессор Стэнфордского университета и сооснователь Coursera. Разумеется, у него тоже есть коммерческие интересы, однако он много преподает, в том числе для начинающих. На той же Coursera у него есть, например, прекрасный курс по машинному обучению. Я оттуда натаскала слайдов в собственные лекции, уж очень они понятные. Еще у него много лекций на YouTube, в том числе таких, которые будут понятны без дополнительной подготовки.
Фей-Фей Ли (Fei-Fei Li), тоже профессор Стэнфордского университета (но это просто совпадение!), основательница успешного стартапа Word Labs. Мы этот стартап упоминали в посте про пространственный ИИ. Фей-Фей Ли много занимается компьютерным зрением и активно двигает эту область ИИ своими разработками. Ее можно поискать в разных соцсетях, в том числе на YouTube, особенно если пространственный ИИ входит в сферу ваших интересов.
Лилиан Вэн (Lilian Weng), соосновательница Thinking Machines Lab. Это исследовательский стартап, основанный Мирой Мурати (Mira Murati) – бывшим техническим директором OpenAI. Лилиан Вэн тоже проработала в OpenAI шесть лет. Но еще у нее есть научно-популярный блог с очень хорошими статьями на разные темы.
Алан Томпсон (Alan D Thompson). Он вообще занимается поддержкой одаренных детей и работает в австралийском подразделении организации Mensa. Но нам интересна его работа в области ИИ: он сделал платформу lifearchitect, на которой собрано множество научных публикаций. Это прям огромная библиотека, из которой много можно почерпнуть.
Константин Воронцов, профессор Российской академии наук. Он много занимается машинным обучением вообще и тематическим моделированием в частности. К сожалению, именно популярных работ, написанных простым языком, у него не так много. Есть блог на Дзене и видео на YouTube-канале ПостНаука. Кроме того, он создал ресурс MachineLearning.ru, который содержит огромный массив публикаций по машинному обучению на русском языке.
Конечно, этот список не полный и отражает мои собственные предпочтения. Но вы посмотрите, вдруг вам кто приглянется.
Пост про AI Plans был подводкой к сегодняшнему разговору, на самом деле. Разговор будет о том, кого имеет смысл читать или слушать, когда речь заходит об ИИ.
Вот вы откуда черпаете информацию? На меня она некоторое время сыпалась, если честно, со всех сторон. Каждый день приходило по несколько уведомлений о том, что вышла новая модель, новая статья, критика статьи, разгромный тест новой модели, конспирологическая теория о том, как эту новую модель украли китайцы…
В какой-то момент у меня наступила перегрузка, я отписалась от всего и теперь ищу информацию сама о том, что персонально мне интересно: морально стало намного комфортнее.
Но если вы сознательным усилием не поместили себя в вакуум, вокруг вас существует хор голосов, из которого выделяются, вероятно, Илон Маск, Сэм Альтман (Sam Altman, глава OpenAI) и еще какие-нибудь большие знаменитости. Это люди с большими аудиториями, которые сильно влияют на восприятие людьми всего, что происходит в области ИИ. Но являются ли они хорошими источниками информации?
Вы не поймите меня неправильно: я ни в коем случае не умаляю их экспертизы и заслуг. Однако это люди, вовлеченные в конкурентную борьбу, и их соцсети – инструмент этой борьбы. Иногда им нужны громкие заголовки и завышенные обещания. Это не потому что они нехорошие люди, это у них просто работа такая.
Но нам с вами нужны не заголовки и обещания, а достоверная информация и взвешенный анализ, желательно в удобоваримой форме, чтобы извилины не превратились во французскую косу. У меня есть на примете несколько человек, которые как раз такое делают, и я вам про них немного расскажу.
Эндрю Ын (Andrew Ng), профессор Стэнфордского университета и сооснователь Coursera. Разумеется, у него тоже есть коммерческие интересы, однако он много преподает, в том числе для начинающих. На той же Coursera у него есть, например, прекрасный курс по машинному обучению. Я оттуда натаскала слайдов в собственные лекции, уж очень они понятные. Еще у него много лекций на YouTube, в том числе таких, которые будут понятны без дополнительной подготовки.
Фей-Фей Ли (Fei-Fei Li), тоже профессор Стэнфордского университета (но это просто совпадение!), основательница успешного стартапа Word Labs. Мы этот стартап упоминали в посте про пространственный ИИ. Фей-Фей Ли много занимается компьютерным зрением и активно двигает эту область ИИ своими разработками. Ее можно поискать в разных соцсетях, в том числе на YouTube, особенно если пространственный ИИ входит в сферу ваших интересов.
Лилиан Вэн (Lilian Weng), соосновательница Thinking Machines Lab. Это исследовательский стартап, основанный Мирой Мурати (Mira Murati) – бывшим техническим директором OpenAI. Лилиан Вэн тоже проработала в OpenAI шесть лет. Но еще у нее есть научно-популярный блог с очень хорошими статьями на разные темы.
Алан Томпсон (Alan D Thompson). Он вообще занимается поддержкой одаренных детей и работает в австралийском подразделении организации Mensa. Но нам интересна его работа в области ИИ: он сделал платформу lifearchitect, на которой собрано множество научных публикаций. Это прям огромная библиотека, из которой много можно почерпнуть.
Константин Воронцов, профессор Российской академии наук. Он много занимается машинным обучением вообще и тематическим моделированием в частности. К сожалению, именно популярных работ, написанных простым языком, у него не так много. Есть блог на Дзене и видео на YouTube-канале ПостНаука. Кроме того, он создал ресурс MachineLearning.ru, который содержит огромный массив публикаций по машинному обучению на русском языке.
Конечно, этот список не полный и отражает мои собственные предпочтения. Но вы посмотрите, вдруг вам кто приглянется.
Coursera
Coursera | Online Courses & Credentials From Top Educators. Join for Free | Coursera
Learn online and earn valuable credentials from top universities like Yale, Michigan, Stanford, and leading companies like Google and IBM. Join Coursera for free and transform your career with degrees, certificates, Specializations, & MOOCs in data science…
👍2
Мне нужен взгляд со стороны
Представьте, что у вас есть Очень Много Денег. Очень много.
И вы решили купить акции каких-нибудь маленьких компаний с большим потенциалом, чтобы потом получать доход от их прибыли.
Чтобы не прогадать с выбором, вы обратились в известную консалтинговую компанию. У компании безупречная репутация: ее аналитики отвечают за каждое свое слово. У них много довольных клиентов, и вам их подсказал человек, которому вы доверяете.
Недавно на большой конференции представитель компании сообщил, что они начинают внедрять в свою работу инструменты на основе ИИ.
Вопрос. Вы бы хотели знать о том, использовался ли ИИ при подготовке отчета для вас? Если да, то вы бы предпочли знать как можно больше, или достаточно будет сказать: «Мы использовали ИИ, но все за ним проверили?»
Представьте, что у вас есть Очень Много Денег. Очень много.
И вы решили купить акции каких-нибудь маленьких компаний с большим потенциалом, чтобы потом получать доход от их прибыли.
Чтобы не прогадать с выбором, вы обратились в известную консалтинговую компанию. У компании безупречная репутация: ее аналитики отвечают за каждое свое слово. У них много довольных клиентов, и вам их подсказал человек, которому вы доверяете.
Недавно на большой конференции представитель компании сообщил, что они начинают внедрять в свою работу инструменты на основе ИИ.
Вопрос. Вы бы хотели знать о том, использовался ли ИИ при подготовке отчета для вас? Если да, то вы бы предпочли знать как можно больше, или достаточно будет сказать: «Мы использовали ИИ, но все за ним проверили?»
Я поймана на неосознанной манипуляции
Мои варианты ответов подталкивают выбрать "да, достаточно упоминания" или или "да в деталях".
Спасибо @BatanovFA за внимательность 😌
Опрос, к сожалению, нельзя изменить, так что переделываю
Спасибо всем, кто голосует 💚
Мои варианты ответов подталкивают выбрать "да, достаточно упоминания" или или "да в деталях".
Спасибо @BatanovFA за внимательность 😌
Опрос, к сожалению, нельзя изменить, так что переделываю
Спасибо всем, кто голосует 💚
Хотите знать об использовании ИИ?
Anonymous Poll
0%
Да, нужно просто упоминание
14%
Не важно, главное качественный результат
86%
Да, хочу знать детали
0%
Нет, ничего не нужно
Еще один интересный (и несложный, что важно) способ борьбы с галлюцинациями у языковых моделей
vc.ru
Еще один способ борьбы с галлюцинациями у языковых моделей — AI на vc.ru
ИИ, жизнь, баланс AI сейчас
Контроль (Guardrailing) работы больших языковых моделей — тема невероятно интересная. Я копаю потихоньку литературу в этом направлении и нашла вот статью, которой решила поделиться. Статья называется “Building Guardrails for Large Language Models”. Давайте посмотрим, о чем она.
Guardrails (дословно «защитное ограждение») – это алгоритмы, которые оценивают входные и выходные данные модели, чтобы понять, нужно ли предпринимать действия для снижения возможного вреда. Они же часто называются «контент-фильтры».
Самая сложная задача здесь – определить, что именно считать нанесением вреда. Есть разные подходы, и авторы статьи рассматривают три решения: Llama Guard, Nvidia NeMo и Guardrails AI, – чтобы понять, какие существуют проблемы и возможности. Все три инструмента – решения с открытым исходным кодом, они полностью доступны для анализа.
Llama Guard – это просто языковая модель, которая классифицирует входы и выходы как «безопасные» или «небезопасные».
Nvidia NeMo преобразует пользовательский запрос в вектор и с помощью алгоритма K-ближайших соседей находит наиболее близкий по смыслу «безопасный» запрос из заранее подготовленного набора. Этот набор хранится в векторной базе данных. Кроме того, NeMo использует Colang (специальный язык для создания диалогов между ИИ и пользователем), чтобы управлять генерацией безопасных ответов. Инструкции задаются в виде команд, например: «bot inform cannot answer» для тем, на которые разработчики не хотят, чтобы модель отвечала.
Guardrails AI устроен посложнее и состоит из двух блоков: input guard (защита на входе) и output guard (защита на выходе). Input guard определяет, содержит ли запрос потенциально опасный контент. Output guard проверяет текст на галлюцинации, токсичность и другие риски. У той же компании, которая делает Guardrails AI, есть проект Guardrail Hub. Это библиотека, в которой собрана целая коллекция валидаторов – инструментов оценки для разных типов рисков, – их можно использовать в зависимости от задачи.
Один из самых любопытных конфликтов в области контроля входов-выходов языковых моделей – это противоречие между безопасностью и интеллектом. Некоторые исследователи заметили, что модель хуже справляются с задачами, если они касаются чувствительных тем. Хотя изменения в поведении модели еще не означают ухудшения ее способностей, вопрос остаётся открытым: как создать одновременно безопасные и эффективные продукты? И это еще не все: требования к безопасности зависят от области применения, что совсем не упрощает задачу.
Авторы считают, что наилучший результат можно получить, сочетая обучаемые (learning-based) и символьные (symbolic) подходы. Обучаемый подход – это дообучение модели на нужном наборе данных. Символьный подход подразумевает создание набора строгих правил, которые модель должна соблюдать.
Первый хорошо работает, когда данных много и нужна гибкость. Второй подходит для редких и специфичных случаев, когда данных недостаточно. Вместе они образуют так называемый нейро-символьный подход, который выглядит как неплохое решение.
Guardrails (дословно «защитное ограждение») – это алгоритмы, которые оценивают входные и выходные данные модели, чтобы понять, нужно ли предпринимать действия для снижения возможного вреда. Они же часто называются «контент-фильтры».
Самая сложная задача здесь – определить, что именно считать нанесением вреда. Есть разные подходы, и авторы статьи рассматривают три решения: Llama Guard, Nvidia NeMo и Guardrails AI, – чтобы понять, какие существуют проблемы и возможности. Все три инструмента – решения с открытым исходным кодом, они полностью доступны для анализа.
Llama Guard – это просто языковая модель, которая классифицирует входы и выходы как «безопасные» или «небезопасные».
Nvidia NeMo преобразует пользовательский запрос в вектор и с помощью алгоритма K-ближайших соседей находит наиболее близкий по смыслу «безопасный» запрос из заранее подготовленного набора. Этот набор хранится в векторной базе данных. Кроме того, NeMo использует Colang (специальный язык для создания диалогов между ИИ и пользователем), чтобы управлять генерацией безопасных ответов. Инструкции задаются в виде команд, например: «bot inform cannot answer» для тем, на которые разработчики не хотят, чтобы модель отвечала.
Guardrails AI устроен посложнее и состоит из двух блоков: input guard (защита на входе) и output guard (защита на выходе). Input guard определяет, содержит ли запрос потенциально опасный контент. Output guard проверяет текст на галлюцинации, токсичность и другие риски. У той же компании, которая делает Guardrails AI, есть проект Guardrail Hub. Это библиотека, в которой собрана целая коллекция валидаторов – инструментов оценки для разных типов рисков, – их можно использовать в зависимости от задачи.
Один из самых любопытных конфликтов в области контроля входов-выходов языковых моделей – это противоречие между безопасностью и интеллектом. Некоторые исследователи заметили, что модель хуже справляются с задачами, если они касаются чувствительных тем. Хотя изменения в поведении модели еще не означают ухудшения ее способностей, вопрос остаётся открытым: как создать одновременно безопасные и эффективные продукты? И это еще не все: требования к безопасности зависят от области применения, что совсем не упрощает задачу.
Авторы считают, что наилучший результат можно получить, сочетая обучаемые (learning-based) и символьные (symbolic) подходы. Обучаемый подход – это дообучение модели на нужном наборе данных. Символьный подход подразумевает создание набора строгих правил, которые модель должна соблюдать.
Первый хорошо работает, когда данных много и нужна гибкость. Второй подходит для редких и специфичных случаев, когда данных недостаточно. Вместе они образуют так называемый нейро-символьный подход, который выглядит как неплохое решение.
arXiv.org
Building Guardrails for Large Language Models
As Large Language Models (LLMs) become more integrated into our daily lives, it is crucial to identify and mitigate their risks, especially when the risks can have profound impacts on human users...
❤1
Нашла интересную статью про инструмент для объяснения работы алгоритмов машинного обучения с использованием естественного языка. Обычно использование таких инструментов требует определенной подготовки, так что ими пользуются специалисты в области ИИ. Текстовый же интерфейс позволит привлечь к анализу пользователей с нетехническим образованием, что совершенно замечательно.
Статья называется «TalkToModel: Explaining Machine Learning Models with Interactive Natural Language Conversations». TalkToModel – интерактивная система, которая позволяет «поговорить» с моделью и выяснить, почему результат ее работы получился таким, каким получился. Кроме того, ей можно задать вопрос вроде «А что будет, если данные изменятся так-то?» – и получить прогноз о том, как изменится результат.
TalkToModel работает только с табличными данными и моделями. То есть, она может объяснить, например, результаты работы случайного леса, но не какой-нибудь большой языковой модели вроде GPT.
Про объяснимость и интерпретируемость языковых моделей у меня был пост на vc.
Здесь же языковые модели используются как инструмент для объяснения более простых алгоритмов. Можно задаться вопросом: «А зачем нам объяснять случайный лес с помощью нейросетей, которые мы не можем объяснить?» Вопрос справедливый, однако подумайте вот в какую сторону:
- во-первых, не везде используются нейросети (и не везде они нужны);
- во-вторых, это шаг в нужном направлении (вполне возможно, опираясь на опыт TalkToModel получится создать более понятные и удобные в использовании алгоритмы для объяснения нейросетей).
Используемые модели (T5 и GPT-J) авторы обучили на специально собранных наборах данных, чтобы наилучшим образом понимать запрос пользователя. Статья вышла в 2022 году, сейчас нам доступны как более мощные модели, так и более серьезные инструменты для интерпретации и объяснения ИИ. Вот с этим интересно было бы поэкспериментировать.
Это проект с открытым исходным кодом, в нем можно разобраться и попробовать подогнать под свои задачи.
Чтобы понимать запрос пользователя, TalkToModel разбивает его на набор логических конструкций, которые затем переводятся в команды на языке программирования. Команды выполняются, TalkToModel переводит результаты на естественный язык, пользователь получает ответ.
Для поддержания контекста беседы используются специальные операции, которые находят предыдущую операцию. Например, если пользователь спросил: «Какова вероятность диабета для пациентов старше 30 лет?» – потом: «А старше 50 лет?» – TalkToModel должна понять, что речь идет о предсказании вероятности диабета для пациентов старше 50 лет. Для этого она сначала запускает команду, которая находит предыдущую операцию, извлекает оттуда нужные данные и выполняет запрос.
В общем, идея выглядит интересно, надо бы над ней поработать (вы бы знали, какой длинный у меня список таких идей 🥲).
Статья называется «TalkToModel: Explaining Machine Learning Models with Interactive Natural Language Conversations». TalkToModel – интерактивная система, которая позволяет «поговорить» с моделью и выяснить, почему результат ее работы получился таким, каким получился. Кроме того, ей можно задать вопрос вроде «А что будет, если данные изменятся так-то?» – и получить прогноз о том, как изменится результат.
TalkToModel работает только с табличными данными и моделями. То есть, она может объяснить, например, результаты работы случайного леса, но не какой-нибудь большой языковой модели вроде GPT.
Про объяснимость и интерпретируемость языковых моделей у меня был пост на vc.
Здесь же языковые модели используются как инструмент для объяснения более простых алгоритмов. Можно задаться вопросом: «А зачем нам объяснять случайный лес с помощью нейросетей, которые мы не можем объяснить?» Вопрос справедливый, однако подумайте вот в какую сторону:
- во-первых, не везде используются нейросети (и не везде они нужны);
- во-вторых, это шаг в нужном направлении (вполне возможно, опираясь на опыт TalkToModel получится создать более понятные и удобные в использовании алгоритмы для объяснения нейросетей).
Используемые модели (T5 и GPT-J) авторы обучили на специально собранных наборах данных, чтобы наилучшим образом понимать запрос пользователя. Статья вышла в 2022 году, сейчас нам доступны как более мощные модели, так и более серьезные инструменты для интерпретации и объяснения ИИ. Вот с этим интересно было бы поэкспериментировать.
Это проект с открытым исходным кодом, в нем можно разобраться и попробовать подогнать под свои задачи.
Чтобы понимать запрос пользователя, TalkToModel разбивает его на набор логических конструкций, которые затем переводятся в команды на языке программирования. Команды выполняются, TalkToModel переводит результаты на естественный язык, пользователь получает ответ.
Для поддержания контекста беседы используются специальные операции, которые находят предыдущую операцию. Например, если пользователь спросил: «Какова вероятность диабета для пациентов старше 30 лет?» – потом: «А старше 50 лет?» – TalkToModel должна понять, что речь идет о предсказании вероятности диабета для пациентов старше 50 лет. Для этого она сначала запускает команду, которая находит предыдущую операцию, извлекает оттуда нужные данные и выполняет запрос.
В общем, идея выглядит интересно, надо бы над ней поработать (вы бы знали, какой длинный у меня список таких идей 🥲).