У нас, людей, есть склонность все вокруг себя очеловечивать. Мы очеловечиваем все, что движется, а что не движется, двигаем и очеловечиваем. С ИИ это тоже работает, несмотря на то что ИИ – абстрактная штука без ручек, ножек и глазок. Нашему мозгу такое не помеха.
Склонность к очеловечиванию несет в себе как некоторые позитивные эффекты, так и риски, о которых мы сегодня и поговорим
Склонность к очеловечиванию несет в себе как некоторые позитивные эффекты, так и риски, о которых мы сегодня и поговорим
Telegraph
Антропоморфизация
Антропоморфизация (очеловечивание) – это наделение живых существ, неодушевленных объектов и явлений человеческими чертами. В древние времена люди создавали целые пантеоны богов, очеловечивая силы природы. И, кстати, уже тогда были критики сего явления: древнегреческий…
Что-то я забыла написать сегодня, а пост вышел
vc.ru
Полезность объяснений работы ИИ — ИИ, жизнь, баланс на vc.ru
ИИ, жизнь, баланс сейчас
Мне некоторое время назад попалось на глаза приложение Seeing AI от Microsoft. Идея этого приложения – помочь слепым и слабовидящим людям ориентироваться в окружающем мире. Человек наводит камеру на объект и получает описание. Или просто водит камерой вокруг и получает описание пространства и объектов в нем.
Здесь мы вынуждены оставить вопрос о том, как слепой или слабовидящий человек находит и запускает нужное приложение. Допустим, ему помогает голосовой помощник.
Приложение должно работать на платформах iOS и Android, но мне почему-то скачать его на iOS не удалось. На Android протестировала, впечатления получила смешанные: с одной стороны, это действительно хорошая идея и то направление, в котором и должно двигаться развитие ИИ в первую очередь. С другой стороны, приложение показалось мне достаточно сырым: в нем нужно использовать визуальный интерфейс, чтобы переключаться между режимами, что довольно бестолково. Точность тоже так себе, если честно, во всяком случае, на русском языке. Есть над чем работать.
На iOS есть подозрительно похожее приложение Envision AI, которое работает с теми же функциями и примерно так же с точки зрения эффективности. Интерфейс опять визуальный, но приложение может использоваться с Siri. Голосовой ввод был бы логичнее, на мой взгляд.
Судя по информации на официальном сайте, у компании-разработчика Envision Technologies есть еще умные очки, к которым можно подключить само приложение. Глубоко я в эту историю пока не лезла. Возможно, оба приложения работают намного лучше на английском языке и в паре с голосовыми помощниками.
Может быть, я как-нибудь полезу изучать всю эту историю подробнее. А пока просто делюсь с вами, потому что звучит это интересно.
#инструменты
Здесь мы вынуждены оставить вопрос о том, как слепой или слабовидящий человек находит и запускает нужное приложение. Допустим, ему помогает голосовой помощник.
Приложение должно работать на платформах iOS и Android, но мне почему-то скачать его на iOS не удалось. На Android протестировала, впечатления получила смешанные: с одной стороны, это действительно хорошая идея и то направление, в котором и должно двигаться развитие ИИ в первую очередь. С другой стороны, приложение показалось мне достаточно сырым: в нем нужно использовать визуальный интерфейс, чтобы переключаться между режимами, что довольно бестолково. Точность тоже так себе, если честно, во всяком случае, на русском языке. Есть над чем работать.
На iOS есть подозрительно похожее приложение Envision AI, которое работает с теми же функциями и примерно так же с точки зрения эффективности. Интерфейс опять визуальный, но приложение может использоваться с Siri. Голосовой ввод был бы логичнее, на мой взгляд.
Судя по информации на официальном сайте, у компании-разработчика Envision Technologies есть еще умные очки, к которым можно подключить само приложение. Глубоко я в эту историю пока не лезла. Возможно, оба приложения работают намного лучше на английском языке и в паре с голосовыми помощниками.
Может быть, я как-нибудь полезу изучать всю эту историю подробнее. А пока просто делюсь с вами, потому что звучит это интересно.
#инструменты
App Store
Envision AI
Envision is the fastest, most reliable and award-winning OCR app that speaks out the visual world, helping people who are blind or have low vision lead more independent lives.
Envision is developed for and together with the blind and low vision community.…
Envision is developed for and together with the blind and low vision community.…
👍2
Немного рассуждений о персонализации
vc.ru
Темная сторона персонализации — AI на vc.ru
ИИ, жизнь, баланс AI 1м
👍1
Я посвятила несколько постов обзору критики подходов к оценке языковых моделей, так что логичный следующий шаг – показать хотя бы один пример того, как такие подходы совершенствуются. Как раз нашла такой пример.
Сначала вышла работа «AlpacaEval : An Automatic Evaluator for Instruction-following Language Models», которая предлагает AlpacaEval – инструмент для оценки работы больших языковых моделей, в частности, того, как хорошо эти самые модели следуют инструкциям. Причина возникновения такого решения в том, что постоянно просить людей провести тесты долго, дорого и сложно. А еще люди могут противоречить себе в своих же оценках, поэтому процесс надо автоматизировать. Как? – Например, взять еще модель, обучить ее на наборах данных, размеченных людьми, и использовать в роли оценщика.
Это хороший подход с точки зрения затрат человеческого труда, времени и денег. Однако оказалось, что AlpacaEval завышает оценки для моделей, которые пишут очень длинный ответ, а не очень точный. И в 2024 году была опубликована статья «Length-Controlled AlpacaEval: A Simple Way to Debias Automatic Evaluators». Авторы поставили целью выявление искажений в автоматической оценке работы языковых моделей, и AlpacaEval взяли в качестве конкретного примера.
Эталоном для сравнения выступает Chatbot Arena – платформа для пользовательской оценки моделей. Там вот как все работает:
пользователь пишет запрос;
ему отвечают модель А и модель Б – пользователь не знает, что это за модели;
пользователь читает оба ответа и выбирает тот, который больше понравился;
на основании такого голосования множества людей составляется рейтинг лучших моделей.
В процессе разработки такой эксперимент поставить сложно: надо как-то привлечь очень много людей на очень много часов. Однако можно постараться приблизиться к «серебряному стандарту». Не золотому, потому что оценки пользователей все-таки могут быть искажены, но лучшему из имеющихся.
Авторы выделили три фактора, которые влияют на оценку одной моделью результатов работы другой модели:
тип модели: есть «основная» модель и та, которую с ней сравнивают;
длина ответа на инструкцию;
сложность инструкции.
Тут надо не запутаться, потому что при автоматической оценке модели три: две соревнующиеся и одна модель-оценщик. Идея авторов в том, чтобы обучить модель-оценщик на наборе данных, в котором указаны
ответ основной модели;
ответ модели, которую сравнивают с основной;
тип модели, которая дала ответ (основная модель или ее конкурент);
длина ответа;
сложность инструкции;
выбор человека (ответ какой модели он посчитал более качественным).
Потом помножить на нуль длину ответа и получить альтернативную оценку.
В результате оценку удалось скорректировать и здорово приблизить к человеческой, которую разные модели получили в Chatbot Arena. Авторы отмечают, что, хотя у их исследования есть ряд ограничений, это шаг в нужном направлении
Сначала вышла работа «AlpacaEval : An Automatic Evaluator for Instruction-following Language Models», которая предлагает AlpacaEval – инструмент для оценки работы больших языковых моделей, в частности, того, как хорошо эти самые модели следуют инструкциям. Причина возникновения такого решения в том, что постоянно просить людей провести тесты долго, дорого и сложно. А еще люди могут противоречить себе в своих же оценках, поэтому процесс надо автоматизировать. Как? – Например, взять еще модель, обучить ее на наборах данных, размеченных людьми, и использовать в роли оценщика.
Это хороший подход с точки зрения затрат человеческого труда, времени и денег. Однако оказалось, что AlpacaEval завышает оценки для моделей, которые пишут очень длинный ответ, а не очень точный. И в 2024 году была опубликована статья «Length-Controlled AlpacaEval: A Simple Way to Debias Automatic Evaluators». Авторы поставили целью выявление искажений в автоматической оценке работы языковых моделей, и AlpacaEval взяли в качестве конкретного примера.
Эталоном для сравнения выступает Chatbot Arena – платформа для пользовательской оценки моделей. Там вот как все работает:
пользователь пишет запрос;
ему отвечают модель А и модель Б – пользователь не знает, что это за модели;
пользователь читает оба ответа и выбирает тот, который больше понравился;
на основании такого голосования множества людей составляется рейтинг лучших моделей.
В процессе разработки такой эксперимент поставить сложно: надо как-то привлечь очень много людей на очень много часов. Однако можно постараться приблизиться к «серебряному стандарту». Не золотому, потому что оценки пользователей все-таки могут быть искажены, но лучшему из имеющихся.
Авторы выделили три фактора, которые влияют на оценку одной моделью результатов работы другой модели:
тип модели: есть «основная» модель и та, которую с ней сравнивают;
длина ответа на инструкцию;
сложность инструкции.
Тут надо не запутаться, потому что при автоматической оценке модели три: две соревнующиеся и одна модель-оценщик. Идея авторов в том, чтобы обучить модель-оценщик на наборе данных, в котором указаны
ответ основной модели;
ответ модели, которую сравнивают с основной;
тип модели, которая дала ответ (основная модель или ее конкурент);
длина ответа;
сложность инструкции;
выбор человека (ответ какой модели он посчитал более качественным).
Потом помножить на нуль длину ответа и получить альтернативную оценку.
В результате оценку удалось скорректировать и здорово приблизить к человеческой, которую разные модели получили в Chatbot Arena. Авторы отмечают, что, хотя у их исследования есть ряд ограничений, это шаг в нужном направлении
GitHub
GitHub - tatsu-lab/alpaca_eval: An automatic evaluator for instruction-following language models. Human-validated, high-quality…
An automatic evaluator for instruction-following language models. Human-validated, high-quality, cheap, and fast. - tatsu-lab/alpaca_eval
В начале года у меня был пост про объяснимость и интерпретируемость ИИ. Потом был еще один – про конкретный инструмент для объяснения результатов работы языковых моделей и совсем недавно – про полезность объяснений.
Почти всегда, когда речь заходит об этических вопросах применительно к ИИ, я пишу с точки зрения пользователя. И здесь все понятно, а вот компаниям эта вся этика, объяснимость и интерпретируемость зачем? Сегодня представлю вам одну точку зрения на этот счет.
Авторы статьи «Creating meaningful work in the age of AI: explainable AI, explainability, and why it matters to organizational designers» указывают на то, что необъяснимая работа ИИ мешает компаниям получить от него максимум пользы. Клиенты компаний не понимают, как работает продукт и можно ли ему доверять. Разработчики тоже не то чтобы могут эти объяснения предоставить. Попытки заменить алгоритмы на более прозрачные снижают эффективность, и использование ИИ уже не выглядит полезным.
В 1951 году Трист и Бэмфорт (Trist & Bamforth) исследовали, почему внедрение нового оборудования для британских шахтеров привело не к повышению, а снижению эффективности добычи угля. Результаты их работы легли в основу принципов разработки социотехнических систем – таких систем, в которых человеку необходимо взаимодействовать с технологией.
Во-первых, изменения должны предлагаться снизу вверх, а не сверху вниз: работники, которые непосредственно взаимодействуют с технологией, лучше знают, чего ей не хватает. И им же отвечать за конечный результат.
Во-вторых, организации должны становиться более адаптивными за счет снижения контроля за каждым действием сотрудников. Больше свободы для работников «на местах» – быстрее реагирование на меняющиеся обстоятельства.
В-третьих, каждая группа сотрудников должна работать над «целой задачей» («whole task»). Это значит, что в распоряжении группы должны быть все процессы разработки конкретного решения от начала до конца. Это даст больше свободы относительно выбора подхода к выполнению задачи и позволит избежать превращения работы в письмо Дяди Федора родителям.
Наконец, каждая задача должна быть значимой и иметь видимое завершение. Работа не должна нигде зависнуть и потеряться, а ее результаты должны быть встроены в большие процессы компании.
Автоматизация должна применяться там, где это необходимо, и настолько, насколько необходимо для улучшения результата.
Если вы подумали: «Хм, это напоминает методологию Agile для разработки программного обеспечения,» – вы не одиноки, оно правда напоминает. Принципиальная разница в том, что идея социотехнической системы относится к устройству организации в целом и была придумана для «традиционных» организаций, где кто-то стоит за станком и вытачивает детали. Agile – это набор принципов конкретно для разработки ИТ-продукта. ИТ-команда может быть частью «традиционной» организации и работать как социотехническая система. Сама организация тоже может быть построена по принципам социотехнической системы, и внутри нее будет гармонично работать ИТ-команда по принципам Agile. Это разные концепции, но они хорошо подходят друг другу.
Если организация построена по принципу социотехнической системы,
сотрудники знают, на что жалуются клиенты;
сотрудники, которые работают с клиентами, также плотно работают с разработчиками;
команда специалистов с разными навыками работает вместе над одним продуктом и делает так, чтобы объяснимость ИИ появилась там, где нужно и выглядела так, как нужно;
каждый член команды может объяснить клиенту, что, как и зачем было сделано.
Так объяснимость ИИ будет всем понятна и полезна.
Почти всегда, когда речь заходит об этических вопросах применительно к ИИ, я пишу с точки зрения пользователя. И здесь все понятно, а вот компаниям эта вся этика, объяснимость и интерпретируемость зачем? Сегодня представлю вам одну точку зрения на этот счет.
Авторы статьи «Creating meaningful work in the age of AI: explainable AI, explainability, and why it matters to organizational designers» указывают на то, что необъяснимая работа ИИ мешает компаниям получить от него максимум пользы. Клиенты компаний не понимают, как работает продукт и можно ли ему доверять. Разработчики тоже не то чтобы могут эти объяснения предоставить. Попытки заменить алгоритмы на более прозрачные снижают эффективность, и использование ИИ уже не выглядит полезным.
В 1951 году Трист и Бэмфорт (Trist & Bamforth) исследовали, почему внедрение нового оборудования для британских шахтеров привело не к повышению, а снижению эффективности добычи угля. Результаты их работы легли в основу принципов разработки социотехнических систем – таких систем, в которых человеку необходимо взаимодействовать с технологией.
Во-первых, изменения должны предлагаться снизу вверх, а не сверху вниз: работники, которые непосредственно взаимодействуют с технологией, лучше знают, чего ей не хватает. И им же отвечать за конечный результат.
Во-вторых, организации должны становиться более адаптивными за счет снижения контроля за каждым действием сотрудников. Больше свободы для работников «на местах» – быстрее реагирование на меняющиеся обстоятельства.
В-третьих, каждая группа сотрудников должна работать над «целой задачей» («whole task»). Это значит, что в распоряжении группы должны быть все процессы разработки конкретного решения от начала до конца. Это даст больше свободы относительно выбора подхода к выполнению задачи и позволит избежать превращения работы в письмо Дяди Федора родителям.
Наконец, каждая задача должна быть значимой и иметь видимое завершение. Работа не должна нигде зависнуть и потеряться, а ее результаты должны быть встроены в большие процессы компании.
Автоматизация должна применяться там, где это необходимо, и настолько, насколько необходимо для улучшения результата.
Если вы подумали: «Хм, это напоминает методологию Agile для разработки программного обеспечения,» – вы не одиноки, оно правда напоминает. Принципиальная разница в том, что идея социотехнической системы относится к устройству организации в целом и была придумана для «традиционных» организаций, где кто-то стоит за станком и вытачивает детали. Agile – это набор принципов конкретно для разработки ИТ-продукта. ИТ-команда может быть частью «традиционной» организации и работать как социотехническая система. Сама организация тоже может быть построена по принципам социотехнической системы, и внутри нее будет гармонично работать ИТ-команда по принципам Agile. Это разные концепции, но они хорошо подходят друг другу.
Если организация построена по принципу социотехнической системы,
сотрудники знают, на что жалуются клиенты;
сотрудники, которые работают с клиентами, также плотно работают с разработчиками;
команда специалистов с разными навыками работает вместе над одним продуктом и делает так, чтобы объяснимость ИИ появилась там, где нужно и выглядела так, как нужно;
каждый член команды может объяснить клиенту, что, как и зачем было сделано.
Так объяснимость ИИ будет всем понятна и полезна.
vc.ru
Объяснимость и интерпретируемость ИИ
Один из ключевых вопросов ИИ – это вопрос его интерпретируемости и объяснимости. В литературе эти термины иногда используются как взаимозаменяемые, но иногда разделяются: интерпретируемость ИИ – возможность понять как моделью был получен определенный ответ…
Сегодня обсуждаем немного мудреную статью, но очень важную для развития ИИ в целом
vc.ru
NeRF – поля излучения нейронов для синтеза изображения — AI на vc.ru
ИИ, жизнь, баланс AI сейчас
Познакомилась с еще одним инструментом, который называется HeyGen. Он доступен в России, есть бесплатная версия на тест.
Здесь можно создать реалистичного ИИ-аватара и сделать с ним видео на разных языках.
Можно сделать своего аватара, написать сценарий видео и получить готовый контент. Есть и набор уже доступных аватаров, можно их использовать.
Можно также взять имеющееся видео и перевести на любой доступный язык, в том числе русский. Актуально, если вы хотите что-то интересное посмотреть, а оно недоступно на знакомом вам языке.
В общем, там куча интересных возможностей. Я подробно пока не тестировала, но сгенерировала цифровой аватар и написала микро-видео, просто чтобы вы увидели пример работы. По-моему, потенциал имеется.
По ценам выходит 30 долларов для индивидуального пользования и 40 долларов на команду из двух человек. Дальше можно докупить места в команде за отдельную плату
#инструменты
Здесь можно создать реалистичного ИИ-аватара и сделать с ним видео на разных языках.
Можно сделать своего аватара, написать сценарий видео и получить готовый контент. Есть и набор уже доступных аватаров, можно их использовать.
Можно также взять имеющееся видео и перевести на любой доступный язык, в том числе русский. Актуально, если вы хотите что-то интересное посмотреть, а оно недоступно на знакомом вам языке.
В общем, там куча интересных возможностей. Я подробно пока не тестировала, но сгенерировала цифровой аватар и написала микро-видео, просто чтобы вы увидели пример работы. По-моему, потенциал имеется.
По ценам выходит 30 долларов для индивидуального пользования и 40 долларов на команду из двух человек. Дальше можно докупить места в команде за отдельную плату
#инструменты
Anthropic одной рукой с военными сотрудничают, а другой пишут исследования про сохранение конфиденциальности пользователей ИИ. Я по это причине смотрю на них с некоторым недоверием.
Недоверие, однако, не должно помешать добросовестному исследованию: есть статья – оцениваем статью, а не автора. Постараюсь сегодня честно придерживаться этого принципа и расскажу вам про статью «Clio: Privacy-Preserving Insights into Real-World AI Use» [1], выпущенную сотрудниками Anthropic в конце прошлого года.
Тем более, что тема интересная: исследование того, как ИИ-ассистенты используются в реальном мире. При этом авторы задались целью сохранить персональные данные пользователей в безопасности
[1] https://arxiv.org/abs/2412.13678v1
Недоверие, однако, не должно помешать добросовестному исследованию: есть статья – оцениваем статью, а не автора. Постараюсь сегодня честно придерживаться этого принципа и расскажу вам про статью «Clio: Privacy-Preserving Insights into Real-World AI Use» [1], выпущенную сотрудниками Anthropic в конце прошлого года.
Тем более, что тема интересная: исследование того, как ИИ-ассистенты используются в реальном мире. При этом авторы задались целью сохранить персональные данные пользователей в безопасности
[1] https://arxiv.org/abs/2412.13678v1
Telegraph
Clio
С сохранением безопасности данных есть ряд сложностей: пользователи делятся чувствительной информацией с ИИ-ассистентами. Если не собирать данные из аккаунтов, а собирать только беседы, туда все равно попадет что-то личное; посадить людей вычитывать все собранные…
Всё говорим о том, что ИИ умеет. А давайте посмотрим, чего он не умеет
vc.ru
Чего ИИ пока не умеет — AI на vc.ru
ИИ, жизнь, баланс AI 3м
👍1
Есть тут фронтенд-разработчики?
Даже если нет, все равно расскажу про один интересный инструмент, который называется Superflex. Superflex пишет код по макету в Figma.
Для тех, кто не знаком с разработкой сайтов или приложений, обычно работа над интерфейсом так происходит:
- дизайнер рисует макет со всеми кнопками, окошками, цветами и надписями;
- макет согласовывается;
- фронтенд-разработчик пишет код, чтобы кнопки работали, письма отправлялись, формы заполнялись и все такое.
Потом код загружается на сервер, и сайт или приложение запускается.
Superflex должен здорово ускорить работу, взяв на себя функции программиста. Надо будет немного заморочиться и установить себе VSCode, подключить к нему Figma, но потом все достаточно просто.
Я взяла кусочек интерфейса из одного из своих учебных проектов и попробовала написать код по нему.
Код сгенерировался достаточно быстро, он с первой попытки вышел рабочий и полностью редактируемый. Скриншот полученного сайта черно-белый, потому что мой макет черно-белый (на скриншоте с кодом кусочек макета видно слева).
Сгенерировано три файла:
- html со структурой сайта;
- js с Java Script-функциями;
- css со стилями.
Стоит эта красота 30 долларов в месяц на одного человека и 300 долларов на команду. Есть бесплатная версия с ограничениями, чтобы потестировать. Доступно без vpn.
#инструменты
Даже если нет, все равно расскажу про один интересный инструмент, который называется Superflex. Superflex пишет код по макету в Figma.
Для тех, кто не знаком с разработкой сайтов или приложений, обычно работа над интерфейсом так происходит:
- дизайнер рисует макет со всеми кнопками, окошками, цветами и надписями;
- макет согласовывается;
- фронтенд-разработчик пишет код, чтобы кнопки работали, письма отправлялись, формы заполнялись и все такое.
Потом код загружается на сервер, и сайт или приложение запускается.
Superflex должен здорово ускорить работу, взяв на себя функции программиста. Надо будет немного заморочиться и установить себе VSCode, подключить к нему Figma, но потом все достаточно просто.
Я взяла кусочек интерфейса из одного из своих учебных проектов и попробовала написать код по нему.
Код сгенерировался достаточно быстро, он с первой попытки вышел рабочий и полностью редактируемый. Скриншот полученного сайта черно-белый, потому что мой макет черно-белый (на скриншоте с кодом кусочек макета видно слева).
Сгенерировано три файла:
- html со структурой сайта;
- js с Java Script-функциями;
- css со стилями.
Стоит эта красота 30 долларов в месяц на одного человека и 300 долларов на команду. Есть бесплатная версия с ограничениями, чтобы потестировать. Доступно без vpn.
#инструменты
Сегодня у нас еще один инструмент. Да, я опять замоталась и ничего не успеваю, но вы меня потерпите, пожалуйста. Тем более, что инструмент я принесла классный и, на мой взгляд, актуальный для многих – PromptLayer.
Он тоже открывается без VPN.
Это инструмент для работы с промптами. У него есть бесплатная версия с ограничениями, чтобы попробовать, а также версия Pro для индивидуальных пользователей и малых команд и версия Enterprise для больших компаний. Pro стоит 50 долларов в месяц, цена на Enterprise договорная.
Можно выбрать разных провайдеров и разные модели, а также создать достаточно сложный промпт с несколькими ролями. Его можно затем сохранить как шаблон и использовать повторно или редактировать.
#инструменты
Он тоже открывается без VPN.
Это инструмент для работы с промптами. У него есть бесплатная версия с ограничениями, чтобы попробовать, а также версия Pro для индивидуальных пользователей и малых команд и версия Enterprise для больших компаний. Pro стоит 50 долларов в месяц, цена на Enterprise договорная.
Можно выбрать разных провайдеров и разные модели, а также создать достаточно сложный промпт с несколькими ролями. Его можно затем сохранить как шаблон и использовать повторно или редактировать.
#инструменты