Профайлинг, нейротехнологии и детекции лжи
21.4K subscribers
1.96K photos
285 videos
115 files
1.11K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
Download Telegram
Между прочим 2 дня тому назад случилось знАковое событие, о котором почему-то никто не говорит.

Microsoft заявила, что постепенно прекращает публичный доступ к ряду инструментов для анализа лица на базе искусственного интеллекта которые, например, определяют эмоцию по мимическим изменениям лица. На полное завершение такого доступа Microsoft дало себе 1 год. Речь идет прежде всего о Microsoft Azure Face.

На всякий случай подчеркну – не только для России прекращает. А вообще. Для всех.

Я помню, еще в начале 10х годов Майкрософтовский стандарт определения эмоций был эталоном для очень многих прикладных решений, начиная от простого нахождения на картинке лица до даже интеграции таких алгоритмов в программы автоматической оценки человека по фото и/или видео. И вот прошло 10 лет и многое изменилось.

Понятно, что и 10 лет тому назад многие говорили, что определение эмоции исключительно по лицу в целом допустимая идея, но в огромном проценте ситуаций совершенно недостаточна. Поскольку внешние изменения лица не всегда отражают внутреннее эмоциональное состояние человека. И наоборот – не всегда внутреннее состояние отражается на лице строго определенным образом. В том числе я говорил и писал об этом здесь неоднократно (много где, прежде всего здесь). Однако тогда в период активного развития технологий мало кто слышал эти возражения: бизнес и технологии временно были важней, чем достоверность.

Напомню, что сама технология строится вокруг подхода Пола Экмана к анализу лица. Именно он был пионером мнения о том, что при правильной оценке, лица может быть достаточно для определения эмоционального состояния человека.

Однако, два дня тому назад Microsoft в своем официальном релизе указывает, что «Эксперты внутри и за пределами компании подчеркивают отсутствие научного консенсуса в отношении определения «эмоций» по лицу человека, а также на проблемы использования этих паттернов в глобальном масштабе».

Перевожу на понятный язык: из-за того, что нет достоверного научного обоснования, что эмоции ОБЯЗАТЕЛЬНО ДОЛЖНЫ приводить к конкретным стереотипным мимическим изменениям нет. К тому же нет доказательств, что такое возможно у всех наций, возрастов и даже предубеждений. Именно поэтому Microsoft отказывается от этого пути развития технологии.

Да, машина по лицу легко может определить «хмурый взгляд», но это не тоже самое, что испытывать гнев. Как минимум в данном случаем мимика не всегда является следствием эмоционального состояния гнева.

Понятно, что Microsoft далеко не самая первая, кто публично отказывается от такой технологии. Пристальный и содержательный разговор на эту тему идет года с 2016-2017. В 2019 к отказу от этой технологии публично призвал пусть не самый, но довольно авторитетный Институт искусственного интеллекта США. И вот теперь потихоньку это докатилось до таких гигантов, как Microsoft. Жду ускорения процесса отказа от автоматизированного определения эмоций по лицу и усложнения технологий. Конечно, за Microsoft последуют другие IT-гиганты. К тому же наметки (например 1, 2 и не только эти) куда идти уже есть, и довольно давно.

Основной тренд сейчас – это полимодальное определение эмоций. На сегодня в эти модальности входят как минимум 4 параметра: лицо, голос, жестикуляция/тело, и оценка контента, который сообщает человек. В некоторых случаях добавляют еще раз психофизиологических параметров – дыхание, пульс, давление, окуломоторные реакции и пр. И даже уже есть успешные примеры использования этих технологий на практике. Однако с конкретными бизнес-решениями пока нелегко, но это дело времени и денег.

#профайлинг, #эмоции, #лицо, #голос, #жесты, #API, #мэтры, #тренды, #Microsoft, #ИИ, #профайлинг_филатов, #ProProfiling, #филатов_профайлинг