Насчет cтатьи "Facial recognition technology can expose political orientation from naturalistic facial images" (https://www.nature.com/articles/s41598-020-79310-1), которая пару недель назад сделала пугающие заголовки типа "биометрическая система распознает политические взгляды человека". Сразу представляются камеры, которые обводят лица проходящих в метро людей синим или красным прямоугольником.
Я внимательно изучил статью, и она попахивает шарлатанством. Во-первых, в качестве набора данных для анализа автор использовал миллион фотографий, 90% которых было взято с сайтов знакомств, а оставшиеся 10% с FB. Люди используют на сайтах знакомств не случайные фотографии (например, захваченные камерой в потоке, или фото на паспорт), а сознательно их выбирают. То же относится и соцсетям (FB). Может ли быть, чтом модель классифицирует особенности этого выбора, и потом автор пытается искать корелляцию этих особенностей с бинарной (!) политической ориентацией? Вполне. Автор пытается адресовать этот момент странными утверждениями наподобие "Liberals tended to face the camera more directly, were more likely to express surprise, and less likely to express disgust" (даже с какой-то цитатой!), но не анализирует подробно, поэтому возникают сомнения.
Во-вторых, общеизвестно, что на сайтах знакомств люди зачастую используют фильтры для улучшения фотографий (и индустрия пытается с этим бороться). Также известно, что модель Resnet очень чувствительна к текстурам (как и CNN в целом, по понятным причинам). Тема улучшенных фотографий в работе не поднималась вообще; могла ли модель сфокусироваться на артефактах, которые фильтры оставляют на улучшенных фото? Вполне.
В-третьих, автор делает попытку странслировать self-reported political orientation в бинарную R-D политическую ориентацию, делая предположения, что скорее всего на сайтах знакомств люди сообщают полностью правдивую информацию о себе. Тоже вызывает сомнения.
В-четвертых, общая точность 69..72% против 50% случайного выбора или 55% точности человеческой оценки не очень впечатляет, и, на мой взгляд, не дотягивает до необходимой для утверждений наподобие "accuracy remained high".
(В-пятых, автор уже был замечен в написании статей, которые идеально подходят для создания clickbait. Несколько лет назад он выпустил статью, из которой следовало, что "neural networks are more accurate than humans at detecting sexual orientation from facial images", об чем тут же написали, что "нейросети могут точно определять сексуальную ориентацию по фото". Но это скорее деталь, которая не относится напрямую к утверждениям автора в исходной статье)
Итого, представляется разумным, что заголовок статьи следует читать как "FR tech can be more accurate than humans in guessing self described political orientation from dating sites profile images", и не делать далеко идущих выводов. #CrackpotAI
Я внимательно изучил статью, и она попахивает шарлатанством. Во-первых, в качестве набора данных для анализа автор использовал миллион фотографий, 90% которых было взято с сайтов знакомств, а оставшиеся 10% с FB. Люди используют на сайтах знакомств не случайные фотографии (например, захваченные камерой в потоке, или фото на паспорт), а сознательно их выбирают. То же относится и соцсетям (FB). Может ли быть, чтом модель классифицирует особенности этого выбора, и потом автор пытается искать корелляцию этих особенностей с бинарной (!) политической ориентацией? Вполне. Автор пытается адресовать этот момент странными утверждениями наподобие "Liberals tended to face the camera more directly, were more likely to express surprise, and less likely to express disgust" (даже с какой-то цитатой!), но не анализирует подробно, поэтому возникают сомнения.
Во-вторых, общеизвестно, что на сайтах знакомств люди зачастую используют фильтры для улучшения фотографий (и индустрия пытается с этим бороться). Также известно, что модель Resnet очень чувствительна к текстурам (как и CNN в целом, по понятным причинам). Тема улучшенных фотографий в работе не поднималась вообще; могла ли модель сфокусироваться на артефактах, которые фильтры оставляют на улучшенных фото? Вполне.
В-третьих, автор делает попытку странслировать self-reported political orientation в бинарную R-D политическую ориентацию, делая предположения, что скорее всего на сайтах знакомств люди сообщают полностью правдивую информацию о себе. Тоже вызывает сомнения.
В-четвертых, общая точность 69..72% против 50% случайного выбора или 55% точности человеческой оценки не очень впечатляет, и, на мой взгляд, не дотягивает до необходимой для утверждений наподобие "accuracy remained high".
(В-пятых, автор уже был замечен в написании статей, которые идеально подходят для создания clickbait. Несколько лет назад он выпустил статью, из которой следовало, что "neural networks are more accurate than humans at detecting sexual orientation from facial images", об чем тут же написали, что "нейросети могут точно определять сексуальную ориентацию по фото". Но это скорее деталь, которая не относится напрямую к утверждениям автора в исходной статье)
Итого, представляется разумным, что заголовок статьи следует читать как "FR tech can be more accurate than humans in guessing self described political orientation from dating sites profile images", и не делать далеко идущих выводов. #CrackpotAI