Многие из нас уверены, что способны очень точно оценивать ложь и обман со стороны соискателей в ходе собеседования.
В среднем, человек считает, что способен распознать обман в интервью с точностью 80% (Roulin et al., 2014). На деле это не так — необученные интервьюеры распознают ложь с точностью 54%, а обученные — до 65% (Melchers, 2019). Но искусственный интеллект начинает менять и эту область (Forsyth, & Anglim, 2020).
Программа LIWC (Linguistic Inquiry and Word Count) анализирует посты в Твиттере, автобиографические эссе, выступления политиков и даже предсмертные записки. Исследователи применили её к текстовым эссе соискателей. Они попросили кандидатов рассказать про значимое достижение и свои навыки межличностной коммуникации: сначала правдиво, а потом соврать. Затем они проанализировали честные и выдуманные ответы кандидатов с помощью LIWC и определили, какие слова и выражения могут указывать на обман.
Итог достаточно предсказуем: машину обмануть сложнее, чем человека. Приукрашенные тексты распознавались искусственным интеллектом с точностью в 71%.
Признаки, по которым можно определить обман в тексте:
1. Меньше личных местоимений. Возможно, это связано с тем, что кандидаты пытаются дистанцироваться от своей выдуманной истории.
2. Более скудное описание: больше глаголов действия и меньше союзов. Это связано с тем, что обман требует более высоких умственных нагрузок, от которых люди устают (Granhag et al.,2015).
#профайлинг, #обман, #интервью, #технологии, #ИИ, #ProProfiling, #статья
В среднем, человек считает, что способен распознать обман в интервью с точностью 80% (Roulin et al., 2014). На деле это не так — необученные интервьюеры распознают ложь с точностью 54%, а обученные — до 65% (Melchers, 2019). Но искусственный интеллект начинает менять и эту область (Forsyth, & Anglim, 2020).
Программа LIWC (Linguistic Inquiry and Word Count) анализирует посты в Твиттере, автобиографические эссе, выступления политиков и даже предсмертные записки. Исследователи применили её к текстовым эссе соискателей. Они попросили кандидатов рассказать про значимое достижение и свои навыки межличностной коммуникации: сначала правдиво, а потом соврать. Затем они проанализировали честные и выдуманные ответы кандидатов с помощью LIWC и определили, какие слова и выражения могут указывать на обман.
Итог достаточно предсказуем: машину обмануть сложнее, чем человека. Приукрашенные тексты распознавались искусственным интеллектом с точностью в 71%.
Признаки, по которым можно определить обман в тексте:
1. Меньше личных местоимений. Возможно, это связано с тем, что кандидаты пытаются дистанцироваться от своей выдуманной истории.
2. Более скудное описание: больше глаголов действия и меньше союзов. Это связано с тем, что обман требует более высоких умственных нагрузок, от которых люди устают (Granhag et al.,2015).
#профайлинг, #обман, #интервью, #технологии, #ИИ, #ProProfiling, #статья
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia научила нейросеть анимировать 3D-модель лица только на основе голоса.
Audio2Face работает как с готовыми аудиофайлами, так и в режиме реального времени. Программа поддерживает четыре языка, включая русский.
Бета-версия Audio2Face с поддержкой русского языка доступна для скачивания.
Демонстрационная версия использует модель персонажа Digital Mark, но для работы можно взять лицо с любыми чертами. Также анимацию, предназначенную для одного персонажа, можно перенести на другого человека. В общем - супер!
Ох, чего только с помощью этого можно будет сделать! ....и плохого, и хорошего.
#технологии, #голос, #лицо, #анимация, #ИИ
Audio2Face работает как с готовыми аудиофайлами, так и в режиме реального времени. Программа поддерживает четыре языка, включая русский.
Бета-версия Audio2Face с поддержкой русского языка доступна для скачивания.
Демонстрационная версия использует модель персонажа Digital Mark, но для работы можно взять лицо с любыми чертами. Также анимацию, предназначенную для одного персонажа, можно перенести на другого человека. В общем - супер!
Ох, чего только с помощью этого можно будет сделать! ....и плохого, и хорошего.
#технологии, #голос, #лицо, #анимация, #ИИ
В профессиональных кругах не утихают споры вокруг израильской технологии Corsight AI, в конце прошлого года заявившая, что способна по ДНК восстановить образ лица человека.
Компания разрабатывает систему «DNA to Face» — алгоритм, который генерирует фотореалистичное изображения человека на основе его ДНК. Ранее эта технология считалась невозможной, но стартап уверен, что у него получится — он уже привлек финансирование и получил нескольких влиятельных специалистов в свой консультативный совет, включая бывшего директора ЦРУ Джеймса Вулси и бывшего помощника директора ФБР Оливера Ревелла.
Пока не понятно, на что конкретно направлен этот стартап: если только ради денег, то он смог заручиться поддержкой довольно авторитетных ученых и чиновников, которые ранее не были замечены в грязных делах.
Технология, как заявляется, Corsight использует алгоритмы машинного обучения для анализа генетического материала, который может быть извлечен из волос, частиц кожи и ногтей человека. Система автоматически выстраивает физический профиль, составляя таким образом фоторобот — более точное изображение подозреваемого преступника или пропавшего без вести, чем могут составить эксперты-криминалисты по описанию очевидцев.
Как именно работает система — неизвестно, поэтому это все и пахнет простым сбором денег с инвесторов. Стартап отказывается раскрывать данные технологии, ссылаясь на конфиденциальность своего подхода и возможных клиентов в лице государственных органов. Но не все так просто….
Стартап впервые представил свой продукт в 2021 году в рамках презентации на конференции Imperial Capital Investors Conference в Нью-Йорке. И получил хорошие отзывы статусной экспертной комиссии. Которая до этого времени тоже не была замечена ни в чем грязном.
Стоит отметить, что Corsight AI не планирует ограничивать себя в разработке системы «DNA to Face». В дорожной карте стартапа, опубликованной на IPVM, также указаны «Voice to Face» для идентификации возможных преступников по голосу и система идентификации походки.
При этом, технологии Spech2Face уже есть и работают хоть и плохо, но работают. Еще в 2019 году была представлена вполне рабочая версия, которая в 2020 была куплена NVIDIA, которая сейчас активно развивает это направление.
В общем, посмотрим, во что все это выльется: пока не понятно. Я пока точно не знаю, но что-то в этом точно должно быть: как минимум расу, пол, возраст, национальность и ряд базовых внешних параметров определить по ДНК скорее можно, чем нельзя.
#технологии, #AI, #техногиганты, #безопасность, #лицо, #голос, #нейросеть, #профайлинг, #криминалитика, #Филатов, #ProProfiling.
Компания разрабатывает систему «DNA to Face» — алгоритм, который генерирует фотореалистичное изображения человека на основе его ДНК. Ранее эта технология считалась невозможной, но стартап уверен, что у него получится — он уже привлек финансирование и получил нескольких влиятельных специалистов в свой консультативный совет, включая бывшего директора ЦРУ Джеймса Вулси и бывшего помощника директора ФБР Оливера Ревелла.
Пока не понятно, на что конкретно направлен этот стартап: если только ради денег, то он смог заручиться поддержкой довольно авторитетных ученых и чиновников, которые ранее не были замечены в грязных делах.
Технология, как заявляется, Corsight использует алгоритмы машинного обучения для анализа генетического материала, который может быть извлечен из волос, частиц кожи и ногтей человека. Система автоматически выстраивает физический профиль, составляя таким образом фоторобот — более точное изображение подозреваемого преступника или пропавшего без вести, чем могут составить эксперты-криминалисты по описанию очевидцев.
Как именно работает система — неизвестно, поэтому это все и пахнет простым сбором денег с инвесторов. Стартап отказывается раскрывать данные технологии, ссылаясь на конфиденциальность своего подхода и возможных клиентов в лице государственных органов. Но не все так просто….
Стартап впервые представил свой продукт в 2021 году в рамках презентации на конференции Imperial Capital Investors Conference в Нью-Йорке. И получил хорошие отзывы статусной экспертной комиссии. Которая до этого времени тоже не была замечена ни в чем грязном.
Стоит отметить, что Corsight AI не планирует ограничивать себя в разработке системы «DNA to Face». В дорожной карте стартапа, опубликованной на IPVM, также указаны «Voice to Face» для идентификации возможных преступников по голосу и система идентификации походки.
При этом, технологии Spech2Face уже есть и работают хоть и плохо, но работают. Еще в 2019 году была представлена вполне рабочая версия, которая в 2020 была куплена NVIDIA, которая сейчас активно развивает это направление.
В общем, посмотрим, во что все это выльется: пока не понятно. Я пока точно не знаю, но что-то в этом точно должно быть: как минимум расу, пол, возраст, национальность и ряд базовых внешних параметров определить по ДНК скорее можно, чем нельзя.
#технологии, #AI, #техногиганты, #безопасность, #лицо, #голос, #нейросеть, #профайлинг, #криминалитика, #Филатов, #ProProfiling.
Corsight
Corsight AI - Facial Intelligence
Introducing Facial Intelligence Use your existing cameras to generate real-time insights. Track both known POIs and unknown suspects to identify fraud, enhance customer experience, and prevent crime. Book a Demo Unveil contextual insights in real-time Identify…
Профильный комитет Госдумы одобрил поправку о лишении свободы до 15 лет за фейки о российских военных. Не буду это комментировать.
Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.
Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.
Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.
Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.
Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.
Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.
Регистрация здесь:
https://proprofiling.com/dpf
#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.
Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.
Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.
Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.
Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.
Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.
Регистрация здесь:
https://proprofiling.com/dpf
#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
5 простых и бесплатных сервисов, помогающих бороться в фейками, используемых для поиска скрытых деталей и ошибок в изображениях и видео.
1. Forensically
Это набор бесплатных инструментов для анализа изображений.
«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.
2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.
3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.
Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.
4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.
5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.
Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).
KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.
Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.
Перспективы и разработки
В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.
Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.
Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?
Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
1. Forensically
Это набор бесплатных инструментов для анализа изображений.
«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.
2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.
3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.
Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.
4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.
5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.
Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).
KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.
Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.
Перспективы и разработки
В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.
Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.
Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?
Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
29a.ch
Forensically, free online photo forensics tools
Forensically is a set of free tools for digital image forensics. It includes clone detection, error level analysis, meta data extraction and more.
Как проверить подлинность фото и видео, опубликованного на YouTube: 6 сервисов
FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.
На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).
Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:
YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.
YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.
Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».
Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».
Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.
На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).
Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:
YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.
YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.
Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».
Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».
Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
mattw.io
Location Search - Discover Geo-tagged Videos - MW Geofind
Search YouTube for geographically tagged videos by location, topic, or channel. Videos are viewable in a map and data exportable in JSON and CSV.
Опубликован большой альманах «Искусственный Интеллект» индекс 2021 года.
Я в последние 5 лет смотрю его довольно пристально, тем более, что в позапрошлом году там было упоминание о нас и о нашей победе в «Новаторе Москвы» в номинации «IT и ИИ».
О искусственном интеллекте в профайлинге я здесь писал довольно много, посмотрите по хештегам. И не только хорошего. Но тем не менее факт есть факт: будущее профайлинга во многом связано именно с ИИ. Его значение будет только увеличиваться, в то время как значение других направлений профайлинга так интенсивно развиваться не будут.
Всем, кто интересуется этой темой будет интересно взглянуть отчет. В том числе и в связи с разговорами о том, что наши IT-специалисты уезжают за рубеж. По своему опыту и кругу общения скажу: да, уезжают. Не все конечно, но чувствительно. А между прочим в РФ всего 400 компаний, занимающихся ИИ. Это капля в море по сравнению с Китаем или США и даже с Бразилией. Тоже самое относительно публикаций по ИИ и патентам.
В общем – расти и развиваться есть куда.
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
Я в последние 5 лет смотрю его довольно пристально, тем более, что в позапрошлом году там было упоминание о нас и о нашей победе в «Новаторе Москвы» в номинации «IT и ИИ».
О искусственном интеллекте в профайлинге я здесь писал довольно много, посмотрите по хештегам. И не только хорошего. Но тем не менее факт есть факт: будущее профайлинга во многом связано именно с ИИ. Его значение будет только увеличиваться, в то время как значение других направлений профайлинга так интенсивно развиваться не будут.
Всем, кто интересуется этой темой будет интересно взглянуть отчет. В том числе и в связи с разговорами о том, что наши IT-специалисты уезжают за рубеж. По своему опыту и кругу общения скажу: да, уезжают. Не все конечно, но чувствительно. А между прочим в РФ всего 400 компаний, занимающихся ИИ. Это капля в море по сравнению с Китаем или США и даже с Бразилией. Тоже самое относительно публикаций по ИИ и патентам.
В общем – расти и развиваться есть куда.
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
Индекс-ИИ-2021.pdf
8.8 MB
А вот и сам Альманах.
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling