Сегодня последний день узнать, что ИИ думает о вас.
И на своем примере осознать: ИИ – это сама предвзятость.
Сегодня последний день работы проекта «Рулетка ImageNet» - самой хайповой и вирусной провокации на тему ИИ. Она действует как окно в расистские, женоненавистнические, жестокие и просто абсурдные классификации, которыми люди заразили ИИ (сам то он о нас не смыслит ничего).
ImageNet – это разработанный в Принстонском и Стэнфордском университетах набор данных изображений, широко используемый для машинного обучения.
Цель проекта «Рулетка ImageNet» - дать учебному набору данных «говорить за себя», чтобы он сам (а не эксперты) показал, насколько предвзят ИИ, и почему классификация людей ИИшным способом в лучшем случае ненаучна, а в худшем - глубоко вредна.
Поскольку проект супер-хайповый, мне много писать о нем не нужно.
Задача ИИ простая. По фото определить статус, характер и профессию людей.
Результаты тестов на десятках миллионов фото одни называют «хамскими», другие «забавными», третьи «проницательными», четвертые «заставляющими задуматься».
Еще бы:
• Обама, по мнению ИИ – типичный картежник
• Королева Елизавета – типичная суфражистка
• Меган, Герцогиня Сассекская, ранее Меган Маркл – признана ИИ эксцентричной и сумасбродной
• Президент Трамп – это борец за гражданские права меньшинств.
• Илон Маск – комик
• Киану Ривз — барон
• Президент Зеленский — демагог и мошенник
• Президент Путин получил от ИИ широкий спектр определений - барон, бизнесмен, король, магнат, олигарх
• А Юрий Дудь определен просто и конкретно – детектив.
Однако лучше всего, чтобы осознать степень предвзятости, которой человечество уже заразило ИИ, попробовать проверить на своем фото.
Я попробовал и получил такое определение от ИИ – образец духовности и разума, теософ (от θεοσοφία «божественная мудрость») — человек, занятый мистическим богопознанием, созерцанием Бога, в свете которого открывается таинственное знание всех вещей.
Вот теперь думаю, может переименовать свой канал в Теософ?
Проверьте ИИ на себе https://imagenet-roulette.paglen.com/ (сегодня это еще можно).
А здесь подробности https://www.excavating.ai/
Тут же о том, как пытаются «лечить от предвзятости» ИИ на наборе данных ImageNet http://image-net.org/update-sep-17-2019
#ПредвзятостьИИ
И на своем примере осознать: ИИ – это сама предвзятость.
Сегодня последний день работы проекта «Рулетка ImageNet» - самой хайповой и вирусной провокации на тему ИИ. Она действует как окно в расистские, женоненавистнические, жестокие и просто абсурдные классификации, которыми люди заразили ИИ (сам то он о нас не смыслит ничего).
ImageNet – это разработанный в Принстонском и Стэнфордском университетах набор данных изображений, широко используемый для машинного обучения.
Цель проекта «Рулетка ImageNet» - дать учебному набору данных «говорить за себя», чтобы он сам (а не эксперты) показал, насколько предвзят ИИ, и почему классификация людей ИИшным способом в лучшем случае ненаучна, а в худшем - глубоко вредна.
Поскольку проект супер-хайповый, мне много писать о нем не нужно.
Задача ИИ простая. По фото определить статус, характер и профессию людей.
Результаты тестов на десятках миллионов фото одни называют «хамскими», другие «забавными», третьи «проницательными», четвертые «заставляющими задуматься».
Еще бы:
• Обама, по мнению ИИ – типичный картежник
• Королева Елизавета – типичная суфражистка
• Меган, Герцогиня Сассекская, ранее Меган Маркл – признана ИИ эксцентричной и сумасбродной
• Президент Трамп – это борец за гражданские права меньшинств.
• Илон Маск – комик
• Киану Ривз — барон
• Президент Зеленский — демагог и мошенник
• Президент Путин получил от ИИ широкий спектр определений - барон, бизнесмен, король, магнат, олигарх
• А Юрий Дудь определен просто и конкретно – детектив.
Однако лучше всего, чтобы осознать степень предвзятости, которой человечество уже заразило ИИ, попробовать проверить на своем фото.
Я попробовал и получил такое определение от ИИ – образец духовности и разума, теософ (от θεοσοφία «божественная мудрость») — человек, занятый мистическим богопознанием, созерцанием Бога, в свете которого открывается таинственное знание всех вещей.
Вот теперь думаю, может переименовать свой канал в Теософ?
Проверьте ИИ на себе https://imagenet-roulette.paglen.com/ (сегодня это еще можно).
А здесь подробности https://www.excavating.ai/
Тут же о том, как пытаются «лечить от предвзятости» ИИ на наборе данных ImageNet http://image-net.org/update-sep-17-2019
#ПредвзятостьИИ
-
Excavating AI
An investigation into the politics of training sets, and the fundamental problems with classifying humans.
Власть ИИ над людьми хотят узаконить.
Это может стать самым страшным наследием Трампа для мира.
Признаки тектонических изменений в обществе, в момент их первых проявлений, мало кому заметны. Однако уже через десяток лет, при развитии этих процессов, жизнь человечества кардинально изменится.
Главным таким процессом сегодня является повсеместная передача принятия решений от людей к алгоритмам, - о губительности чего вот уже несколько лет тщетно пытается предупреждать Харари.
Однако, реакция мира на это почти никакая. И все бы ничего. Процесс мог бы еще годы и годы идти медленно и неправильно, подобно попыткам законодательно разрешить проблемы внедрения самоуправляемых авто.
Но миру сильно не повезло. Президентом первой страны мира стал Трамп. Сочетание его ограниченности и недалекости с ковбойской готовностью сначала стрелять, а потом думать, способно теперь изменить будущее не только США, но и всего мира.
Дело в том, что Трамп решил законодательно освободить алгоритмы от ответственности за дискриминацию людей.
Дочитать за 3 мин.:
- на Яндекс Дзен https://clck.ru/JfCrR
- на Medium http://bit.do/feAWT
#ПредвзятостьИИ
Это может стать самым страшным наследием Трампа для мира.
Признаки тектонических изменений в обществе, в момент их первых проявлений, мало кому заметны. Однако уже через десяток лет, при развитии этих процессов, жизнь человечества кардинально изменится.
Главным таким процессом сегодня является повсеместная передача принятия решений от людей к алгоритмам, - о губительности чего вот уже несколько лет тщетно пытается предупреждать Харари.
Однако, реакция мира на это почти никакая. И все бы ничего. Процесс мог бы еще годы и годы идти медленно и неправильно, подобно попыткам законодательно разрешить проблемы внедрения самоуправляемых авто.
Но миру сильно не повезло. Президентом первой страны мира стал Трамп. Сочетание его ограниченности и недалекости с ковбойской готовностью сначала стрелять, а потом думать, способно теперь изменить будущее не только США, но и всего мира.
Дело в том, что Трамп решил законодательно освободить алгоритмы от ответственности за дискриминацию людей.
Дочитать за 3 мин.:
- на Яндекс Дзен https://clck.ru/JfCrR
- на Medium http://bit.do/feAWT
#ПредвзятостьИИ
Яндекс Дзен
Власть ИИ над людьми хотят узаконить
Это может стать самым страшным наследием Трампа для мира
А существует ли справедливость?
Мы можем заставить ИИ не быть расистом, но будет ли это справедливо?
В последнюю пару лет на пути расширения использования ИИ на основе машинного обучения образовывался все более фундаментальный завал – неконтролируемая предвзятость. Она проявлялась во всевозможных формах дискриминации со стороны алгоритмов чернокожих, женщин, малообеспеченных, пожилых и т.д. буквально во всем: от процента кредита до решений о досрочном освобождении из заключения.
Проблема стала настолько серьезной, что на нее навалились всем миром: IT-гиганты и стартапы, военные и разведка, университеты и хакатоны …
И вот, похоже, принципиальное решение найдено. Им стал «Алгоритм Селдона» (детали см. здесь: популярно, научно). Он назван так в честь персонажа легендарного романа «Основание» Айзека Азимова математика Гэри Селдона. Ситуация в романе здорово напоминает нашу сегодняшнюю. Галактическая империя разваливалась, отчасти потому, что выполнение Трех законов робототехники требует гарантий, что ни один человек не пострадает в результате действий роботов. Это парализует любые действия роботов и заводит ситуацию в тупик. Селдон же предложил, как исправить это, обратившись к вероятностным рассуждениям о безопасности.
Разработчики «Алгоритма Селдона» (из США и Бразилии) пошли тем же путем. В результате получился фреймворк для разработки алгоритмов машинного обучения, облегчающий пользователям алгоритма указывать ограничения безопасности и избегания дискриминации (это можно условно назвать справедливостью).
Идея 1й версии «Алгоритма Селдона» была предложена еще 2 года назад. Но нужно было проверить на практике, как она работает. 1е тестирование было на задаче прогнозирования средних баллов в наборе данных из 43 000 учащихся в Бразилии. Все предыдущие алгоритмы машинного обучения дискриминировали женщин. 2е тестирование касалось задачи улучшения алгоритма управления контроллера инсулиновой помпы, чтобы он из-за предвзятостей не увеличивал частоту гипогликемии. Оба теста показали, что «Алгоритм Селдона» позволяет минимизировать предвзятость.
Казалось бы, ура (!?). Не совсем.
Засада может ждать впереди (опять же, как и предсказано Азимовым). Проблема в понимании людьми справедливости. Алгоритмы же так и так ни черта не понимают. И потому решать, что справедливо, а что нет, «Алгоритма Селдона» предлагает людям. Фреймворк позволяет использовать альтернативные определения справедливости. Люди сами должны выбрать, что им подходит, а «Алгоритм Селдона» потом проследит, чтобы выбранная «справедливость» не была нарушена. Однако даже среди экспертов существуют порядка 30 различных определений справедливости. И если даже эксперты не могут договориться о том, что справедливо, было бы странно перекладывать бремя решений на менее опытных пользователей.
В результате может получиться следующее:
• Пользователь рассудит, что справедливо, и задаст правила справедливости алгоритму.
• «Алгоритм Селдона» отследит выполнение правил.
• Но, по-честному, люди так и не будут уверены, справедливо ли они рассудили или нет.
#МашинноеОбучение #Справедливость #ПредвзятостьИИ
Мы можем заставить ИИ не быть расистом, но будет ли это справедливо?
В последнюю пару лет на пути расширения использования ИИ на основе машинного обучения образовывался все более фундаментальный завал – неконтролируемая предвзятость. Она проявлялась во всевозможных формах дискриминации со стороны алгоритмов чернокожих, женщин, малообеспеченных, пожилых и т.д. буквально во всем: от процента кредита до решений о досрочном освобождении из заключения.
Проблема стала настолько серьезной, что на нее навалились всем миром: IT-гиганты и стартапы, военные и разведка, университеты и хакатоны …
И вот, похоже, принципиальное решение найдено. Им стал «Алгоритм Селдона» (детали см. здесь: популярно, научно). Он назван так в честь персонажа легендарного романа «Основание» Айзека Азимова математика Гэри Селдона. Ситуация в романе здорово напоминает нашу сегодняшнюю. Галактическая империя разваливалась, отчасти потому, что выполнение Трех законов робототехники требует гарантий, что ни один человек не пострадает в результате действий роботов. Это парализует любые действия роботов и заводит ситуацию в тупик. Селдон же предложил, как исправить это, обратившись к вероятностным рассуждениям о безопасности.
Разработчики «Алгоритма Селдона» (из США и Бразилии) пошли тем же путем. В результате получился фреймворк для разработки алгоритмов машинного обучения, облегчающий пользователям алгоритма указывать ограничения безопасности и избегания дискриминации (это можно условно назвать справедливостью).
Идея 1й версии «Алгоритма Селдона» была предложена еще 2 года назад. Но нужно было проверить на практике, как она работает. 1е тестирование было на задаче прогнозирования средних баллов в наборе данных из 43 000 учащихся в Бразилии. Все предыдущие алгоритмы машинного обучения дискриминировали женщин. 2е тестирование касалось задачи улучшения алгоритма управления контроллера инсулиновой помпы, чтобы он из-за предвзятостей не увеличивал частоту гипогликемии. Оба теста показали, что «Алгоритм Селдона» позволяет минимизировать предвзятость.
Казалось бы, ура (!?). Не совсем.
Засада может ждать впереди (опять же, как и предсказано Азимовым). Проблема в понимании людьми справедливости. Алгоритмы же так и так ни черта не понимают. И потому решать, что справедливо, а что нет, «Алгоритма Селдона» предлагает людям. Фреймворк позволяет использовать альтернативные определения справедливости. Люди сами должны выбрать, что им подходит, а «Алгоритм Селдона» потом проследит, чтобы выбранная «справедливость» не была нарушена. Однако даже среди экспертов существуют порядка 30 различных определений справедливости. И если даже эксперты не могут договориться о том, что справедливо, было бы странно перекладывать бремя решений на менее опытных пользователей.
В результате может получиться следующее:
• Пользователь рассудит, что справедливо, и задаст правила справедливости алгоритму.
• «Алгоритм Селдона» отследит выполнение правил.
• Но, по-честному, люди так и не будут уверены, справедливо ли они рассудили или нет.
#МашинноеОбучение #Справедливость #ПредвзятостьИИ
Wired
Researchers Want Guardrails to Help Prevent Bias in AI
Machine-learning experts often design their algorithms to avoid some unintended consequences. But that’s not as easy for others.
Решение этических проблем ИИ только одно -
меньше использовать ИИ
Иначе:
1) Антиэволюция предубеждений Homo sapiens превратит нас в социальных идиотов.
Расовые, гендерных и прочие социальные предубеждения ИИ-алгоритмов соцсетей - это мощнейший катализатор усиления наших и без того немалых предубеждений.
2) Глубокие фейки станут главным медийным инструментом политиков.
Они уже их используют и весьма успешно, разрушая моральные барьеры и размывая границы реальности.
3) Новые изощренные формы извращений войдут в обычную практику привлечения медиа аудитории
Например, даже Пелевин не додумался до такого извращения, как «техномантия» - техновоскрешение умерших для повышения внимания аудитории. А медиакомпании этим уже пользуются.
На 100% разделяю предложение Джека Кларка (Jack Clark, OpenAI Strategy and Communications Director) о целесообразности уменьшения использования ИИ. Пока не придуманы способы борьбы с конкретными рисками применения ИИ, его применение в областях, где эти риски значимы, следует ограничить.
Вот 3 примера, приводимые Кларком в новом выпуске его великолепного канала IMPORT AI
1) Twitter принял решение меньше использовать машинное обучение и предоставить пользователям больше контроля над тем, как выглядят их фото в сети.
Причина в том, что внедренные в 2018 нейронки для интеллектуальной автоматической обрезки изображений облажались.
И теперь компания принимает честное и умное решение:
«Хотя наш анализ на сегодняшний день не выявил расовых или гендерных предубеждений, мы понимаем, что то, как мы автоматически кадрируем фотографии, означает, что существует потенциальный вред. Мы должны были лучше предвидеть эту возможность, когда мы впервые проектировали и создавали этот продукт».
2) Кандидат в Палату представителей США Фил Эр, баллотирующийся во Флориде, построил свою предвыборную рекламу так. Синтезированный технологией глубоких фейков Мэтт Гаец «говорит»: Q-anon - отстой, Барак Обама крут, и что он голосует за Джо Байдена. Затем Фил Эр предупреждает зрителей, что они только что видели пример «глубокой фальшивой технологии». И добавляет убойный аргумент: «Если наша кампания сможет снять подобное видео, представьте, что сейчас делает Путин?»
3) Чтобы повлиять на выбор избирателей на грядущих в ноябре выборах, группа компаний Change the Ref использовала технологию глубоких фейков для воскрешения Хоакина Оливера, застреленного в 2018 при стрельбе в школе Паркленда. Вот как выглядит эта «техномантия»: «Его родители использовали ИИ, чтобы вернуть Хоакина, дабы он рассказал людям, как голосование может предотвратить подобные трагедии в других семьях».
И вот убитый парень экспрессивно агитирует проголосовать за него самого, за тех, кого еще не убили, и за правильного кандидата в президенты США.
Вот как живенько он при этом выглядит.
#Deepfakes #РискиИИ #ПредвзятостьИИ #МашинноеОбучение
меньше использовать ИИ
Иначе:
1) Антиэволюция предубеждений Homo sapiens превратит нас в социальных идиотов.
Расовые, гендерных и прочие социальные предубеждения ИИ-алгоритмов соцсетей - это мощнейший катализатор усиления наших и без того немалых предубеждений.
2) Глубокие фейки станут главным медийным инструментом политиков.
Они уже их используют и весьма успешно, разрушая моральные барьеры и размывая границы реальности.
3) Новые изощренные формы извращений войдут в обычную практику привлечения медиа аудитории
Например, даже Пелевин не додумался до такого извращения, как «техномантия» - техновоскрешение умерших для повышения внимания аудитории. А медиакомпании этим уже пользуются.
На 100% разделяю предложение Джека Кларка (Jack Clark, OpenAI Strategy and Communications Director) о целесообразности уменьшения использования ИИ. Пока не придуманы способы борьбы с конкретными рисками применения ИИ, его применение в областях, где эти риски значимы, следует ограничить.
Вот 3 примера, приводимые Кларком в новом выпуске его великолепного канала IMPORT AI
1) Twitter принял решение меньше использовать машинное обучение и предоставить пользователям больше контроля над тем, как выглядят их фото в сети.
Причина в том, что внедренные в 2018 нейронки для интеллектуальной автоматической обрезки изображений облажались.
И теперь компания принимает честное и умное решение:
«Хотя наш анализ на сегодняшний день не выявил расовых или гендерных предубеждений, мы понимаем, что то, как мы автоматически кадрируем фотографии, означает, что существует потенциальный вред. Мы должны были лучше предвидеть эту возможность, когда мы впервые проектировали и создавали этот продукт».
2) Кандидат в Палату представителей США Фил Эр, баллотирующийся во Флориде, построил свою предвыборную рекламу так. Синтезированный технологией глубоких фейков Мэтт Гаец «говорит»: Q-anon - отстой, Барак Обама крут, и что он голосует за Джо Байдена. Затем Фил Эр предупреждает зрителей, что они только что видели пример «глубокой фальшивой технологии». И добавляет убойный аргумент: «Если наша кампания сможет снять подобное видео, представьте, что сейчас делает Путин?»
3) Чтобы повлиять на выбор избирателей на грядущих в ноябре выборах, группа компаний Change the Ref использовала технологию глубоких фейков для воскрешения Хоакина Оливера, застреленного в 2018 при стрельбе в школе Паркленда. Вот как выглядит эта «техномантия»: «Его родители использовали ИИ, чтобы вернуть Хоакина, дабы он рассказал людям, как голосование может предотвратить подобные трагедии в других семьях».
И вот убитый парень экспрессивно агитирует проголосовать за него самого, за тех, кого еще не убили, и за правильного кандидата в президенты США.
Вот как живенько он при этом выглядит.
#Deepfakes #РискиИИ #ПредвзятостьИИ #МашинноеОбучение