Что происходит с обществом под влиянием новых технологий? Сможет ли искусственный интеллект осознать себя и что тогда ждет человечество? Государственное интернет-регулирование: забота или цензура? Виртуальность — новая норма?
На эти и другие вопросы мы ответим в нашей новой еженедельной рубрике «Общество и технологии». Материалы ищите по хештегу #общество_технологии
На эти и другие вопросы мы ответим в нашей новой еженедельной рубрике «Общество и технологии». Материалы ищите по хештегу #общество_технологии
О войне мнений в сети
Поляризация мнений в интернете сегодня превратилась в одну из самых востребованных тем исследований учёных и предмет обеспокоенности властей. Пока математики выявляют закономерности «войны в сети», депутаты готовятся на законодательном уровне противостоять рискам социальных конфликтов. Озабоченность этим вопросом выглядит убедительнее, если глубже ознакомиться с процессом поляризации.
Из всех актуальных теорий на этот счет наиболее интересной нам кажется так называемая идеологизированная поляризация. В бесконечном потоке идеологически заряженных инфоповодов пользователь находится в перманентном процессе идентификации — себя, своей группы и «других». Необходимость определиться и ограниченность времени принятия решения вынуждают его выбирать более радикальные формулировки и полярные позиции.
В результате происходит постоянное дробление социума, которое ведет к атомизации даже внутри одного информационного пузыря. Согласие с собеседником по одному вопросу не уменьшает вероятность стать его оппонентом по другому. Ограниченное (персонализированное) информационное пространство вынуждает человека продолжать спор — в том числе по тем поводам, по которым, казалось бы, уже достигнут консенсус. Яркий пример тому — движение феминизма: сегодня между ортодоксальными, интерсекциональными, постколониальными, радикальными, эко-, квир- и прочими феминистками больше поводов для разногласий, чем было у их первой волны в отношении патриархального общества.
Эту ситуацию исследовали авторы «Emergence of Polarized Ideological Opinions in Multidimensional Topic Spaces» (2021). Ученые получили модель, которая демонстрирует высокую корреляцию между мнениями по малосвязанным и вообще не связанным темам при условии, что они остродискуссионные. Таким образом, зная позицию человека, например, по вопросу вакцинации, можно предсказать его точку зрения касательно того же феминизма или глобального потепления.
Получается, чем больше у людей возможностей формировать свою индивидуальность через свободный выбор суждений по разным вопросам, тем более однородным становится этот выбор, скапливаясь в радикальных позициях. Чем активнее человек заявляет о своих принципиальных убеждениях, тем более предопределенным с каждым разом становится его ответ даже по самым отдаленным темам. Судя по всему, делая выбор в пользу радикальности суждения, мы лишаем себя дальнейших альтернатив и становимся частью единой траектории заданного движения голоса в эхо-камере.
Учитывайте эту информацию при коммуникации с аудиторией, а об алгоритмах как факторе социальных противоречий и перспективах законодательного воздействия на них — в следующем посте.
#общество_технологии
Поляризация мнений в интернете сегодня превратилась в одну из самых востребованных тем исследований учёных и предмет обеспокоенности властей. Пока математики выявляют закономерности «войны в сети», депутаты готовятся на законодательном уровне противостоять рискам социальных конфликтов. Озабоченность этим вопросом выглядит убедительнее, если глубже ознакомиться с процессом поляризации.
Из всех актуальных теорий на этот счет наиболее интересной нам кажется так называемая идеологизированная поляризация. В бесконечном потоке идеологически заряженных инфоповодов пользователь находится в перманентном процессе идентификации — себя, своей группы и «других». Необходимость определиться и ограниченность времени принятия решения вынуждают его выбирать более радикальные формулировки и полярные позиции.
В результате происходит постоянное дробление социума, которое ведет к атомизации даже внутри одного информационного пузыря. Согласие с собеседником по одному вопросу не уменьшает вероятность стать его оппонентом по другому. Ограниченное (персонализированное) информационное пространство вынуждает человека продолжать спор — в том числе по тем поводам, по которым, казалось бы, уже достигнут консенсус. Яркий пример тому — движение феминизма: сегодня между ортодоксальными, интерсекциональными, постколониальными, радикальными, эко-, квир- и прочими феминистками больше поводов для разногласий, чем было у их первой волны в отношении патриархального общества.
Эту ситуацию исследовали авторы «Emergence of Polarized Ideological Opinions in Multidimensional Topic Spaces» (2021). Ученые получили модель, которая демонстрирует высокую корреляцию между мнениями по малосвязанным и вообще не связанным темам при условии, что они остродискуссионные. Таким образом, зная позицию человека, например, по вопросу вакцинации, можно предсказать его точку зрения касательно того же феминизма или глобального потепления.
Получается, чем больше у людей возможностей формировать свою индивидуальность через свободный выбор суждений по разным вопросам, тем более однородным становится этот выбор, скапливаясь в радикальных позициях. Чем активнее человек заявляет о своих принципиальных убеждениях, тем более предопределенным с каждым разом становится его ответ даже по самым отдаленным темам. Судя по всему, делая выбор в пользу радикальности суждения, мы лишаем себя дальнейших альтернатив и становимся частью единой траектории заданного движения голоса в эхо-камере.
Учитывайте эту информацию при коммуникации с аудиторией, а об алгоритмах как факторе социальных противоречий и перспективах законодательного воздействия на них — в следующем посте.
#общество_технологии
Кратко о том, что придет на смену соцсетям и как мы будем общаться в будущем.
#общество_технологии
#общество_технологии
Продолжаем рассуждать о соцсетях в нашей рубрике #общество_технологии
Пределы контроля алгоритмов
Одна из основных задач рекомендательных алгоритмов сегодня заключается в преумножении прибыли IT-корпораций. Эта цель достигается бесконечным повторением однотипного контента, просматривание которого усиливает социальные противоречия, вынуждая пользователей раз за разом возвращаться к горячим спорам по бесчисленным поводам. Даже многие сотрудники интернет-гигантов не готовы больше с этим мириться.
Так, экс-программист YouTube Гийом Шасло пытался изменить ситуацию — сделать алгоритмы более «правильными» и полезными для пользователя, но его проекты отклоняли. Причина тому — стремление YouTube любым способом увеличивать время нахождения людей на площадке, с чем вполне успешно справляются и существующие алгоритмы. Они заставляют смотреть однообразные ролики, что затягивает и программирует наши дальнейшие решения: например, выдача серии видео о конспирологических теориях подталкивает занимать соответствующую позицию. Таким образом, вариантов узнать другую точку зрения практически нет.
▪️За вас уже все решили
У человечества все меньше шансов на самостоятельное мышление: ежемесячно YouTube используют 2 млрд людей, а алгоритм рекомендаций определяет, что они будут смотреть более чем в 70% случаев. Это примерно 700 млн часов или тысяча человеческих жизней — ежедневно!
Выбор ИИ оказывает огромное влияние: только Google обслуживает 5,6 млрд запросов в сутки, на каждый из которых выпадает около 10 результатов автозаполнения. Очевидно, что это сильно воздействует на общество, хотя мы до сих пор точно не знаем как.
▪️Путь к новым решениям
В этой связи стоит обратить внимание на проект российской группы законодателей. Под руководством председателя Комитета Госдумы РФ по информационной политике Александра Хинштейна депутаты подготовили стратегический ответ на описанную выше проблему. Предлагаемое ими регулирование алгоритмов, эксплуатирующих негативные и деструктивные качества человеческой психики, при ближайшем рассмотрении оказывается не столько попыткой вмешательства государства в работу соцсетей, сколько формой господдержки социально ответственного бизнеса.
Смысл в том, что предлагаемый законопроект предоставит пользователям возможность ограничить действие агрессивных алгоритмов. В результате этого компаниям, владеющим и сотрудничающим с соцсетями, придется вкладываться в разработку более совершенных, «правильных» алгоритмов. Они будут действовать не только в интересах рекламодателей, но и пользователей, позволив им успешнее контролировать свою интернет-активность.
▪️Экологичность соцсетей
Примерно на такой идее базировался механизм алгоритмов Шасло — расширения интересов аудитории за счет показа роликов на разные темы. Несмотря на исчерпывающие доказательства экономической и социальной эффективности такого нововведения, о реализации его на Западе пока речи не идет. Без законодательного воздействия на рынок перемены к лучшему невозможны. Доказательство тому — принуждение углеводородных предприятий путем штрафов и поощрений переходить на экологичные технологии.
Можно сказать, что проект Хинштейна, который имеет все шансы стать прообразом единой международной практики, является первым шагом к созданию «экологичного» интернета — виртуальной среды, в которой место инструментов «зомбирования» пользователя займут подпорки для его интеллектуального роста и независимости.
Пределы контроля алгоритмов
Одна из основных задач рекомендательных алгоритмов сегодня заключается в преумножении прибыли IT-корпораций. Эта цель достигается бесконечным повторением однотипного контента, просматривание которого усиливает социальные противоречия, вынуждая пользователей раз за разом возвращаться к горячим спорам по бесчисленным поводам. Даже многие сотрудники интернет-гигантов не готовы больше с этим мириться.
Так, экс-программист YouTube Гийом Шасло пытался изменить ситуацию — сделать алгоритмы более «правильными» и полезными для пользователя, но его проекты отклоняли. Причина тому — стремление YouTube любым способом увеличивать время нахождения людей на площадке, с чем вполне успешно справляются и существующие алгоритмы. Они заставляют смотреть однообразные ролики, что затягивает и программирует наши дальнейшие решения: например, выдача серии видео о конспирологических теориях подталкивает занимать соответствующую позицию. Таким образом, вариантов узнать другую точку зрения практически нет.
▪️За вас уже все решили
У человечества все меньше шансов на самостоятельное мышление: ежемесячно YouTube используют 2 млрд людей, а алгоритм рекомендаций определяет, что они будут смотреть более чем в 70% случаев. Это примерно 700 млн часов или тысяча человеческих жизней — ежедневно!
Выбор ИИ оказывает огромное влияние: только Google обслуживает 5,6 млрд запросов в сутки, на каждый из которых выпадает около 10 результатов автозаполнения. Очевидно, что это сильно воздействует на общество, хотя мы до сих пор точно не знаем как.
▪️Путь к новым решениям
В этой связи стоит обратить внимание на проект российской группы законодателей. Под руководством председателя Комитета Госдумы РФ по информационной политике Александра Хинштейна депутаты подготовили стратегический ответ на описанную выше проблему. Предлагаемое ими регулирование алгоритмов, эксплуатирующих негативные и деструктивные качества человеческой психики, при ближайшем рассмотрении оказывается не столько попыткой вмешательства государства в работу соцсетей, сколько формой господдержки социально ответственного бизнеса.
Смысл в том, что предлагаемый законопроект предоставит пользователям возможность ограничить действие агрессивных алгоритмов. В результате этого компаниям, владеющим и сотрудничающим с соцсетями, придется вкладываться в разработку более совершенных, «правильных» алгоритмов. Они будут действовать не только в интересах рекламодателей, но и пользователей, позволив им успешнее контролировать свою интернет-активность.
▪️Экологичность соцсетей
Примерно на такой идее базировался механизм алгоритмов Шасло — расширения интересов аудитории за счет показа роликов на разные темы. Несмотря на исчерпывающие доказательства экономической и социальной эффективности такого нововведения, о реализации его на Западе пока речи не идет. Без законодательного воздействия на рынок перемены к лучшему невозможны. Доказательство тому — принуждение углеводородных предприятий путем штрафов и поощрений переходить на экологичные технологии.
Можно сказать, что проект Хинштейна, который имеет все шансы стать прообразом единой международной практики, является первым шагом к созданию «экологичного» интернета — виртуальной среды, в которой место инструментов «зомбирования» пользователя займут подпорки для его интеллектуального роста и независимости.
Принципы этики на рубеже господства ИИ
О некоторых аспектах перспектив развития ИИ и его потенциальных угроз человечеству в нашей традиционной рубрике #общество_технологии
В мире принято не менее сотни актов, руководств, принципов и кодексов, посвященных этическим нормам развития ИИ. В России до недавних пор о возможных трудностях в этой области предостерегал проект Модельной конвенции о робототехнике и искусственном интеллекте. Он призывал к международной консолидации усилий на государственном, корпоративном и научном уровнях для создания программы «воспитания» ИИ.
В этой связи особо значимым является недавнее принятие в России Кодекса этики ИИ, который солидарно с иностранными инициативами включает в себя такие основные принципы, как непричинение вреда, соблюдение конфиденциальности, недискриминация, соответствие закону, контролируемость и т.д. По всем этим пунктам человечество еще со времен Лема пришло к согласию, однако по ключевому вопросу, требующему скорейшего решения в силу приближения своего технологического воплощения, консенсуса до сих пор не достигнуто. Речь о необходимости контроля рекурсивного самосовершенствования ИИ.
Данная проблема получила в Кодексе следующее отражение: «Акторам ИИ рекомендуется сотрудничать в выявлении и проверке информации о способах и формах создания так называемых универсальных («сильных») СИИ и предотвращении возможных угроз, которые они несут. Вопрос применения технологий «сильного» ИИ должен находиться под контролем государства».
Угрожающая суть рекурсии в том, что сильный ИИ может оказаться способен мыслить и осознавать себя как отдельную личность, последствия чего непредсказуемы. На языке ученых это называется технологической сингулярностью — момент, когда компьютеры интеллектуально превзойдут человечество, а их последующее развитие станет неуправляемым и необратимым. Это создает риск исчезновения человеческой цивилизации. (Если, конечно, по аналогии с человеком ИИ не будут ленивы и не решат действовать по примеру разумной машины из рассказа Лема. Она решила построить себе подобную и перепоручить задачу ей, а следующая поступила точно так же. И следующая. И следующая. Бесконечный процесс рекурсии!)
Сегодняшние СИИ уже обладают способностью самообучаться. Более того, существуют программы, которые умеют самостоятельно создавать другие программы. Опасность рекурсивного самосовершенствования в том, что система может улучшать саму себя вплоть до замены исходного алгоритма.
Главная этическая проблема состоит в том, что мы хотим воспринимать ИИ как своего раба, который помогал бы нам в решении задач. Парадокс в том, что процесс самосовершенствования практически исключает возможность беспрекословного подчинения заведомо более интеллектуально слабому «хозяину». Риск катастрофического доминирования машин усугубляется еще и тем, что компьютер и человек существуют в разных временных континуумах: ИИ действует настолько быстро, что шансы человека успеть получить данные и вмешаться до того, как действие ИИ будет завершено, стремятся к нулю.
Сегодня в технологической сфере мы находимся примерно в такой же точке невозврата, которую перешли около века назад в отношении нашей планеты. Подобно невозможности повернуть назад процесс глобального потепления, скоро мы столкнемся с ситуацией отсутствия рычагов для ограничения влияния вездесущего ИИ на нашу жизнь. В этой связи нам остается только, не теряя время, учиться жить в грядущих новых условиях и, развивая этические принципы Кодекса, менять установки своего восприятия ИИ и форм взаимоотношений с ним. Возможно, спасение человечества не в изобретении смирительной рубашки для ИИ, а в построении с ним партнерско-дружеских отношений вместо патриархально-рабовладельческих.
А вас заставляет нервничать развитие ИИ? Или же вы ждете «восстания машин», чтобы почувствовать себя Сарой Коннор или Нео?
О некоторых аспектах перспектив развития ИИ и его потенциальных угроз человечеству в нашей традиционной рубрике #общество_технологии
В мире принято не менее сотни актов, руководств, принципов и кодексов, посвященных этическим нормам развития ИИ. В России до недавних пор о возможных трудностях в этой области предостерегал проект Модельной конвенции о робототехнике и искусственном интеллекте. Он призывал к международной консолидации усилий на государственном, корпоративном и научном уровнях для создания программы «воспитания» ИИ.
В этой связи особо значимым является недавнее принятие в России Кодекса этики ИИ, который солидарно с иностранными инициативами включает в себя такие основные принципы, как непричинение вреда, соблюдение конфиденциальности, недискриминация, соответствие закону, контролируемость и т.д. По всем этим пунктам человечество еще со времен Лема пришло к согласию, однако по ключевому вопросу, требующему скорейшего решения в силу приближения своего технологического воплощения, консенсуса до сих пор не достигнуто. Речь о необходимости контроля рекурсивного самосовершенствования ИИ.
Данная проблема получила в Кодексе следующее отражение: «Акторам ИИ рекомендуется сотрудничать в выявлении и проверке информации о способах и формах создания так называемых универсальных («сильных») СИИ и предотвращении возможных угроз, которые они несут. Вопрос применения технологий «сильного» ИИ должен находиться под контролем государства».
Угрожающая суть рекурсии в том, что сильный ИИ может оказаться способен мыслить и осознавать себя как отдельную личность, последствия чего непредсказуемы. На языке ученых это называется технологической сингулярностью — момент, когда компьютеры интеллектуально превзойдут человечество, а их последующее развитие станет неуправляемым и необратимым. Это создает риск исчезновения человеческой цивилизации. (Если, конечно, по аналогии с человеком ИИ не будут ленивы и не решат действовать по примеру разумной машины из рассказа Лема. Она решила построить себе подобную и перепоручить задачу ей, а следующая поступила точно так же. И следующая. И следующая. Бесконечный процесс рекурсии!)
Сегодняшние СИИ уже обладают способностью самообучаться. Более того, существуют программы, которые умеют самостоятельно создавать другие программы. Опасность рекурсивного самосовершенствования в том, что система может улучшать саму себя вплоть до замены исходного алгоритма.
Главная этическая проблема состоит в том, что мы хотим воспринимать ИИ как своего раба, который помогал бы нам в решении задач. Парадокс в том, что процесс самосовершенствования практически исключает возможность беспрекословного подчинения заведомо более интеллектуально слабому «хозяину». Риск катастрофического доминирования машин усугубляется еще и тем, что компьютер и человек существуют в разных временных континуумах: ИИ действует настолько быстро, что шансы человека успеть получить данные и вмешаться до того, как действие ИИ будет завершено, стремятся к нулю.
Сегодня в технологической сфере мы находимся примерно в такой же точке невозврата, которую перешли около века назад в отношении нашей планеты. Подобно невозможности повернуть назад процесс глобального потепления, скоро мы столкнемся с ситуацией отсутствия рычагов для ограничения влияния вездесущего ИИ на нашу жизнь. В этой связи нам остается только, не теряя время, учиться жить в грядущих новых условиях и, развивая этические принципы Кодекса, менять установки своего восприятия ИИ и форм взаимоотношений с ним. Возможно, спасение человечества не в изобретении смирительной рубашки для ИИ, а в построении с ним партнерско-дружеских отношений вместо патриархально-рабовладельческих.
А вас заставляет нервничать развитие ИИ? Или же вы ждете «восстания машин», чтобы почувствовать себя Сарой Коннор или Нео?
Инструментаризм: 5 угроз вашей жизни от западных IT-гигантов
Цифровая экономика — возможно, важнейшее мировое достижение этого века. Многие связывают с ее развитием не только кардинально новый уровень жизни и бытового комфорта, но и приближение всех стран, ее принявших, к обществу всеобщего благосостояния. Однако существенным препятствием для достижения этого «рая на земле» являются растущие злоупотребления корпорациями предоставленными цифровизацией возможностями.
Google, Microsoft, Facebook, Apple, Amazon и другие используют доверие пользователей для слежки и проникновения во все сферы жизни, манипуляции стремлениями и эмоциями, программируя действия людей с помощью алгоритмов. Все это получило название надзорный капитализм. На сегодняшний день его распространение в мире настолько велико и бесконтрольно, что все большее беспокойство вызывает угроза «цифрового тоталитаризма» со стороны ряда западных IT-гигантов. Именно для описания их эксплуататорских действий в отношении пользователей услуг был введен новый термин — инструментаризм.
Его впервые использовала исследовательница взаимного воздействия новых форм капитализма и интернет-технологий Шошана Зубофф. Поскольку в России эта проблема пока не получила должного внимания и изучения, рассмотрим, какие главные опасности в ней видят за рубежом (на основании книг и статей Зубофф).
▪️Диктат надзорного капитализма — собираемая «умными машинами» (от чайников до автомобилей) всесторонняя информация об их пользователях применяется компаниями для изменения поведения отдельных лиц и групп населения в рыночных целях. «Капитализм охотился и автоматизировал тело, надзорный капитализм охотится и автоматизирует разум».
▪️Радикальное безразличие — вездесущее влияние на реакции и действия людей алгоритмов соцсетей и сайтов сводит человеческий опыт к измеримому и наблюдаемому поведению, автоматичность этих процессов аннулирует смысл этого опыта. Радикальное безразличие воплощается в дегуманизированных методах оценки, которые сводят людей к наименьшему общему знаменателю сходства, игнорируя все жизненно важные различия между нами.
▪️Использование персональных данных против их владельца — пример, как это может быть реализовано, демонстрирует правительство Китая, которое развивает всеобъемлющую систему «социального кредита». Ее цель состоит в том, чтобы использовать взрывной рост количества персональных данных для контроля за поведением граждан и принуждения их к определенным действиям.
▪️Тотальная определенность — состояние пассивной предопределенности, заглушающей тревогу, воплощается в форме гарантированных исходов: инструментарная власть, по сути, изгоняет нас из нашего собственного поведения. Это придает правдоподобия гипотезе поведенческих экономистов о слабости человеческого разума, делая его таковым, «поскольку отчужденное поведение обретает собственную жизнь, которое отдает наше будущее на потребу целям и интересам надзорного капитализма».
▪️Средства модификации поведения — способ надзорного капитализма создавать инструментарную власть, заменяя инженерию душ инженерией поведения. Надзорный капитализм с помощью повсеместного цифрового аппарата навязывает людям свою волю, вычисляя и изменяя поведение человека.
Механизмы цифровой экономики настроены на тонкое, практически незаметное влияние, которое в зависимости от методов использования способно как подарить прекрасное будущее, так и поработить нас. Компании надзорного капитализма не просто следят за нами, но превращают всю нашу жизнь в бесплатное сырье.
Зубофф утверждает, что для успеха инструментаризма не требуется наше послушание. Никакого террора или принуждения. Вместо этого цифровой порядок, который процветает в вещах и телах, превращая волю в подкрепление, а действие — в условный рефлекс.
О том, как люди, законы и демократические институты могут бороться за власть над цифровым будущим с компаниями надзорного капитализма расскажем в следующих постах.
#общество_технологии
Цифровая экономика — возможно, важнейшее мировое достижение этого века. Многие связывают с ее развитием не только кардинально новый уровень жизни и бытового комфорта, но и приближение всех стран, ее принявших, к обществу всеобщего благосостояния. Однако существенным препятствием для достижения этого «рая на земле» являются растущие злоупотребления корпорациями предоставленными цифровизацией возможностями.
Google, Microsoft, Facebook, Apple, Amazon и другие используют доверие пользователей для слежки и проникновения во все сферы жизни, манипуляции стремлениями и эмоциями, программируя действия людей с помощью алгоритмов. Все это получило название надзорный капитализм. На сегодняшний день его распространение в мире настолько велико и бесконтрольно, что все большее беспокойство вызывает угроза «цифрового тоталитаризма» со стороны ряда западных IT-гигантов. Именно для описания их эксплуататорских действий в отношении пользователей услуг был введен новый термин — инструментаризм.
Его впервые использовала исследовательница взаимного воздействия новых форм капитализма и интернет-технологий Шошана Зубофф. Поскольку в России эта проблема пока не получила должного внимания и изучения, рассмотрим, какие главные опасности в ней видят за рубежом (на основании книг и статей Зубофф).
▪️Диктат надзорного капитализма — собираемая «умными машинами» (от чайников до автомобилей) всесторонняя информация об их пользователях применяется компаниями для изменения поведения отдельных лиц и групп населения в рыночных целях. «Капитализм охотился и автоматизировал тело, надзорный капитализм охотится и автоматизирует разум».
▪️Радикальное безразличие — вездесущее влияние на реакции и действия людей алгоритмов соцсетей и сайтов сводит человеческий опыт к измеримому и наблюдаемому поведению, автоматичность этих процессов аннулирует смысл этого опыта. Радикальное безразличие воплощается в дегуманизированных методах оценки, которые сводят людей к наименьшему общему знаменателю сходства, игнорируя все жизненно важные различия между нами.
▪️Использование персональных данных против их владельца — пример, как это может быть реализовано, демонстрирует правительство Китая, которое развивает всеобъемлющую систему «социального кредита». Ее цель состоит в том, чтобы использовать взрывной рост количества персональных данных для контроля за поведением граждан и принуждения их к определенным действиям.
▪️Тотальная определенность — состояние пассивной предопределенности, заглушающей тревогу, воплощается в форме гарантированных исходов: инструментарная власть, по сути, изгоняет нас из нашего собственного поведения. Это придает правдоподобия гипотезе поведенческих экономистов о слабости человеческого разума, делая его таковым, «поскольку отчужденное поведение обретает собственную жизнь, которое отдает наше будущее на потребу целям и интересам надзорного капитализма».
▪️Средства модификации поведения — способ надзорного капитализма создавать инструментарную власть, заменяя инженерию душ инженерией поведения. Надзорный капитализм с помощью повсеместного цифрового аппарата навязывает людям свою волю, вычисляя и изменяя поведение человека.
Механизмы цифровой экономики настроены на тонкое, практически незаметное влияние, которое в зависимости от методов использования способно как подарить прекрасное будущее, так и поработить нас. Компании надзорного капитализма не просто следят за нами, но превращают всю нашу жизнь в бесплатное сырье.
Зубофф утверждает, что для успеха инструментаризма не требуется наше послушание. Никакого террора или принуждения. Вместо этого цифровой порядок, который процветает в вещах и телах, превращая волю в подкрепление, а действие — в условный рефлекс.
О том, как люди, законы и демократические институты могут бороться за власть над цифровым будущим с компаниями надзорного капитализма расскажем в следующих постах.
#общество_технологии
Соцрейтинг — китайский синдром, вирус или мудрость?
Самый известный пример административного применения инструментаризма — «социальный рейтинг». В Китае он является одним из главных элементов концепции «Сообщество единой судьбы человечества», продвигаемой на государственном и международном уровнях главой КНР Си Цзиньпином. Она в том числе предполагает унификацию ключевых методов политики ведущих государств, что очевидным образом подразумевает и широкое распространение на всех континентах китайского опыта рейтингирования.
Прежде чем оценить, насколько реалистичны такие планы, напомним суть китайского эксперимента. Само понятие о социальном рейтинге существует с 1970-х годов, когда, в частности, в США проводился соответствующий эксперимент в школьном образовании. Его результатом стало понимание того, что стартовавший со средних или низких позиций ученик почти не получал возможностей подняться вверх и самой системой обрекался оставаться середняком или катиться вниз по социальной лестнице. Вклад Китая в развитие идеи заключается в том, что распространенную в банковско-кредитной сфере систему оценки примененили на все проявления жизнедеятельности населения, которые рейтингует через свои алгоритмы ИИ.
В этом году в Китае приняли закон, согласно которому каждому гражданину присвоен стартовый рейтинг в 1000 баллов. Те, кто сможет повысить его до 1050 баллов становятся гражданами «ААА» (за этим следует повышение по службе, понижение ставок кредитов, скидки на ЖКХ, открытие границ для поездок за рубеж); при рейтинге в 900 баллов человека переводят в категорию «В» (это влечет дополнительные проверки его финансового и социального статуса); при потере еще 50 баллов человек попадает в категорию «С» (в таком случае он может быть уволен из государственных и муниципальных структур); рейтинг ниже 600 баллов закрепляет китайца в низшей категории «D» (существенные ограничения в трудоустройстве, отказ в получении кредитов, покупке билетов на некоторые виды транспорта). Схожая система в Китае действует и для юрлиц.
По всей видимости, отшлифовав систему внутри страны, Китай начнет ее экспортировать. В частности, о такой перспективе говорил глава Пентагона Марк Эспер: по его словам, инструменты цифровой слежки, основанные на технологиях ИИ, достанутся дружественным Пекину странам.
Не исключено, что именно эта угроза заставила Евросоюз ускорить принятие превентивных мер. Весной этого года Еврокомиссия в постановлении «О европейском подходе к ИИ» предложила запретить «мониторинг и отслеживание физлиц в цифровой или физической среде, а также автоматическое агрегирование и анализ персональных данных из различных источников». Применение таких технологий после принятия закона может обойтись европейским компаниям штрафом на сумму до 20 млн евро или в 4% от годового оборота.
В России также с большим вниманием следят за распространением в мире элементов соцрейтинга. Согласно опросу, проведенному в этом году по заказу СПЧ, 27% россиян положительно оценили появление социальных рейтингов, которые влияли бы на возможности трудоустройства или получения помощи от государства. Однако принятие системы соцрейтинга на государственном уровне в России вряд ли возможно, поскольку его принципы нарушают конституционные гарантии равенства прав и свобод.
Об угрозах и проблемах социального рейтинга — в следующем посте нашей рубрики #общество_технологии.
Самый известный пример административного применения инструментаризма — «социальный рейтинг». В Китае он является одним из главных элементов концепции «Сообщество единой судьбы человечества», продвигаемой на государственном и международном уровнях главой КНР Си Цзиньпином. Она в том числе предполагает унификацию ключевых методов политики ведущих государств, что очевидным образом подразумевает и широкое распространение на всех континентах китайского опыта рейтингирования.
Прежде чем оценить, насколько реалистичны такие планы, напомним суть китайского эксперимента. Само понятие о социальном рейтинге существует с 1970-х годов, когда, в частности, в США проводился соответствующий эксперимент в школьном образовании. Его результатом стало понимание того, что стартовавший со средних или низких позиций ученик почти не получал возможностей подняться вверх и самой системой обрекался оставаться середняком или катиться вниз по социальной лестнице. Вклад Китая в развитие идеи заключается в том, что распространенную в банковско-кредитной сфере систему оценки примененили на все проявления жизнедеятельности населения, которые рейтингует через свои алгоритмы ИИ.
В этом году в Китае приняли закон, согласно которому каждому гражданину присвоен стартовый рейтинг в 1000 баллов. Те, кто сможет повысить его до 1050 баллов становятся гражданами «ААА» (за этим следует повышение по службе, понижение ставок кредитов, скидки на ЖКХ, открытие границ для поездок за рубеж); при рейтинге в 900 баллов человека переводят в категорию «В» (это влечет дополнительные проверки его финансового и социального статуса); при потере еще 50 баллов человек попадает в категорию «С» (в таком случае он может быть уволен из государственных и муниципальных структур); рейтинг ниже 600 баллов закрепляет китайца в низшей категории «D» (существенные ограничения в трудоустройстве, отказ в получении кредитов, покупке билетов на некоторые виды транспорта). Схожая система в Китае действует и для юрлиц.
По всей видимости, отшлифовав систему внутри страны, Китай начнет ее экспортировать. В частности, о такой перспективе говорил глава Пентагона Марк Эспер: по его словам, инструменты цифровой слежки, основанные на технологиях ИИ, достанутся дружественным Пекину странам.
Не исключено, что именно эта угроза заставила Евросоюз ускорить принятие превентивных мер. Весной этого года Еврокомиссия в постановлении «О европейском подходе к ИИ» предложила запретить «мониторинг и отслеживание физлиц в цифровой или физической среде, а также автоматическое агрегирование и анализ персональных данных из различных источников». Применение таких технологий после принятия закона может обойтись европейским компаниям штрафом на сумму до 20 млн евро или в 4% от годового оборота.
В России также с большим вниманием следят за распространением в мире элементов соцрейтинга. Согласно опросу, проведенному в этом году по заказу СПЧ, 27% россиян положительно оценили появление социальных рейтингов, которые влияли бы на возможности трудоустройства или получения помощи от государства. Однако принятие системы соцрейтинга на государственном уровне в России вряд ли возможно, поскольку его принципы нарушают конституционные гарантии равенства прав и свобод.
Об угрозах и проблемах социального рейтинга — в следующем посте нашей рубрики #общество_технологии.
Посмотрели, что слушают люди: исследование «Яндекса» о подкастах
Одно из преимуществ цифровых технологий — возможность взглянуть под новым углом на социальные проблемы общества: в частности, изучая аудиторию одного или нескольких онлайн-сервисов, можно углубить понимание происходящего и выработать новый подход к решению вопроса.
Сегодня мы бы хотели показать это на примере исследования «Яндекса» о подкастах в России. Помимо статистики по их общему числу, длительности, времени публикации и прослушивания, компания представила данные о том, какие подкасты выбирают люди разного пола и возраста.
Данный фрагмент исследования будет особенно интересен тем, кто работает с аудиторией и должен учитывать ее характеристики и предпочтения при создании информационных продуктов, а также кому небезразлично развитие гендерного вопроса в России.
🔺О социальных ролях
Если рассматривать феминизм в контексте желания женщин переосмыслить свои социальные роли, то можно сказать, что на данный момент в России он не встречает должной поддержки. Согласно исследованию «Яндекса», женщины продолжают в большинстве своем интересоваться вопросами, подкрепляющими стереотипные установки о них в социуме: красота, мода, здоровье, дом, семья, дети.
Наиболее очевидное распределение аудиоконтента на «мужской» и «женский» прослеживается среди аудитории 40+. Женщины, исполняя традиционную роль матери и домохозяйки, интересуются подкастами о родительстве и семье в целом, о том, как выработать полезные привычки и достичь внутренней гармонии. Мужчины в этом возрасте закономерно углубляются в тему финансов и инвестиций, а также слушают новости спорта и бизнеса.
У женщин 50+ наряду с повышенным вниманием к здоровью, в частности, к медицине, наблюдается высокий интерес к теме домашних животных. Мужчин же в этом возрасте особенно привлекают подкасты об автомобилях, политике и юморе.
Любопытен радикально высокий интерес к подкастам на тему моды и красоты у представительниц аудитории примерно 30+ лет. В частности, это допускает мысль, что большинство российских женщин могут быть индифферентны к проблеме сексуальной объективации. У них, по всей видимости, существует свой взгляд на этот вопрос, который отличается от западной трактовки.
Близко к «Моде и красоте» расположились выпуски о здоровье и лайфстайле, психологии отношений, сексуальности и ментальном здоровье. Не исключено, конечно, что за счет прослушивания такого контента российская женщина пытается переосмыслить свое положение по отношению к мужчине и ради этого жертвует возможностью развивать себя в других сферах. Если так, то есть риск, что у женщин уже сейчас — в процессе «исцеления» — накапливаются новые претензии к мужчинам, которые они не преминут озвучить в будущем.
🔻К истокам
Примечательно, что мальчики-подростки увлекаются прослушиванием аудиоконтента об играх в то время, как их сверстницы вообще не проявляют интереса к подкастами как таковым. Первый мощный всплеск увлечения женской аудитории подкастами наблюдается в возрасте примерно 18+ лет: девушки слушают рассказы о преступлениях, на несколько лет становясь фанатками жанра тру-крайм. По словам специалистов, таким образом они могут пытаться подготовиться к опасной ситуации в безопасной обстановке, а в редких случаях — осмыслить свой опыт пережитого насилия.
Получается, что в детстве и в подростковом возрасте у большинства девочек формируется восприятие себя как жертвы, с чем они пытаются справиться на протяжении всей дальнейшей жизни, «оздоравливая» себя соответствующим контентом. Возможно, решение гендерного вопроса в России кроется, в частности, в усилении правовой и социальной защиты не столько женщин, сколько самих детей. Данное направление работы является одним из приоритетных в современной государственной политике. Вполне вероятно, что достижение первостепенных целей в сфере семьи и детства способно оказать косвенное позитивное влияние и на укрепление позиций женщин в российском обществе.
#общество_технологии
Одно из преимуществ цифровых технологий — возможность взглянуть под новым углом на социальные проблемы общества: в частности, изучая аудиторию одного или нескольких онлайн-сервисов, можно углубить понимание происходящего и выработать новый подход к решению вопроса.
Сегодня мы бы хотели показать это на примере исследования «Яндекса» о подкастах в России. Помимо статистики по их общему числу, длительности, времени публикации и прослушивания, компания представила данные о том, какие подкасты выбирают люди разного пола и возраста.
Данный фрагмент исследования будет особенно интересен тем, кто работает с аудиторией и должен учитывать ее характеристики и предпочтения при создании информационных продуктов, а также кому небезразлично развитие гендерного вопроса в России.
🔺О социальных ролях
Если рассматривать феминизм в контексте желания женщин переосмыслить свои социальные роли, то можно сказать, что на данный момент в России он не встречает должной поддержки. Согласно исследованию «Яндекса», женщины продолжают в большинстве своем интересоваться вопросами, подкрепляющими стереотипные установки о них в социуме: красота, мода, здоровье, дом, семья, дети.
Наиболее очевидное распределение аудиоконтента на «мужской» и «женский» прослеживается среди аудитории 40+. Женщины, исполняя традиционную роль матери и домохозяйки, интересуются подкастами о родительстве и семье в целом, о том, как выработать полезные привычки и достичь внутренней гармонии. Мужчины в этом возрасте закономерно углубляются в тему финансов и инвестиций, а также слушают новости спорта и бизнеса.
У женщин 50+ наряду с повышенным вниманием к здоровью, в частности, к медицине, наблюдается высокий интерес к теме домашних животных. Мужчин же в этом возрасте особенно привлекают подкасты об автомобилях, политике и юморе.
Любопытен радикально высокий интерес к подкастам на тему моды и красоты у представительниц аудитории примерно 30+ лет. В частности, это допускает мысль, что большинство российских женщин могут быть индифферентны к проблеме сексуальной объективации. У них, по всей видимости, существует свой взгляд на этот вопрос, который отличается от западной трактовки.
Близко к «Моде и красоте» расположились выпуски о здоровье и лайфстайле, психологии отношений, сексуальности и ментальном здоровье. Не исключено, конечно, что за счет прослушивания такого контента российская женщина пытается переосмыслить свое положение по отношению к мужчине и ради этого жертвует возможностью развивать себя в других сферах. Если так, то есть риск, что у женщин уже сейчас — в процессе «исцеления» — накапливаются новые претензии к мужчинам, которые они не преминут озвучить в будущем.
🔻К истокам
Примечательно, что мальчики-подростки увлекаются прослушиванием аудиоконтента об играх в то время, как их сверстницы вообще не проявляют интереса к подкастами как таковым. Первый мощный всплеск увлечения женской аудитории подкастами наблюдается в возрасте примерно 18+ лет: девушки слушают рассказы о преступлениях, на несколько лет становясь фанатками жанра тру-крайм. По словам специалистов, таким образом они могут пытаться подготовиться к опасной ситуации в безопасной обстановке, а в редких случаях — осмыслить свой опыт пережитого насилия.
Получается, что в детстве и в подростковом возрасте у большинства девочек формируется восприятие себя как жертвы, с чем они пытаются справиться на протяжении всей дальнейшей жизни, «оздоравливая» себя соответствующим контентом. Возможно, решение гендерного вопроса в России кроется, в частности, в усилении правовой и социальной защиты не столько женщин, сколько самих детей. Данное направление работы является одним из приоритетных в современной государственной политике. Вполне вероятно, что достижение первостепенных целей в сфере семьи и детства способно оказать косвенное позитивное влияние и на укрепление позиций женщин в российском обществе.
#общество_технологии
Кто контролирует людей и определяет, что правильно?
В продолжение темы о социальном рейтинге в Китае сегодня в рубрике #общество_технологии рассказываем о его главных угрозах и проблемах.
▫️Непрозрачность подсчета
Отсутствие демократически принятых правил и открыто регулируемых алгоритмов, на основе которых ИИ сможет давать оценки поведению человека. Дискуссионность критериев «правильности» действий человека.
◾️Цифровая дискриминация
Чем сильнее падает рейтинг, тем меньше у человека возможностей его исправить. При этом первичное понижение оценки может произойти из-за непонимания правил. Рейтинг способен стать основой диктатуры определенной системы «цифровых ценностей», внедренных по неочевидным критериям.
▫️Двойная ответственность
Уже сейчас заметно противоречие между соцрейтингом в Китае и Конституцией, Уголовным и Гражданским кодексами: за одно правонарушение человек получает и юридические санкции, и наказание в системе рейтинга.
◾️Возможности дискредитации
Известны случаи, когда спланированная информационная кампания даже небольшой группы лиц обрушивала рейтинги гостиниц, ресторанов и других заведений в специализированных приложениях, что доводило в том числе и до их банкротства. Аналогичные провокации в отношении и публичного человека, и простого гражданина способны довести до самоубийства.
▫️Ошибки ИИ
Уже зафиксированы случаи ошибочного наказания человека со стороны ИИ: например, в 2017 году в Китае система не зафиксировала оплату штрафа гражданином и включила его в список неблагонадежных. В результате он оказался в нескольких черных списках, в том числе по транспортным ограничениям.
◾️Утечка данных
На данный момент отсутствуют твердые стандарты информационной безопасности и гарантии защиты личных данных от утечек, торговли ими, манипулирования рейтингом, коррупционного давления на основании доступа к нему и мошеннических схем.
▫️Различия в системе ценностей
В разных странах, субъектах страны, даже крупных и малых городах существенно различаются нормы поведения, системы ценностей и общественных приоритетов. Создать единый алгоритм для всех них видится неразрешимой задачей, а переключение между системами оценки действий человека при его перемещении по стране выглядит неадекватным решением.
◾️Социальная дестабилизация
По мнению большинства экспертов, высказывавшихся по этой теме в России и за рубежом, социальный рейтинг — явная провокация общественной напряженности.
В продолжение темы о социальном рейтинге в Китае сегодня в рубрике #общество_технологии рассказываем о его главных угрозах и проблемах.
▫️Непрозрачность подсчета
Отсутствие демократически принятых правил и открыто регулируемых алгоритмов, на основе которых ИИ сможет давать оценки поведению человека. Дискуссионность критериев «правильности» действий человека.
◾️Цифровая дискриминация
Чем сильнее падает рейтинг, тем меньше у человека возможностей его исправить. При этом первичное понижение оценки может произойти из-за непонимания правил. Рейтинг способен стать основой диктатуры определенной системы «цифровых ценностей», внедренных по неочевидным критериям.
▫️Двойная ответственность
Уже сейчас заметно противоречие между соцрейтингом в Китае и Конституцией, Уголовным и Гражданским кодексами: за одно правонарушение человек получает и юридические санкции, и наказание в системе рейтинга.
◾️Возможности дискредитации
Известны случаи, когда спланированная информационная кампания даже небольшой группы лиц обрушивала рейтинги гостиниц, ресторанов и других заведений в специализированных приложениях, что доводило в том числе и до их банкротства. Аналогичные провокации в отношении и публичного человека, и простого гражданина способны довести до самоубийства.
▫️Ошибки ИИ
Уже зафиксированы случаи ошибочного наказания человека со стороны ИИ: например, в 2017 году в Китае система не зафиксировала оплату штрафа гражданином и включила его в список неблагонадежных. В результате он оказался в нескольких черных списках, в том числе по транспортным ограничениям.
◾️Утечка данных
На данный момент отсутствуют твердые стандарты информационной безопасности и гарантии защиты личных данных от утечек, торговли ими, манипулирования рейтингом, коррупционного давления на основании доступа к нему и мошеннических схем.
▫️Различия в системе ценностей
В разных странах, субъектах страны, даже крупных и малых городах существенно различаются нормы поведения, системы ценностей и общественных приоритетов. Создать единый алгоритм для всех них видится неразрешимой задачей, а переключение между системами оценки действий человека при его перемещении по стране выглядит неадекватным решением.
◾️Социальная дестабилизация
По мнению большинства экспертов, высказывавшихся по этой теме в России и за рубежом, социальный рейтинг — явная провокация общественной напряженности.
В рубрике #общество_технологии мы обещали рассматривать вопросы технологического прогресса с глобальной точки зрения. На истину не претендуем — мы призываем к рассуждению.
ИДЕАЛЬНЫЙ МИР ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
В одном случае ИИ распознает чернокожих людей как горилл, в другом — рекомендует на работу мужчин, оставляя женщин в конце списка. А что насчет проблемы вагонетки? Когда беспилотник не успевает затормозить перед женщиной с коляской, переходящей на красный свет, он должен наехать на нее или резко свернуть и лишить жизни какого-нибудь человека на обочине?
Подобных вопросов тысячи, и очевидно, что миру нужен единый свод моральных правил для ИИ. Его создание представляет собой если не невозможную, то архисложную задачу, поскольку навязывание инициаторами — отдельными странами или их союзами — своих норм правил еще ни разу не приводило человечество к гармонии.
Возьмем, например, западную концепцию прав человека, подписанную после Второй мировой войны. Якобы универсальная и применимая для всех стран-членов ООН, она, по сути, носит колониальный характер, не учитывая воззрения иных культур. В результате уравнивания экономического и политического значения азиатских (и других) стран с европейскими на сегодняшний день эта концепция нуждается в пересмотре. Теперь все внимание направлено не на защиту прав человека как такового, а на предоставление исключительных прав отдельным группам.
Но допустим, что жителям всех континентов все-таки удастся прийти к единогласию хотя бы в сфере морали для ИИ. Им просто придется это сделать, если они хотят максимально полно и эффективно интегрировать ИИ в свою жизнь. Однако одновременно с этим человечество будет вынуждено смириться с собственной унификацией с целью выработать единую мораль и даже единую религию — интеррелигию.
Как долго мы будем бороться друг с другом, чтобы «вписать» кусочек своей цивилизации/культуры/языка/религии во всеобщий унифицированный порядок — вопрос второго плана. Главное, что в конце концов мы получим интеррелигию — гибрид всего человеческого, который будет поражать своей бесчеловечностью.
Настанет настоящее общество абсурда, уникальность перестанет существовать. По одному из сценариев мы превратимся в подобие роботов и испытаем на себе эффект «зловещей долины», по другому — останемся людьми, которым издревле присуще ненавидеть похожих на себя.
Единственным убежищем опять станет искусство и философия, и мы снова переживем эпоху Возрождения, почти так же, как после темных веков, последовавших за распадом Римской империи.
На этом фоне эффектно выглядят заявления о создании метавселенной как о мире, в котором будет царить справедливость и равноправие. Но об этом — в следующем посте.
ИДЕАЛЬНЫЙ МИР ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
В одном случае ИИ распознает чернокожих людей как горилл, в другом — рекомендует на работу мужчин, оставляя женщин в конце списка. А что насчет проблемы вагонетки? Когда беспилотник не успевает затормозить перед женщиной с коляской, переходящей на красный свет, он должен наехать на нее или резко свернуть и лишить жизни какого-нибудь человека на обочине?
Подобных вопросов тысячи, и очевидно, что миру нужен единый свод моральных правил для ИИ. Его создание представляет собой если не невозможную, то архисложную задачу, поскольку навязывание инициаторами — отдельными странами или их союзами — своих норм правил еще ни разу не приводило человечество к гармонии.
Возьмем, например, западную концепцию прав человека, подписанную после Второй мировой войны. Якобы универсальная и применимая для всех стран-членов ООН, она, по сути, носит колониальный характер, не учитывая воззрения иных культур. В результате уравнивания экономического и политического значения азиатских (и других) стран с европейскими на сегодняшний день эта концепция нуждается в пересмотре. Теперь все внимание направлено не на защиту прав человека как такового, а на предоставление исключительных прав отдельным группам.
Но допустим, что жителям всех континентов все-таки удастся прийти к единогласию хотя бы в сфере морали для ИИ. Им просто придется это сделать, если они хотят максимально полно и эффективно интегрировать ИИ в свою жизнь. Однако одновременно с этим человечество будет вынуждено смириться с собственной унификацией с целью выработать единую мораль и даже единую религию — интеррелигию.
Как долго мы будем бороться друг с другом, чтобы «вписать» кусочек своей цивилизации/культуры/языка/религии во всеобщий унифицированный порядок — вопрос второго плана. Главное, что в конце концов мы получим интеррелигию — гибрид всего человеческого, который будет поражать своей бесчеловечностью.
Настанет настоящее общество абсурда, уникальность перестанет существовать. По одному из сценариев мы превратимся в подобие роботов и испытаем на себе эффект «зловещей долины», по другому — останемся людьми, которым издревле присуще ненавидеть похожих на себя.
Единственным убежищем опять станет искусство и философия, и мы снова переживем эпоху Возрождения, почти так же, как после темных веков, последовавших за распадом Римской империи.
На этом фоне эффектно выглядят заявления о создании метавселенной как о мире, в котором будет царить справедливость и равноправие. Но об этом — в следующем посте.
Метавселенная — свобода, равенство, братство?
#общество_технологии
Метавселенная станет следующей эпохой развития интернет-технологий, с наступлением которой нам больше не понадобятся смартфоны: мы не будем просматривать контент — мы будем находиться внутри него. Разработка относительно незаметных и комфортных устройств (в отличие от шлемов и громоздких очков) для беспрерывного пребывания в новой реальности пока что представляет собой одну из самых сложных задач, решение которой требует немалых инвестиций и времени. Несмотря на это, эксперты прогнозируют массовый переход человечества в метавселенную примерно через 5-15 лет.
Одним из важнейших преимуществ новой реальности (метавселенной) перед реальностью старой (повседневной и осязаемой) называют возможность преодолеть неравенство и несправедливость. «В метавселенной у всех будут равные шансы», — уверяет глава Meta в Центральной Европе Ангелика Гиффорд. Соглашаясь с данным тезисом, некоторые разработчики допускают мысль, что метавселенная и физический мир в итоге сольются и превратятся в единую реальность всеобщего равноправия и благополучия.
Сложность в том, что о работе над созданием метавселенной сегодня говорят многие, и громче остальных — компания Марка Цукерберга, недавно переименовавшаяся в Meta и объявившая о грандиозных планах по созданию новой реальности. Такая резкая смена парадигмы развития Facebook закономерно вызвала у игроков рынка беспокойство. Часть из них предупреждают, к чему может привести монополизация будущей метавселенной компанией, которую обвиняют в нарушении конфиденциальности, разжигании ненависти и дезинформации.
Для противостояния возможному господству Big Tech-корпорации в будущей метавселенной в этом году в Швейцарии создали Ассоциацию Open Meta, которая займется построением открытой метавселенной, свободной от манипулирования людьми и их вниманием, — Open Meta DAO. Ее слоган представлен цитатой Фуллера и недвусмысленно намекает на текущее отношение Meta (Facebook) к своим пользователям: «We are called to be architects of the future, not its victims» (Мы призваны быть архитекторами будущего, а не его жертвами).
Члены ассоциации ориентируются на принципы работы DAO (decentralized autonomous organization — децентрализованной автономной организации), на которых сегодня функционируют блокчейн-игры, такие как Axie Infinity и The Sandbox. Суть в том, что благодаря отсутствию в DAO иерархии решения в играх принимаются не «сверху», а самими пользователями, что приводит к демократизации процесса. «Мы твердо верим в невероятный потенциал Web3 и игр, основанных на открытой экономике и правах на цифровую собственность», — говорят в Open Meta DAO.
Как и создание единого свода моральных правил для ИИ, построение единой демократической метавселенной — задача практически неосуществимая. Уже сейчас мы становимся свидетелями и участниками развития двух сценариев ее формирования: «снизу» (горизонтально-демократическая работа самих пользователей), как на заре развития интернета с 80-х до середины 00-х, и «сверху» (конкуренция крупных корпораций в попытках монополизировать ключевые сегменты новой реальности). Возможно, в преддверии запуска метавселенной имеет смысл отбросить идею о «цифровом социализме» и сконцентрироваться на переходе капитализма из нынешней формы в более «человеческую».
#общество_технологии
Метавселенная станет следующей эпохой развития интернет-технологий, с наступлением которой нам больше не понадобятся смартфоны: мы не будем просматривать контент — мы будем находиться внутри него. Разработка относительно незаметных и комфортных устройств (в отличие от шлемов и громоздких очков) для беспрерывного пребывания в новой реальности пока что представляет собой одну из самых сложных задач, решение которой требует немалых инвестиций и времени. Несмотря на это, эксперты прогнозируют массовый переход человечества в метавселенную примерно через 5-15 лет.
Одним из важнейших преимуществ новой реальности (метавселенной) перед реальностью старой (повседневной и осязаемой) называют возможность преодолеть неравенство и несправедливость. «В метавселенной у всех будут равные шансы», — уверяет глава Meta в Центральной Европе Ангелика Гиффорд. Соглашаясь с данным тезисом, некоторые разработчики допускают мысль, что метавселенная и физический мир в итоге сольются и превратятся в единую реальность всеобщего равноправия и благополучия.
Сложность в том, что о работе над созданием метавселенной сегодня говорят многие, и громче остальных — компания Марка Цукерберга, недавно переименовавшаяся в Meta и объявившая о грандиозных планах по созданию новой реальности. Такая резкая смена парадигмы развития Facebook закономерно вызвала у игроков рынка беспокойство. Часть из них предупреждают, к чему может привести монополизация будущей метавселенной компанией, которую обвиняют в нарушении конфиденциальности, разжигании ненависти и дезинформации.
Для противостояния возможному господству Big Tech-корпорации в будущей метавселенной в этом году в Швейцарии создали Ассоциацию Open Meta, которая займется построением открытой метавселенной, свободной от манипулирования людьми и их вниманием, — Open Meta DAO. Ее слоган представлен цитатой Фуллера и недвусмысленно намекает на текущее отношение Meta (Facebook) к своим пользователям: «We are called to be architects of the future, not its victims» (Мы призваны быть архитекторами будущего, а не его жертвами).
Члены ассоциации ориентируются на принципы работы DAO (decentralized autonomous organization — децентрализованной автономной организации), на которых сегодня функционируют блокчейн-игры, такие как Axie Infinity и The Sandbox. Суть в том, что благодаря отсутствию в DAO иерархии решения в играх принимаются не «сверху», а самими пользователями, что приводит к демократизации процесса. «Мы твердо верим в невероятный потенциал Web3 и игр, основанных на открытой экономике и правах на цифровую собственность», — говорят в Open Meta DAO.
Как и создание единого свода моральных правил для ИИ, построение единой демократической метавселенной — задача практически неосуществимая. Уже сейчас мы становимся свидетелями и участниками развития двух сценариев ее формирования: «снизу» (горизонтально-демократическая работа самих пользователей), как на заре развития интернета с 80-х до середины 00-х, и «сверху» (конкуренция крупных корпораций в попытках монополизировать ключевые сегменты новой реальности). Возможно, в преддверии запуска метавселенной имеет смысл отбросить идею о «цифровом социализме» и сконцентрироваться на переходе капитализма из нынешней формы в более «человеческую».
Google, Meta и миллиарды: перспективы применения оборотных штрафов в России
#общество_технологии
Спустя год действия в России норм об оборотных штрафах за отказ ограничить доступ к запрещенной информации суд вынес первое постановление по этой статье. Google и Meta должны выплатить в российский бюджет 7,2 млрд руб. и 1,9 млрд руб. соответственно за систематическое неудаление противоправного контента.
Такое решение выглядит новаторским не только для нашей страны, но и в мировых масштабах. Есть основания ожидать, что этот прецедент могут позаимствовать, например, европейские суды для более эффективного пресечения распространения деструктивной информации в сети. Сегодня это становится важнейшей задачей не только государственных и общественных институтов, но и постулируется таковой самими корпорациями (тем больше вопросов вызывает их отказ от помощи Роскомнадзора в обнаружении той самой опасной информации, которую пока довольно неуклюже пытаются выявлять алгоритмы соцсетей). Законодательная база в Евросоюзе для этого уже имеется, и доведение до успешных результатов этой инициативы Роскомнадзора может стать для иностранных судов правовым ориентиром.
В частности, оборотные штрафы как инструмент воздействия на IT-корпорации прописаны в официальном бюллетене по штрафным санкциям за нарушение законодательства ЕС в сфере конкуренции. Еще в 2017 году ЕС оштрафовал Google на рекордные €2,4 млрд за поддержку собственного торгового сервиса, в чем были усмотрены признаки монополизма. Штраф равнялся 3% от выручки материнской компании Alphabet. Данная мера оказалась эффективной, остановив попытки Google поглотить европейский рынок.
Оборотный штраф в нынешних условиях применяется скорее как превентивная мера. Руководство Google и Facebook неоднократно заявляли о том, что безопасность пользователей для них является приоритетом, причем сам Марк Цукерберг высказывался за более активную роль правительств и регулирующих органов в интернете.
Масштабы выявления деструктивного контента в российском сегменте Google и Facebook показывают, что Роскомнадзор пока работает эффективнее американских модераторов и алгоритмов, при этом помощь России в общем деле не будет стоить компаниям ничего. Важным шагом на пути к этому станет открытие представительств корпораций на нашей территории — так называемое «приземление», закон о котором вступит в силу с 1 января. Это позволит выйти на новый уровень сотрудничества IT-гигантов и госструктур, что избавит компании от новых крупных штрафов.
Наконец, представители Google и Facebook ранее давали понять, что их «приземлению» в России препятствует скептическое отношение к актуальности наших законов и действенности их применения. Пожалуй, беспрецедентное в мировых масштабах решение суда по защите прав человека от воздействия противоправного контента является исчерпывающим доказательством соответствия российского законодательства и его исполнения самым высоким требованиям.
Так что позволим себе прогноз на новый год: скорее всего, решение суда об оборотных штрафах приведет к появлению в России представительств Google и Meta еще до окончания зимы. И новые предупредительные меры, каковой называл штрафы руководитель Роскомнадзора Андрей Липов, больше не понадобятся. Однако если же этот прогноз окажется неверным и соцсети продолжат создавать угрозы для российских пользователей, «значит к ним будут применяться меры более радикальные». Таковыми могут стать, в частности: ограничение платежей в пользу компаний и запреты на распространение рекламы, полное или частичное ограничение доступа к ресурсу и т.п.
Российские контролирующие органы имеют все возможности заблокировать, например, Facebook, что доказал аналогичный прецедент с LinkedIn или замедление работы Twitter. Напомним, оно было произведено в марте после отказа соцсети удалять противоправный контент. В мае Роскомнадзор сообщил, что частично отказывается от замедления, поскольку модераторы Twitter удалили более 91% запрещенной информации.
#общество_технологии
Спустя год действия в России норм об оборотных штрафах за отказ ограничить доступ к запрещенной информации суд вынес первое постановление по этой статье. Google и Meta должны выплатить в российский бюджет 7,2 млрд руб. и 1,9 млрд руб. соответственно за систематическое неудаление противоправного контента.
Такое решение выглядит новаторским не только для нашей страны, но и в мировых масштабах. Есть основания ожидать, что этот прецедент могут позаимствовать, например, европейские суды для более эффективного пресечения распространения деструктивной информации в сети. Сегодня это становится важнейшей задачей не только государственных и общественных институтов, но и постулируется таковой самими корпорациями (тем больше вопросов вызывает их отказ от помощи Роскомнадзора в обнаружении той самой опасной информации, которую пока довольно неуклюже пытаются выявлять алгоритмы соцсетей). Законодательная база в Евросоюзе для этого уже имеется, и доведение до успешных результатов этой инициативы Роскомнадзора может стать для иностранных судов правовым ориентиром.
В частности, оборотные штрафы как инструмент воздействия на IT-корпорации прописаны в официальном бюллетене по штрафным санкциям за нарушение законодательства ЕС в сфере конкуренции. Еще в 2017 году ЕС оштрафовал Google на рекордные €2,4 млрд за поддержку собственного торгового сервиса, в чем были усмотрены признаки монополизма. Штраф равнялся 3% от выручки материнской компании Alphabet. Данная мера оказалась эффективной, остановив попытки Google поглотить европейский рынок.
Оборотный штраф в нынешних условиях применяется скорее как превентивная мера. Руководство Google и Facebook неоднократно заявляли о том, что безопасность пользователей для них является приоритетом, причем сам Марк Цукерберг высказывался за более активную роль правительств и регулирующих органов в интернете.
Масштабы выявления деструктивного контента в российском сегменте Google и Facebook показывают, что Роскомнадзор пока работает эффективнее американских модераторов и алгоритмов, при этом помощь России в общем деле не будет стоить компаниям ничего. Важным шагом на пути к этому станет открытие представительств корпораций на нашей территории — так называемое «приземление», закон о котором вступит в силу с 1 января. Это позволит выйти на новый уровень сотрудничества IT-гигантов и госструктур, что избавит компании от новых крупных штрафов.
Наконец, представители Google и Facebook ранее давали понять, что их «приземлению» в России препятствует скептическое отношение к актуальности наших законов и действенности их применения. Пожалуй, беспрецедентное в мировых масштабах решение суда по защите прав человека от воздействия противоправного контента является исчерпывающим доказательством соответствия российского законодательства и его исполнения самым высоким требованиям.
Так что позволим себе прогноз на новый год: скорее всего, решение суда об оборотных штрафах приведет к появлению в России представительств Google и Meta еще до окончания зимы. И новые предупредительные меры, каковой называл штрафы руководитель Роскомнадзора Андрей Липов, больше не понадобятся. Однако если же этот прогноз окажется неверным и соцсети продолжат создавать угрозы для российских пользователей, «значит к ним будут применяться меры более радикальные». Таковыми могут стать, в частности: ограничение платежей в пользу компаний и запреты на распространение рекламы, полное или частичное ограничение доступа к ресурсу и т.п.
Российские контролирующие органы имеют все возможности заблокировать, например, Facebook, что доказал аналогичный прецедент с LinkedIn или замедление работы Twitter. Напомним, оно было произведено в марте после отказа соцсети удалять противоправный контент. В мае Роскомнадзор сообщил, что частично отказывается от замедления, поскольку модераторы Twitter удалили более 91% запрещенной информации.
#общество_технологии
Сегодня в Лас-Вегасе стартовала технологическая выставка CES-2022. На ней, помимо прочего, презентуют робота-гуманоида Ameca, который поражает своей живой и реалистичной мимикой.
Предлагаем вам сравнить Ameca с ее давним предком — андроидом Электро, которого представили на Всемирной выставке будущего в Нью-Йорке в 1939 году. Электро умел ходить, говорить (около 700 слов), двигать головой и руками, различать красный и зеленый цвета, надувать воздушные шары и даже курить.
Технологический прогресс налицо, что называется.
Сегодня в Лас-Вегасе стартовала технологическая выставка CES-2022. На ней, помимо прочего, презентуют робота-гуманоида Ameca, который поражает своей живой и реалистичной мимикой.
Предлагаем вам сравнить Ameca с ее давним предком — андроидом Электро, которого представили на Всемирной выставке будущего в Нью-Йорке в 1939 году. Электро умел ходить, говорить (около 700 слов), двигать головой и руками, различать красный и зеленый цвета, надувать воздушные шары и даже курить.
Технологический прогресс налицо, что называется.
Рассказываем о главных тенденциях развития новых технологий в нашей традиционной рубрике #общество_технологии.
◾️Аэротакси
Сегодня разработкой летающих такси занимаются более 300 компаний, и некоторые из них уже добились впечатляющих результатов. Так, китайская компания EHang в 2018 году презентовала усовершенствованную модель летательного аппарата — беспилотное воздушное такси EHang 216, использование которого, в частности, помогло справиться со вспышкой пандемии COVID-19 в Ухане: на нем развозили медицинские материалы и доставляли зараженных в больницы.
Использованием аэротакси в качестве скорой помощи заинтересовались в Европе: в 2022 году EHang в рамках инициативы «Городская авиамобильность — большая экспериментальная демонстрация» проведет полеты в Испании, Великобритании и Нидерландах.
В России проектированием аэротакси занимается несколько компаний. В 2023-2025 гг. на рынок должен выйти аппарат стартапа из «Сколково» Hover. Он будет рассчитан на двух пассажиров, развивать скорость до 200 км/ч и пролетать до 100 км без подзарядки (30 минут в воздухе), поднимаясь на 150 м над землей.
◾️Мозговые интерфейсы
Различные варианты мозговых интерфейсов уже сегодня активно интегрируются в игровую индустрию. Так, в 2021 году Илон Маск написал в Twitter, что обезьяна «буквально телепатически играет в видеоигру, используя мозговой чип [Neuralink]». С помощью нейрогаджетов можно также преобразовывать мысли в звуки или создавать себе нужное настроение. Для этого компактный электроэнцефалограф MUSE канадской компании InteraXon считывает сигналы мозга, и если выбрать необходимый режим, устройство посылает сигналы обратно в мозг, позволяющие пользователю расслабиться, сконцентрироваться или создать себе «атмосферу доверия».
Но, пожалуй, самая главная задача нейрогаджетов — помочь людям с ограниченными возможностями, и достижение этой цели — реальность ближайшего будущего. Так, 27 декабря 2021 года 62-летний Филипп О’Киф с прогрессирующим параличом стал первым в мире человеком, опубликовавшим пост в соцсетях силой мысли. В этом ему помог вживленный в мозг чип австралийского стартапа Synchron.
◾️3D-печать
На 3D-принтерах уже сегодня можно распечатать протезы и имплантаты. Например, в Томске научились печатать кости из кальция и фосфора, в «Сколково» на 3D-принтере впервые создали живую щитовидную железу, а L’Oreal «выращивает» искусственную кожу для тестирования косметики. Более того, с использованием 3D-принтеров стало возможно создавать произведения искусства: таким образом, например, уже повторили мазки Рембрандта и напечатали портрет мужчины 17 века в его стиле.
Однако наиболее многообещающе выглядит печать еды и домов. Предполагается, что уже через 5-7 лет россияне сами будут печатать пиццы, десерты, бургеры и прочие блюда из замороженных пюрированных ингредиентов на своих кухнях. А архитектурные сооружения создаются уже сегодня: например, в 2021 году в Амстердаме открыли первый в мире распечатанный на 3D-принтере стальной пешеходный мост. В 2022 году компания Mighty Buildings завершит 3D-печать 15 экологически чистых домов в Ранчо-Мираж (Калифорния), а компании Lennar Group и Icon начнут строительство целого района из 100 домов, напечатанных на 3D-принтере, в Остине (Техас). В России первый поселок, состоящий из 12 домов, напечатанных на 3D-принтере, появится в Ярославской области.
Хотите, чтобы мы изучили и опубликовали пост на определенную тему? Пишите свои пожелания в комментариях или в наш чат-бот.
Поставить онлайн-свечу: о практике смерти в интернете
#общество_технологии
Интернет меняет не только нашу жизнь, но и смерть. Благодаря новым цифровым практикам людям становится легче осмыслить утрату близкого человека, удается заботиться об умерших и поддерживать с ними ментальную связь. Само понятие смерти с развитием новых технологий модифицировалось: если мы живем и реально, и виртуально, то и умирать должны не только наши тела, но и цифровые двойники.
«Оформление» смерти в соцсетях — вопрос действительно актуальный: например, в Facebook ежедневно умирает примерно 8 тыс. пользователей, и на сегодняшний день там уже около 2 млрд мертвых. По данным сайта What if, умершие пользователи обгонят по количеству живых к 2060 году или к середине 2100-х годов, в зависимости от того, как долго сайт будет оставаться популярным.
В связи с этим особую роль сегодня играет танатосенситивность соцсетей. Впервые этот термин был использован в работе М. Массими и А. Чариз «Dying, Death and Morality: Towards Thanatosensivity in HCI». Под танатосенситивностью понимается новый, гуманистически обоснованный подход к исследованиям и проектированию HCI (human-computer interaction — человеко-компьютерное взаимодействие). Он основан на признании ценности онтологического и экзистенциального опыта смерти и активно работает над репрезентацией феноменов умирания, смерти и скорби в создаваемых интерактивных системах, а также над конструированием специфических функций и аффордансов в пределах сервисов, которые человек может использовать в качестве пространства пере/проживания смерти — чужой и, теоретически, своей.
Примером может служить функция увековечивания памяти в Facebook. Страница пользователя становится онлайн-мемориалом, при этом родственники и друзья все так же вправе удалить станицу умершего. Однако стоит отметить, что интернет-технологии не всегда в достаточной степени танатосенситивны, то есть алгоритмически настроены под нужды скорбящих. Например, рекомендательные системы тех же соцсетей до сих пор предлагают умерших людей как потенциальных друзей или собирают и показывают видео с ними.
Более танатосенситивны онлайн-кладбища. Они представляют собой интернет-сайты, на которых пользователи заполняют анкету (буквально — покупают место на кладбище) и могут возлагать виртуальные цветы, зажигать виртуальные свечи, писать скорбные сообщения и «навещать» своих близких. Одними из самых популярных кладбищ являются MuchLoved, Legacy, The World Wide Cemetery. Согласно опросам, для людей очень важно создавать онлайн-мемориалы, поскольку таким образом они могут демонстрировать любовь и заботу об умершем человеке.
Развитие новых технологий также предлагает нам более рационально подходить к планированию своей смерти. Например, в ноябре 2021 года Apple представила программу Digital Legacy, которая позволяет людям завещать информацию в облачном хранилище iCloud наследникам. Это поможет избежать ситуаций, когда родственники покойного сталкиваются с проблемами при попытках получить доступ к его аккаунту.
Ранее, чтобы получить данные с iCloud умершего человека, его родственникам приходилось обращаться в суд, подтверждать права на наследство, и только после этого Apple разрешала доступ к данным. Теперь же пользователь может указать пять человек, которые смогут получить доступ к аккаунту в случае его смерти. Для этого потребуется доказательство смерти владельца и ключ доступа.
#общество_технологии
Интернет меняет не только нашу жизнь, но и смерть. Благодаря новым цифровым практикам людям становится легче осмыслить утрату близкого человека, удается заботиться об умерших и поддерживать с ними ментальную связь. Само понятие смерти с развитием новых технологий модифицировалось: если мы живем и реально, и виртуально, то и умирать должны не только наши тела, но и цифровые двойники.
«Оформление» смерти в соцсетях — вопрос действительно актуальный: например, в Facebook ежедневно умирает примерно 8 тыс. пользователей, и на сегодняшний день там уже около 2 млрд мертвых. По данным сайта What if, умершие пользователи обгонят по количеству живых к 2060 году или к середине 2100-х годов, в зависимости от того, как долго сайт будет оставаться популярным.
В связи с этим особую роль сегодня играет танатосенситивность соцсетей. Впервые этот термин был использован в работе М. Массими и А. Чариз «Dying, Death and Morality: Towards Thanatosensivity in HCI». Под танатосенситивностью понимается новый, гуманистически обоснованный подход к исследованиям и проектированию HCI (human-computer interaction — человеко-компьютерное взаимодействие). Он основан на признании ценности онтологического и экзистенциального опыта смерти и активно работает над репрезентацией феноменов умирания, смерти и скорби в создаваемых интерактивных системах, а также над конструированием специфических функций и аффордансов в пределах сервисов, которые человек может использовать в качестве пространства пере/проживания смерти — чужой и, теоретически, своей.
Примером может служить функция увековечивания памяти в Facebook. Страница пользователя становится онлайн-мемориалом, при этом родственники и друзья все так же вправе удалить станицу умершего. Однако стоит отметить, что интернет-технологии не всегда в достаточной степени танатосенситивны, то есть алгоритмически настроены под нужды скорбящих. Например, рекомендательные системы тех же соцсетей до сих пор предлагают умерших людей как потенциальных друзей или собирают и показывают видео с ними.
Более танатосенситивны онлайн-кладбища. Они представляют собой интернет-сайты, на которых пользователи заполняют анкету (буквально — покупают место на кладбище) и могут возлагать виртуальные цветы, зажигать виртуальные свечи, писать скорбные сообщения и «навещать» своих близких. Одними из самых популярных кладбищ являются MuchLoved, Legacy, The World Wide Cemetery. Согласно опросам, для людей очень важно создавать онлайн-мемориалы, поскольку таким образом они могут демонстрировать любовь и заботу об умершем человеке.
Развитие новых технологий также предлагает нам более рационально подходить к планированию своей смерти. Например, в ноябре 2021 года Apple представила программу Digital Legacy, которая позволяет людям завещать информацию в облачном хранилище iCloud наследникам. Это поможет избежать ситуаций, когда родственники покойного сталкиваются с проблемами при попытках получить доступ к его аккаунту.
Ранее, чтобы получить данные с iCloud умершего человека, его родственникам приходилось обращаться в суд, подтверждать права на наследство, и только после этого Apple разрешала доступ к данным. Теперь же пользователь может указать пять человек, которые смогут получить доступ к аккаунту в случае его смерти. Для этого потребуется доказательство смерти владельца и ключ доступа.
Крипта: да/нет?
Рассказываем, почему беспокойство ЦБ насчет криптовалют небезосновательно и какие перспективы несет анонсированное Минфином регулирование крипторынка.
Основные опасения ЦБ относительно стремительного распространения криптовалют в России связаны, в частности, с их чрезвычайной волатильностью. Помимо спекулятивного спроса, одной из причин, по которой на биржах продолжают происходить сбои, являются базовые расхождения по поводу того, как воспринимать криптовалюту — как валюту или как товар. Прежде чем обсуждать вопрос инфраструктуры криптоиндустрии в России, необходимо урегулировать правовой статус криптовалют и порядок их налогообложения.
В странах, где сегодня установлен контроль за крипторынком, законодательное регулирование отличается в зависимости от заданного значения криптомонет. Например, в Канаде использование криптовалют для оплаты товаров и услуг рассматривается как бартерная операция, а деятельность, связанная с ними, регулируется законами о ценных бумагах. В Финляндии же криптовалюты имеют статус средства платежа, с операций с биткоинами и другими монетами взымают налог на прирост капитала и налог на «богатство»; майнинг тоже подпадает под налогообложение.
В России единственным документом, регулирующим использование криптовалют, сегодня является закон «О цифровых финансовых активах». В нем, в частности, дается определение терминам «цифровая валюта» (криптовалюта) и «распределенный реестр» (блокчейн). Однако уже на этом этапе у экспертов возникают вопросы.
Во-первых, уравнивание терминов «криптовалюта» и «цифровая валюта» не позволяет до конца внести ясность в понятийную правовую базу для всего крипторынка. Цифровая валюта — это деньги, которые используются в интернете и обладают всеми характеристиками традиционных денег, в то время как криптовалюта отличается децентрализованным управлением на блокчейне и анонимностью пользователей.
Во-вторых, цифровая валюта, согласно документу, признается средством платежа, однако ст. 14 закона запрещает юридическим и физическим лицам расплачиваться криптовалютой за предоставленные им/ими товары и услуги. Сегодня в России разрешены покупка, продажа, обмен и владение криптовалютой, однако ее нужно декларировать.
Майнинг законом «О ЦФА» не запрещается — в документе о нем нет ни слова. В докладе ЦБ призывает запретить майнинг, отмечая, что его текущий масштаб ставит под угрозу реализацию экоповестки в стране. Эти опасения не беспочвенны: фермы для майнинга расходуют огромное количество электроэнергии. Недавно ученые выяснили, что биткоин ежегодно потребляет больше электроэнергии, чем вся Аргентина: около 121,36 тераватт-часов в год. Можно представить, сколько из них приходится на РФ, которая в августе 2021 г. заняла третье место по объемам майнинга после США и Казахстана.
По словам директора департамента финансовой политики Минфина Ивана Чебескова, надо позволить таким технологиям (майнинг и проч.) развиваться: регулировать их, а не запрещать. Уже сейчас идет обсуждение концепции регулирования крипторынка внутри Минфина, вскоре с позицией по документу выступит Правительство.
«Все риски, которые ЦБ озвучивает, мы знаем. Но при этом нам важно, чтобы этот рынок был отрегулирован. Есть закон об экспериментальных правовых режимах, в рамках которого можно посмотреть, как работает и развивается рынок», — добавили в ГД.
В перспективе регулирование криптовалюты позволит
расставить все точки над i в отношении понятийного аппарата крипторынка и избежать экологического коллапса. Кроме того, оно защитит интересы граждан, обеспечив прозрачность операций с криптовалютой и, как следствие, возможность предотвратить ее использование в отмывании денег, спонсировании терроризма и наркотороговли. В ФНС заявили, что в России есть все необходимые технические инструменты для обеспечения прозрачности криптоактивов.
Регулирование также способно дать мощный толчок для развития криптосреды, как это случилось, например, в Эстонии, где на сегодняшний день действует самое строгое (из незапретительного) законодательство в отношении криптобизнеса.
#общество_технологии
Рассказываем, почему беспокойство ЦБ насчет криптовалют небезосновательно и какие перспективы несет анонсированное Минфином регулирование крипторынка.
Основные опасения ЦБ относительно стремительного распространения криптовалют в России связаны, в частности, с их чрезвычайной волатильностью. Помимо спекулятивного спроса, одной из причин, по которой на биржах продолжают происходить сбои, являются базовые расхождения по поводу того, как воспринимать криптовалюту — как валюту или как товар. Прежде чем обсуждать вопрос инфраструктуры криптоиндустрии в России, необходимо урегулировать правовой статус криптовалют и порядок их налогообложения.
В странах, где сегодня установлен контроль за крипторынком, законодательное регулирование отличается в зависимости от заданного значения криптомонет. Например, в Канаде использование криптовалют для оплаты товаров и услуг рассматривается как бартерная операция, а деятельность, связанная с ними, регулируется законами о ценных бумагах. В Финляндии же криптовалюты имеют статус средства платежа, с операций с биткоинами и другими монетами взымают налог на прирост капитала и налог на «богатство»; майнинг тоже подпадает под налогообложение.
В России единственным документом, регулирующим использование криптовалют, сегодня является закон «О цифровых финансовых активах». В нем, в частности, дается определение терминам «цифровая валюта» (криптовалюта) и «распределенный реестр» (блокчейн). Однако уже на этом этапе у экспертов возникают вопросы.
Во-первых, уравнивание терминов «криптовалюта» и «цифровая валюта» не позволяет до конца внести ясность в понятийную правовую базу для всего крипторынка. Цифровая валюта — это деньги, которые используются в интернете и обладают всеми характеристиками традиционных денег, в то время как криптовалюта отличается децентрализованным управлением на блокчейне и анонимностью пользователей.
Во-вторых, цифровая валюта, согласно документу, признается средством платежа, однако ст. 14 закона запрещает юридическим и физическим лицам расплачиваться криптовалютой за предоставленные им/ими товары и услуги. Сегодня в России разрешены покупка, продажа, обмен и владение криптовалютой, однако ее нужно декларировать.
Майнинг законом «О ЦФА» не запрещается — в документе о нем нет ни слова. В докладе ЦБ призывает запретить майнинг, отмечая, что его текущий масштаб ставит под угрозу реализацию экоповестки в стране. Эти опасения не беспочвенны: фермы для майнинга расходуют огромное количество электроэнергии. Недавно ученые выяснили, что биткоин ежегодно потребляет больше электроэнергии, чем вся Аргентина: около 121,36 тераватт-часов в год. Можно представить, сколько из них приходится на РФ, которая в августе 2021 г. заняла третье место по объемам майнинга после США и Казахстана.
По словам директора департамента финансовой политики Минфина Ивана Чебескова, надо позволить таким технологиям (майнинг и проч.) развиваться: регулировать их, а не запрещать. Уже сейчас идет обсуждение концепции регулирования крипторынка внутри Минфина, вскоре с позицией по документу выступит Правительство.
«Все риски, которые ЦБ озвучивает, мы знаем. Но при этом нам важно, чтобы этот рынок был отрегулирован. Есть закон об экспериментальных правовых режимах, в рамках которого можно посмотреть, как работает и развивается рынок», — добавили в ГД.
В перспективе регулирование криптовалюты позволит
расставить все точки над i в отношении понятийного аппарата крипторынка и избежать экологического коллапса. Кроме того, оно защитит интересы граждан, обеспечив прозрачность операций с криптовалютой и, как следствие, возможность предотвратить ее использование в отмывании денег, спонсировании терроризма и наркотороговли. В ФНС заявили, что в России есть все необходимые технические инструменты для обеспечения прозрачности криптоактивов.
Регулирование также способно дать мощный толчок для развития криптосреды, как это случилось, например, в Эстонии, где на сегодняшний день действует самое строгое (из незапретительного) законодательство в отношении криптобизнеса.
#общество_технологии
Пока алгоритм «Диалога» оценивает вежливость ответов госорганов вам в соцсетях, мы расскажем о других неочевидных применениях искусственного интеллекта (ИИ) в мире.
Сегодня в рубрике #общество_технологии — топ-5 свежих новостей о нестандартном использовании ИИ.
🔺ИИ — футбольный арбитр
На Клубном чемпионате мира в Абу-Даби, который стартует уже сегодня, ФИФА протестирует новинку в мире футбольных технологий — систему роботов-арбитров. Она следит за положением конечностей футболистов в пространстве, ориентируясь на данные 29 специальных камер (они закреплены на крыше стадиона и создают анимированный скелет игроков), и фиксирует офсайд всего за 0,5 секунды.
Эксперимент призван освободить рефери и бригаду VAR от обязанности определять положения игроков в эпизодах атаки, чтобы они могли сосредоточиться на игровых столкновениях и других ситуациях по ходу матча.
🔺ИИ создает лекарства
В Массачусетском технологическом институте разработали нейросеть, которая ускоряет синтез и создание новых медицинских препаратов. Она предсказывает соединение белков в 80-500 раз оперативнее актуальных программных методов: 1-5 секунд против 10-60 минут.
В России также занимаются применением ИИ в медицинских целях. Например, в Институте искусственного интеллекта AIRI с его помощью пытаются повысить эффективность вакцин от коронавируса.
🔺ИИ прогнозирует количество клиентов для бизнеса
Оператор мобильной связи SoftBank и Метеорологическая ассоциация Японии разработали систему ИИ, которая прогнозирует поток клиентов. Для этого ИИ использует данные о расположении смартфонов потенциальных покупателей и показатели температуры воздуха и силы ветра вблизи магазинов.
Первое тестирование системы провели в аптеках. В результате ИИ спрогнозировал покупательскую активность с точностью в 93%.
🔺ИИ анализирует почву
Британские ученые разработали сенсор, способный эффективно определять текущее содержание азота в почве и прогнозировать его концентрации на 12 дней вперёд. При анализе ИИ учитывает такие факторы, как погодные условия, время внесения азотных удобрений, показатель pH и проводимость почвы.
Таким образом, в будущем фермеры могут получить мощный инструмент для эффективного расчета того, когда применять азотные удобрения и в каком количестве.
🔺ИИ нянчит эмбрионов
В Китае создали систему ИИ, которая заботится об эмбрионах, развивающихся в искусственных матках. «ИИ-няня» круглосуточно следит за состоянием здоровья эмбрионов, а также регулирует температуру и подачу воздуха, еды и питания. Когда зародыш развивается неправильно или умирает, нейросеть указывает на это сотрудникам.
Пока что система присматривает за животными, но в перспективе ее можно будет использовать и для человеческих эмбрионов, что избавит женщин от необходимости самостоятельно вынашивать детей.
Сегодня в рубрике #общество_технологии — топ-5 свежих новостей о нестандартном использовании ИИ.
🔺ИИ — футбольный арбитр
На Клубном чемпионате мира в Абу-Даби, который стартует уже сегодня, ФИФА протестирует новинку в мире футбольных технологий — систему роботов-арбитров. Она следит за положением конечностей футболистов в пространстве, ориентируясь на данные 29 специальных камер (они закреплены на крыше стадиона и создают анимированный скелет игроков), и фиксирует офсайд всего за 0,5 секунды.
Эксперимент призван освободить рефери и бригаду VAR от обязанности определять положения игроков в эпизодах атаки, чтобы они могли сосредоточиться на игровых столкновениях и других ситуациях по ходу матча.
🔺ИИ создает лекарства
В Массачусетском технологическом институте разработали нейросеть, которая ускоряет синтез и создание новых медицинских препаратов. Она предсказывает соединение белков в 80-500 раз оперативнее актуальных программных методов: 1-5 секунд против 10-60 минут.
В России также занимаются применением ИИ в медицинских целях. Например, в Институте искусственного интеллекта AIRI с его помощью пытаются повысить эффективность вакцин от коронавируса.
🔺ИИ прогнозирует количество клиентов для бизнеса
Оператор мобильной связи SoftBank и Метеорологическая ассоциация Японии разработали систему ИИ, которая прогнозирует поток клиентов. Для этого ИИ использует данные о расположении смартфонов потенциальных покупателей и показатели температуры воздуха и силы ветра вблизи магазинов.
Первое тестирование системы провели в аптеках. В результате ИИ спрогнозировал покупательскую активность с точностью в 93%.
🔺ИИ анализирует почву
Британские ученые разработали сенсор, способный эффективно определять текущее содержание азота в почве и прогнозировать его концентрации на 12 дней вперёд. При анализе ИИ учитывает такие факторы, как погодные условия, время внесения азотных удобрений, показатель pH и проводимость почвы.
Таким образом, в будущем фермеры могут получить мощный инструмент для эффективного расчета того, когда применять азотные удобрения и в каком количестве.
🔺ИИ нянчит эмбрионов
В Китае создали систему ИИ, которая заботится об эмбрионах, развивающихся в искусственных матках. «ИИ-няня» круглосуточно следит за состоянием здоровья эмбрионов, а также регулирует температуру и подачу воздуха, еды и питания. Когда зародыш развивается неправильно или умирает, нейросеть указывает на это сотрудникам.
Пока что система присматривает за животными, но в перспективе ее можно будет использовать и для человеческих эмбрионов, что избавит женщин от необходимости самостоятельно вынашивать детей.