DHyTecno
1.15K subscribers
524 photos
4 videos
17 files
1.41K links
Un espacio donde se cruzan los derechos humanos y la tecnología.

🔗 https://dhytecno.ar

👩🏻‍💻 Por Carolina Martínez Elebi
http://carolinamartinezelebi.com.ar
Download Telegram
Buenas tardes! 🙃

Hoy estoy terminando de escribir una nota para entregar a mi editora, así que sólo paso por acá para compartir con ustedes esta nota sobre un tema que me parece PELIGROSÍSIMO 💥

‼️ Como parece que no es suficiente que gobiernos como el de la Ciudad de Buenos Aires, el de Mendoza y el de Córdoba quieran vigilar permanentemente a sus ciudadanxs a través de sus sistemas de #ReconocimientoFacial, ahora a la Universidad Austral le pareció una buena idea vigilar a sus estudiantes durante las clases para... presten atención... MEDIR SUS EMOCIONES 😱🤬

🗣Por acá intercambiamos unos breves tuits🐦 : https://twitter.com/titayna/status/1192597335873933312 ¡Les invito a sumarse a la conversación por ahí!
Buen día! 🎄

Acabo de ver el sitio sobre el sistema de #ReconocimientoFacial que hicieron desde la Asociación por los Derechos Civiles y me pareció útil compartirlo porque contiene información que puede servir para quienes quieren entender mejor cómo funciona y cuáles son los riesgos de su implementación 👍

ℹ️ https://conmicarano.adc.org.ar/
Hola! 🙋🏽‍♀️

Hace unos meses envié esta nota sobre #ReconocimientoFacial a #RevistaFibra, que salió publicada ahora en la edición digital.

"En ciudades donde ya se implementan cámaras con reconocimiento facial, las personas están en el foco policial de manera perpetua. Estos sistemas, que son presentados por los gobiernos como herramientas útiles para “combatir el delito”, terminan siendo utilizados para vigilar, espiar y perseguir a personas que resultan una molestia para los gobiernos de turno, aunque no hayan cometido ningún crimen. Como dice Shoshana Zuboff, autora del libro Capitalismo de vigilancia: “Todo sistema que pueda ser usado para la vigilancia será usado para la vigilancia”."

📬 Cualquier comentario, lecturas o información que puedan aportar, recuerden que ddhhytecno@gmail.com está habilitado para ustedes 😊 Gracias por estar ahí.
Cuando se habla de #desinformación también hay que referirse a estos casos. Parece que el gobierno de la Ciudad de Buenos Aires (Rodríguez Larreta) prefiere que el discurso sea que la tecnología no es el problema sino las personas que lo utilizan.

Ojo con esto porque, incluso si es cierto que el origen del error puede estar en las personas (si un sistema funciona mal también tiene que ver con "error" del código, "error" de la base de datos, "error" del diseño -todas cosas en manos de personas-), el impacto de utilizar tecnologías que involucran cada vez mayor automatización en las tareas que realizan en cada paso es enorme, vulnera diversos derechos y comienza a perderse la posibilidad de identificar si hubo falla y dónde estuvo la falla (si es que podría haberla). Se pasa a "confiar en el sistema".

2020 será otro año para pedir que se prohíba el uso de #ReconocimientoFacial (principalmente para investigación criminal).

👀😬
👁 https://reconocimientofacial.info/

Les comparto este repositorio dedicado a todo lo relacionado con el reconocimiento facial en América Latina, con una narrativa de derechos humanos y un especial énfasis en el trabajo que las distintas organizaciones están realizando en la región.

Este recurso puede ser particularmente interesante para investigadorxs de todo tipo y también para quienes inicien algún tipo de campaña sobre la implementación de tecnologías de #ReconocimientoFacial, tanto como recurso de consulta y como canal de difusión.

Está organizado por Derechos Digitales y cuenta con la colaboración de distintas organizaciones latinoamericanas: ADC, Coding Rights, Fundación Acceso, Hiperderecho, Idec, InternetLab, Intervoces, Ipandetec, Fundación Karisma, R3D y Tedic.
Buenas tardes! 🧉

Hace unos días la entrevistaron a Virginia Eubanks, autora del libro Automating inequality, en el podcast "The Received Wisdom" y el tema central fue el uso de sistemas de #ReconocimientoFacial en su vinculación con la discriminación racial y étnica y se refiere a cómo IBM, Microsoft y Amazon dejaron de brindar esa tecnología a la policía, principalmente a raíz del brutal asesinato a George Floyd y del movimiento #BlackLivesMatter.

Eubanks, además, se refiere a los debates sobre la ética de la IA y las políticas que se implementan y relata cómo fue que ella empezó, a comienzos de la década del 2000, a escribir sobre las desigualdades que ya existían a partir de la implementación de sistemas automáticos entre la población más vulnerable✳️.

🗣 “Deberíamos estar pensando en la ética y las políticas, pero de alguna manera las conversaciones sobre la ética y la política de la IA se ven atrapadas en qué podría suceder, cuando siento que las mujeres con las que he estado trabajando en los derechos de bienestar y en la organización de la tecnología en la comunidad durante dos décadas está realmente lista para decir qué es lo que ya está sucediendo y ha estado sucediendo desde los años setenta”.

✳️ Eubanks relata que la investigación que derivó en su más famoso libro comenzó en 1999-2000 cuando se mudó a la ciudad de Troy, Nueva York y comenzó a trabajar en el desarrollo de capacidades tecnológicas en una comunidad de 90 mujeres pobres de clase trabajadora que vivían en una residencia de YWCA. “Lo que me dijeron fue que la idea de que el problema era que no tenían acceso a la tecnología simplemente no era cierta. Esa tecnología digital era totalmente omnipresente en sus vidas, en el sistema de justicia penal y en el tipo de economía de bajos salarios en la vivienda pública en todas las diferentes áreas de su vida. Pero la realidad era que su experiencia con la tecnología era realmente bastante explotadora y extractiva”.

🤓 La transcripción del episodio puede leerse acá: https://docs.google.com/document/d/1wsFOwbE4dH8JyqfAUsQ8rLwvttzPhW6SyufzJaVVEAE/edit#

👁‍🗨 El problema de estas tecnologías no es sólo la profundización de desigualdades, sino la cada vez mayor amenaza a la #privacidad y la instalación de un sistema de #vigilancia permanente.

👩‍🏫🧑‍🏫 En este sentido, una de las últimas noticias que están encendiendo las alarmas en el sector académico y la sociedad civil (a nivel mundial, pero también local) es el uso de tecnologías de reconocimiento facial en el sistema educativo a raíz de la pandemia por COVID19. Debido a la extensión de la educación a distancia en todos los niveles educativos, en el mundo se están implementando (o intentando implementar) sistemas de RECONOCIMIENTO FACIAL PARA EVALUAR A ESTUDIANTES:

‼️ Hace 2 semanas se conoció que la Universidad Nacional de Córdoba compró #Respondus, un sistema de reconocimiento facial para controlar que lxs estudiantes no se copien durante una evaluación: el sistema accede a la cámara web y filma al estudiante durante todo el examen.

⚠️ Hoy mismo se conoció esta reunión entre el Rector de la Universidad de Tierra del Fuego 🇦🇷 con el Ministro de Educación, Nicolás Trotta, y el Ministro del Interior, Wado de Pedro, para instalar reconocimiento facial para determinar la identidad de estudiantes.

En Estados Unidos 🇺🇸, mientras tanto, ya hay 10 instituciones educativas que instalaron sistemas de reconocimiento facial y hay protestas de lxs estudiantes universitarixs.
Ayer envié el newsletter y el tema fue #ReconocimientoFacial y, como definitivamente es EL TEMA del momento (o uno de los tantos), Valentín Muro y Axel Marazzi hablaron sobre esto mismo en su más reciente episodio del podcast #Curious.

Para eso, entrevistaron a Javier Pallero (Director Global de Políticas Públicas de Access Now, y amigo de #DDHHyTecno ❤️) y a Verónica Arroyo (asociada de políticas públicas para América Latina de Access Now).

Así que, si el tema les interesa y quieren saber un poco más, se los dejo para que lo disfruten 😉
Este video donde se explican las implicancias de las tecnologías de #ReconocimientoFacial en la sociedad, hecho por la iniciativa "A caravana Tech", me gustó mucho para compartirles porque sirve para entender un poco mejor las consecuencias de instalar acríticamente estos sistemas con diversos fines y es cortito para ver y compartir.

Con subtítulos en español, portugués e inglés.

📽 https://www.youtube.com/watch?v=vqAHxSkaIqc
Sobre #privacidad de menores de edad y la responsabilidad del Estado comparto esta nota de Human Rights Watch sobre el sistema de reconocimiento facial y la base de datos nacional conocida como Consulta Nacional de Rebeldías y Capturas (CONARC), que incluye información de menores de edad que tienen órdenes de detención.

La base de datos, que publica en internet el Ministerio de Justicia y Derechos Humanos de la Nación Argentina 🇦🇷, incluye:

🔹 Nombres.
🔸 Edades.
🔺 Números de Documento Nacional de Identidad (DNI).
🔹 Delito presuntamente cometido y su ubicación.
🔸La autoridad que emitió el pedido de captura.

👉 Human Rights Watch manifestó que estas políticas y prácticas violan las obligaciones jurídicas internacionales de respetar la privacidad de los niños y niñas sujetos a procesos penales.

👉 “Al publicar los datos personales de estos niños y niñas en línea, el Gobierno nacional pone en riesgo su acceso a la educación, al trabajo y a la vivienda por el resto de sus vidas”, manifestó José Miguel Vivanco, director de la División de las Américas de Human Rights Watch.

‼️ Además, se ha demostrado que la base de datos nacional contiene IMPORTANTES errores (han llegado a incluir por error datos de niñxs de apenas un año de edad).

🤖 Human Rights Watch calcula que, en un ámbito controlado, los #algoritmos que utiliza el sistema de #ReconocimientoFacial para encontrar coincidencias con la base de datos generan seis veces más falsas coincidencias en un niño o niña de entre 10 y 16 años que en un adulto de entre 24 y 40 años.

⚠️ Según documentos oficiales obtenidos por el Observatorio de Derecho Informático Argentino #ODIA, la policía de la Ciudad Autónoma de Buenos Aires (CABA) ya está interceptando y arrestando a personas basándose exclusivamente en las alertas automáticas generadas por el sistema de reconocimiento facial. Esta práctica ha resultado en la interceptación y arresto erróneos de adultos.
En #Rosario también quieren instalar un sistema de #ReconocimientoFacial 🤦🏻‍♀

Dos notas completas, por Tomás Barrandeguy:

1⃣ https://lacapital.com.ar/la-ciudad/rosario-usara-el-reconocimiento-facial-identificar-delincuentes-n2622501.html/
2⃣ https://lacapital.com.ar/la-ciudad/reconocimiento-facial-via-publica-sesgos-y-prohibiciones-otras-ciudades-del-mundo-n2622511.html

💶 Mientras tanto, en #Rusia 🇷🇺 se vende todo el historial de una persona (registrada por los sistemas de vigilancia y reconocimiento facial) por tan solo 200 euros 👉 https://www.xataka.com/privacidad/reconocimiento-facial-a-carta-moscu-hay-quien-vende-todo-historial-persona-200-euros
Excelente esta nota que hicieron Tomás Balmaceda y Tobías Schleider sobre sistemas de #ReconocimientoFacial en estaciones de tren (Tren Mitre), en Buenos Aires 🇦🇷

📰 https://www.lanacion.com.ar/tecnologia/coronavirus-y-reconocimiento-facial-la-ocasion-perfecta-nid23122020/

Me enteré de esos dispositivos por mi amiga, Gala, que los encontró en estaciones del Tren Roca.

Acá el comunicado del Ministerio de Transporte de #Argentina, a cargo de Mario Meoni, con fecha de julio de 2020: https://www.argentina.gob.ar/noticias/comenzo-la-etapa-de-prueba-de-nuevas-tecnologias-en-camaras-termicas-y-control-de-uso-de

⚠️ Lo que está avanzando la vigilancia, bajo la excusa de proteger a la ciudadanía de los contagios por COVID, es vergonzoso. Y todo sin consultar a especialistas y sin considerar #DDHH.

Hace falta mayor reacción por parte de la ciudadanía y que el Estado respete nuestros derechos y deje de usar cualquier excusa para vigilar.

Cómo dice un especialista en seguridad informática que conozco:

"Me parece esencial recordar la 3ª Ley de (Shoshana) Zuboff: 'Toda tecnología digital que pueda ser usada para vigilancia y control será usada para vigilancia y control'."
🎬 ¿Por qué las tecnologías de vigilancia deberían considerarse "armas" y regularse como tales?

Esta charla de Sharon Winberger se titula "El enorme y no regulado mundo de las tecnologías de vigilancia" y se trata de presentar argumentos para responder la pregunta que expresé más arriba.

Además, Sharon narra el origen de toda una industria de vigilancia basada en la interceptación de todas las comunicaciones y de las transacciones financieras: la Ley Patriota (the Patriot Act), promulgada después del atentado del 11 de Septiembre de 2001 a las Torres Gemelas.

💬 "Esto creó una demanda casi instantánea de información. Y como parte del verdadero espíritu emprendedor estadounidense, toda una industria emergió para obtener esta información", explica.

‼️ Un dato: En 2002, apenas el 10% de la población mundial estaba conectada a internet.

La oradora, periodista especialista en el desarrollo de ciencia y tecnología para la vigilancia, habla sobre una conferencia conocida como "The Wiretapper's Ball" de la que no se tenía demasiado conocimiento hace unos años, porque era algo exclusivo para empresas y clientes de gobiernos. Esa conferencia era, básicamente, donde se reunían lxs que formaban parte del "mercado de espionaje".

Algunos nombres que suenan familiares:
👉 Hacking Team
👉 NSO Group

Finalmente, se refiere a la toma de muestras de #ADN:

"Lo que ha logrado el mercado privado ha superado lo que el Pentágono o la CIA creían posible. En 2008, el Pentágono tenía bajo la manga una base de datos del ADN de terroristas. Tenía alrededor de 80.000 muestras. La compañía privada AncestryDNA tiene al día de hoy muestras de más de 15 millones de personas. 23andMe, la segunda base de datos genealógica más grande, tiene muestras de más de 10 millones de personas."

¿Qué explica Sharon Winberger? 🤔

😳 Que estos datos son dados voluntariamente a compañías privadas e incluso las personas pagan "por el honor de hacerlo".

⁉️ ¿Para qué sirven estas muestras de ADN?

"En EEUU 🇺🇸 y en China 🇨🇳 investigadores trabajan en usar muestras de ADN para crear imágenes de los rostros de la gente. Entonces, si le agrega #ADN a la tecnología de #ReconocimientoFacial, se tienen las bases de un sistema de vigilancia muy poderoso que podría usarse para localizar personas o grupos étnicos por completo."

👀🙈
📝👤 ¿Cómo se usan los test de personalidad con el #ReconocimientoFacial para contratar a una persona?

HBO estrenó el documental "Persona: The Dark Truth Behind Personality Tests" en el que relata cómo se están utilizando las pruebas clásicas de personalidad junto con los sistemas de reconocimiento facial para decidir a quién contratar para un trabajo 😳

❗️ Ejemplo: Mientras te hacen las preguntas (a través de una prueba escrita), te registran con una cámara. En una de tus respuestas fruncís el ceño 🤨 y el programa de análisis facial decide que sos "difícil", así que quedás descartadx.

En el documental se argumenta que la prueba escrita contiene algunos prejuicios, que permiten discriminar a quienes no están familiarizados con el tipo de lenguaje o los escenarios utilizados en la prueba. La incorporación de Inteligencia Artificial hace que todo sea peor.

Ifeoma Ajunwa, profesora asociada de derecho y directora del Programa de Investigación de Toma de Decisiones de IA de la Universidad de Carolina del Norte, dice en el documental que el potencial de sesgo es enorme. “Dado que los sistemas automatizados generalmente están entrenados en rostros y voces masculinas blancas, las expresiones faciales o los tonos vocales de las mujeres y las minorías raciales pueden ser mal juzgadas. Además, existe la preocupación por la privacidad que surge de la recopilación de datos biométricos ", agrega.
⚠️ Parece que #Facebook dejará de usar su software de #ReconocimientoFacial, por lo que eliminará estos datos de más de MIL MILLONES DE PERSONAS.

La empresa de Zuckerberg, "que ha utilizado el software para etiquetar automáticamente a las personas por su nombre en las fotos desde 2010, dijo en una publicación de blog que decidió abandonar la tecnología después de considerar cuidadosamente tanto su promesa futura como los riesgos potenciales para la vigilancia y la privacidad". 👀

🔗 https://www.washingtonpost.com/technology/2021/11/02/facebook-ends-facial-recognition/
#Brasil 🇧🇷 Jueza ordenó suspender el uso del #ReconocimientoFacial en el metro de San Pablo

A comienzos de marzo de 2022, organizaciones como ARTIGO 19 Brasil, Idec - Instituto Brasileiro de Defesa do Consumidor, Intervozes y otras entidades han presentado una acción judicial para detener el uso del reconocimiento facial en los usuarios del metro de São Paulo.

Hace unos días, la jueza encargada ordenó al metro suspender el uso del reconocimiento facial. Aunque se trata de una decisión preliminar y puede cambiar, las organizaciones que presentaron la acción consideran que se trata de "un logro muy importante contra la vigilancia biométrica masiva en Brasil".

Comparto con ustedes una noticia sobre esta última decisión:
https://noticias.uol.com.br/colunas/leonardo-sakamoto/2022/03/22/justica-proibe-sistema-de-reconhecimento-facial-no-metro-de-sao-paulo.htm

Acá una noticia sobre la iniciativa, publicada en la prensa brasileña: https://noticias.uol.com.br/colunas/leonardo-sakamoto/2022/03/03/metro-de-sp-e-alvo-de-acao-inedita-que-pede-fim-do-reconhecimento-facial.htm
⚠️ Mañana hay movilización en Argentina y desde el gobierno nacional lanzaron el "protocolo antipiquetes" que incluye el uso del sistema de #ReconocimientoFacial 👁 para identificar a los manifestantes que reciben diversos planes del Estado con la amenaza de quitárselos si participan de la movilización (que es un derecho constitucional).

🔗 https://www.clarin.com/policiales/marcha-piquetera-recorte-planes-funciona-sistema-reconocimiento-facial_0_22Xt18FKba.html

‼️ Sobre los peligros y amenazas a la privacidad de los sistemas de reconocimiento facial ya hablé varias veces por acá, desde 2018.

Comparto algunas publicaciones con información que compartí por acá hace algunos años:

👉 https://t.me/ddhhytecno/126
👉 https://t.me/ddhhytecno/646
👉 https://t.me/ddhhytecno/647
👉 https://t.me/ddhhytecno/736

Gracias, Mat, por compartir la nota de Clarín.