DHyTecno
1.14K subscribers
509 photos
4 videos
17 files
1.37K links
Un espacio donde se cruzan los derechos humanos y la tecnología.

🔗 https://dhytecno.ar

👩🏻‍💻 Por Carolina Martínez Elebi
http://carolinamartinezelebi.com.ar
Download Telegram
El 9 de febrero, Santiago Do Rego y Valeria Weise me entrevistaron en su programa 📻🎙 Tiempos Líquidos sobre el curso que estaba por dar en el Centro Cultural San Martín sobre "Cultura digital, privacidad y ciudadanía inteligente" (parece que hubieran pasado mil vidas desde entonces 😰).

Por fin hoy, durante esta cuarentena 👑🦠 que nos tiene a todxs en nuestros hogares, pude publicarla en la web y acá está.

Hablamos sobre nuestras prácticas en las redes sociales y sobre cómo ejercer nuestra #privacidad y nuestros derechos en plataformas que nos piden permanentemente que nos expongamos y compartamos todo sobre nosotrxs (y sobre nuestro entorno).

Cuando todo se "normalice" -si es que vamos a poder llamar "normalidad" a lo que venga después de esto que estamos viviendo- y se retomen las actividades en el centro cultural, la idea es volver a darlo. Vamos a ver cómo se desarrollan los próximos meses 🙄

Ojalá pueda, porque los encuentros de febrero y marzo fueron de las experiencias más lindas que tuve como docente 🤗
Buen día y -para quienes ya no distinguen los días- buen comienzo de semana! 🦠

Con tantas personas trabajando de manera remota debido al #coronavirus, el software de #vigilancia se impone cada vez con más fuerza [https://www.bloomberg.com/news/features/2020-03-27/bosses-panic-buy-spy-software-to-keep-tabs-on-remote-workers ].

A raíz de lo que está pasando en el campo laboral, educativo, de salud, a veces me pregunto ¿qué va a ser la #privacidad después de esta pandemia? ¿Estamos siendo conscientes de lo que nos estamos haciendo como sociedad pero también como individuos?

¿Tenemos alguna noción de lo que significa formar ciudadanos y ciudadanas que sepan que cada acto que realizan está siendo monitoreado, vigilado, medido y analizado? 😰

Me preocupa que quienes estén implementado tecnologías de monitoreo, seguimiento y control no sean verdaderamente conscientes de lo que están haciendo. Tanto las empresas como los Estados. Tanto lxs jefxs, docentes como madres y padres. ¿Cómo se hace para promover un uso consciente y responsable de la tecnología en un contexto en el que la urgencia por la pandemia parece justificar cualquier cosa y todo se hace sin análisis de posibles impactos en privacidad y demás?

📬 La pregunta no es del todo retórica. Si algunx tiene una posible respuesta, saben que pueden responderme acá: ddhhytecno@gmail.com

Gracias por leer, por compartir, por estar ahí y por escribirme 💪
🤳🏽🔐 Desde el 23 de marzo está en debate el uso de una aplicación de "Autoevaluación de síntomas de Covid-19" que lanzó la Secretaría de Innovación Pública, que depende de Jefatura de Gabinete de la Nación 🇦🇷

Hace unos días, se supo que la aplicación se había actualizado -ahora se llama CuidAR- y se renovaron algunas funcionalidades de la misma. Entre las funciones que se sumaron está la de incluir el Certificado Único Habilitante para Circulación (CUHC) en la misma app, que indica si la persona está habilitada o no para circular, pero, además, en la app se cruza esa información con el resultado de la autoevaluación que se pide que se realice cada 48hs [en el caso de que la persona tenga como resultado de la autoevaluación que tiene síntomas de COVID-19, se suspendería su habilitación para circular].

En esta nota de Nora Bär se incluyen, entre las diversas miradas sobre la función de la aplicación, algunas de las críticas de los especialistas que se enfocan en cuestiones de #privacidad, teniendo en cuenta si la aplicación es necesaria y si sus funciones son proporcionales al objetivo que dice cumplir:
🔗 https://www.lanacion.com.ar/ciencia/coronavirus-controversia-aplicacion-cuidar-gobierno-nid2364162

Entre las críticas, Daniel Penazzi, doctor en Matemática por la Universidad de Minnesota y profesor asociado de la Facultad de Matemática, Astronomía, Física y Computación (Famaf), de la Universidad Nacional de Córdoba, expresó públicamente sus reparos, en particular por la geolocalización: "Si ni siquiera hace rastreo de contactos (contact tracing), no se justifica la invasión de privacidad".

En este hilo, Silvio Messina, abogado y programador, analiza el sentido del código QR del Certificado (tanto digital como impreso) y propone otra alternativa menos invasiva y que cumple con el objetivo de controlar si la persona que está circulando está habilitada para hacerlo:
🧶 https://twitter.com/smessina_/status/1259970553164845064?s=20

📬 ¿Qué opinan ustedes? ¿Ya la usaron? Si alguien tiene más comentarios para aportar sobre este y otros sistemas -incluso y sobre todo si opinan lo contrario a lo que publico- saben que pueden hacerlo a ddhhytecno@gmail.com.

El aprendizaje se hace conversando/leyendo/escuchando a quienes piensan distinto mucho más que a quienes piensan lo mismo. Y yo quiero aprender 🤓
🤓 Estoy muy contenta de poder compartir el documento en el que estuve trabajando los últimos dos meses y medio sobre #datos, #salud pública y #privacidad 👩🏻‍💻, en el marco del #coronavirus 🦠, para el Machine Intelligence Lab del Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés.

https://twitter.com/cetysedu/status/1265659023723950080?s=19
🤖 #IA, género y salud

Como les conté hace unos días, estoy investigando sobre el desarrollo e implementación de sistemas de Inteligencia Artificial aplicados en salud y, para eso, hace unos días entrevisté a Enzo Ferrante✳️ para que me cuente sobre la investigación que realizó junto a un equipo de investigadorxs en la que detectaron el impacto del desbalance de género/sexo biológico en bases de datos de rayos X al entrenar clasificadores basados en Redes Neuronales Convolucionales (CNNs). 📕 Pueden consultarla acá: https://www.pnas.org/content/117/23/12592

⚠️ Es decir, los sistemas de IA son peores para diagnosticar enfermedades cuando los datos de entrenamiento están sesgados por sexo.

Este trabajo, de acuerdo a lo que me contó Ferrante, nació inspirado en las investigaciones de Londa Shiebinger, pionera en los estudios de historia de la ciencia con perspectiva de género. Londa encabeza el proyecto Gendered Innovations de la Universidad de Stanford donde desarrollan métodos prácticos de análisis de sexo y género para científicxs e ingenierxs y proporcionan estudios de casos como ilustraciones concretas de cómo el análisis de sexo y género conduce a la innovación.

Uno de los temas sobre los que conversamos es que para disminuir los sesgos en los sistemas de Inteligencia Artificial se necesitan datos como:

🟣 Sexo / Género
🟡 Edad
🔵 Etnia
🟢 Otros datos demográficos

De esto emerge un posible problema para la #privacidad, ya que en algunos casos, a pesar de que los datos pasen por un proceso de disociación, anonimización o seudonimización, podría ser reversible y las personas podrían ser identificadas. Esto tendría otras consecuencias, ya que estos datos personales y sensibles, junto con el de la salud de la persona, pueden tener efectos #discriminatorios sobre una persona, a quien podrían negarle un seguro o un empleo.

🔴 Un ejemplo de los efectos que puede tener un sistema con resultados sesgados es el caso del sistema COMPAS, en Estados Unidos, que se descubrió que sus resultados indican que las personas negras tienen más probabilidades de reincidir en el delito que las personas blancas, incluso cuando la persona blanca tenga peores antecedentes. El sistema repite y profundiza las desigualdades que ya existen en el sistema penitenciario estadounidense.

✳️ Ingeniero de Sistemas, Doctor en Ciencias de la Computación y realizó su postdoctorado sobre deep learning y segmentación de imágenes cerebrales.
Buenas tardes! 🧉

Hace unos días la entrevistaron a Virginia Eubanks, autora del libro Automating inequality, en el podcast "The Received Wisdom" y el tema central fue el uso de sistemas de #ReconocimientoFacial en su vinculación con la discriminación racial y étnica y se refiere a cómo IBM, Microsoft y Amazon dejaron de brindar esa tecnología a la policía, principalmente a raíz del brutal asesinato a George Floyd y del movimiento #BlackLivesMatter.

Eubanks, además, se refiere a los debates sobre la ética de la IA y las políticas que se implementan y relata cómo fue que ella empezó, a comienzos de la década del 2000, a escribir sobre las desigualdades que ya existían a partir de la implementación de sistemas automáticos entre la población más vulnerable✳️.

🗣 “Deberíamos estar pensando en la ética y las políticas, pero de alguna manera las conversaciones sobre la ética y la política de la IA se ven atrapadas en qué podría suceder, cuando siento que las mujeres con las que he estado trabajando en los derechos de bienestar y en la organización de la tecnología en la comunidad durante dos décadas está realmente lista para decir qué es lo que ya está sucediendo y ha estado sucediendo desde los años setenta”.

✳️ Eubanks relata que la investigación que derivó en su más famoso libro comenzó en 1999-2000 cuando se mudó a la ciudad de Troy, Nueva York y comenzó a trabajar en el desarrollo de capacidades tecnológicas en una comunidad de 90 mujeres pobres de clase trabajadora que vivían en una residencia de YWCA. “Lo que me dijeron fue que la idea de que el problema era que no tenían acceso a la tecnología simplemente no era cierta. Esa tecnología digital era totalmente omnipresente en sus vidas, en el sistema de justicia penal y en el tipo de economía de bajos salarios en la vivienda pública en todas las diferentes áreas de su vida. Pero la realidad era que su experiencia con la tecnología era realmente bastante explotadora y extractiva”.

🤓 La transcripción del episodio puede leerse acá: https://docs.google.com/document/d/1wsFOwbE4dH8JyqfAUsQ8rLwvttzPhW6SyufzJaVVEAE/edit#

👁‍🗨 El problema de estas tecnologías no es sólo la profundización de desigualdades, sino la cada vez mayor amenaza a la #privacidad y la instalación de un sistema de #vigilancia permanente.

👩‍🏫🧑‍🏫 En este sentido, una de las últimas noticias que están encendiendo las alarmas en el sector académico y la sociedad civil (a nivel mundial, pero también local) es el uso de tecnologías de reconocimiento facial en el sistema educativo a raíz de la pandemia por COVID19. Debido a la extensión de la educación a distancia en todos los niveles educativos, en el mundo se están implementando (o intentando implementar) sistemas de RECONOCIMIENTO FACIAL PARA EVALUAR A ESTUDIANTES:

‼️ Hace 2 semanas se conoció que la Universidad Nacional de Córdoba compró #Respondus, un sistema de reconocimiento facial para controlar que lxs estudiantes no se copien durante una evaluación: el sistema accede a la cámara web y filma al estudiante durante todo el examen.

⚠️ Hoy mismo se conoció esta reunión entre el Rector de la Universidad de Tierra del Fuego 🇦🇷 con el Ministro de Educación, Nicolás Trotta, y el Ministro del Interior, Wado de Pedro, para instalar reconocimiento facial para determinar la identidad de estudiantes.

En Estados Unidos 🇺🇸, mientras tanto, ya hay 10 instituciones educativas que instalaron sistemas de reconocimiento facial y hay protestas de lxs estudiantes universitarixs.
💜🆕 Super interesante este proyecto de The Markup, llamado #Blacklight, que hace una inspección de #privacidad en tiempo real sobre el sitio que quieras saber. Estuvieron desarrollandolo a lo largo de 18 meses.

https://themarkup.org/blacklight
🎬 Para cerrar el sábado, quiero compartir esta entrevista que le hizo Mariano Santia a Iván Barrera Oro (HacKanCuBa en Twitter) sobre la red #TOR y Tails (un sistema operativo portátil, basado en la distribución Debian GNU/Linux que usa la red TOR para navegar de forma anónima y proteger la #privacidad).

¡Que la disfruten! 🤓
Sobre #privacidad de menores de edad y la responsabilidad del Estado comparto esta nota de Human Rights Watch sobre el sistema de reconocimiento facial y la base de datos nacional conocida como Consulta Nacional de Rebeldías y Capturas (CONARC), que incluye información de menores de edad que tienen órdenes de detención.

La base de datos, que publica en internet el Ministerio de Justicia y Derechos Humanos de la Nación Argentina 🇦🇷, incluye:

🔹 Nombres.
🔸 Edades.
🔺 Números de Documento Nacional de Identidad (DNI).
🔹 Delito presuntamente cometido y su ubicación.
🔸La autoridad que emitió el pedido de captura.

👉 Human Rights Watch manifestó que estas políticas y prácticas violan las obligaciones jurídicas internacionales de respetar la privacidad de los niños y niñas sujetos a procesos penales.

👉 “Al publicar los datos personales de estos niños y niñas en línea, el Gobierno nacional pone en riesgo su acceso a la educación, al trabajo y a la vivienda por el resto de sus vidas”, manifestó José Miguel Vivanco, director de la División de las Américas de Human Rights Watch.

‼️ Además, se ha demostrado que la base de datos nacional contiene IMPORTANTES errores (han llegado a incluir por error datos de niñxs de apenas un año de edad).

🤖 Human Rights Watch calcula que, en un ámbito controlado, los #algoritmos que utiliza el sistema de #ReconocimientoFacial para encontrar coincidencias con la base de datos generan seis veces más falsas coincidencias en un niño o niña de entre 10 y 16 años que en un adulto de entre 24 y 40 años.

⚠️ Según documentos oficiales obtenidos por el Observatorio de Derecho Informático Argentino #ODIA, la policía de la Ciudad Autónoma de Buenos Aires (CABA) ya está interceptando y arrestando a personas basándose exclusivamente en las alertas automáticas generadas por el sistema de reconocimiento facial. Esta práctica ha resultado en la interceptación y arresto erróneos de adultos.
La plataforma Xnet y tres colegios de Barcelona 'sacan' a Google de las aulas con un plan de digitalización alternativo.

Servidores seguros, #privacidad de lxs de estudiantes en escuelas y #softwarelibre 👏

🔗 https://www.infolibre.es/noticias/politica/2020/12/09/xnet_junto_grupo_familiares_consiguen_poner_marcha_programa_piloto_que_utilizara_software_libre_auditable_alternativo_google_las_aulas_barcelona_114265_1012.html

💻 La puesta en marcha de un Plan de Digitalización Democrática de Centros Educativos llega dos años después de que un grupo de padres y madres denunciaran la falta de alternativa a las herramientas de #Google en los colegios y pidieran ayuda a la plataforma ciudadana de protección de datos Xnet.

El plan incluye un programa piloto que dotará a los tres centros educativos de "servidores seguros para almacenar datos con criterios éticos, un paquete de aplicaciones, y un servicio técnico y de formación que tendrá una presencia permanente en los centros" para ayudarlos en el uso de los nuevos sistemas.

Desde la plataforma buscan desarrollar un conjunto de herramientas de #softwarelibre y auditable en los centros de enseñanza.

El plan incluirá servidores seguros para almacenar datos con criterios éticos y respetuosos con los derechos humanos y digitales, un paquete de aplicaciones y de herramientas libres y auditables adaptadas a las necesidades de los centros educativos, como Nexcloud, Big Blue Button y Moodle, entre otras.
Buen día! Seguramente habrán leído la noticia de cambios en las políticas de Privacidad de Whatsapp (propiedad de Facebook).

Que están cada día más lejos de la #privacidad 😒

Si no leyeron nada, acá explican un poco más: https://www.lanacion.com.ar/tecnologia/whatsapp-por-que-pide-una-nueva-autorizacion-para-seguir-funcionando-nid07012021/

💬 Sobre esto, creo que es muy interesante el intercambio que está habiendo en el grupo de la #ComunidadDDHHyTecno donde todxs podemos participar y aprender de los conocimientos y miradas de otrxs, precisamente por el cruce de profesiones y experiencias. Lxs invito a sumarse, leer y conversar (siempre con el respeto que caracteriza a esta comunidad de la que aprendo todos los días 🤩): https://t.me/joinchat/UIWKF-ZcC5jYYOUM
🎵👂 Spotify te quiere escuchar

Hoy me enteré por Pablo Fisher✳️ que Spotify está desarrollando contenidos personalizados de acuerdo al estado de ánimo de las personas. ¿Cómo? Escuchando a las personas que usan su aplicación.

1️⃣ Queda evidente la invasión a la #privacidad.

2️⃣ Dejando eso a un costado por un minuto, pienso:

😭 Si te identifican como "triste", ¿te recomiendan música más triste o algo alegre para levantarte el ánimo?
🤪 Si estás "eufórico/a", ¿te recomiendan algo para bailar o para relajarte?

👾 ¿Cómo definen el/los criterio/s al programar los algoritmos de recomendación?

✳️ Pablo Fisher es periodista especializado en podcast, radio y el mundo del audio, y autor del newsletter Semanario Escucha Podcast en el que, cada semana, recomienda podcast en español teniendo en cuenta cómo está hecho, qué herramientas narrativas utiliza, cuál es el tono de las voces, cómo es la música, si tiene trabajado el guión y si utiliza efectos de sonido. Pueden leer todos sus correos y suscribirse acá 👉 https://www.escuchapodcast.com.ar/p/archivo-del-semanario.html
En 2020, Apple puso en marcha una iniciativa para facilitar a los consumidores la comprensión del tipo de datos que recogen las aplicaciones y cómo se utilizan. La compañía introdujo etiquetas de #privacidad en su App Store para que los desarrolladores tengan que enumerar lo que recogen sus aplicaciones.

Estas etiquetas clasifican los datos personales en 14 categorías, incluyendo: el historial de búsqueda en internet, la ubicación, la información de contacto, los contactos, las compras y otros datos de uso.

La empresa pCloud ha utilizado estos datos para analizar una serie de aplicaciones populares en relación con el nivel de datos de los usuarios recogidos y compartidos con terceros con fines comerciales.

El resultado puede verse en el gráfico.

Pueden leer más información acá: https://es.statista.com/grafico/24509/datos-personales-compartidos-con-terceros-por-aplicaciones-ios-seleccionadas/

¡Buen fin de semana! 🙋🏻‍♀️🌎
La Asociación por los Derechos Civiles #ADC de Argentina 🇦🇷 publicó en marzo un documento sobre #privacidad y #datospersonales para periodistas.

El documento fue escrito por Xavier Ibarreche ( https://twitter.com/EquisVasco ), periodista y docente en la carrera de Comunicación de la UBA, que se dedica a investigar el cruce entre sociedad, tecnología y privacidad.

📚 Podés leerlo acá: https://adc.org.ar/wp-content/uploads/2021/03/ADC-Privacidad-y-datos-personales.pdf

#LecturasDDHHyTecno
🔐 Para garantizar la #privacidad de los datos, uno de los pasos más importantes tiene que ver con garantizar la #seguridad de los mismos. Sin embargo, puede haber incidentes y muchas veces las organizaciones, empresas y personas que trabajan de manera independiente no tienen los recursos para saber qué hacer.

Teniendo en cuenta este escenario, la Agencia Española de Protección de Datos (AEPD) 🇪🇸g puso a disposición una herramienta para PyMEs y personas autónomas que las asesora ante una brecha de seguridad y ayuda a la toma de decisiones.

Comunica-Brecha RGPD funciona como una guía para el titular o responsable de datos a través de una serie de preguntas sobre las características del incidente.

👍 Cuando finaliza la consulta, los datos aportados durante el desarrollo de la misma, se eliminan.

🔗 La herramienta, sencilla y gratuita, está disponible acá: https://servicios.aepd.es/Comunica/
Hola! Cómo están? 🙆‍♀️ Hoy les vengo a recomendar esta entrevista a Julia Angwin, editora en jefe de The Markup, un medio sin fines de lucro que investiga los impactos de la tecnología en la sociedad.

En la entrevista, que es de apenas media hora, se refiere a los problemas relacionados con la #privacidad, #seguridad y la #libertad en un momento del mundo en que hay tanta confusión y #desinformación.

🎧🎬 Se puede escuchar/ver acá https://www.aspeninstitute.org/videos/privacy-in-the-age-of-disinformation/
En esta entrevista que le hacen a #ShoshanaZuboff, donde habla sobre su libro "La era del capitalismo de vigilancia", explica por qué nuestras vidas internas deberían ser privadas.

Ante la famosa frase que dice "si no tienes nada que ocultar, no tienes por qué preocuparte", ella sostiene que con esa afirmación disminuyen nuestra necesidad de refugio, de #privacidad, de #autonomia, soledad, porque las personas desarrollamos nuestra vida interna en estos espacios.

A esa famosa frase, sugiere responder: "Si no tienes nada que esconder, no eres nada".

🎬 Si no leyeron su libro (de más de 900 páginas), recomiendo mucho verla/escucharla: https://youtu.be/6sfZpfoF3yQ
#DataPrivacy - https://www.datasketch.co/es/blog/dataprivacy/

Naciones Unidas reconoce cada vez más la importancia de la #privacidad y la protección de #datos frente al incremento de actividades sociales y económicas en línea. Afirma que se han dado avances: para 2021, el 69% de los países ya tenían algún tipo de legislación al respecto, y un 10% tenía en trámite los proyectos de ley. Pero aún persiste su preocupación por la recopilación, uso, intercambio y secuestro de información personal con terceros sin aviso ni consentimiento.

‼️ Acá van a encontrar un mapeo de iniciativas, organizaciones, expertos, historias, reportes, ensayos, investigaciones y noticias sobre #DataPrivacy.
#Alemania 🇩🇪 se quedó afuera del mundial, pero al menos busca la #privacidad de estudiantes en las escuelas.

El gobierno alemán asegura que los estudiantes no están seguros con las herramientas gratuitas de Microsoft en las escuelas, pues usan rastreo de acciones en la comunidad estudiantil.

A través de un comunicado, la Conferencia Alemana de Protección de Datos (DSK) dijo que las escuelas no deben utilizar este software con sus alumnos debido a que no hay claridad en los procedimientos sobre la recolección de datos.

Algunos voceros sugieren que se debe avanzar en la implementación de suites informáticas basadas en el software libre, las cuales ofrecen alternativas similares sin realizar un rastreo de la actividad de los usuarios ni recopilar sus datos personales. Igualmente se propone el uso de correos encriptados y aplicaciones de calendario que no dependan de corporaciones internacionales.

De hecho, en #España 🇪🇸, desde X-Net están trabajando en el diseño de otro tipo de plataforma https://xnet-x.net/es/demostracion-herramienta-digitalizacion-democratica-educacion/

También publicaron un manual de tratamiento de datos para centros educativos que me parece interesante, sobre todo teniendo en cuenta que por acá hay docentes https://xnet-x.net/es/publicamos-manual-tratamiento-datos-centros-educativos/ 😄