Buen día!
Espero que estén teniendo una buena semana. Hoy les traigo una columna que escribió Manuel Larrondo para #DHyTecno: La “guerra fría” entre la IA y el periodismo.
Plataformas y medios de comunicación compiten por captar nuestra atención y monetizar con la difusión de publicidad que recibimos a diario gracias a los “rastros” (#datos) que dejamos en línea y que son tratados bajo la injerencia de numerosos #algoritmos a los que somos sometidos.
Manuel analiza distintos casos de implementación de #IA en las redacciones y también plantea la necesidad de que los Estados a nivel regional y mundial acompañen el avance de la IA en la moderación de contenido en línea a fin de garantizar el respeto del derecho humano a la libertad de pensamiento y expresión.
Espero que estén teniendo una buena semana. Hoy les traigo una columna que escribió Manuel Larrondo para #DHyTecno: La “guerra fría” entre la IA y el periodismo.
Plataformas y medios de comunicación compiten por captar nuestra atención y monetizar con la difusión de publicidad que recibimos a diario gracias a los “rastros” (#datos) que dejamos en línea y que son tratados bajo la injerencia de numerosos #algoritmos a los que somos sometidos.
Manuel analiza distintos casos de implementación de #IA en las redacciones y también plantea la necesidad de que los Estados a nivel regional y mundial acompañen el avance de la IA en la moderación de contenido en línea a fin de garantizar el respeto del derecho humano a la libertad de pensamiento y expresión.
DHyTecno
La “guerra fría” entre la IA y el periodismo • DHyTecno
Plataformas y periodismo en guerra para captar nuestra atención y monetizar con la difusión de publicidad que recibimos a diario.
🤖 Regulación de la #IA en la Unión Europea #UE
Recomiendo mucho leer este artículo https://www.xataka.com/entrevistas/aspiramos-a-que-incluso-china-nos-explique-sus-algoritmos-reto-regular-ia-contado-tres-eurodiputados-espanoles-al-frente
🟠 "La intención es avanzar hacia una estandarización básica de la IA a nivel mundial, algo en línea con lo defendido por la OCDE y la UNESCO. "Su propuesta va en un sentido similar", dice Ibán. "Respira mucho nuestra cultura, que puede ser la base de una convención internacional de la IA. Si EEUU quiere aplicar una determinada tecnología, deberá respetar una serie de normas como explicar de dónde han salido los datos o cómo funciona la IA. Aspiramos a que al final incluso China nos explique cómo funcionan sus algoritmos y sus empresas que quieran estar en Europa se adapten a las normas"."
🔴 ""El reconocimiento facial tiene muchos usos. La Comisión ya clasifica algunos como inaceptables. Por ejemplo que no se puede aplicar IA para reconocimientos biométricos en tiempo real en zonas públicas. Ahí ya se contempla la prohibición", explica Pilar. "Todavía estamos en una fase muy temprana y se está negociando qué excepciones habrá en la regulación. Pero ya se habla de que no esté permitido salvo en casos en los que haya autorización judicial y se use por razones de peligro inminente"."
🟢 "Para los grupos que abogan por la prohibición, el Parlamento Europeo no ha sido suficiente valiente. De igual manera, el texto no recoge una prohibición directa de los sistemas autónomos letales con IA. Sí hay una recomendación de su regulación, pero se deja la puerta abierta a que la AI Act no regule el uso militar la IA."
🔵 "El debate gira sobre que la trazabilidad y la explicabilidad de los algoritmos, pero "luego a la práctica es mucho más difícil de llevar a cabo", reconoce Ibán. "Un desarrollador te dirá que ni siquiera ellos saben cómo se ha llegado ahí". Ante el desafío técnico que supone para una pequeña empresa explicar cómo funcionan todos los algoritmos que usan, el eurodiputado socialista explica que "no vamos a exigir lo que no se puede", pero sí puntualiza que "no podemos rebajar ni un gramo las exigencias, porque hablamos de cumplimiento de derechos fundamentales"."
🟣 ""Hay debates con repensar los derechos de autor, pero no está solucionado. Hay dudas sobre hasta qué grado de intervención de la IA se tendría en cuenta, qué grado de utilización es permisible y sobre quién recaerían los derechos; si el programador, los usuarios o la empresa...", reflexiona Ibán.
"Es un campo abierto. Por el momento se sigue rigiendo el marco de la Directiva de la Unión Europea sobre derecho de autor", expresa Pilar."
Recomiendo mucho leer este artículo https://www.xataka.com/entrevistas/aspiramos-a-que-incluso-china-nos-explique-sus-algoritmos-reto-regular-ia-contado-tres-eurodiputados-espanoles-al-frente
🟠 "La intención es avanzar hacia una estandarización básica de la IA a nivel mundial, algo en línea con lo defendido por la OCDE y la UNESCO. "Su propuesta va en un sentido similar", dice Ibán. "Respira mucho nuestra cultura, que puede ser la base de una convención internacional de la IA. Si EEUU quiere aplicar una determinada tecnología, deberá respetar una serie de normas como explicar de dónde han salido los datos o cómo funciona la IA. Aspiramos a que al final incluso China nos explique cómo funcionan sus algoritmos y sus empresas que quieran estar en Europa se adapten a las normas"."
🔴 ""El reconocimiento facial tiene muchos usos. La Comisión ya clasifica algunos como inaceptables. Por ejemplo que no se puede aplicar IA para reconocimientos biométricos en tiempo real en zonas públicas. Ahí ya se contempla la prohibición", explica Pilar. "Todavía estamos en una fase muy temprana y se está negociando qué excepciones habrá en la regulación. Pero ya se habla de que no esté permitido salvo en casos en los que haya autorización judicial y se use por razones de peligro inminente"."
🟢 "Para los grupos que abogan por la prohibición, el Parlamento Europeo no ha sido suficiente valiente. De igual manera, el texto no recoge una prohibición directa de los sistemas autónomos letales con IA. Sí hay una recomendación de su regulación, pero se deja la puerta abierta a que la AI Act no regule el uso militar la IA."
🔵 "El debate gira sobre que la trazabilidad y la explicabilidad de los algoritmos, pero "luego a la práctica es mucho más difícil de llevar a cabo", reconoce Ibán. "Un desarrollador te dirá que ni siquiera ellos saben cómo se ha llegado ahí". Ante el desafío técnico que supone para una pequeña empresa explicar cómo funcionan todos los algoritmos que usan, el eurodiputado socialista explica que "no vamos a exigir lo que no se puede", pero sí puntualiza que "no podemos rebajar ni un gramo las exigencias, porque hablamos de cumplimiento de derechos fundamentales"."
🟣 ""Hay debates con repensar los derechos de autor, pero no está solucionado. Hay dudas sobre hasta qué grado de intervención de la IA se tendría en cuenta, qué grado de utilización es permisible y sobre quién recaerían los derechos; si el programador, los usuarios o la empresa...", reflexiona Ibán.
"Es un campo abierto. Por el momento se sigue rigiendo el marco de la Directiva de la Unión Europea sobre derecho de autor", expresa Pilar."
Xataka
"Aspiramos a que incluso China nos explique sus algoritmos": tres eurodiputados españoles nos cuentan qué se juega Europa con la…
El primer borrador era tan infumable que se llegó a decir que la IA era el quinto elemento tras el agua, la tierra, el fuego y el aire. Afortunadamente, tras...
#IA, creatividad y sesgos. Los casos de DALL-E (OpenAI) e Imagen (Google)
Probablemente la mayoría de ustedes haya leído sobre el sistema DALL-E para crear imágenes basadas en texto (al final del mensaje tienen un link para probarlo. Funciona mejor con texto en inglés).
Unos días después del anuncio de OpenAI sobre DALL-E 2, Google Brain reveló su propia IA de creación de imágenes, denominada Imagen que funciona incluso mejor que DALL-E 2.
En esta nota de MIT Technology Review cuentan un poco cómo se seleccionan las imágenes que llegan a los resultados para filtrar imágenes cargadas de violencia, racismo, sexismo, odio...
👉 "La mayoría de las imágenes que OpenAI y Google hacen públicas son cuidadosamente seleccionadas. Las imágenes bonitas que coinciden con sus indicaciones con una precisión asombrosa que llegan al público, son de esperar. Pero no se ven imágenes con estereotipos de odio, racismo o misoginia. No hay imágenes violentas o sexistas. No hay porno panda. Y por lo que sabemos sobre cómo se construyen estas herramientas, debería haberlas."
👉 "Si se busca al final de la página en el sitio web de Imagen, en la sección sobre el impacto social, se puede leer esto: 'Aunque se ha filtrado un subconjunto de nuestros datos de entrenamiento para eliminar ruido y contenido indeseable, como imágenes pornográficas y lenguaje tóxico, también utilizamos el conjunto de datos LAION-400M que se sabe que contiene una amplia variedad de contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos. Imagen se basa en codificadores de texto entrenados en datos a escala web no filtrados y, por lo tanto, hereda sesgos sociales y limitaciones de los grandes modelos de lenguaje. Como tal, existe el riesgo de que Imagen haya codificado estereotipos y representaciones dañinas, lo que explica nuestra decisión de no lanzar Imagen para uso público sin más salvaguardas'".
Para "jugar" con DALL-E: https://huggingface.co/spaces/dalle-mini/dalle-mini
Sobre DALL-E 2: https://openai.com/dall-e-2/
Probablemente la mayoría de ustedes haya leído sobre el sistema DALL-E para crear imágenes basadas en texto (al final del mensaje tienen un link para probarlo. Funciona mejor con texto en inglés).
Unos días después del anuncio de OpenAI sobre DALL-E 2, Google Brain reveló su propia IA de creación de imágenes, denominada Imagen que funciona incluso mejor que DALL-E 2.
En esta nota de MIT Technology Review cuentan un poco cómo se seleccionan las imágenes que llegan a los resultados para filtrar imágenes cargadas de violencia, racismo, sexismo, odio...
👉 "La mayoría de las imágenes que OpenAI y Google hacen públicas son cuidadosamente seleccionadas. Las imágenes bonitas que coinciden con sus indicaciones con una precisión asombrosa que llegan al público, son de esperar. Pero no se ven imágenes con estereotipos de odio, racismo o misoginia. No hay imágenes violentas o sexistas. No hay porno panda. Y por lo que sabemos sobre cómo se construyen estas herramientas, debería haberlas."
👉 "Si se busca al final de la página en el sitio web de Imagen, en la sección sobre el impacto social, se puede leer esto: 'Aunque se ha filtrado un subconjunto de nuestros datos de entrenamiento para eliminar ruido y contenido indeseable, como imágenes pornográficas y lenguaje tóxico, también utilizamos el conjunto de datos LAION-400M que se sabe que contiene una amplia variedad de contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos. Imagen se basa en codificadores de texto entrenados en datos a escala web no filtrados y, por lo tanto, hereda sesgos sociales y limitaciones de los grandes modelos de lenguaje. Como tal, existe el riesgo de que Imagen haya codificado estereotipos y representaciones dañinas, lo que explica nuestra decisión de no lanzar Imagen para uso público sin más salvaguardas'".
Para "jugar" con DALL-E: https://huggingface.co/spaces/dalle-mini/dalle-mini
Sobre DALL-E 2: https://openai.com/dall-e-2/
MIT Technology Review
Imágenes generadas por IA: la fea realidad sobre cómo se crean
Google Brain ha revelado su propia IA de creación de imágenes, llamada Imagen. Pero no soluciona los problemas éticos ya existentes en el campo.
Noticias para ti: el diario «a la carta», por Soledad Arréguez Manozzo.
El diario estadounidense @nytimes investiga cómo utilizar inteligencia artificial #IA y la personalización #algorítmica en la página de inicio para brindar una experiencia de lectura más valiosa a sus usuarios.
Soledad se pregunta ¿qué implicancias puede tener que cada persona tenga su diario personalizado? ¿Cómo se construye el debate público cuando no hay referentes comunes?
El diario estadounidense @nytimes investiga cómo utilizar inteligencia artificial #IA y la personalización #algorítmica en la página de inicio para brindar una experiencia de lectura más valiosa a sus usuarios.
Soledad se pregunta ¿qué implicancias puede tener que cada persona tenga su diario personalizado? ¿Cómo se construye el debate público cuando no hay referentes comunes?
DHyTecno
Noticias para ti: el diario "a la carta"
¿Qué implicancias puede tener que cada persona tenga su diario personalizado? ¿Cómo se construye el debate público cuando no hay referentes comunes?
Hace unos días, en el grupo de la comunidad de #DHyTecno estuvieron conversando sobre las imágenes creadas por modelos de inteligencia artificial #IA que reproducían rostros de personas reales u otras imágenes cubiertas por derechos de autor.
"Los investigadores de Google, DeepMind, UC Berkeley, ETH Zürich y Princeton obtuvieron sus resultados solicitando a Stable Diffusion e Imagen de Google los subtítulos para las imágenes, como el nombre de una persona. Después, analizaron si alguna de las imágenes que generaron coincidía con las imágenes originales en la base de datos del modelo. Así el grupo logró extraer más de 100 réplicas de imágenes en el conjunto de entrenamiento de la IA", dice en este artículo del MIT Technology Review.
El resultado de esta investigación podría reforzar el argumento de los artistas que actualmente están demandando a las empresas desarrolladoras de estos sistemas por violaciones de derechos de autor.
Pero no queda ahí.
⚠️ Esto podría tener consecuencias para las start-ups que deseen utilizar modelos generativos de #IA en #salud, ya que muestra el riesgo de filtrar información privada y confidencial.
"Muchas personas se sienten tentadas a tratar de aplicar estos enfoques generativos a los datos confidenciales. Nuestro trabajo advierte de que eso es una mala idea, a menos que se tomen medidas de seguridad extremas para prevenir 'infracciones de privacidad' ", afirma un investigador entrevistado por MIT.
‼️ Un dato: "Stable Diffusion es de código abierto, lo que significa que cualquiera puede analizarlo e investigarlo. Imagen no lo es, pero Google concedió acceso a los investigadores."
Esto también invita a pensar en la propiedad intelectual de este tipo de sistemas y en la necesidad de poder estudiarlos.
"Los investigadores de Google, DeepMind, UC Berkeley, ETH Zürich y Princeton obtuvieron sus resultados solicitando a Stable Diffusion e Imagen de Google los subtítulos para las imágenes, como el nombre de una persona. Después, analizaron si alguna de las imágenes que generaron coincidía con las imágenes originales en la base de datos del modelo. Así el grupo logró extraer más de 100 réplicas de imágenes en el conjunto de entrenamiento de la IA", dice en este artículo del MIT Technology Review.
El resultado de esta investigación podría reforzar el argumento de los artistas que actualmente están demandando a las empresas desarrolladoras de estos sistemas por violaciones de derechos de autor.
Pero no queda ahí.
⚠️ Esto podría tener consecuencias para las start-ups que deseen utilizar modelos generativos de #IA en #salud, ya que muestra el riesgo de filtrar información privada y confidencial.
"Muchas personas se sienten tentadas a tratar de aplicar estos enfoques generativos a los datos confidenciales. Nuestro trabajo advierte de que eso es una mala idea, a menos que se tomen medidas de seguridad extremas para prevenir 'infracciones de privacidad' ", afirma un investigador entrevistado por MIT.
‼️ Un dato: "Stable Diffusion es de código abierto, lo que significa que cualquiera puede analizarlo e investigarlo. Imagen no lo es, pero Google concedió acceso a los investigadores."
Esto también invita a pensar en la propiedad intelectual de este tipo de sistemas y en la necesidad de poder estudiarlos.
MIT Technology Review
Los modelos de IA reproducen fotos de personas reales e imágenes con derechos de autor
Este nuevo hallazgo podría fortalecer a los artistas que acusan a las empresas de inteligencia artificial de infringir sus derechos de autor
Esta semana tengo un par de anuncios. Empiezo por este antes de que cierren las inscripciones.
Como algunxs ya saben, con Sofía Scasserra comandamos esta hermosa diplo sobre #IA y sociedad, con un equipo docente de lujo.
El programa de la diplomatura estuvo pensado desde su diseño como interdisciplinario, por lo que los intercambios en clase, de acuerdo a nuestra experiencia 2022, son muy enriquecedores.
ℹ️ Info: https://www.untref.edu.ar/posgrado/diplomatura-superior-en-inteligencia-artificial-y-sociedad
📝 Inscripciones: iaysociedad@untref.edu.ar
Como algunxs ya saben, con Sofía Scasserra comandamos esta hermosa diplo sobre #IA y sociedad, con un equipo docente de lujo.
El programa de la diplomatura estuvo pensado desde su diseño como interdisciplinario, por lo que los intercambios en clase, de acuerdo a nuestra experiencia 2022, son muy enriquecedores.
ℹ️ Info: https://www.untref.edu.ar/posgrado/diplomatura-superior-en-inteligencia-artificial-y-sociedad
📝 Inscripciones: iaysociedad@untref.edu.ar
Hola! 👋
Seguramente lo hayan visto estos días.
📝 En una carta firmada por más de 1000 expertos de la industria tecnológica, entre los que se encuentra el CEO de Tesla y Twitter, Elon Musk, se convocó a los laboratorios que desarrollan inteligencias artificiales a frenar por seis meses el entrenamiento de sus proyectos que tengan una mayor capacidad que el chat GPT-4.
🤩 Por mi parte, les digo que si se dedican a la investigación o al desarrollo de tecnologías basadas en #IA, las y los invito a leer y firmar la Declaración de Montevideo sobre IA y su impacto en América Latina que surgió en #Khipu 2023, el encuentro latinoamericano de IA que se realizó en marzo y del que participaron varios/as conocidos/as y referentes en estos temas (Laura Ación, Bea Busaniche, Fabrizio Scrollini, Ivana Feldfeber, Laura Alonso Alemany, Luciana Benotti, Jaime Gutiérrez Alfaro, entre otrxs).
Esta declaración es más concreta y tiene más coherencia a largo plazo.
✍️ Pueden leerla (y firmarla) acá.
Seguramente lo hayan visto estos días.
📝 En una carta firmada por más de 1000 expertos de la industria tecnológica, entre los que se encuentra el CEO de Tesla y Twitter, Elon Musk, se convocó a los laboratorios que desarrollan inteligencias artificiales a frenar por seis meses el entrenamiento de sus proyectos que tengan una mayor capacidad que el chat GPT-4.
🤩 Por mi parte, les digo que si se dedican a la investigación o al desarrollo de tecnologías basadas en #IA, las y los invito a leer y firmar la Declaración de Montevideo sobre IA y su impacto en América Latina que surgió en #Khipu 2023, el encuentro latinoamericano de IA que se realizó en marzo y del que participaron varios/as conocidos/as y referentes en estos temas (Laura Ación, Bea Busaniche, Fabrizio Scrollini, Ivana Feldfeber, Laura Alonso Alemany, Luciana Benotti, Jaime Gutiérrez Alfaro, entre otrxs).
Esta declaración es más concreta y tiene más coherencia a largo plazo.
✍️ Pueden leerla (y firmarla) acá.
Google Docs
Declaración de Montevideo sobre IA
Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina Montevideo, 10 de marzo de 2023 Las personas abajo firmantes, reunidas inicialmente en ocasión de Khipu - Encuentro Latinoamericano de Inteligencia Artificial - sabemos…
🤖 Hablando de Inteligencia Artificial #IA, #Mozilla anunció en los últimos días el lanzamiento de Mozilla.ai: una empresa emergente -y una comunidad- que "construirá un ecosistema de código abierto de IA confiable e independiente", según palabras de la empresa.
💸 La inversión inicial, según publicaron, será de 30 millones de dólares.
🔗 https://blog.mozilla.org/en/mozilla/introducing-mozilla-ai-investing-in-trustworthy-ai/
💸 La inversión inicial, según publicaron, será de 30 millones de dólares.
🔗 https://blog.mozilla.org/en/mozilla/introducing-mozilla-ai-investing-in-trustworthy-ai/
The Mozilla Blog
Related Articles
We’re committing $30M to build Mozilla.ai: A startup — and a community — building a trustworthy, independent, and open-source AI ecosystem. We’re o
🤖 Daniel Ek anuncia el uso de #IA en #Spotify para hacer traducción de podcasts a distintos idiomas usando las voces originales 🤯
🔗 https://linkedin.com/feed/update/urn:li:activity:7112098281505067010/ (incluye un video con ejemplos)
Bastante para analizar...
🔗 https://linkedin.com/feed/update/urn:li:activity:7112098281505067010/ (incluye un video con ejemplos)
Bastante para analizar...
Así es como la #IA generativa representa a las personas queer 🏳️🌈🏳️⚧️
La gente queer se está uniendo a la revolución de la inteligencia artificial. "Muchos de los que trabajan en este campo son homosexuales, algo de lo que pocos hablan", menciona Spencer Kaplan, antropólogo y estudiante de doctorado en Yale, quien se trasladó a San Francisco para estudiar a los desarrolladores que crean herramientas generativas. Sam Altman, CEO de OpenAI, es gay; se casó con su marido el año pasado en una ceremonia privada frente al mar. Pero más allá de Altman, y más allá de California, más miembros de la comunidad LGBTQI+ participan ahora en proyectos de IA y se conectan a través de grupos, como Queer in AI.
Fundado en 2017 en una importante conferencia académica, un aspecto central de la misión de Queer in AI es apoyar a las personas investigadoras y científicas LGBTQI+ que históricamente han sido silenciadas, específicamente las transgénero, no binarias y de color. "Queer in AI, honestamente, es la razón por la que no abandoné", refiere Anaelia Ovalle, candidata a doctorado en la Universidad de California en Los Ángeles (UCLA) quien investiga la equidad algorítmica.
Pero hay una divergencia entre las personas queer interesadas en la inteligencia artificial y cómo ese mismo grupo de personas está representado por las herramientas que construye su industria. Cuando pedí a los mejores generadores de imágenes y videos de IA que visualizaran a personas queer, respondieron universalmente con representaciones estereotipadas de la cultura LGBTQI+.
🔗 https://es.wired.com/articulos/como-ia-generativa-representa-personas-queer-lgbtqi
La gente queer se está uniendo a la revolución de la inteligencia artificial. "Muchos de los que trabajan en este campo son homosexuales, algo de lo que pocos hablan", menciona Spencer Kaplan, antropólogo y estudiante de doctorado en Yale, quien se trasladó a San Francisco para estudiar a los desarrolladores que crean herramientas generativas. Sam Altman, CEO de OpenAI, es gay; se casó con su marido el año pasado en una ceremonia privada frente al mar. Pero más allá de Altman, y más allá de California, más miembros de la comunidad LGBTQI+ participan ahora en proyectos de IA y se conectan a través de grupos, como Queer in AI.
Fundado en 2017 en una importante conferencia académica, un aspecto central de la misión de Queer in AI es apoyar a las personas investigadoras y científicas LGBTQI+ que históricamente han sido silenciadas, específicamente las transgénero, no binarias y de color. "Queer in AI, honestamente, es la razón por la que no abandoné", refiere Anaelia Ovalle, candidata a doctorado en la Universidad de California en Los Ángeles (UCLA) quien investiga la equidad algorítmica.
Pero hay una divergencia entre las personas queer interesadas en la inteligencia artificial y cómo ese mismo grupo de personas está representado por las herramientas que construye su industria. Cuando pedí a los mejores generadores de imágenes y videos de IA que visualizaran a personas queer, respondieron universalmente con representaciones estereotipadas de la cultura LGBTQI+.
🔗 https://es.wired.com/articulos/como-ia-generativa-representa-personas-queer-lgbtqi
WIRED
Así es como la IA generativa representa a las personas queer
WIRED investiga cómo las herramientas de inteligencia artificial, como Sora de OpenAI, retratan actualmente a los miembros de la comunidad LGBTQI+. Una pista: hay mucho pelo morado.