Informa Pirata: informazione e notizie
1.16K subscribers
437 photos
18 videos
13 files
6.87K links
Download Telegram
Forwarded from 📢 Etica Digitale
🌎 Intelligenza Artificiale: i 193 Paesi dell'UNESCO hanno firmato il primo accordo globale sull'etica dell'intelligenza artificiale. I quattro punti chiave sono: protezione dei dati (trasparenza, accessibilità e diritto all'oblio), divieto di crediti sociali e sorveglianza di massa, assistenza e valutazione dei Paesi e compagnie che vogliono implementare IA, protezione dell'ambiente (un'IA può inquinare moltissimo)

https://en.unesco.org/news/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence

#notizia #IA
@eticadigitale
Forwarded from 📢 Etica Digitale
🇪🇺 Unione Europea: La Legge sull’Intelligenza Artificiale dell'UE è in fase di discussione e modifica. Una delle questioni più urgenti è fondante: come definire l'intelligenza artificiale? Su cosa avrà voce in capitolo la legge e su cosa no?

Mentre alcune parti interessate fanno pressione per una definizione ristretta dell'IA, in questo articolo Joanna Bryson ne suggerisce una più ampia e flessibile, che consentirebbe di applicare la legge ogni volta che un sistema è in grado di avere un impatto significativo sulle nostre vite - indipendentemente dalla complessità degli algoritmi utilizzati.

Un esempio è il credito sociale (apparso di recente anche in Italia nelle città di Fidenza e Bologna), che ha sì un impatto sulla vita delle persone, ma che rischierebbe di non rientrare nel quadro legislativo se venisse adottata una definizione ristretta di IA

https://www.wired.com/story/artificial-intelligence-regulation-european-union

#notizia #legge #IA
@eticadigitale
Forwarded from 📢 Etica Digitale
🇩🇪 L'algoritmo tedesco che discrimina i richiedenti asilo in Europa

Dal 2017, in Germania l'ufficio per le migrazioni e i rifugiati (Bamf) impiega un algoritmo di riconoscimento linguistico per capire la provenienza dell'individuo e valutarne la richiesta d'asilo. Questo pone quattro problemi:

1. Come fa notare il linguista Liberman, le lingue non sono standardizzate, soprattutto nelle regioni arabe e persiane (nonché le aree coperte dall'algoritmo). Se per noi è complicato identificare i nostri vari dialetti, la situazione lì è alquanto più complessa e diversificata

2. L'algoritmo rischia di venir visto come fonte di verità, dandogli l'autorità di decidere del futuro di una persona (piuttosto di vederlo come un mero fornitore di indizi). Questo tende a verificarsi soprattutto quando il tempo è limitato

3. Alimenta la cultura del sospetto. Questa tecnologia dà per scontato che il richiedente possa mentire, nonostante non ci siano prove a riguardo

4. Non è differente dalle tecnologie che cercano di predire orientamento sessuale e politico

Nonostante le critiche negli anni, l'algoritmo continua a venire impiegato, con più Paesi europei interessati ad adottarlo

https://altreconomia.it/lalgoritmo-che-discrimina-i-richiedenti-asilo-in-europa/

#riflessione #ia
@eticadigitale
Forwarded from 📢 Etica Digitale
🌍 OpenAI ha sfruttato lavoratorɜ del terzo mondo a meno di 2 dollari l'ora per rendere la sua "intelligenza artificiale" ChatGPT meno tossica

L'intelligenza artificiale di OpenAI deve le sue capacità alle grosse quantità di dati prese da Internet, dai quali ha però assorbito parte dei pregiudizi (razzismo, sessismo e così via) che rendono il software difficile da vendere. Per porre rimedio, l'azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l'allenamento dell'algoritmo a Sama, un'azienda californiana già al centro di scandali tra traumi e diritti negati che esternalizza etichettatorɜ in paesi del terzo mondo con salari miseri.

Il lavoro di chi etichetta è un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.

La collaborazione tra OpenAI e Sama è crollata a febbraio quando quest'ultima si è rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.

https://time.com/6247678/openai-chatgpt-kenya-workers/

@eticadigitale
#notizia #psiche #ia
Forwarded from 📢 Etica Digitale
🤖 Per essere legali, le intelligenze artificiali dovrebbero prima dimostrare di non agire contro la società

Oggigiorno, i sistemi basati sull’apprendimento automatico sono utilizzati per prendere decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo (troppi dati da analizzare manualmente).

Onde evitare che queste intelligenze artificiali facciano danni nella società, i professori F. Pasquale e G. Malgieri suggeriscono che, per rendere legali simili tecnologie, il fornitore debba prima essere in grado di dimostrare che esse non siano discriminatorie, manipolatorie, inaccurate né illegittime (sia sul piano giuridico che nel loro uso).

In questo modo, oltre che a fornire strumenti equi, sarebbe possibile fare rispettare principi come quello del trattamento dei dati personali - fissati all'articolo 5 dell'RGPD.

https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/

@EticaDigitale
#Riflessione #IA
L’incredibile disavventura accaduta a due coniugi canadesi ci viene raccontata dal Washington Post, dove si legge che essi avrebbero ricevuto una chiamata dal presunto nipote. Quest’ultimo gli avrebbe dunque chiesto circa 3.000 dollari canadesi per pagare la cauzione e uscire dalla prigione, dove sarebbe stato rinchiuso senza soldi. Sfortunatamente, i due anziani sono cascati nella trappola dei truffatori e hanno inviato con successo i 3.000 dollari richiesti. Al loro tentativo di ritirare altri soldi in banca per soddisfare le domande del falso parente, il manager della banca li ha avvisati della truffa.
https://www.punto-informatico.it/intelligenza-artificiale-per-truffare-anziani-imitando-voci-parenti/
#IA #AI #deepfake #società #cronaca
Forwarded from 📢 Etica Digitale
📣 Tornano gli incontri di Etica Digitale!

🏷 I sistemi di apprendimento automatico hanno proprietà politiche?
🎙
Conduce: Daniela Tafani, ricercatrice presso l'Università di Pisa

Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.

A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.

🗓 Martedì 21 marzo
🕑 21:30
ℹ️ Non serve registrarsi

📍 https://blue.meet.garr.it/b/dan-vzz-hud-dii

#EticaDigitale #IA
@EticaDigitale
Forwarded from 📢 Etica Digitale
📮 Nuovo articolo dalla redazione!

Il Garante italiano non ha bloccato ChatGPT
e la protezione dei dati è solo uno dei problemi dei grandi modelli linguistici

Negli ultimi giorni si è infiammato (in positivo e negativo) il dibattito sulle intelligenze generative per diversi motivi, primo fra tutti la richiesta di chiarimenti da parte del Garante italiano.

Con questo articolo cerchiamo di fare chiarezza sulla questione e spieghiamo perchè questa è solo la punta dell'iceberg dei problemi delle intelligenze artificiali come ChatGPT.

Leggi il nostro articolo e commenta!

#IA #Privacy
@EticaDigitale
Forwarded from 📢 Etica Digitale
🇪🇺 Il lobbismo dei giganti tecnologici contro la regolamentazione sull'Intelligenza artificiale

Il rapporto pubblicato dall'Osservatorio Europeo sulle Aziende mostra come, nonostante l'agguerrita concorrenza per la supremazia del proprio modello d'intelligenza artificiale (IA), compagnie come Microsoft e Google siano estremamente unite nell'esercitare pressioni sullɜ legislatorɜ dell'Unione Europea per non applicare il prossimo regolamento sull'IA alle IA di uso generale (IAUG).

Il regolamento non si riferisce alle singole tecnologie, ma si basa sul rischio: sono ad alto rischio alcune aree come la giustizia, l'istruzione, l'occupazione, l'immigrazione, (e dunque soggette al più stretto livello di regolamentazione), mentre altre a basso rischio necessiterebbero solamente di aderire a un codice di condotta.

Questo approccio obbligherebbe i distributori delle IAUG a dover costantemente garantire l'uso di dati imparziali, e ad affrontare in modo proattivo i problemi di sicurezza. Aspetti che le singole società non sarebbero però in grado di garantire.

Per evitare che questi obblighi diventino legge, le grandi società hanno adottato diversi metodi di lobbismo, diretto e indiretto. Dal mascherarsi dietro a gruppi che fingono di rappresentare gli interessi delle nuove imprese (finanziate invece dai giganti tecnologici) ad altri che riuniscono espertɜ sul tema per informare la classe politica sul funzionamento dell'IA - espertɜ tra cui si celano però rappresentanti dell'industria.

https://techcrunch.com/2023/02/23/eu-ai-act-lobbying-report/

#Notizia #IA
@EticaDigitale
Forwarded from 📢 Etica Digitale
📣 Moderatorɜ e utenti di Reddit e Stack Exchange stanno scioperando contro le nuove politiche ostili alle comunità

👉 Per Reddit, lo sciopero partità dal 12 al 14 giugno e coinvolgerà oltre 1000 comunità, di cui alcune aventi milioni di iscrittɜ. La protesta è nata a seguito di un aumento esagerato dei costi che dovrà sostenere chi sviluppa app di terze parti come Apollo e Infinity. Lɜ moderatorɜ segnalano inoltre, in una lettera aperta, la mancanza di comunicazione da parte della dirigenza di Reddit e un trattamento di seconda classe per i contenuti 18+

👉 Per Stack Exchange, lo sciopero è partito il 5 giugno a seguito delle politiche dell'azienda Stack Overflow Inc. di proibire la moderazione di contenuti generati dalle IA (tranne in casi specifici). Lɜ scioperanti sono preoccupatɜ che la piattaforma verrebbe inondata da contenuti plagianti e disinformativi, contraddicendo lo scopo della piattaforma.

Ricordiamo che chi modera le comunità su queste piattaforme lo fa in modo volontario e senza ricevere un centesimo.

https://web.archive.org/web/20230604232535/https://old.reddit.com/r/ModCoord/comments/13xh1e7/an_open_letter_on_the_state_of_affairs_regarding/

#notizia #attivismo #social #IA #comunicazione
@EticaDigitale
Copyright e IA generativa, come gestire la questione?
Lo si sta leggendo in molte testate che l' IA generativa e il copyright non vanno esattamente molto d'accordo e la questione è molto spinosa e tutt'altro che vicina dall'essere risolta. In questa chiacchierata Walter Vannini aka dataknightmare e Stefano Quintarelli, informatico ed ex parlamentare da sempre in prima fila per il digitale in Italia, discutono sul tema in particolare cercando di capire tutti i problemi che derivano a livello legale dal definire una IA generativa come creatore o come semplice strumento.
#IA #legaltech #copyright
Forwarded from 📢 Etica Digitale
🇵🇸 Habsora, l'IA di Israele che decide chi deve essere uccisə in Palestina

"Nulla succede per caso. Quando una bambina di 3 anni muore nella sua abitazione a Gaza è perché qualcunə nell'esercito ha deciso che non sarebbe stata una grande perdita - un prezzo da pagare per colpire un altro bersaglio". Così commenta una fonte dei servizi segreti israeliani alla testata palestinese +972.

Decretare i bersagli è un processo oneroso; tuttavia, l'impiego nell'attuale conflito del sistema Habsora, sistema alimentato in gran parte dall'intelligenza artificiale, permette di generarne in modo pressoché automatico, e a una velocità mai vista.

Se si calcola che i canoni per un bersaglio prevedono di bombardare un intero edificio con civili dentro se c'è un*esponente di Hamas nei dintorni, quello che Habsora produce è - citando un ex membro dei servizi segreti israeliani - "una fabbrica di sterminio di massa". Ben distante, insomma, dagli auspici di questi giorni del Pontefice, che ha esortato a un utilizzo dell'IA per la pace nel mondo

https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

#Notizia #IA
@EticaDigitale
Forwarded from 📢 Etica Digitale
🇮🇹 Sari Real Time, il sistema di sorveglianza con riconoscimento facciale progettato per lo Stadio Olimpico di Roma

Sari funziona tramite delle telecamere che riprendono il volto delle persone, in tempo reale, e poi lo confrontano con quello di una lista di persone bandite dallo stadio (DASPO).

Ad aprile 2021 il Garante della Privacy ha annunciato che il sistema di riconoscimento facciale in tempo reale non può essere usato, in quanto sistema di sorveglianza di massa indiscriminato. Nello stesso anno, il Parlamento ha approvato una moratoria che ha vietato l'uso di questi sistemi fino al 2025. Per capire se in futuro diventeranno illegali o meno, bisognerà aspettare il testo finale della nuova legge europea sulle intelligenze artificiali (AI Act).

Numerosi sono i casi esteri di persone che vengono segnalate erroneamente da questi sistemi, con conseguenti danni anche reputazionali. Nei casi in cui i dati sono pubblici, come nella città di New Orleans, è possbile verificare che l'efficacia di questi sistemi è troppo bassa e porta ad usi sproporzionati sulle persone nere.

https://irpimedia.irpi.eu/sorveglianze-stadio-olimpico-roma-riconoscimento-facciale/

#Notizia #Sorveglianza #IA #Privacy
@EticaDigitale
Forwarded from 📢 Etica Digitale
🇵🇸 No Tech for Apartheid: la campagna contro gli aiuti di Google e Amazon all'esercito israeliano

No Tech For Apartheid è stata lanciata da più di mille lavoratorɜ di Amazon e Google, e supportata da organizzazioni di palestinesi ed ebreɜ statunitensi che sono contrarie all'apertheid a Gaza. Il loro obiettivo è quello di far ritirare i due giganti tecnologici (Amazon e Google) dal Progetto Nimbus; ovvero l'accordo firmato tra Amazon, Google e il governo israeliano, che prevede la fornitura di servizi di computazione cloud e tecnologie di intelligenza artificiale alle forze armate.

Tali tecnologie sono usate nelle operazioni di sorveglianza e repressione che la popolazione palestinese subisce, e che subiva già prima dell'attuale genocidio. Sul sito della campagna, alcunɜ studenti palestinesi raccontano le discriminazioni subite: se vivi a Gaza ti devi accontentare di connessioni 2G o 3G (mentre in Israele si parla di 5G), non puoi acquistare app nel Play Store, né memoria aggiuntiva su Google Drive. Come è già noto, infine, sui social le voci del popolo palestinese vengono periodicamente censurate oppure nascoste dall'algoritmo.

https://www.notechforapartheid.com/

#Notizia #Sorveglianza #Attivismo #IA
@EticaDigitale
Forwarded from "Ciao, Internet!" » Matteo Flora (jack)
🤖 L’ascesa di #ChatGPT, la creazione di #OpenAI, nel novembre 2022 ha segnato un punto di svolta nell’era dell’intelligenza artificiale (#IA): la sua capacità di generare testi su un vasto spettro di argomenti ha catturato l’attenzione globale, portando OpenAI ad attrarre investimenti multimiliardari.

Tuttavia, una recente inchiesta di TIME rivela una realtà sconcertante: dietro questa straordinaria crescita si cela un oscuro racconto di sfruttamento del lavoro in paesi del mondo meno agiati.

📰 Nel mio articolo su Il Riformista parlo proprio dello sfruttamento del lavoratori in paesi come il Kenya.

👉 Leggi l'articolo completo online:
🔗 https://link.mgpf.it/rif-kenya
Forwarded from 📢 Etica Digitale
🤖 All'IA basta il tuo nome per sapere se (non) sei portatə per il lavoro

L'utilizzo dell'intelligenza artificiale nel processo di selezione del personale è una tendenza in forte crescita. I dipartimenti di risorse umane non generano profitto per le aziende, trovandosi così costantemente sotto pressione per ridurre le spese. Una possibile soluzione ideale è l’utilizzo di strumenti come GPT: un’IA sviluppata da OpenAI, capace di "comprendere" e generare testi in maniera sorprendentemente umana.

Tuttavia, uno studio condotto da Bloomberg ha rivelato che GPT discrimina lɜ candidatɜ basandosi esclusivamente sui loro nomi, evidenziando come tali pregiudizi di genere e origine etnica siano influenzati dalla natura del lavoro ambito. Ad esempio, nomi maschili sono svantaggiati nelle risorse umane, mentre nomi femminili afroamericani sono penalizzati nell'ingegneria informatica.

Sebbene OpenAI consigli di adottare misure preventive, come oscurare i nomi dai CV prima della loro valutazione, e vieti l'uso di GPT per assunzioni totalmente automatizzate  (senza intervento umano), l'azienda non proibisce l'uso di GPT per creare analisi che assistano nel reclutamento.

Nella pratica, però, ciò si traduce in reparti di risorse umane che spesso si affidano all'IA per scremare grandi mole di curriculum, concentrandosi poi solamente sui migliori selezionati. Senza che, in tutto ciò, sia chiaro allə candidatə il motivo per cui non è statə assuntə.

https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/

#IA #lavoro
@eticadigitale
Forwarded from 📢 Etica Digitale
🇬🇧 Nel Regno Unito sarà vietata la creazione di immagini “iperfalse” senza consenso

L’iperfalso (o "deepfake”) è una tecnologia basata sull'intelligenza artificiale che permette di creare immagini o video estremamente realistici. Questa tecnologia viene spesso abusata per sovrapporre il volto di una persona in contesti compromettenti senza il suo consenso, violando così gravemente la privacy individuale.

Per far fronte al problema, il Regno Unito ha introdotto l'anno scorso l'Online Safety Act, che vietava la diffusione in larga scala di tali contenuti. Ora, con un emendamento al disegno di legge sulla giustizia penale, il governo britannico ha stabilito che la sola creazione di tali immagini, realizzata senza il consenso esplicito dellɜ soggettɜ rappresentatɜ, comporterà una condanna penale e una multa illimitata, a prescindere dalla loro diffusione o meno. Inoltre, qualora tali contenuti vengano diffusi, lɜ responsabili rischiano una pena detentiva.

https://www.theguardian.com/technology/2024/apr/16/creating-sexually-explicit-deepfake-images-to-be-made-offence-in-uk

#notizia #IA #legge #privacy
@EticaDigitale
Forwarded from "Ciao, Internet!" » Matteo Flora (jack)
💼🤖 Negli ultimi anni, l'Intelligenza Artificiale ha fatto il suo ingresso nel mondo delle risorse umane e nella selezione del personale. Algoritmi avanzati vengono utilizzati per valutare i curriculum e condurre interviste di lavoro, semplificando e velocizzando il processo per le aziende.

Tuttavia, questo fenomeno presenta anche una serie di sfide e rischi legati alla #privacy dei candidati e alla possibilità di #discriminazione nei processi di selezione. Un episodio recente riguarda un #algoritmo utilizzato da Amazon, che è stato scoperto essere discriminatorio nei confronti delle donne e delle persone di colore.

Con l'introduzione del Regolamento sull'Intelligenza Artificiale e le norme del #GDPR che ne regolamentano l'applicazione, è fondamentale prendere in considerazione le implicazioni etiche e legali dell'utilizzo dell'#IA nel contesto lavorativo. Inoltre, è importante garantire la trasparenza nelle decisioni prese dagli algoritmi e offrire ai candidati la possibilità di contestare eventuali discriminazioni.

👉 Oggi discutiamo dell'argomento in questo approfondimento di #Garantismi con Guido Scorza e condividiamo le nostre esperienze e opinioni sul futuro del #lavoro e sull'impiego dell'#IntelligenzaArtificiale nella selezione del personale.

https://youtu.be/uZAD9mVd2SE?si=_KXl3qM7ioWIomp-