Forwarded from 📢 Etica Digitale
🌎 Intelligenza Artificiale: i 193 Paesi dell'UNESCO hanno firmato il primo accordo globale sull'etica dell'intelligenza artificiale. I quattro punti chiave sono: protezione dei dati (trasparenza, accessibilità e diritto all'oblio), divieto di crediti sociali e sorveglianza di massa, assistenza e valutazione dei Paesi e compagnie che vogliono implementare IA, protezione dell'ambiente (un'IA può inquinare moltissimo)
https://en.unesco.org/news/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence
#notizia #IA
@eticadigitale
https://en.unesco.org/news/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence
#notizia #IA
@eticadigitale
UNESCO
UNESCO member states adopt the first ever global agreement on the Ethics of Artificial Intelligence
Forwarded from 📢 Etica Digitale
🇬🇧 Regno Unito: il governo ha pubblicato uno standard di trasparenza per gli algoritmi del settore pubblico, che imporrà di valutare il loro impatto e rivelarne la struttura (quali dati usano, come e perché)
https://www.theguardian.com/technology/2021/nov/29/working-of-algorithms-used-in-government-decision-making-to-be-revealed
#notizia #IA #legge
@eticadigitale
https://www.theguardian.com/technology/2021/nov/29/working-of-algorithms-used-in-government-decision-making-to-be-revealed
#notizia #IA #legge
@eticadigitale
the Guardian
Working of algorithms used in government decision-making to be revealed
Cabinet Office announces new standard for tools that influence exam results, housing benefit allocations and pothole repairs
Forwarded from 📢 Etica Digitale
🇪🇺 Unione Europea: La Legge sull’Intelligenza Artificiale dell'UE è in fase di discussione e modifica. Una delle questioni più urgenti è fondante: come definire l'intelligenza artificiale? Su cosa avrà voce in capitolo la legge e su cosa no?
Mentre alcune parti interessate fanno pressione per una definizione ristretta dell'IA, in questo articolo Joanna Bryson ne suggerisce una più ampia e flessibile, che consentirebbe di applicare la legge ogni volta che un sistema è in grado di avere un impatto significativo sulle nostre vite - indipendentemente dalla complessità degli algoritmi utilizzati.
Un esempio è il credito sociale (apparso di recente anche in Italia nelle città di Fidenza e Bologna), che ha sì un impatto sulla vita delle persone, ma che rischierebbe di non rientrare nel quadro legislativo se venisse adottata una definizione ristretta di IA
https://www.wired.com/story/artificial-intelligence-regulation-european-union
#notizia #legge #IA
@eticadigitale
Mentre alcune parti interessate fanno pressione per una definizione ristretta dell'IA, in questo articolo Joanna Bryson ne suggerisce una più ampia e flessibile, che consentirebbe di applicare la legge ogni volta che un sistema è in grado di avere un impatto significativo sulle nostre vite - indipendentemente dalla complessità degli algoritmi utilizzati.
Un esempio è il credito sociale (apparso di recente anche in Italia nelle città di Fidenza e Bologna), che ha sì un impatto sulla vita delle persone, ma che rischierebbe di non rientrare nel quadro legislativo se venisse adottata una definizione ristretta di IA
https://www.wired.com/story/artificial-intelligence-regulation-european-union
#notizia #legge #IA
@eticadigitale
WIRED
Europe Is in Danger of Using the Wrong Definition of AI
Some intelligent systems are at risk of being excluded from oversight in the EU's proposed legislation. This is bad for both businesses and citizens.
Forwarded from 📢 Etica Digitale
🇩🇪 L'algoritmo tedesco che discrimina i richiedenti asilo in Europa
Dal 2017, in Germania l'ufficio per le migrazioni e i rifugiati (Bamf) impiega un algoritmo di riconoscimento linguistico per capire la provenienza dell'individuo e valutarne la richiesta d'asilo. Questo pone quattro problemi:
1. Come fa notare il linguista Liberman, le lingue non sono standardizzate, soprattutto nelle regioni arabe e persiane (nonché le aree coperte dall'algoritmo). Se per noi è complicato identificare i nostri vari dialetti, la situazione lì è alquanto più complessa e diversificata
2. L'algoritmo rischia di venir visto come fonte di verità, dandogli l'autorità di decidere del futuro di una persona (piuttosto di vederlo come un mero fornitore di indizi). Questo tende a verificarsi soprattutto quando il tempo è limitato
3. Alimenta la cultura del sospetto. Questa tecnologia dà per scontato che il richiedente possa mentire, nonostante non ci siano prove a riguardo
4. Non è differente dalle tecnologie che cercano di predire orientamento sessuale e politico
Nonostante le critiche negli anni, l'algoritmo continua a venire impiegato, con più Paesi europei interessati ad adottarlo
https://altreconomia.it/lalgoritmo-che-discrimina-i-richiedenti-asilo-in-europa/
#riflessione #ia
@eticadigitale
Dal 2017, in Germania l'ufficio per le migrazioni e i rifugiati (Bamf) impiega un algoritmo di riconoscimento linguistico per capire la provenienza dell'individuo e valutarne la richiesta d'asilo. Questo pone quattro problemi:
1. Come fa notare il linguista Liberman, le lingue non sono standardizzate, soprattutto nelle regioni arabe e persiane (nonché le aree coperte dall'algoritmo). Se per noi è complicato identificare i nostri vari dialetti, la situazione lì è alquanto più complessa e diversificata
2. L'algoritmo rischia di venir visto come fonte di verità, dandogli l'autorità di decidere del futuro di una persona (piuttosto di vederlo come un mero fornitore di indizi). Questo tende a verificarsi soprattutto quando il tempo è limitato
3. Alimenta la cultura del sospetto. Questa tecnologia dà per scontato che il richiedente possa mentire, nonostante non ci siano prove a riguardo
4. Non è differente dalle tecnologie che cercano di predire orientamento sessuale e politico
Nonostante le critiche negli anni, l'algoritmo continua a venire impiegato, con più Paesi europei interessati ad adottarlo
https://altreconomia.it/lalgoritmo-che-discrimina-i-richiedenti-asilo-in-europa/
#riflessione #ia
@eticadigitale
Altreconomia
L'algoritmo che discrimina i richiedenti asilo in Europa
L'Ufficio tedesco per le migrazioni e i rifugiati (Bamf) utilizza da anni un programma che sarebbe in grado di "verificare" la provenienza dei richiedenti asilo riconoscendone la lingua. Secondo la Ong AlgorithmWatch il software si basa su premesse scientifiche…
Forwarded from 📢 Etica Digitale
🌍 OpenAI ha sfruttato lavoratorɜ del terzo mondo a meno di 2 dollari l'ora per rendere la sua "intelligenza artificiale" ChatGPT meno tossica
L'intelligenza artificiale di OpenAI deve le sue capacità alle grosse quantità di dati prese da Internet, dai quali ha però assorbito parte dei pregiudizi (razzismo, sessismo e così via) che rendono il software difficile da vendere. Per porre rimedio, l'azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l'allenamento dell'algoritmo a Sama, un'azienda californiana già al centro di scandali tra traumi e diritti negati che esternalizza etichettatorɜ in paesi del terzo mondo con salari miseri.
Il lavoro di chi etichetta è un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.
La collaborazione tra OpenAI e Sama è crollata a febbraio quando quest'ultima si è rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.
https://time.com/6247678/openai-chatgpt-kenya-workers/
@eticadigitale
#notizia #psiche #ia
L'intelligenza artificiale di OpenAI deve le sue capacità alle grosse quantità di dati prese da Internet, dai quali ha però assorbito parte dei pregiudizi (razzismo, sessismo e così via) che rendono il software difficile da vendere. Per porre rimedio, l'azienda ha iniziato a costruire un meccanismo di sicurezza basato su intelligenza artificiale che riconosce frasi tossiche e le elimina, affidandosi per l'allenamento dell'algoritmo a Sama, un'azienda californiana già al centro di scandali tra traumi e diritti negati che esternalizza etichettatorɜ in paesi del terzo mondo con salari miseri.
Il lavoro di chi etichetta è un lavoro molto usurante dal punto di vista psicologico, in quanto bisogna leggere tutto il giorno, tutti i giorni, testi che possono contenere contenuti disturbanti e traumatizzanti.
La collaborazione tra OpenAI e Sama è crollata a febbraio quando quest'ultima si è rifiutata di etichettare immagini che potevano contenere violenza, abusi sui minori e altro materiale disturbante.
https://time.com/6247678/openai-chatgpt-kenya-workers/
@eticadigitale
#notizia #psiche #ia
TIME
Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic
A TIME investigation reveals the difficult conditions faced by the workers who made ChatGPT possible
Forwarded from 📢 Etica Digitale
🤖 Per essere legali, le intelligenze artificiali dovrebbero prima dimostrare di non agire contro la società
Oggigiorno, i sistemi basati sull’apprendimento automatico sono utilizzati per prendere decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo (troppi dati da analizzare manualmente).
Onde evitare che queste intelligenze artificiali facciano danni nella società, i professori F. Pasquale e G. Malgieri suggeriscono che, per rendere legali simili tecnologie, il fornitore debba prima essere in grado di dimostrare che esse non siano discriminatorie, manipolatorie, inaccurate né illegittime (sia sul piano giuridico che nel loro uso).
In questo modo, oltre che a fornire strumenti equi, sarebbe possibile fare rispettare principi come quello del trattamento dei dati personali - fissati all'articolo 5 dell'RGPD.
https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/
@EticaDigitale
#Riflessione #IA
Oggigiorno, i sistemi basati sull’apprendimento automatico sono utilizzati per prendere decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo (troppi dati da analizzare manualmente).
Onde evitare che queste intelligenze artificiali facciano danni nella società, i professori F. Pasquale e G. Malgieri suggeriscono che, per rendere legali simili tecnologie, il fornitore debba prima essere in grado di dimostrare che esse non siano discriminatorie, manipolatorie, inaccurate né illegittime (sia sul piano giuridico che nel loro uso).
In questo modo, oltre che a fornire strumenti equi, sarebbe possibile fare rispettare principi come quello del trattamento dei dati personali - fissati all'articolo 5 dell'RGPD.
https://btfp.sp.unipi.it/it/2022/11/automaticamente-illegali-una-proposta-per-i-sistemi-di-intelligenza-artificiale/
@EticaDigitale
#Riflessione #IA
Bollettino telematico di filosofia politica
"Automaticamente illegali". Una proposta per i sistemi di intelligenza artificiale < Bollettino telematico di filosofia politica
Illegalità dei sistemi di intelligenza artificiale, fino a prova contraria: è la proposta di Frank Pasquale e Gianclaudio Malgieri, fondata sull’evidenza delle violazioni dei diritti individuali che hanno luogo quando i sistemi di intelligenza artificiale…
L’incredibile disavventura accaduta a due coniugi canadesi ci viene raccontata dal Washington Post, dove si legge che essi avrebbero ricevuto una chiamata dal presunto nipote. Quest’ultimo gli avrebbe dunque chiesto circa 3.000 dollari canadesi per pagare la cauzione e uscire dalla prigione, dove sarebbe stato rinchiuso senza soldi. Sfortunatamente, i due anziani sono cascati nella trappola dei truffatori e hanno inviato con successo i 3.000 dollari richiesti. Al loro tentativo di ritirare altri soldi in banca per soddisfare le domande del falso parente, il manager della banca li ha avvisati della truffa.
https://www.punto-informatico.it/intelligenza-artificiale-per-truffare-anziani-imitando-voci-parenti/
#IA #AI #deepfake #società #cronaca
https://www.punto-informatico.it/intelligenza-artificiale-per-truffare-anziani-imitando-voci-parenti/
#IA #AI #deepfake #società #cronaca
Punto Informatico
Ora l'intelligenza artificiale si usa per truffare gli anziani imitando voci dei parenti
L'intelligenza artificiale si evolve ancora: ora viene utilizzata nel mondo per imitare la voce dei parenti e truffare gli ignari anziani.
Forwarded from 📢 Etica Digitale
📣 Tornano gli incontri di Etica Digitale!
🏷 I sistemi di apprendimento automatico hanno proprietà politiche?
🎙 Conduce: Daniela Tafani, ricercatrice presso l'Università di Pisa
Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.
A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.
🗓 Martedì 21 marzo
🕑 21:30
ℹ️ Non serve registrarsi
📍 https://blue.meet.garr.it/b/dan-vzz-hud-dii
#EticaDigitale #IA
@EticaDigitale
🏷 I sistemi di apprendimento automatico hanno proprietà politiche?
🎙 Conduce: Daniela Tafani, ricercatrice presso l'Università di Pisa
Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.
A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.
🗓 Martedì 21 marzo
🕑 21:30
ℹ️ Non serve registrarsi
📍 https://blue.meet.garr.it/b/dan-vzz-hud-dii
#EticaDigitale #IA
@EticaDigitale
blue.meet.garr.it
Daniela Tafani
You have been invited to join Daniela Tafani using BigBlueButton. To join, click the link above and enter your name.
Forwarded from 📢 Etica Digitale
📮 Nuovo articolo dalla redazione!
Il Garante italiano non ha bloccato ChatGPT
e la protezione dei dati è solo uno dei problemi dei grandi modelli linguistici
Negli ultimi giorni si è infiammato (in positivo e negativo) il dibattito sulle intelligenze generative per diversi motivi, primo fra tutti la richiesta di chiarimenti da parte del Garante italiano.
Con questo articolo cerchiamo di fare chiarezza sulla questione e spieghiamo perchè questa è solo la punta dell'iceberg dei problemi delle intelligenze artificiali come ChatGPT.
Leggi il nostro articolo e commenta!
#IA #Privacy
@EticaDigitale
Il Garante italiano non ha bloccato ChatGPT
e la protezione dei dati è solo uno dei problemi dei grandi modelli linguistici
Negli ultimi giorni si è infiammato (in positivo e negativo) il dibattito sulle intelligenze generative per diversi motivi, primo fra tutti la richiesta di chiarimenti da parte del Garante italiano.
Con questo articolo cerchiamo di fare chiarezza sulla questione e spieghiamo perchè questa è solo la punta dell'iceberg dei problemi delle intelligenze artificiali come ChatGPT.
Leggi il nostro articolo e commenta!
#IA #Privacy
@EticaDigitale
Forwarded from 📢 Etica Digitale
🇪🇺 Il lobbismo dei giganti tecnologici contro la regolamentazione sull'Intelligenza artificiale
Il rapporto pubblicato dall'Osservatorio Europeo sulle Aziende mostra come, nonostante l'agguerrita concorrenza per la supremazia del proprio modello d'intelligenza artificiale (IA), compagnie come Microsoft e Google siano estremamente unite nell'esercitare pressioni sullɜ legislatorɜ dell'Unione Europea per non applicare il prossimo regolamento sull'IA alle IA di uso generale (IAUG).
Il regolamento non si riferisce alle singole tecnologie, ma si basa sul rischio: sono ad alto rischio alcune aree come la giustizia, l'istruzione, l'occupazione, l'immigrazione, (e dunque soggette al più stretto livello di regolamentazione), mentre altre a basso rischio necessiterebbero solamente di aderire a un codice di condotta.
Questo approccio obbligherebbe i distributori delle IAUG a dover costantemente garantire l'uso di dati imparziali, e ad affrontare in modo proattivo i problemi di sicurezza. Aspetti che le singole società non sarebbero però in grado di garantire.
Per evitare che questi obblighi diventino legge, le grandi società hanno adottato diversi metodi di lobbismo, diretto e indiretto. Dal mascherarsi dietro a gruppi che fingono di rappresentare gli interessi delle nuove imprese (finanziate invece dai giganti tecnologici) ad altri che riuniscono espertɜ sul tema per informare la classe politica sul funzionamento dell'IA - espertɜ tra cui si celano però rappresentanti dell'industria.
https://techcrunch.com/2023/02/23/eu-ai-act-lobbying-report/
#Notizia #IA
@EticaDigitale
Il rapporto pubblicato dall'Osservatorio Europeo sulle Aziende mostra come, nonostante l'agguerrita concorrenza per la supremazia del proprio modello d'intelligenza artificiale (IA), compagnie come Microsoft e Google siano estremamente unite nell'esercitare pressioni sullɜ legislatorɜ dell'Unione Europea per non applicare il prossimo regolamento sull'IA alle IA di uso generale (IAUG).
Il regolamento non si riferisce alle singole tecnologie, ma si basa sul rischio: sono ad alto rischio alcune aree come la giustizia, l'istruzione, l'occupazione, l'immigrazione, (e dunque soggette al più stretto livello di regolamentazione), mentre altre a basso rischio necessiterebbero solamente di aderire a un codice di condotta.
Questo approccio obbligherebbe i distributori delle IAUG a dover costantemente garantire l'uso di dati imparziali, e ad affrontare in modo proattivo i problemi di sicurezza. Aspetti che le singole società non sarebbero però in grado di garantire.
Per evitare che questi obblighi diventino legge, le grandi società hanno adottato diversi metodi di lobbismo, diretto e indiretto. Dal mascherarsi dietro a gruppi che fingono di rappresentare gli interessi delle nuove imprese (finanziate invece dai giganti tecnologici) ad altri che riuniscono espertɜ sul tema per informare la classe politica sul funzionamento dell'IA - espertɜ tra cui si celano però rappresentanti dell'industria.
https://techcrunch.com/2023/02/23/eu-ai-act-lobbying-report/
#Notizia #IA
@EticaDigitale
TechCrunch
Report details how Big Tech is leaning on EU not to regulate general purpose AIs
It’s still pretty early in the year but the disruptive power of general purpose AI (GPAI) already looks cemented as the big tech story of 2023, with tech giants including Microsoft and Google duking it out to fast-follow OpenAI’s viral conversational chatbot…
Forwarded from 📢 Etica Digitale
📣 Moderatorɜ e utenti di Reddit e Stack Exchange stanno scioperando contro le nuove politiche ostili alle comunità
👉 Per Reddit, lo sciopero partità dal 12 al 14 giugno e coinvolgerà oltre 1000 comunità, di cui alcune aventi milioni di iscrittɜ. La protesta è nata a seguito di un aumento esagerato dei costi che dovrà sostenere chi sviluppa app di terze parti come Apollo e Infinity. Lɜ moderatorɜ segnalano inoltre, in una lettera aperta, la mancanza di comunicazione da parte della dirigenza di Reddit e un trattamento di seconda classe per i contenuti 18+
👉 Per Stack Exchange, lo sciopero è partito il 5 giugno a seguito delle politiche dell'azienda Stack Overflow Inc. di proibire la moderazione di contenuti generati dalle IA (tranne in casi specifici). Lɜ scioperanti sono preoccupatɜ che la piattaforma verrebbe inondata da contenuti plagianti e disinformativi, contraddicendo lo scopo della piattaforma.
Ricordiamo che chi modera le comunità su queste piattaforme lo fa in modo volontario e senza ricevere un centesimo.
https://web.archive.org/web/20230604232535/https://old.reddit.com/r/ModCoord/comments/13xh1e7/an_open_letter_on_the_state_of_affairs_regarding/
#notizia #attivismo #social #IA #comunicazione
@EticaDigitale
👉 Per Reddit, lo sciopero partità dal 12 al 14 giugno e coinvolgerà oltre 1000 comunità, di cui alcune aventi milioni di iscrittɜ. La protesta è nata a seguito di un aumento esagerato dei costi che dovrà sostenere chi sviluppa app di terze parti come Apollo e Infinity. Lɜ moderatorɜ segnalano inoltre, in una lettera aperta, la mancanza di comunicazione da parte della dirigenza di Reddit e un trattamento di seconda classe per i contenuti 18+
👉 Per Stack Exchange, lo sciopero è partito il 5 giugno a seguito delle politiche dell'azienda Stack Overflow Inc. di proibire la moderazione di contenuti generati dalle IA (tranne in casi specifici). Lɜ scioperanti sono preoccupatɜ che la piattaforma verrebbe inondata da contenuti plagianti e disinformativi, contraddicendo lo scopo della piattaforma.
Ricordiamo che chi modera le comunità su queste piattaforme lo fa in modo volontario e senza ricevere un centesimo.
https://web.archive.org/web/20230604232535/https://old.reddit.com/r/ModCoord/comments/13xh1e7/an_open_letter_on_the_state_of_affairs_regarding/
#notizia #attivismo #social #IA #comunicazione
@EticaDigitale
Meta Stack Exchange
Moderation Strike: Stack Overflow, Inc. cannot consistently ignore, mistreat, and malign its volunteers
Introduction
As of today, June 5th, 2023, a large number of moderators, curators, contributors, and users from around Stack Overflow and the Stack Exchange network are initiating a general moderation
As of today, June 5th, 2023, a large number of moderators, curators, contributors, and users from around Stack Overflow and the Stack Exchange network are initiating a general moderation
Copyright e IA generativa, come gestire la questione?
Lo si sta leggendo in molte testate che l' IA generativa e il copyright non vanno esattamente molto d'accordo e la questione è molto spinosa e tutt'altro che vicina dall'essere risolta. In questa chiacchierata Walter Vannini aka dataknightmare e Stefano Quintarelli, informatico ed ex parlamentare da sempre in prima fila per il digitale in Italia, discutono sul tema in particolare cercando di capire tutti i problemi che derivano a livello legale dal definire una IA generativa come creatore o come semplice strumento.
#IA #legaltech #copyright
Lo si sta leggendo in molte testate che l' IA generativa e il copyright non vanno esattamente molto d'accordo e la questione è molto spinosa e tutt'altro che vicina dall'essere risolta. In questa chiacchierata Walter Vannini aka dataknightmare e Stefano Quintarelli, informatico ed ex parlamentare da sempre in prima fila per il digitale in Italia, discutono sul tema in particolare cercando di capire tutti i problemi che derivano a livello legale dal definire una IA generativa come creatore o come semplice strumento.
#IA #legaltech #copyright
Spreaker
DK 8x08 - SALAMI e copyright
Con Stefano Quintarelli parliamo di IA e diritto d'autore, e di come dietro a tutti i grandi discorsi sulle macchine coscienti ci sia sempre la solita vecchia storia di creare un monopolio per vivere
Forwarded from 📢 Etica Digitale
🇵🇸 Habsora, l'IA di Israele che decide chi deve essere uccisə in Palestina
"Nulla succede per caso. Quando una bambina di 3 anni muore nella sua abitazione a Gaza è perché qualcunə nell'esercito ha deciso che non sarebbe stata una grande perdita - un prezzo da pagare per colpire un altro bersaglio". Così commenta una fonte dei servizi segreti israeliani alla testata palestinese +972.
Decretare i bersagli è un processo oneroso; tuttavia, l'impiego nell'attuale conflito del sistema Habsora, sistema alimentato in gran parte dall'intelligenza artificiale, permette di generarne in modo pressoché automatico, e a una velocità mai vista.
Se si calcola che i canoni per un bersaglio prevedono di bombardare un intero edificio con civili dentro se c'è un*esponente di Hamas nei dintorni, quello che Habsora produce è - citando un ex membro dei servizi segreti israeliani - "una fabbrica di sterminio di massa". Ben distante, insomma, dagli auspici di questi giorni del Pontefice, che ha esortato a un utilizzo dell'IA per la pace nel mondo
https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
#Notizia #IA
@EticaDigitale
"Nulla succede per caso. Quando una bambina di 3 anni muore nella sua abitazione a Gaza è perché qualcunə nell'esercito ha deciso che non sarebbe stata una grande perdita - un prezzo da pagare per colpire un altro bersaglio". Così commenta una fonte dei servizi segreti israeliani alla testata palestinese +972.
Decretare i bersagli è un processo oneroso; tuttavia, l'impiego nell'attuale conflito del sistema Habsora, sistema alimentato in gran parte dall'intelligenza artificiale, permette di generarne in modo pressoché automatico, e a una velocità mai vista.
Se si calcola che i canoni per un bersaglio prevedono di bombardare un intero edificio con civili dentro se c'è un*esponente di Hamas nei dintorni, quello che Habsora produce è - citando un ex membro dei servizi segreti israeliani - "una fabbrica di sterminio di massa". Ben distante, insomma, dagli auspici di questi giorni del Pontefice, che ha esortato a un utilizzo dell'IA per la pace nel mondo
https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
#Notizia #IA
@EticaDigitale
+972 Magazine
‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza
Permissive airstrikes on non-military targets and the use of an AI system have enabled the Israeli army to carry out its deadliest war on Gaza.
Forwarded from 📢 Etica Digitale
🇮🇹 Sari Real Time, il sistema di sorveglianza con riconoscimento facciale progettato per lo Stadio Olimpico di Roma
Sari funziona tramite delle telecamere che riprendono il volto delle persone, in tempo reale, e poi lo confrontano con quello di una lista di persone bandite dallo stadio (DASPO).
Ad aprile 2021 il Garante della Privacy ha annunciato che il sistema di riconoscimento facciale in tempo reale non può essere usato, in quanto sistema di sorveglianza di massa indiscriminato. Nello stesso anno, il Parlamento ha approvato una moratoria che ha vietato l'uso di questi sistemi fino al 2025. Per capire se in futuro diventeranno illegali o meno, bisognerà aspettare il testo finale della nuova legge europea sulle intelligenze artificiali (AI Act).
Numerosi sono i casi esteri di persone che vengono segnalate erroneamente da questi sistemi, con conseguenti danni anche reputazionali. Nei casi in cui i dati sono pubblici, come nella città di New Orleans, è possbile verificare che l'efficacia di questi sistemi è troppo bassa e porta ad usi sproporzionati sulle persone nere.
https://irpimedia.irpi.eu/sorveglianze-stadio-olimpico-roma-riconoscimento-facciale/
#Notizia #Sorveglianza #IA #Privacy
@EticaDigitale
Sari funziona tramite delle telecamere che riprendono il volto delle persone, in tempo reale, e poi lo confrontano con quello di una lista di persone bandite dallo stadio (DASPO).
Ad aprile 2021 il Garante della Privacy ha annunciato che il sistema di riconoscimento facciale in tempo reale non può essere usato, in quanto sistema di sorveglianza di massa indiscriminato. Nello stesso anno, il Parlamento ha approvato una moratoria che ha vietato l'uso di questi sistemi fino al 2025. Per capire se in futuro diventeranno illegali o meno, bisognerà aspettare il testo finale della nuova legge europea sulle intelligenze artificiali (AI Act).
Numerosi sono i casi esteri di persone che vengono segnalate erroneamente da questi sistemi, con conseguenti danni anche reputazionali. Nei casi in cui i dati sono pubblici, come nella città di New Orleans, è possbile verificare che l'efficacia di questi sistemi è troppo bassa e porta ad usi sproporzionati sulle persone nere.
https://irpimedia.irpi.eu/sorveglianze-stadio-olimpico-roma-riconoscimento-facciale/
#Notizia #Sorveglianza #IA #Privacy
@EticaDigitale
IrpiMedia
Quello che la polizia non dice sulle telecamere allo Stadio Olimpico
In un appalto del 2021, si legge che servono a identificare chi non può entrare nello stadio. La polizia dice invece che servono per identificare chi ha delle condotte violente
Forwarded from 📢 Etica Digitale
🇵🇸 No Tech for Apartheid: la campagna contro gli aiuti di Google e Amazon all'esercito israeliano
No Tech For Apartheid è stata lanciata da più di mille lavoratorɜ di Amazon e Google, e supportata da organizzazioni di palestinesi ed ebreɜ statunitensi che sono contrarie all'apertheid a Gaza. Il loro obiettivo è quello di far ritirare i due giganti tecnologici (Amazon e Google) dal Progetto Nimbus; ovvero l'accordo firmato tra Amazon, Google e il governo israeliano, che prevede la fornitura di servizi di computazione cloud e tecnologie di intelligenza artificiale alle forze armate.
Tali tecnologie sono usate nelle operazioni di sorveglianza e repressione che la popolazione palestinese subisce, e che subiva già prima dell'attuale genocidio. Sul sito della campagna, alcunɜ studenti palestinesi raccontano le discriminazioni subite: se vivi a Gaza ti devi accontentare di connessioni 2G o 3G (mentre in Israele si parla di 5G), non puoi acquistare app nel Play Store, né memoria aggiuntiva su Google Drive. Come è già noto, infine, sui social le voci del popolo palestinese vengono periodicamente censurate oppure nascoste dall'algoritmo.
https://www.notechforapartheid.com/
#Notizia #Sorveglianza #Attivismo #IA
@EticaDigitale
No Tech For Apartheid è stata lanciata da più di mille lavoratorɜ di Amazon e Google, e supportata da organizzazioni di palestinesi ed ebreɜ statunitensi che sono contrarie all'apertheid a Gaza. Il loro obiettivo è quello di far ritirare i due giganti tecnologici (Amazon e Google) dal Progetto Nimbus; ovvero l'accordo firmato tra Amazon, Google e il governo israeliano, che prevede la fornitura di servizi di computazione cloud e tecnologie di intelligenza artificiale alle forze armate.
Tali tecnologie sono usate nelle operazioni di sorveglianza e repressione che la popolazione palestinese subisce, e che subiva già prima dell'attuale genocidio. Sul sito della campagna, alcunɜ studenti palestinesi raccontano le discriminazioni subite: se vivi a Gaza ti devi accontentare di connessioni 2G o 3G (mentre in Israele si parla di 5G), non puoi acquistare app nel Play Store, né memoria aggiuntiva su Google Drive. Come è già noto, infine, sui social le voci del popolo palestinese vengono periodicamente censurate oppure nascoste dall'algoritmo.
https://www.notechforapartheid.com/
#Notizia #Sorveglianza #Attivismo #IA
@EticaDigitale
Notechforapartheid
No Tech For Apartheid
Tell Google and Amazon: Stop doing business with Israeli apartheid
Forwarded from "Ciao, Internet!" » Matteo Flora (jack)
🤖 L’ascesa di #ChatGPT, la creazione di #OpenAI, nel novembre 2022 ha segnato un punto di svolta nell’era dell’intelligenza artificiale (#IA): la sua capacità di generare testi su un vasto spettro di argomenti ha catturato l’attenzione globale, portando OpenAI ad attrarre investimenti multimiliardari.
Tuttavia, una recente inchiesta di TIME rivela una realtà sconcertante: dietro questa straordinaria crescita si cela un oscuro racconto di sfruttamento del lavoro in paesi del mondo meno agiati.
📰 Nel mio articolo su Il Riformista parlo proprio dello sfruttamento del lavoratori in paesi come il Kenya.
👉 Leggi l'articolo completo online:
🔗 https://link.mgpf.it/rif-kenya
Tuttavia, una recente inchiesta di TIME rivela una realtà sconcertante: dietro questa straordinaria crescita si cela un oscuro racconto di sfruttamento del lavoro in paesi del mondo meno agiati.
📰 Nel mio articolo su Il Riformista parlo proprio dello sfruttamento del lavoratori in paesi come il Kenya.
👉 Leggi l'articolo completo online:
🔗 https://link.mgpf.it/rif-kenya
Forwarded from 📢 Etica Digitale
🤖 All'IA basta il tuo nome per sapere se (non) sei portatə per il lavoro
L'utilizzo dell'intelligenza artificiale nel processo di selezione del personale è una tendenza in forte crescita. I dipartimenti di risorse umane non generano profitto per le aziende, trovandosi così costantemente sotto pressione per ridurre le spese. Una possibile soluzione ideale è l’utilizzo di strumenti come GPT: un’IA sviluppata da OpenAI, capace di "comprendere" e generare testi in maniera sorprendentemente umana.
Tuttavia, uno studio condotto da Bloomberg ha rivelato che GPT discrimina lɜ candidatɜ basandosi esclusivamente sui loro nomi, evidenziando come tali pregiudizi di genere e origine etnica siano influenzati dalla natura del lavoro ambito. Ad esempio, nomi maschili sono svantaggiati nelle risorse umane, mentre nomi femminili afroamericani sono penalizzati nell'ingegneria informatica.
Sebbene OpenAI consigli di adottare misure preventive, come oscurare i nomi dai CV prima della loro valutazione, e vieti l'uso di GPT per assunzioni totalmente automatizzate (senza intervento umano), l'azienda non proibisce l'uso di GPT per creare analisi che assistano nel reclutamento.
Nella pratica, però, ciò si traduce in reparti di risorse umane che spesso si affidano all'IA per scremare grandi mole di curriculum, concentrandosi poi solamente sui migliori selezionati. Senza che, in tutto ciò, sia chiaro allə candidatə il motivo per cui non è statə assuntə.
https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/
#IA #lavoro
@eticadigitale
L'utilizzo dell'intelligenza artificiale nel processo di selezione del personale è una tendenza in forte crescita. I dipartimenti di risorse umane non generano profitto per le aziende, trovandosi così costantemente sotto pressione per ridurre le spese. Una possibile soluzione ideale è l’utilizzo di strumenti come GPT: un’IA sviluppata da OpenAI, capace di "comprendere" e generare testi in maniera sorprendentemente umana.
Tuttavia, uno studio condotto da Bloomberg ha rivelato che GPT discrimina lɜ candidatɜ basandosi esclusivamente sui loro nomi, evidenziando come tali pregiudizi di genere e origine etnica siano influenzati dalla natura del lavoro ambito. Ad esempio, nomi maschili sono svantaggiati nelle risorse umane, mentre nomi femminili afroamericani sono penalizzati nell'ingegneria informatica.
Sebbene OpenAI consigli di adottare misure preventive, come oscurare i nomi dai CV prima della loro valutazione, e vieti l'uso di GPT per assunzioni totalmente automatizzate (senza intervento umano), l'azienda non proibisce l'uso di GPT per creare analisi che assistano nel reclutamento.
Nella pratica, però, ciò si traduce in reparti di risorse umane che spesso si affidano all'IA per scremare grandi mole di curriculum, concentrandosi poi solamente sui migliori selezionati. Senza che, in tutto ciò, sia chiaro allə candidatə il motivo per cui non è statə assuntə.
https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/
#IA #lavoro
@eticadigitale
Bloomberg.com
OpenAI’s GPT Is a Recruiter’s Dream Tool. Tests Show There’s Racial Bias
Recruiters are eager to use generative AI, but a Bloomberg experiment found bias against job candidates based on their names alone
Forwarded from Feddit
Il jailbreak delle intelligenze artificiali è un tema sicuramente rilevante per le aziende che sviluppano ed utilizzano le IA
https://feddit.it/post/6936198
Il nuovo post di prealpinux è su feddit.it/c/aitech
Il jailbreak delle intelligenze artificiali è un tema sicuramente rilevante per le aziende che sviluppano ed utilizzano le IA
#ia #grok #jailbreak
https://www.punto-informatico.it/grok-bufera-istruzioni-bombe-stupefacenti/
@aitech
https://feddit.it/post/6936198
Il nuovo post di prealpinux è su feddit.it/c/aitech
Il jailbreak delle intelligenze artificiali è un tema sicuramente rilevante per le aziende che sviluppano ed utilizzano le IA
#ia #grok #jailbreak
https://www.punto-informatico.it/grok-bufera-istruzioni-bombe-stupefacenti/
@aitech
feddit.it
Il jailbreak delle intelligenze artificiali è un tema sicuramente rilevante per le aziende che sviluppano ed utilizzano le IA …
Il jailbreak delle intelligenze artificiali è un tema sicuramente rilevante per
le aziende che sviluppano ed utilizzano le IA #ia [https://mastodon.uno/tags/ia]
#grok [https://mastodon.uno/tags/grok] #jailbreak
[https://mastodon.uno/tags/jailbreak]
https://www.punto…
le aziende che sviluppano ed utilizzano le IA #ia [https://mastodon.uno/tags/ia]
#grok [https://mastodon.uno/tags/grok] #jailbreak
[https://mastodon.uno/tags/jailbreak]
https://www.punto…
Forwarded from 📢 Etica Digitale
🇬🇧 Nel Regno Unito sarà vietata la creazione di immagini “iperfalse” senza consenso
L’iperfalso (o "deepfake”) è una tecnologia basata sull'intelligenza artificiale che permette di creare immagini o video estremamente realistici. Questa tecnologia viene spesso abusata per sovrapporre il volto di una persona in contesti compromettenti senza il suo consenso, violando così gravemente la privacy individuale.
Per far fronte al problema, il Regno Unito ha introdotto l'anno scorso l'Online Safety Act, che vietava la diffusione in larga scala di tali contenuti. Ora, con un emendamento al disegno di legge sulla giustizia penale, il governo britannico ha stabilito che la sola creazione di tali immagini, realizzata senza il consenso esplicito dellɜ soggettɜ rappresentatɜ, comporterà una condanna penale e una multa illimitata, a prescindere dalla loro diffusione o meno. Inoltre, qualora tali contenuti vengano diffusi, lɜ responsabili rischiano una pena detentiva.
https://www.theguardian.com/technology/2024/apr/16/creating-sexually-explicit-deepfake-images-to-be-made-offence-in-uk
#notizia #IA #legge #privacy
@EticaDigitale
L’iperfalso (o "deepfake”) è una tecnologia basata sull'intelligenza artificiale che permette di creare immagini o video estremamente realistici. Questa tecnologia viene spesso abusata per sovrapporre il volto di una persona in contesti compromettenti senza il suo consenso, violando così gravemente la privacy individuale.
Per far fronte al problema, il Regno Unito ha introdotto l'anno scorso l'Online Safety Act, che vietava la diffusione in larga scala di tali contenuti. Ora, con un emendamento al disegno di legge sulla giustizia penale, il governo britannico ha stabilito che la sola creazione di tali immagini, realizzata senza il consenso esplicito dellɜ soggettɜ rappresentatɜ, comporterà una condanna penale e una multa illimitata, a prescindere dalla loro diffusione o meno. Inoltre, qualora tali contenuti vengano diffusi, lɜ responsabili rischiano una pena detentiva.
https://www.theguardian.com/technology/2024/apr/16/creating-sexually-explicit-deepfake-images-to-be-made-offence-in-uk
#notizia #IA #legge #privacy
@EticaDigitale
the Guardian
Creating sexually explicit deepfake images to be made offence in UK
Offenders could face jail if image is widely shared under proposed amendment to criminal justice bill
Forwarded from "Ciao, Internet!" » Matteo Flora (jack)
💼🤖 Negli ultimi anni, l'Intelligenza Artificiale ha fatto il suo ingresso nel mondo delle risorse umane e nella selezione del personale. Algoritmi avanzati vengono utilizzati per valutare i curriculum e condurre interviste di lavoro, semplificando e velocizzando il processo per le aziende.
Tuttavia, questo fenomeno presenta anche una serie di sfide e rischi legati alla #privacy dei candidati e alla possibilità di #discriminazione nei processi di selezione. Un episodio recente riguarda un #algoritmo utilizzato da Amazon, che è stato scoperto essere discriminatorio nei confronti delle donne e delle persone di colore.
Con l'introduzione del Regolamento sull'Intelligenza Artificiale e le norme del #GDPR che ne regolamentano l'applicazione, è fondamentale prendere in considerazione le implicazioni etiche e legali dell'utilizzo dell'#IA nel contesto lavorativo. Inoltre, è importante garantire la trasparenza nelle decisioni prese dagli algoritmi e offrire ai candidati la possibilità di contestare eventuali discriminazioni.
👉 Oggi discutiamo dell'argomento in questo approfondimento di #Garantismi con Guido Scorza e condividiamo le nostre esperienze e opinioni sul futuro del #lavoro e sull'impiego dell'#IntelligenzaArtificiale nella selezione del personale.
https://youtu.be/uZAD9mVd2SE?si=_KXl3qM7ioWIomp-
Tuttavia, questo fenomeno presenta anche una serie di sfide e rischi legati alla #privacy dei candidati e alla possibilità di #discriminazione nei processi di selezione. Un episodio recente riguarda un #algoritmo utilizzato da Amazon, che è stato scoperto essere discriminatorio nei confronti delle donne e delle persone di colore.
Con l'introduzione del Regolamento sull'Intelligenza Artificiale e le norme del #GDPR che ne regolamentano l'applicazione, è fondamentale prendere in considerazione le implicazioni etiche e legali dell'utilizzo dell'#IA nel contesto lavorativo. Inoltre, è importante garantire la trasparenza nelle decisioni prese dagli algoritmi e offrire ai candidati la possibilità di contestare eventuali discriminazioni.
👉 Oggi discutiamo dell'argomento in questo approfondimento di #Garantismi con Guido Scorza e condividiamo le nostre esperienze e opinioni sul futuro del #lavoro e sull'impiego dell'#IntelligenzaArtificiale nella selezione del personale.
https://youtu.be/uZAD9mVd2SE?si=_KXl3qM7ioWIomp-
YouTube
La selezione del personale fatta con la AI ha qualche problema... #Garantismi
💼🤖 Negli ultimi anni, l'Intelligenza Artificiale ha fatto il suo ingresso nel mondo delle risorse umane e nella selezione del personale. Algoritmi avanzati vengono utilizzati per valutare i curriculum e condurre interviste di lavoro, semplificando e velocizzando…