Articolo da CILD
Oggi, 30 novembre 2021, insieme all’European Digital Rights (EDRi) e altre 113 organizzazioni della società civile abbiamo lanciato una dichiarazione collettiva per chiedere una legge sull’intelligenza artificiale (AI) che metta in primo piano i diritti fondamentali.
La dichiarazione, redatta da European Digital Rights (EDRi), Access Now, Fondazione Panoptykon, epicenter.works, AlgorithmWatch, European Disability Forum (EDF), Bits of Freedom, Fair Trials, PICUM e ANEC, delinea raccomandazioni centrali per guidare il Parlamento e il Consiglio dell’Unione europea nel modificare la proposta AI della Commissione europea.
Il firmatari chiedono:
-
Un approccio coesivo, flessibile e a prova di futuro al “rischio” dei sistemi di AI.
Compreso un meccanismo robusto e coerente per aggiornare i sistemi di AI che rientrano sotto le categorie di rischio “inaccettabile” (articolo 5) e limitato (articolo 52), e assicurando che le rubriche dell’area “ad alto rischio” (allegato III) possano essere aggiornate. -
Divieti su tutti i sistemi di AI che presentano un rischio inaccettabile per i diritti fondamentali.
Incluso un divieto totale di: sistemi di punteggio sociale; identificazione biometrica a distanza in spazi accessibili al pubblico (da parte di tutti gli attori); sistemi di riconoscimento delle emozioni; categorizzazione biometrica discriminatoria; AI fisiognomica; sistemi utilizzati per prevedere future attività criminali; sistemi per profilare e valutare il rischio in un contesto di migrazione. -
Obblighi per gli utenti di (cioè quelli che impiegano) sistemi
di AI ad alto rischio per facilitare la responsabilità per coloro che
sono colpiti dai sistemi di AI.
Includendo un obbligo per gli utenti di sistemi di AI ad alto rischio di condurre e pubblicare una valutazione d’impatto sui diritti fondamentali, compreso l’impatto sulle persone, i diritti fondamentali, l’ambiente e il più ampio interesse pubblico. -
Coerente e significativa trasparenza pubblica.
Incluso un obbligo per gli utenti di registrare l’uso di sistemi ad alto rischio sulla banca dati pubblica prevista dall’Articolo 60. -
Significativi diritti e risarcimenti per le persone colpite dai sistemi di AI.
Tali come il diritto a non essere sottoposti a sistemi di AI in violazione del regolamento e delle pratiche proibite, il diritto a una spiegazione per decisioni prese con l’assistenza dei sistemi di AI, e il diritto a un rimedio giudiziario. -
Accessibilità durante tutto il ciclo di vita dell’AI.
Inclusi requisiti di accessibilità per tutti i sistemi di AI. -
Sostenibilità e protezioni ambientali nello sviluppo e nell’uso dei sistemi di AI.
Includendo requisiti di trasparenza pubblica sul consumo di risorse e impatto delle emissioni di gas serra dei sistemi di AI. -
Miglioramenti a prova di futuro degli standard per i sistemi di AI.
Limitando il processo di standardizzazione armonizzato solo agli aspetti genuinamente tecnici, e assicurando la partecipazione della società civile al processo. -
Una AI veramente completa che funzioni per tutti.
Garantire la privacy per le persone con disabilità; rimuovendo l’ampia esenzione per i sistemi AI parte di banche dati informatiche dell’UE su larga scala; e garantire un processo di applicazione robusto e dotato di risorse che centri i diritti fondamentali.
I sistemi di intelligenza artificiale (AI) sono sempre più utilizzati
in tutti i settori della vita pubblica. Tuttavia, la mancanza di una
regolamentazione adeguata sullo sviluppo e la diffusione della
tecnologia alimentata dall’AI rappresenta una minaccia per i nostri
diritti digitali e umani. In Europa, abbiamo già assistito all’impatto
negativo dell’AI quando è governata in modo scorretto. Per
esempio, l’uso discriminatorio dell’AI al confine ha facilitato la
deportazione di persone in movimento e negato loro l’accesso a servizi
vitali come l’assistenza sanitaria e la sicurezza sociale. Abbiamo anche
visto come l’uso di sistemi di polizia predittiva abbiano portato ad un
aumento dell’over-policing di comunità razziali, e come le aree povere,
della classe operaia e degli immigrati
siano state ingiustamente prese di mira dai sistemi di rilevamento delle
frodi. L’uso del riconoscimento facciale e sistemi simili sono stati
utilizzati in tutta Europa in modi che portano alla sorveglianza
biometrica di massa.
Continua la lettura su CILD
Fonte: CILD
Autore:
Licenza:
Quest'opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.
Articolo tratto interamente da Coalizione Italiana per le Libertà e i Diritti civili (CILD)
Nessun commento:
Posta un commento
I commenti sono in moderazione e sono pubblicati prima possibile. Si prega di non inserire collegamenti attivi, altrimenti saranno eliminati. L'opinione dei lettori è l'anima dei blog e ringrazio tutti per la partecipazione. Vi ricordo, prima di lasciare qualche commento, di leggere attentamente la privacy policy. Ricordatevi che lasciando un commento nel modulo, il vostro username resterà inserito nella pagina web e sarà cliccabile, inoltre potrà portare al vostro profilo a seconda della impostazione che si è scelta.