mercoledì 1 dicembre 2021

Una legge sull’intelligenza artificiale (AI)


Articolo da CILD

Oggi, 30 novembre 2021, insieme all’European Digital Rights (EDRi) e altre 113 organizzazioni della società civile abbiamo lanciato una dichiarazione collettiva per chiedere una legge sull’intelligenza artificiale (AI) che metta in primo piano i diritti fondamentali.

La dichiarazione, redatta da European Digital Rights (EDRi), Access Now, Fondazione Panoptykon, epicenter.works, AlgorithmWatch, European Disability Forum (EDF), Bits of Freedom, Fair Trials, PICUM e ANEC, delinea raccomandazioni centrali per guidare il Parlamento e il Consiglio dell’Unione europea nel modificare la proposta AI della Commissione europea.

Il firmatari chiedono:

  • Un approccio coesivo, flessibile e a prova di futuro al “rischio” dei sistemi di AI.
    Compreso  un meccanismo robusto e coerente per aggiornare i sistemi di AI che rientrano sotto le categorie di rischio “inaccettabile” (articolo 5) e limitato (articolo 52), e assicurando che le rubriche dell’area “ad alto rischio” (allegato III) possano essere aggiornate.
  • Divieti su tutti i sistemi di AI che presentano un rischio inaccettabile per i diritti fondamentali.
    Incluso un divieto totale di: sistemi di punteggio sociale; identificazione biometrica a distanza in spazi accessibili al pubblico (da parte di tutti gli attori); sistemi di riconoscimento delle emozioni; categorizzazione biometrica discriminatoria; AI fisiognomica; sistemi utilizzati per prevedere future attività criminali; sistemi per profilare e valutare il rischio in un contesto di migrazione.
  • Obblighi per gli utenti di (cioè quelli che impiegano) sistemi di AI ad alto rischio per facilitare la responsabilità per coloro che sono colpiti dai sistemi di AI.
    Includendo un obbligo per gli utenti di sistemi di AI ad alto rischio di condurre e pubblicare una valutazione d’impatto sui diritti fondamentali, compreso l’impatto sulle persone, i diritti fondamentali, l’ambiente e il più ampio interesse pubblico.
  • Coerente e significativa trasparenza pubblica.
    Incluso un obbligo per gli utenti di registrare l’uso di sistemi ad alto rischio sulla banca dati pubblica prevista dall’Articolo 60.
  • Significativi diritti e risarcimenti per le persone colpite dai sistemi di AI.
    Tali come il diritto a non essere sottoposti a sistemi di AI in violazione del regolamento e delle pratiche proibite, il diritto a una spiegazione per decisioni prese con l’assistenza dei sistemi di AI, e il diritto a un rimedio giudiziario.
  • Accessibilità durante tutto il ciclo di vita dell’AI.
    Inclusi requisiti di accessibilità per tutti i sistemi di AI.
  • Sostenibilità e protezioni ambientali nello sviluppo e nell’uso dei sistemi di AI.
    Includendo requisiti di trasparenza pubblica sul consumo di risorse e impatto delle emissioni di gas serra dei sistemi di AI.
  • Miglioramenti a prova di futuro degli standard per i sistemi di AI.
    Limitando il processo di standardizzazione armonizzato solo agli aspetti genuinamente tecnici, e assicurando la partecipazione della società civile al processo.
  • Una AI veramente completa che funzioni per tutti.
    Garantire la privacy per le persone con disabilità; rimuovendo l’ampia esenzione per i sistemi AI parte di banche dati informatiche dell’UE su larga scala; e garantire un processo di applicazione robusto e dotato di risorse che centri i diritti fondamentali.

I sistemi di intelligenza artificiale (AI) sono sempre più utilizzati in tutti i settori della vita pubblica. Tuttavia, la mancanza di una regolamentazione adeguata sullo sviluppo e la diffusione della tecnologia alimentata dall’AI rappresenta una minaccia per i nostri diritti digitali e umani. In Europa, abbiamo già assistito all’impatto negativo dell’AI quando è governata in modo scorretto. Per esempio, l’uso discriminatorio dell’AI al confine ha facilitato la deportazione di persone in movimento e negato loro l’accesso a servizi vitali come l’assistenza sanitaria e la sicurezza sociale. Abbiamo anche visto come l’uso di sistemi di polizia predittiva abbiano portato ad un aumento dell’over-policing di comunità razziali, e come le aree povere, della classe operaia e degli immigrati
siano state ingiustamente prese di mira dai sistemi di rilevamento delle frodi. L’uso del riconoscimento facciale e sistemi simili sono stati utilizzati in tutta Europa in modi che portano alla sorveglianza biometrica di massa.

Continua la lettura su CILD

Fonte: CILD


Autore: 


Licenza: Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale


Articolo tratto interamente da Coalizione Italiana per le Libertà e i Diritti civili (CILD)


Nessun commento:

Posta un commento

I commenti sono in moderazione e sono pubblicati prima possibile. Si prega di non inserire collegamenti attivi, altrimenti saranno eliminati. L'opinione dei lettori è l'anima dei blog e ringrazio tutti per la partecipazione. Vi ricordo, prima di lasciare qualche commento, di leggere attentamente la privacy policy. Ricordatevi che lasciando un commento nel modulo, il vostro username resterà inserito nella pagina web e sarà cliccabile, inoltre potrà portare al vostro profilo a seconda della impostazione che si è scelta.