Articolo da Bollettino telematico di filosofia politica
I sistemi di intelligenza artificiale basati sull’apprendimento automatico (machine learning) sono utilizzati per ottenere classificazioni o produrre decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo. Nei sistemi utilizzati per il riconoscimento facciale, ad esempio, o lo screening medico di immagini di tessuti umani o le decisioni di concedere o rifiutare un prestito, la quantità dei dati di partenza e la potenza di calcolo richiesta per la loro elaborazione fanno sì che la presenza di un essere umano nel processo (human in the loop) non sia in grado di fornire alcun controllo rilevante. Qualora un’attività sia automatizzata e si deleghi tuttavia a una persona il compito di intervenire, con prontezza fulminea, nei casi di emergenza, il ruolo dell’essere umano non può essere che quello di capro espiatorio, come pare sia stato previsto nei sistemi Tesla.
Data l’impossibilità di un controllo umano in itinere, garanzie alternative potrebbero essere fornite dalla trasparenza o dall’assoluta affidabilità. Intrinseche ai sistemi di apprendimento automatico sono tuttavia le caratteristiche contrarie: questi sistemi sono infatti sono costitutivamente opachi (black box), soggetti a errori madornali – in quanto fondati su correlazioni statistiche di ogni genere, senza accesso al significato o al contesto – e ad attacchi avversari non rilevabili.
Nei primi anni del loro impiego, l’evidenza dei danni prodotti da simili sistemi è stata affrontata dalle Big Tech come un problema di discriminazioni, da eliminare con interventi di design tecnico. Le narrazioni sull’”etica dell’IA” e il “seducente diversivo del ‘risolvere’ i bias” hanno costituito un’operazione di cattura culturale, ossia di costruzione di una narrazione pubblicamente condivisa, attraverso il finanziamento e la direzione della ricerca e dei mezzi di intermediazione scientifica, fino a dettarne anche i toni. I giganti della tecnologia mirano a sottrarre i sistemi di IA alla regolazione giuridica, attraverso dichiarazioni di principi, linee guida, esperti, comitati e gruppi di lavoro sull’etica; a tale strategia di ethic washing si oppongono oggi la richiesta che le ricerche in questo ambito siano finanziate senza conflitti di interesse e la proposta di concettualizzare la questione nei termini della tutela dei diritti umani.
Paiono ormai superati, in virtù dello loro assurdità o malafede, anche i tentativi delle grandi aziende di sfuggire alle loro responsabilità appellandosi all’eccezionalità delle nuove tecnologie e proponendo, per gli effetti dannosi dei sistemi di apprendimento automatico, il riconoscimento di un vuoto di responsabilità, o una responsabilità distribuita anche tra gli utenti e le vittime (a differenza di quanto previsto per i profitti, secondo una consuetudine non eccezionale). Come osserva Andrea Bertolini, la dicotomia tra soggetti giuridici e oggetti non è superabile, tertium non datur, e
l’unica classificazione ammissibile di tutte le tecnologie avanzate esistenti e ragionevolmente prevedibili – senza indulgere in tentazioni fantascientifiche – è quella di cose, oggetti e artefatti, prodotti dell’intelletto umano. Così concepite, esse rientrano chiaramente nella nozione di prodotto
La fragilità della situazione è quella di una bolla giuridica, per usare un’espressione di Marco Giraudo: le grandi compagnie tecnologiche hanno fondato infatti il loro modello di business sull’appropriazione e la commercializzazione dei dati personali, in violazione di diritti giuridicamente tutelati, scommettendo su un successivo “salvataggio giuridico”, in nome dell’inarrestabilità dell’innovazione tecnologica.
Continua la lettura su Bollettino telematico di filosofia politica
Fonte: Bollettino telematico di filosofia politica
Autore:
Licenza:
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Condividi allo stesso modo 3.0 Italia.
Articolo tratto interamente da Bollettino telematico di filosofia politica
Nessun commento:
Posta un commento
I commenti sono in moderazione e sono pubblicati prima possibile. Si prega di non inserire collegamenti attivi, altrimenti saranno eliminati. L'opinione dei lettori è l'anima dei blog e ringrazio tutti per la partecipazione. Vi ricordo, prima di lasciare qualche commento, di leggere attentamente la privacy policy. Ricordatevi che lasciando un commento nel modulo, il vostro username resterà inserito nella pagina web e sarà cliccabile, inoltre potrà portare al vostro profilo a seconda della impostazione che si è scelta.