Nonostante ci siano alcuni importanti inconvenienti che hanno a che vedere con l’uso dell’Intelligenza Artificiale (e di cui vi abbiamo parlato), vari compiti molto importanti vengono comunque affidati agli aiutanti robotici. I sistemi di apprendimento automatico aiutano medici e giudici a prendere decisioni fondamentali ed è perfino possibile prevedere l’insorgenza di crimini ancor prima che vengano commessi. Eppure, spesso gli utenti di queste tecnologie non sono a conoscenza di come questi sistemi elaborano i loro risultati.
Tutti in piedi, entra l’algoritmo
Nei tribunali statunitensi, l’IA viene impiegata per emettere sentenze, per adottare misure preventive e per applicare riduzioni delle pene. Dopo aver analizzato i dati più rilevanti, il sistema valuta se il soggetto sia propenso a commettere nuovamente lo stesso reato, un elemento che può trasformare la libertà condizionale in una sentenza vera e propria, oppure che porta alla mancata concessione dell’uscita su cauzione.
Esempio: il cittadino statunitense Eric Loomis è stato condannato a sei anni di carcere per essere alla guida di un veicolo coinvolto in una sparatoria. La sentenza si è basata sull’algoritmo COMPAS, che valuta il rischio che un individuo rappresenta per il resto della società. COMPAS, considerando il profilo del soggetto e i suoi precedenti penali, ha valutato l’imputato come un “rischio importante per la comunità”. La difesa è ricorsa in appello adducendo che non fosse noto il funzionamento dell’algoritmo e che quindi non fosse possibile valutare l’obiettività delle sue conclusioni. Il tribunale ha rifiutato questa argomentazione.
Chiaroveggenti elettronici: previsione dei crimini mediante l’IA
In alcune zone della Cina si è andati oltre: l’Intelligenza Artificiale viene utilizzata per identificare potenziali criminali. Le telecamere con riconoscimento facciale vigilano la popolazione e informano le autorità nel caso venga identificato un comportamento sospetto. Ad esempio, se qualcuno acquista una grande quantità di fertilizzante, probabilmente sta preparando un attacco terroristico, e chiunque sembra essere coinvolto in un’attività sospetta può essere arrestato e inviato a un campo di rieducazione.
La tecnologia di prevenzione dei crimini è stata sviluppata anche in altri paesi. In alcune zone degli Stati Uniti e della Gran Bretagna la polizia utilizza questi sistemi per prevedere dove è più probabile che si verifichi il successivo incidente. Vengono presi in considerazione numerosi fattori, come il tasso di criminalità della zona, la situazione socioeconomica dell’area di interesse e persino le previsioni metereologiche. Va detto che, a partire dall’utilizzo di questi strumenti nei quartieri di Chicago, i crimini con arma da fuoco sono calati di oltre un terzo.
Intelligenza Artificiale e medicina
Le nuove tecnologie sono ampiamente utilizzate nel settore sanitario: i medici artificiali visitano pazienti, elaborano diagnosi, studiano i risultati delle analisi e fanno da assistenti durante le operazioni chirurgiche.
Uno dei sistemi di apprendimento automatico più conosciuti in quest’ambito è l’IBM Watson Health; i medici insegnano a questa tecnologia di Intelligenza Artificiale ad effettuare le diagnosi e a prescrivere le dovute terapie. I risultati di Watson Health sono stati molto buoni: nel 2013, ad esempio, la percentuale di successo nell’elaborazione di un piano di cura ottimale da parte del supercomputer era del 90%.
Tuttavia, nell’estate del 2018 è stato scoperto che alcune indicazioni di cure tumorali suggerite dal sistema non erano quelle adeguate, per non dire pericolose; in particolare, Watson aveva consigliamo a un paziente malato di cancro con grandi emorragie l’uso di un medicinale che provocava emorragie ancora più gravi. Per fortuna si trattava di casi ipotetici e non reali.
È vero che anche i medici in carne e ossa commettono degli errori, ma quando viene coinvolta l’Intelligenza Artificiale, è difficile attribuire le dovute responsabilità. Un medico oserebbe contraddire il proprio collega robot, sul quale sono stati caricati centinaia di migliaia di articoli scientifici, libri e casistiche? E se non lo fa, il medico in questione ne subirà le conseguenze?
Intelligenza Artificiale e trasparenza: una necessità
Uno dei problemi principali che riguardano l’Intelligenza Artificiale, alla quale si affida il destino dell’umanità, è la poca trasparenza che circonda gli algoritmi; inoltre, identificare le cause degli errori per evitare che si ripetano non sembra affatto facile. Il punto di vista degli sviluppatori dei sistemi di apprendimento automatico è piuttosto comprensibile: chi vorrebbe mai condividere il proprio knowhow con la potenziale concorrenza? Ma quando è la vita delle persone a essere in gioco, il segreto industriale ha davvero la priorità?
I politici di tutto il mondo stanno cercando di risolvere questo problema dal punto di vista normativo. Nell’Unione Europea, i “soggetti dei dati” hanno il diritto di sapere in che modo l’IA prende decisioni che li riguardano. Anche il Giappone sta seguendo questa strada ma siamo solo ai primi passi.
Alcuni sviluppatori sono a favore della trasparenza, ma non sono così tanti. Uno tra questi e l’azienda tecnologica CivicScape, la quale nel 2017 ha reso pubblico il codice sorgente del suo sistema di previsione dei crimini. Tuttavia, si tratta dell’eccezione e non della regola.
Ora che abbiamo scoperto le potenzialità dell’Intelligenza Artificiale (pur con i suoi pro e i suoi contro), è molto improbabile che ne faremo a meno in futuro. E fino a quando le decisioni fondate sull’IA non diventeranno accurate e giuste, il suo uso si dovrà basare su leggi ben strutturate e sulla competenza di chi ha creato questi sistemi (e di chi li usa).