Sono abbastanza stanco delle notizie sull’IA, ma credo che dovrò sopportarle ancora per un po’ perché sicuramente si continuerà a parlarne incessantemente per almeno un altro anno o due. Certamente l’IA non smetterà di evolversi ma i giornalisti, i blogger, i TikToker, i Tweeter e le altre teste parlanti si stancheranno dell’argomento. Per ora, però, il loro zelo è alimentato non solo dai giganti tecnologici, ma anche dai governi: il Regno Unito sta pianificando l’introduzione di una regolamentazione tripartita sull’IA; la Cina ha presentato una bozza di legge sull’IA per un dibattito pubblico; gli Stati Uniti reclamano una “responsabilità algoritmica“; l’UE sta discutendo, ma non ancora approvando, una bozza di legge sull’IA, e così via. Ci sono molti progetti per il futuro, ma finora la creazione e l’uso di sistemi di IA non prevedono limitazioni di alcun tipo. Tuttavia, sembra che questo cambierà presto.
La questione più dibattuta è, ovviamente, la seguente: abbiamo bisogno di una regolamentazione governativa per l’IA? Se sì, perché e come dovrebbe essere?
Cosa regolamentare
Che cos’è l’intelligenza artificiale? (No) grazie ai dipartimenti di marketing, il termine è stato usato per molte cose, dai modelli generativi all’avanguardia come il GPT-4, ai più semplici sistemi di apprendimento automatico, compresi alcuni che esistono da decenni. Ricordate il Т9 sui telefoni cellulari con tasti? Avete sentito parlare della classificazione automatica dello spam e dei file dannosi? Controllate le recensioni dei film su Netflix? Tutte queste tecnologie, di certo familiari a molti, si basano su algoritmi di apprendimento automatico (machine learning o ML, in inglese) noti anche come IA o intelligenza artificiale.
Qui a Kaspersky utilizziamo queste tecnologie nei nostri prodotti da quasi 20 anni, preferendo sempre riferirci ad esse come “apprendimento automatico”, se non altro perché “intelligenza artificiale” sembra richiamare alla mente della maggior parte delle persone cose come supercomputer parlanti su astronavi e altre cose che sembrano uscite da un film di fantascienza. Tuttavia, tali computer e droidi parlanti devono essere pienamente in grado di pensare come un essere umano (per comandare un’intelligenza artificiale generale o AGI, o una superintelligenza artificiale ASI), ma né l’AGI né l’ASI sono ancora state inventate e difficilmente lo saranno nel prossimo futuro.
In ogni caso, se tutti i tipi di IA saranno valutati con lo stesso metro e verranno completamente regolamentati, l’intero settore IT e molti altri settori collegati non se la caveranno affatto bene. Ad esempio, se a noi (Kaspersky) un giorno verrà richiesto di chiedere il permesso a tutti gli “autori” che contribuiscono al nostro lavoro, noi, come azienda di sicurezza informatica, ci troveremo con le spalle al muro. Impariamo studiando i malware e lo spam e alimentiamo le conoscenze acquisite mediante l’apprendimento automatico, mentre gli autori tendono a non fornire i propri dati di contatto (strano, vero?!). Inoltre, raccogliamo i dati e addestramo gli algoritmi da quasi 20 anni, quanto indietro nel tempo dobbiamo retrocedere?
È dunque fondamentale che i legislatori non ascoltino gli addetti al marketing, ma gli esperti del settore dell’apprendimento automatico e dell’IA, e che discutano le potenziali regolamentazioni in modo specifico e mirato: ad esempio, utilizzando eventualmente sistemi multifunzione addestrati su grandi volumi di dati aperti, o sistemi decisionali ad alta responsabilità e rischio elevato.
Inoltre, le nuove applicazioni di IA richiederanno frequenti revisioni dei regolamenti man mano che si presenteranno.
Perché regolamentare?
In tutta onestà, non credo in un Giorno del Giudizio presieduto da una superintelligenza entro i prossimi cent’anni. Credo piuttosto in una serie di mal di testa causati dall’uso sconsiderato della scatola nera del computer.
Come promemoria per coloro che non hanno letto i nostri articoli sullo splendore e la miseria dell’apprendimento automatico, ci sono tre problemi principali riguardo a qualsiasi IA:
- Non è chiaro quanto siano validi i dati di addestramento utilizzati.
- Non è affatto chiaro cosa l’IA sia riuscita a “comprendere” da quei dati, né come prenda le sue decisioni.
- E soprattutto, l’algoritmo può essere usato in modo improprio sia dagli sviluppatori che dagli utenti.
Pertanto, potrebbe accadere di tutto: dall’uso improprio dell’IA, all’applicazione imprudente delle suedecisioni. Esempi grafici della vita reale: errori fatali del pilota automatico, deepfakes (1, 2, 3)ormai abituali nei meme e persino nei telegiornali, errori stupidi nell’assunzioni degli insegnanti, la polizia che arresta un taccheggiatore ma quello sbagliato o uno strumento IA per il reclutamento misogino. Inoltre, qualsiasi IA può essere attaccata con l’aiuto di campioni di dati ostili personalizzati: si possono ingannare i veicoli usando adesivi, si possono estrarre informazioni personali da GPT-3 e si possono ingannare anche gli antivirus o gli EDR. Inoltre, gli attacchi alle IA dei droni da combattimento descritti nella fantascienza non sembrano più così inverosimili.
In poche parole, l’uso dell’intelligenza artificiale non ha ancora dato origine a problemi veramente gravi, ma è evidente che le probabilità che si verifichino sono molto alte. Pertanto, le priorità della regolamentazione dovrebbero essere chiare:
- Prevenire gli incidenti alle infrastrutture critiche (fabbriche, navi, linee di trasmissione elettrica e centrali nucleari).
- Ridurre al minimo le minacce fisiche (veicoli senza conducente, diagnosi errate di malattie).
- Ridurre al minimo i danni alle persone e i rischi aziendali (arresti o assunzioni basate su misurazioni del cranio, errori di calcolo nella domanda o negli ordini, e così via).
L’obiettivo della regolamentazione dovrebbe essere quello di costringere gli utenti e i fornitori di IA a fare attenzione a non aumentare i rischi di incidenti come quelli appena menzionati. Inoltre, quanto più alto è il rischio, tanto più attivamente dovrebbe essere imposta questa necessità.
In secondo luogo, esiste un’altra preoccupazione in merito all’IA: la necessità di rispettare le norme morali ed etiche e di soddisfare, se mi permettete l’espressione, il benessere psicologico delle persone. A questo scopo, osserviamo avvisi che informano le persone che stanno visualizzando un oggetto inesistente (disegnato dall’IA) o che stanno parlando con un robot e non con un essere umano, nonché avvisi che informano che il copyright è stato rispettato durante l’addestramento dell’IA, e così via. Perché? Per fare in modo che i legislatori e i fornitori di IA non vengano presi di mira dalle folle inferocite! Si tratta di una preoccupazione molto reale in alcune parti del mondo (ricordiamo le proteste contro Uber, per esempio).
Come regolamentare
Il modo più semplice per regolamentare l’IA sarebbe quello di vietare tutto, ma a quanto pare questo approccio al momento è fuori discussione. In ogni caso, non è molto più facile proibire l’IA che i computer. Di conseguenza, tutti i tentativi di regolamentazione ragionevoli dovrebbero seguire il principio “maggiore è il rischio, più severi sono i requisiti”.
I modelli di apprendimento automatico che vengonoutilizzati per qualcosa di abbastanza banale, come consigli per gli acquisti, possono non essere regolamentati; tuttavia, più sofisticato è il modello (o più delicata è l’area di applicazione), più drastici possono essere i requisiti per i venditori e gli utenti del sistema. Ad esempio:
- Sottoporre all’ispezione delle autorità di regolamentazione o degli esperti il codice di un modello o un set di dati di addestramento .
- Dimostrare la robustezza di un set di dati di addestramento, anche in termini di bias, copyright e così via.
- Dimostrare la ragionevolezza dell’ “output” dell’IA, ad esempio, che non si tratti di allucinazioni.
- Etichettare le operazioni e i risultati dell’IA.
- Aggiornare un modello e un set di dati di addestramento; ad esempio, escludere le persone con un determinato colore della pelle dai dati di partenza o sopprimere le formule chimiche degli esplosivi nei risultati di un modello.
- Testare l’intelligenza artificiale rispetto a “dati ostili” e aggiornare il suo comportamento se necessario.
- Controllare chi utilizza una specifica IA e perché. Negare tipi specifici di utilizzo.
- Addestrare le IA di grandi dimensioni o quelle che si applicano a un’area particolare solo con il permesso dell’autorità di regolamentazione.
- Dimostrare che usare l’IA è sicuro per affrontare un particolare problema. Questo approccio è un po’ estraneo al settore dell’informatica, ma potrebbe essere interessante per, ad esempio, le aziende farmaceutiche, i produttori di aerei e per molti altri settori in cui la sicurezza è fondamentale. Prima ci sarebbero cinque anni di test approfonditi, poi l’autorizzazione dell’autorità di regolamentazione e solo alla fine il prodotto potrebbe essere rilasciato per uso pubblico.
L’ultima misura sembra eccessivamente rigida, ma solo finché non si viene a conoscenza di incidenti in cui le IA hanno sbagliato le priorità di trattamento su pazienti affetti da asma e polmonite acuta e hanno cercato di mandarli a casa invece che in un’unità di terapia intensiva.
Le misure di attuazione possono variare da sanzioni economiche per violazioni delle norme sull’IA (sulla falsa riga delle sanzioni europee per le violazioni del GDPR) alla concessione di licenze per le attività legate all’IA e a sanzioni penali per le violazioni della legislazione (come proposto in Cina).
Qual è la strada giusta?
Quella che segue è la mia opinione personale, ma si basa su 30 anni di ricerca attiva nel campo dello sviluppo tecnologico avanzato applicato al settore della sicurezza informatica: dall’apprendimento automatico ai sistemi “secure-by-design”.
In primo luogo, abbiamo bisogno di una regolamentazione. Senza di essa, l’IA finirà per assomigliare a un’autostrada senza norme stradali; oppure, per usare un’altro esempio, al caso della raccolta di dati personali online realizzata alla fine degli anni 2000, quando quasi tutti raccoglievano qualsiasi tipo di dati. Ma soprattutto, la regolamentazione promuove l’autodisciplina degli operatori di mercato.
In secondo luogo, dobbiamo massimizzare l’armonizzazione e la cooperazione internazionale nella regolamentazione, come avviene per gli standard tecnici delle comunicazioni mobile, di Internet e così via. Sembra un’utopia, vista la moderna realtà geopolitica, ma questo non la rende meno auspicabile.
In terzo luogo, la regolamentazione non deve essere troppo rigida: sarebbe da miopi strangolare un’industria giovane e dinamica come questa con un’eccessiva regolamentazione. Detto questo, è necessario un meccanismo di revisione frequente delle regole per restare al passo con gli sviluppi della tecnologia e del mercato.
In quarto luogo, le regole, i livelli di rischio e le misure di protezione dovrebbero essere definiti consultando numerosi esperti con esperienza nel settore.
Quinto, non dobbiamo aspettare dieci anni. È già da oltre un decennio che parlo dei gravi rischi insiti nell’Internet delle cose e delle vulnerabilità che colpiscono le infrastrutture industriali, e documenti come il Atto legislativo sulla ciberresilienza dell’UE sono apparsi (in forma di bozza!) solo l’anno scorso.
Per il momento è tutto, gente! Complimenti a chi è arrivato fino in fondo e grazie a tutti! Brindiamo ad un futuro interessante, sicuro e potenziato dall’intelligenza artificiale….