21.05.2023
L’Europa stabilisce le basi per regolare l’uso dell’Intelligenza Artificiale
Le leggi di Asimov a tutela dell’Uomo diventano la base di un modello di garanzia, che Bruxelles adotta per predisporre uno standard globale.
La proposta di legge europea sull’intelligenza artificiale, arrivata in Commissione Europea, è stata approvata. Di regolamenti e indirizzi allo sviluppo di questa nuova tecnologia definita AIG (Intelligenza Artificiale Generativa), tutti parlano, ma è opportuno fare il punto. In Europa si mettono le basi del regolamento considerando sei principi su cui non si può transigere. In primis c’è l’uomo che deve avere sempre la possibilità di intervenire e super vedere, poi si precisa la necessità di solidità tecnica e sicurezza, di privacy e governance dei dati, di trasparenza, non discriminazione e sostenibilità sociale ed ambientali. Dagli anni 40, epoca in cui Asimov mise le basi con le tre leggi della robotica non siamo andati molto avanti, abbiamo semplicemente ribadito gli stessi principi aggiornandoli con il contesto attuale. Infatti, la prima delle tre leggi di Asimov riporta che un robot non può recar danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
In secondo luogo, un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla prima legge. Infine, un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la prima o con la seconda legge. Insomma, il robot deve servire l’uomo e non viceversa. Oggi la differenza è la chiamata alla responsabilità di tutti colori che sono implicati nel processo realizzativo, ma ancora una volta l’intervento istituzionale arriva dopo molte alert. Pensiamo a Sam Altman, CEO di OpenAI, compartecipata da Microsoft, il quale ha chiesto agli Stati Uniti di regolamentare l’implementazione di modelli avanzati, avvertendo dei pericoli dell’Intelligenza Artificiale generativa senza un quadro regolamentare solido. Durante l’audizione al Senato, Altman ha affermato che le normative saranno fondamentali per mitigare i rischi di modelli sempre più potenti, man mano che crescono i timori per le minacce alla società. Non a caso, la testimonianza era incentrata sulla diffusione della disinformazione causata e sulle violazioni delle leggi sulla privacy dei dati associate al modo in cui OpenAI addestra i suoi modelli.
A questo proposito Derrick de Kerckhove, sociologo e presidente Osservatorio TuttiMedia, ha già più volte condiviso il concetto che «una cosa è la distorsione di una notizia che alla base è vera, un’altra è la costruzione ex novo di una notizia costruita da chi ha per scopo la manipolazione culturale politica e sociale».
Dunque, come sostiene L’Economist, nel regno digitale le leggi locali non funzionano e l’Unione Europea con la nuova regolamentazione sulla IA punta a diventarne il super regolatore mondiale. L’esempio da manuale, di quello che è stato soprannominato effetto Bruxelles, è il regolamento generale sulla protezione dei dati (GDPR) dell’UE, entrato in vigore nel 2018 e rapidamente diventato lo standard globale.