17 Aprile 2024
Milano, 8°

Economia

Intelligenza artificiale, Europarlamento approva regolamento Ue

13.03.2024

Il primo al mondo, per minimizzare i rischi senza fermare l’innovazione

Bruxelles, 13 mar. (askanews) – La plenaria del Parlamento europeo ha approvato oggi a Strasburgo, con 523 voti favorevoli, 46 contrari e 49 astensioni, il nuovo regolamento Ue sull’Intelligenza artificiale (IA), frutto dell’accordo raggiunto in “trilogo” con il Consiglio dell’Unione nel dicembre 2023.

L’obiettivo del regolamento, il primo al mondo che riguarda anche le nuove e più potenti tecnologie di Intelligenza artificiale “generativa” (come ChatGPT), è di proteggere i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, mirando anche a proteggere l’innovazione e ad assicurare all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi e divieti per l’uso dell’IA in base ai possibili rischi delle sue applicazioni.

Innanzitutto, le nuove norme mettono fuori legge alcune applicazioni che minacciano i diritti dei cittadini, come i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso, per creare banche dati di riconoscimento facciale.

Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di “credito sociale” (come quelli utilizzati in Cina), le pratiche di “polizia predittiva” (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di un individuo) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Delle eccezioni ai divieti riguardanti l’uso dell’IA per identificazione biometrica degli individui sono previste per le forze dell’ordine in alcune situazioni specifiche espressamente previste dal regolamento: l’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, dietro previa autorizzazione giudiziaria o amministrativa e con notifica e controllo da parte delle autorità di protezione dei dati personali. Gli usi ammessi, che dovranno essere limitati nel tempo e nello spazio, includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. Inoltre, l’autorizzazione giudiziaria per l’utilizzo di questi sistemi a posteriori, che è considerato “ad alto rischio”, sarà possibile ma solo se collegata a un reato specifico.

Sono previsti obblighi chiari anche per altri sistemi di IA “ad alto rischio”, che potrebbero cioè arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto. Rientrano in questa categoria gli usi legati a infrastrutture critiche, all’istruzione e formazione professionale, all’occupazione, ai servizi pubblici e privati di base (ad esempio assistenza sanitaria o banche), ad alcuni sistemi di contrasto, alla migrazione e gestione delle frontiere, alla giustizia e ai processi democratici (come nel caso di sistemi usati per influenzare le elezioni).

Per questi tutti questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana delle applicazioni dell’IA. I cittadini avranno diritto a presentare reclami e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

Molto importanti sono gli obblighi di trasparenza che il regolamento introduce per le applicazioni dell’IA: le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali (“watermarking”).

Inoltre, per rispettare le norme Ue sul diritto d’autore, i I sistemi di IA per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza riguardo alle fasi del “training” (le fasi in cui i modelli vengono “addestrati” in base alle banche dati a cui hanno accesso, che comportano spesso informazioni coperte dal copyright). I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

Gli Stati membri dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di test in condizioni reali (in inglese “sandbox”), in modo che le Pmi e le start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.

Il regolamento, dopo una verifica tecnica finale, sarà approvato definitivamente prima dal Parlamento europeo della fine della legislatura e dovrà poi essere formalmente approvato dal Consiglio Ue. Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’Unione, e inizierà ad applicarsi con una tempistica differenziata a seconda delle sue varie parti: sei mesi dopo l’entrata in vigore (ovvero entro l’estate) per quanto riguarda i divieti relativi alle pratiche vietate, nove mesi dopo per i codici di buone pratiche, 12 mesi dopo per le norme sui sistemi di IA per finalità generali, compresa la governance, 24 mesi dopo per tutte le restanti disposizioni, eccetto gli obblighi per i sistemi ad alto rischio, che si applicheranno 36 mesi dopo.

“Dopo due anni intensi di lavoro – ha osservato durante il dibattito in aula di ieri il correlatore della commissione europarlamentare per il Mercato interno, Brando Benifei (Pd) – siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’Intelligenza artificiale, volta a ridurre i rischi e ad aumentare le opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di IA saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’IA”.

Secondo l’altro correlatore, il liberale rumeno Dragos Tudorache, della commissione europarlamentare per le Libertà civili, “l’Ue ha mantenuto la promessa. Abbiamo collegato per sempre il concetto di Intelligenza artificiale ai valori fondamentali che costituiscono la base delle nostre società. Ci aspetta molto lavoro – ha avvertito Tudorache – che va oltre questo regolamento. L’Intelligenza artificiale ci spingerà a ripensare il contratto sociale che sta alla base delle nostre democrazie. Insieme ai nostri modelli educativi, ai nostri mercati del lavoro, al modo in cui sono condotte le guerre. La legge sull’IA non è la fine del viaggio, ma piuttosto il punto di partenza per un nuovo modello di ‘governance’ basato sulla tecnologia. Ora dobbiamo concentrarci per trasformarla da legge sulla carta a realtà sul campo”, ha concluso il correlatore.

Condividi