23 Febbraio 2024
Milano, 4°

Scienza e tecnologia, Sicurezza

L’UE tutela l’Uomo dall’intelligenza artificiale

L’UE diventa un punto di riferimento per avere una AI più al servizio dell’Uomo che di se stessa. Il Parlamento europeo vota una legge nel rispetto dei diritti fondamentali e la promozione dell’innovazione. L’AI Act introduce alcune direttive a tutela dei cittadini europei sui rischi etici, sociali e di sicurezza. Citati anche quelli utilizzati per influenzare i risultati elettorali.

Che l’intelligenza artificiale rappresenti un rischio, oltre che una grande opportunità, ormai è chiaro a tutti. L’Unione Europea ha però deciso di metterlo per iscritto nell’Artificial Intelligence Act, un primo (lodevole) passo per la regolamentazione di un mondo che di regole – per ora – non ha. Certo, non è una soluzione definitiva, e infatti molte associazioni continentali che proteggono i diritti dei consumatori si sono dichiarate insoddisfatte. Alla pari, e qui lo si capisce perfettamente, di altrettante aziende del mondo tech che vorrebbero mano libera sull’argomento. Ma di sicuro sull’argomento, alla pari del Gdpr sulla sicurezza dei dati, l’UE diventa un punto di riferimento per avere una AI più al servizio dell’Uomo che di se stessa (e di chi crea gli algoritmi).

Insomma, la legislazione votata dal Parlamento UE (con 499 voti a favore, 28 contrari e 93 astenuti), ma non ancora definitiva visto che dovrà passare al voto degli Stati Membri, mira a garantire la sicurezza, il rispetto dei diritti fondamentali e la promozione dell’innovazione in Europa. E in primo luogo l’AI Act si propone di assicurare il rispetto i diritti fondamentali, la democrazia e lo stato di diritto per proteggere i cittadini da possibili abusi, per garantire un utilizzo etico e responsabile dell’innovazione.
Su come farlo l’Unione ha individuato alcune direttive:

il sostegno alle startup e ai ricercatori europei per competere a livello mondiale;
una base legale chiara per lo sviluppo dell’intelligenza artificiale;
la certezza che l’uso sia sostenibile dal punto di vista ambientale e conforme allo stato di diritto;
il bilanciamento del progresso tecnologico con la tutela dell’ambiente e il rispetto delle leggi esistenti.

Poi, appunto, ci sono i rischi: etici, sociali, di sicurezza. E per questo il nuovo regolamento impone obblighi ai fornitori ed agli sviluppatori di sistemi di intelligenza artificiale in base a diversi livelli: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo o nullo.
Per esempio, il rischio inaccettabile riguarda i diritti della persona e quindi saranno vietate pratiche come il riconoscimento facciale in tempo reale (tranne alcune eccezioni), piuttosto che la classificazione per razza, genere religione orientamento politico. Vietati anche i servizi di polizia predittiva (avete presente Minority Report?), mentre ad “alto rischio” sono i sistemi che possono portare a danni significativi alla salute, alla sicurezza, ai diritti fondamentali o all’ambito delle persone. In pratica quelli utilizzati per influenzare i risultati delle elezioni o i sistemi di raccomandazione utilizzati dalle piattaforme dei social media con una base utenti superiore a 45 milioni.
E ChatGPT? Quello è a basso rischio, e basterà seguire principi di trasparenza per continuare a sviluppare l’intelligenza artificiale generativa. E se il rischio è nullo, gli sviluppatori avranno mano libera.

Seguono sanzioni (fino a 40 milioni di euro, oppure il 7 % del fatturato annuo mondiale totale), e soprattutto seguiranno le discussioni sul tema. Perché l’unica cosa che l’intelligenza artificiale non riuscirà a toglierci è la voglia di far polemica.

Condividi