18.10.2023
Il mondo accademico si fa testimone dei profondi pericoli che i sistemi di IA possono generare per i diritti fondamentali degli utenti finali e prende posizione per suggerire all’Europa di valutare in maniera adeguata “quattro pilastri”.
Se da un lato l’esplosione dell’Intelligenza Artificiale sta rivoluzionando il mondo del lavoro a vari livelli, dall’altro il suo utilizzo sempre più massiccio sta creando anche delle preoccupazioni. Tra esse, una delle più intense riguarda il rispetto di diversi diritti fondamentali del cittadino. Una preoccupazione che ha indotto anche il mondo universitario a prendere posizione.
Un nutrito gruppo di accademici del Vecchio Continente ha, infatti, redatto e firmato un vero e proprio appello indirizzato ai rappresentanti del Consiglio dell’Unione Europea, della Commissione europea e del Parlamento europeo. Lo scopo dell’iniziativa, promossa da Vincenzo Tiani dell’Ub Brussels Privacy Hub, è quello di approvare una valutazione sull’impatto dell’Intelligenza Artificiale sui diritti fondamentali, che sia regolamentata dall’Unione europea a livello legislativo.
«Vorremmo esprimere la nostra più profonda preoccupazione riguardo alle revisioni proposte per la legge Ue sull’Intelligenza Artificiale – hanno scritto i professori universitari –. In particolare, vi esortiamo a adottare e rinforzare la disposizione contenuta nella versione del Parlamento europeo della legge sull’Intelligenza Artificiale a proposito di una valutazione obbligatoria dell’impatto sui diritti fondamentali».
Gli accademici suggeriscono in particolare che l’Europa valuti in maniera adeguata “quattro pilastri” a livello legislativo. Si chiede, infatti, che l’impatto dell’Intelligenza Artificiale sui diritti fondamentali rispetti parametri chiari, che i risultati di questo impatto siano esposti in maniera trasparente, che gli utenti finali interessati dalla nuova tecnologia partecipino attivamente alla valutazione e che quest’ultima preveda il coinvolgimento anche delle autorità pubbliche.
Nell’appello si dà anche un nome a questa valutazione d’impatto: Fria (Fundamental Rights Impact Assessment). «In qualità di esperti in varie discipline – scrivono i professori –, siamo testimoni dei profondi pericoli che i sistemi di IA possono generare per i diritti fondamentali, e riteniamo siano necessarie azioni significative per limitare tali impatti. L’inclusione di un solido meccanismo Fria nella legge europea sull’Intelligenza Artificiale è una salvaguardia fondamentale contro i potenziali impatti negativi sui diritti fondamentali degli utenti finali».
Infine, si chiede che il Fria riguardi «non solo le istituzioni pubbliche, ma anche le entità private che usufruiscono di IA. Solo così si garantirebbe che ogni organizzazione sia ritenuta responsabile dei potenziali pericoli e dell’impatto dell’Intelligenza Artificiale sugli individui e sulla società nel suo complesso. Inoltre, sollecitiamo le istituzioni europee a garantire che il Fria sia trasparente, partecipativo e multidisciplinare. Prossimamente pubblicheremo una relazione in cui illustreremo più nel dettaglio il nostro punto di vista sulle migliori pratiche per regolamentare le valutazioni d’impatto sui diritti fondamentali».