19 Settembre 2024
Milano, 16°

Scienza e tecnologia, Sicurezza, Società

IA, quanta intimità concedere

L’autonomia decisionale algoritmica porta rischi considerevoli sui nostri dati personali, affettivi, biometrici e genetici, presenti nei “metadati” e tutte le interazioni che lasciano tracce nella rete. Occorre un nuovo saggio come “The right to privacy” per sollecitare l’attenzione sugli aspetti intrusivi della IA oggi? Sguardo analitico.

L’impatto dell’intelligenza artificiale va osservato soprattutto sotto la lente d’ingrandimento del diritto e sui riflessi del diritto pubblico comparato. Se è vero che il grado di complessità e di autonomia delle decisioni algoritmiche può portare vantaggi in termini economici, è altrettanto evidente che vi sono rischi per ciò che concerne la tutela dei diritti della persona, anche nel campo della salute, e dei dati personali. Per essere come noi, l’intelligenza artificiale deve conoscerci, raccogliere e studiare i nostri dati.

Proprio per la loro complessità, questo accade anche se non ne siamo consapevoli. Oltre ai dati personali, ci sono quelli biometrici, genetici, i “metadati” e tutte le interazioni che lasciano tracce nella rete. La necessità di tutela della più ampia “dignità” della persona nasce in seno al costituzionalismo liberal-democratico, con particolare attenzione agli strumenti di protezione dell’individuo a tutto tondo. Gli Stati Uniti, in tempi non sospetti, diedero il loro più importante contributo, sul fronte etico-filosofico e giuridico, con la cosiddetta privacy, nata nel diciannovesimo secolo con la pubblicazione del saggio “The right to privacy” (Warren-Brandeis) che reinterpretava le regole esistenti sul diritto d’autore e sul diritto d’inedito. Le ragioni della logica patrimoniale si estesero poi alla sfera intima, suggerendo l’importanza dell’autodeterminazione di ciò che l’Uomo vuol dare al mondo di sé.

Una definizione più certosina, oltre alla sola informazione capace di identificare il soggetto, arriverà proprio dall’Europa, con l’ampliamento della portata del diritto a “qualsiasi informazione riguardante una persona fisica identificata o identificabile direttamente o indirettamente. Questa impostazione personalista caratterizza il modello europeo, mentre ogni sistema giuridico ha prodotto una risposta che tiene insieme la necessità di circolazione dei dati necessari all’Intelligenza Artificiale alla tutela dei dati stessi. Nel panorama della protezione di dati personali, o “personalissimi”, particolare attenzione va riservata, nel campo della salute, ai servizi e alle applicazioni digitali mobili per la cura e il benessere psico-fisico delle persone vulnerabili. Basti pensare ai sistemi di IA destinati a rilevare le emozioni degli anziani.

L’Affective computing è la branca di ricerca che sviluppa applicazioni utili in questa direzione, ma che possono, sempre dal fronte del diritto, rivelarsi troppo intrusive. Il Considerando 44 dell’IA Act del Parlamento Europeo riporta «la serie di preoccupazioni in merito alla base scientifica dei sistemi di IA volti a rilevare le emozioni», evidenziando che l’espressione, la percezione delle medesime variano in base alle culture, alle situazioni e in relazione alla stessa persona. La generalizzazione potrebbe essere sinonima di scarsa affidabilità, reciproca, e la preoccupazione per il rischio che il loro utilizzo possa arrecare un vulnus ai diritti fondamentali è forte.

Condividi