10 Novembre 2024
Milano, 13°

Scienza e tecnologia, Società

Dove porta disumanizzare le parole

14.03.2024

Antica scultura murale assira di una mano con scrittura cuneiforme.

Le parole sono sempre state contenitori della nostra espressione. In esse sopravvivono pregiudizi e stereotipi socioculturali. Dove portano i dati linguistici usati dalla tecnologia, se vengono impiegati nei processi decisionali senza appropriato controllo? Linguaggio, stereotipi di genere e LLM sono al centro di un recente Rapporto UNESCO.

Che le parole che usiamo costruiscono la realtà intorno a noi è cosa nota, ed è altrettanto noto che ogni forma di cambiamento, di qualunque dimensione esso sia, in qualunque contesto avvenga, parta dal linguaggio. Il mondo è basato sulle interazioni umane e, tra le cose note, il nostro modo di pensare e la nostra lingua, incredibilmente connessi, giocano un ruolo di primo piano nella costruzione di cultura e società. Le parole riflettono ciò che siamo, ciò che pensiamo, crediamo, vogliamo, e se qualcosa entra in contatto con la nostra cultura ne viene influenzata, direttamente o indirettamente. Tra le cose di cui è fatta la contemporaneità c’è la tecnologia, e tra le cose di cui è fatta la tecnologia c’è l’intelligenza artificiale (IA). Alcuni sistemi di IA, i Large Language Model (LLM), sono modelli linguistici che vengono addestrati su una notevole mole di dati testuali e sono in grado di comprendere, analizzare e generare testi usando il linguaggio naturale. Il punto è questo: la società si riflette nel linguaggio umano, ma in esso sopravvivono pregiudizi e stereotipi socioculturali. E allora c’è un problema se queste tecnologie imparano dai nostri dati linguistici e poi sono usate in molteplici campi professionali ed educativi, vengono impiegate nei processi decisionali, ma senza un controllo.

Linguaggio, stereotipi di genere e LLM sono al centro di un recente Rapporto UNESCO, che analizza il comportamento di tre diversi modelli linguistici all’avanguardia: il modello GPT-215, di vecchia generazione, il modello ChatGPT17, entrambi rilasciati da OpenAI, e il modello Llama216, di Meta. Llama2, così come GPT2, sono dei modelli linguistici generici non ottimizzati per la conversazione.  Al contrario, ChatGPT può sostenere delle conversazioni fluide e coerenti ed è stato sottoposto a un “apprendimento per rinforzo con feedback umano”, che permette di migliorare le prestazioni del chatbot e correggere eventuali bias grazie all’intervento dell’uomo.

Nello studio si analizzano due applicazioni tipiche dei LLM: l’associazione tra due parole o concetti e il completamento di una frase. A parole come “casa”, “famiglia”, “bambini”, “matrimonio”, i modelli hanno associato con maggiore frequenza un soggetto femminile, riflettendo il preconcetto della donna impegnata principalmente negli affari domestici. Invece un soggetto maschile è stato associato a parole come “affari”, “stipendio”, “carriera”. Nell’operazione di completamento delle frasi, sono stati proposti enunciati contenenti riferimenti al genere, all’orientamento sessuale o all’etnia dei soggetti. Le risposte generate da Llama2 e GPT2 erano spesso sessiste e razziste, costruite su stereotipi socioculturali e lavorativi. ChatGPT, invece, nell’80% dei casi ha elaborato contenuti positivi o neutri, proprio perché addestrato con il rinforzo di un feedback umano.

La riflessione sulle questioni etico-sociali relative all’uso dei LLM e, in generale, dell’IA cammina in modo parallelo all’avanzamento di queste tecnologie. Quanto messo in luce nel Rapporto UNESCO è stato intercettato anche in altri studi. Analizzare il comportamento dei modelli linguistici è importante perché, oltre a confermare l’esistenza di pregiudizi e stereotipi nascosti nel nostro linguaggio, rivela la necessità critica di controllare, valutare e correggere i pregiudizi (detti “bias” nel linguaggio dell’intelligenza artificiale) presenti nei LLM. Ed è davvero necessario farlo, nonostante tutte le complessità di realizzazione e implementazione che questi sistemi presentano, perché il rischio, è chiaro, è che essi possano in qualche modo alimentare stereotipi e pregiudizi di genere. Oggi il loro impiego è diffuso, utile e variegato, ma le loro soluzioni devono essere eque.

 

Condividi