15.05.2024
Minerva, Ai dantesca che evoca saggezza, consapevolezza e sapienza
La ricerca italiana nel settore dell’intelligenza artificiale fa un grande passo in avanti: il gruppo Sapienza NLP sviluppa Minerva, la prima famiglia di modelli linguistici di grandi dimensioni pre-addestrata con dati italiani.
È notizia di queste settimane il rilascio di una famiglia di LLM (large language model – modello linguistico ampio) addestrati da zero per la lingua italiana: la famiglia prende il nome di Minerva ed è stata realizzata dal gruppo Sapienza NLP (Natural Language Processing), capeggiato dal Prof. Roberto Navigli, del Dipartimento di Ingegneria informatica, automatica e gestionale della Sapienza Università di Roma. Insieme a lui hanno lavorato i ricercatori Edoardo Barba e Simone Conia, e gli studenti di dottorato Pere-Lluis Huguet Cabot, Riccardo Orlando e Luca Moroni.
I modelli linguistici di grandi dimensioni – l’esempio noto ai più è ChatGPT – sono sistemi avanzati di intelligenza artificiale che vengono addestrati su set di dati testuali molto grandi, nell’ordine delle centinaia di miliardi di parole, e sono in grado di svolgere una serie di funzioni linguistiche diverse come rispondere a domande, completare delle frasi, rielaborare o generare nuovi testi. Sono stati già sviluppati alcuni LLM italiani, che hanno, però, delle differenze rispetto ai modelli Minerva: quelli esistenti, infatti, sono stati realizzati adattandoli a modelli precedenti. La marca innovativa dei modelli Minerva, invece, è «il fatto di essere stati costruiti e addestrati da zero usando testi ad accesso aperto», spiega Navigli. Attualmente sono stati rilasciati pubblicamente tre modelli di capacità e dimensioni diverse: uno piccolo con 350 milioni di parametri, uno intermedio con 1 miliardo di parametri e uno grande con 3 miliardi di parametri. L’insieme delle fonti italiane e inglesi che sono state utilizzate sono tutte accessibili e documentabili e in totale si contano oltre cinquecento miliardi di parole. A giugno è previsto il lancio di un quarto modello, con 7 miliardi di parametri.
Il progetto si inserisce nel contesto del FAIR (Future Artificial Intelligence Research) ed è stato finanziato con i fondi del PNRR. FAIR è un partenariato esteso, coordinato dal CNR e coinvolge attualmente 4 enti di ricerca, 12 università e 5 aziende. Il suo scopo è contribuire concretamente allo sviluppo dell’IA nel panorama scientifico e tecnologico italiano, in linea con gli obiettivi del Programma Strategico Italiano sull’intelligenza artificiale (2022-2024). Inoltre, al progetto hanno collaborato anche il consorzio interuniversitario CINECA, che ha messo a disposizione il supercomputer Leonardo, e NVIDIA, azienda tecnologica statunitense.
Il primo obiettivo di questo progetto è fare ricerca, per questa ragione tutta la documentazione sarà resa disponibile e trasparente, così che i risultati raggiunti siano condivisibili e rappresentino un punto di partenza per continuare a innovare. Questa inclinazione spiega anche il perché del nome “Minerva”, tutt’altro che casuale. Il professor Navigli ha spiegato che la scelta del nome è dovuta ai valori positivi che questo ha la capacità di evocare: la saggezza, la consapevolezza e la sapienza.