L’intelligenza artificiale parla italiano grazie alla ricerca della Sapienza. Un lavoro di eccellenza che ha portato al rilascio di Minerva 7B. Parliamo dell’ultima versione della famiglia dei modelli Minerva, i Large Language Model (Llm) addestrati “da zero” per la lingua italiana.
Più precisamente, il merito va attribuito al gruppo di ricerca Sapienza Nlp (Natural Language Processing), che vede alla guida il Prof. Roberto Navigli. Il team che ha lavorato allo sviluppo di Minerva 7B include ben 15 ricercatori e dottorandi.
Un lavoro che si svolge all’interno del progetto Fair (Future Artificial Intelligence Research), che realizza la strategia nazionale sull’intelligenza artificiale grazie ai fondi PNRR. Inoltre si avvale della collaborazione con Cineca, che ha reso disponibile il supercomputer Leonardo.
Sapienza, chatbot ancora più potente
Minerva 7B è una versione più potente di quella messa in rete lo scorso aprile, forte di 7 miliardi di parametri contro i 3 della precedente. Pertanto questo si traduce in maggior capacità di memorizzazione e rielaborazione testi, sempre basata su fonti aperte di dati, elemento distintivo nel panorama degli Llm..
Dopo oltre cinque mesi di lavoro incessante, il team di ricerca è approdato a questa nuova versione per un totale di oltre 2 trilioni (migliaia di miliardi) di token; ovvero, qualcosa come 1,5 trilioni di parole circa. Il modello è accessibile al pubblico qui. Per di più sarà possibile scaricarlo nelle settimane successive. Questa fase di test permetterà di svolgere un ulteriore affinamento sulla base delle conversazioni effettuate nei prossimi giorni.
Oltretutto, mediante un nuovo mix di istruzioni create appositamente in italiano, Minerva 7B è stato sottoposto al cosiddetto processo di instruction tuning. Si tratta di una tecnica avanzata di addestramento per i modelli di intelligenza artificiale. L’obiettivo consiste nel fornire la capacità di seguire le istruzioni e di colloquiare con l'utente in italiano.
Al lavoro sulle versioni industriali di Minerva
Sicuramente l’instruction tuning presenta grandi meriti. Infatti rende Minerva in grado di interpretare meglio le richieste e di generare risposte più pertinenti, coerenti e adattate al contesto. Soprattutto evitando per quanto possibile le cosiddette allucinazioni e la generazione di contenuti di tipo volgare, sessuale, discriminatorio e sensibile. Si tratta di un tema cruciale che riguarda tutti i chatbot. E, naturalmente, i ricercatori del team della Sapienza lo fanno proprio.
Durante la demo Il Prof. Navigli ha mostrato diverse conversazioni con il modello. Per esempio la richiesta di scrivere una favola, tradurre e riassumere un breve testo. “Babelscape, spinoff di successo di Sapienza, sta lavorando alacremente a versioni industriali più potenti e sofisticate dell’Llm e alle sue applicazioni.”
Per quanto riguarda i prossimi passi, il gruppo di lavoro di Roberto Navigli ha le idee chiare. “La scarsità di dati di qualità in italiano, sia per il preaddestramento linguistico che per le conversazioni e le istruzioni, è uno dei temi chiave che intendiamo affrontare nei prossimi mesi. In quest’ottica auspichiamo che il progetto possa crescere aprendosi a nuove collaborazioni. Per esempio coinvolgendo il mondo editoriale ed enti pubblici per l’impiego di Minerva in ambiti istituzionali.”