Minerva, Llamantino 3 e i suoi fratelli: crescono i modelli linguistici italiani, nuovi strumenti di Intelligenza Artificiale nati in questi ultimi mesi e fondamentali per il mondo della ricerca italiana. Se ne è parlato in occasione della prima Conferenza generale di Fair - Future AI Research a Napoli.
"Immagina di vivere solo circondato da americani che parlano in italiano con te, in breve inizierai anche tu a parlare e ragionare come loro. Lo stesso avviene dialogando con una IA": è la metafora usata da Roberto Navigli, dell'Università Sapienza e a capo del progetto Minerva, per spiegare in modo semplice perché e a cosa serva sviluppare Llm (Large Language Model) in italiano. Gli Llm, come Gemini o ChatGpt, sono sistemi che nascono dall'analisi di miliardi di pagine di testi, la gran parte in inglese, su cui si addestrano tanto da sviluppare una capacità di saper conversare con utenti umani. "Fino a pochi mesi fa non esistevano modelli aperti, ossia modificabili in ambito della ricerca, che funzionassero in italiano.
Modelli che al loro interno hanno dei bias, dei preconcetti, legati alla lingua originaria". Mancanza che ha spinto nel tempo la comunità scientifica italiana a puntare tra due differenti percorsi: sviluppare un Llm da zero e interamente in italiano, come è avvenuto con Minerva di cui verrà presto rilasciata una nuova versione più potente con 7 miliardi di parametri, oppure usare modelli aperti già esistenti e 'ri-addestrarlo' nella nostra lingua, come nel caso di Llamantino 3. "Sono entrambe strade giuste - ha detto Navigli - ma ovviamente entrambi gli approcci hanno dei pro e dei contro.
Modelli molto grandi adattati alla nostra lingua hanno ottime prestazioni per molti aspetti, modelli nativi realizzati sulla base di fonti italiane permettono di poter verificare i contenuti usati. Una questione non banale anche per la sicurezza del modello. Se non hai il controllo dei dati non posso ad esempio non sapere se ci sono eventuali vulnerabilità, delle cosiddette back door". Nei primi 18 mesi di attività Fair ha messo insieme varie centinaia di ricercatori italiani, di cui circa la meta giovanissimi, che stanno portando come mai prima alla crescita del settore, tra cui il miglioramento degli Llm e l'arrivo di nuovi altri modelli: "quel che è certo - ha concluso Navigli - è che la sana competizione aiuta a migliorare e sarebbe importante ora anche definire dei benchmark condivisi, ossia una sorta di test di valutazione per i vari modelli che certifichi la capacità dei vari modelli per specifici compiti".
Cercare le leggi nascoste dell'Intelligenza Artificiale: è una delle frontiere della ricerca che usa nuovi approcci matematici, tra cui alcuni derivati dalla matematica sviluppata dal Nobel italiano Giorgio Parisi per descrivere i sistemi complessi. E' stato uno dei temi affrontati nella seconda giornata della prima Conferenza generale di Fair - Future AI Research, a Napoli.
"Le IA sono dei sistemi complessi di cui non conosciamo le basi scientifiche", ha detto Federica Gerace, dell'Università di Bologna. In sostanza le IA sono macchine realizzate da noi umani e sono in grado di fare cose che non sempre sappiamo spiegare. "Viviamo in una situazione simile a quel che avvenne con le macchine della prima rivoluzione industriale: funzionavano nonostante non avessimo ancora piena comprensione della termodinamica che le governava.
Noi oggi vogliamo cercare le leggi della termodinamica nelle IA", ha aggiunto Gerace. Al centro delle indagini ci sono in particolare i cosiddetti transformer, i 'mattonicini' informatici che hanno permesso un incredibile balzo in avanti nel machine learning e arrivare a strumenti come ChatGpt. "Cosa li rende così speciali? Cosa effettivamente imparano dai dati quando vengono addestrate? Siamo partiti da queste domande - ha proseguito la ricercatrice italiana - per studiarli e ora stiamo capendo anche che i transformer sono utili strumenti anche per risolvere alcuni problemi della fisica". Lavori al momento ancora lontani dal formulare un insieme di leggi ma ci sono stati in questi anni alcuni piccoli passi in avanti.
"Il problema della IA è che nei loro comportamenti contraddicono la teoria, ossia quel che dovrebbero saper fare, e noi lavoriamo per cercare una spiegazione", ha aggiunto il fisico della Sapienza, Matteo Negri. Uno dei modi per farlo è andare a ripescare vecchie teorie per identificare modelli che in qualche modo più si adattano a spiegare quel che si osserva. "Non è tanto differente da quel che avvenne con la meccanica quantistica", ha aggiunto Negri. "Uno dei metodi - ha concluso - si basa su tecniche matematiche sviluppate da Parisi per spiegare la fisica dei sistemi complessi"
Dai rischi per le democrazie al collasso dei contenuti internet: sono solo due dei tanti possibili pericoli concreti, ma ancora sottovalutati, che potrebbero materializzarsi dalla co-evoluzione tra uomo e Intelligenza Artificiale. E' uno dei temi emersi durante la prima Conferenza generale di Fair - Future AI Research a Napoli.
"Ci stiamo abituando all'idea che le IA ci consiglino e ci coccolino, ci affidiamo a loro per scegliere che strada fare o che film vedere ma dobbiamo prendere atto che stiamo co-evolvendo, ossia ci influenziamo a vicenda e possono esserci impatti negativi e imprevedibili", ha detto all'ANSA Dino Pedreschi, esperto di Computer Science all'Università di Pisa. Tendiamo a considerare le IA, da Alexa e ChatGpt a Google Map dei semplici strumenti da usare ma le scelte che noi facciamo, basandoci sulle informazioni che riceviamo, producono nuovi dati che a loro volta influenzano le IA e via di seguito.
Un vortice di dati che può prendere, dopo tanti cicli ripetuti, deviazioni inattese. Una di queste la si vede già nei navigatori auto: ci consigliano la strada più rapida ma se tutti la facciamo poi va a crearsi un ingorgo senza precedenti. A rischio ora c'è anche il web che si sta popolando di testi prodotti dalle IA che a loro volta vengono usati per alimentare nuovi modelli. Un meccanismo che rende i dati sempre meno diversificati portando dopo vari cicli ad avere online solo 'spazzatura'. "Dobbiamo preoccuparci di questi fenomeni e governarli sin da adesso", ha aggiunto Pedreschi. "Andranno fatte importanti scelte politiche, sviluppando ad esempio dei modelli che siano 'pubblici' per poter governare questa coevoluzione ed evitare discriminazioni o effetti distruttivi che, come dimostra sempre più chiaramente il problema delle fake news e della polarizzazione online, possono anche mettere a repentaglio la tenuta democratica degli stati".
"Sono problemi - ha aggiunto Valentina Pansanella, dell'Istituto di Scienza e Tecnologie dell'Informazione del Consiglio Nazionale delle Ricerche - che stanno emergendo anche in piattaforme digitali apparentemente scevre da queste dinamiche, ad esempio quelle per gli acquisti online in cui si rischia di consigliare sempre gli stessi prodotti". Come in un ecosistema biologico, anche nel mondo digitale la diversità è una risorsa fondamentale. "Come in medicina abbiamo istituito rigorosi trial clinici prima di arrivare a una commercializzazione del farmaco, forse potremmo fare qualcosa di analogo con le IA. Dobbiamo iniziare a pensare la necessità di fare scelte importanti come una redistribuzione dei modelli IA oggi in mano a pochissime aziende", ha concluso Pansanella.
© RIPRODUZIONE RISERVATA