93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

Dietro le quinte di Chat GPT, un dialogo con Roberto Battiston

Articolo. Venerdì 21 giugno, all’interno del programma del festival «Migliori di Così» a Nembro, una serata dedicata al linguaggio dell’intelligenza artificiale affrontata con la mente di un fisico, già presidente dell’Agenzia Spaziale Italiana (ASI)

Lettura 3 min.

«Cerco di spiegare, in un modo realmente comprensibile, cosa c’è dietro questa illusione». L’illusione in questione si chiama Chat GPT, ed è affrontata in maniera schietta e sincera da Roberto Battiston, professore ordinario di Fisica Sperimentale presso l’Università di Trento e divulgatore scientifico. L’incontro si terrà in occasione di « Migliori di Così – Festival delle rinascite », in programma fino all’11 luglio a Nembro, in Piazza della Libertà. La data da segnare in agenda è quella di venerdì 21 giugno, serata in cui, a partire dalle 20.45, Battiston proverà a calarsi nei panni dell’utente medio, spiegando da un lato le possibilità date dall’AI generativa, dall’altro i meccanismi che non possiamo più fingere di ignorare.

Ma cosa c’è dietro l’illusione? «La questione centrale è che dietro ci siamo noi, inteso come esseri umani e società – spiega Battiston – Se non ci fosse il materiale di miliardi di frasi, pagine, testi dotati di senso che abbiamo scritto, indipendentemente dalla qualità più o meno alta e dai loro contenuti, istantaneamente scomparirebbe anche l’AI».

Ricapitolando, in breve, Chat GPT è uno strumento che ormai in tanti usano e conoscono, ma in pochi si interessano di capire realmente cosa sia. Il gergo informativo lo definisce un LLM, acronimo di Large Language Model. Nasce come progetto di Open AI, realtà inizialmente no-profit che si prefissava di definire un modello di rete neurale che potesse essere più brava dell’essere umano nello svolgere un compito fin dalla prima volta in cui gli fosse affidato, grazie all’adattamento delle conoscenze apprese nei suoi allenamenti precedenti. Open AI è riuscita nel suo intento, ed è riuscita anche a passare dall’essere una società no-profit a una realtà in grado di regalare profitti e dividendi considerevoli ai suoi soci. Nel mentre, il suo prodotto di punta, Chat GPT, non solo ha stupito il pubblico con le sue doti, ma ha continuato a nutrirsi di informazioni, correzioni e modi di dire che l’hanno resa ancora più efficiente.

«Questo meccanismo io lo chiamo “rastrello digitale– continua Battiston – perché è come se noi avessimo un prato pieno di foglie che altro non sono che le nostre parole e le nostre conoscenze e gli algoritmi fossero delle sorta di giardinieri che prendono queste foglie per farne mucchietti. Apparentemente si stratta di raccolte diverse, ma la verità è che sono collegate fra loro e insieme fanno il patrimonio di espressioni plausibili con cui parla Chat GPT».

Perché questo è quello che fa Chat GPT e tutti gli LLM: essere «plausibile», come già scrisse Noam Chomsky, «I modelli GPT di Open AI non imparano, più che altro ricordano», e come già denunciò la ricercatrice Timnit Gebru con il suo paper «Sui pericoli dei pappagalli stocastici: può un modello di linguaggio essere troppo grande?». Quello che la ricercatrice di Google, di origini etiopi, si chiedeva, era se questi modelli di apprendimento non fossero fallaci, dato che la loro capacità di risposta è basata su un principio probabilistico (quello stocastico appunto).

«Questa tecnologia ci dimostra come nel linguaggio naturale conta più la plausibilità della veridicità – aggiunge Battiston – È una domanda divertente in un certo senso, ma anche pericolosa».

Nei fatti, l’algoritmo generativo di Chat GPT fa questo: non fornisce la risposta giusta alla domanda posta, ma quella statisticamente più presente e, quindi, probabilmente corretta. Ma la tecnologia non è cattiva in sé, come spiega Battiston: «Chat GPT ha rivoluzionato il linguaggio di programmazione permettendo, in pochissimo tempo, di ottenere i codici di un programma che funziona perfettamente e risponde alla richiesta fatta. Se due anni fa mancavano programmatori, oggi con l’AI posso produrre 3 milioni di linee di codice parlando semplicemente in italiano». L’attenzione, semmai, va posta nel nostro interagire con la stessa, come sottolinea il professore: «Ci sono applicazioni per cui ci sarà un cambio epocale sull’ambiente di lavoro e l’unica preparazione possibile sarà abituare il pensiero critico dei ragazzi e delle varie età».

Verrebbe da chiedersi: in che senso? E Battiston risponde: «Dovremo imparare a fare bene le domande e quindi saranno sempre più valorizzate le capacità alte di sintesi, di analisi critica, di problemi ben posti. È un futuro che ci impone di rivedere come e perché si spendono i nostri 13 anni di formazione scolastica, quali sono le qualità e i talenti che dobbiamo sviluppare in quegli anni di formazione».

Il termine, molto in voga negli USA è «prompt manager», ovvero il responsabile delle domande, figura che sarà sempre più importante per estrapolare da una massa di risposte probabili quella più corretta.

Ma prima ancora che la capacità di fare domande, occorre una grande consapevolezza, come conclude Battiston: «Chat GPT sta facendo esplodere il modello economico del web in cui apparentemente tutto viene fruito gratis solo per il fatto che non si conosce la moneta con cui lo si sta pagando. Invece – spiega il professore – si tratta di una finta gratuità, fatta non di soldi ma di dati, che altro non sono che il nucleo del nostro pensiero e delle nostre strategie, in altri termini il linguaggio».

«Il linguaggio non è cosa da poco – aggiunge Battiston – in quella che appare come una chiacchiera fra me e me, in realtà scambio con l’intelligenza artificiale pensieri e ragionamenti che mi condizionano e che possono cambiare le mie scelte».

EVENTO

Approfondimenti