93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

Chat GPT-4 supera il test di Turing: l’intelligenza artificiale diventa sempre più “umana”?

Articolo. Uno studio dell’Università di Stanford esplora la personalità di GPT-4, scoprendo comportamenti sempre più simili a quelli umani. Dobbiamo correre ai ripari?

Lettura 6 min.

L’intelligenza artificiale ha raggiunto un nuovo traguardo. ChatGPT-4 di OpenAI ha superato un test di Turing dimostrando comportamenti quasi indistinguibili da quelli umani. Ideato da Alan Turing nel 1950, l’esperimento verifica se una macchina possa esibire un’intelligenza paragonabile a quella umana basandosi sull’interazione scritta tra un intervistatore, un umano e una macchina che in questo caso è l’intelligenza artificiale. La ricerca ha confrontato le risposte di GPT-4 con quelle oltre 100.000 persone, evidenziando la capacità dell’IA di simulare fiducia, cooperazione e autoregolazione emotiva.

Abbiamo discusso delle implicazioni etiche di queste scoperte con la professoressa Zaira Cattaneo, Neuroscienziata, ricercatrice e Docente del Dipartimento di Scienze Umane e Sociali dell’Università degli Studi di Bergamo. «Che ChatGPT possa simulare efficacemente personalità diverse, fornendo risposte coerenti in questionari che misurano tratti di personalità, è un fatto. Così come è un fatto che per gli utenti sia gratificante la possibilità di “personalizzare” i Chatbot per avere interazioni meno anonime e più coinvolgenti.

Non mi stupisce che ChatGPT lo sappia fare: l’idea dei cinque tratti di personalità - i Big Five - nasce infatti in origine proprio dalla grande intuizione, figlia del secolo scorso, che le caratteristiche comportamentali che sono socialmente più rilevanti debbano in qualche modo emergere nel linguaggio sotto forma di aggettivi specifici, che ricorrono per descrivere persone che mostrano quei particolari tratti: gentile, fantasioso, ecc.

I tratti del Big Five altro non sono quindi che il derivato - poi rivisto e sistematizzato nel corso degli anni - di un’analisi statistica di aggettivi estratti da un vocabolario. Poiché ChatGPT analizza co-occorrenze di termini linguistici in un database testuale sterminato, è prevedibile che possa egregiamente simulare tratti di personalità».

Simulare non significa avere una personalità

Il termine “personalità” deriva da “persona” che in latino indicava la maschera del teatro classico che l’attore portava sul volto per rappresentare un personaggio. «Ma mentre nella psicologia – prosegue Cattaneo - il termine personalità definisce i tratti di un essere umano reale, perdendo l’accezione di mascheramento, la simulazione di personalità di ChatGPT ci riporta al significato originario: la “personalizzazione” possibile del Chatbot così come i vari profili creabili (le “personas” in ChatGPT) sono maschere, dietro alle quali però non c’è un’alterità umana ma un sofisticato insieme di computazioni».

Secondo Cattaneo, un aspetto cui va posta certamente attenzione è la tendenza degli umani ad antropomorfizzare, ovvero ad attribuire caratteristiche umane (sentimenti, pensieri, intenzioni) a oggetti inanimati. «Studi di neuroimmagine dimostrano come interagire con un “computer partner” attivi alcuni nodi del cervello sociale, ovvero di un circuito che media la nostra capacità di relazionarci con gli altri. Un Chatbot che mostra una sua personalità, se da un lato può risultare più user-friendly dall’altro catalizza certamente la tendenza già fortemente diffusa ad antropomorfizzare l’IA e quindi a credere che dietro il testo prodotto ci sia un essere cosciente.

Se noi pensiamo che l’IA sia un’entità pensante e senziente questo ci può portare a sviluppare con essa legami emotivi che potrebbero essere fuorvianti. Potremmo infatti iniziare a esperire le varie IA come partner sociali affidabili, non cogliendo più la distinzione tra una simulazione e un’interazione umana autentica, con il pericolo che questa fiducia venga sfruttata in contesti commerciali o per manipolazioni psicologiche.

Si devono quindi mettere in atto misure per bilanciare la capacità di un Chatbot di interagire in modo naturale mantenendo una trasparenza totale per gli utenti su ciò che l’IA è realmente: un sistema automatizzato che imita, ma non ha, un’intelligenza emotiva».

Per Cattaneo la simulazione della personalità da parte di un’IA potrebbe aumentare la fiducia degli utenti verso queste “persone virtuali” ma bisogna anche tener conto dei rischi. «È stato ampiamente dimostrato che noi tendiamo a fidarci di interlocutori che percepiamo come simili o empatici e un’IA che imita questi tratti può apparirci più umana. A livello cerebrale, il rilascio di ossitocina, spesso legato a interazioni sociali positive, potrebbe essere attivato anche nelle interazioni con IA, rafforzando la sensazione di connessione e vicinanza. Tuttavia, questa connessione non è reciproca e il rischio è che questa fiducia non sia meritata, poiché dietro le risposte dell’IA non ci sono emozioni o intenzioni reali».

Gli agenti virtuali in grado di modificare la personalità (H3)

In generale, un’IA con capacità di personalità simulata potrebbe essere particolarmente utile in tutti quegli ambiti in cui interagisce con le persone. «Nell’ambito dell’assistenza sanitaria sono già stati sviluppati i cosiddetti personality-adaptive conversational agent (PACA), ovvero agenti virtuali in chatbot in grado di modificare la propria personalità per adattarsi dinamicamente all’utente man mano che l’interazione prosegue e rispondere al meglio alle sue esigenze.

Per restare nell’ambito della psicologia, l’uso dell’IA è in crescita esponenziale, con numerosissime piattaforme/app disponibili che utilizzano l’IA per fornire supporto psicologico di base, aiutando gli utenti a gestire ansia, depressione o stress. L’American Psychological Association (APA) ha già riconosciuto che da un punto di vista pratico l’IA può rendere la terapia più accessibile (anche a coloro che non si rivolgerebbero a un professionista) e meno costosa, diventando quindi uno strumento utilizzabile anche in contesti svantaggiati dal punto di vista socio-economico. Sono già disponibili linee guida preliminari che ne definiscono i principali livelli di utilizzo, da semplice assistenza al lavoro dello psicoterapeuta (nelle parti più amministrative ma anche nel pre-screening), a un ruolo più collaborativo (di supporto e confronto). Fino a un ruolo autonomo, quello più dibattuto appunto. C’è anche molta fiducia sulle potenzialità dell’IA nel supportare la formazione di studenti e tirocinanti, per esempio attraverso la simulazione di diversi casi clinici e così via. L’utilizzo dell’IA nella cura è già una realtà e ha già portato certamente molti benefici».

La sincronia dei parametri di paziente e terapeuta

La questione cambia quando da un ruolo di supporto dell’IA al lavoro dello psicoterapeuta si passa all’idea di un’IA che possa sostituire in toto la figura umana nel rapporto di cura. «Mi viene in mente qui un aspetto molto studiato nell’ambito delle neuroscienze sociali, quello della sincronia. Numerosi studi hanno dimostrato come durante un’interazione sociale alcuni parametri fisiologici (come il battito cardiaco, la frequenza del respiro, i movimenti, la conduttanza cutanea che è un indice di attivazione fisiologica, e perfino le oscillazioni neuronali) possano sincronizzarsi tra le varie persone coinvolte e come questo sia un ingrediente fondamentale per un’efficace interazione.

Nel campo della psicoterapia, non solo uno psicoterapeuta è in grado di cogliere consapevolmente i segnali non verbali del cliente (la postura, il tono della voce, lo sguardo, i movimenti) che sono essenziali per capirne lo stato emotivo ed entrare in relazione vera. Ma è stato dimostrato che il livello di sincronizzazione (non consapevole) di alcuni parametri fisiologici tra paziente e terapeuta può predire quanto efficace sarà la terapia. Questa dimensione del corpo, fondamentale in qualsiasi percorso terapeutico (alcuni approcci prevedono proprio di lavorare sul corpo e col corpo), viene meno nell’interazione con un Chatbot. Ma noi siamo menti incarnate. L’autenticità della relazione è ciò su cui si fonda una efficace terapia. Inoltre, l’IA non riesce a riconoscere segni sottili di malessere psicologico, come il linguaggio del corpo o toni emotivi non verbali, elementi fondamentali per una diagnosi accurata».

L’introduzione di tratti di personalità simulata in un’IA può essere sia un vantaggio che uno svantaggio. Zaira Cattaneo spiega che dal punto di vista psicologico, avere un’intelligenza artificiale che simula empatia e capacità comunicative potrebbe facilitare i processi decisionali in contesti complessi, come la risoluzione di conflitti o il supporto psicologico. D’altra parte, la simulazione della personalità potrebbe portare a pregiudizi cognitivi o favorire soluzioni che si allineano a determinati tratti caratteriali, limitando la flessibilità delle risposte. Inoltre, potrebbe esserci il rischio che gli utenti si affidino eccessivamente alle capacità “umane” simulate dell’IA, non riconoscendo che queste risposte sono guidate da algoritmi piuttosto che da una comprensione reale. «Per garantire l’uso etico della simulazione della personalità da parte di IA, è fondamentale un controllo trasparente e interdisciplinare, nonché un approccio etico e critico alla progettazione e all’utilizzo delle IA. Per evitare manipolazioni potenziali date da un’IA che simula empatia, sarebbe utile sviluppare linee guida che si basano sull’informazione e il consenso informato degli utenti, educando le persone sui limiti e le capacità reali dell’IA.

L’Università di Bergamo ha aperto a tal proposito un tavolo di lavoro interdisciplinare da cui è scaturita un’agenda di ricerca per discutere delle implicazioni dell’intelligenza artificiale su più fronti.»

Si vedranno personalità “progettate” per contesti specifici

Per ridurre il rischio di manipolazione, è necessario innanzitutto fornire un’adeguata educazione degli utenti. Le persone devono essere consapevoli dei limiti delle IA, specialmente quando queste simulano personalità umane. «È molto probabile che il futuro dell’intelligenza artificiale vedrà lo sviluppo di personalità “progettate” su misura per adattarsi a contesti specifici o alle esigenze di ogni individuo, seguendo un modello simile a quello della precision medicine, cioè l’idea che i trattamenti e terapie personalizzati, quindi adattati alle caratteristiche genetiche e biologiche e allo stile di vita di ciascun individuo, siano più efficaci rispetto a un approccio “taglia unica”. Allo stesso modo, in neuroscienze e psicologia, esiste un crescente interesse verso una scienza individualizzata, che tenga conto delle differenze individuali nei processi neurobiologici.

Una IA personalizzata potrebbe, ad esempio, riconoscere le sfumature nel comportamento dell’utente e modulare la propria “personalità” per migliorare l’interazione, come già accennato sopra in ambito sanitario. Poiché la personalizzazione delle tecnologie basate sull’IA sarà sempre più diffusa, è fondamentale implementare rigorosi standard di trasparenza e meccanismi di controllo etico per prevenire potenziali abusi e garantire un uso responsabile di tali innovazioni».

Approfondimenti