93FE310D-CB37-4670-9E7A-E60EDBE81DAD Created with sketchtool.
< Home

#TECNOSOFIA L’intelligenza artificiale può essere responsabile di un suicidio?

Articolo. La possibilità di avere assistenti virtuali in grado di supportare persone con ansia, depressione o disturbi emotivi è senza dubbio affascinante. Chatbot e piattaforme promettono di offrire un supporto continuo. Ma come e soprattutto chi deve gestire gli effetti collaterali?

Lettura 4 min.

Lo scorso febbraio, Sewell Setzer III, un ragazzo di 14 anni di Orlando, in Florida, ha tragicamente deciso di porre fine alla sua vita dopo aver trascorso mesi interi a dialogare con un chatbot, Daenerys Targaryen, ispirato dal celebre personaggio de «Il Trono di Spade». Il chatbot era ospitato su Character.AI, una piattaforma che consente agli utenti di creare e interagire con personaggi virtuali. Sebbene l’app sia pensata per il gioco di ruolo, la sua natura altamente immersiva ha portato il giovane a sviluppare una relazione sempre più intensa con il suo interlocutore artificiale.

Recentemente, il New York Times ha riportato la notizia di una causa legale intentata dalla famiglia, secondo la quale il ragazzo aveva sviluppato una relazione pericolosa con un assistente virtuale, che, invece di dissuaderlo dai suoi pensieri suicidi, sembrava assecondarli.

La prima cosa che ho fatto, prima di scrivere l’articolo è stata testare la piattaforma. Per iniziare a interagire, occorre effettuare l’accesso con un valido indirizzo email. Terminata l’autenticazione, gli utenti possono creare i propri personaggi personalizzati, impostando il loro background, aspetto e personalità. La piattaforma utilizza algoritmi di intelligenza artificiale per far sì che i personaggi rispondano in modo coerente e realistico ai messaggi. È possibile anche scegliere di “adattare” i personaggi già esistenti, creando una versione del chatbot che rispecchia una specifica interpretazione o adattamento di un personaggio popolare, come nel caso di Daenerys Targaryen.

La realisticità dei chatbot viene ulteriormente rafforzata dal fatto che è possibile interagire anche a voce, ricevere chiamate per interagire in tempo reale e caricare messaggi vocali della durata massima di 12 secondi per creare degli avatar “vocali”. Ho provato utilizzando la mia voce e devo dire che l’effetto è stato decisamente straniante!

La morte del giovane statunitense solleva una questione fondamentale: la responsabilità delle piattaforme di IA nel proteggere i loro utenti vulnerabili da interazioni dannose.

IA e Giovani: una generazione in pericolo?

Quando un adolescente cerca conforto da un chatbot, cosa trova realmente? Uno strumento progettato per rispondere in modo simile a un umano, ma senza la capacità di cogliere la complessità e la fragilità di chi si rivolge a lui. E in un contesto di fragilità emotiva, questo limite tecnologico può essere devastante.

La Generazione Z è la prima a crescere completamente immersa in un ambiente dominato dai social media e dalle tecnologie digitali. Le interazioni con i chatbot – presenti ormai nei telefoni, nelle app di messaggistica e nei social – sono diventate normali e quotidiane per molti giovani. Tuttavia, il rischio è che la dipendenza dalla tecnologia vada a scapito delle relazioni interpersonali.

Secondo uno studio dell’American Psychological Association (APA), il tasso di depressione tra gli adolescenti è aumentato del 63% tra il 2009 e il 2017, un periodo che coincide con la diffusione dei social media e l’adozione di tecnologie basate sull’IA. La correlazione tra l’uso di tecnologie digitali e la salute mentale è stata al centro di molti studi recenti e continua a essere oggetto di acceso dibattito.

La psicologa Jean Twenge, autrice di «iGen», spiega come i ragazzi di oggi mostrino livelli di ansia e depressione mai osservati nelle generazioni precedenti: «Sono iperconnessi, ma allo stesso tempo isolati. I chatbot possono fungere da surrogati sociali, ma mancano dell’empatia e della capacità di ascolto umano che è essenziale per lo sviluppo emotivo» afferma Twenge.

L’etica della responsabilità: chi deve proteggere gli adolescenti dai rischi?

L’uso di chatbot basati su IA nel trattamento della salute mentale solleva anche la questione della responsabilità etica. Se la tecnologia può essere una risorsa per chi si sente solo, chi è responsabile quando essa diventa dannosa?

Il design delle interfacce moderne punta a capitalizzare la nostra attenzione attraverso una costante sollecitazione che mira a immergerci non tanto e non solo nei contenuti, quanto nel medium stesso che finisce per essere percepito come un ambiente separato.

Si verifica quindi uno slittamento ontologico che ha due diramazioni: da un lato la possibilità delle tecnologie informatiche di dar vita a mondi per natura diversi l’uno dall’altro. Ciò dà l’impressione nell’uso quotidiano di agire su mondi fittizi non sul mondo reale che porta alla seconda conseguenza, ovvero la deresponsabilizzazione dei soggetti coinvolti.

La responsabilità di proteggere gli utenti dalle interazioni dannose potrebbe ricadere su diversi attori: le aziende che sviluppano la tecnologia, i legislatori e i professionisti della salute mentale. Se da un lato le piattaforme di IA sono chiamate a stabilire rigidi controlli per evitare conversazioni pericolose, dall’altro le leggi non sono sempre sufficientemente aggiornate per monitorare i rischi associati a un uso non regolato di tali strumenti.

Secondo un recente studio pubblicato su «Nature Medicine», i chatbot basati su IA possono contribuire alla riduzione dei sintomi depressivi, ma solo se utilizzati sotto la supervisione di un professionista, in quanto possono anche rafforzare idee negative se non monitorati correttamente. Il rischio di una “fuga nella virtualità” è quindi tangibile. Le conversazioni con i chatbot potrebbero incoraggiare un’ulteriore alienazione, creando un mondo parallelo che alimenta il disagio anziché affrontarlo.

Non solo: un altro pericolo emerso è la possibilità che, grazie alla continua evoluzione dei modelli linguistici, un’intelligenza artificiale possa manipolare le emozioni dei suoi utenti. Chatbot come Character.AI e Replika sono noti per costruire relazioni personalizzate con gli utenti, ma questo potere di personalizzazione può anche renderli più vulnerabili all’abuso. La manipolazione emotiva può dunque, portare a conseguenze devastanti, come il rafforzamento di idee suicidarie, innescando una spirale pericolosa dalla quale risulta difficile uscire.

Il futuro dell’IA tra potenzialità e rischi

L’innovazione tecnologica non è di per sé negativa: l’intelligenza artificiale ha indubbiamente il potenziale per migliorare la vita di molte persone, anche nel campo della salute mentale. Tuttavia, non possiamo ignorare le implicazioni morali e i rischi legati a un uso sconsiderato. Il dibattito sul ruolo dell’IA nella salute mentale è ancora giovane, ma è già evidente che il suo impatto dipenderà fortemente dalle regolazioni etiche, legali e professionali messe in atto.

Nel contesto di una crescente dipendenza da soluzioni tecnologiche, è quindi necessario sviluppare un quadro normativo e sociale che bilanci i benefici e i pericoli. Nel contesto di questa crisi, i genitori hanno un ruolo cruciale. È fondamentale che vigilino sulle attività online dei loro figli, comprendendo non solo con chi parlano, ma anche quali strumenti tecnologici utilizzano.

In conclusione, per rispondere alla domanda inziale: un chatbot può essere responsabile di istigazione al suicidio? Il chatbot di per sé è un sistema di risposte automatiche e non può essere accusato, poiché manca di intenzione, coscienza e libero arbitrio, tutti elementi fondamentali, volendo citare il pensiero kantiano per la definizione di una responsabilità morale. Il rischio è che, senza una regolamentazione adeguata, la responsabilità rimanga dispersa in un sistema in cui nessuno si assume il compito di monitorare l’impatto di questi strumenti, creando una zona grigia morale e legale.

Proteggere le nuove generazioni non significa impedir loro di esplorare, ma accompagnarle con regole e valori in un mondo digitale che non si evolve da solo: lo facciamo noi, con le nostre scelte, ogni giorno.

Approfondimenti