Sabato 19 ottobre alle ore 11.30 al Centro Congressi Giovanni XXIII, nell’ambito del festival BergamoScienza, ci sarà il filosofo Guglielmo Tamburrini, nell’incontro “Robot che uccidono”. Al centro della conferenza i temi della sfida etica e della politica delle armi autonome, in un viaggio tra scienza ed etica alla scoperta dei rischi dell’impiego dell’intelligenza artificiale in contesti di guerra.
Come finisce un filosofo a parlare di robot assassini?
Ho una formazione filosofica molto improntata sulla logica. Quasi tutta la mia carriera è trascorsa in dipartimenti scientifici. Oggi lavoro alla Federico II di Napoli nel dipartimento di ingegneria elettrica e tecnologie dell’informazione. Insegno logica, fondamenti delle macchine di Touring e da una ventina di anni tengo un corso di filosofia che parla anche di questioni di tipo etico.
Perché pensare alla robotica dal punto di vista militare?
Guardando i finanziamenti su intelligenza artificiale e robotica ci si rende conto che molti vengono dalla Difesa, in modo anche legittimo e importante visto che parliamo di protezione della sicurezza nazionale. La questione della digitalizzazione del campo di battaglia e la sua robotizzazione, però, crea numerosi problemi: se noi ci affidiamo a una macchina, chi risponde per le violazioni del diritto umanitario?
Ma i robot non dovrebbero essere più sicuri - per quanto si possa parlare di sicurezza in guerra - e precisi degli uomini?
Sì, ma non possiamo prescindere dal controllo umano. Faccio l’esempio di una crisi avvenuta nel settore finanziario: il crollo dell’indice Dow Jones della borsa valori di New York, avvenuto il 6 maggio 2010 e detto anche Flash Crash.
Cos’era successo?
Una singola transazione di grandi dimensioni generata da un software di negoziazione ad alta frequenza (che in una frazione di secondo fanno operazioni di compravendita continua) ha causato una forte variazione nel prezzo delle azioni “contagiando” tutto il listino. Per questo è stato necessario interrompere le transazioni. Da allora sono state introdotte nuove regole che contenevano degli interruttori automatici alle contrattazioni. Pensiamo se invece di software finanziari ci fossero armi autonome.
Come funzionano le armi autonome?
Hanno la proprietà di essere in grado di selezionare l’obiettivo e attaccarlo. Che ci siano armi in grado di fare questo non c’è dubbio: Cina, Russia, Usa e molti altri Stati hanno progetti in questo senso. La reazione immediata è una certa ripugnanza al pensiero che l’arma robotica possa decidere autonomamente della vita o della morte di qualcuno, che sia belligerante o meno.
Si può trasformare la ripugnanza in un argomento etico?
Sì, consideriamo un affronto alla dignità umana essere uccisi da una macchina: se diamo al robot questa opzione non c’è nessuna possibilità di ripensamento, nessun appello possibile a una umanità condivisa. Tante vite sono state risparmiate da un moto di pietà, cosa impossibile con una macchina. In più, l’uomo può in tanti casi sopperire a delle carenze dei sistemi automatici.
Come fece il colonnello Petrov durante la Guerra Fredda?
Esattamente: il sistema radaristico sovietico aveva segnalato l’arrivo di missili con testate nucleari. Lui per protocollo avrebbe dovuto rispondere immediatamente, scatenando un attacco nucleare, ma si prese la responsabilità di decidere che era un errore. Se avesse seguito le indicazioni della macchina la Guerra fredda sarebbe diventata calda, invece ha avuto il coraggio di agire contrastando gli errori della macchina.
Altri principi cui attenersi in guerra?
La Convenzione di Ginevra ne cita due molto importanti. Il primo è il principio di distinzione: ogni azione bellica deve essere indirizzata solo alle parti in conflitto. Bisogna prendere tutte le precauzioni per evitare di colpire i civili e la Croce Rossa. Il secondo è la proporzionalità: bilanciare l’attacco a obiettivi miliari per ridurre i danni collaterali. Ad esempio non si può colpire una scuola elementare perché nelle vicinanze c’è un soldato nemico.
E in questo i robot sono peggio degli umani?
I robot prendono cantonate inattese. Ad esempio è stato dimostrato che facendo impercettibili cambiamenti nell’immagine di uno scuolabus l’intelligenza artificiale lo prende per uno struzzo.
Uno struzzo?
Questi sono i possibili disastri dell’intelligenza artificiale. Per noi umani sono errori madornali, senza contare i possibili tentativi di hackeraggio. Su Science è stato pubblicato un esperimento in cui dei ricercatori avevano realizzato una tartaruga 3D, che veniva scambiata per un fucile automatico dall’intelligenza artificiale. Sono casi straordinariamente rivelatori. In generale il sistema di intelligenza artificiale è migliore dell’umano, però questi errori sono gravi e possono portare a violazioni importanti del diritto umanitario in guerra.
Se un robot compie un crimine di guerra di chi è la colpa?
Introducendo i robot abbiamo interrotto la catena di comando e controllo così importante nelle Forze Armate. Ciò crea un vuoto di responsabilità da evitare. Il programmatore può essere considerato negligente se non ha testato bene il sistema, ma in una situazione di guerra le cose sono molto diverse da un laboratorio. Come fa un giudice a stabilire la responsabilità? Ognuno ne ha una frazione infinitesima: il programmatore, il produttore, il politico, il comandante miliare.
Ma i robot intelligenti non potrebbero aiutare a ridurre i danni collaterali?
Possono essere più precisi e conservativi sugli obiettivi a breve termine. Il problema è che le conseguenze devono essere valutate su finestre temporali più ampie di un singolo campo di battaglia.
Quali sono le possibili conseguenze di lungo respiro?
L’uso dei robot potrebbe facilitare la decisione di entrare in guerra da parte di politici che non temono più il ritorno delle bare a casa. Questo può condurre a una corsa alle armi e ad accelerare il ritmo della guerra, con conflitti che sfuggono al nostro controllo.
Sito BergamoScienza