Partendo dal racconto della dottoranda Joy Buolamwini, impegnata in una ricerca sul tema al dipartimento di robotica della prestigiosa MIT, l’Istituto di tecnologia del Massachusetts a Cambridge, il film documentario “Coded Bias” racconta come negli Stati Uniti e nel Regno Unito sia stata avviata una battaglia per riconoscere e superare la discriminazione sociale e razziale messa in atto dai sistemi di intelligenza artificiale.
Nei fatti, la domanda a cui risponde il film, diretto dalla regista e attivista Shalini Kantayya, è: “Gli algoritmi e i sistemi di intelligenza artificiale sono sempre equi e super partes?”. La risposta sembrerebbe scontata. Come può la matematica non essere paritaria date le sue intrinseche proprietà oggettive? Eppure non lo è e in un’ora e mezza di testimonianze vengono presentati tutti i casi concreti in cui algoritmi e software agiscono sulla nostra società attuando pesanti discriminazioni di sesso, età, condizione sociale ed etnia.
Tutto parte da “Aspire mirror”, l’innovativo specchio a cui è stata assegnata la ricerca di Buolamwini, una tecnologia che si riprometteva di riflettere, oltre alla propria immagine, anche speranze e aspirazioni della persona che inquadrava. Tecnicamente, però, qualcosa non funzionava. Il riconoscimento facciale messo in atto dalla superficie non era sempre efficace, nonostante il buon funzionamento della telecamera e del software installato in uso nel laboratorio di robotica.
Buolamwini si accorge che il riconoscimento del suo volto funziona meglio quando indossa una maschera bianca e allora comincia a ragionare sul fatto che il problema si nasconda proprio nel colore della sua pelle. La ricercatrice, infatti, ha origini ghanesi e i tratti somatici tipici di quell’area dell’Africa. Inizia a studiare e scopre che l’algoritmo alla base del software di riconoscimento facciale è più preciso e affidabile quando inquadra uomini con la pelle bianca. In questo caso la comparazione si avvicina al 100% di successo, mentre tutte le altre tipologie analizzate, ovvero donne bianche e donne e uomini di colore, rilevano una percentuale di scarto significativa. Non solo, la ricercatrice analizza una serie di sistemi per il riconoscimento facciale e trova che questa discriminazione, con percentuali diverse, è presente in ognuno di essi.
Il documentario, disponibile sia su Netflix sia sul sito della Milano Digital Week dove è stato recentemente presentato e discusso, prosegue con una lunga serie di testimonianze e casi che, in maniera similare, mostrano la discriminazione messa in atto da sistemi “intelligenti” in vari ambiti: il controllo di casi sospetti da parte della polizia, la concessione di mutui, la pre-selezione di candidature per posizioni lavorative e tanto altro.
Parallelamente racconta anche i successi ottenuti da Joy Buolamwini e dalla lega da lei fondata, per il controllo e il rispetto delle discriminazioni tecnologiche.
Perché succede?
Questa è la vera domanda. Siamo abituati a dare all’intelligenza artificiale e ai sistemi “pensanti” un potere di analisi spesso superiore a quello che in realtà possiedono. O meglio, come il documentario spiega bene, esiste una sorta di “scatola nera”, o fase sconosciuta, all’interno di ogni processo di apprendimento artificiale. La serie di algoritmi iniziali con cui si avvia l’apprendimento, infatti, viene sviluppata attraverso un’enorme quantità di dati raccolti e confrontati successivamente dal sistema in un mondo che nemmeno gli sviluppatori possono perfettamente conoscere. Questo significa che, se alla “macchina pensante” vengono date in pasto, in fase iniziale, una serie di informazioni errate o parziali circa la selezione che dovrà svolgere, è facile che la sua elaborazione, o “digestione” per usare un parallelismo, non solo proseguirà in quella direzione ma potrebbe avere effetti amplificati dalla continua opera di apprendimento del sistema.
Nel caso specifico da cui parte il racconto di “Coded Bias” l’errore di pensiero inserito nel sistema e fatto apprendere dall’algoritmo consisteva in un numero nettamente superiore di volti di uomini bianchi fatti “studiare” dalla mente artificiale, rispetto al resto dei possibili volti. La discriminazione è partita dall’uomo, non dalla macchina, ma questo pone l’accento sui possibili problemi etici che questo meccanismo può avere, perpetrando e ampliando pregiudizi sociali.
Cosa succede in Italia?
Se resta un affascinante documentario su come etica e tecnologia debbano viaggiare a braccetto per costruire una società futura equa, giusta e sostenibile, è anche uno di quei film che i demonizzatori del progresso tecnologico possono prendere ad esempio per indicare tutto il male che caratterizzerà il nostro futuro se perseguiremo su questa strada. Ma non dobbiamo dimenticare che mostra la società americana, con un sistema di controllo e verifica diverso da quello europeo.
Per esempio, i sistemi di riconoscimento facciale usati dalla polizia e citati nel documentario di Kantayya, da noi non esistono. Il 16 aprile scorso, infatti, il garante della privacy ha bloccato l’utilizzo di questo tipo di tecnologia da parte della Polizia italiana spiegando che “realizzerebbe, per come è progettato, una forma di sorveglianza indiscriminata”.
Il libro bianco
Non solo. Il 19 maggio si è concluso, a livello europeo, la raccolta di consigli e suggerimenti rispetto a quanto espresso sul libro bianco o “White paper”, il documento dell’Unione Europea che normerà l’utilizzo dell’intelligenza artificiale in tutti i Paesi comunitari. ll documento, stilato a Bruxelles il 19 febbraio scorso, è stato reso pubblico e aperto alla consultazione e ai possibili suggerimenti per tre mesi. Ora tutti i feedback raccolti saranno valutati per comporre il documento finale che sarà una traccia per le specifiche normative che gli Stati membri dovranno stilare in materia.
Nel libro bianco dell’intelligenza artificiale si parla di utilizzi, punti di forza e sviluppi dell’intelligenza artificiale, ma si affrontano anche i problemi etici che possono nascere da un suo uso sempre più massiccio. Difatti, il documento spiega chiaramente: “Le distorsioni e le discriminazioni rappresentano un rischio intrinseco di qualunque attività sociale od economica. Il processo decisionale umano non è immune da errori e distorsioni. Queste stesse distorsioni, se presenti nell’IA, potrebbero tuttavia avere effetti molto maggiori e colpire o discriminare numerose persone in assenza dei meccanismi di controllo sociale che disciplinano il comportamento umano. Ciò può accadere anche quando il sistema di IA ‘apprende’ nel corso del suo funzionamento. In tali casi, in cui i risultati non potevano essere evitati o anticipati in fase di progettazione, i rischi deriveranno non da difetti nella progettazione originale del sistema, bensì dagli effetti pratici delle correlazioni o dei modelli che il sistema individua all’interno di un ampio set di dati”.
E ancora: “Le tecnologie di IA incorporate in prodotti e servizi possono presentare nuovi rischi per la sicurezza degli utenti. Ad esempio, a causa di un difetto della tecnologia di riconoscimento degli oggetti, un’auto a guida autonoma può erroneamente identificare un oggetto sulla strada e provocare un incidente causando lesioni e danni materiali. Analogamente ai rischi per i diritti fondamentali, questi rischi possono derivare da difetti nella progettazione delle tecnologie di IA, da problemi riguardanti la disponibilità e la qualità dei dati o da altri problemi inerenti all’apprendimento automatico. Sebbene alcuni di questi rischi non riguardino unicamente prodotti e servizi basati sull’IA, l’uso di quest’ultima può aumentare o aggravare i rischi”.
Perciò, se da una parte dobbiamo stare molto attenti quando deleghiamo il pensiero a qualcos’altro, dall’altra non possiamo dimenticare che, proprio la capacità di analisi ed empatia dell’uomo, la presenza sarà ancora più indispensabile man mano che la tecnologia avanza nelle nostre vite.
Il documento completo della Commissione Europea è consultabile qui.