L’algoritmo è maschio, l’intelligenza artificiale è femmina; parità di genere trovata e caso chiuso. Se la tecnologia è, per antonomasia asessuata, come può discriminare un genere rispetto a un altro? Eppure può. Vediamo cosa dice la letteratura del settore.
«Studi recenti dimostrano che gli algoritmi di apprendimento automatico possono discriminare in base a categorie come razza e genere».
«Quando l’output di un algoritmo risulta ingiusto, lo chiamiamo pregiudizio. Il pregiudizio può trovare la sua strada in un algoritmo in molti modi. Può essere creato attraverso il contesto sociale in cui viene sviluppato, come risultato di vincoli tecnici, oppure dal modo in cui viene utilizzato nella pratica. Quando un algoritmo viene prodotto, è strutturato dai valori del suo progettista, che potrebbero non essere neutrali. E dopo che un algoritmo è stato realizzato, deve essere addestrato, cioè alimentato con grandi quantità di dati sulle decisioni passate, per insegnargli come prendere decisioni future. Se quei dati di addestramento sono di per sé distorti, l’algoritmo può ereditare tale pregiudizio. Per queste e altre ragioni, le decisioni prese dai computer non sono fondamentalmente più logiche e imparziali delle decisioni prese dalle persone».
La prima citazione è parte di «Gender Shades: disparità di accuratezza intersezionale nella classificazione di genere commerciale» una ricerca scritta nel 2018 dalla ricercatrice del MIT Joy Buolamwini e dalla ricercatrice di Microsoft Timnit Gebru. Il secondo è estratto da «Responsabilità dell’algoritmo: una guida» scritto dalle informatiche Robyn Caplan, Joan Donovan, Lauren Hanson e Jeanna Matthews.
Perché gli algoritmi discriminano?
Poniamo il caso di una serie di algoritmi che devono svolgere una scrematura fra un centinaio di curriculum vitae per il ruolo di informatico. Per svolgere questo compito, l’algoritmo replica ciò che ha imparato e, nello specifico, sa che si tratta di una professione prettamente maschile. Nessun programmatore glielo ha detto esplicitamente, ma l’algoritmo lo deduce in maniera semplice e chiara dal fatto che, nella società, il numero di informatici è nettamente superiore a quello delle informatiche. Perciò il ruolo è più adatto a un uomo.
L’algoritmo non crea pregiudizi, semplicemente replica quelli esistenti nella società e, per questo, discrimina un genere rispetto all’altro se tale discriminazione esiste anche nel mondo reale.
Gli stessi stereotipi si ritrovano nell’intelligenza artificiale generativa legata alle immagini. Avete mai provato a chiedere all’AI di generare la fotografia di un uomo e quella di una donna? Nel primo caso, gli esempi a disposizione sono più numerosi e l’AI e potrà fornire una risposta più verosimile. Nel secondo, la tendenza sarà quella di concedere più spazio a rappresentazioni stereotipate, con pelle senza rughe, occhi chiari, seni pronunciati e labbra voluminose. Insomma, un uomo è un uomo, una donna è una bella donna.
Joy Buolamwini, Timnit Gebru e le altre
Trovare una strada etica che la tecnologia e la rivoluzione dell’intelligenza artificiale possano seguire è un obiettivo comune a tanti ricercatori e ricercatrici nel mondo dell’informatica. Cercare di abbattere i pregiudizi tecnologici che discriminano per genere, razza, stato sociale, cultura è, fortunatamente, una pratica condivisa. E il contributo femminile si articola attraverso tantissimi esempi.
La storia della ricercatrice del MIT Joy Buolamwini è stata recentemente raccontata nel documentario «Coded bias», girato nel 2020 e disponibile su Netflix. Durante la sua ricerca, Buolamwini ha sottoposto mille volti ad alcuni sistemi di riconoscimento facciale, a cui ha chiesto di identificare se le facce fossero maschili o femminili. Buolamwini ha scoperto che i software avevano più difficoltà a identificare le donne, in particolare quelle con la pelle scura, rispetto agli uomini. La differenza è evidente nelle percentuali: l’errore nel riconoscimento degli uomini bianchi è pari allo 0,8%, quello nel caso di donne di colore è del 34,7%. In mezzo una scala di valori che comprende le donne bianche e gli uomini di colore.
Il suo progetto, Gender shades è diventato parte della sua tesi del MIT e ha motivato colossi come Microsoft e Ibm a migliorare le loro reti neurali per renderle meno discriminanti. Attualmente ha fondato l’Algorithmic Justice League, un’organizzazione che identifica e combatte il pregiudizio negli algoritmi e nei software di intelligenza artificiale.
Nel dicembre 2021, Timnit Gebru ha fondato il Distributed Artificial Intelligence Research Institute (DAIR), un istituto di ricerca che si considera «indipendente, radicato nella comunità, destinato a contrastare l’influenza pervasiva di Big Tech sulla ricerca, lo sviluppo e l’implementazione dell’IA».
L’anno prima aveva perso il suo lavoro in Google, dopo aver raccontato sui propri social i passaggi che l’avevano trasformata, da una delle menti più brillanti del colosso di Mountain View, in una persona «non gradita» dall’azienda. Gebru era co-responsabile tecnica dell’Ethical Artificial Intelligence Team e, con tale ruolo stava lavorando a una ricerca sui pericoli degli LLM (i Large Language Model come ChatGPT) sottolineando come il loro principio di imitazione probabilistico della realtà potesse rivelarsi estremamente pregiudiziale e discriminante. Lo studio utilizza la metafora dei “pappagalli stocastici”: i modelli linguistici imitano come pappagalli le informazioni con cui vengono allenati, restituendole secondo un principio stocastico, basato cioè sulla probabilità. Così si spiegano i pregiudizi e le allucinazioni che caratterizzano i sistemi di intelligenza artificiale, i quali non fanno altro che perpetuare gli errori della società. Timnit Gebru è stata nominata tra le 50 più grandi leader del mondo da Fortune e tra le dieci persone che hanno plasmato la scienza nel 2021 secondo Nature, nonché tra le persone più influenti del 2022 secondo TIME.
«Sono convinta che la nostra civiltà sia sull’orlo di una rivoluzione tecnologica che ha il potere di rimodellare la vita come la conosciamo. Ignorare i millenni di lotta che sono alla base della nostra società, però, sarebbe un errore intollerabile». Queste sono le parole pronunciate da Fei-Fei Li, una delle più importanti ricercatrici e attiviste nel campo dell’intelligenza artificiale, professoressa alla Stanford University e co-direttrice dello Stanford Human-Centered AI Institute, durante un TED Talk. Dal Duemila, Li lavora per insegnare alle reti neurali a “vedere” attraverso il progetto ImageNet. Nel libro «Tutti i mondi che vedo» racconta come la sua storia personale sia inscindibile da quella della sua formazione e delle sue scoperte, mostrando come al centro della più prodigiosa invenzione del nuovo millennio ci siano le persone e come l’intero sviluppo dell’intelligenza artificiale debba essere centrata sull’essere umano e su un’idea etica della competenza tecnologica. Autrice di oltre trecento pubblicazioni scientifiche, il suo contributo ai campi più avanzati dell’IA cognitiva, del deep learning, della visione artificiale e del robotic learning la rende oggi una delle più importanti scienziate al mondo. Definita la «madrina dell’IA» e insignita di numerosi premi e riconoscimenti, è stata inserita da Forbes nella lista delle 50 donne più importanti in ambito Hi-tech e dal Time tra le cento più influenti figure della IA.
Jeanna Matthews è professoressa di informatica alla Clarkson University, ed è nota per essere intervenuta più volte sulle discriminazione di classe, razza e genere perpetrate dai software utilizzati in ambito giudiziario. È stata quattro volte relatrice al DEF CON, la conferenza di sicurezza informatica più importante al mondo, su argomenti tra cui la vulnerabilità della sicurezza in ambienti virtuali, i test avversari del software di giustizia penale e il “trolling”. Il suo lavoro attuale si concentra sulla protezione dei processi decisionali sociali e sul supporto dei diritti degli individui in un mondo di automazione.
Joan Donovan è una ricercatrice di scienze sociali, sociologa e accademica americana, (qui) nota per le sue ricerche sulla disinformazione ed esperta nell’esaminare studi sull’estremismo online, sulla manipolazione dei media e sulle campagne di disinformazione. Professoressa alla Boston University, per diversi anni ha condotto ricerche e sperimentazioni con numerosi movimenti sociali in rete al fine di mappare e migliorare le infrastrutture di comunicazione costruite dai manifestanti. Dopo aver completato il dottorato di ricerca in Sociologia e studi scientifici presso l’Università della California di San Diego, è stata borsista post-dottorato presso l’UCLA Institute for Society and Genetics, dove ha studiato l’uso della tecnologia da parte dei suprematisti bianchi.
In conclusione…
Recenti studi sul cervello umano hanno dimostrato che esistono delle lievi differenze fra uomini e donne. Il nostro modo di pensare e di recepire le informazioni è diverso, seppur solo tendenzialmente. Perciò, all’alba dello sviluppo di un’intelligenza artificiale univoca è importante che le donne possano dare il loro contributo a una «mente artificiale» che sia realmente espressione di entrambi questi approcci.
Illustrazione di copertina di Elisa Puglielli - Yoonik