L’Intelligenza Artificiale è un’arma a doppio taglio, può ingannare i medici

L’Intelligenza Artificiale applicata all’assistenza sanitaria può essere un’arma a doppio taglio: può migliorare le decisioni prese dai medici ma può anche ingannarli, se basata su dati errati o distorti, e questo anche se viene fornita ai professionisti una spiegazione del ragionamento fallato seguito dal sistema. Lo ha scoperto uno studio pubblicato sulla rivista Jama dell’Associazione americana dei medici e guidato dall’Università americana del Michigan. Vista l'importanza delle decisioni prese in ambito sanitario, gli autori sottolineano la necessità di prendere adeguate misure per garantire la sicurezza e l’affidabilità dell’IA in questo campo.

I ricercatori guidati da Sarah Jabbour hanno effettuato un esperimento focalizzato sui pazienti con insufficienza respiratoria acuta. Determinare le cause di questo disturbo può essere molto difficile e l’accuratezza delle diagnosi effettuate dai medici si aggira intorno al 73%. Ai 457 partecipanti, tra medici, assistenti e infermieri, è stato chiesto di fare una diagnosi e di formulare una terapia con l’aiuto di un sistema basato sull’AI: la loro precisione è aumentata del 2,9% per coloro che hanno ricevuto solo la decisione dell’IA, e del 4,4% nel caso in cui veniva fornita anche la spiegazione di tale decisione.

Successivamente, gli autori dello studio hanno presentato agli specialisti anche dei sistemi intenzionalmente addestrati per essere distorti e fornire risultati errati: in questo caso, la loro precisione è diminuita dell’11,3%, un calo che non riusciva ad essere corretto neanche quando si evidenziava esplicitamente che l’IA si stava basando su informazioni sbagliate. “I modelli di Intelligenza Artificiale sono vulnerabili a scorciatoie e correlazioni sbagliate trovate nei dati con cui vengono addestrati”, spiega Jenna Wiens, co-autrice dello studio: “Se i medici si affidassero a un modello del genere, ciò potrebbe amplificare le distorsioni esistenti”.

© RIPRODUZIONE RISERVATA