L’intelligenza artificiale è influenzata da pregiudizi?

Secondo gli esperti, se le informazioni inserite nei computer sono di parte, lo sarà anche l’intelligenza artificiale.

L’intelligenza artificiale può essere più veloce e più abile degli umani, ma l’unico aspetto che non ha ancora risolto è il pregiudizio. È vero, i computer possono avere dei pregiudizi, tanto quanto gli esseri umani. Codice di parte può produrre conseguenze involontarie, tra cui stereotipi non corretti, oppure definire i profili delle persone in modo razzista. 

Un programma per computer è valido solo tanto quanto lo sono le informazioni su cui si basa, secondo Andy Hickl, Chief Product Officer del Saffron Cognitive Solutions Group di Intel. “L’intelligenza artificiale non è certo esente dai pregiudizi nelle sue decisioni”, ha affermato. Tutto questo può derivare dai presupposti degli esseri umani quando progettano gli algoritmi che tentano di replicare il giudizio umano, oppure dai presupposti elaborati dai computer quando apprendono dai dati.

“Se il computer ha a disposizione solo le informazioni su come agisce una parte delle persone e nessuna conoscenza di come parla, agisce o si comporta il resto del mondo, inseriamo implicitamente il pregiudizio nei risultati prodotti dalla tecnologia di intelligenza artificiale”, ha affermato Hickl.

 

Confrontarsi con gli stereotipi

Un esempio è la tendenza crescente a usare “rappresentazioni distribuite di parole” per la selezione dei curriculum. Questa tecnica utilizza associazioni di parole per insegnare ai computer come individuare potenziali candidati per un posto di lavoro.

Se c’è la possibilità di un pregiudizio, alcuni sistemi sono progettati per chiedere a una persona di esaminare i risultati.

I ricercatori della Cornell University hanno scoperto che alcune associazioni avevano senso, come “donna” e “regina”. Altre associazioni, tuttavia, hanno introdotto il pregiudizio, come l’associazione delle parole “donna” e “receptionist”. Il risultato è stato un incremento nella considerazione dei curriculum femminili solo per ruoli stereotipati.

Il pregiudizio insito nell’intelligenza artificiale può causare problemi ancora maggiori del fraintendere sesso o età.

Uno studio del 2016 di ProPublica ha analizzato i punteggi di rischio legati a oltre 7.000 persone arrestate nella contea di Broward, in Florida, nel 2013 e 2014. I punteggi sono stati calcolati da uno strumento di intelligenza artificiale creato da Northpointe e utilizzato in molti sistemi in uso nei tribunali di tutti gli Stati Uniti.

Secondo quanto dimostrato dalla ricerca, le previsioni dello strumento (che l’80 per cento delle persone avrebbe commesso un crimine violento nei due anni successivi) si sono rivelate infondate.

Un significativo pregiudizio razziale si è inavvertitamente insinuato nelle previsioni dello strumento. Il problema? Le dinamiche dell’intelligenza artificiale avevano previsto che gli imputati afro-americani avrebbero commesso altri reati con una frequenza doppia rispetto ai caucasici. Questa previsione si è rivelata totalmente errata.

Per risolvere questo specifico problema nella tecnologia di intelligenza artificiale, Hickl e il suo team hanno progettato un modo in cui Saffron, una piattaforma di AI, esamina e spiega le conclusioni. Quindi, se si verifica la possibilità di un pregiudizio o un errore, il sistema raccomanda l’intervento di un essere umano per valutare i risultati.

 

Iniziare con dati già viziati

Comprendere i motivi per cui si verifica un pregiudizio è essenziale per eliminarlo. Le strategie di campionamento inesatte sono uno dei maggiori colpevoli, con un conseguente apprendimento automatico basato su dati distorti.

Un maggiore accesso agli smartphone nei quartieri a reddito più elevato ha introdotto un pregiudizio nel segnalare le buche nelle strade.

Ad esempio, la città di Boston ha usato la tecnologia di intelligenza artificiale per analizzare i dati raccolti dal progetto Street Bump, un programma basato su app che consentiva agli utenti di segnalare le buche. In base alle attuali condizioni delle strade, i funzionari cittadini volevano sapere i punti in cui le buche si verificavano con maggiore frequenza.

In modo del tutto inaspettato, le previsioni hanno mostrato un numero molto maggiore di buche nei quartieri a reddito medio-alto. Uno sguardo più ravvicinato ai dati ha rivelato un quadro più modesto: le strade dei suddetti quartieri non sono davvero costellate di buche, sono stati i residenti a segnalarle più spesso dato che usano gli smartphone con maggiore frequenza.

I funzionari di Boston hanno trovato la soluzione perfetta: delegare ai camion della spazzatura, che circolano in tutte le aree cittadine, il compito di raccogliere le informazioni necessarie. Quando le macchine dispongono solo di una parte delle informazioni necessarie per elaborare affermazioni corrette, il pregiudizio è già implicito nei risultati, ha affermato Hickl.

 

Test ed esiti delle domande

E quindi, come è possibile rimuovere il pregiudizio dalla tecnologia di intelligenza artificiale? Secondo Hickl, la chiave di volta è fare in modo che gli strumenti si comportino nello stesso modo degli umani: mettere alla prova i presupposti e chiedere altre prove.

Con la capacità di analizzare grandi volumi di dati in tempo reale, una tecnologia di intelligenza artificiale priva di pregiudizi può fare la differenza nel nostro modo di vivere, lavorare e giocare.

“L’AI sarà in grado di fornirci la guida e il feedback di cui abbiamo bisogno per vivere al massimo potenziale”, ha affermato Hickl.

Condividi questo articolo

Read Full Story