Capire pregiudizi razziali in algoritmi di apprendimento automatico

Capire pregiudizi razziali in algoritmi di apprendimento automatico

Bias si manifesta ovunque nel nostro mondo nonostante i nostri sforzi per evitarlo. pregiudizio implicito si riferisce agli atteggiamenti, credenze e stereotipi che abbiamo su di gruppi di persone. Pregiudizi impatto come trattiamo e rispondere ad altri, anche quando è involontario.

pregiudizio implicito è anche diffusa nel settore della tecnologia, non solo quando si tratta di pratiche di assunzione, ma anche nei prodotti e tecnologie che gli sviluppatori creano buone intenzioni. In particolare, i ricercatori identificano machine learning e l’intelligenza artificiale come le tecnologie che soffrono di pregiudizi razziali impliciti. Se lo sviluppo del software è veramente “mangiando il mondo”, quelli di noi nel settore deve occuparsi di questi risultati e il lavoro di creare un mondo migliore.

Quindi, come si fa di apprendimento automatico e AI soffrono di pregiudizi razziali? E ancora più importante, che cosa possiamo fare per combatterla? Oggi andrà oltre quanto segue:

pregiudizi razziali nel machine learning e AI
Lotta polarizzazione razziale in tecnologie ML
Avvolgendo e risorse

pregiudizi razziali nel machine learning e l’intelligenza artificiale
Macchina di apprendimento algoritmi per la ricezione ingressi, organizzare i dati, e prevedere uscite entro intervalli predeterminati e modelli. Algoritmi può sembrare “oggettivamente” processi matematici, ma questo è lontano dalla verità. polarizzazione razziale penetra algoritmi in diversi modi sottili e non così sottili, portando a risultati discriminatori e risultati. Diamo uno sguardo più profondo.

Il pericolo di automazione
Algoritmi possono ottenere i risultati desiderati per le ragioni sbagliate. Automatizzando un algoritmo, si trova spesso modelli che non avreste potuto prevedere. La leggenda di questo esperimento serbatoio di rete neurale dimostra questa limitazione di algoritmi.

pose di automazione pericoli quando i dati è imperfetta, disordinato, o di parte. Un algoritmo può attaccarsi dati non importanti e rafforzare involontarie pregiudizi impliciti. Ad esempio, scienziato dati Daphne Koller spiegato che un algoritmo concepito per riconoscere fratture da raggi X ha causato invece riconoscere quale ospedale generato l’immagine. Questo algoritmo ora incorpora dati e distorce irrilevanti risultati. Immaginate se un algoritmo è esposto a pregiudizi razziali insiemi di dati: si continuerà a incorporare tali pregiudizi, anche in un contesto completamente diverso.

algoritmi Assunzione cadono soprattutto vittima di pregiudizi razziali a causa di automazione. responsabili delle risorse umane non possono guadare attraverso pool di candidati, in modo da algoritmi Resume-scansione di estirpare circa il 72% di curriculum prima di un dipendente HR li legge. scanner CV sono in genere formate sui successi aziendali del passato, il che significa che lo faranno pregiudizi società Eredita.

alt Text

In un esperimento ben noto, i reclutatori selezionati riprende con nomi “bianco-sondaggio”. Con la formazione di un algoritmo su quel set di dati, ha imparato a filtrare automaticamente tutti i nomi “nero-sondaggio”. L’algoritmo selezionato i candidati su criteri puramente soggettivi, perpetuare la discriminazione razziale. Questa stessa forma di discriminazione automatizzata impedisce alle persone di colore di ottenere l’accesso al lavoro, l’alloggio, anche i prestiti agli studenti. Automazione significa creeremo punti ciechi e pregiudizi razzisti nei nostri algoritmi cosiddetti oggettivi.

formazione improprio e deleghe
Gli algoritmi sono addestrati con set di dati e proxy. Gli ingressi possono essere prevenuto, così anche gli algoritmi diventerà di parte. Gli sviluppatori che gli algoritmi dei treni e dei test troppo spesso utilizzano insiemi di dati con scarsa rappresentanza delle minoranze. In realtà, un insieme di dati comunemente usato offre contenuti con 74% facce maschi e 83% facce bianche. Se il materiale di base è prevalentemente bianco, i risultati saranno troppo.

Questo pone un problema significativo per gli algoritmi utilizzati nella predittori demografici automatici e software di riconoscimento facciale. Dal software di riconoscimento facciale non è addestrato su una vasta gamma di volti di minoranza, è misidentifies minoranze sulla base di una ristretta gamma di funzionalità. In un 2015 scandalo, la tecnologia di riconoscimento facciale di Google etichettato due utenti neri americani come gorilla a causa di ingressi di parte e di formazione incompleta.

In un altro esempio dal 2018, uno strumento di riconoscimento facciale utilizzata da forze dell’ordine erroneamente identificato il 35% delle donne dalla pelle scura come gli uomini. Il tasso di errore per gli uomini dalla pelle chiara è stato solo dello 0,8%. Nel momento in cui la brutalità della polizia negli Stati Uniti è a un picco, possiamo vedere come questi dati prevenuto potrebbe portare a disastrose, risultati anche violenti.

alt Text

Proxy generano anche polarizzazione. Un proxy, in poche parole, è una supposizione sulle nostre variabili che usiamo per ottenere particolari risultati. BMI, per esempio, è un proxy per l’etichetta se qualcuno è “sano” o “non sano”. Partiamo dal presupposto che il BMI equipara la salute, in modo da classificare gli organi in base a tale sistema, anche se il concetto di indice di massa corporea è ampiamente stato smascherato. Se assumiamo un proxy è accurata, assumiamo i risultati sono pure. Questo accade in apprendimento automatico.

Uno studio 2019 ha rivelato che un operatore sanitario ML algoritmo ha ridotto il numero dei pazienti di razza nera individuati per la cura supplementare della metà. Infatti, il punteggio di rischio per ogni dato livello di salute è stata maggiore per i pazienti bianchi. Dal momento che l’algoritmo è stato addestrato sul proxy delle spese sanitarie, si presume che i costi sanitari servire come indicatore per esigenze di salute. Tuttavia, i pazienti neri spendono meno per l’assistenza sanitaria per una serie di ragioni sistemiche e sociali razzializzati.

Senza approfondimento, i risultati potrebbero hanno portato alla allocazione delle risorse in più solo per i pazienti bianchi. Quando l’algoritmo è stato modificato per includere i marcatori più accurate del rischio per la salute, i numeri spostati: nero pazienti di cui cura i programmi è aumentato dal 18% al 47% in tutti i casi. Un esempio dopo dimostra che machine learning formazione e deleghe, anche quelli creati da sviluppatori di buone intenzioni, può portare a risultati dannosi, imprevisti che spesso discriminare le minoranze.

AI polarizzazione è polarizzazione umana
Gli algoritmi non sono veramente neutrali. L’idea che la matematica e la scienza sono puramente oggettivo è falso. In realtà, le scoperte scientifiche nel corso della storia, come la frenologia e anche l’evoluzione, sono stati utilizzati per giustificare conclusioni razziste. Gli algoritmi sono le nostre opinioni scritte nel codice. Dal momento che gli algoritmi sono progettati, realizzati, e formati da scienziati di dati, la gente come voi e me, tecnologie per l’apprendimento della macchina involontariamente inerenti pregiudizi umani Questo significa che le nostre macchine sono in pericolo di ereditare eventuali pregiudizi che portiamo in tavola.

TheMummichogblog è un partecipante al Amazon Services LLC Associates programma, un programma di affiliazione pubblicitario progettato per fornire un mezzo per siti per guadagnare tariffe pubblicitarie con la pubblicità e il link al amazon.com. Amazon, il logo di Amazon, AmazonSupply, e il logo AmazonSupply sono marchi di Amazon.com, Inc. o delle sue affiliate. Amazon e il logo di Amazon sono marchi di Amazon.com, Inc., o delle sue affiliate.