Categories
Uncategorized

Capire pregiudizi razziali in algoritmi di apprendimento automatico

TheMummichogblog è un partecipante al Amazon Services LLC Associates programma, un programma di affiliazione pubblicitario progettato per fornire un mezzo per siti per guadagnare tariffe pubblicitarie con la pubblicità e il link al amazon.com. Amazon, il logo di Amazon, AmazonSupply, e il logo AmazonSupply sono marchi di Amazon.com, Inc. o delle sue affiliate.

Capire pregiudizi razziali in algoritmi di apprendimento automatico

Bias si manifesta ovunque nel nostro mondo nonostante i nostri sforzi per evitarlo. pregiudizio implicito si riferisce agli atteggiamenti, credenze e stereotipi che abbiamo su di gruppi di persone. Pregiudizi impatto come trattiamo e rispondere ad altri, anche quando è involontario.

--------------------------------------------------------------------------------------------------



Viene la superbia, verrà anche l'obbrobrio, mentre la saggezza è presso gli umili.


Subscribe By E-mail:

Enter your email address:

Delivered by FeedBurner



----------------------------------------------------------------------------------------------

pregiudizio implicito è anche diffusa nel settore della tecnologia, non solo quando si tratta di pratiche di assunzione, ma anche nei prodotti e tecnologie che gli sviluppatori creano buone intenzioni. In particolare, i ricercatori identificano machine learning e l’intelligenza artificiale come le tecnologie che soffrono di pregiudizi razziali impliciti. Se lo sviluppo del software è veramente “mangiando il mondo”, quelli di noi nel settore deve occuparsi di questi risultati e il lavoro di creare un mondo migliore.

Quindi, come si fa di apprendimento automatico e AI soffrono di pregiudizi razziali? E ancora più importante, che cosa possiamo fare per combatterla? Oggi andrà oltre quanto segue:

pregiudizi razziali nel machine learning e AI
Lotta polarizzazione razziale in tecnologie ML
Avvolgendo e risorse

pregiudizi razziali nel machine learning e l’intelligenza artificiale
Macchina di apprendimento algoritmi per la ricezione ingressi, organizzare i dati, e prevedere uscite entro intervalli predeterminati e modelli. Algoritmi può sembrare “oggettivamente” processi matematici, ma questo è lontano dalla verità. polarizzazione razziale penetra algoritmi in diversi modi sottili e non così sottili, portando a risultati discriminatori e risultati. Diamo uno sguardo più profondo.

Il pericolo di automazione
Algoritmi possono ottenere i risultati desiderati per le ragioni sbagliate. Automatizzando un algoritmo, si trova spesso modelli che non avreste potuto prevedere. La leggenda di questo esperimento serbatoio di rete neurale dimostra questa limitazione di algoritmi.

pose di automazione pericoli quando i dati è imperfetta, disordinato, o di parte. Un algoritmo può attaccarsi dati non importanti e rafforzare involontarie pregiudizi impliciti. Ad esempio, scienziato dati Daphne Koller spiegato che un algoritmo concepito per riconoscere fratture da raggi X ha causato invece riconoscere quale ospedale generato l’immagine. Questo algoritmo ora incorpora dati e distorce irrilevanti risultati. Immaginate se un algoritmo è esposto a pregiudizi razziali insiemi di dati: si continuerà a incorporare tali pregiudizi, anche in un contesto completamente diverso.

algoritmi Assunzione cadono soprattutto vittima di pregiudizi razziali a causa di automazione. responsabili delle risorse umane non possono guadare attraverso pool di candidati, in modo da algoritmi Resume-scansione di estirpare circa il 72% di curriculum prima di un dipendente HR li legge. scanner CV sono in genere formate sui successi aziendali del passato, il che significa che lo faranno pregiudizi società Eredita.

alt Text

In un esperimento ben noto, i reclutatori selezionati riprende con nomi “bianco-sondaggio”. Con la formazione di un algoritmo su quel set di dati, ha imparato a filtrare automaticamente tutti i nomi “nero-sondaggio”. L’algoritmo selezionato i candidati su criteri puramente soggettivi, perpetuare la discriminazione razziale. Questa stessa forma di discriminazione automatizzata impedisce alle persone di colore di ottenere l’accesso al lavoro, l’alloggio, anche i prestiti agli studenti. Automazione significa creeremo punti ciechi e pregiudizi razzisti nei nostri algoritmi cosiddetti oggettivi.

formazione improprio e deleghe
Gli algoritmi sono addestrati con set di dati e proxy. Gli ingressi possono essere prevenuto, così anche gli algoritmi diventerà di parte. Gli sviluppatori che gli algoritmi dei treni e dei test troppo spesso utilizzano insiemi di dati con scarsa rappresentanza delle minoranze. In realtà, un insieme di dati comunemente usato offre contenuti con 74% facce maschi e 83% facce bianche. Se il materiale di base è prevalentemente bianco, i risultati saranno troppo.

Questo pone un problema significativo per gli algoritmi utilizzati nella predittori demografici automatici e software di riconoscimento facciale. Dal software di riconoscimento facciale non è addestrato su una vasta gamma di volti di minoranza, è misidentifies minoranze sulla base di una ristretta gamma di funzionalità. In un 2015 scandalo, la tecnologia di riconoscimento facciale di Google etichettato due utenti neri americani come gorilla a causa di ingressi di parte e di formazione incompleta.

In un altro esempio dal 2018, uno strumento di riconoscimento facciale utilizzata da forze dell’ordine erroneamente identificato il 35% delle donne dalla pelle scura come gli uomini. Il tasso di errore per gli uomini dalla pelle chiara è stato solo dello 0,8%. Nel momento in cui la brutalità della polizia negli Stati Uniti è a un picco, possiamo vedere come questi dati prevenuto potrebbe portare a disastrose, risultati anche violenti.

alt Text

Proxy generano anche polarizzazione. Un proxy, in poche parole, è una supposizione sulle nostre variabili che usiamo per ottenere particolari risultati. BMI, per esempio, è un proxy per l’etichetta se qualcuno è “sano” onon sano”. Partiamo dal presupposto che il BMI equipara la salute, in modo da classificare gli organi in base a tale sistema, anche se il concetto di indice di massa corporea è ampiamente stato smascherato. Se assumiamo un proxy è accurata, assumiamo i risultati sono pure. Questo accade in apprendimento automatico.

Uno studio 2019 ha rivelato che un operatore sanitario ML algoritmo ha ridotto il numero dei pazienti di razza nera individuati per la cura supplementare della metà. Infatti, il punteggio di rischio per ogni dato livello di salute è stata maggiore per i pazienti bianchi. Dal momento che l’algoritmo è stato addestrato sul proxy delle spese sanitarie, si presume che i costi sanitari servire come indicatore per esigenze di salute. Tuttavia, i pazienti neri spendono meno per l’assistenza sanitaria per una serie di ragioni sistemiche e sociali razzializzati.

Senza approfondimento, i risultati potrebbero hanno portato alla allocazione delle risorse in più solo per i pazienti bianchi. Quando l’algoritmo è stato modificato per includere i marcatori più accurate del rischio per la salute, i numeri spostati: nero pazienti di cui cura i programmi è aumentato dal 18% al 47% in tutti i casi. Un esempio dopo dimostra che machine learning formazione e deleghe, anche quelli creati da sviluppatori di buone intenzioni, può portare a risultati dannosi, imprevisti che spesso discriminare le minoranze.

AI polarizzazione è polarizzazione umana
Gli algoritmi non sono veramente neutrali. L’idea che la matematica e la scienza sono puramente oggettivo è falso. In realtà, le scoperte scientifiche nel corso della storia, come la frenologia e anche l’evoluzione, sono stati utilizzati per giustificare conclusioni razziste. Gli algoritmi sono le nostre opinioni scritte nel codice. Dal momento che gli algoritmi sono progettati, realizzati, e formati da scienziati di dati, la gente come voi e me, tecnologie per l’apprendimento della macchina involontariamente inerenti pregiudizi umani Questo significa che le nostre macchine sono in pericolo di ereditare eventuali pregiudizi che portiamo in tavola.

alt Text

Fonte: rivista TIME su algoritmi di ricerca di Google

Se non siete convinti, leggere su di Microsoft Tay, un chatbot AI che si diffondono messaggi razzisti preoccupante dopo essere stato insegnato dagli utenti in solo una questione di ore. AI polarizzazione è polarizzazione umano. Noi siamo i maestri. Non dovrebbe sorprendere che la rappresentazione è un fattore che contribuisce a questo problema. La maggior parte dei ricercatori di intelligenza artificiale sono i maschi che provengono da bianchi demografia razziale, posizioni socio-economiche simili, anche le università simili.

Studi dal 2019 trovano che l’80% dei professori di intelligenza artificiale sono uomini, e la gente di colore restano sottorappresentate nelle principali aziende tecnologiche. In una conferenza 2016 sul AI, Timnit Gebru, un ricercatore di Google AI, ha riferito c’erano solo sei persone di colore su 8.500 partecipanti. Questo significa crisi diversità che pochissime persone di colore sono coinvolti nel machine learning decisionale o di design. Se innovatori sono omogenei, i risultati e le innovazioni saranno troppo, e continueremo ad ignorare una più ampia gamma di esperienze umane.

Lotta polarizzazione razziale in tecnologie ML
Il problema è reale e apparente. Quindi, come possiamo combattiamo pregiudizi razziali nel machine learning? Cosa possiamo fare per impedire attivamente pregiudizio implicito di infettare le nostre tecnologie? Diamo un’occhiata ad alcuni suggerimenti e pratiche. Raccomando anche guardando la lista Recource per altre soluzioni pratiche e la ricerca.

Treno su dati precisi e modelli di apprendimento
In poche parole, bisogna educare gli algoritmi sui dati “migliori”. dati migliori può significare un sacco di cose diverse. La formazione dei dati dovrebbe assomigliare i dati che l’algoritmo utilizzerà giorno per giorno. I dati che ha un sacco di “spazzatura” in esso aumenta i potenziali errori del vostro algoritmo. Evitare di avere modelli di formazione diversi per i diversi gruppi di persone, soprattutto se i dati sono più limitati per un gruppo di minoranza.

Non è possibile rimuovere tutti i pregiudizi da insiemi di dati pre-esistenti, soprattutto perché non siamo in grado di sapere che cosa spinge un algoritmo sviluppato da solo. Invece, dobbiamo continuamente ri-treno algoritmi sui dati di distribuzioni del mondo reale. Abbiamo anche bisogno di scegliere il modello di apprendimento a destra. Ci sono benefici per l’apprendimento supervisionato e non supervisionato, e devono essere prese in considerazione a seconda del programma in questione.

Dati Human-generata è una grande fonte di bias. Esso non può essere dannoso intento, ma i programmi di intelligenza artificiale rifletterà quei pregiudizi di nuovo a noi. Quindi, abbiamo bisogno di essere prudenti e umili, quando la formazione algoritmi. algoritmi semplicemente alimentano più dati “diversi” non possono spiegare i pregiudizi impliciti all’interno di tale dati. Dobbiamo pensare in modo critico sui potenziali errori di dati e girare a quelli più istruiti sulla materia per il feedback e l’istruzione. Questo ci offre l’opportunità di pregiudizi indirizzo, non solo nella nostra tecnologia, ma in noi stessi.

alt Text

Essere intenzionale durante la fase di progettazione
La chiave per prevenire pregiudizio razziale si verifica durante la fase di progettazione. Molte aziende considerare i costi abbassati per essere l’obiettivo finale per la progettazione algoritmica, ma questo risultato ha molti punti ciechi. I dati in sé non può rappresentare storie di oppressione razziale e fattori sociali complessi quando le cose come punteggi di credito sono utilizzati come proxy. Educare te stesso su queste storie prima di progettare un algoritmo e chiedere ad esperti per l’ingresso prima di impegnarsi in un particolare design.

Dobbiamo anche algoritmi di codice con una maggiore sensibilità per Bais. Potremmo non essere in grado di “curare” pregiudizi, ma siamo in grado di agire preventivamente utilizzando controlli ed equilibri. L’avvocato per i sistemi e le osservazioni di controllo, come casuali controlli a campione sul software di machine learning, un’ampia revisione umana sui risultati, e recensioni di manuali di correlazione. Sappiamo che gli algoritmi possono creare correlazioni non intenzionali, come ad esempio supponendo che il nome di una persona è un indicatore del potenziale occupazionale, quindi dobbiamo essere vigili e indagare il motivo per cui i nostri algoritmi stanno facendo le loro decisioni.

Advocate per l’equità nel campo
Sembra abbastanza semplice: la diversità nel campo della scienza dei dati potrebbe impedire tecnologie da perpetuare pregiudizi. Il 2020 indagine StackOverflow rivela che il 68,3% degli sviluppatori sono di colore bianco. Questo è un problema. Dobbiamo cominciare con l’assunzione di più persone di colore nei campi ML e posizioni di leadership, senza creazione di token le proprie esperienze. dirigenti d’azienda bianchi non devono aspettarsi i candidati ad agire, parlare o pensare come loro. L’intero punto cruciale della diversità è la varietà di prospettive che le persone portano con sé, tra cui diversi contesti educativi.

Tuttavia, le pratiche di assunzione non cambiare tutto se la cultura profondamente radicata del campo tecnico rimane lo stesso. Le norme, i valori e il linguaggio utilizzati per educare o reclutare anche la materia. Molte norme nel settore tecnologico sono di esclusione per le minoranze. Ad esempio, i termini “ragazzi tecnologia” o “codifica ninja” donne dissuadere e le altre minoranze da applicare a lavori di tecnologia. Abbiamo bisogno di strategie di lancio che cambiano la cultura e incoraggiare le minoranze sottorappresentate per identificare come sviluppatori. Anche solo chiamando i colleghi per la lingua di parte è un buon posto per iniziare.

Abbiamo anche bisogno di aumentare aumentare l’accesso alle risorse. Ci sono molti miti là fuori su machine learning, vale a dire che è necessario un dottorato di ricerca da una prestigiosa università o che gli esperti di intelligenza artificiale sono rari. Abbiamo bisogno di cambiare la narrazione di distanza dalla nozione che le tecnologie ML sono riservate a prestigiosi, gli scienziati lo più bianchi. Questi miti impediscono individui di talento dal sentirsi compreso, alla ricerca di posti di lavoro, o anche solo per iniziare. Trattare questi strumenti con le braccia aperte ed equità è un buon posto per iniziare.

alt Text

Cambiare il modo in cui educhiamo sulla scienza e la matematica
Come ho detto prima, la scienza e la matematica non sono necessariamente oggettiva. Se etichettiamo dati come “oggettivo” odi fatto”, siamo meno inclini a pensare in modo critico sui fattori soggettivi e pregiudizi che limitano e farci del male. La scienza è insegnata come se esso viene “dal nulla”, come se non ci sono pregiudizi personali. Ma la scienza e la matematica non sono esenti da fattori sociali, storici, politici, o economici. Scienza accade tra il “disordine” e la complessità della vita umana. Cerchiamo di non ignorare il mondo nel perseguimento di l’illusione di obiettività.

Parte di questo si riduce a rivisitazione educazione tecnologia. Noi non cambiare la cultura semplicemente dipendenti di reclutamento o studenti che hanno già raggiunto le ultime fasi della pipeline educativo tradizionale. Invece, dobbiamo ripensare il nostro approccio, insegnare e segregare STEM + M da altri campi. Un cambiamento fondamentale potrebbe essere quello di incoraggiare l’educazione interdisciplinare modo che gli studenti imparano STAMINALI competenze tecniche al fianco di arte, storia, letteratura, e altro ancora. Dobbiamo anche raccontare di nuovo la storia della tecnologia per lift-up i contributi spesso dimenticati dei gruppi di minoranza. Queste innovazioni e le esperienze non sono una sottosezione della storia tecnologia. Essi sono la storia della tecnologia.

Avvolgendo
Algoritmi possono essere terribili strumenti, e possono essere uno strumento meraviglioso. Ciò che conta è il modo in cui creiamo loro, che includiamo nel processo, e quanto siamo disposti a spostare le nostre prospettive culturali. In un momento di divisione tra il nostro mondo, si sente spesso dire che dobbiamo lavorare per essere anti-razzista. Facciamo tutti consideriamo come l’apprendimento della macchina e gli algoritmi devono essere concepiti come strumenti antirazzisti pure. Proprio come i nostri pregiudizi personali sono nelle nostre mani, quindi è il potere di cambiarle.

Continuare a educare se stessi e sostenere per il cambiamento sul posto di lavoro. Scopri le risorse qui sotto per più su questo argomento.

Fonti e ulteriore lettura
Stanford Business on razziale Bias e Big Data

La Rete neurale serbatoio Urban Legend

New York Times il AI e pregiudizi razziali

Del mercato del lavoro Discriminazione e ML Algoritmi

Stima demografico da immagini di volti

AI Diversità e riconoscimento facciale

Cambiare la cultura di sottorappresentato gruppi in STEM

The Guardian il Policing e riconoscimento facciale

dev.to/educative/understanding-racial-bias-in-machine-learning-algorithms-4cij

Amazon e il logo di Amazon sono marchi di Amazon.com, Inc., o delle sue affiliate.