Funktionerne for kunstig intelligens udvides eksponentielt, og AI bliver nu brugt i brancher fra reklame til medicinsk forskning. Brugen af ​​AI i mere følsomme områder såsom ansigtsgenkendelsessoftware, ansættelsesalgoritmer og sundhedsudbuddet har udløst debatten om bias og retfærdighed.

Bias er en velundersøgt facet af menneskelig psykologi. Forskning afslører regelmæssigt vores ubevidste præferencer og fordomme, og nu ser vi AI afspejle nogle af disse fordomme i deres algoritmer.

Så hvordan bliver kunstig intelligens partisk? Og hvorfor betyder dette noget?

Hvordan bliver AI partisk?

Af hensyn til enkelheden henviser vi til i denne artikel maskinlæring og dyb læring algoritmer som AI-algoritmer eller systemer.

Forskere og udviklere kan introducere bias i AI-systemer på to måder.

For det første kan forskeres kognitive forstyrrelser ved et uheld indlejres i maskinlæringsalgoritmer. Kognitive fordomme er ubevidste menneskelige opfattelser, der kan påvirke, hvordan folk træffer beslutninger. Dette bliver et væsentligt problem, når forspændingerne vedrører mennesker eller grupper af mennesker og kan skade disse mennesker.

instagram viewer

Disse forstyrrelser kan introduceres direkte men ved et uheld, ellers kan forskere træne AI på datasæt, der selv var påvirket af bias. For eksempel kunne en ansigtsgenkendelses-AI trænes ved hjælp af et datasæt, der kun indeholder lyshårede ansigter. I dette tilfælde vil AI fungere bedre, når det drejer sig om lyshårede ansigter end mørkt. Denne form for AI-bias er kendt som en negativ arv.

For det andet kan der opstå bias, når AI trænes i ufuldstændige datasæt. For eksempel, hvis en AI er uddannet i et datasæt, der kun inkluderer dataloger, repræsenterer det ikke hele befolkningen. Dette fører til algoritmer, der ikke leverer nøjagtige forudsigelser.

Eksempler på virkelige AI-bias

Der har været flere nylige, velrapporterede eksempler på AI-bias, der illustrerer faren at lade disse forspændinger krybe ind.

USA-baseret sundhedsprioritering

I 2019 blev en maskinlæringsalgoritme designet til at hjælpe hospitaler og forsikringsselskaber med at afgøre, hvilke patienter der ville have størst gavn af visse sundhedsprogrammer. Baseret på en database på omkring 200 millioner mennesker favoriserede algoritmen hvide patienter frem for sorte patienter.

Det blev bestemt, at dette skyldtes en fejlagtig antagelse i algoritmen om forskellige sundhedsudgifter mellem sorte og hvide mennesker, og bias blev til sidst reduceret med 80%.

COMPAS

Correctional Offender Management Profiling for Alternative Sanctions, eller COMPAS, var en AI-algoritme designet til at forudsige, om bestemte mennesker ville genovertræde. Algoritmen producerede dobbelt så falske positive for sorte lovovertrædere sammenlignet med hvide lovovertrædere. I dette tilfælde var både datasættet og modellen fejlbehæftet og indførte kraftig bias.

Amazon

Den ansættelsesalgoritme, som Amazon bruger til at bestemme ansøgernes egnethed, blev fundet i 2015 til at favorisere mænd frem for kvinder stærkt. Dette skyldtes, at datasættet næsten udelukkende indeholdt mænd og deres genoptagelser, da de fleste Amazon-medarbejdere er mænd.

Sådan stoppes AI-bias

AI revolutionerer allerede den måde, vi arbejder på tværs af hver branche. At have forudindtagede systemer, der styrer følsomme beslutningsprocesser, er mindre end ønskeligt. I bedste fald reducerer det kvaliteten af ​​AI-baseret forskning. I værste fald skader det aktivt mindretalsgrupper.

Der er eksempler på, at AI-algoritmer allerede er vant til hjælpe menneskelig beslutningstagning ved at reducere virkningen af ​​menneskelige kognitive forstyrrelser. På grund af hvordan maskinlæringsalgoritmer trænes, kan de være mere nøjagtige og mindre partiske end mennesker i samme position, hvilket resulterer i en mere retfærdig beslutningstagning.

Men som vi har vist, er det modsatte også tilfældet. Risikoen ved at lade menneskelige forstyrrelser koges ind og forstærkes af AI kan opveje nogle af de mulige fordele.

I sidste ende, AI er kun så god som de data, den er trænet med. Udvikling af upartiske algoritmer kræver omfattende og grundig præ-analyse af datasæt, hvilket sikrer, at data er fri for implicitte bias. Dette er sværere, end det lyder, fordi så mange af vores forstyrrelser er ubevidste og ofte svære at identificere.

Udfordringer i forebyggelse af AI-bias

Ved udvikling af AI-systemer skal hvert trin vurderes for dets potentiale til at integrere bias i algoritmen. En af de vigtigste faktorer i forebyggelse af bias er at sikre, at retfærdighed snarere end bias bliver "kogt ind" i algoritmen.

Definition af retfærdighed

Retfærdighed er et begreb, der er relativt vanskeligt at definere. Faktisk er det en debat, der aldrig er nået til enighed. For at gøre tingene endnu vanskeligere, når man udvikler AI-systemer, skal begrebet fairness defineres matematisk.

For eksempel, hvad angår Amazon-ansættelsesalgoritmen, ville retfærdighed se ud som en perfekt 50/50 opdeling af mandlige til kvindelige arbejdere? Eller en anden andel?

Bestemmelse af funktionen

Det første skridt i AI-udvikling er at bestemme nøjagtigt, hvad den skal opnå. Hvis man bruger COMPAS-eksemplet, forudsiger algoritmen sandsynligheden for, at kriminelle genovertræder. Derefter skal klare dataindgange bestemmes for at algoritmen kan fungere. Dette kan kræve, at der defineres vigtige variabler, såsom antallet af tidligere lovovertrædelser eller typen af ​​begåede overtrædelser.

Definition af disse variabler korrekt er et vanskeligt, men vigtigt skridt til at sikre algoritmens retfærdighed.

Oprettelse af datasættet

Som vi har dækket, er en væsentlig årsag til AI-bias ufuldstændige, ikke-repræsentative eller partiske data. Ligesom tilfældet med ansigtsgenkendelses-AI skal inputdataene kontrolleres grundigt for bias, hensigtsmæssighed og fuldstændighed inden maskinindlæringsprocessen.

Valg af attributter

I algoritmerne kan visse attributter overvejes eller ej. Attributter kan omfatte køn, race eller uddannelse - dybest set alt, hvad der kan være vigtigt for algoritmens opgave. Afhængig af hvilke attributter der vælges, kan algoritmens forudsigelige nøjagtighed og bias blive hårdt påvirket. Problemet er, at det er meget vanskeligt at måle, hvor forudindtaget en algoritme er.

AI Bias er ikke her for at blive

AI-bias opstår, når algoritmer foretager forudindtagede eller unøjagtige forudsigelser på grund af forudindtagne input. Det sker, når forudindtagne eller ufuldstændige data reflekteres eller forstærkes under udviklingen og træningen af ​​algoritmen.

Den gode nyhed er, at med finansiering til AI-forskning, der multipliceres, vil vi sandsynligvis se nye metoder til at reducere og endda eliminere AI-bias.

E-mail
5 almindelige myter om kunstig intelligens, der ikke er sandt

Lad os sætte rekorden direkte på nogle almindelige usandheder omkring AI.

Læs Næste

Relaterede emner
  • Teknologi forklaret
  • Kunstig intelligens
  • Maskinelæring
Om forfatteren
Jake Harfield (6 artikler udgivet)

Jake Harfield er en freelance forfatter med base i Perth, Australien. Når han ikke skriver, er han normalt ude i bushen og fotograferer det lokale dyreliv. Du kan besøge ham på www.jakeharfield.com

Mere fra Jake Harfield

Abonner på vores nyhedsbrev

Deltag i vores nyhedsbrev for tekniske tip, anmeldelser, gratis e-bøger og eksklusive tilbud!

Et trin mere !!!

Bekræft venligst din e-mail-adresse i den e-mail, vi lige har sendt dig.

.