Ansigtsgenkendelsesteknologi er ikke længere en gimmick. Det bruges i stigende grad på flere fodgængerveje og viser ingen tegn på at blive langsommere. I dag, bortset fra at blive brugt til at låse op for dine smartphones, har ansigtsgenkendelse gjort det til alle kroge og kroge. Faktisk bruges teknologien af kinesiske politibetjente til at identificere mistænkte.
Ifølge ny forskning fra MIT's Media Lab ser det imidlertid ud til, at ansigtsgenkendelsesteknologi er genstand for fordomme baseret på køn og race. Joy Buolamwini, en forsker ved MIT Media Lab, byggede et datasæt på 1.270 ansigter. Derefter testede hun nøjagtigheden af tre ansigtsgenkendelsessystemer fra Microsoft, IBM og Megvii (et kinesisk firma). Overraskende viste resultatet unøjagtigheder i kønsidentifikation.
Da systemerne blev vist fotos af mænd med lysere hud, var det i stand til at identificere dem ret let. Imidlertid fejlagtigt identificerede systemet op til 12 procent af mørkhårede mænd; og op til 35 procent af hunnerne med mørkere hud.
"Samlet set blev mandlige forsøgspersoner mere nøjagtigt klassificeret end kvindelige forsøgspersoner, der replikerede tidligere fund (Ngan et al., 2015), og lettere forsøgspersoner blev mere nøjagtigt klassificeret end mørkere individer." - Joy Buolamwini
Til dette sagde IBM, at de støt havde forbedret sin ansigtsanalysesoftware og var "dybt engagerede" i "upartiske" og "gennemsigtige" tjenester. Microsoft sagde på den anden side, “Vi har allerede taget skridt til at forbedre nøjagtigheden af vores ansigtsgenkendelsesteknologi ”og at det investerede i forskning” for at genkende, forstå og fjerne bias.”Og til sidst svarede Megvii ikke.
Når det er sagt, er dette ikke første gang, at ansigtsgenkendelsesteknologi har vist sig at være unøjagtig. Tilbage i 2015 blev Google kaldt ud af en softwareingeniør, da Photos-appen identificerede sin sorte ven som "gorillaer."