Teknologier

Kriminalitetsforudsigende AI koster værre end mennesker i gentagen lovovertrædelsesstudie, og det er også racistisk

Kriminalitetsforudsigende AI koster værre end mennesker i gentagen lovovertrædelsesstudie, og det er også racistisk

Det 21. århundrede har været vidne til, at AI (kunstig intelligens) udfører opgaver, som om let at besejre mennesker ved skak eller hurtigt lære dem fremmedsprog.

En mere avanceret opgave for computeren ville være at forudsige en gerningsmands sandsynlighed for at begå en anden forbrydelse. Det er jobbet for et AI-system kaldet COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Men det viser sig, at værktøjet ikke er bedre end en gennemsnitlig fyr og også kan være racistisk. Nå, det er præcis, hvad et forskergruppe har opdaget efter grundig undersøgelse af AI-systemet, der er meget brugt af retlige institutioner.

Ifølge et forskningsoplæg, der blev offentliggjort af Science Advances, blev COMPAS stillet over for en gruppe menneskelige deltagere for at teste dets effektivitet og kontrollere, hvor godt det går mod de logiske forudsigelser fra en normal person. Maskinen og de menneskelige deltagere fik 1000 testbeskrivelser indeholdende alder, tidligere forbrydelser, køn osv. Af lovovertrædere, hvis sandsynlighed for gentagne forbrydelser skulle forudsiges.

Med betydeligt mindre information end COMPAS (kun 7 funktioner sammenlignet med COMPAS 137) er en lille skare af ikke-eksperter lige så nøjagtige som COMPAS til at forudsige tilbagevenden.

COMPAS fik en samlet nøjagtighed på 65,4% til at forudsige tilbagevenden (tendensen hos en dømt kriminel til at fornærme), hvilket er mindre end den samlede forudsigelsesnøjagtighed for menneskelige deltagere, der står på 67%.

Nu er det bare at tage et øjeblik og reflektere over i dit sind, at AI-systemet, der ikke klarer sig bedre end en gennemsnitlig person, blev brugt af domstole til at forudsige tilbagevenden.

Kommerciel software, der i vid udstrækning bruges til at forudsige tilbagefald, er ikke mere nøjagtig eller retfærdig end forudsigelserne fra mennesker med ringe eller ingen strafferetlig ekspertise, der reagerede på en online undersøgelse.

Endnu værre er det faktum, at systemet blev fundet lige så modtageligt for racefordomme som dets menneskelige kolleger, da de blev bedt om at forudsige sandsynligheden for tilbagevenden fra beskrivelser, der også indeholdt racemæssige oplysninger om lovovertrædere. Du bør ikke blive for overrasket der, da AI er kendt for at tage de mønstre, som dens menneskelige lærere vil programmere det til at lære.

Selvom begge sider ikke er drastisk korte med at opnå en acceptabel nøjagtighedsscore, rejser pointen med at bruge et AI-værktøj, der ikke er bedre end et gennemsnitligt menneske, mange spørgsmål.

Allen Paltrow Største fan af Apple
Allen Paltrow en stor æble-fan-dreng. Hvert år til Halloween var han en mac, og han gjorde en vane med at barbere Apple-logoet i hovedet for at fejre ...
Babuji er travlt med at give Kejriwal meget mere end 'Aashirwad' på Twitter
Så snart bekendtgørelsen blev offentliggjort om genvalg, der skal finde sted i Delhi, er der skabt en masse hullaballoo på sociale medier. Mens der e...
Sådan får du Pixel 3 Night Sight og Live Google-objektiv på enhver Android Pie-telefon
Jeg ved ikke om jer, men det, jeg ser mest frem til i en ny Pixel-telefon (inklusive Pixel 3), er altid kameraet. Ikke kun fordi de nye Pixel-telefone...