Teknologier

'For langsomt' i ​​forebyggelsen af ​​hadetale, der førte til Myanmar Vold Facebook

'For langsomt' i ​​forebyggelsen af ​​hadetale, der førte til Myanmar Vold Facebook

Den etniske vold i Myanmar er forfærdelig, og det var "for langsomt" for at forhindre spredning af misinformation og hadefuld tale på dets platform, anerkendte Facebook torsdag.

Indrømmelsen kom efter, at en Reuters-undersøgelse onsdag afslørede, at Facebook har kæmpet for at adressere hadeposter om mindretallet Rohingya, sagde den sociale mediekæmpe, at den hastighed, hvormed dårligt indhold rapporteres i burmesisk, hvad enten det er hadefuld tale eller misinformation, er lav.

Dette skyldes udfordringer med vores rapporteringsværktøjer, tekniske problemer med fontvisning og manglende kendskab til vores politikker. Vi investerer meget i kunstig intelligens, der proaktivt kan markere indlæg, der bryder vores regler,”Sara Su, produktchef hos Facebook, sagde i en erklæring.

Ifølge Facebook identificerede det i andet kvartal 2018 proaktivt omkring 52 procent af det indhold, det fjernede til hadefuld tale i Myanmar.

Dette er steget fra 13 procent i sidste kvartal af 2017 og er resultatet af de investeringer, vi har foretaget både i detektionsteknologi og mennesker, hvis kombination hjælper med at finde potentielt krænkende indhold og konti og markere dem til gennemgang,”Sagde Facebook.

Facebook sagde, at det proaktivt identificerede indlæg så sent som i sidste uge, der angav en trussel om troværdig vold i Myanmar.

Vi fjernede stillingerne og markerede dem til civilsamfundsgrupper for at sikre, at de var opmærksomme på potentiel vold,”Sagde blogindlægget.

I maj opfordrede en koalition af aktivister fra otte lande, herunder Indien og Myanmar, Facebook til at indføre en gennemsigtig og konsekvent tilgang til moderering.

Koalitionen krævede borgerrettigheder og politisk bias-revision af Facebooks rolle med hensyn til krænkelse af menneskerettighederne, spredning af misinformation og manipulation af demokratiske processer i deres respektive lande.

Udover Indien og Myanmar var de andre lande, som aktivisterne repræsenterede, Bangladesh, Sri Lanka, Vietnam, Filippinerne, Syrien og Etiopien.

Facebook sagde, at den fra juni havde over 60 Myanmar-sprogeksperter, der gennemgik indhold og vil have mindst 100 inden udgangen af ​​dette år.

”Men det er ikke nok at tilføje flere korrekturlæsere, fordi vi ikke kan stole på rapporter alene for at fange dårligt indhold. Ingeniører på tværs af virksomheden bygger AI-værktøjer, der hjælper os med at identificere voldelige indlæg, ”sagde den sociale mediegigant.

Ikke kun Myanmar, aktivister i Sri Lanka har hævdet, at manglen på lokale moderatorer - specielt moderatorer, der taler flydende det singalesiske sprog, der tales af landets buddhistiske flertal - havde tilladt hadetale løbe vild på platformen.

Facebook sagde, at det arbejder med et netværk af uafhængige organisationer for at identificere hader.

Vi fokuserer oprindeligt vores arbejde på lande, hvor falske nyheder har haft liv eller død konsekvenser. Disse inkluderer Sri Lanka, Indien, Cameroun og Den Centralafrikanske Republik samt Myanmar,”Sagde virksomheden.

6 fantastiske fakta, du aldrig vidste om Twitter
Så du tror du ved alt om Twitter? Jeg tvivler, og det gør også resultaterne af den forskning, der er udført af Edison Research, hvor mere end 1700 m...
At være den nye fyr på sociale medier
Hvis du er ligesom de fleste af os, har du ikke en universitetsgrad i "Sociale medier". Faktisk, hvis du gør det, var det sandsynligvis forældet omkri...