Mens udtrykket 'Four Horsemen of the Infocalypse' længe har været brugt på internettet til at henvise til kriminelle som narkohandlere, hvidvaskere, pædofile og terrorister, blev udtrykket 'Infocalypse' relativt nylig bragt til mainstream af MIT grad Aviv Ovadya der i øjeblikket arbejder som Chief Technologist ved Center for Social Media Responsibility (UMSI). I 2016, på højden af den falske nyhedskrise, havde Ovadya udtrykt bekymring over for teknologer i Silicon Valley om spredning af misinformation og propaganda forklædt som reelle nyheder i en præsentation med titlen 'Infocalypse'.
Ifølge hans præsentation tjener internetplatforme som Google, Facebook og Twitter deres indtægter, alt sammen med at belønne klik, delinger og seere i stedet for at prioritere kvaliteten af informationen. Det hævdede, at det ville blive et reelt problem hurtigere end senere, i betragtning af hvor let det er blevet at poste, hvad nogen har lyst til uden noget filter. Da store internetfirmaer stort set ignorerer hans bekymringer, beskrev Ovadya situationen som “Bilpleje ude af kontrol” som alle bare ignorerede.
Mens hans forudsigelser nu har vist sig at være skræmmende nøjagtige, er der flere dårlige nyheder for dem, der er bekymrede for sløringen af linjerne mellem sandheden og den politisk motiverede propaganda. Ifølge ham vil AI blive udbredt i løbet af de næste par årtier til misinformationskampagner og propaganda. For at stoppe den dystopiske fremtid arbejder Ovadya sammen med en gruppe forskere og akademikere for at se, hvad der kan gøres for at forhindre en informationsapokalypse.
Et sådant aspekt er deepfakes eller AI-genererede videoer af berømtheder morphed på andre videoer, stort set porno. Reddit forbød for nylig mindst to sådanne underreddits kaldet 'r / deepfakes' og 'r / deepfakesNSFW', som allerede havde tusinder af medlemmer og distribuerede falske pornografiske videoer af forskellige berømtheder som Taylor Swift, Meghan Markle og lignende. Andre platforme, som Discord, Gyfcat, Pornhub og Twitter, har i mellemtiden også forbudt ikke-samtykkende ansigtsudvekslingsporno på deres platforme.
Ud over krænkelse af individuelt privatliv siger Ovadya, at sådanne videoer kan have en destabiliserende effekt på verden, hvis de bruges til politiske gevinster. De kan "skabe troen på, at en begivenhed har fundet sted" for at påvirke geopolitik og økonomi. Alt hvad du behøver er at fodre AI med så mange optagelser af en målpolitiker som muligt og få dem til at spille på en anden video, der siger potentielt skadelige ting.
Det eneste håb er imidlertid, at folk endelig indrømmer, at de tog fejl for at lukke truslen fra falske nyheder for to år siden. Ifølge Ovadya, ”I starten var det virkelig dyster - få lyttede. Men de sidste par måneder har været rigtig lovende. Nogle af kontrollerne begynder at falde på plads ”. Selvom det helt sikkert er positivt, at teknologer søger at løse et problem, der forventes at blive værre i de kommende år, vil det være interessant at se, hvor godt de vil være forberedt på den kommende informationskrig, når vi endelig får det værste tilfælde , givet det, “Mange advarselsskilte er allerede sket”, ifølge Ovadya.