Maar het bedrijf zegt dat deepfakes momenteel geen ‘groot probleem’ zijn
Facebook heeft de resultaten aangekondigd van zijn eerste Deepfake Detection Challenge, een open wedstrijd om algoritmen te vinden die door AI gemanipuleerde video’s kunnen herkennen. De resultaten, hoewel veelbelovend, laten zien dat er nog veel werk moet worden verzet voordat geautomatiseerde systemen deepfake-inhoud betrouwbaar kunnen herkennen, waarbij onderzoekers het probleem beschrijven als een ‘onopgelost probleem’.
Facebook zegt dat het winnende algoritme in de wedstrijd ‘uitdagende voorbeelden uit de echte wereld‘ van deepfakes kon herkennen met een gemiddelde nauwkeurigheid van 65,18 procent. Dat is niet slecht, maar het is niet het soort hit-rate dat je zou willen voor elk geautomatiseerd systeem.
Deepfakes hebben bewezen een overdreven bedreiging te zijn voor sociale media. Hoewel de technologie veel handwringen veroorzaakte over de uitholling van betrouwbaar videobewijs, zijn de politieke effecten van deepfakes tot dusver minimaal geweest. In plaats daarvan was de meer directe schade het creëren van niet-consensuele pornografie, een categorie van inhoud die gemakkelijker door sociale-mediaplatforms kan worden geïdentificeerd en verwijderd.
Mike Schroepfer, Chief Technology Officer van Facebook, vertelde journalisten in een persbericht dat hij blij was met de resultaten van de uitdaging, die volgens hem een benchmark voor onderzoekers zou vormen en hun werk in de toekomst zou begeleiden. ‘Eerlijk gezegd is de wedstrijd meer een succes geweest dan ik ooit had kunnen hopen’, zei hij.
Zo’n 2.114 deelnemers hebben meer dan 35.000 detectiealgoritmen ingediend voor de wedstrijd. Ze werden getest op hun vermogen om deepfake-video’s te identificeren uit een dataset van ongeveer 100.000 korte clips. Facebook huurde meer dan 3.000 acteurs in om deze clips te maken, die werden opgenomen tijdens gesprekken in naturalistische omgevingen. Sommige clips zijn gewijzigd met behulp van AI doordat de gezichten van andere acteurs op hun video’s zijn geplakt.
Onderzoekers kregen toegang tot deze gegevens om hun algoritmen te trainen, en wanneer ze op dit materiaal werden getest, produceerden ze een nauwkeurigheid van 82,56 procent. Toen dezelfde algoritmen echter werden getest tegen een ‘black box’-dataset bestaande uit ongeziene beelden, presteerden ze veel slechter, met het best scorende model met een nauwkeurigheid van 65,18 procent. Dit laat zien dat het detecteren van deepfakes in het wild een zeer uitdagend probleem is.
Schroepfer zei dat Facebook momenteel zijn eigen deepfake-detectietechnologie ontwikkelt, los van deze concurrentie. “We hebben deepfake-detectietechnologie in productie en we zullen deze verbeteren op basis van deze context”, zei hij. Het bedrijf kondigde eerder dit jaar aan dat het deepfakes verbood, maar critici wezen erop dat de veel grotere bedreiging voor desinformatie kwam van zogenaamde “ondiepe fakes” – video’s die met traditionele middelen werden bewerkt.
De winnende algoritmen van deze uitdaging zullen worden vrijgegeven als open source-code om andere onderzoekers te helpen, maar Facebook zei dat het zijn eigen detectietechnologie geheim zou houden om te voorkomen dat deze reverse-engineering zou ondergaan.