Hoe ontmasker je vervalste beelden?

Artificiële intelligentie wint aan terrein in het fake news-tijdperk.

Recent haalde het Amerikaanse mediabedrijf BuzzFeed een stunt uit. Via de faceswap-tool FakeApp en het softwareprogramma Adobe After Effects liet het de Amerikaanse ex-president Barack Obama zeggen dat hij de huidige president Trump een volslagen oetlul vindt. De video ziet er erg realistisch uit. Hij illustreert hoe artificiële intelligentie op spectaculaire wijze aan terrein kan winnen in het fake news-tijdperk.

In dit beeld zijn de zones met afwijkend gedrag in het paars aangeduid.

FakeApp is een populaire en vrij beschikbare tool gebaseerd op TensorFlow, een open source-AI-platform van Google. Dagelijks duiken er nieuwe komische FakeApp-filmpjes op waarin de acteur Nicolas Cage een andere acteur vervangt in een bekende film of serie. Hij werd al ‘gefakeappt’ op het hoofd van Sean Connery in James Bond en op dat van Stephen Dillane in Game of Thrones.

Om zulke filmpjes te maken, dien je een groot aantal foto’s op te laden van de persoon die je in je video wil laten figureren (en je hebt een krachtige computer nodig). Als vuistregel kun je stellen dat je enkele honderden foto’s nodig hebt die de persoon vanuit verschillende gezichtspunten en onder verschillende lichtinvallen portretteert.
Vervolgens past de software zogenaamde ‘deep learning’-technologie toe om in elk frame van de video het originele gezicht te vervangen door een passend aangezicht van de nieuwe persoon. De kwaliteit van het resultaat hangt af van het aangeleverde materiaal en de complexiteit van de originele video. Omdat we vooral veel beeldmateriaal hebben van bekende acteurs en politici, duiken hoofdzakelijk zij op in zulke DeepFakes.

Deze filmpjes kunnen ons makkelijk visueel om de tuin leiden. Toch is het vaak mogelijk om digitaal bewijsmateriaal van de manipulaties terug te vinden. Dat kan door het bestandsformaat van de gebruikte foto’s en video uit te buiten.

Beeldmateriaal dat op het internet verspreid wordt, is nagenoeg altijd onderhevig aan compressie. Dat is een algoritme dat de hoeveelheid data die het bestand oorspronkelijk inneemt, reduceert. Dit om de beelden makkelijker te kunnen versturen over het internet of om plaats te besparen bij het opslaan. Bij compressie gaat een algoritme op zoek naar overbodige informatie in een beeld. Het verwijdert kleine details die ons blote oog toch niet merkt en combineert dat met de resterende informatie efficiënt opslaan.

Het misschien wel bekendste compressieformaat is JPEG. Dat deelt een beeld eerst op in kleine blokjes van 8 bij 8 pixels, om die vervolgens te ‘benaderen’ via een gewogen combinatie van een aantal basisbouwblokken. Elk van die blokken stelt een zeker ritmisch patroon voor.

Ten slotte worden de gevonden getallen in die combinatie afgerond – een proces dat kwantisatie heet. Hoe groter de afronding, hoe groter de compressie. Maar ook: hoe slechter de kwaliteit. Wist je dat als je eenzelfde foto in JPEG meerdere keren opslaat de kwaliteit erop achteruitgaat? Het is dit effect dat ons digitaal bewijsmateriaal van een DeepFake kan opleveren.

In PowerPoint deed ik een simpele faceswap van mezelf op een vrouwelijke Sherlock Holmes. De JPEG-foto van mezelf werd genomen door een professionele fotograaf en is van hoge kwaliteit. De Holmes-foto plukte ik van Ebay, waar die in lage kwaliteit stond.

Als ik nu het JPEG-algoritme op de faceswap toepas, krijg ik beduidend verschillende afgeronde getallen in de combinaties van basisbouwblokken op de plaats waar ik de manipulatie uitvoerde. De getallen verschillen met die van het overgrote deel van het beeld. De gezichtsmanipulatie kun je op die manier ontdekken. Anderzijds merk je ook een aantal valspositieven, namelijk in zones met scherpe randen, zoals de kraag van de blouse.

Deze ontmaskeringstechniek is dus zeker niet foolproof. Of ze werkt, hangt sterk af van het gebruikte materiaal. Daar komt nog bij dat je het bewijsmateriaal kunt verhullen. Zo’n honderd jaar geleden ontdekte criminoloog Edmond Locard dat hij met vingerafdrukken een dief kon identificeren. Snel genoeg bleek dat je die afdrukken met een simpele handschoen kunt vermijden. Hetzelfde gaat op voor DeepFakes, waar je de digitale afdruk ook makkelijk kunt omzeilen. Zal dit een kat- en muisspel blijven?