Hoe zie je of een foto gegenereerd is door AI?

Artificieel intelligente beeldgenerators maken fake foto’s zo echt dat we AI nodig hebben om ze te herkennen.

Foto: De ‘Balenciaga-paus’, gegenereerd door AI-model Midjourney. © Midjourney

Even was paus Franciscus cooler dan Alex Turner, Brad Pitt en Elon Musk. Eind maart doken ineens foto’s van hem op in een parelwitte, gewatteerde Balenciaga-jas – met aan zijn hals een zilveren kruis en in zijn rechterhand een koffie-to-go. De beelden gingen viraal. 

Wat bleek: de foto’s waren het product van Midjourney. Dat is een van de intussen vele AI-systemen die na tekstinvoer van gebruikers automatisch beelden genereren. Die systemen zijn op korte tijd bijzonder geavanceerd geworden. Even niet opletten, en je bent er zo mee weg. 

Hoe kun je weten of een foto echt is of gegenereerd door een AI-systeem als DALL-E, Midjourney of Stable Diffusion? Die systemen – en de beelden die ze genereren – verschillen in hoe overtuigend ze zijn. En elk van die beeldgeneratoren heeft iets dat zijn algoritme weggeeft. 

AI-systemen zijn er bijvoorbeeld notoir slecht in om mensenhanden na te bootsen. In het verleden hebben ze duizenden beelden gegenereerd van mismeesterde lichaamsdelen met veel te veel vingers. Maar intussen lijken systemen als Midjourney V5 het probleem te hebben opgelost – of toch in sommige gevallen.

Aaneengeplakte tanden

Experts zijn het erover eens dat het moeilijk tot onmogelijk is om de beste beelden van de beste AI-systemen te onderscheiden van authentieke foto’s. ‘Het is ronduit indrukwekkend om te zien wat deze modellen kunnen doen’, zegt S. Shyam Sundar, die aan de Pennsylvania State University onderzoek uitvoert naar de psychologische impact van mediatechnologie. ‘Op zowat een jaar tijd hebben die systemen een gigantische sprong gemaakt.’

Een verklaring voor die enorme vooruitgang is dat er steeds meer beelden zijn om AI mee te trainen. Verder is ook de infrastructuur om al die data te verwerken erop vooruitgegaan, net als de interfaces die de technologie beschikbaar maken voor het brede publiek. 

‘Op zowat een jaar tijd hebben AI-systemen een gigantische sprong gemaakt’

Eind 2021 toonden onderzoekers in een experiment aan hoe goed AI ons wel niet om de tuin kan leiden. De Britse psycholoog Sophie Nightingale (Lancaster University) vroeg vrijwilligers of ze paspoortachtige portretfoto’s gegeneerd door AI-systeem StyleGAN2 konden onderscheiden van echte beelden. De resultaten waren ontmoedigend – toen al. 

‘In veel gevallen waren de deelnemers aan de studie gewoon aan het gokken’, zegt Nightingale. ‘Dat bewijst dat we op een punt staan waar we het verschil niet meer zien tussen synthetische en echte gezichten.’ 

In een tweede experiment trachtten de onderzoekers de vrijwilligers te helpen om AI-beelden beter te detecteren. Na elk antwoord gaven ze aan of de deelnemers juist waren of niet. Ze vroegen hen ook om vooraf een advies te lezen over artificieel gegenereerde beelden. 

In dat advies stond op welke vlakken algoritmes nog dikwijls tekortschieten: synthetische gezichten krijgen bijvoorbeeld niet zelden verschillende oorringen. Of de tanden worden aaneengeplakt. Algoritmes hebben het ook lastig om enigszins complexe achtergronden te creëren voor de portretten. 

Zelfs met die informatie presteerden de deelnemers maar zo’n 10 procent beter in de tests. Het gebruikte AI-systeem kreeg intussen ook upgrades en verbeteringen. 

AI-detective

Wat is dan de beste manier om ons niet te laten vangen door AI? Het antwoord is best ironisch: door een andere AI te gebruiken – een systeem dat getraind is om artificieel gegenereerde beelden te detecteren. Volgens experts zijn algoritmes beter uitgerust dan mensen om de pixelgrote sporen van robotwerk te herkennen.  

Drie portretten gegenereerd door AI-model DALL-E. De kwaliteit van AI-foto’s verschilt van systeem tot systeem © OpenAI

Die AI-detectives ontwikkelen gebeurt op dezelfde manier als andere machine learning-taken opstellen, zegt computerwetenschapper Yong Jae Lee (University of Wisconsin-Madison). ‘Je legt een dataset aan met echte beelden, en een met AI-gegenereerde beelden. Vervolgens vuur je die af op een machine learning-model, met de taak die te onderscheiden.’ 

Er zijn belangrijke tekortkomingen. Veel van die algoritmes zijn getraind op beelden van een welbepaalde AI-beeldgenerator. Foto’s van een ander systeem herkent de AI-detector niet. De meeste detectors zijn ook niet bepaald gebruiksvriendelijk – in elk geval veel minder dan de generatieve systemen waarvan zoveel mensen zich graag bedienen. 

In de race tussen generators en detectors zullen die laatste ook altijd achterop blijven lopen. Het is bijvoorbeeld niet ondenkbaar dat de beeldgenerators detectiealgoritmes krijgen om te leren hoe ze hun output nog minder detecteerbaar kunnen maken. ‘Dit wordt een lange strijd’, zegt computerwetenschapper Wael AbdAlmageed (University of Southern California).

‘Het wordt een lange strijd tussen AI-generators en AI-detectors’

Het zal wellicht nooit lukken om elk fake beeld onmiddellijk te herkennen. Maar dat betekent niet dat we dan maar de witte vlag moeten hijsen. AbdAlmageed ziet een belangrijke rol weggelegd voor sociale media. Die moeten AI-gegenereerde content op hun platformen beginnen op te sporen. Die bedrijven hebben ook een veel betere positie om detectiealgoritmes slim toe te passen dan individuele gebruikers. 

Tegelijk moeten wij, de gebruiker, kritischer omgaan met visuele informatie. We moeten ons afvragen of beelden vals, AI-gegenereerd of kwetsend zijn voordat we ze delen. ‘De mens is als soort opgegroeid met het idee dat je iets kan geloven als je het ziet’, zegt AbdAlmageed. ‘Dat gaat niet meer op.’