De meest bizarre hardware ooit?

Op basis van artificieel intelligente algoritmen beslist Googles nieuwe camera welke foto hij moet nemen.

Googles Clips is een flinterdun cameraatje, amper vijf bij vijf centimeter groot. Je kunt het om het even waar neerzetten of op om het even wat vastklikken. Zodra je het aanzet, hoef je om beelden op te nemen geen knop meer in te drukken of geen zelfontspanner meer in te stellen. De camera beslist autonoom wanneer hij moet klikken. Hij doet dat op basis van door Google ontwikkelde artificieel intelligente algoritmen.

Ik vermoed dat het een flop wordt

De essentie van Clips is duidelijk. Voor zijn doelgroep lost hij een aantal echte problemen op. Die doelgroep bestaat uit ouders (van kinderen of van huisdieren). 

In de eerste plaats is het zo dat, als je tot deze doelgroep behoort, waarschijnlijk zelden of nooit op je eigen foto's staat. Je bevindt je immers altijd áchter de camera. In de tweede plaats hebben baby's en kleine kinderen vaak de neiging met een leuke activiteit te stoppen zodra je je camera of smartphone tevoorschijn haalt. Ze worden erdoor afgeleid of gedragen zich plots maar al te zelfbewust. Clips omzeilt dat probleem doordat hij niet opdringerig is en doordat hij niet tussen jou en de kinderen komt te staan.

De waarheid is echter dat ik vermoed dat Clips waarschijnlijk een flop wordt. Vergeleken met de camera van veel smartphones is de beeldkwaliteit niet bepaald indrukwekkend, en 250 dollar is voor een one-trick pony een pak geld. En toch is de centrale idee erachter – artificiële intelligentie als fotograaf – fascinerend.

Artificiële intelligentie is niet organisch. Ze moet worden geprogrammeerd – ze moet door ingenieurs worden gecodeerd, ze moet van hen leren. Met andere woorden: artificiële intelligentie beslist uiteindelijk niet wat een goed beeld moet worden; haar programmeurs doen dat, bijgestaan door ervaren fotografen.

De camera is zo ontworpen dat hij op gelukkig lijkende aangezichten wacht

Sommige beslissingen die artificiële intelligentie voor Clips neemt, liggen voor de hand. De camera kijkt uit naar actieve scènes. Hij heeft daarbij een voorkeur voor vertrouwde onderwerpen – zoals gezichten van mensen die hij het vaakst ziet. Hij zal geen opname maken als iets, zoals je vingers of de grijpgrage handjes van je baby, het zicht van de lens belemmert. Hij heeft het liefst voldoende licht. En hij neemt de beste opnames één tot drie meter van het onderwerp vandaan.

Vanaf nu wordt het wat ingewikkelder. De camera is zo ontworpen dat hij op gelukkig lijkende aangezichten wacht. Hij heeft de neiging iemand die boos, angstig, slaperig, verveeld of huilend kijkt te negeren.

Deze artificieel intelligente regel sluit helaas het maken van heel wat prachtige foto's uit. Bekijk het zo: het leven van een kind zit vol kleine tragikomische momenten die het waard zijn met een foto of video te worden vastgelegd, zelfs als ze gepaard gaan met een korte huilbui. Je kent die momenten vast wel: het ijsje valt uit het hoorntje op de grond, een puppy likt haar gezichtje iets te enthousiast, hij schrikt van een goed bedoelende clown.

Google is zich van het probleem bewust en is van plan een nieuwe set voorkeuren toe te voegen – niet een optie 'sta miserie toe', maar een optie die ervoor zorgt dat de camera op veranderingen in de gelaatsuitdrukking reageert. Intussen lijkt Clips' voorkeur voor vrolijke momenten twee geluksfilters die we zelf al in ons leven gebruiken te versterken.

In de eerste plaats bepalen we zelf al welke momenten met een video of een foto moeten worden vastgelegd door zelf te kiezen wat we wél dan niet opnemen. De meeste mensen nemen meestal alleen hoogtepunten uit hun leven op. Denk bijvoorbeeld aan vieringen of reizen. Je collectie bevat waarschijnlijk heel weinig beelden waarop je al vechtend met je partner, gedeprimeerd door je job of met een pijnlijke blessure te zien bent.

In de tweede plaats maken we zelf ook een selectie van beelden die we online plaatsen. Hierdoor riskeren we niet alleen onszelf met een al te gelukkig beeld van ons leven te misleiden. Ook voor onze volgers trachten we een beeld van een prachtig leven op te hangen. We worden ambassadeurs van ons zogenaamd vlekkeloze bestaan.

Studies hebben aangetoond dat het resultaat van al dit filteren op geluk, anderen op sociale media niet zo prettig vinden, dat ze zelfs 'Facebookjaloezie' ontwikkelen.

Je begint je af te vragen waarom we eigenlijk foto's en video's nemen. Wat is dan toch de bedoeling ervan? Willen we een betrouwbaar beeld van ons leven vastleggen, van zowel aangename als minder aangename momenten? Is er iets fout aan het onsterfelijk maken van alleen maar prachtige momenten en donkerder materie buiten beeld te houden – en misschien zelfs niet in ons geheugen op te slaan?

Antwoorden op deze vragen hangen gedeeltelijk af van wie ons publiek is. Wijzelf als we ouder zijn? Onze nakomelingen? Onze Facebookvrienden?

Er is geen correct antwoord. We nemen en bewerken beelden – of doen dat niet – om diverse redenen. Als Googles Clips niets meer bereikt dan ons scherper op de vragen te laten focussen, dan is de uitvinding ervan niet nutteloos geweest.