Ook artificiële intelligentie blundert weleens

Systemen met algoritmes gingen al verschillende keren de mist in. Vier markante voorbeelden.

Seksistische HR-adviseur

Een algoritme van Amazon dat geschikte werknemers moest selecteren, bleek systematisch vrouwen te benadelen. Niet zo verwonderlijk, aangezien het systeem was getraind met overwegend van mannen afkomstige cv’s. Het algoritme had zelf de link tussen mannelijkheid en succes gelegd.

Racistische chatbot

De chatbot Tay was een poging van Microsoft om artificiële intelligentie een gemoedelijk praatje te laten slaan op Twitter. Dat was buiten de twittergemeenschap gerekend. In minder dan 24 uur tijd schakelde Tay over van boodschappen als ‘Mensen zijn supercool’ op ‘Hitler had gelijk, ik haat joden’ en ‘Alle feministen moeten dood en branden in de hel.’

‘U hebt de verkeerde voor, agent’

De Amerikaan Steve Talley wordt door een zwaarbewapend team agenten hardhandig uit zijn bed gelicht en in de boeien geslagen. Talley wordt gearresteerd voor twee bankovervallen, maar is onschuldig. Gezichtsherkenningssoftware heeft hem ten onrechte geïdentificeerd als de dader, op wie hij sprekend lijkt.

De eerste ‘artificieel intelligente psychopaat’

Om aan te tonen hoe training met de verkeerde data artificiële intelligentie kan doen ontsporen, creëerden wetenschappers aan het Massachusetts Institute of Technology (MIT) Norman, ’s werelds eerste artificieel intelligente psychopaat’. De software is ontworpen om beelden van een bijschrift te voorzien. Eerst trainden de onderzoekers Norman met foto’s van stervende mensen die ze hadden verzameld uit de donkerste krochten van het internet. Vervolgens legden ze hem de inktpatronen uit de Rorschachtest voor. Waar een ander algoritme ‘twee mensen dicht bij elkaar’ of ‘iemand met een paraplu’ ziet, ontwaart Norman ‘een man die uit het raam springt’ en ‘een man die wordt doodgeschoten voor de ogen van zijn gillende vrouw’.