Zo makkelijk als hierboven fop je de meeste AI-modellen niet (
meer). Maar onderzoekers van de Japanse Kyushu Universiteit is het gelukt om door een enkele pixel in een afbeelding te veranderen, een Computer Vision machine learning model een
actual afbeelding van een auto als ‘hond’
te classificeren.
(Hoe ze dat deden kun je zelf ook nadoen, via de link onderaan de nieuwsbrief.)
Wat onze machines mogen
Machine learning helpt ons enerzijds om repetitieve taken op grote schaal en met hoge snelheid vrijwel foutloos uit te voeren. Heel fijn, want: een AI heeft geen maandagblues- of vrijdagmiddag-fuckitall-vibe, is altijd uitgeslapen, kent geen inwerktijd, heeft geen ruzie thuis, mist de stress bij een deadline en lijdt niet aan recency bias.
Wat mensen niet willen
En tegelijkertijd levert het inzetten van ML ook nieuwe risico’s op, zoals vrijwel elke nieuwe technologie die met zich meebrengt.
Tot zover niks verrassends. Maar nieuwe zwakke plekken, met gevoeligheden voor een nieuw soort fouten, kunnen grote gevolgen hebben.
Zo zijn er problemen in de categorie ‘te voorzien’. Denk aan de bias in de data door een ondoordachte selectie van trainings-voorbeelden. En er zijn de unintended consequences: denk aan een aanbevelingsalgoritme dat het volgende heeft geleerd:
Van alle video’s die worden uitgekeken, wordt een bepaald type video (van die-en-die makers, met die trefwoorden en dat soort titels) vaker uitgekeken. (Wat blijkt? Het zijn ophef-video’s.)
Nu ben ik als algoritme geoptimaliseerd op de meetwaarde #aantal-uitgekeken-video’s.
Ergo: ik beveel meer video’s aan die lijken op die ophefvideo’s.
Malicieuze tegenstanders
Het wordt een tikkeltje spannender als ML niet per ongeluk verkeerd wordt gebruikt, maar opzettelijk, met malicious intent. Dan heet het Adversarial AI (AAI of: Adversarial Machine Learning). Het is een verzameling technieken waarmee men probeert om machine learning modellen -liefkozend gezegd- te foppen. Dit kan door extra data toe te voegen aan een model, door nieuwe data te manipuleren en die het model voor te houden OF zelfs door een heel model met data en al te stelen.
Nu zijn veel voorbeelden nog voornamelijk onschuldig (of alleen in een lab gedemonstreerd), maar straks wellicht niet meer …