Actueel
Transparantie en vertrouwen in AI
De film Ex Machina (Alex Garland, 2014) onderzoekt onze verhouding tot AI, zegt Esther Nieuwenhuizen, en vooral: hoe ons vertrouwen in AI op scherp komt te staan. Uit een deel van haar eigen onderzoek naar transparantie over algoritmen blijkt dat uitleg over hoe een algoritme werkt, of waarom het tot een bepaalde uitkomst komt, het vertrouwen in die uitkomst aanzienlijk vergroot. De praktijk van de openheid is echter nog altijd weerbarstig. Toch dwingt zoiets als het algoritmeregister van de overheid wel om heel bewust na te denken over verantwoorde inzet van dergelijke AI tools. Onderstaande tekst is een licht bewerkte versie van de inleiding die zij hield op de derde avond van de USBO filmreeks Science & Fiction: Terug naar de toekomst.
Hoe weet u zeker dat ik dit zelf heb geschreven of dat ChatGPT dat heeft gedaan? En zou u nog vertrouwen hebben in mijn verhaal als ik geen woord zelf geschreven had, maar gisteren ChatGPT gevraagd zou hebben om dit voor mij te doen?
Ik ben Esther Nieuwenhuizen en ik heb de afgelopen jaren onderzoek gedaan naar de invloed van transparantie op het vertrouwen van burgers in het algoritmegebruik door overheidsorganisaties, zoals de politie.
De film Ex Machina is een sciencefictionfilm waarin een jonge programmeur deelneemt aan een experiment met AI, artificiële intelligentie. In een villa in een afgelegen berggebied maakt hij kennis met Ava, een vrouwelijke robot met uitzonderlijke intelligentie en bewustzijn. De film onderzoekt hoe we ons verhouden tot AI, en hoe ons vertrouwen in AI op scherp komt te staan. De film is bekroond met een Oscar voor beste visuele effecten en was genomineerd voor de categorie beste scenario. In deze film uit 2014 wordt u meegenomen op een verkenning van onze technologische toekomst, die anno nu niet ver weg meer lijkt.
Misleiding door wat menselijk oogt en klinkt
De impact van de film reikte verder dan het witte doek: ook in de promotie werd gespeeld met de grens tussen mens en machine. Een slimme marketingcampagne met de AI-persona Ava liet zien hoe gemakkelijk we ons laten misleiden door iets wat menselijk oogt en klinkt. Voor deze stunt werd een nep-Tinderaccount aangemaakt, met een chatbot genaamd Ava (vernoemd naar de vrouwelijke robot uit Ex Machina) en voorzien van foto’s van de Zweedse actrice Alicia Vikander, die haar vertolkt.
Vlak voor de lancering van de film ging Ava’s profiel online en kreeg ze meerdere matches met mannen die geïnteresseerd in haar waren. In de gesprekken probeerde Ava de mannen beter te leren kennen, waarna ze hen doorverwees naar haar Instagramaccount.
Op deze Instagrampagina viel de hoop van de mannen echter in duigen. In plaats van foto’s of persoonlijke informatie over Ava, zagen ze reclame voor de film. De mannen baalden als een stekker: niet alleen omdat een date met Ava nooit ging gebeuren, maar wellicht ook omdat ze voor de gek waren gehouden door een chatbot.
Algoritmeregister
Dit raakt aan de eerste vraag die ik u aan het begin stelde: hoe weet u of iets door AI geschreven is? Een antwoord hierop uit de ‘echte’ wereld is het algoritmeregister van de Nederlandse overheid, waar ik onderzoek naar heb gedaan. In dit register publiceren overheidsorganisaties informatie over de algoritmen die ze gebruiken. Hier kunt u zien welke algoritmen worden gebruikt en welke overheidsinformatie of besluiten door AI zijn gegenereerd. In theorie is dit een waardevol initiatief dat kan bijdragen aan meer vertrouwen in de overheid. In de praktijk blijkt de uitvoering echter weerbarstig.
Zo hebben overheidsorganisaties niet altijd een overzicht van alle algoritmen die ze gebruiken, waardoor lang niet alle algoritmen in het register worden opgenomen. Daarnaast ontbreekt soms cruciale informatie, bijvoorbeeld omdat de ontwikkelaar van het algoritme inmiddels bij een andere organisatie werkt en niet alles netjes gedocumenteerd had. Ook komt het voor dat organisaties bewust bepaalde onderdelen níet invullen, uit vrees dat burgers dan manieren vinden om het algoritme te omzeilen; ook wel bekend als gaming the system.
Kortom, zo’n register is verre van volledig, wat bij gebruikers van zo’n register vaak wantrouwen wekt. Toch heeft het ook positieve effecten. Omdat organisaties al die velden in zo’n register in moeten vullen, worden ze als het ware gedwongen om kritisch naar allerlei aspecten van hun algoritmen te kijken. Voordat ze hierover transparant zijn, willen ze namelijk wel dat het goed in elkaar zit. Dit zorgt ervoor dat organisaties hun eigen algoritmen aan gaan passen waar nodig, of met terugwerkende kracht toch nog een mensenrechten assessment doen (een hulpmiddel om de inzet van algoritmes zorgvuldig af te wegen en te begeleiden, met aandacht voor mensenrechten en relevante regelgeving). Indirect kan dit wel degelijk bijdragen aan meer vertrouwen, doordat de algoritmische processen hierdoor verbeteren.
Vertrouwen
Ik heb ook onderzoek gedaan naar de tweede vraag die ik u stelde: zou u nog vertrouwen hebben in een bepaalde tekst als u wist dat die door AI is geschreven? Uit mijn onderzoek blijkt dat uitleg over hoe een algoritme werkt, of waarom het tot een bepaalde uitkomst komt, het vertrouwen in die uitkomst aanzienlijk vergroot.
De politie maakt bijvoorbeeld gebruik van een algoritme om aangiftes van online fraude te beoordelen. In een experiment dat ik uitvoerde met dit algoritme bleek dat slechts 42% van de mensen het advies van het algoritme vertrouwde en opvolgde als zij geen uitleg kregen. Onder de deelnemers die wél uitleg kregen over de werking of motivatie van het algoritme, steeg dat vertrouwen naar 75%. Transparantie leidde dus bijna tot een verdubbeling van het aantal mensen dat het AI advies opvolgde. Een duidelijke boodschap: openheid over AI werkt dus.
Stel u voor…
Ik wil u uitnodigen zich voor te stellen dat er op dit moment, ergens in een afgelegen berggebied, daadwerkelijk een menselijke robot zoals Ava wordt ontwikkeld. Stel dat een big tech-bedrijf dit nieuwe product volgende maand lanceert voor de gewone consument: wat zou u nodig hebben om zo’n robot direct aan te schaffen? Wilt u eerst precies weten hoe zij werkt, wat er gebeurt met alle gesprekken die zij hoort, welke informatie ze van u al weet als u haar voor het eerst activeert; of klikt u meteen op ‘Ik ga akkoord met de algemene voorwaarden’ en bestelt u een Ava?
Esther Nieuwenhuizen is als promovenda verbonden aan het departement Bestuurs- en Organisatiewetenschap (USBO). In haar promotieonderzoek richt ze zich op de invloed van transparantie op het vertrouwen van burgers in algoritmegebruik door de politie. Zij was onder andere ‘Face of Science’ van de Koninklijke Nederlandse Academie van Wetenschappen (KNAW).
Recente reacties