Onderzoek: overheid gebruikt volop 'intelligente algoritmen' voor advies

Yoeri Nijs  | Deel:  
Artikel-plaatje

Beeld: Wikimedia/Husky.

Nederlandse overheidsinstanties gebruiken in groten getale ‘intelligentie algoritmen’. Zij doen dit met name voor het krijgen van advies. De instanties zijn dan ook niet bang voor negatieve gevolgen. Dat meldt staatssecretaris Raymond Knops van Binnenlandse Zaken na onderzoek aan de Tweede Kamer.

Van alle overheidsinstanties die meededen aan het onderzoek blijkt dat bijna de helft (48 procent) ‘intelligente algoritmen’ gebruikt. Tien procent van de instanties die dit nog niet doet, wil zulke algoritmen in de nabije toekomst eveneens gebruiken, zo schrijft Knops in een Kamerbrief [PDF].

Risico's signaleren
De overheid gebruikt volgens de bewindsman met name algoritmen om verhoogde risico’s te signaleren. Knops noemt in zijn brief geen voorbeelden, maar het is bekend dat onder andere de Belastingdienst met data-analyse experimenteert voor het detecteren van fouten in aangiftes.


Overheidsinstanties zeggen algoritmen vooral te gebruiken voor het krijgen van advies. Het advies is volgens Knops ‘meestal aanleiding voor nader onderzoek’. “Tegelijk geven organisaties aan het soms lastig te vinden om af te wijken van het oordeel van een algoritme”, meent de bewindsman.

'Geen negatieve gevolgen'
Volgens Knops zien de meeste overheidsorganisaties geen negatieve gevolgen van de inzet van algoritmen. Sommige instanties zijn echter wel bang, en dan met name voor mogelijke fouten in de algoritmen. Zulke fouten kunnen leiden tot discriminatie, zoals het geval was bij webwinkelgigant Amazon onlangs.

LEES OOK: Google-algoritme voor automatisch aanvullen mailtjes blijkt voorkeur te hebben voor mannen

Verder vrezen sommige instanties dat ambtenaren geen algoritmen willen gebruiken. Knops legt niet uit waarom de ambtenaren dit niet willen doen. Mogelijk zijn ze bang voor de werking van algoritmen of voor het verliezen van hun baan door slimme software.

Controle van algoritmen
Op de vraag welke algoritmen overheidsinstanties gebruiken, geven de instanties aan dat dit afhangt van ‘hoe goed het algoritme verklaard en uitgelegd kan worden’ en ‘in welke mate het getoetst kan worden’. Ze verwijzen hiermee naar het black-box-principe, dat betekent dat in sommige situaties niemand weet hoe een algoritme precies werkt.

LEES OOK: Hierdoor weet niemand hoe een algoritme precies werkt

Knops schrijft in zijn Kamerbrief dat alle overheidsinstanties hun algoritmen toetsen of valideren. “Dat doen ze op verschillende manieren, intern, door audits of toezichthouders.” Hoe dit precies in zijn werk gaat, zegt de staatssecretaris niet. Waarschijnlijk doet hij dit niet, omdat de controle afhankelijk is van het type algoritme.

Volgens Knops kan de werking van een algoritme binnen de overheid in ieder geval altijd worden geverifieerd door rechters en toezichthouders. Burgers kunnen dit nog niet, maar Knops wil hier in de toekomst mogelijk verandering in brengen door ‘de benodigde transparantie’ verder te verbeteren.

'Eerste verkenning'
Knops geeft aan de komende tijd met andere overheidsinstanties om de tafel te gaan om te bespreken hoe er met kunstmatige intelligentie moet worden omgegaan. Het onderzoek, dat door oud-minister Henk Kamp in 2017 in gang werd gezet, was namelijk een ‘eerste verkenning’ van een relatief nieuw onderwerp binnen de overheid, namelijk intelligente algoritmen.

LEES OOK: Kritiek op gebruik van ai in de rechtspraak, 'Fundamentele mensenrechten mogen niet in gevaar komen'




Wil je deelnemen aan dit gesprek? Log in of meld je aan.