FORUM
Recente blogs
Archief
Meest gelezen blogs
Tags
Zoekfilters
Auteur
Artikel
Trefwoord
04.02.2021Anne Meuwese

Verkiezingsblog #4: Wat zeggen de verkiezingsprogramma’s 2021 over algoritmische besluitvorming?


Sinds de kinderopvangtoeslagaffaire zit de schrik voor de overheid, vooral als deze geautomatiseerde besluiten neemt, er goed in. In lijn met de tijdgeest hebben thema’s als de digitale overheid, algoritmische besluitvorming en maatwerk in de uitvoering een prominente plek in veel verkiezingsprogramma’s voor maart 2021. Een eigentijds programma met ambities op rechtsstatelijk vlak heeft niet alleen oog voor de ‘grote onderwerpen’ als grondrechten en kiesstelsel, maar ook voor de fijne machinerie waar de rechtsstaat op draait.

Algoritmes maken een steeds belangrijker onderdeel uit van die machinerie. De meeste programma’s bevatten dan ook voorstellen om de controle op het gebruik van algoritmes voor de overheid te versterken. Het verschilt nogal van partij tot partij hoe specifiek en hoe consistent die voorstellen zijn.

Even een intermezzo: partijen die in hun verkiezingsprogramma al met heel specifieke oplossingen voor problemen komen, willen we dat eigenlijk wel? Het lijkt helder en daadkrachtig, maar er zit ook een andere kant aan. Als een van de oorzaken van gebrekkige kwaliteit van wetgeving worden ‘dichtgetimmerde regeerakkoorden’ genoemd. Als in een regeerakkoord al precies staat hoe een maatschappelijk probleem moet worden opgelost, blijft weinig ruimte over voor fris nadenken en rustig analyseren. Verkiezingsprogramma’s zijn geen regeerakkoorden, maar vormen wel de inzet ervan. Tenzij de inzichten op een bepaald thema duidelijk één kant op wijzen, liever dus uitgangspunten, denkrichtingen en doelstellingen in de programma’s dan heel concrete oplossingen.

Algoritmische besluitvorming is zo’n onderwerp waarbij de problematiek zich steeds duidelijker aftekent, maar de oplossing verre van evident is. Verbieden zonder dat geprobeerd is de problematische aspecten te ondervangen, zou best eens een gemiste kans kunnen zijn, juist ook voor de rechtsstaat. Zo kunnen algoritmes discriminerend uitpakken, maar kunnen ze ook discriminatie opsporen. Daarnaast is het de vraag of de publieke sector niet nog sterker op achterstand wordt gezet ten opzichte van ‘Big Tech’ als de overheid veel minder mag doen met algoritmes dan het bedrijfsleven. Op het punt van algoritmische besluitvorming biedt een rechtsstatelijke solide programma dus oog voor de problematiek, waarbij ‘Big Tech’ niet vergeten wordt, zonder al te simplistische oplossingen aan te dragen.

De PvdA blijft nogal op de vlakte met verwijzingen naar een overheid die qua digitalisering zelf het goede voorbeeld geeft en het gebruik van ‘open algoritmes’. In het programma van D66 komt het woord ‘algoritme’ maar liefst negen keer voor. Deze partij wil dat besluitvorming door algoritmes altijd een menselijke ‘check’ heeft. Ook komt zij, net als ChristenUnie en de VVD, met een algoritmewaakhond. D66 en ChristenUnie specificeren dat deze kan worden ondergebracht bij de Autoriteit Persoonsgegevens, die laatstgenoemde partij wil omvormen tot “een sterke toezichthouder voor Digitale Veiligheid”. De VVD verduidelijkt dat de nieuw op te richten waakhond toeziet “op transparantie van algoritmes in zowel de publieke als private sector, en [...] in het uiterste geval in[grijpt] wanneer bestaande rechten worden geschonden, bijvoorbeeld in geval van ongelijke behandeling”. Alleen in “het uiterste geval” dus, wat een ander VVD-voorstel, namelijk een “uitzondering op privacywetgeving zodat het mogelijk wordt om zwarte lijsten van fraudeurs op te stellen en gegevens binnen overheidsorganisaties, en tussen overheden en private partijen, te delen” ruim baan geeft. Dit laatste voorstel doet de vraag rijzen welke lessen de VVD eigenlijk bereid is te trekken uit de toeslagenaffaire. Andere partijen, zoals ChristenUnie en PvdA, leggen juist de nadruk op een voorzichtige omgang met het label ‘fraudeur’: “wie een foutje maakt op een formulier is niet meteen een fraudeur” (ChristenUnie) en “[m]ensen zijn voortaan pas fraudeur als echt wordt bewezen dat ze opzettelijk voordeel proberen te verkrijgen” (PvdA).

Het CDA zoekt het, onder het kopje ‘vertrouwen in de rechtsstaat en de overheid’ in versterking van de rechtsbescherming, door middel van een recht op inzicht in de gegevens en de algoritmes die de overheid gebruikt en een vereenvoudiging van de toetsbaarheid van de algoritmes die aan de basis van geautomatiseerde besluitvorming liggen. De Nederlandse rechter heeft al belangrijke stappen gezet op het terrein van controle op algoritmische besluitvorming, maar zal de last van deze taak niet alleen kunnen dragen. GroenLinks wil dat “[a]lgoritmen voor gedragsvoorspelling en besluitvorming in zowel de private als de publieke sector [...] transparant [zijn] en worden getoetst op discriminerende vooroordelen”, maar geeft niet aan hoe. Hetzelfde geldt voor de Partij voor de Dieren, die spreekt van “streng ethisch en privacy toezicht” waaraan zelflerende systemen, waarbij computers besluiten nemen over mensen moeten worden onderworpen. De PvdD wil dat er op wordt gelet of deze systemen niet onbewust discriminatoire besluiten nemen, maar zegt niet of dat door de rechter, een onafhankelijke toezichthouder of door de overheid zélf moet gebeuren.

Ook wil de PvdD een verbod op het gebruik van ‘black box’-algoritmes door de overheid. Met de term ‘black box’-algoritmes worden meestal zelflerende algoritmes bedoeld, die keuzes maken waar geen mens aan te pas komt en waarbij het ook nog eens achteraf lastig uit te leggen is welke keuzes dit precies zijn. Dit type algoritme klinkt extra eng, en dat kan het zeker ook zijn. Maar bij een correct gebruik kunnen juist geavanceerde algoritmes mogelijkheden bieden die interessant zijn vanuit rechtsstatelijk perspectief. Dit geldt met name buiten de context van individuele besluitvorming, bijvoorbeeld als zo’n algoritme wordt ingezet om uit geaggregeerde data bepaalde trends te signaleren zonder dat dit te herleiden valt tot persoonsgegevens.

Had een algoritme op tijd een alarmbel kunnen doen afgaan omdat de invordering van kinderopvangtoeslagen door de Belastingdienst zich wel erg sterk in bepaalde regio’s en groepen concentreerde? Over deze mogelijke inzet van algoritmes door de overheid is nog maar weinig bekend. Bovendien is het ene ‘black box’ algoritme het andere niet en is de ‘black box’-metafoor niet per definitie verhelderend. Een absoluut verbod klinkt daadkrachtig, maar komt neer op voortijdig dichttimmeren. Ook Denk wil overigens een verbod, maar dan specifiek op ‘discriminerende algoritmes’. Andere partijen, zoals GroenLinks, die van alle partijen het meest overtuigend weet weg te blijven van simplistische oplossingen rond het onderwerp van dit blog, houden het bij een eis voor een duidelijk wettelijk kader voor de toepassing van algoritmes voor gedragsvoorspelling en besluitvorming. Of in de bewoordingen van D66: “Alle toepassingen van algoritmes die door databases met data van onschuldige mensen spitten moeten wettelijk worden begrensd zodat de Tweede Kamer controle kan behouden.” Een eervolle vermelding is er voor ChristenUnie vanwege het idee voor een ‘algoritme keurmerk’, al zouden de effecten hiervan nog grondig geanalyseerd moeten worden en vergeleken moeten worden met die van andere reguleringsinstrumenten.

Welke programma’s houden zich in mindere mate bezig met de digitale overheid en het gebruik van algoritmes? Forum voor Democratie wil wel de verzameling van data door de overheid beperken en wil een algemene ‘verplichting tot privacy en security by design’, maar noemt ‘algoritmes’ alleen expliciet in relatie tot social media en Big Tech. Ook de SP gaat niet specifiek in op algoritmische besluitvorming door de overheid. Deze partij schrijft dat algoritmes van sociale mediabedrijven en grote techbedrijven (die een ‘digitaks’ zouden moeten gaan betalen) “eenzijdige informatievoorziening” creëren. De SGP besteedt door het programma heen behoorlijk wat aandacht aan digitalisering in bredere zin. Onderwerpen als de digitale infrastructuur voor asielprocedures en digitale innovaties komen langs, maar de ‘digitale overheid’ als zodanig ontbreekt. Algoritmes worden alleen genoemd in het kader van hun rol bij de inzet van wapengeweld; Nederland zou het voortouw moeten nemen bij het bepalen van de internationaalrechtelijke kaders hiervoor. De PVV vraagt aandacht voor ‘digitale veiligheid’, maar gaat toch vooral in tegen de trend die valt waar te nemen in de andere programma’s. Waar die laatste – afgezien van het VVD-pleidooi voor ‘zwarte lijsten’ – aandacht vragen voor de bescherming van mensenrechten en rechtsstatelijke waarden rond digitalisering, stelt de PVV ‘gemeentelijke digitale schandpalen’ voor waar “de identiteit van elke veroordeelde zeden- of geweldsdelinquent – met foto en naam” openbaar zou moeten worden gemaakt. In het programma van 50Plus gaan alle referenties naar digitalisering over digivaardigheid. Zo moeten overheden en bedrijven “oog blijven houden voor mensen die niet digivaardig zijn”. Dat laatste is belangrijk, maar om burgers voldoende te beschermen tegen de rechtsstatelijke risico’s die digitalisering met zich meebrengt, is meer nodig. Wát precies is simpelweg nog niet duidelijk. Daarom is vooral van belang dat politieke partijen in hun programma’s laten zijn dat ze de problematiek scherp op hun netvlies hebben. De partijen die vervolgens in het kabinet terechtkomen, kunnen vervolgens laten zien dat het ze menens is met de nieuwe openheid en zorgvuldigheid die iedereen sinds de toeslagenaffaire predikt en stapsgewijs toewerken naar optimale regulering van algoritmische besluitvorming.
OVER DE AUTEUR
REAGEER

www.nederlandrechtsstaat.nl wordt ondersteund door Tilburg University, het Vfonds en het Ministerie van Binnenlandse Zaken en Koninkrijkrelaties