Aandacht voor algoritmes bij de Overheid

Het is niet bijzonder duidelijk wat de overheid met onze data doet, en hoe ze daarover nadenken. Ik heb dus eens een Advies van de rekenkamer doorgewerkt wat probeert een kader te scheppen voor de verwerking van uw gegevens.

Het toetsingskader wordt geschetst, het wordt toegepast op drie algoritmen, de correspondentie met binnenlandse zaken staat er ook in.

Dit is geen uitgebreide analyse, zo zorgvuldig heb ik het ook niet gelezen. Bij mij bleven twee overwegingen achter: 1) ik lees in de reactie van binnenlandse zaken dat ze niks met het kader kunnen en dat de Rekenkamer gewoon afgewimpeld is, 2) de drie algoritmen die nu al worden gebruikt had ik alle drie niet ingezet.

De reactie van binnenlandse zaken is in enige zin voorspelbaar en ook wel correct. ‘We kunnen hier niks mee’, daar ben ik het mee eens; ‘te duur’, dat is een politieke beslissing; ‘de ministeries hebben experimenteerruimte nodig’, dat weet ik zo net nog niet.

Mijn stelling is dat je dit allemaal niet moet willen, want het loopt toch fout en echt niemand wordt er beter van. Er moet geen onwerkbaar kader komen maar een mannetje die nadenkt over de wenselijkheid van dit soort systemen en mogelijk moeten er cursussen komen om het bewustzijn bij de opdrachtgevers wat bij te werken.

Tegenmachten zijn de datahonger van de overheid en het feit dat er heel veel partijen zijn die hier geld aan willen verdienen. Van die datahonger moeten we af, van die partijen eigenlijk ook. Zoals de hazen nu lopen verwacht ik overigens dat we dit allemaal toch gaan doen.

Even een korte beschrijving waarom ik denk dat dit allemaal niet moet aan de hand van de drie algoritmen die nu al gebruikt worden.

Het eerste is een beslissingsboom die ambtenaren helpt bij of een aanvraag van bijvoorbeeld een subsidie extra gecontroleerd moet worden. Niet doen. Wat is de meerwaarde van het systeem, wat is er precies bekend over de personen, en voornamelijk: wat is er mis mee als subsidieaanvragen op zichzelf staan? Dit werkt tot tunnelvisie waar het verleden van iemand bepalend kan worden (één keer afgewezen is altijd afgewezen) en mensen succesvol kunnen blijven maar het allang niet meer verdienen (leek interessant in het verleden maar leverde toch niks op, maar het systeem blijft toekennen.) En voornamelijk, de ambtenaar wordt lui en gebruikt het ‘advies’ van het systeem als leidraad.

Het tweede betreft ondersteuning van beslissingen aan de hand van wettelijke indicatoren die naar cijfers worden omgezet om een ambtenaar te ondersteunen. De cijfers leiden tot een beslissing waar nog van afgeweken mag worden. Niet doen. Een weloverwogen beslissing is heel wat anders dan een cijfer dus dit werkt onzorgvuldigheid in de hand. Daarnaast is het bekend dat als ambtenaren ondersteund worden door algoritmen ze geen verantwoordelijkheid meer voor de beslissingen voelen (het algoritme zei het). Met dit soort software gaan ambtenaren gewoon maar wat doen en de schuld op de software schuiven.

De derde is gezichtsherkenning om mensen toe te laten tot een gebouw. Dit is echt een no-brainer voor een security expert want die weet dat er altijd wel een hacker te vinden is die met een goed ontworpen masker uw gebouw binnenloopt en vervolgens met het kernwapen onder de arm weer naar buiten.

Maar het toetsingkader is het ook niet, daar ben ik het mee eens. Het bewustzijn moet omhoog en dat begint met: doe het bij voorkeur allemaal niet.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *