Big data in toezicht


Van de zelfscankassa in de supermarkt tot de controle van je belastingaangifte: overal zijn algoritmes achter de schermen aan het werk. Hoe meer data je aan zo’n reeks wiskundige instructies voedt, hoe slimmer hij wordt. En daar begint voor toezichthouders de schoen te wringen, want hoe houd je grip op het gebruik van die data? Professor Lisette van der Hel, hoogleraar effectiviteit van het overheidstoezicht aan Nyenrode Business Universiteit, en Nart Wielaard, expert in big data, benoemen valkuilen en aandachtspunten.

‘Datatechnologie staat bij Nederlandse toezichthouders nog in de kinderschoenen. Ze willen graag meer gebruik maken van de vele nieuwe mogelijkheden, maar dat kan niet onbegrensd,’ stelt Lisette van der Hel. ‘Als een klant van commerciële bedrijven als Bol.com en Coolblue het voorstel van ‘Anderen kochten ook’ irritant vindt, is er niets aan de hand. Maar toezichthouders kunnen niet met hagel schieten en moeten bijzonder zorgvuldig zijn in hoe ze data gebruiken.’
De inzet van data en algoritmes kan het toezicht naar een hoger niveau tillen, denkt Nart Wielaard. ‘Mits je zorgt dat zowel de gegevens die je erin stopt als de algoritmes die ermee aan het werk gaan deugdelijk zijn. Daar ligt in de praktijk nog een flinke uitdaging. Maar het kan wel: we denken vaak dat algoritmes een black box zijn. Maar dat zijn de hoofden van mensen ook. En daar kunnen we niet in kijken. De werking van algoritmes kunnen we juist wel transparant maken.’

‘De mens vormt een groot risico op fouten in datagebruik’

Van der Hel zet daar vraagtekens bij. ‘Ook algoritmes kunnen nogal ondoorzichtig zijn. Op een gegeven moment valt voor mensen de technologie niet helemaal meer te volgen en is het de vraag hoe de uitkomsten tot stand zijn gekomen. Voor een toezichthouder is het belangrijk om keuzes te kunnen onderbouwen, bijvoorbeeld voor de rechter. Ook kunnen er fouten sluipen in de gebruikte modellen, waardoor burgers of bedrijven ten onrechte wel of niet worden geselecteerd voor toezicht. Kan een algoritme wel voldoende rekening houden met de persoonlijke omstandigheden van burgers? Dat is een belangrijke vraag voor toezichthouders waarvan gedragsbeïnvloeding de kern is van hun strategie. Denk aan de Belastingdienst of de Nederlandse Voedsel- en Warenautoriteit (NVWA). In principe kan een algoritme enerzijds de risicoselectie efficiënter maken terwijl het anderzijds kan zorgen voor een betere persoonlijke service.’

Valideren
De mens vormt een groot risico op fouten in datagebruik, benadrukt Wielaard. ‘Wij maken de systemen. A fool with a tool, is still a fool. Een datawetenschapper kan zijn werk pas goed doen als hij in nauw contact met de opdrachtgever goed leert begrijpen welke conclusies uit data wel en niet relevant zijn.’ Modellen leren op basis van data uit het verleden. ‘Wanneer data niet goed worden gebruikt, kan dat leiden tot verkeerde voorspellingen,’ voegt Van der Hel hieraan toe. ‘Stel dat de Belastingdienst in het verleden veel controles heeft uitgevoerd op donaties aan goede doelen. Het onderwerp giften komt dan onevenredig vaak voor in de verzamelde data. Een model zou op basis van die data kunnen concluderen dat de Belastingdienst veel aandacht aan giften moet besteden, terwijl er andere onderwerpen zijn waarvan je minder gegevens hebt verzameld die misschien wel risicovoller zijn. Datakwaliteit en het valideren van modellen zijn daarom essentieel in het toezicht.’

‘Datakwaliteit en het valideren van modellen zijn essentieel in het toezicht’

Net zo belangrijk als de kwaliteit is de context waarin de data zijn verzameld. Die heeft grote invloed op de interpretatie ervan. Daarbij gaat het volgens Wielaard vaak mis. ‘Uit een onderzoek naar ongevallen met boten blijkt dat mensen die een zwemvest dragen meer kans hebben om te verdrinken. Dat lijkt eerst heel raar. Maar de conclusie dat een zwemvest niet veiliger is, klopt natuurlijk niet. Want mensen trekken vaak pas een zwemvest aan als de omstandigheden al heel slecht zijn. Zo bezien zijn die data dus wél logisch.’

Drones
Van der Hel onderschrijft het belang van de context voor het toezicht. Ze geeft een voorbeeld. ‘De Belastingdienst gebruikte bestaande camerabeelden van snelwegcamera’s voor een onderzoek naar privégebruik van de auto van de zaak. Dat mocht niet van de rechter. Die snelwegcamera’s zijn bedoeld om de snelheid te meten. De Hoge Raad oordeelde dan ook dat dit een schending was van het privéleven van zakelijke rijders, zonder toereikende wettelijke grondslag. Een toezichthouder mag data dus niet zomaar gebruiken voor een ander doel dan waarvoor ze worden verzameld. Een voorbeeld waarin nieuwe technologie wel goed werkt is het gebruik van drones door de NVWA voor het controleren van beroepsvissers.’
De privacy komt al snel in het geding als je data gaat verzamelen in combinatie met het gebruik van algoritmes, benadrukt Van der Hel. ‘Dat vraagt om zorgvuldigheid. Het is dan ook belangrijk dat toezichthouders op centraal niveau hun processen weloverwogen inrichten. Zo borgen ze datakwaliteit en het gebruik van algoritmes; zijn ze juist geprogrammeerd, worden de privacy-voorschriften in acht genomen, zijn ze niet discriminerend. Duidelijke communicatie daarover is van groot belang. Ook ligt er een taak voor de overheid om via wetgeving te borgen dat toezichthouders goed omgaan met de vele mogelijkheden van datatechnologie.’

Dit artikel is eerder gepubliceerd op toezine.nl.

Vond je dit artikel interessant? Lees alle artikelen van: ToeZine
Deel dit artikel

Er zijn nog geen reacties op dit artikel

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

*