De vrijheid van (dis)connectiviteit, meningsvorming en bewegen

Digitale mensenrechten als waarborg

Met relatief nieuwe en veelbesproken technologieën als cloud, big data[1], artificial intelligence heb je gemakkelijk en overal waar je dat wilt toegang tot onderwijs, zorg, entertainment en basisvoorzieningen als voedsel en transport. Voorbeelden genoeg. Die connectiviteit maakt het leven gemakkelijker. Het wordt ook steeds meer onmisbaar voor ontwikkeling, welbevinden en welzijn van individu en organisatie. Daardoor nemen ook de risico’s toe, individueel en maatschappelijk.

Het is belangrijk om een waarborg voor die vrijheid te maken voor individu en organisaties zodat zij in staat zijn hun recht te halen als het gaat om het basisrecht op (dis)connectiviteit, de vrijheid van meningsvorming en beweging. Die moeten vastgelegd worden in een clausule bij de Universele Verklaring van de Rechten van de Mens (1948) en/of het Handvest van de Grondrechten van de Europese Unie (2007) opdat zij die zo nodig rechtstatelijk kunnen bevechten.

Recht op (dis)connectiviteit
Personen en organisaties maken steeds meer gebruik van nieuwe technologie en procesinnovatie bij het aanbieden, verwerven en transporteren van goederen en diensten, gezondheid, welbevinden (muziek, entertainment, temperatuur leefomgeving), overheidsdiensten (identiteitsdocumenten, vergunningen, uitkeringen). Zelfs tandenborstels verzamelen data om u te informeren over de gezondheid van uw tanden (beschrijvende analyse), de kans op een ontsteking (voorspellende analyse). Alles wordt met alles verbonden. Daardoor kunnen hele ketens zonder tussenkomst van de mens bediend gaan worden. Bijvoorbeeld: de ijskast bestelt eten en drinken op basis van gebruikspatronen en wensen van de bewoners bij een logistiek centrum. Daar sorteren robots de producten en leveren de bestelde goederen aan het zelfrijdend transport. Dat levert het thuis af. Toegang tot een deel van die diensten met een goede kwaliteit is noodzakelijk, ook als je het niet kan betalen. Bijvoorbeeld voor gezondheid, onderwijs en vervoer. Hoe dat te waarborgen?
Als we niet uitkijken leiden financiële mogelijkheden tot nieuwe digitale klassen: de mensen met VIP-connectiviteit; met modale connectiviteit, met basis of geen connectiviteit. In feite hebben we die verschillen nu ook. Scholen die meer geld hebben, kunnen meer doen. Het verschil is dat fysieke arbeid, moed en intelligentie in een digitale, virtuele en volle wereld niet het overwegend verschil meer maken voor onze ontwikkeling. In die wereld is de combinatie van digitale en subtiele sociale vaardigheid onmisbaar voor het persoonlijk en zakelijk succes. Hoe leer je dat als geen of beperkte toegang hebt tot de digitale wereld? Hoe maak je je dan de gewoonte eigen, de kennis?

Met Artificial Intelligence (AI) en Big Data en een grote hoeveelheid data genererende sensoren en camera’s op straat kunnen personen en vervoermiddelen eenvoudig gevolgd worden, real-time of later. Het is geen toekomst. In Singapore zijn er nu al bijna 7,5 miljoen sensoren en 100.000 camera’s op een bevolking van ca 5,5 miljoen. In New York City met ca 8,5 miljoen bewoners zijn er 2-3 miljoen sensoren. Het worden er nog meer.

En ook: als je die toegang en die kennis wel hebt, kan je dan nog kiezen dat er geen data verzameld worden over jou (‘opt-out’)? Dus, wel gebruik maken van de diensten die je nodig hebt, bijvoorbeeld als het gaat om toegang tot het publieke transport, voedsel, onderwijs en dergelijke. En toch niet volledig meedoen aan de digitale wereld omdat je niet het risico wilt lopen dat ieder alles over jou kan weten. En, als je een ‘opt-out’-mogelijkheid hebt, wie controleert dat die gerespecteerd wordt? Bij wie en op basis waarvan kan je jouw recht halen als je meent dat dit wordt geschonden? Kortom: een basisrecht moet zijn:

  • connectiviteit (EZ, 2016).
  • een gewaarborgde mogelijkheid tot selectieve disconnectiviteit van data en technologie.
  • de mogelijkheid om snel en zonder grote financiële lasten jouw recht te halen (geschilcommissie?).

Alleen dan kan iedereen dezelfde mogelijkheden hebben om zich te ontwikkelen binnen de wensen en de mogelijkheden van het individu. Het is ook economisch verstandig. Het is immers zonde om intelligentie en vaardigheden te verkwisten in een samenleving waar dat de belangrijkste grondstof is van de economische ontwikkeling. Het recht op (dis)connectiviteit geeft echter nog niet een waarborg voor individuele vrijheid van meningsvorming en handelen. AI en Big Data zijn ook voor ongeziene gedragsbeïnvloeding via ‘framen’, ‘nudges[2]’, ‘primes[3]’.

Vrijheid van meningsvorming
Framen is selectief datagebruik, specifiek voor doel en doelgroep. De selectie is gericht op het creëren van een beeld of een mening door herhaling en verspreiding van selectieve informatie. ‘Constant repetition reinforces and enhances neural circuits, enhances memorability and encourages acceptance of the frame’[4]. Het effect van framen wordt versterkt doordat leden van een groep de neiging hebben mee te gaan met wat ‘de groep’ vindt (sociale bewijslast). Roken was lang normaal, lekker en niet ongezond. We deden het bijna allemaal. Het kostte tientallen jaren om ‘ons’ – de groep – van het tegendeel te overtuigen. Experts spraken elkaar tegen. Dat doet denken aan de discussie over vervuiling van de wereld…. Wat is ‘waar’?
Het – bij voorkeur ongezien – beïnvloeden van meningsvorming en gedrag is zo oud als de wereld. Bij mensen noemen we de vaardigheid om ons gedrag te beïnvloeden vaak leiderschap, ‘charisma’…. Het verschil is dat we bij leiders weten dat ze het doen, we zien en ervaren het. En, leiders kunnen niet overal tegelijk zijn en staan niet altijd ‘aan’. Straks zijn er overal sensoren, is alles met alles verbonden en altijd ‘aan’. Dan krijgen nudging en priming ineens een heel ander – gevaarlijk – perspectief. Hoe weten we bijvoorbeeld dat we over alle data beschikken voor onze oordeelsvorming?
Aan de andere kant nemen dankzij Big Data en AI  (Artificial Intelligence) de mogelijkheden tot het checken van ‘feiten’ en daar op gebaseerde meningen en gedrag de komende periode sterk toe, ook in de boardroom (zie kader). Uber gaat de klant in rekening brengen wat ze verwachten dat deze wil betalen….[5]

‘For a CEO, typically the way it works is, of course, you have various people, mostly politicians and bureaucrats, in your staff meeting who are telling you what they want to tell you to kind of get you to believe what they want you to believe. Einstein comes without bias. So because it’s just based on the data, it’s a very exciting next-generation tool….. To have Einstein guidance <<Einstein = naam AI device>> has transformed me as a CEO.’ – CEO Marc Benioff in de Bussines Insider Nederland.

Naarmate we meer kunnen met meer data uit veel meer bronnen, is het mogelijk om meer feiten te verzamelen en te analyseren. Echter, ook bij Big Data geldt: garbage in = garbage out. De grote hoeveelheid data veronderstelt dat garbage sneller herkend kan worden; dat de analyseresultaten meer betrouwbaar zijn. Dat gaat er van uit dat alle mogelijke data gebruikt worden. Is dat zo? Er zijn inmiddels zoveel data dat je niet weet waar je moet beginnen om de mogelijk relevante data voor jouw vraag te vinden; dat het feitelijk ook niet meer kan door een persoon. Je kan dus ook niet controleren of een ondersteunende faciliteit als ‘Big Data’ ook alle beschikbare data gebruikt heeft. Terwijl deze faciliteit ‘een noodzakelijke hulp is om een mening te kunnen vormen op basis van de bekende feiten en meningen. Voorwaarde voor een zo objectief mogelijke meningsvorming is dat de zoekscope van Big Data niet beperkt is zodat alle beschikbare data gebruikt kunnen worden voor een analyse. Het recht dus op toegang tot alle data, zonder ongeziene – al dan niet geprogrammeerde – beperkingen. Dat recht wordt nu al geschonden, bijvoorbeeld doordat google de zoekresultaten (mede) baseert op wat je eerder zocht.

Vrijheid van gedrag
Het is mogelijk om met data van smart phones het gedrag van mensen te volgen en de route die zij nemen te beïnvloeden door een slim gebruik van ‘tips’ via borden en app. Dat gebeurde bij ‘Sail Amsterdam-2015’. In Stratumseind, Eindhoven, gebruikt men kleur en licht om gedrag te beïnvloeden. Is dat data? Het gebeurt in ieder geval op basis van data, over de groep, de omgeving en de ervaringen met gedragspatronen. In de gemeente Amstelveen overweegt men een proef te starten, waarin wordt nagegaan of onderkend kan worden in welke wijken de meeste mensen wonen die actief willen participeren. En, met welke invloedfactoren er de grootste kans is om hen te stimuleren actief te worden in vrijwilligerswerk en bij beleidsontwikkeling.
Big Data, samen met AI en robotica kan dus leiden tot een wereld waarin gepredestineerd opereren normaal wordt, bijna zonder dat je het weet. Bewust, bijvoorbeeld doordat het gedrag gemonitord wordt en een ‘ongezonde levensstijl’ automatisch leidt tot hogere verzekerings- en ziekenhuistarieven. En onbewust. Dat laatste gebeurt nu al. Er is inmiddels een heuse industrie, werkend met allerlei ‘trackers’. Die verzamelen informatie over waar je naar kijkt, waar je naar toe gaat of wil gaan, wat je leest, wie je vrienden zijn, wat je eet en drinkt e.d. Men gebruikt de foto’s die je post, mails die je uitwisselt, sites die je bezoekt, producten die je online bekijkt en koopt e.d. Op basis daarvan worden je berichten gestuurd, krijg je websites te zien en/of gekleurd nieuws. Dat wordt steeds gedetailleerder doordat er steeds meer ‘things’ smart zijn gemaakt. Nog meer data over de voorkeuren van jou en jouw gezin. We worden zelfs gevolgd nadat we de app gedelete hebben. Über is daar echt niet de enige in[6]. Hoe moet dat als we straks in staat zijn om analyses van gedragspatronen uit te voeren met één of enkele nano-chips? Nudging, priming etc is dan kinderspel.

‘Every day, many people will try to change your mind, but they won’t reason with you. Instead, you’ll be nudged, anchored and incentivized.  It’s a profound shift in the way we interact with one another. How did we end up with a world where beliefs are mass-produced by lobbyists and PR firms? Could Google or Facebook swing elections? Are new kinds of persuasion making us less likely to live happy, decent lives in an open, peaceful world? Is it too late, or can we learn to listen to reason again?’ (J. Garvey, 2016)[7]

Het risico is dat onze mentale individuele bewegingsruimte wordt beperkt doordat we niet meer kunnen beschikken over alle data, waardoor onze meningsvorming sterk wordt beïnvloed. Of dat we beschikken over bewust gekleurde data om verkiezingen te beïnvloeden. Ook is er het risico dat we zoveel data hebben, dat we geen oordeel meer kunnen vormen en ons daarom verlaten op enkele mensen of nieuwsmedia waarvan we denken dat die hun mening oordeelkundig en objectief vorm geven. Deze risico’s zijn er nu ook. Nieuw is de potentiële omvang, de reikwijdte, de onzichtbaarheid, de impact van de technologie. We moeten dus het recht hebben om:

  • 100% procent vrij te zijn van de leverancier als je die dienst hebt opgezegd en de app gedelete.
  • data alleen verzamelen over jou als jij dat weet en wanneer en zolang als jij dat goed vindt.
  • te weten wanneer er gebruik gemaakt wordt van beinvloedingstechnieken als ‘nudges’ en ‘primes’. 

Recht om te worden vergeten
Inmiddels weet iedereen wel dat de foto die je vandaag op facebook zet niet meer van het internet af komt als die wordt gedeeld. Er zijn inmiddels genoeg casussen van mensen die dachten ongezien te zijn en vervolgens hun privé moment op het internet terug zien, of de afgewezen ex-vriend of partner….. Gaandeweg ontstaat er jurisprudentie. Het blijft echter moeilijk om te achterhalen wie foto’s en geruchten op het internet heeft gezet. Providers en faciliteiten leveranciers als facebook werken ook lang niet altijd gemotiveerd mee, lijkt. Er begint echter verandering te komen. Recent oordeelde het gerechtshof Den haag dat ook mensen die de fout zijn ingegaan, in dit geval een advocaat, het recht hebben vergeten te worden[8]. Daar begint ook de onduidelijkheid. Hoe zit dat met de delicten van de crimineel en de daarbij horende veroordelingen? De overtredingen, de blunders en dergelijke van de bekende Nederlander? En zo nog wat vragen. Er zijn ook gevallen die klip en klaar zijn. Wat te denken van de vrouw die lange tijd geleden door een leraar tijdens het ‘nablijven’ verkracht werd. Toen ze deze man aanklaagde en het proces won werd zij door de publiciteit ongewild een min of meer bekende vrouw. En, alles te vinden op Google. Sinds enkele jaren kan zij Google vragen informatie weg te halen. Dat is gebeurd, waardoor ze op dat door velen gebruikt medium vrij is van dat verleden. Daarmee is niet alle informatie over die zaak op internet weg. Dat is hoogstwaarschijnlijk praktisch onhaalbaar. Met het recht om vergeten te worden, kan je echter in specifieke gevallen, bijvoorbeeld de meest opvallende, ‘met recht’ vragen informatie weg te halen. Als men dat niet wil, kan de onafhankelijke rechter om een oordeel gevraagd worden.
Laten we het recht om vergeten te worden vastleggen in de digitale rechten van de mens. De praktijk vult in waar de grenzen liggen, op basis van de jurisprudentie uit door individuen en groepen aangespannen zaken.

Digitale mensenrechten nodig
Vrijheid van meningsvorming en bewegen is een groot goed. De beïnvloeding via diverse media en de alomtegenwoordige camera’s in smartphones lijken die nu al te beperken. De straks alomtegenwoordige technologie versterkt die mogelijkheid. Tenzij we ervoor zorgen dat dit maatschappelijk niet kan en we er democratisch handhaafbare regels voor stellen. Bijvoorbeeld een regel dat de voor trafficmanagement nodige data synthetisch moet zijn en dus niet herleidbaar naar individu, locatie of specifiek object. En een bijhorende verplichting dat de software om de data te synthetiseren een onverbrekelijk onderdeel moet zijn van de hardware (‘privacy by design’).
Amsterdam en Eindhoven maakten begin dit jaar een begin met regels door een viertal hoofdprincipes vast te stellen voor ‘IoT en datagebruik’ in de openbare ruimte van de stad[9]. De wethouder EZ, Kajsa Ollongren, van Amsterdam gaf recent opdracht om een openbaar register voor IoT-technologie in de openbare ruimte te realiseren. Dan kunnen bewoners en ondernemers zien waar welke (IoT-)technologie (o.a. sensoren, camera’s) in de openbare ruimte aanwezig is en wat het doet, voor wie[10]. Het is wenselijk te zorgen voor transparantie, zodat we kunnen weten wat er gebeurt, door wie en waarvoor. EN, gelijktijdig te zorgen voor houvast voor individu en organisatie waarmee zij hun basisrecht op vrijheid van bewegen, handelen en meningsvorming zo nodig rechtstatelijk kunnen bevechten.
Waarheidsvinding is moeilijk; framen gemakkelijk. Het is noodzakelijk basisrechten en -regels vast te leggen in ‘Digitale Mensenrechten of in een clausule bij de Universele Verklaring van de Rechten van de Mens (1948) en/of het Handvest van de Grondrechten van de Europese Unie (2007). Niet om deze te handhaven. Dat is niet te doen. Wel om houvast te bieden aan individu en groepen zodat zij desgewenst hun recht op onder andere vrije meningsvorming en bewegingsruimte kunnen halen.

Notes

  • [1] Voor dit artikel nemen we data breed: getallen, tekst en beeld. We maken geen onderscheid tussen data, informatie en kennis.
  • [2] nudging = zintuigprikkeling door het tonen van een optie, waardoor mensen makkelijker het gewenste gedrag vertonen; een duwtje in de rug. Bijvoorbeeld: lijnen of pijlen op straat, wijzend naar de plekken om afval kwijt te raken; geverfde vlakken naar de container met beelden die plaatsing van afval afremt. Geen verbodsborden gebruiken, positieve signalen werken beter.
  • [3] primes = subtiele zintuigelijke prikkels die onbewust bepaalde kennis activeren. Bijvoorbeeld: citroengeur en glanzende voorwerpen activeren om schoon te houden.
  • [4] Soules, M.; (2015: 15); ‘Media, persuasion and propaganda’; Edinburgh University
  • [5] https://www.bloomberg.com/news/articles/2017-05-19/uber-s-future-may-rely-on-predicting-how-much-you-re-willing-to-pay
  • [6] Zie: https://decorrespondent.nl/5205/dit-zijn-de-stalkers-gluiperds-en-snelle-jongens-die-je-de-hele-dag-achtervolgen/253467885-c22fdbeb
  • [7] Garvey, James; (2016); ‘The Persuaders: The Hidden Industry That Wants To Change Your Mind’; Icon Books
  • [8] Parool; (mei 2017); ‘Veroordeelde mag worden vergeten’; Amsterdam
  • [9] Financieel Dagblad; (10 april 2017); ‘Amsterdam en Eindhoven willen greep op de digitale stad’
  • [10] Parool; (10 april 2017); ‘Gemeente gaat dataregistratie in stad inzichtelijk maken’; Amsterdam

D

Vond je dit artikel interessant? Lees alle artikelen van: Theo Veltman
Deel dit artikel

Er zijn nog geen reacties op dit artikel

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

*