Kunstmatige intelligentie en algoritmen worden in toenemende mate ingezet in zowel de reguliere geestelijke gezondheidszorg als in de forensische zorg. In dit artikel verkennen wij de kansen en risico’s van deze ontwikkeling. We betogen dat zorgorganisaties actief een evoluerend juridisch kader moeten operationaliseren en risico’s actief moeten beheersen. Dit vereist investeringen in bewustwording en deskundigheid van professionals, het opzetten van risicobeheersingstructuren, en structurele samenwerking tussen zorgorganisaties, toezichthouders, beroepsverenigingen en patiëntenorganisaties. Wij pleiten voor een benadering waarin technologie de psychiatrische zorg ondersteunt zonder de klinische en menselijke kern ervan te verdringen.
Beeld: Shutterstock
Kunstmatige intelligentie en op algoritmen gebaseerde hulpmiddelen worden steeds vaker verkend, ontwikkeld, getest en gebruikt in de psychiatrische zorg, zowel in de reguliere geestelijke gezondheidszorg als in de forensische zorg. Ze kunnen en worden daadwerkelijk ingezet in klinische en forensische contexten ter ondersteuning van beoordelingen, behandelingen, administratieve processen en besluitvorming. Deze technologieën zijn bedoeld om de efficiëntie, effectiviteit en algehele kwaliteit van de psychiatrische zorg te bevorderen.
Zo biedt spraakgestuurd rapporteren de mogelijkheid om gesprekken tussen behandelaars en patiënten automatisch te transcriberen en samen te vatten, wat een verbeterde nauwkeurigheid van klinische dossiers belooft, de administratieve lasten vermindert en behandelaars in staat stelt om zich tijdens sessies volledige aandacht te richten op het gesprek. Wearables kunnen fysiologische en gedragsindicatoren continu monitoren, waardoor clinici realtime inzicht krijgen in de toestand en stressreacties van een individu. Daarnaast kunnen voorspellende tools, zoals risicotaxatie-instrumenten, behandelbeslissingen in de forensische psychiatrische zorg ondersteunen. Ten slotte worden technologieën als virtual reality ingezet ter ondersteuning van de behandeling van trauma’s en het uitvoeren van exposure therapie.
De toenemende rol van deze digitale technologieën brengt ook ethische en juridische risico’s, bijvoorbeeld met betrekking tot privacy, eerlijkheid, autonomie en transparantie.
Privacy en gegevensbescherming
Het gebruik van technische hulpmiddelen in de psychiatrische zorg – zoals wearables en spraakgestuurd rapporteren – genereren enorme hoeveelheden zeer gevoelige gegevens over het leven van patiënten. Gezien de gevoelige context waarin deze gegevens worden verzameld, verwerkt, opgeslagen en gedeeld, is het essentieel om de veiligheid, nauwkeurigheid en verantwoord gebruik ervan te waarborgen om de privacy en het vertrouwen in de psychiatrische zorg te behouden.
Dit risico kan nog groter worden wanneer er wordt samengewerkt met commerciële aanbieders. Aanbieders in de private sector kunnen andere belangen hebben dan instellingen met een publieke taak en er baat bij hebben deze gegevens te gebruiken om bijvoorbeeld AI-systemen te trainen en hun producten te verbeteren. Voor organisaties die deze technologieën gebruiken, betekent dit dat zij de privacy en gegevensbescherming binnen hun eigen organisatie moeten waarborgen, maar ook dat zij weloverwogen keuzes moeten maken over externe aanbieders en ervoor moeten zorgen dat er duidelijke afspraken zijn over de verwerking en opslag van gegevens.
Ongelijke behandeling en discriminatie
Een tweede punt van zorg met betrekking tot het gebruik van algoritmen en AI in de psychiatrische zorg betreft het risico op ongelijke behandeling en discriminatie. In Nederland hebben onder andere het toeslagenschandaal en ‘discriminatie bij de controle uitwonende beurs’ het bewustzijn hiervan vergroot. Dit risico doet zich eveneens voor in de psychiatrische zorg, wanneer technische hulpmiddelen worden ingezet in situaties en processen waarin niet alleen de gezondheid, maar ook de vrijheid (in de forensische zorg) van patiënten op het spel staat.
Met betrekking tot risicotaxatie-instrumenten die worden gebruikt bij het voorspellen van recidive bestaat het risico op ongelijke behandeling en discriminatie. Dit risico is met name aanwezig wanneer dergelijke instrumenten gebruikmaken van risico-indicatoren die er direct of indirect toe leiden dat bepaalde demografische groepen onevenredig en onterecht als een hoger risico worden aangemerkt. Waar algoritmen en AI-systemen worden ingezet ter ondersteuning van diagnostiek, risicotaxatie en behandelbeslissingen, is het essentieel dat deze risico’s expliciet worden onderkend. Het onvoldoende adresseren van deze risico’s kan leiden tot systematische en onrechtmatige discriminatie, het versterken van bestaande sociale ongelijkheden en het ondermijnen van de eerlijkheid en legitimiteit van besluitvorming.
Klinische wijsheid behouden in een digitaal tijdperk
Ten derde is het van essentieel belang om de grenzen van de digitale wereld goed in het oog te houden. Hoewel data-analyse de diagnostische blik kan verscherpen, kan deze de relationele basis van het psychiatrische beroep niet reproduceren. Een algoritme kan weliswaar verschillende gedragspatronen ontleden, maar het kan niet bij een patiënt zitten in de zware, beladen stilte van een spreekkamer. Het kan de kenmerkende, door verwaarlozing doordrenkte geur van een patiënt in crisis niet waarnemen, noch kan het zich bezighouden met het rommelige, intuïtieve werk van zelfreflectie dat vaak aan een doorbraak voorafgaat. Technologie is een krachtige aanvulling op klinisch oordeel, maar nooit een vervanging ervan.
Dit brengt ons bij het verleidelijke gevaar van automation bias. Psychiaters, artsen en rechters kunnen in de verleiding komen om zich te laten leiden door de heldere zekerheid van algoritmische output, maar deze ‘objectiviteit’ is vaak een illusie, een die minderheidspatiënten onevenredig veel schade kan berokkenen. Een algoritme dat blind is voor culturele nuances, kan een bepaalde toon verkeerd interpreteren als agressief in plaats van expressief, of een cultureel gewortelde stilte interpreteren als weerstand in plaats van respect.
Wanneer we toestaan dat de berekeningen van een machine ons redeneringsvermogen vervangen, versterken we deze onzichtbare vooroordelen. In de geestelijke gezondheidszorg en de forensische psychiatrie, domeinen waar beslissingen vrijheden en toekomsten bepalen, kan het ethische kompas van professionals niet worden uitbesteed aan een black box. De menselijke dimensie is geen variabele die geoptimaliseerd moet worden; het is het essentiële controlemechanisme dat ervoor zorgt dat gegevens het verhaal ondersteunen in plaats van het te dicteren.
Transparantie en verantwoording
Om innovatie in Nederland te laten wortelen, moet deze groeien in de vruchtbare bodem van vertrouwen. Dit betekent dat we verder moeten gaan dan louter naleving en moeten streven naar proactieve transparantie en verantwoording. Patiënten zijn niet slechts datapunten, maar partners in een kwetsbare alliantie. Ze moeten weten of een geautomatiseerd systeem meeweegt in hun prognose, en ze hebben het recht te begrijpen welke delen van hun persoonlijke geschiedenis aan die beoordeling ten grondslag liggen.
Transparantie activeert de rechten van patiënten. Het stelt individuen in staat om ‘waarom?’ te vragen, toegang te krijgen tot hun digitale voetafdruk, een conclusie aan te vechten of gewoon inzicht te krijgen in de onzichtbare architectuur die hun zorg vormgeeft. Verantwoording kan daarom geen bureaucratische bijzaak zijn of een checklist die wordt opgeborgen. Als we digitale hulpmiddelen invoeren, moeten zorgverlenende instanties en professionals daar met integriteit achter kunnen staan. Dit vereist robuuste governance en voortdurende menselijke controle van de risico’s die we introduceren. Uiteindelijk moeten we een patiënt in de ogen kunnen kijken en niet alleen onze klinische beslissingen kunnen rechtvaardigen, maar ook de digitale hulpmiddelen die we hebben toegestaan om deze mede vorm te geven
Naar een verantwoord gebruik van technologie
Om te kunnen profiteren van de voordelen van technologie in de psychiatrische zorg, moeten organisaties overwegen hoe zij een evoluerend juridisch kader kunnen operationaliseren. Dit kader bestaat uit grondrechten, de Algemene verordening gegevensbescherming, de AI-verordening en sectorspecifieke wetgeving als de WGBO (die de behandelingsrelatie regelt) en de Wvggz of Wfz (die gedwongen en forensische zorg regelen). Het niet operationaliseren van deze wetgeving, bijvoorbeeld op gebied van geinformeerde toestemming, medisch beroepsgeheim, en het recht op non-discriminatie, kan schade toebrengen en het vertrouwen in de psychiatrische zorg ondermijnen.
De wet roept organisaties op om juridische en ethische risico’s voor patiënten, maar ook professionals, aan te pakken, maar de sector en de organisaties daarbinnen zijn zelf verantwoordelijk voor het ondernemen van die actie. Om dit juridische kader te operationaliseren, staan organisaties voor de uitdaging hoe ze deze technologieën verantwoord kunnen ontwerpen, implementeren en gebruiken, zodat ze de psychiatrische zorg ondersteunen in plaats van in gevaar brengen. Dit vereist in het bijzonder investeringen in bewustwording en expertise, risicobeheersingsstructuren, en samenwerking.
Investeren in bewustwording en deskundigheid van professionals op verschillende niveaus binnen zorgverlenende organisaties is een essentiële stap. Dit geldt voor iedereen die betrokken is bij het ontwerp, de implementatie of het gebruik van technische hulpmiddelen. Door deze investering zijn professionals in staat de werking, prestaties en risico’s van deze hulpmiddelen kritisch te beoordelen en gerichte vragen te stellen, zowel intern als aan externe leveranciers.
Daarnaast vereist verantwoord gebruik het opzetten van risicobeheersingsstructuren. Dit omvat het formuleren van strategieën en beleid rond technische innovatie, het opstellen van procesbeschrijvingen en protocollen, het uitvoeren van impactbeoordelingen en het voortdurend reflecteren op de effectiviteit van de beheersingsaanpak. Dergelijke structuren zorgen ervoor dat juridische en ethische risico’s tijdig worden geïdentificeerd, besproken en beperkt. Ze borgen dat doelstellingen en beslissingen rond technologie gebruik onderbouwd zijn, en dat organisaties zowel controleerbaar als aanspreekbaar blijven.
Samenwerking met andere organisaties en academici die zich met dezelfde uitdagingen bezighouden, kan een onschatbare rol spelen. Het stelt organisaties in staat om geleerde lessen te delen, vergelijkbare normen voor risicobeheer te ontwikkelen, en bij te dragen aan de methodologische en wetenschappelijke onderbouwing van technologie en risico beheerspraktijken. Ook overkoepelende partijen dragen hierin een verantwoordelijkheid. Toezichthouders als de Autoriteit Persoonsgegevens en de Inspectie Gezondheidszorg en Jeugd, ministeries als VWS en JenV, beroepsverenigingen als de NVvP en de KNMG, kwaliteitsorganisaties en kenniscentra als Akwa GGZ en het Expertisecentrum Forensische Psychiatrie, en patiëntenorganisaties als MIND, kunnen gezamenlijk samenwerking faciliteren, normen en richtlijnen bieden en uniformiteit in verantwoord technologiegebruik binnen de sector bevorderen.



Geef een reactie