De opkomst van gecontroleerde gezondheidszorg AI
Terwijl miljoenen mensen hun medische vragen al aan ChatGPT of andere taalmodellen stellen, lanceren Amerikaanse zorginstellingen nu hun eigen varianten. Bedrijven zoals K Health en Hartford HealthCare rollen PatientGPT uit naar tienduizenden patiënten. Deze stap is een direct antwoord op de trend waarbij 1 op de 3 volwassenen AI gebruikt voor medische informatie. De vraag is niet of AI de zorg gaat vormgeven, maar hoe we dit veilig en transparant doen binnen een medisch systeem.
De inzet van gezondheidszorg AI is bedoeld om de druk op de reguliere zorg te verlichten. In de Verenigde Staten heeft bijna een derde van de bevolking geen vaste huisarts, waardoor de drempel naar een chatbot laag is. Systemen zoals PatientGPT werken in twee modi: een algemene vraagbaak en een medische intake die klinische stroomdiagrammen volgt. Hierbij wordt de patiënt direct doorverwezen naar spoedeisende hulp als de symptomen daar aanleiding toe geven.
Risico’s van hallucinaties en onjuist advies
Onderzoek van de Universiteit van Oxford werpt een kritisch licht op de betrouwbaarheid van deze modellen. Hoewel AI in gecontroleerde tests medische condities in 95 procent van de gevallen correct identificeert, keldert dit percentage naar slechts een derde in realistische scenario’s. Dit komt doordat patiënten vaak niet weten welke informatie essentieel is voor de AI om tot een juiste conclusie te komen. De gezondheidszorg AI presteert dus aanzienlijk slechter wanneer de gebruiker zelf de regie voert over de input.
Daarnaast is er het gevaar van bewuste misleiding. Zweedse onderzoekers slaagden erin om modellen te laten praten over ‘bixonimania’, een huidziekte die zij volledig hadden verzonnen. Dit onderstreept de kwetsbaarheid van AI voor foutieve bronnen op het internet. De grote softwareleverancier Epic probeert dit op te lossen met Emmie, een assistent die alleen antwoorden baseert op het eigen medisch dossier van de patiënt in plaats van op het open web.
Toezicht en menselijke controle blijven essentieel
De verschuiving naar automatisering betekent niet dat de mens verdwijnt, maar de rol van de zorgverlener verandert wel. Hartford HealthCare monitort in de beginfase elke interactie, maar schakelt later over naar steekproeven van twintig gesprekken per dag. De rest van de controles wordt uitgevoerd door een tweede AI-agent. Dit roept vragen op over de uiteindelijke aansprakelijkheid wanneer een systeem een cruciale diagnose mist.
Toch zien CIO’s in de sector geen weg terug. De patiënt wil snelle antwoorden en gemak. Door gezondheidszorg AI aan te bieden binnen een vertrouwde klinische omgeving, proberen instellingen te voorkomen dat patiënten zelf gaan experimenteren met onbetrouwbare tools. De focus ligt hierbij op het voorbereiden van afspraken en het samenvatten van testresultaten, zodat de kostbare tijd van de arts effectiever benut kan worden.
Wat valt ons op?
De vraag is niet of AI de zorg gaat vormgeven, maar hoe we dit veilig en transparant doen binnen een medisch systeem.
Wat betekent dit voor jou?
Het inzetten van AI voor specialistisch advies brengt grote risico’s met zich mee op het gebied van aansprakelijkheid en nauwkeurigheid. Ondernemers moeten begrijpen dat de kloof tussen een demonstratie en de praktijk vaak groter is dan gedacht.
- Beperk AI-advies tot ondersteunende taken zoals het samenvatten van informatie in plaats van besluitvorming.
- Implementeer ‘red teaming’ om te testen waar je systeem faalt bij onlogische of onjuiste gebruikersinput.
- Zorg altijd voor een menselijke ‘safety valve’ bij processen die direct impact hebben op het welzijn van klanten.




