AI-tools voor de zorg: welke extra regels gelden er?
De zorg verandert razendsnel. Waar we vroeger alles met pen en papier deden, duiken er nu overal slimme computers op.
AI-tools helpen artsen met het bekijken van röntgenfoto's, chatbots beantwoorden vragen van patiënten en sommige operaties worden uitgevoerd door robots. Klinkt als sciencefiction? Dat was het vijf jaar geleden misschien, maar het is nu al dagelijkse praktijk. Maar met al die slimme software komt er ook een grote vraag opzetten: hoe zit het eigenlijk met de regels? Mag dit allemaal zomaar?
Er zijn namelijk best wat wetten en regels waar je je aan moet houden. En die regels zijn soms best ingewikkeld.
In dit artikel duiken we in de wereld van AI en zorg.
We leggen uit wat de bestaande regels zijn, wat die ‘30%-regel’ betekent en vooral: welke extra regels we waarschijnlijk gaan krijgen.
Wat is er allemaal al mogelijk?
Voordat we in de regeltjes duiken, is het goed om te weten hoe ver we al zijn. AI is veel meer dan alleen een hulpje. De toepassingen zijn divers en groeien hard.
De digitste radioloog
Een van de grootste successen van AI in de zorg is het herkennen van ziektes op beelden.
Denk aan röntgenfoto's, MRI-scans of CT-scans. Bedrijven zoals PathAI ontwikkelen systemen die deze beelden analyseren met een nauwkeurigheid die soms beter is dan die van een mens.
Ze kunnen bijvoorbeeld al vroeg in de gaten krijgen of iemand kanker heeft. Dat betekent sneller behandelen en dus een grotere kans op genezing. Ook Google’s DeepMind Health is een bekende speler.
Medicijnen op maat
Hoewel er soms discussie is over privacy, hebben hun systemen aangetoond dat ze oogaandoeningen kunnen herkennen en zelfs kunnen voorspellen of iemand diabetes krijgt.
Het gaat niet alleen om kijken, maar ook om rekenen. Bedrijven zoals Tempus gebruiken AI om de genetische data van een patiënt te analyseren. Door te kijken naar de specifieke genetische mutaties van iemand, kunnen artsen een behandelplan op maat maken. Dit is vooral belangrijk bij complexe ziektes zoals kanker.
Chirurgie en hulp in de thuissituatie
De AI zoekt in een enorme database naar de beste medicijnen voor die ene specifieke patiënt. Robots in de operatiekamer zijn ook niet meer weg te denken.
Het da Vinci Surgical System is een bekend voorbeeld. Een chirurg bestuurt de robot, die veel preciezer kan bewegen dan een menselijke hand.
Dit zorgt voor kleinere wondjes en een snellere hersteltijd. De aanschaf is wel een investering; zo’n robot kost al gauw tussen de 2,5 en 3,5 miljoen euro. En tot slot zijn er de chatbots, zoals die van Babylon Health.
Ze helpen bij triage (wie is het eerst aan de beurt), beantwoorden simpele vragen en zijn 24/7 beschikbaar. Handig voor de patiënt en een stuk rustiger voor de doktersassistente.
De bestaande regels: de AVG en de MDR
Als we praten over regels in de zorg, dan draait het vaak om twee hoofdpijlers: privacy en veiligheid. De Algemene Verordening Gegevensbescherming (AVG) is je vast niet vreemd. Deze wet, die sinds 2018 van kracht is, is streng.
Privacy eerst: de AVG
Zorgverleners werken met extreem gevoelige data. Volgens de AVG moet je duidelijk maken waarom je die data verzamelt en hoe je het beveiligt.
Veiligheid voorop: de MDR
Het principe ‘privacy by design’ is hierin belangrijk: privacy moet vanaf de eerste ontwerpfase van een AI-systeem zijn ingebouwd, niet als een extraatje achteraf. Naast privacy is er de Medical Device Regulation (MDR).
Dit is de wet die regelt dat medische hulpmiddelen (zoals een AI die röntgenfoto’s analyseert) veilig zijn en werken zoals ze beloven. Voordat zo’n AI-tool gebruikt mag worden, moet de fabrikant laten zien dat het veilig is en een risicoanalyse maken. Dit proces kan best lang duren en zorgt ervoor dat niet zomaar elke app in het ziekenhuis gebruikt mag worden.
De EU AI Act: het grote boek der regels
De belangrijkste ontwikkeling op dit moment is de komst van de AI Act in Europa.
- Onacceptabel risico: Dit zijn systemen die verboden worden. Denk aan sociale scoresystemen (zoals in China) of manipulatieve technologieën.
- Hoog risico: Dit is de categorie waar de zorg in valt. AI die medische beslissingen neemt, beveiligt gebouwen of beheert kritieke infrastructuur.
- Beperkt risico: Denk aan chatbots. Hier gelden vooral transparantieverplichtingen (je moet weten dat je met een bot praat).
- Minimaal risico: Spamfilters of spellingscontrole. Daar gelden nauwelijks regels voor.
Dit is een specifieke wet die alleen gaat over kunstmatige intelligentie. De EU wil niet alles zomaar toestaan. Daarom hebben ze AI ingedeeld in vier verschillende risicocategorieën: De zorg valt dus in de 'hoog risico'-klasse. Dat betekent dat de makers van deze systemen aan zeer strenge eisen moeten voldoen voordat ze op de markt mogen komen. Denk aan het bijhouden van logs, het testen op discriminatie en het garanderen van menselijk toezicht.
De 30%-regel: waarom iedereen hierover praat
Een term die je steeds vaker hoort in de wandelgangen van ziekenhuizen en tech-bedrijven is de ‘30%-regel’.
Dit is geen wet, maar een richtlijn die steeds meer voet aan de grond krijgt. Het idee is simpel: als je een AI traint om ziektes te herkennen, moet minimaal 30% van de data waarmee je de AI leert, afkomstig zijn van de specifieke patiëntengroep waarvoor je het gaat gebruiken. Waarom is dit nodig?
Omdat AI-systemen vaak worden getraind op gigantische, openbare databases. Vaak zijn die databases niet divers genoeg.
Een AI die alleen getraind is op foto’s van blanke mannen, zal het minder goed doen bij een donkere vrouw.
Door de 30%-regel te hanteren, forceer je ontwikkelaars om specifieke data te verzamelen voor de groep waar ze het voor maken. Dit voorkomt bias (vooroordelen) en zorgt voor veiligere diagnosemiddelen. Hoewel het nu nog een ‘best practice’ is, is de kans groot dat dit in de toekomst een harde eis wordt voor certificering.
Wie is er schuldig als het misgaat?
Een van de grootste hoofdpijlers voor de wetgever is aansprakelijkheid. Stel: de AI maakt een fout. De verkeerde diagnose, een gemiste tumor.
- De dokter die de AI gebruikte?
- Huisartsen of specialisten?
- Het tech-bedrijf dat de software maakte?
- Het ziekenhuis dat het kocht?
Wie is er dan schuldig? Op dit moment is dat nog grijs gebied.
De huidige wetgeving is niet helemaal klaar voor AI die autonoom beslissingen neemt. Er is behoefte aan nieuwe regels die precies vastleggen wie verantwoordelijk is op het moment dat een algoritme de fout in gaat. Tot die tijd zullen artsen en ziekenhuizen voorzichtig moeten zijn en niet blindelings vertrouwen op wat de computer zegt.
De filosofische kant: De drie wetten van AI
Naast de harde wetten zijn er ook de 'zachte' regels. De beroemde sciencefictionauteur Isaac Asimov bedacht ooit de drie wetten van de robotica, die nu vaak worden aangepast voor AI: Hoewel dit fictie is, gebruiken ethici deze principes nog steeds. In de zorg komt dit erop neer: de AI mag nooit een beslissing nemen die schadelijk is voor de patiënt, en er moet altijd een menselijke 'noodknop' zijn.
- Een AI mag geen mens kwaad doen (of door te laten gaan).
- Een AI moet gehoorzamen aan orders (tenzij die orders in strijd zijn met de eerste wet).
- Een AI moet zijn eigen bestaan beschermen (zolang dat niet in strijd is met de eerste twee wetten).
Conclusie: Wat betekent dit voor de toekomst?
De AI in de zorg is niet meer te stoppen. De voordelen zijn te groot om te negeren.
Maar de tijd dat we zomaar wat software inzetten en hopen dat het goedkomt, is voorbij. We bewegen ons richting een toekomst met strengere regels. De AI Act gaat er voor zorgen dat AI-tools veilig inzetten binnen HR en andere afdelingen grondig getest moeten worden voordat ze in het ziekenhuis komen.
De 30%-regel gaat er voor zorgen dat die systemen eerlijk zijn voor iedereen.
Voor de zorgverlener betekent dit dat je kritisch moet blijven. Zie AI als een ijzersterke assistent, maar niet als een vervanging van je eigen verstand. De menselijke maat blijft leidend. En voor de tech-bedrijven betekent het: bouw aan systemen die niet alleen slim zijn, maar ook veilig, transparant en eerlijk. Alleen dan krijgt de patiënt het vertrouwen dat ze verdienen.
Veelgestelde vragen
Welke AI wetgeving is er in Nederland?
Op dit moment zijn er nog geen specifieke wetten die de inzet van AI in de zorg direct reguleren.
Wat is precies de "30%-regel" voor AI in de zorg?
Echter, veel AI-toepassingen vallen onder bestaande wetgeving, zoals de Zorgverzekeringswet, de Wet langdurige zorg en de Wet maatschappelijke ondersteuning. De overheid werkt momenteel aan een kader voor AI-regulering, met de focus op veiligheid en ethische principes. De "30%-regel" is een richtlijn die beoogt dat artsen en zorgverleners niet meer dan 30% van de beslissingen op basis van AI-analyses zelf moeten nemen.
Welke wetten zijn relevant voor het gebruik van zorgtechnologie?
Het doel is om de verantwoordelijkheid te behouden en de expertise van professionals te waarborgen, terwijl ze de voordelen van AI-ondersteuning benutten bij diagnoses en behandelplannen. Het gebruik van zorgtechnologie, waaronder AI-systemen, valt onder verschillende wetten en regels.
Wat zijn de belangrijkste toepassingen van AI in de zorg?
Verpleegkundigen, verzorgenden en verpleegkundig specialisten werken in de zorg onder de Zvw, Wlz, Wmo en Jeugdwet.
Zijn er specifieke regels voor robots die in de zorg worden ingezet?
Daarnaast zijn er privacywetten zoals de AVG die van toepassing zijn op de verwerking van patiëntgegevens. AI wordt in de zorg steeds vaker ingezet voor diverse taken, zoals het analyseren van medische beelden (zoals röntgenfoto's en MRI-scans) om ziekten vroegtijdig te detecteren, het personaliseren van behandelingen op basis van genetische data en het assisteren bij operaties met behulp van robots. Chatbots bieden ook 24/7 ondersteuning en triage. Hoewel er nog geen vaststaande ‘drie wetten’ zijn voor robots in de zorg, zijn er wel richtlijnen en ethische overwegingen. Robots mogen geen schade toebrengen aan patiënten of zorgverleners, moeten bevelen opvolgen en hun eigen bestaan beschermen, zolang dit niet in strijd is met de veiligheid en het welzijn van de patiënt.
