De EU AI Act is niet langer een voorstel, maar inmiddels officiële wetgeving. De regels worden gefaseerd ingevoerd. De Europese Commissie heeft hiervoor een duidelijke implementatietijdlijn vastgesteld, met belangrijke mijlpalen in 2025 en 2026. Voor sommige verplichtingen geldt bovendien een langere overgangsperiode die doorloopt tot 2027.
De gefaseerde invoering wordt ook toegelicht in de AI Act Service Desk van de Europese Commissie. Daarin wordt een stapsgewijze implementatie van de wet beschreven, waarbij bepaalde onderdelen van het kader uiterlijk op 2 augustus 2027 volledig van kracht worden.
De verplichtingen voor hoog-risico AI-systemen worden vaak in verband gebracht met 2026, omdat een groot deel van de AI Act vanaf dat moment breed van toepassing wordt. Tegelijkertijd laten recente berichtgeving en beleidsdiscussies zien dat er aanhoudende druk en debat bestaat over de timing en de mate van voorbereiding. Daarbij wordt onder meer gesproken over het mogelijk uitstellen van onderdelen van het kader voor hoog-risico AI-systemen.
Voor klinische onderzoeksorganisaties schept dit een duidelijke richting, maar ook toenemende aandacht voor hoe de implementatie in de praktijk zal verlopen. De uitvoering van klinische studies maakt namelijk al veel gebruik van AI-gestuurde systemen, bijvoorbeeld voor monitoring, data-analyse, codering, signaaldetectie en workflowbeheer. Terwijl de regelgevende verwachtingen steeds scherper worden, blijft de operationele afhankelijkheid van AI verder groeien.
De eerste operationele impact voor sponsors en leveranciers
In de praktijk merken teams de impact als eerste bij inkoop (procurement) en leveranciersbeheer. AI-functionaliteit wordt namelijk steeds vaker geïntegreerd in bredere platforms, in plaats van dat het als losse tool wordt aangeboden. De classificatie onder de AI Act bepaalt vervolgens hoe deze systemen worden beschreven, beheerd en gemonitord.
Ook de toezicht- en controleprocessen veranderen, omdat vragen die eerder informeel werden gesteld nu gestructureerd moeten worden beantwoord. Teams hebben duidelijke informatie nodig over het beoogde gebruik, welke documentatie beschikbaar is, welke logging en monitoring mogelijk zijn, en welke governance-maatregelen van toepassing zijn. Dit zijn inmiddels geen theoretische vragen meer: ze hebben direct invloed op interne goedkeuringsprocedures en op de voorbereiding op inspecties.
AI-gestuurde tools beïnvloeden waar teams hun aandacht op richten en welke prioriteiten ze stellen. Een gerangschikte lijst met onderzoekslocaties, een risico-indicator of een automatisch gegenereerd signaal neemt misschien niet formeel een beslissing, maar bepaalt wel waar teams naar kijken en wat zij escaleren. Juist die invloed zorgt ervoor dat de tool onderdeel wordt van de operationele controleomgeving van een klinische studie.
Classificatie als hoog risico en verantwoordelijkheid van de sponsor
De AI Act maakt onderscheid tussen verschillende categorieën AI-systemen, waaronder systemen die als hoog risico worden aangemerkt. Voor deze hoog-risicoclassificatie gelden duidelijke eisen op het gebied van risicobeheer, datagovernance, technische documentatie, logging, transparantie en menselijk toezicht.
Klinische onderzoeksteams ontwikkelen deze systemen vaak niet zelf, maar het gebruik van de resultaten blijft wel zichtbaar binnen het onderzoek. De verantwoordelijkheid van de sponsor verdwijnt niet omdat een leverancier het platform aanbiedt. Het delegeren van technologie betekent namelijk niet dat het toezicht kan worden uitbesteed. Wanneer de output van een systeem invloed heeft op bijvoorbeeld monitoringprioriteiten, escalatiebeslissingen of kwaliteitscontroles, maakt het systeem feitelijk onderdeel uit van het controle- en governancekader van de sponsor.
De governance-verwachtingen gaan verder dan alleen contractuele afspraken. Ze hebben ook betrekking op hoe systemen worden geïmplementeerd, hoe de uitkomsten worden geïnterpreteerd en hoe wordt omgegaan met verschillen van inzicht of afwijkende resultaten.
Vragen die elk onderzoeksteam aan leveranciers zou moeten stellen
AI-gestuurde functionaliteiten zijn inmiddels breed geïntegreerd in de platforms die worden gebruikt voor het uitvoeren van klinische studies. In gesprekken met leveranciers is het daarom belangrijk om duidelijk vast te stellen wat het beoogde gebruik van de tool is, waar de grenzen liggen en welk bewijs er is voor hoe het systeem zich in de praktijk gedraagt. Dezelfde vragen komen vaak opnieuw naar voren tijdens onboarding, validatie en change control, omdat ze bepalen in hoeverre de uitkomsten van het systeem betrouwbaar zijn en later ook goed kunnen worden verklaard.
Beoogd gebruik en afbakening
Het beoogde gebruik en de scope van een tool moeten expliciet worden vastgelegd. De tool moet een duidelijk gedefinieerd operationeel doel hebben binnen een specifieke context van een klinische studie. Daarnaast moet helder zijn wat de tool níét doet. Wanneer deze grens bij de implementatie niet duidelijk is, ontstaat het risico dat het gebruik van de tool geleidelijk wordt uitgebreid, zonder dat teams zich daar volledig van bewust zijn.
Datainvoer en controle
Databronnen verdienen kritische aandacht. Teams moeten begrijpen welke data het systeem voeden, wie de datastromen beheert en hoe inconsistenties worden opgespoord en afgehandeld. Deze factoren hebben namelijk direct invloed op de betrouwbaarheid van de output. Een dashboardweergave bekijken is daarbij niet hetzelfde als inzicht hebben in de onderliggende datastromen en processen.
Wijzigingsbeheer en impact op outputs
Ook change management (wijzigingsbeheer) vraagt om dezelfde mate van aandacht. AI-gestuurde platforms ontwikkelen zich continu, bijvoorbeeld door modelupdates, configuratiewijzigingen en het activeren van nieuwe functionaliteiten. Teams moeten daarom inzicht hebben in wat als een relevante wijziging wordt beschouwd, wanneer wijzigingen worden doorgevoerd en hoe deze veranderingen worden gecommuniceerd. Wanneer de outputs van een systeem veranderen, veranderen namelijk ook de voorwaarden voor toezicht en controle, zelfs als de workflow aan de oppervlakte hetzelfde lijkt.
Traceerbaarheid en voorbereiding op inspecties
Traceerbaarheid vormt de basis voor inspectiegereedheid. Versiegeschiedenis, configuratiestatus, logging en documentatie van menselijke overrides maken het mogelijk om besluitvormingsprocessen op een bepaald moment te reconstrueren. Wanneer outputs niet kunnen worden teruggeplaatst in hun oorspronkelijke context, verzwakt dat de verdedigbaarheid tijdens een inspectie.
Eigenaarschap en escalatie moeten duidelijk zijn vastgelegd
AI-gestuurde functionaliteiten kunnen onderdeel worden van de uitvoering van klinische studies zonder dat er duidelijk eigenaarschap is vastgelegd. In complexe leveranciersecosystemen is functionaliteit vaak ingebed in bredere platforms, wordt deze geactiveerd via updates, of geïntroduceerd als onderdeel van een grotere uitrol. Geautomatiseerde prioritering wordt dan al snel de standaard werkwijze. Workflow-wachtrijen worden bijvoorbeeld gesorteerd op basis van algoritmische rangschikking. Het systeem wordt dagelijks gebruikt, maar niemand binnen de organisatie heeft formeel de verantwoordelijkheid voor het toezicht op de invloed ervan, of kan in duidelijke termen uitleggen hoe het systeem bedoeld is om te worden gebruikt.
Diffuus eigenaarschap creëert kwetsbaarheid in de governance. Wanneer de output van een systeem in strijd is met de realiteit op de onderzoekslocatie, het oordeel van een monitor of bevindingen uit brondata, kan de besluitvorming vastlopen. In zulke situaties wordt vaak gediscussieerd over de uitkomst, in plaats van over het onderliggende proces. Zonder duidelijk aangewezen verantwoordelijkheid en gedocumenteerde escalatieroutes wordt toezicht vooral reactief. Daardoor kunnen dezelfde discussies en onzekerheden zich blijven herhalen, zowel binnen verschillende studies als over langere tijd.
Dit is te voorkomen. Controle vereist niet dat teams technische experts worden, maar wel dat beslissingen duidelijk herleidbaar zijn tot een verantwoordelijke.
- Belangrijke controles die voorkomen dat er een situatie ontstaat van “we gebruikten het, maar niemand was eigenaar”
- Aangewezen eigenaarschap voor de functionaliteit, niet alleen voor de leveranciersrelatie
- Een duidelijk gedefinieerde use case die beschrijft waar de output besluitvorming ondersteunt en waar niet
- Gedocumenteerde escalatieroutes voor situaties waarin de output van de tool conflicteert met menselijke beoordeling
- Een periodieke reviewstap om te controleren of de outputs nog logisch en betrouwbaar zijn wanneer het platform verandert
- Een vastlegging van overrides en de bijbehorende onderbouwing wanneer teams het niet eens zijn met de output van het systeem
Een duidelijke verdeling van verantwoordelijkheden, helder gedefinieerde use cases en vastgelegde besluitvormingsprocessen voorkomen dat het toezicht in de loop van de tijd verwatert. Toezicht moet altijd herleidbaar en toewijsbaar blijven aan een verantwoordelijke.
Inspectiegereed blijven terwijl de regelgeving wordt uitgebreid
De voorbereiding begint met gestructureerd bewustzijn naarmate de regelgeving verder wordt uitgebreid. Teams moeten een praktisch inzicht hebben in hoe AI-gestuurde tools binnen hun processen functioneren, inclusief de beperkingen en afhankelijkheden. Diepgaande technische kennis is daarbij niet noodzakelijk, maar goed geïnformeerd toezicht wel.
Dit bewustzijn zorgt voor betere controle bij de implementatie van een tool. Leg daarom vast waarom de tool is gekozen, hoe deze wordt gebruikt, welke controlemaatregelen van toepassing zijn en wie de prestaties beoordeelt. Vervolgcontroles moeten vervolgens verder kijken dan alleen gebruiksstatistieken. Ze moeten ook nagaan of de outputs nog steeds in lijn zijn met bronbevindingen en de operationele praktijk.
Omdat de gefaseerde verplichtingen doorlopen tot 2026 en daarna, kan kennis over regelgeving niet beperkt blijven tot af en toe een update. Richtlijnen blijven zich ontwikkelen, de positionering van leveranciers verandert, en ook de praktische handhaving door toezichthouders evolueert. Het actueel houden van kennis helpt organisaties om stapsgewijs mee te bewegen met nieuwe eisen, zonder dat dit leidt tot verstoring van processen.
De visie van GCP Central
De AI Act verhoogt de verwachtingen rondom de governance van AI-gestuurde systemen. Klinische onderzoeksteams werken nu al in een omgeving waarin toezicht zichtbaar moet zijn en beslissingen traceerbaar moeten blijven. Alles bij elkaar legt dit extra nadruk op de basis: een duidelijk beoogd gebruik, duidelijk aangewezen eigenaarschap, zorgvuldige documentatie en regelmatige evaluatie van het gedrag van tools wanneer platforms veranderen.
De meeste teams hebben geen moeite met het concept. De uitdaging zit vooral in de praktische uitvoering: tijdens onboarding, upgrades, validatieactiviteiten en bij de dagelijkse beoordelingsmomenten waarin AI-ondersteunde outputs invloed hebben op wat wordt beoordeeld en geëscaleerd. Teams hebben daarom een gedeelde werkwijze nodig, zodat deze outputs worden behandeld als input voor het oordeel van de sponsor. Daarbij moet ook duidelijk worden vastgelegd hoe de resultaten zijn geïnterpreteerd en welke acties daarop zijn gevolgd.
Daarom besteedt GCP Central aandacht aan de AI Act. De regelgeving wordt gefaseerd ingevoerd, terwijl AI-gestuurde functionaliteiten zich tegelijkertijd steeds verder verspreiden binnen de uitvoering van klinische studies.
Onze focus ligt op continu leren, zodat teams op de hoogte blijven naarmate regelgeving, richtlijnen en leveranciersplatforms veranderen. Dit helpt onderzoeksteams om beoogd gebruik, eigenaarschap, documentatiestandaarden en de dagelijkse omgang met AI-tools consistent te houden zowel tussen verschillende studies als door de tijd heen.
Praktische gesprekken met leveranciers blijven een betrouwbare graadmeter voor de mate van voorbereiding. Duidelijke antwoorden over traceerbaarheid, change control en menselijk toezicht zijn daarbij essentieel. Ondersteunende documentatie maakt bovendien het verschil tussen geruststellende uitspraken en daadwerkelijk bewijs. In 2026 en daarna zal inspectiegereedheid steeds meer afhangen van de vraag of AI-gestuurde tools op een gecontroleerde en herleidbare manier worden gebruikt, met besluitvormingsprocessen die helder kunnen worden uitgelegd.
Wil je meer weten over AI in klinische studies?
Lees dan ook ons eerdere artikel: Sponsor Oversight herzien bij AI-ondersteunde klinische studies onder ICH E6(R3)

