De herziening van ICH GCP E6(R3) is niet langer slechts een richtlijn op papier: in Europa is zij uitgegroeid tot een regulatoire verwachting. Tegelijkertijd verandert de uitvoering van klinisch onderzoek ingrijpend. Trials worden steeds vaker aangestuurd via platforms, uitgevoerd met meerdere leveranciers en ondersteund door AI-gedreven functionaliteiten.
Denk aan monitoringdashboards, geautomatiseerde datacontroles, signaaldetectie, medische codering, risico-indicatoren en workflowtriage. Deze tools kunnen waardevol zijn, maar brengen ook een sluipend risico met zich mee: teams gaan systeemoutput behandelen als de waarheid, in plaats van als één informatiebron die nog steeds sponsor judgement vereist.
Precies daar wordt ICH E6(R3) concreet. De richtlijn stuurt de sector weg van checklist-compliance en richting aantoonbare beheersing van wat er écht toe doet: bescherming van onderzoeksdeelnemers, dataintegriteit en doelgerichte kwaliteitsborging.
In een omgeving vol tools en leveranciers betekent sponsor oversight vooral dit: de regie houden over de studie, ook wanneer veel werk geautomatiseerd of uitbesteed is.
Waarom dit nu speelt in Europa
In Europa wordt de implementatie van ICH E6(R3) steeds concreter én inspecteerbaar.
- De European Medicines Agency (EMA) ICH E6 page bevestigt dat de principes en Annex 1 van ICH E6(R3) van kracht zijn per 23 juli 2025.
- De Inspectie Gezondheidszorg en Jeugd (IGJ) heeft expliciet aangegeven ICH-GCP E6(R3) te hanteren als referentiekader voor inspecties vanaf 23 juli 2025.
- Parallel daaraan is de EU AI Act inmiddels van kracht. Hoewel dit geen GCP-richtlijn is, legt deze wet strengere eisen op aan AI-governance, transparantie en accountability, zeker wanneer AI invloed heeft op beslissingen in zorg en onderzoek.
Kort gezegd: ICH E6(R3) wordt operationeel onder Europees toezicht, terwijl AI-functionaliteit zich razendsnel verspreidt binnen het leverancierslandschap. Sponsor oversight móét daarin meegroeien.
Wat is er veranderd in ICH E6(R3) dat relevant is voor AI-tools?
ICH E6(R3) is gebouwd rond risicogebaseerd kwaliteitsmanagement. Dat klinkt bekend, maar de praktische consequenties zijn scherper dan veel organisaties verwachten.
Sponsors moeten kunnen aantonen dat zij:
- risico’s hebben geïdentificeerd,
- beheersmaatregelen hebben ingericht waar het ertoe doet,
- en afwijkingen van het plan tijdig kunnen detecteren.
AI-tools kunnen dat ondersteunen, maar introduceren ook nieuwe risico’s:
Besluitvorming wordt indirect
1. BEsluitvorming wordt indirect beïnvloed
Een AI-systeem “neemt” misschien geen beslissing, maar bepaalt wel:
- waar het team naar kijkt,
- wat wordt genegeerd,
- en wat wordt geëscaleerd.
2. Prestatie kan verschuiven (model drift)
Een model dat bij implementatie goed presteert, kan anders functioneren na updates, configuratiewijzigingen of veranderende datapatronen.
Traceerbaarheid is niet altijd voldoende
Sommige platforms leveren uitstekende audit trails; andere vooral nette outputs zonder inzicht in hoe die tot stand kwamen.
ICH E6(R3) vereist niet dat sponsors data scientists worden.
Wel dat zij verantwoordelijk blijven voor oversight, ongeacht delegatie, automatisering of leverancierscomplexiteit.
Waar sponsor oversight vaak misgaat bij tools en leveranciers
De meeste problemen ontstaan niet door grote fouten, maar door kleine aannames die later moeilijk te verdedigen zijn.
Context van gebruik is impliciet
Functionaliteiten worden soms ingezet omdat ze “standaard” zijn, zonder vast te leggen wat ze in deze specifieke studie betekenen.
Een eenvoudige toets:
Als je de taak van de tool niet in twee zinnen kunt beschrijven, heb je er nog geen controle over.
Escalatieroutes zijn onduidelijk
Wanneer dashboardoutput botst met de realiteit op de site, vervallen teams vaak in stilstand of volgen ze het systeem. Volwassen oversight betekent: duidelijke eigenaarschap en besluitvorming, vastgelegd en herleidbaar.
Automatisering vervangt beoordelingsvermogen
Efficiëntie is verleidelijk. Maar E6(R3) verwacht actieve sturing, geen passieve acceptatie van suggesties.
Traceerbaarheid faalt bij inspectie
Als niet kan worden gereconstrueerd welke modelversie of configuratie een output heeft gegenereerd, is het besluit niet verdedigbaar. Inspecteurs vragen om bewijs, niet alleen om resultaten.
Een praktisch sponsor oversight-playbook voor AI-tools
Behandel AI-ondersteuning zoals elke andere trial-critical capability: gedefinieerd, beheerst, gemonitord en inspecteerbaar.
1. Definieer het beoogde gebruik vóór livegang
Leg vast:
- wat de tool doet,
- waar deze stopt,
- welke beslissingen altijd menselijk blijven.
Koppel dit expliciet aan protocol en monitoringstrategie.
2. Breng datastromen en eigenaarschap in kaart
Weet:
- welke data de tool gebruikt,
- wie de data beheert,
- wat er gebeurt bij ontbrekende of vertraagde input.
Maak vooraf afspraken over toegang, bewaartermijnen en audit trails.
3. Richt change management risicogebaseerd in
Niet elke update is gelijk. Behandel wijzigingen die invloed hebben op:
- wat wordt bekeken,
- wat wordt geëscaleerd,
- of wat gemist kan worden als meaningful change.
4. Monitor prestaties, niet alleen gebruik
Klikstatistieken zeggen niets over kwaliteit. Monitor:
- false positives,
- false negatives,
- afwijkingen tussen tooloutput en handmatige review,
- prestatieverloop over tijd.
5. Eis bruikbare traceerbaarheid
Minimaal nodig:
- versiebeheer,
- configuratiestatus,
- beslislogs,
- vastlegging van menselijke overrides.
Zonder dit mag een tool ondersteunen, maar geen beslissingen sturen die invloed hebben op proefpersonen of datakwaliteit.
Wat te doen bij conflicten tussen AI-output en site-realiteit
Sterke oversight-modellen zijn ontworpen voor meningsverschil.
Een effectief patroon:
- Classificeer het conflict (data, operatie, toolbeperking, kwaliteitsrisico).
- Escaleer naar een benoemde verantwoordelijke.
- Beoordeel alle relevante evidence.
- Beslis, documenteer en communiceer.
- Verwerk de leerpunten in QMS, tooling of training.
Dit is sponsor oversight in de praktijk: geen blind vertrouwen in AI, maar ook geen angst ervoor.
Wat dit betekent voor GCP Central-cursisten
ICH E6(R3) bepaalt de norm. AI en leveranciers bepalen de context. Het verschil wordt gemaakt door vaardigheid in oversight.
Goede GCP-kennis betekent vandaag:
- beslissingen kunnen uitleggen,
- keuzes kunnen onderbouwen met bewijs,
- en controle aantoonbaar kunnen maken bij inspectie.
Begin met één principe:
Elke AI-ondersteunde beslissing moet herleidbaar zijn naar een verantwoordelijke, een duidelijk doel en bewijs dat standhoudt.

