De herziening van ICH GCP E6(R3) is niet langer slechts een richtlijn op papier: in Europa is zij uitgegroeid tot een regulatoire verwachting. Tegelijkertijd verandert de uitvoering van klinisch onderzoek ingrijpend. Trials worden steeds vaker aangestuurd via platforms, uitgevoerd met meerdere leveranciers en ondersteund door AI-gedreven functionaliteiten.

Denk aan monitoringdashboards, geautomatiseerde datacontroles, signaaldetectie, medische codering, risico-indicatoren en workflowtriage. Deze tools kunnen waardevol zijn, maar brengen ook een sluipend risico met zich mee: teams gaan systeemoutput behandelen als de waarheid, in plaats van als één informatiebron die nog steeds sponsor judgement vereist.

Precies daar wordt ICH E6(R3) concreet. De richtlijn stuurt de sector weg van checklist-compliance en richting aantoonbare beheersing van wat er écht toe doet: bescherming van onderzoeksdeelnemers, dataintegriteit en doelgerichte kwaliteitsborging.

In een omgeving vol tools en leveranciers betekent sponsor oversight vooral dit: de regie houden over de studie, ook wanneer veel werk geautomatiseerd of uitbesteed is.

Waarom dit nu speelt in Europa

In Europa wordt de implementatie van ICH E6(R3) steeds concreter én inspecteerbaar.

  • Parallel daaraan is de EU AI Act inmiddels van kracht. Hoewel dit geen GCP-richtlijn is, legt deze wet strengere eisen op aan AI-governance, transparantie en accountability, zeker wanneer AI invloed heeft op beslissingen in zorg en onderzoek.

Kort gezegd: ICH E6(R3) wordt operationeel onder Europees toezicht, terwijl AI-functionaliteit zich razendsnel verspreidt binnen het leverancierslandschap. Sponsor oversight móét daarin meegroeien.

Wat is er veranderd in ICH E6(R3) dat relevant is voor AI-tools?

ICH E6(R3) is gebouwd rond risicogebaseerd kwaliteitsmanagement. Dat klinkt bekend, maar de praktische consequenties zijn scherper dan veel organisaties verwachten.

Sponsors moeten kunnen aantonen dat zij:

  • risico’s hebben geïdentificeerd,
  • beheersmaatregelen hebben ingericht waar het ertoe doet,
  • en afwijkingen van het plan tijdig kunnen detecteren.

AI-tools kunnen dat ondersteunen, maar introduceren ook nieuwe risico’s:

Besluitvorming wordt indirect

1. BEsluitvorming wordt indirect beïnvloed

Een AI-systeem “neemt” misschien geen beslissing, maar bepaalt wel:

  • waar het team naar kijkt,
  • wat wordt genegeerd,
  • en wat wordt geëscaleerd.

2. Prestatie kan verschuiven (model drift)

Een model dat bij implementatie goed presteert, kan anders functioneren na updates, configuratiewijzigingen of veranderende datapatronen.

Traceerbaarheid is niet altijd voldoende

Sommige platforms leveren uitstekende audit trails; andere vooral nette outputs zonder inzicht in hoe die tot stand kwamen.

ICH E6(R3) vereist niet dat sponsors data scientists worden.

Wel dat zij verantwoordelijk blijven voor oversight, ongeacht delegatie, automatisering of leverancierscomplexiteit.

Waar sponsor oversight vaak misgaat bij tools en leveranciers

De meeste problemen ontstaan niet door grote fouten, maar door kleine aannames die later moeilijk te verdedigen zijn.

Context van gebruik is impliciet

Functionaliteiten worden soms ingezet omdat ze “standaard” zijn, zonder vast te leggen wat ze in deze specifieke studie betekenen.

Een eenvoudige toets:

Als je de taak van de tool niet in twee zinnen kunt beschrijven, heb je er nog geen controle over.

Escalatieroutes zijn onduidelijk

Wanneer dashboardoutput botst met de realiteit op de site, vervallen teams vaak in stilstand of volgen ze het systeem. Volwassen oversight betekent: duidelijke eigenaarschap en besluitvorming, vastgelegd en herleidbaar.

Automatisering vervangt beoordelingsvermogen

Efficiëntie is verleidelijk. Maar E6(R3) verwacht actieve sturing, geen passieve acceptatie van suggesties.

Traceerbaarheid faalt bij inspectie

Als niet kan worden gereconstrueerd welke modelversie of configuratie een output heeft gegenereerd, is het besluit niet verdedigbaar. Inspecteurs vragen om bewijs, niet alleen om resultaten.

Een praktisch sponsor oversight-playbook voor AI-tools

Behandel AI-ondersteuning zoals elke andere trial-critical capability: gedefinieerd, beheerst, gemonitord en inspecteerbaar.

1. Definieer het beoogde gebruik vóór livegang

Leg vast:

  • wat de tool doet,
  • waar deze stopt,
  • welke beslissingen altijd menselijk blijven.

Koppel dit expliciet aan protocol en monitoringstrategie.

2. Breng datastromen en eigenaarschap in kaart

Weet:

  • welke data de tool gebruikt,
  • wie de data beheert,
  • wat er gebeurt bij ontbrekende of vertraagde input.

Maak vooraf afspraken over toegang, bewaartermijnen en audit trails.

3. Richt change management risicogebaseerd in

Niet elke update is gelijk. Behandel wijzigingen die invloed hebben op:

  • wat wordt bekeken,
  • wat wordt geëscaleerd,
  • of wat gemist kan worden als meaningful change.

4. Monitor prestaties, niet alleen gebruik

Klikstatistieken zeggen niets over kwaliteit. Monitor:

  • false positives,
  • false negatives,
  • afwijkingen tussen tooloutput en handmatige review,
  • prestatieverloop over tijd.

5. Eis bruikbare traceerbaarheid

Minimaal nodig:

  • versiebeheer,
  • configuratiestatus,
  • beslislogs,
  • vastlegging van menselijke overrides.

Zonder dit mag een tool ondersteunen, maar geen beslissingen sturen die invloed hebben op proefpersonen of datakwaliteit.

Wat te doen bij conflicten tussen AI-output en site-realiteit

Sterke oversight-modellen zijn ontworpen voor meningsverschil.

Een effectief patroon:

  1. Classificeer het conflict (data, operatie, toolbeperking, kwaliteitsrisico).
  2. Escaleer naar een benoemde verantwoordelijke.
  3. Beoordeel alle relevante evidence.
  4. Beslis, documenteer en communiceer.
  5. Verwerk de leerpunten in QMS, tooling of training.

Dit is sponsor oversight in de praktijk: geen blind vertrouwen in AI, maar ook geen angst ervoor.

Wat dit betekent voor GCP Central-cursisten

ICH E6(R3) bepaalt de norm. AI en leveranciers bepalen de context. Het verschil wordt gemaakt door vaardigheid in oversight.

Goede GCP-kennis betekent vandaag:

  • beslissingen kunnen uitleggen,
  • keuzes kunnen onderbouwen met bewijs,
  • en controle aantoonbaar kunnen maken bij inspectie.

Begin met één principe:

Elke AI-ondersteunde beslissing moet herleidbaar zijn naar een verantwoordelijke, een duidelijk doel en bewijs dat standhoudt.