Artikel

Wat Project Elsa betekent voor de benadering van AI door de FDA

  • Michael Day, Ph.D

Kunstmatige intelligentie speelt een integrale rol in de levenscyclus van producten in de farmaceutische, biotechnologische en medische hulpmiddelenindustrie. Regelgevende instanties hebben stappen ondernomen om te reageren op de exponentiële groei van AI-functionaliteiten met verschillende richtlijnen, kaders en discussienota's.
Betreed Elsa, de nieuwe AI-tool van de Amerikaanse Food and Drug Administration (FDA), die volgens FDA-commissaris Marty Makary de werking van het bureau wil moderniseren, inclusief het versnellen van klinische protocolbeoordelingen en het verkorten van de tijd om de voltooiing van beoordelingen te beoordelen.1

Elsa, voorheen gelanceerd begin juni, is ontworpen om uitzendkrachten te helpen efficiënter te werken door te helpen bij activiteiten zoals lezen, schrijven en samenvatten. Het is gebouwd in een streng beveiligde GovCloud-omgeving, zodat werknemers alleen toegang hebben tot interne gegevens en dat gegevens veilig worden bewaard.2

Tijdens de vroege uitrol signaleerden sommige gebruikers kwaliteitsproblemen met uitvoer en versiebeheer, wat de noodzaak van human-in-the-loop-toezicht benadrukte en de eigen erkenning van de FDA onderstreepte dat hallucinaties actief moeten worden voorkomen. Dit versterkt het belang van validatie en transparantie voor elk AI-gebruik, zelfs intern.
"Als gebruikers Elsa gebruiken tegen documentbibliotheken en het werd gedwongen om documenten te citeren, kan het niet hallucineren", zei FDA Chief AI Officer Jeremy Walsh in een recent interview. "Als gebruikers alleen het reguliere model gebruiken zonder documentbibliotheken te gebruiken, kan Elsa hallucineren, net als elk ander groot taalmodel."3

Project Elsa: Overwegingen met betrekking tot privacy en naleving

De Amerikaanse Food and Drug Administration (FDA) heeft de Elsa-tool voor kunstmatige intelligentie (AI) overgenomen ter ondersteuning van verschillende activiteiten op het gebied van geneesmiddelenbewaking (PV), waaronder literatuuronderzoek, triage en inname van casussen. De acceptatie van deze tool weerspiegelt de voortdurende inzet van de FDA om technologische innovatie te benutten onder gedisciplineerde controles, en het is relevant voor onze voortdurende discussies over het verantwoorde gebruik van AI in gereguleerde omgevingen.

Samenvatting van het gebruik van Elsa door de FDA

De Elsa-tool wordt gebruikt als een ondersteuningsmechanisme binnen het PV- en regelgevende indieningsecosysteem van de FDA. De belangrijkste functies zijn:

  • Geautomatiseerd literatuuronderzoek om signalen van bijwerkingen te identificeren
  • Triage en prioritering van casusinformatie op basis van vooraf gedefinieerde medische en regelgevende parameters
  • Ondersteuning voor casusintake, zorgen voor een snellere verwerking van individuele casusveiligheidsrapporten (ICSR's)
  • Medische hulp bij het schrijven en indienen, met name bij het stroomlijnen van ontwerp- en documentatietaken voor wettelijke deponeringen

Belangrijk is dat de FDA heeft benadrukt dat Elsa geen vervanging is voor menselijke beoordeling of besluitvorming. In plaats daarvan dient het om de efficiëntie, nauwkeurigheid en consistentie van workflows te verbeteren, terwijl het onderworpen blijft aan FDA-toezicht en kwaliteitsborgingsprotocollen. Dit weerspiegelt de voorzichtige en weloverwogen benadering van AI-governance door de FDA in overeenstemming met haar bredere digitale transformatiestrategie.

Overwegingen met betrekking tot de Amerikaanse privacywetgeving

Vanuit het oogpunt van gegevensprivacy in de VS lijkt het gebruik van Elsa in overeenstemming te zijn met bestaande federale privacykaders, op voorwaarde dat:

Persoonsgegevens worden adequaat geanonimiseerd
De Amerikaanse federale privacywetgeving, met name onder de HIPAA, voor zover van toepassing, staat het gebruik van geanonimiseerde gegevens voor volksgezondheids- en regelgevingsdoeleinden toe zonder dat individuele toestemming nodig is. In het kader van geneesmiddelenbewaking worden de meeste individuele casusgegevens die worden verwerkt voor op literatuur gebaseerde surveillance en signaaldetectie geanonimiseerd of ontdaan van direct identificeerbare elementen.

Gebruik valt binnen de wettelijke bevoegdheid
De FDA handelt binnen haar regelgevende bevoegdheid om de openbare veiligheid te waarborgen door gebruik te maken van AI-tools voor PV. Het bureau heeft wettelijke bevoegdheid onder de Federal Food, Drug and Cosmetic Act om veiligheidsgegevens te verzamelen en te verwerken.

Toezicht door de leverancier en contractuele waarborgen
Als Elsa externe dienstverleners of leveranciers inschakelt, moeten deze opdrachten worden beheerst door passende contractuele waarborgen, zoals overeenkomsten met zakenpartners (indien van toepassing), en duidelijke verplichtingen bevatten rond gegevensgebruik, beveiliging en vertrouwelijkheid.

Risicogebaseerde benadering van AI-implementatie
Amerikaanse regelgevers, waaronder de FDA en het Department of Health and Human Services (HHS), blijven een op risico's gebaseerde benadering van de inzet van AI aanmoedigen. Transparantie, verantwoording en menselijk toezicht zijn belangrijke principes, waarvan de FDA heeft bevestigd dat ze allemaal aanwezig zijn met het gebruik van Elsa.

Geen commerciële herbestemming
Gegevens die worden verzameld of verwerkt met behulp van AI-tools voor regelgevingsdoeleinden mogen niet worden hergebruikt voor commercieel gewin, tenzij dit in overeenstemming is met de privacywetgeving en de vereisten voor geïnformeerde toestemming. De inzet van Elsa door de FDA is uitsluitend bedoeld voor regelgevings- en veiligheidscontroledoeleinden.

Laatste opmerkingen

De gedisciplineerde en beperkte inzet van de Elsa-tool door de FDA laat zien hoe AI op verantwoorde wijze kan worden gebruikt om gereguleerde functies zoals PV te ondersteunen, zonder afbreuk te doen aan de principes van gegevensbescherming. Vanuit het oogpunt van privacygovernance schept het een nuttig precedent: AI niet gebruiken om menselijke beoordeling te automatiseren, maar om de beoordeling door experts te vergroten en de efficiëntie van de regelgeving te verbeteren onder passend toezicht.

Cencora zal de ontwikkelingen op het gebied van privacy blijven volgen, vooral naarmate meer toezichthouders AI gaan toepassen op het gebied van regelgeving, wetenschap en PV.

Een AI-gestuurd raamwerk: Elsa in context

De ontwikkeling van Elsa sluit duidelijk aan bij recente AI-gerelateerde kaders die zinvolle implicaties hebben voor sponsors, met name op het gebied van geneesmiddelenbewaking, regelgeving, documentautomatisering en geavanceerde farmaceutische productie.

In een paper over het gebruik van AI,dat oorspronkelijk in 2023 werd gepubliceerd en in februari 2025 werd herzien,4 onderzocht de FDA belangrijke thema's met betrekking tot de toepassing van AI en machine learning (ML), waaronder huidige en potentiële AI-toepassingen om de ontwikkeling van geneesmiddelen te verbeteren. De paper, die heeft getracht de dialoog met alle belanghebbenden te vergemakkelijken, onderzoekt de kansen die er zijn in het hele productidentificatie-, selectie- en ontwikkelingsproces en voor postmarketingdoeleinden. De belangrijkste hiervan zijn veiligheidsbewaking, zoals signaaldetectie en literatuuronderzoek, en het potentieel om het productieproces te verbeteren door de betrouwbaarheid van apparatuur en vroegtijdige waarschuwingen te verbeteren.

Bij signaaldetectie en signaalbeheer is er potentieel om AI-tools te gebruiken om patronen te identificeren, zolang PV-teams die patronen kunnen interpreteren. Andere gebieden waar AI al wordt gebruikt en waar er een groter potentieel is om het gebruik ervan uit te breiden, zijn onder meer literatuuronderzoek en -interpretatie, automatisering van geaggregeerde veiligheidsrapportage en zelfs de ontwikkeling en het onderhoud van het hoofddossier geneesmiddelenbewakingssysteem (PSMF), wat een vereiste is in de Europese Unie. 5 AI kan ook worden ingezet om de kwaliteitscontrole van de veiligheidsgegevens te automatiseren, wat, indien goed gevalideerd, de workflow van de veiligheidsdatabank zou kunnen verbeteren en het kwaliteitstoezicht zou kunnen vergroten.

Belanghebbenden zijn aangemoedigd om het bureau te overwegen en met het bureau samen te werken op drie belangrijke gebieden in de context van het gebruik van AI voor de ontwikkeling van geneesmiddelen. Dit zijn:

  • Door mensen geleid bestuur, verantwoording en transparantie
  • De kwaliteit, betrouwbaarheid en nauwkeurigheid van de gegevens
  • Ontwikkeling, prestaties, monitoring en validatie van het model

Met Elsa heeft de FDA laten zien dat ze erkent dat AI een belangrijke rol kan spelen in data-omgevingen met grote volumes. Dit maakt de weg vrij voor de industrie om tools te gebruiken om belangrijke processen te ondersteunen, zolang het juiste toezicht en de juiste validatie aanwezig zijn. Validatie is essentieel en vereist dat de tools worden getest en dat die tests worden gedocumenteerd en gecertificeerd.

Het bureau publiceerde ook een intern gerichte discussienota over AI en geneesmiddelenproductie om het potentieel van AI voor het monitoren en beheersen van geavanceerde productiepraktijken binnen een op risico's gebaseerd regelgevingskader te onderzoeken. 6 Het document schetst hoe de FDA haar eigen gebruik van tools regelt, en benadrukt het belang van normen voor het valideren van AI-modellen; duidelijkheid met betrekking tot beoordeling en toezicht door regelgeving; en passende gegevenswaarborgen.

Elsa begrijpen in use cases

De implicatie voor zowel de industrie als de beoordelaars en inspecteurs van het agentschap is dat de FDA verwacht dat AI wordt ingezet met duidelijk bestuur en vangrails in elke gereguleerde workflow om de vangrails te weerspiegelen die het bureau aanbeveelt terwijl het zijn beleidsontwikkeling voortzet. Elsa belichaamt dit raamwerk verder en onderstreept het belang van strikte inperking en het nemen van maatregelen om ervoor te zorgen dat AI-tools die door de industrie worden ingezet, niet hallucineren.

Voor het bureau vertegenwoordigt Elsa een stap in de richting van het doel om een realtime regelgevingsomgeving tot stand te brengen. Het bureau ziet AI als het potentieel om onmiddellijk toezicht te houden op veiligheidsrapporten, wat het toezicht na de markt en vóór de markt zou verbeteren.3

Voor sponsors zou Elsa iets kunnen bieden dat lijkt op een blauwdruk voor de ontwikkeling van AI-mogelijkheden, zoals NLP-tools voor geneesmiddelenbewakingsfuncties, waaronder literatuurtriage, casusinname en MedDRA-termsuggesties.

Door de doelstellingen van Elsa in gedachten te houden bij het ontwikkelen van PV-tools, zouden sponsors idealiter zorgen voor controleerbaarheid van gegevens, zoals traceerbaarheid van bronnen, modelvalidatie en het houden van human-in-the-loop review.

Conclusie

Project Elsa biedt een duidelijk beeld van hoe de FDA AI benadert: het gaat niet om flitsende mogelijkheden, maar om gedisciplineerde controle. Door Elsa te ontwerpen om offline te opereren, hallucinaties te voorkomen en zich strikt te concentreren op het ophalen van interne documenten, modelleert de FDA een op risico's gebaseerde, controleerbare en volledig ingeperkte aanpak.

Voor de industrie is de boodschap duidelijk: AI-tools die bedoeld zijn voor gebruik bij geneesmiddelenbewaking, het schrijven van regelgeving of het ondersteunen van indiening, moeten prioriteit geven aan transparantie, validatie en functionele grenzen boven ambitie. Terwijl het bureau Elsa blijft updaten, is het belangrijk om te erkennen dat de tool duidelijk de intentie van de FDA aangeeft. Elsa is geen AI-experiment, maar een regelgevend signaal aan de industrie om een gestructureerde en voorzichtige benadering van AI-ontwikkeling te hanteren. Elsa is minder een zandbak en meer een blauwdruk.


Dit materiaal is bedoeld om de capaciteiten van Cencora te communiceren, die worden ondersteund door de expertise van de bijdragers. Cencora raadt lezers ten zeerste aan om alle beschikbare informatie met betrekking tot de genoemde onderwerpen door te nemen, inclusief eventuele referenties, en om te vertrouwen op hun eigen ervaring en expertise bij het nemen van beslissingen met betrekking tot deze onderwerpen, aangezien dit materiaal bepaalde marketingverklaringen kan bevatten en geen juridisch advies vormt.

Neem contact op met ons team

Ons ervaren team van waarde-experts creëert op basis van bewijsmateriaal, beleidsinzichten en marktinformatie effectieve strategieën voor toegang tot wereldwijde markten. We maken u wegwijs in de complexe wereld van de gezondheidszorg in verschillende delen van de wereld. Neem contact op om te ontdekken hoe we uw doelen kunnen ondersteunen.

Bron


1 FDA lanceert bureaubrede AI-tool om de prestaties voor het Amerikaanse volk te optimaliseren, YouTube. https://www.youtube.com/watch?v=jp6TvncQYMU
2 FDA lanceert AI-tool voor het hele agentschap om de prestaties voor het Amerikaanse volk te optimaliseren, FDA-persbericht, 2 juni 2025. https://www.fda.gov/news-events/press-announcements/fda-launches-agency-wide-ai-tool-optimize-performance-american-people
3 FDA: Als ze wordt gebruikt voor documentbibliotheken, kan Elsa niet hallucineren; is waarschijnlijk niet verbonden met internet. RAPS, 20 juni 2025. https://raps.org/news-and-articles/news-articles/2025/6/fda-says-elsa-can-t-hallucinate,-unlikely-to-ever
4 Kunstmatige intelligentie en machine learning gebruiken bij de ontwikkeling van geneesmiddelen en biologische producten, FDA. https://www.fda.gov/media/167973/download
5 Richtsnoer inzake goede geneesmiddelenbewakingspraktijken (GVP), EMA en HMA. https://www.ema.europa.eu/en/documents/scientific-guideline/guideline-good-pharmacovigilance-practices-module-ii-pharmacovigilance-system-master-file-rev-2_en.pdf
6 Kunstmatige intelligentie bij de productie van geneesmiddelen, FDA, 2023. https://www.fda.gov/media/165743/download

Gerelateerde bronnen

Webinar

How to avoid the 5 most relevant inspection findings related to the QPPV

Artikel

RAPS Convergence 2025: Transparency, Trust, and Resilience in Regulatory Science

Artikel

The complex path to meeting promotional materials requirements in Europe

Cencora.com biedt geautomatiseerde vertalingen om te helpen bij het lezen van de website in andere talen dan het Engels. Voor deze vertalingen zijn redelijke inspanningen geleverd om een nauwkeurige vertaling te leveren, maar geen enkele geautomatiseerde vertaling is perfect en is ook niet bedoeld om menselijke vertalers te vervangen. Deze vertalingen worden aangeboden als een service aan gebruikers van Cencora.com en worden geleverd 'in de huidige staat'. Er wordt geen enkele garantie gegeven, expliciet of impliciet, met betrekking tot de nauwkeurigheid, betrouwbaarheid of juistheid van deze vertalingen die vanuit het Engels in een andere taal zijn gemaakt. Sommige inhoud (zoals afbeeldingen, video's, Flash, enz.) wordt mogelijk niet nauwkeurig vertaald vanwege de beperkingen van de vertaalsoftware.

Eventuele discrepanties of verschillen die ontstaan bij het vertalen van deze inhoud van het Engels naar een andere taal zijn niet bindend en hebben geen rechtsgevolgen voor naleving, handhaving of enig ander doel. Als er fouten worden vastgesteld, neem dan contact met ons op . Als er vragen rijzen met betrekking tot de juistheid van de informatie in deze vertalingen, raadpleeg dan de Engelse versie van de pagina.