Artikkel

Hva Project Elsa betyr for FDAs tilnærming til AI

  • Michael Day, Ph.D

Kunstig intelligens spiller en integrert rolle på tvers av produktets livssyklus i farmasøytisk, bioteknologisk og medisinsk utstyrsindustri. Regulatoriske myndigheter har tatt skritt for å svare på den eksponentielle veksten av AI-funksjonalitet med ulike veiledninger, rammeverk og diskusjonsnotater.
Gå inn i Elsa, US Food and Drug Administration (FDA) nye AI-verktøy, som ifølge FDA-kommissær Marty Makary søker å modernisere hvordan byrået fungerer, inkludert å fremskynde kliniske protokollgjennomganger og redusere tiden for å fullføre gjennomgangen.1

Elsa ble tidligere lansert i begynnelsen av juni, og er designet for å hjelpe byråansatte med å jobbe mer effektivt ved å hjelpe til med aktiviteter som lesing, skriving og oppsummering. Den ble bygget i et GovCloud-miljø med høy sikkerhet, som sikrer at ansatte kun får tilgang til interne data og at data holdes sikre.2

Under tidlig utrulling flagget noen brukere kvalitetsproblemer med utdata og versjonering – noe som fremhevet behovet for menneske-i-løkken-tilsyn og understreket FDAs egen erkjennelse av at hallusinasjoner må forhindres aktivt. Dette forsterker viktigheten av validering og åpenhet for enhver bruk av kunstig intelligens – selv internt.
"Hvis brukere bruker Elsa mot dokumentbiblioteker og den ble tvunget til å sitere dokumenter, kan den ikke hallusinere," sa FDAs Chief AI Officer Jeremy Walsh i et nylig intervju. "Hvis brukere bare bruker den vanlige modellen uten å bruke dokumentbiblioteker, kan Elsa hallusinere akkurat som alle andre store språkmodeller."3

Prosjekt Elsa: Hensyn til personvern og compliance

US Food and Drug Administration (FDA) har tatt i bruk Elsa kunstig intelligens (AI)-verktøyet for å støtte ulike legemiddelovervåkingsaktiviteter (PV), inkludert litteraturgjennomgang, triage og caseinntak. Innføringen av dette verktøyet gjenspeiler FDAs pågående forpliktelse til å utnytte teknologisk innovasjon under disiplinerte kontroller, og det er relevant for våre pågående diskusjoner rundt ansvarlig bruk av AI i regulerte miljøer.

Sammendrag av FDAs bruk av Elsa

Elsa-verktøyet brukes som en støttemekanisme innenfor FDAs PV- og regulatoriske innsendingsøkosystem. Dens primære funksjoner inkluderer:

  • Automatisert litteraturgjennomgang for å identifisere uønskede hendelsessignaler
  • Triage og prioritering av saksinformasjon basert på forhåndsdefinerte medisinske og regulatoriske parametere
  • Støtte til saksinntak, sikre mer rettidig behandling av individuelle sakssikkerhetsrapporter (ICSR)
  • Medisinsk skriving og innsendingshjelp, spesielt for å effektivisere utarbeidelses- og dokumentasjonsoppgaver for regulatoriske innleveringer

Viktigere er at FDA har understreket at Elsa ikke er en erstatning for menneskelig gjennomgang eller beslutningstaking. I stedet tjener den til å forbedre effektiviteten, nøyaktigheten og konsistensen til arbeidsflyter samtidig som den forblir underlagt FDA-tilsyn og kvalitetssikringsprotokoller. Dette gjenspeiler FDAs forsiktige og avmålte tilnærming til AI-styring i tråd med sin bredere digitale transformasjonsstrategi.

Hensyn ved personvernlovgivningen i USA

Fra et amerikansk personvernsynspunkt ser bruken av Elsa ut til å være i samsvar med eksisterende føderale personvernrammeverk, forutsatt at:

Personopplysninger er tilstrekkelig avidentifisert
Amerikansk føderal personvernlovgivning – spesielt under HIPAA der det er aktuelt – tillater bruk av avidentifiserte data for folkehelse- og regulatoriske formål uten behov for individuelt samtykke. I sammenheng med legemiddelovervåking er de fleste individuelle saksdata som håndteres for litteraturbasert overvåking og signaldeteksjon enten anonymisert eller strippet for direkte identifiserbare elementer.

Bruk er innenfor lovbestemt myndighet
FDA handler innenfor sitt regulatoriske mandat for å sikre offentlig sikkerhet ved å utnytte AI-verktøy for PV. Byrået har lovpålagt myndighet i henhold til Federal Food, Drug and Cosmetic Act til å samle inn og behandle sikkerhetsdata.

Leverandørtilsyn og kontraktsmessige sikkerhetstiltak
Hvis Elsa involverer tredjeparts tjenesteleverandører eller leverandører, må disse engasjementene styres av passende kontraktsmessige sikkerhetstiltak, for eksempel avtaler for forretningsforbindelser (der det er aktuelt), og inkludere klare forpliktelser rundt databruk, sikkerhet og konfidensialitet.

Risikobasert tilnærming til distribusjon av kunstig intelligens
Amerikanske regulatorer, inkludert FDA og Department of Health and Human Services (HHS), fortsetter å oppmuntre til en risikobasert tilnærming til AI-distribusjon. Åpenhet, ansvarlighet og menneskelig tilsyn er nøkkelprinsipper, som alle FDA har bekreftet er på plass med bruken av Elsa.

Ingen kommersiell gjenbruk
Data som samles inn eller behandles ved hjelp av AI-verktøy for forskriftsformål, må ikke brukes til nytt formål for kommersiell vinning med mindre det er i samsvar med personvernlover og krav til informert samtykke. FDAs distribusjon av Elsa er kun for regulatoriske og sikkerhetsovervåkingsformål.

Avsluttende observasjoner

FDAs disiplinerte og begrensede distribusjon av Elsa-verktøyet fremhever hvordan AI kan brukes på en ansvarlig måte for å støtte regulerte funksjoner som PV, uten at det går på bekostning av databeskyttelsesprinsipper. Fra et personvernstyringsperspektiv setter det en nyttig presedens: bruk av AI ikke for å automatisere menneskelig dømmekraft, men for å øke ekspertgjennomgang og forbedre regulatorisk effektivitet under passende tilsyn.

Cencora vil fortsette å overvåke utviklingen innen personvern, spesielt etter hvert som flere regulatorer tar i bruk kunstig intelligens innen reguleringsvitenskap og PV-domener.

Et AI-drevet rammeverk: Elsa i kontekst

Elsas utvikling stemmer tydelig overens med nyere AI-relaterte rammeverk som har meningsfulle implikasjoner for sponsorer – spesielt innen legemiddelovervåking, regulatoriske operasjoner, dokumentautomatisering og avansert farmasøytisk produksjon.

I en artikkel som opprinnelig ble publisert i 2023 og revidert i februar 2025 om bruken av AI,4 utforsket FDA hovedtemaer angående anvendelsen av AI og maskinlæring (ML), inkludert nåværende og potensielle AI-bruk for å forbedre legemiddelutviklingen. Papiret, som har forsøkt å legge til rette for dialog med alle interessenter, utforsker mulighetene som finnes på tvers av hele produktidentifikasjons-, utvelgelses- og utviklingsprosessen samt for postmarketingformål. Nøkkelen blant disse er sikkerhetsovervåking, som signaldeteksjon og litteraturutvinning, og potensialet til å forbedre produksjonsprosessen ved å forbedre utstyrets pålitelighet og tidlige advarsler.

Innen signaldeteksjon og signalhåndtering er det potensial for å bruke AI-verktøy for å identifisere mønstre, så lenge PV-team kan tolke disse mønstrene. Andre områder der AI allerede brukes og hvor det er større potensial for å utvide bruken inkluderer litteraturscreening og tolkning, automatisering av aggregert sikkerhetsrapportering, og til og med utvikling og vedlikehold av pharmacovigilance system master file (PSMF), som er et krav i EU.5 AI kan også brukes til å automatisere kvalitetskontrollen av sikkerhetsdata, som, hvis den valideres riktig, kan forbedre arbeidsflyten i sikkerhetsdatabasen og øke kvalitetstilsynet.

Interessenter har blitt oppfordret til å vurdere og engasjere seg med byrået på tre nøkkelområder i sammenheng med å utnytte AI for legemiddelutvikling. Disse er:

  • Menneskeledet styring, ansvarlighet og åpenhet
  • Kvaliteten, påliteligheten og nøyaktigheten til dataene
  • Utvikling, ytelse, overvåking og validering av modellen

Med Elsa har FDA demonstrert sin anerkjennelse av at AI kan spille en viktig rolle i datamiljøer med høyt volum. Dette baner vei for at industrien kan ta i bruk verktøy for å støtte viktige prosesser, så lenge riktig tilsyn og validering er på plass. Validering er nøkkelen og krever at verktøyene testes og at testene dokumenteres og sertifiseres.

Byrået publiserte også et internt fokusert diskusjonsnotat om AI og legemiddelproduksjon for å utforske AIs potensial for å overvåke og kontrollere avansert produksjonspraksis innenfor et risikobasert regulatorisk rammeverk.6 Dokumentet skisserer hvordan FDA styrer sin egen bruk av verktøy, og understreker viktigheten av standarder for validering av AI-modeller, klarhet angående regulatorisk vurdering og tilsyn, og passende databeskyttelser.

Forstå Elsa i brukstilfeller

Implikasjonen for både bransje- og byråanmeldere og inspektører er at FDA forventer at AI vil bli distribuert med klar styring og rekkverk i enhver regulert arbeidsflyt for å speile rekkverkene byrået anbefaler når det fortsetter sin politikkutvikling. Elsa legemliggjør videre dette rammeverket, understreker viktigheten av streng inneslutning og tar skritt for å sikre at AI-verktøy distribuert av industrien ikke hallusinerer.

For byrået representerer Elsa et skritt mot målet om å etablere et regulatorisk miljø i sanntid. Byrået ser på AI som et potensial til å ha umiddelbart tilsyn med sikkerhetsrapporter, noe som vil forbedre overvåkingen etter og før markedsføring.3

For sponsorer kan Elsa gi noe som ligner på en plan for utvikling av AI-aktiverte funksjoner, for eksempel NLP-verktøy for legemiddelovervåkingsfunksjoner, inkludert litteraturtriage, saksinntak og MedDRA-begrepsforslag.

Ved å ha målene til Elsa i tankene når de utvikler PV-verktøy, vil sponsorer ideelt sett sikre revisjon av data, for eksempel kildesporbarhet, modellvalidering og å holde mennesket i løkken.

Konklusjon

Project Elsa gir et klart innblikk i hvordan FDA nærmer seg AI: det handler ikke om prangende evner, men om disiplinert kontroll. Ved å designe Elsa til å operere offline, forby hallusinasjoner og fokusere strengt på intern dokumentinnhenting, modellerer FDA en risikobasert, reviderbar og fullstendig innesluttet tilnærming.

For industrien er budskapet klart – AI-verktøy beregnet for bruk i legemiddelovervåking, regulatorisk skriving eller innsendingsstøtte må prioritere åpenhet, validering og funksjonelle grenser fremfor ambisjoner. Mens byrået fortsetter å oppdatere Elsa, er det viktig å erkjenne at verktøyet tydelig flagger FDAs intensjon. Elsa er ikke et AI-eksperiment, snarere er det et regulatorisk signal til industrien om å ta i bruk en strukturert og forsiktig tilnærming til AI-utvikling. Elsa er mindre en sandkasse og mer en blåkopi.


Dette materialet er ment å formidle Cencoras evner, som støttes av bidragsyternes ekspertise. Cencora oppfordrer lesere på det sterkeste til å gjennomgå all tilgjengelig informasjon relatert til emnene som er nevnt, inkludert eventuelle referanser som er gitt, og til å stole på sin egen erfaring og ekspertise når de tar beslutninger relatert til dette, da dette materialet kan inneholde visse markedsføringsuttalelser og ikke utgjør juridisk rådgivning.

Ta kontakt med teamet vårt

Vårt team av ledende verdieksperter arbeider iherdig med å omsette bevis, policy-innsikt og markedsinformasjon til effektive tilgangsstrategier for det globale markedet. Vi hjelper deg med å finne frem i dagens komplekse helsetjenester. Kontakt oss, så hjelper vi deg med å nå målene dine.

Kilde


1 FDA lanserer AI-verktøy for hele byrået for å optimalisere ytelsen for det amerikanske folket, YouTube. https://www.youtube.com/watch?v=jp6TvncQYMU
2 FDA lanserer AI-verktøy for hele byrået for å optimalisere ytelsen for det amerikanske folket, FDA-pressemelding, 2. juni 2025. https://www.fda.gov/news-events/press-announcements/fda-launches-agency-wide-ai-tool-optimize-performance-american-people
3 FDA: Hvis den brukes til dokumentbiblioteker, kan ikke Elsa hallusinere; er usannsynlig å være koblet til Internett. RAPS, 20 juni 2025. https://raps.org/news-and-articles/news-articles/2025/6/fda-says-elsa-can-t-hallucinate,-unlikely-to-ever
4 Bruk av kunstig intelligens og maskinlæring i utviklingen av legemidler og biologiske produkter, FDA. https://www.fda.gov/media/167973/download
5 Retningslinjer for god legemiddelovervåkingspraksis (GVP), EMA og HMA. https://www.ema.europa.eu/en/documents/scientific-guideline/guideline-good-pharmacovigilance-practices-module-ii-pharmacovigilance-system-master-file-rev-2_en.pdf
6 Kunstig intelligens i legemiddelproduksjon, FDA, 2023. https://www.fda.gov/media/165743/download

Relaterte ressurser

Artikkel

RAPS Convergence 2025: Transparency, Trust, and Resilience in Regulatory Science

Artikkel

The complex path to meeting promotional materials requirements in Europe

Cencora.com tilbyr automatiserte oversettelser for å hjelpe deg med å lese nettstedet på andre språk enn engelsk. Mye arbeid er lagt ned i disse oversettelsene for å gjøre dem nøyaktige, men ingen automatisert oversettelse er perfekt, og slike oversettelser er heller ikke ment å erstatte menneskelige oversettere. Disse oversettelsene leveres som en tjeneste til brukere av Cencora.com og leveres «som de er». Det gis ingen garanti av noe slag, verken uttrykt eller underforstått, med hensyn til nøyaktigheten, påliteligheten eller riktigheten av noen av disse oversettelsene som er gjort fra engelsk til andre språk. Det kan hende at noen typer innhold (som bilder, videoer, Flash osv.) er unøyaktig oversatt på grunn av begrensningene i oversettelsesprogramvaren.

Eventuelle avvik eller forskjeller som oppstår ved oversettelse av dette innholdet fra engelsk til et annet språk, er ikke bindende og har ingen juridisk virkning for samsvar, håndhevelse eller andre formål.  Kontakt oss dersom du oppdager feil. Se den engelske versjonen av siden dersom du er i tvil om hvorvidt informasjonen i disse oversettelsene er nøyaktig.