Cosa significa Project Elsa per l'approccio della FDA all'IA
Lanciato in precedenza all'inizio di giugno, Elsa è progettato per aiutare il personale dell'agenzia a lavorare in modo più efficiente assistendo con attività come leggere, scrivere e riassumere. È stato costruito all'interno di un ambiente GovCloud ad alta sicurezza, garantendo che i dipendenti accedano solo ai dati interni e che i dati siano mantenuti al sicuro.2
Durante l'implementazione iniziale, alcuni utenti hanno segnalato problemi di qualità con l'output e il controllo delle versioni, evidenziando la necessità di una supervisione human-in-the-loop e sottolineando il riconoscimento della stessa FDA che le allucinazioni devono essere prevenute attivamente. Ciò rafforza l'importanza della convalida e della trasparenza per qualsiasi utilizzo dell'IA, anche internamente.
Progetto Elsa: Considerazioni sulla privacy e sulla conformità
Riepilogo dell'uso di Elsa da parte della FDA
- Revisione automatizzata della letteratura per identificare i segnali degli eventi avversi
- Triage e prioritizzazione delle informazioni sui casi in base a parametri medici e normativi predefiniti
- Supporto per l'assunzione dei casi, garantendo un'elaborazione più tempestiva dei rapporti sulla sicurezza dei singoli casi (ICSR)
- Assistenza medica alla scrittura e alla presentazione, in particolare nella semplificazione delle attività di redazione e documentazione per i documenti normativi
È importante sottolineare che la FDA ha sottolineato che Elsa non sostituisce la revisione umana o il processo decisionale. Serve invece a migliorare l'efficienza, l'accuratezza e la coerenza dei flussi di lavoro, pur rimanendo soggetto alla supervisione della FDA e ai protocolli di garanzia della qualità. Ciò riflette l'approccio cauto e misurato della FDA alla governance dell'IA, in linea con la sua più ampia strategia di trasformazione digitale.
Considerazioni sulla legge sulla privacy degli Stati Uniti
I dati personali sono adeguatamente anonimizzati
La legge federale sulla privacy degli Stati Uniti, in particolare ai sensi dell'HIPAA ove applicabile, consente l'uso di dati anonimizzati per scopi normativi e di salute pubblica senza la necessità del consenso individuale. Nel contesto della farmacovigilanza, la maggior parte dei dati dei singoli casi gestiti per la sorveglianza basata sulla letteratura e il rilevamento dei segnali è anonimizzata o privata di elementi direttamente identificabili.
L'uso rientra nell'autorità legale
La FDA sta agendo nell'ambito del suo mandato normativo per garantire la sicurezza pubblica sfruttando gli strumenti di intelligenza artificiale per il fotovoltaico. L'agenzia ha l'autorità statutaria ai sensi del Federal Food, Drug, and Cosmetic Act per raccogliere ed elaborare i dati sulla sicurezza.
Supervisione del fornitore e tutele contrattuali
Se Elsa coinvolge fornitori di servizi o venditori di terze parti, tali incarichi devono essere regolati da adeguate tutele contrattuali, come i contratti di società in affari (ove applicabile), e includere chiari obblighi in materia di utilizzo, sicurezza e riservatezza dei dati.
Approccio basato sul rischio all'implementazione dell'IA
Le autorità di regolamentazione statunitensi, tra cui la FDA e il Dipartimento della salute e dei servizi umani (HHS), continuano a incoraggiare un approccio basato sul rischio all'implementazione dell'IA. Trasparenza, responsabilità e supervisione umana sono principi chiave, che la FDA ha confermato essere in atto con l'uso di Elsa.
Nessun riutilizzo commerciale
I dati raccolti o trattati utilizzando strumenti di IA a fini normativi non devono essere riutilizzati a scopo di lucro, a meno che non siano coerenti con le leggi sulla privacy e i requisiti di consenso informato. L'implementazione di Elsa da parte della FDA è strettamente a fini normativi e di monitoraggio della sicurezza.
Osservazioni finali
Cencora continuerà a monitorare gli sviluppi in materia di privacy, in particolare poiché sempre più autorità di regolamentazione adottano l'IA nei settori della scienza normativa e del fotovoltaico.
Un framework basato sull'intelligenza artificiale: Elsa nel contesto
In un documento inizialmente pubblicato nel 2023 e rivisto nel febbraio 2025 sull'uso dell'IA,4 la FDA ha esplorato i principali temi relativi all'applicazione dell'IA e dell'apprendimento automatico (ML), compresi gli usi attuali e potenziali dell'IA per migliorare lo sviluppo di farmaci. Il documento, che ha cercato di facilitare il dialogo con tutte le parti interessate, esplora le opportunità esistenti nell'intero processo di identificazione, selezione e sviluppo del prodotto, nonché per scopi post-marketing. I principali sono la sorveglianza della sicurezza, come il rilevamento del segnale e l'estrazione della letteratura, e il potenziale per migliorare il processo di produzione migliorando l'affidabilità delle apparecchiature e gli allarmi precoci.
Nel rilevamento e nella gestione dei segnali, esiste il potenziale per utilizzare strumenti di intelligenza artificiale per identificare i modelli, a condizione che i team PV siano in grado di interpretare tali modelli. Altre aree in cui l'IA è già utilizzata e in cui esiste un maggiore potenziale per espanderne l'uso includono lo screening e l'interpretazione della letteratura, l'automazione della reportistica aggregata sulla sicurezza e persino lo sviluppo e la manutenzione del master file del sistema di farmacovigilanza (PSMF), che è un requisito nell'Unione Europea. 5 L'IA potrebbe anche essere implementata per automatizzare il controllo della qualità dei dati di sicurezza, che, se adeguatamente convalidato, potrebbe migliorare il flusso di lavoro del database di sicurezza e aumentare la supervisione della qualità.
Le parti interessate sono state incoraggiate a considerare e impegnarsi con l'agenzia in tre aree chiave nel contesto dell'utilizzo dell'IA per lo sviluppo di farmaci. Questi sono:
- Governance, responsabilità e trasparenza guidate dalle persone
- La qualità, l'affidabilità e l'accuratezza dei dati
- Sviluppo, prestazioni, monitoraggio e convalida del modello
Con Elsa, la FDA ha dimostrato di riconoscere che l'IA può svolgere un ruolo importante in ambienti di dati ad alto volume. Ciò apre la strada all'industria per adottare strumenti a supporto dei processi chiave, a condizione che siano in atto un'adeguata supervisione e convalida. La convalida è fondamentale e richiede che gli strumenti siano testati e che tali test siano documentati e certificati.
L'agenzia ha anche pubblicato un documento di discussione interno sull'IA e sulla produzione di farmaci per esplorare il potenziale dell'IA per il monitoraggio e il controllo delle pratiche di produzione avanzate all'interno di un quadro normativo basato sul rischio. 6 Il documento delinea come la FDA regola il proprio uso degli strumenti, sottolineando l'importanza degli standard per la convalida dei modelli di IA, della chiarezza in merito alla valutazione e alla supervisione normativa e di adeguate salvaguardie dei dati.
Dare un senso a Elsa nei casi d'uso
Per l'agenzia, Elsa rappresenta un passo verso l'obiettivo di stabilire un ambiente normativo in tempo reale. L'agenzia ritiene che l'intelligenza artificiale offra il potenziale per avere una supervisione immediata dei rapporti sulla sicurezza, il che migliorerebbe la sorveglianza post-commercializzazione e pre-commercializzazione.3
Per gli sponsor, Elsa potrebbe fornire qualcosa di simile a un progetto per lo sviluppo di funzionalità abilitate all'intelligenza artificiale, come strumenti di NLP per le funzioni di farmacovigilanza, tra cui il triage della letteratura, l'assunzione di casi e i suggerimenti sui termini MedDRA.
Tenendo a mente gli obiettivi di Elsa durante lo sviluppo di strumenti fotovoltaici, gli sponsor dovrebbero idealmente garantire la verificabilità dei dati, come la tracciabilità delle fonti, la convalida del modello e il mantenimento della revisione human-in-the-loop.
Conclusione
Per l'industria, il messaggio è chiaro: gli strumenti di intelligenza artificiale destinati all'uso nella farmacovigilanza, nella scrittura normativa o nel supporto alla presentazione devono dare priorità alla trasparenza, alla convalida e ai limiti funzionali rispetto all'ambizione. Mentre l'agenzia continua ad aggiornare Elsa, è importante riconoscere che lo strumento segnala chiaramente l'intenzione della FDA. Elsa non è un esperimento di IA, piuttosto è un segnale normativo all'industria per adottare un approccio strutturato e cauto allo sviluppo dell'IA. Elsa è meno una sandbox e più un progetto.
Questo materiale ha lo scopo di comunicare le capacità di Cencora, supportate dall'esperienza dei collaboratori. Cencora incoraggia vivamente i lettori a consultare tutte le informazioni disponibili relative agli argomenti menzionati, compresi eventuali riferimenti forniti, e a fare affidamento sulla propria esperienza e competenza nel prendere decisioni correlate, poiché questo materiale potrebbe contenere determinate dichiarazioni di marketing e non costituisce una consulenza legale.
Mettiti in contatto con il nostro team
Fonte
1 La FDA lancia uno strumento di intelligenza artificiale a livello di agenzia per ottimizzare le prestazioni per il popolo americano, YouTube. https://www.youtube.com/watch?v=jp6TvncQYMU
2 La FDA lancia uno strumento di intelligenza artificiale a livello di agenzia per ottimizzare le prestazioni per il popolo americano, comunicato stampa della FDA, 2 giugno 2025. https://www.fda.gov/news-events/press-announcements/fda-launches-agency-wide-ai-tool-optimize-performance-american-people
3 FDA: Se utilizzato per le librerie di documenti, Elsa non può avere allucinazioni; improbabile che sia connesso a Internet. RAPS, 20 giugno 2025. https://raps.org/news-and-articles/news-articles/2025/6/fda-says-elsa-can-t-hallucinate,-unlikely-to-ever
4 Utilizzo dell'intelligenza artificiale e dell'apprendimento automatico nello sviluppo di prodotti farmaceutici e biologici, FDA. https://www.fda.gov/media/167973/download
5 Linee guida sulle buone pratiche di farmacovigilanza (GVP), EMA e HMA. https://www.ema.europa.eu/en/documents/scientific-guideline/guideline-good-pharmacovigilance-practices-module-ii-pharmacovigilance-system-master-file-rev-2_en.pdf
6 Intelligenza artificiale nella produzione di farmaci, FDA, 2023. https://www.fda.gov/media/165743/download
Cencora.com fornisce traduzioni automatiche per facilitare la lettura del sito web in lingue diverse dall'inglese. Per queste traduzioni, sono stati fatti sforzi ragionevoli per fornire una traduzione accurata, tuttavia, nessuna traduzione automatica è perfetta né è destinata a sostituire i traduttori umani. Queste traduzioni sono fornite come servizio agli utenti di Cencora.com e sono fornite "così come sono". Non viene fornita alcuna garanzia di alcun tipo, espressa o implicita, in merito all'accuratezza, all'affidabilità o alla correttezza di una qualsiasi di queste traduzioni effettuate dall'inglese in qualsiasi altra lingua. Alcuni contenuti (come immagini, video, Flash, ecc.) potrebbero non essere tradotti in modo accurato a causa delle limitazioni del software di traduzione.
Eventuali discrepanze o differenze create nella traduzione di questo contenuto dall'inglese in un'altra lingua non sono vincolanti e non hanno alcun effetto legale per la conformità, l'applicazione o qualsiasi altro scopo. Se vengono identificati errori, ti preghiamo di contattarci. In caso di domande relative all'accuratezza delle informazioni contenute in queste traduzioni, si prega di fare riferimento alla versione inglese della pagina.
