Ce que le projet Elsa signifie pour l’approche de la FDA en matière d’IA
Lancée au début du mois de juin, Elsa est conçue pour aider le personnel de l’organisme à travailler plus efficacement en l’aidant à effectuer des activités telles que la lecture, l’écriture et le résumé. Il a été construit dans un environnement GovCloud de haute sécurité, garantissant que les employés n’accèdent qu’aux données internes et que les données sont sécurisées.2
Au début du déploiement, certains utilisateurs ont signalé des problèmes de qualité avec la sortie et la gestion des versions, soulignant la nécessité d’une surveillance humaine et soulignant que la FDA reconnaît elle-même que les hallucinations doivent être activement évitées. Cela renforce l’importance de la validation et de la transparence pour toute utilisation de l’IA, même à l’interne.
Projet Elsa : Considérations relatives à la protection de la vie privée et à la conformité
Résumé de l’utilisation d’Elsa par la FDA
- Examen automatisé de la littérature pour identifier les signaux d’événements indésirables
- Triage et priorisation des renseignements sur les cas en fonction de paramètres médicaux et réglementaires prédéfinis
- Soutien à la réception des cas, en assurant un traitement plus rapide des rapports de sécurité des cas individuels
- Aide à la rédaction et à la soumission médicales, en particulier pour rationaliser les tâches de rédaction et de documentation des dépôts réglementaires
Il est important de noter que la FDA a souligné qu’Elsa ne remplace pas l’examen humain ou la prise de décision. Il sert plutôt à améliorer l’efficacité, la précision et la cohérence des flux de travail tout en restant soumis à la surveillance de la FDA et aux protocoles d’assurance de la qualité. Cela reflète l’approche prudente et mesurée de la FDA en matière de gouvernance de l’IA, conformément à sa stratégie de transformation numérique plus large.
Considérations relatives à la législation américaine sur la protection de la
Les données personnelles sont anonymisées de manière adéquate
La loi fédérale américaine sur la protection de la vie privée, en particulier en vertu de la loi HIPAA, le cas échéant, autorise l’utilisation de données anonymisées à des fins de santé publique et de réglementation sans avoir besoin d’un consentement individuel. Dans le contexte de la pharmacovigilance, la plupart des données de cas individuels traitées pour la surveillance et la détection des signaux fondées sur la littérature sont soit anonymisées, soit dépouillées d’éléments directement identifiables.
L’utilisation est conforme aux autorisations légales
La FDA agit dans le cadre de son mandat réglementaire pour assurer la sécurité publique en tirant parti des outils d’IA pour la photovoltaïque. L’agence a le pouvoir légal en vertu de la Loi fédérale sur les aliments, les médicaments et les cosmétiques de recueillir et de traiter des données sur l’innocuité.
Surveillance des fournisseurs et garanties contractuelles
Si Elsa fait appel à des fournisseurs de services ou à des fournisseurs tiers, ces engagements doivent être régis par des garanties contractuelles appropriées, telles que des ententes de partenariat commercial (le cas échéant), et inclure des obligations claires en matière d’utilisation, de sécurité et de confidentialité des données.
Approche du déploiement de l’IA fondée sur les risques
Les organismes de réglementation américains, y compris la FDA et le ministère de la Santé et des Services sociaux (HHS), continuent d’encourager une approche fondée sur les risques pour le déploiement de l’IA. La transparence, la responsabilité et la surveillance humaine sont des principes clés, que la FDA a confirmés être en place avec l’utilisation d’Elsa.
Pas de réaffectation commerciale
Les données recueillies ou traitées à l’aide d’outils d’IA à des fins réglementaires ne doivent pas être réutilisées à des fins commerciales, sauf si elles sont conformes aux lois sur la protection de la vie privée et aux exigences en matière de consentement éclairé. Le déploiement d’Elsa par la FDA est strictement à des fins de réglementation et de surveillance de la sécurité.
Observations finales
Cencora continuera de surveiller l’évolution de la vie privée, en particulier à mesure que de plus en plus d’organismes de réglementation adoptent l’IA dans les domaines de la science réglementaire et de la PV.
Un cadre axé sur l’IA : Elsa en contexte
Dans un article initialement publié en 2023 et révisé en février 2025 sur l’utilisation de l’IA4,la FDA a exploré les principaux thèmes concernant l’application de l’IA et de l’apprentissage automatique (ML), y compris les utilisations actuelles et potentielles de l’IA pour améliorer le développement de médicaments. Le document, qui a cherché à faciliter le dialogue avec toutes les parties prenantes, explore les possibilités qui existent dans l’ensemble du processus d’identification, de sélection et de développement des produits, ainsi qu’à des fins post-commercialisation. Parmi celles-ci, mentionnons la surveillance de la sécurité, comme la détection des signaux et l’exploration de la littérature, et la possibilité d’améliorer le processus de fabrication en améliorant la fiabilité de l’équipement et les alertes précoces.
Dans la détection et la gestion des signaux, il est possible d’utiliser des outils d’IA pour identifier des modèles, tant que les équipes de PV peuvent interpréter ces modèles. Parmi les autres domaines où l’IA est déjà utilisée et où il existe un plus grand potentiel d’expansion de son utilisation, mentionnons l’examen et l’interprétation de la littérature, l’automatisation des rapports agrégés sur l’innocuité, et même l’élaboration et la tenue du fichier maître du système de pharmacovigilance, qui est une exigence dans l’Union européenne.5 L’IA pourrait également être déployée pour automatiser le contrôle de la qualité des données de sécurité, ce qui, s’il est correctement validé, pourrait améliorer le flux de travail de la base de données de sécurité et accroître la surveillance de la qualité.
Les intervenants ont été encouragés à envisager et à collaborer avec l’Agence dans trois domaines clés dans le contexte de l’exploitation de l’IA pour le développement de médicaments. Il s’agit des éléments suivants :
- Gouvernance, responsabilisation et transparence dirigées par l’humain
- La qualité, la fiabilité et l’exactitude des données
- Élaboration, performance, suivi et validation du modèle
Avec Elsa, la FDA a démontré qu’elle reconnaissait que l’IA peut jouer un rôle important dans les environnements de données à volume élevé. Cela ouvre la voie à l’adoption d’outils pour soutenir les processus clés, à condition que la surveillance et la validation appropriées soient en place. La validation est essentielle et nécessite que les outils soient testés et que ces tests soient documentés et certifiés.
L’agence a également publié un document de travail interne sur l’IA et la fabrication de médicaments afin d’explorer le potentiel de l’IA pour surveiller et contrôler les pratiques de fabrication avancées dans un cadre réglementaire fondé sur les risques.6 Le document décrit comment la FDA régit sa propre utilisation des outils, en soulignant l’importance des normes pour valider les modèles d’IA, la clarté de l’évaluation et de la surveillance réglementaires, ainsi que les mesures de protection appropriées des données.
Donner un sens à Elsa dans les cas d’utilisation
Pour l’agence, Elsa représente un pas vers l’objectif d’établir un environnement réglementaire en temps réel. L’agence considère que l’IA offre la possibilité d’avoir une surveillance immédiate des rapports de sécurité, ce qui améliorerait la surveillance après la mise en marché et avant la mise en marché.3
Pour les promoteurs, Elsa pourrait fournir quelque chose qui s’apparente à un plan pour le développement de capacités basées sur l’IA, telles que des outils de PNL pour les fonctions de pharmacovigilance, y compris le triage de la littérature, la réception de cas et les suggestions de termes MedDRA.
En gardant à l’esprit les objectifs d’Elsa lors du développement d’outils photovoltaïques, les promoteurs devraient idéalement assurer la vérifiabilité des données, telles que la traçabilité des sources, la validation des modèles et l’examen humain.
Conclusion
Pour l’industrie, le message est clair : les outils d’IA destinés à être utilisés en pharmacovigilance, en rédaction réglementaire ou en soutien aux soumissions doivent donner la priorité à la transparence, à la validation et aux limites fonctionnelles plutôt qu’à l’ambition. Bien que l’agence continue de mettre à jour Elsa, il est important de reconnaître que l’outil signale clairement l’intention de la FDA. Elsa n’est pas une expérience d’IA, mais plutôt un signal réglementaire à l’industrie pour qu’elle adopte une approche structurée et prudente du développement de l’IA. Elsa est moins un bac à sable qu’un plan.
Ce matériel est destiné à communiquer les capacités de Cencora, qui sont soutenues par l’expertise des contributeurs. Cencora encourage fortement les lecteurs à examiner toutes les informations disponibles relatives aux sujets mentionnés, y compris les références fournies, et à se fier à leur propre expérience et expertise pour prendre des décisions à cet égard, car ce matériel peut contenir certaines déclarations marketing et ne constitue pas un avis juridique.
Entrez en contact avec notre équipe
Target
1 La FDA lance un outil d’IA à l’échelle de l’agence pour optimiser les performances pour le peuple américain, YouTube. https://www.youtube.com/watch?v=jp6TvncQYMU
2 La FDA lance un outil d’IA à l’échelle de l’agence pour optimiser les performances pour le peuple américain, communiqué de presse de la FDA, 2 juin 2025. https://www.fda.gov/news-events/press-announcements/fda-launches-agency-wide-ai-tool-optimize-performance-american-people
3 LAD : Si elle est utilisée pour les bibliothèques de documents, Elsa ne peut pas halluciner; peu susceptible d’être connecté à Internet. RAPS, 20 juin 2025. https://raps.org/news-and-articles/news-articles/2025/6/fda-says-elsa-can-t-hallucinate,-unlikely-to-ever
4 Utilisation de l’intelligence artificielle et de l’apprentissage automatique dans le développement de médicaments et de produits biologiques, FDA. https://www.fda.gov/media/167973/download
5 Lignes directrices sur les bonnes pratiques de pharmacovigilance (BPV), EMA et HMA. https://www.ema.europa.eu/en/documents/scientific-guideline/guideline-good-pharmacovigilance-practices-module-ii-pharmacovigilance-system-master-file-rev-2_en.pdf
6 L’intelligence artificielle dans la fabrication de médicaments, FDA, 2023. https://www.fda.gov/media/165743/download
Cencora.com fournit des traductions automatiques pour faciliter la lecture du site Web dans des langues autres que l’anglais. Pour ces traductions, des efforts raisonnables ont été faits pour fournir une traduction précise, cependant, aucune traduction automatique n’est parfaite et n’est pas destinée à remplacer les traducteurs humains. Ces traductions sont fournies à titre de service aux utilisateurs de Cencora.com et sont fournies « en l’état ». Aucune garantie d’aucune sorte, expresse ou implicite, n’est donnée quant à l’exactitude, la fiabilité ou l’exactitude de l’une ou l’autre de ces traductions effectuées de l’anglais vers une autre langue. Certains contenus (tels que les images, les vidéos, Flash, etc.) peuvent ne pas être traduits avec précision en raison des limitations du logiciel de traduction.
Toute divergence ou différence créée lors de la traduction de ce contenu de l’anglais vers une autre langue n’est pas contraignante et n’a aucun effet juridique pour la conformité, l’application ou toute autre fin. Si des erreurs sont identifiées, veuillez nouscontacter. Si vous avez des questions concernant l’exactitude des informations contenues dans ces traductions, veuillez vous référer à la version anglaise de la page.
