Artikel

Digitale Zwillinge und Hybridmodelle in der Biologika-Produktion: Ein Modellvergleich

  • Thomas de Marchin

Die Technologie des digitalen Zwillings hat das Potenzial, eine transformative Rolle in der Arzneimittelentwicklung und -herstellung zu spielen. 

In unserem ersten Artikel Wie digitale Zwillinge und Hybridmodellierung den Zellkulturprozess für eine bessere Produktion optimieren, haben wir unsere Vision von digitalen Zwillingen für Bioprozesse als virtuelle Nachbildungen vorgestellt, die datengesteuerte und mechanistische Modelle kombinieren, um die Herstellung von Biologika zu optimieren. Wir haben gezeigt, wie Hybridmodelle Echtzeitoptimierung, Skalierung und Einhaltung gesetzlicher Vorschriften unterstützen können. Digitale Zwillinge sind besonders für die personalisierte Medizin sowie Zell- und Gentherapien von entscheidender Bedeutung, da sie eine anpassungsfähige Produktion von Kleinserien ermöglichen, die auf individuelle Behandlungen zugeschnitten sind.1

In diesem zweiten Artikel setzen wir die Theorie in die Praxis um, indem wir ein klassisches datengesteuertes Modell mit einem Hybridmodell zur Vorhersage der lebensfähigen Zelldichte (VCD) und der Produktakkumulation – Schlüsselparameter der Produktivität – in einem Perfusionsbioreaktor vergleichen.

Wir zeigen, wie digitale Zwillinge es Innovatoren ermöglichen, Fragen zu beantworten wie:

  • Wie können wir optimale Bedingungen für die Maximierung des Zellwachstums und der Produktivität identifizieren?
  • Wann sollten wir mit der Perfusion beginnen und die Fütterungsstrategien anpassen, um Substraterschöpfung und Zelldichtekollaps zu vermeiden?
  • Können wir frühe Anzeichen von Instabilität erkennen und schwer messbare Parameter wie die Substratkonzentration im Bioreaktor vorhersagen?
Abbildung 1: Illustration eines Perfusionsbioreaktors

Fallstudie: Perfusions-Bioreaktor-Zellkulturmodellierung

Abbildung 1: Illustration eines Perfusionsbioreaktors
In einem Perfusionsbioreaktor werden die Zellen kontinuierlich mit frischen Nährstoffen versorgt, während Abfallstoffe und Produkte entfernt werden, die Zellen selbst jedoch erhalten bleiben. Dies schafft eine stabile, nährstoffreiche Umgebung, in der Zellen über lange Zeiträume gedeihen können, was zu höheren Zelldichten und erhöhter Produktivität führt. Perfusionsbioreaktoren werden in großem Umfang für die Herstellung von Biologika eingesetzt.2

Die Modellierung von Attributen wie der Dichte lebensfähiger Zellen (VCD) oder der Produktakkumulation zusammen mit Prozessparametern wie Substratkonzentration, Temperatur oder Bewegung mit Vorhersagemodellen ist ein entscheidender Schritt bei der Charakterisierung von Arzneimittelprozessen.3
Abbildung 1: Illustration eines Perfusionsbioreaktors
Die klassische Bioreaktormodellierung beruht in der Regel auf rein datengesteuerten Ansätzen, bei denen einfache mathematische Funktionen (wie Linien oder Kurven) an experimentelle Daten angepasst werden, um Vorhersagen zu treffen. 3 Obwohl diese Methode einfach und recheneffizient ist, erfasst sie oft nicht die zugrunde liegenden biologischen oder physikalischen Mechanismen, die das System antreiben. Infolgedessen bietet es nur einen begrenzten Einblick in das Auftreten bestimmter Ergebnisse und lässt sich nur schwer über den Trainingsdatenbereich hinaus verallgemeinern.

Darüber hinaus stehen datengetriebene Methoden vor Herausforderungen, wenn sie mit komplexen Systemen mit zahlreichen Prozessparametern und begrenzten experimentellen Daten umgehen, was in der Arzneimittelentwicklung üblich ist. Mechanistische oder hybride Modelle lösen einige dieser Probleme, indem sie vorheriges Prozesswissen in Form von biologischen und physikalischen Gesetzen einbeziehen. 4 Während klassische datengesteuerte Modelle als nützlicher Ausgangspunkt dienen, glauben wir, dass die Integration mechanistischen Wissens durch hybride Ansätze die Vorhersagekraft erhöht und eine bessere Prozessoptimierung in Bioreaktoren ermöglicht.
Wir haben ein hybrides Modell entwickelt, das mechanistisches Wissen – wie Nährstoffverbrauchsraten und Stoffwechselwege – mit datengesteuerten Komponenten des maschinellen Lernens integriert, die komplexe oder wenig verstandene Aspekte erfassen. Der mechanistische Teil bietet eine solide Grundlage für Prozessvorkenntnisse, während die Komponente für maschinelles Lernen unbekannte Verhaltensweisen modelliert. Hybridmodelle bieten eine verbesserte Robustheit bei der Extrapolation und können dynamische Verhaltensweisen wie Veränderungen der Zellwachstumsraten und der Nährstoffaufnahme unter unterschiedlichen Bedingungen genau erfassen.  Obwohl sie komplexer zu entwickeln sind, können sie den Bedarf an umfangreichen Experimenten verringern und die Wiederverwendung bestehender Modelle über Produkte hinweg ermöglichen. Sie zeichnen sich auch durch Echtzeitoptimierung, prädiktives Scale-up und Einhaltung gesetzlicher Vorschriften aus, indem sie das Prozessverständnis während der Charakterisierung verbessern (FDA Stufe 1) und die Entwicklung von Echtzeit-Kontrollgrenzwerten für bestimmte Chargen unterstützen (FDA Stufe 3).

Unser Hybridmodell verwendet Prozessparameter als Eingaben und prognostiziert biologische Variablen wie Raten, Erträge und Plateauniveaus für Biomasse und Produktbildung. Diese vorhergesagten Parameter werden dann in ein System gewöhnlicher Differentialgleichungen (ODEs) eingespeist, die die dynamischen Reaktionen des Bioreaktors im Laufe der Zeit berechnen. Abbildung 2 veranschaulicht die wichtigsten Schritte sowohl des klassischen rein datengesteuerten Ansatzes als auch des hybriden Ansatzes.
Abbildung 2: Vergleich von datengetriebenen und hybriden Modellen
Um beide Ansätze zu evaluieren, simulierten wir 29 Experimente mit unterschiedlicher Temperatur (20–40 °C) und Rührgeschwindigkeit (150–350 U/min) und erfassten unterschiedliche Dynamiken des Biomassewachstums, der Produktbildung und des Glukoseverbrauchs im Laufe der Zeit (Abbildung 3). Das Modell wurde an 21 Experimenten trainiert. Die Leistung wurde dann an zwei Sätzen von vier ungesehenen Experimenten getestet: einem Satz innerhalb des Trainingsbereichs (test1) zur Bewertung der Interpolationsfähigkeit und einem weiteren außerhalb dieses Bereichs (test2), um Extrapolation und Generalisierung zu bewerten.

Digitale Zwillinge Ressource Artikelbild

Abbildung 3: Experimenteller Bereich der Daten, die zum Trainieren und Testen der Modelle verwendet werden. Das Dataset von Test 1 liegt innerhalb des experimentellen Bereichs des Trainingsdatasets, während das Dataset von Test 2 außerhalb liegt.
Abbildung 4 und Abbildung 5 zeigen die Vorhersagen für die beiden Testdatensätze. Wir können sehen, dass das Hybridmodell (grün) besser zu den Daten passt (rote Punkte) als der klassische Ansatz (blau). Dies ist auch in Abbildung 6 dargestellt, die den Root Mean Square Error (RMSE) zeigt, ein gängiges Maß für die Vorhersagegenauigkeit, das die durchschnittliche Differenz zwischen vorhergesagten und beobachteten Werten quantifiziert. Je kleiner der RMSE, desto besser die Vorhersageleistung des Modells. Das Hybridmodell erreicht in beiden Bereichen durchweg einen niedrigeren RMSE als der klassische Ansatz. Dies deutet darauf hin, dass das Hybridmodell besser verallgemeinert und genauere Vorhersagen trifft, selbst wenn es über die Trainingsbedingungen hinaus extrapoliert wird.
Digitale Zwillinge Ressource Artikelbild

Abbildung 4: Daten (rot) und Vorhersagen durch das Hybridmodell (grün) und den klassischen (blau) Ansatz für den Datensatz innerhalb des experimentellen Bereichs.
Digitale Zwillinge Ressource Artikelbild

Abbildung 5: Daten (rot) und Vorhersagen des Hybridmodells (grün) und des klassischen (blau) Ansatzes für den externen experimentellen Domänendatensatz.
Digitale Zwillinge Ressource Artikelbild

Abbildung 6: Prädiktiver Leistungsvergleich von klassischen und hybriden Modellierungsansätzen, gemessen mit RMSE (Root Mean Square Error). Niedrigere RMSE-Werte weisen auf eine bessere Vorhersagegenauigkeit hin.

Wie unsere Fallstudie zeigt, passen hybride Modelle nicht nur in den Trainingsbereich, sondern zeigen auch eine weitaus größere Robustheit bei der Extrapolation auf neue Bedingungen – ein wesentliches Merkmal für die reale Arzneimittelherstellung. Dies zeigt deutlich die Überlegenheit einer solchen Modellierung gegenüber häufig verwendeten klassischen Ansätzen.

In der Vergangenheit erforderte die Erstellung und Anpassung hybrider Modelle spezielle Kenntnisse in Mathematik und Datenwissenschaften, was ihre Zugänglichkeit in vielen Unternehmen einschränkte. Diese Landschaft ändert sich jedoch mit dem Aufkommen benutzerfreundlicher Anwendungen wie TwinLab, wie in Abbildung 7 dargestellt. Wir haben diese Anwendung entwickelt, um Benutzern ohne tiefgreifendes technisches Fachwissen die Möglichkeit zu geben, verschiedene Prozessszenarien einfach zu untersuchen und Ergebnisse vorherzusagen. Solche Werkzeuge machen fortschrittliche hybride Modellierung praktisch und umsetzbar und unterstützen Wissenschaftler und Ingenieure bei der Entwicklung von Bioprozessen, indem sie mechanistisches Wissen mit datengesteuerten Erkenntnissen über intuitive Schnittstellen integrieren.
Abbildung 7: Simulationsanwendung, die eine Szenarioanalyse durch Variation wichtiger Prozessparameter wie Rührgeschwindigkeit, Temperatur, Verdünnungsrate, Substratkonzentration im Futter und anfängliche Saatgutkonzentration ermöglicht. Diese Eingaben werden von einem Hybridmodell verarbeitet, das die Zeitverläufe der lebensfähigen Zelldichte (VCD), der Produktbildung und des Substratverbrauchs vorhersagt.
Selbst bei einem hybriden Modell ist die Vorhersagegenauigkeit nicht perfekt, und die Anforderung von 21 Stichproben für das Training kann ein Hindernis darstellen – insbesondere für kleine Biotech-Unternehmen, die diese Menge an qualitativ hochwertigen Daten nicht ohne weiteres generieren können. Mehrere Ansätze können helfen, diese Einschränkung zu überwinden.

Ein Ansatz ist die Anwendung einer cleveren Versuchsplanung. Einerseits bleibt die Abdeckung des Prozessparameterraums sehr wichtig, während optimale Designs für solche mechanistischen Modelle dazu beitragen, dass genügend Datenunterstützung dort bereitgestellt wird, wo die Informationen am relevantesten sind. Andererseits könnte die mechanistisch informierte Bayes'sche Optimierung ein erster Schritt sein, um den experimentellen Bereich schnell abzudecken, während die Vorsicht in Bezug auf die richtige Abdeckung des Bereichs bleibt.

Eine andere Lösung ist der Einsatz von Intensified Design of Experiments (iDoE), bei dem bewusste Verschiebungen der Prozessparameter innerhalb eines einzelnen Experiments (z. B. Bioreaktorlauf) eingeführt werden. Diese Strategie verdichtet effektiv mehrere konventionelle DoE-Kombinationen in einer kleineren Anzahl von experimentellen Durchläufen und maximiert so die pro Experiment gewonnenen Informationen.

Schließlich besteht eine ehrgeizigere, aber vielversprechendere Strategie darin, vortrainierte digitale Zwillinge zu nutzen. In diesem Szenario würde das Hybridmodell zunächst mit Tausenden von experimentellen Datensätzen aus verschiedenen Quellen vortrainiert, ähnlich wie große Sprachmodelle wie ChatGPT entwickelt werden. Die Benutzer konnten das Modell dann mit ihren eigenen begrenzten Trainingsdaten verwenden und verbessern und so seine Leistung für alle Beteiligten kontinuierlich verbessern – was letztendlich sowohl den Benutzern als auch den Patienten zugute kam. Um proprietäre Daten zu schützen, würde die Plattform Federated Learning einsetzen, einen Ansatz zum Schutz der Privatsphäre, der es den Nutzern ermöglicht, den digitalen Zwilling gemeinsam zu verbessern. Diese Methode stellt sicher, dass einzelne experimentelle Daten vertraulich bleiben und niemals direkt zwischen den Nutzern ausgetauscht werden, während sie dennoch zu einem sich ständig verbessernden kollektiven Modell beitragen.

 Wir werden weiterhin das Potenzial des digitalen Zwillings und statistischer Methoden untersuchen, um bessere Vorhersagen zu unterstützen, einschließlich der Verwendung von iDoE und Bayes'schen optimalen Designs. 


Anmerkung: Die Ergebnisse wurden mit Unterstützung von BioWin ASBL und der finanziellen Unterstützung der Region gemäß den Bestimmungen der Finanzhilfevereinbarung (Convention 8881 ATMP Thérapie cellulaire) erzielt.
*Quellen unten fortgesetzt

Über den Autor:

Thomas de Marchin ist Associate Director of Statistics and Data Science bei Cencora, wo er fortschrittliche statistische Methoden und Algorithmen des maschinellen Lernens anwendet, um die Effizienz der Arzneimittelforschung und -herstellung zu optimieren. Mit umfassender Expertise in der Einhaltung gesetzlicher Vorschriften – insbesondere FDA- und GMP-Standards – schließt er die Lücke zwischen komplexen analytischen Ansätzen und praktischen pharmazeutischen Anwendungen.


Hinweis:
Die in diesem Artikel enthaltenen Informationen stellen keine Rechtsberatung dar. Cencora, Inc. empfiehlt den Lesern dringend, die verfügbaren Informationen zu den behandelten Themen zu lesen und sich bei diesbezüglichen Entscheidungen auf ihre eigene Erfahrung und ihr Fachwissen zu verlassen.

 


Verbinden Sie sich mit unserem Team

Unser Team aus führenden Value-Experten hat es sich zur Aufgabe gemacht, Evidenz, Wissen zu Richtlinien und Marktinformationen in effektive globale Marktzugangsstrategien umzuwandeln. Wir helfen Ihnen, sich in der komplexen Landschaft des heutigen Gesundheitswesens sicher zurechtzufinden. Kontaktieren Sie uns, um zu erfahren, wie wir Ihre Ziele unterstützen können.

Quellen:


1. Digitale Zwillinge: Von der personalisierten Medizin zur öffentlichen Präzisionsgesundheit, J Pers Med., Juli 2021. https://pubmed.ncbi.nlm.nih.gov/34442389/
2. Perfusionsbioreaktoren Branchenforschungsbericht 2025, Forschung und Märkte. https://www.globenewswire.com/news-release/2025/10/09/3164326/28124/en/Perfusion-Bioreactors-Industry-Research-Report-2025-Biopharmaceutical-Growth-Drives-Demand-Amid-Cell-Culture-Advancements-Global-Forecast-to-2032.html
3. Vorhersagemodelle für die vorgeschaltete Entwicklung von Säugetierzellkulturen - Ein Überblick, Digital Chemical Engineering, März 2024. https://www.sciencedirect.com/science/article/pii/S2772508123000558
4. Hybride semiparametrische Modellierung in der Prozesssystemtechnik: Vergangenheit, Gegenwart und Zukunft, Computers & Chemical Engineering, Januar 2014. https://www.sciencedirect.com/science/article/pii/S0098135413002639

 

Verwandte Ressourcen

Artikel

Während die Einführung von eCTD 4.0 immer weiter voranschreitet, stellt eine neue ICH-Richtlinie sie auf die Probe

Artikel

Neue Wege zum Produktwert: Strategien zur Optimierung des ausgereiften Produktportfolios

Artikel

Vorbereitung auf den elektronischen Patienteneinsatz in Europa