Jetzt bewerben! Ihre Bewerbung wird zeitnah nach Eingang bearbeitet.
Thesis Committee:
Prof. Riedel (ISW)
Problemstellung:
Die Digitalen Zwillinge von Produkt und Produktion stehen vor der Herausforderung, dass sie nach Abschluss des Entwicklungsprozesses, nicht den realen Status der Produktion widerspiegeln. Dies bezieht sich auf kontinuierlich auftretende Ereignisse, wie Ungenauigkeiten im Produkt, Anlagenausfälle, schlechte Qualität oder fehlende Teile. Um eine resiliente Produktion zu erreichen, sollte eine ganzheitliche Methodik entwickelt werden, die einen Top-Down- mit einem Bottom-Up-Ansatz kombiniert, um Echtzeit-Produkt- und Produktionsparameter durch Basistechnologien wie 3D-Scanning und intelligente Sensoren zu erfassen und diese in den Digitalen Zwilling einzubetten. Dieser Erfassungs- und Einbettungsprozess führt zur Entwicklung so genannter "kognitiver Digitaler Zwillinge". Allerdings sind diese Digitalen Zwillinge oft auf historische Daten angewiesen, die erfahrungsgemäß aus Ungenauigkeiten bestehen können. Zusätzlich konzentriert sich das Promotionsprojekt auf die Ermöglichung von Resilienz in Digitalen Zwillingen durch die Entwicklung eines auf maschinellem Lernen basierenden Ansatzes für den Digitalen Zwilling. Dies ermöglicht es selbst zu lernen, wenn es eine Ungenauigkeit im Digitalen Zwilling gibt und führt zu einer Korrektur hin zu einem korrekten Zustand. Ein Motivationsszenario für die weitere Validierung in einer innovativen automatisierten Messzelle, in der modernste Robotiktechnologien, z.B. stationäre, kollaborative, mobile Systeme, integriert mit 3D-Laserscanning-Systeme, intelligente Sensoren, z.B. Temperatur, Druck, Geschwindigkeit in drei Achsen, den Kern der Demonstrationsaktivitäten darstellen. Neben dem Szenario der diskreten Fertigung in der Messzelle, stellt die Realisierung und Validierung des mehrschichtigen Kohlefaserdruckverfahrens den zweiten Demonstrator dar.
Relevanz der Themenstellung:
Um die kognitiven Digitalen Zwillinge in der betrieblichen Fertigungsumgebung zu implementieren, geht das Projekt in einem Bottom-up-Verfahren vor und adressiert das Thema in zwei kritischen Fertigungsbereichen: 1.) die Produktqualitätssicherung in der diskreten Fertigung, exemplarisch für die modulare Produktion in der Automobilindustrie und 2.) die Prozessqualitätssicherung in der kontinuierlichen Fertigung, exemplarisch für die Überwachung und Optimierung des mehrlagigen Kohlefaserdruckprozesses, für die Luft- und Raumfahrtindustrie. Beide Anwendungen stehen vor der Herausforderung, die Digitalen Modelle der physischen Fertigungseinheiten aus der Fabrikhalle, z.B. Teile, Komponenten, Anlagen, Werkzeuge, Vorrichtungen, menschliche Arbeitskräfte, zumindest nahezu in Echtzeit zum Leben zu erwecken. Die Validierung des entwickelten generischen Ansatzes und der Methodik für zwei spezifische Qualitätsbewertungsszenarien von Produkt und Prozess in ausgewählten Branchen wird für andere Produktionsdomänen und Branchen instanziiert. Auf die Entwicklung eines generischen Ansatzes für einen echtzeitfähigen Digitalen Zwilling in der Fertigung folgt die Entwicklung einer Roadmap für die Migration dieses generischen Ansatzes in andere Branchen und Anwendungsfälle, wie z.B. in der Werkzeugmaschinen-/Ausrüstungsindustrie und in Prozessen, wie bspw. der Logistik, Bearbeitung, etc.
Wissenschaftliche Fragestellung:
Um den kognitiven Digitalen Zwilling zur Realisierung einer resilienten Produktion/Fabrik zu konzipieren, zu entwickeln und zu validieren, wurden die folgenden wissenschaftlichen und technischen Ziele festgelegt:
Ziel #1: Konzeption und Entwicklung der Referenzmodelle für die Resiliente Produktion. In der Produkt-, Prozess- und Fabrikplanung existieren Referenzmodelle für den Produkt-, Prozess- und Produktionslebenszyklus, in denen Resilienz-Aspekte bisher nur unzureichend berücksichtigt werden. Das Ziel von Ziel #1 ist es, herauszufinden, wie die bestehenden Referenzmodelle um Resilienzindikatoren erweitert werden können und wie die erweiterten Referenzmodelle dann für die angesprochenen Anwendungsfälle zur Verfügung stehen. Damit wird es möglich, die Produktion ganzheitlich unter dem Gesichtspunkt der Resilienz-Merkmale zu bewerten und zu optimieren. Zusätzlich werden spezifische KPIs zur Messung der Performance der Prozessoptimierung und der Resilienz-Leistung entwickelt.
Ziel #2: Methodik für die Umsetzung des Referenzmodells in einem kognitiven Digitalen Zwilling und einer virtuellen Engineering-Umgebung. Das Referenzmodell bildet die Grundlage für die Weiterentwicklung und Implementierung einer neu gestalteten Engineering-Umgebung auf Basis modernster digitaler Fertigungstechnologien, z.B. von Siemens, Dassault Systems. Diese neue Engineering-Umgebung muss sich durch folgende Eigenschaften auszeichnen: offen, erweiterbar, servicebasiert und sicherheitsorientiert. Die Digitalen Zwillinge aller Fabrikobjekte werden um den erfassten Kontext aus dem Echtzeit-Shopfloor erweitert; unterstützt durch 3D-Scanning, drahtlose intelligente Sensorik und digitale Fertigungstechnologien. Der erreichte kognitive Status der Digitalen Zwillinge ermöglicht die Realisierung von Resilienz als Gleichgewicht zwischen Robustheit und Flexibilität.
Ziel #3: Entwurf und Entwicklung eines auf kognitiven Digitalen Zwillinge ausgerichteten Lernassistenzsystems für eine resiliente Produktion. Ziel ist es, ein lernendes und kontextbezogenes Assistenzsystem als Haupt-Enabler für die Erreichung einer resilienten Produktion zu entwickeln. Der Prozessablauf dieses neuen Systems beginnt mit der Erstellung des Digitalen Zwillings aller Fabrikobjekte; Erfassung von Echtzeitdaten aus der Fertigung, Hinzufügung von Kognition zum Digitalen Zwilling, basierend auf der in Ziel #2 entwickelten Methodik; Analyse der aktuellen Daten mit historischen Daten, basierend auf KI und Deep-Learning-Algorithmen; Ausarbeitung und Dokumentation von Maßnahmen für resiliente Prozesse und zur Unterstützung der Entscheidungsfindung.
Ziel #4: Entwicklung eines Ansatzes zum Selbstlernen, wenn es eine Abweichung von der genauen Asset-/Prozessdarstellung im Digitalen Zwilling gibt. Erreicht wird dies durch die Entwicklung eines probabilistischen, risikobasierten Ansatzes, um zu erkennen, woher die Abweichung in der Genauigkeit stammt und um automatisch seine Daten- und Modellquellen zu verstehen. Zusätzlich soll ein auf maschinellem Lernen basierender Ansatz zur Selbstanpassung des Digitalen Zwillings entwickelt werden, um seine Genauigkeit der Repräsentativität zu erhöhen, sowie ein Simulations-Toolkit mit maschinellen Lernfunktionen zur Optimierung der Genauigkeit des Digitalen Zwillings.
Ziel #5: Validierung, inkrementelle Verbesserung und Roadmaps für die Migration des generischen Ansatzes und der Methodik für andere Fertigungsprozesse und Branchen. Die Erreichung der Produktionsresilienz und der Resilienz des Digitalen Zwillings sowie die Prozessoptimierung in den beiden entwickelten Anwendungsfällen wird auf Basis der identifizierten KPIs in Ziel #1 durchgeführt. Es wird ein wissenschaftlich fundierter Validierungsprüfstand erarbeitet. Zusätzlich wird der Einsatz des Konzepts der kognitiven Digitalen Zwillings auch in anderen Fertigungsprozessen und Branchen entwickelt.
Thesis Committee:
Prof. Hölzle (IAT)
Problemstellung:
Im Bereich der Produktion und Produktentwicklung stellen sich spezifische Herausforderungen in Bezug auf Kollaboration und Kommunikation bei der Remote-Zusammenarbeit. Großes Potential haben hier Systeme der Virtuellen oder Augmented Realität (AR/VR, häufig unter dem Begriff Metaverse zusammengefasst) ergänzt durch generative KI-Anwendungen. Zwar existieren spezifische VR-Softwaretools; diese sind jedoch oft isolierte Lösungen, die nur auf den spezifischen Anwendungsfall fokussieren und keine umfassende Unterstützung für kreative Prozesse bieten. Diese Diskrepanz zwischen aktuell vorhandenen Technologien und den tatsächlichen Anforderungen in der Praxis führt zu einer suboptimalen Nutzung der Potenziale von digitalen Werkzeugen im Entwicklungs- und Innovationsprozess. Es fehlt an integrierten virtuellen Tools, die kreative und kollaborative Prozesse in verteilten Teams umfassend und ganzheitlich unterstützen und fördern.
Relevanz der Themenstellung:
Die zunehmende Verbreitung von Remote Work führt zu einem Umbruch in der Arbeitswelt. Insbesondere haben sich Verständnis und Praxis der Kollaboration durch die Möglichkeit, ortsunabhängig zu arbeiten, grundlegend verändert. Gerade Innovation und Produktentwicklung sind von einem hohen Grad an interdisziplinärer Zusammenarbeit geprägt, da komplexe Probleme nur durch das Zusammenspiel verschiedener Fachrichtungen gelöst werden können. Kreativität spielt in diesem Kontext eine zentrale Rolle, um innovative Lösungen zu entwickeln und somit Wettbewerbsvorteile zu sichern. Zur Unterstützung kreativer Prozesse gewinnt die Einbindung digitaler Technologien wie generativer Künstlicher Intelligenz (KI) oder VR/AR Technologien rasant an Bedeutung.
Um in diesem Umfeld kreative Prozesse zu ermöglichen, besteht erheblicher Forschungsbedarf hinsichtlich einer technischen und prozessualen Gestaltung, welche die Einschränkungen der heute verbreiteten Lösungen überwindet.
Wissenschaftliche Fragestellung:
Die zentrale Frage dieser Forschungsarbeit ist, wie die Zusammenarbeit zwischen physischen und virtuellen Akteuren im Produktentwicklungsprozess mit besonderem Augenmerk auf Kreativität und Kollaboration gestaltet werden muss. Um diese Frage zu beantworten, sollen folgende Aspekte untersucht werden:
1. Welche Funktionen muss ein Tool haben, um Kommunikation, Kollaboration und Kreativität auch in Remote-Settings effizient unterstützen zu können?
2. Wie muss eine Benutzeroberfläche für Remote-Settings gestaltet werden, die sowohl verbale als auch non-verbale Interaktionsmöglichkeiten bietet und zugleich eine direkte räumliche Zusammenarbeit unterstützt?
3. Wie können Funktionen der generativen Künstlichen Intelligenz innerhalb des Tools optimal nutzerzentriert zugänglich gemacht und genutzt werden?
4. Wie kann eine technische Systemarchitektur aussehen, die diese Funktionalitäten abbildet und sich zugleich nahtlos in die bestehenden Entwicklungsprozesse integrieren lässt?
5. Welche Kriterien und Metriken können zur Evaluierung des Tools herangezogen werden, insbesondere hinsichtlich visueller Qualität (Umgebung und Avatare) und der Qualität der Interaktion (z.B. Latenz)?
Diese Forschungsarbeit zielt darauf ab, eine innovative Lösung zu entwickeln, welche den Anforderungen moderner Arbeitsumgebungen gerecht wird und gleichzeitig die kreative Kollaboration fördert. Die Untersuchung soll sich darauf konzentrieren, wie technische Systeme und Designprinzipien kombiniert und implementiert werden können, um ein effektives und für Nutzer ansprechendes Werkzeug für verteilte Teams im Engineering zu schaffen.
Thesis Committee:
Prof. Mehring (IMVT)
Problemstellung:
Bremsfeinstaub bildet neben der aus Verbrennungsvorgängen hervorgehenden partikulären Phase den größten Anteil an gesundheitsschädlichen, lungengängigen, aus dem Verkehrsaufkommen auf Straße und Schiene hervorgehenden Feinstpartikeln (PM2.5 und kleiner). Insbesondere im Bereich von Bahnhöfen und U-Bahn Haltestellen (sowie im Inneren von Schienenfahrzeugen) werden hohe Partikelkonzentrationen kleinster gesundheitsschädlicher Partikel gefunden; also gerade dort wo sich sehr große Menschenansammlungen finden. Größenverteilung und Materialzusammensetzung der Partikel hängen von den Randbedingungen des betrachteten Bremsprozesses, der Bremsenkonstruktion und den eingesetzten Materialien ab. Sie sind zudem bedingt durch thermische Einflüsse und Partikel-Partikel Wechselwirkungen und ggfs. chemische Reaktionen in der Gasphase nach Freisetzung durch den Bremsprozess. Die Effektivität eines zur Abscheidung des entstehenden Bremsstaubs eingesetzten Abscheidesystems ist von physikalischen Einflüssen geprägt, die sich über mehrere Größenskalen erstrecken: Makroskopische Strömungsführung am Bremssystem und Strömung der staubbeladenen Luft im Abscheidesystem, Temperaturverhältnisse im Gesamtsystem, Größe und Form der Staubpartikel, Oberflächenbeschaffenheit der Staubpartikel und der Komponenten des Abscheidesystems, insbesondere auch die Makro- und Mikrostruktur eingesetzter Filtermedien.
Die Problemstellung der Arbeit besteht in der Erfassung der relevanten physikalischen Prozesse, die für die Partikelbildung und Partikeldynamik im Bremssystem relevant sind und konzentriert sich vor allem auf die Partikelablagerung im Abscheidesystem und insbesondere den hier eingesetzten Filtermedien. Die Abbildung des Bremsstaubabscheideprozesses durch eine geeignete physikalische Modellbildung im Rahmen eines recheneffizienten numerischen Simulationsmodells soll es zukünftig erlauben, gezielt leistungsfähige Filtermedien für Bremsstaubabscheidesysteme in unterschiedlichen Einsatzbereichen zu entwickeln.
Relevanz der Themenstellung:
Feinstaub in der Atemluft stellt neben gasförmigen Schadstoffen ein erhebliches Gesundheitsrisiko dar. Dies gilt insbesondere in innerstädtischen Bereichen aufgrund des dort vorzufindenden erheblichen Verkehrsaufkommens auf Straße und Schiene. Entwicklungen zur Reduzierung schädlicher Staubpartikel und insbesondere Feinstaub (PM10 und PM2.5) konzentrierten sich in der Vergangenheit vorwiegend auf die Verbesserung von Verbrennungsmotoren und deren Abgasreinigungsanlagen. Fortschritte in diesem Bereich führten dazu, dass sich heute ein bedeutender Anteil der in der Atemluft befindlichen, menschengemachten Kleinstpartikel aus Bremsabrieb, Reifen- bzw. Radabrieb und sich von der Fahrbahnoberfläche ablösenden Partikeln ergibt. In Bezug auf die Umweltbelastung durch Bremsabrieb sind insbesondere diejenigen Bereiche von Bedeutung, wo Bremsstaub erzeugt wird, und die sich durch eine hohe Populationsdichte auszeichnen, d.h., an Fußgängerampeln im Straßenverkehr und vor allem an Bahnsteigen in Bahnhöfen und den Haltestellen von Straßenbahnen und U-Bahnen.
Trotz des zunehmenden Ausbaus der E-Mobilität und regenerativen Bremssystemen in Elektrofahrzeugen auf Straße und Schiene wird Feinstaub aus Bremsabrieb auch mittelfristig eine Belastung für Mensch und Umwelt darstellen.
Vor diesem Hintergrund verfolgt die vorgegebene Themenstellung die Entwicklung eines mehrskaligen multiphysikalischen Simulationsmodells, um in Zukunft effektive, ökologisch und ökonomisch nachhaltige Abscheidesysteme und Filtermaterialien für unterschiedliche Anwendungen bereitstellen zu können.
Wissenschaftliche Fragestellung:
Die wissenschaftliche Fragestellung konzentriert sich auf die physikalische Modellierung und numerische Simulation der sich über mehrere physikalische Größenskalen abspielenden Abscheidung von Bremsstaub in Filtermedien mit unterschiedlicher Makro- und Mikrostruktur. Von besonderem Interesse ist hierbei die genaue Charakterisierung der für die Modellbildung relevanten Eigenschaften verschiedener Bremsstäube mittels geeigneter Experimente und Digital-Twin Simulationen, sowie die genaue simulative Erfassung von Partikelablagerung/-umlagerung im Filtermedium, die Charakterisierung der Filterverblockung und die Vorhersage von wichtigen Leistungsparametern wie Druckverlustanstieg, Filterspeicherkapazität und Filterlebensdauer. Außerdem soll auch der Einfluss der Luftführung am Bremssystem und einem zu konzipierendem Abscheidesystem (welches das Filtermedium beinhaltet) untersucht werden.
Thesis Committee:
Prof. Graf (IFSW), Prof. Rademacher (INT)
Problemstellung:
Hohlkernfasern haben in den letzten zehn Jahren für eine Vielzahl von Anwendungen zunehmende Aufmerksamkeit auf sich gezogen, von der Telekommunikation, wo Faserlängen von Dutzenden oder sogar Hunderten von Kilometern erforderlich sind, bis hin zur Übertragung von gepulster Hochleistungslaserstrahlung, sowohl im Grundmode- als auch im Multimode-Betrieb, wo für die meisten laserbasierten Anwendungen nur wenige Meter (typischerweise 10-20 m) ausreichen. Darüber hinaus gewinnen sie zunehmend an Interesse in der Quantentechnologie, z. B. in der Quantenkommunikation, der Quantensensorik und der Präzisionsmesstechnik. Kürzlich wurde berichtet, dass doppelt verschachtelte inhibited-coupling Hohlkernfasern (IC-HCFs) bei einer Wellenlänge von 1550 nm nur 0,08 ± 0,03 dB/km an Wellenleitungsverlusten aufweisen, was nach Angaben der Autoren die niedrigste jemals in einer optischen Faser erreichte Dämpfung ist [https://opg.optica.org/abstract.cfm?uri=OFC-2024-Th4A.8]. Dies macht IC-HCFs vielversprechend für ein breites Spektrum von Anwendungen. Ihre Herstellung ist jedoch nach wie vor komplex und erfordert eingehende Untersuchungen über den gesamten Entwicklungsprozess. Ein multidisziplinärer Ansatz, der Thermodynamik, Materialwissenschaft, Optik und Laserphysik umfasst, ist für die Optimierung ihres Designs, ihrer Herstellung und ihrer Qualifikation unerlässlich.
Relevanz der Themenstellung:
Die Photonik ist eine Schlüsseltechnologie in vielen Industriezweigen, darunter Telekommunikation, Fertigung, Computertechnik, Gesundheitswesen und viele mehr. Photonische Technologien sind daher auch für die GSaME von Bedeutung, sei es im Bereich der Datenübertragung, der Sensorik, der Messtechnik, der Diagnostik oder sogar direkt in Form des Laserstrahls als Fertigungswerkzeug. In all diesen Bereichen ist die faseroptische Strahlführung ein wesentlicher Ansatz zur Verbesserung von Leistungsfähigkeit und Flexibilität in unterschiedlichsten Anwendungen. Während die spezifischen Anforderungen, die die Fasern erfüllen müssen, so vielfältig sind wie die potenziellen Anwendungen, laufen die wissenschaftlichen Herausforderungen im Grunde immer auf Aufgaben hinaus wie die Anpassungder geführten Moden, die Verringerung der Verluste und der Biegeempfindlichkeit, die Kontrolle der Dispersion und - last but not least - die Weiterentwicklung der Herstellungsprozesse, um die gewünschten Fasern reproduzierbar fertigen zu können.
Wissenschaftliche Fragestellung:
Derzeitige IC-HCFs sind in erster Linie für die effiziente Führung von Grundmodenstrahlung ausgelegt, was ihre Anwendbarkeit für die Übertragung von Multimode-Laserstrahlen einschränkt. Die in diesem Projekt geplanten Arbeiten zielen darauf ab, umfassende Simulationsansätze und Designmodelle zu entwickeln, die verschiedene Aspekte wie Feldverteilung, Faserverluste, Biegeempfindlichkeit, Dispersionseffekte etc. berücksichtigen, um Fasern anwendungsspezifisch auslegen und optimieren zu können. Unter Nutzung der Faserproduktionsanlagen am IFSW werden etablierte Herstellungsverfahren wie die Stack-and-Draw-Methode weiterentwickelt und neue Fertigungsansätze erforscht, um einen zuverlässigen und reproduzierbaren Produktionsprozess für maßgeschneiderte Fasern zu gewährleisten.
Die hergestellten Fasern werden einer detaillierten experimentellen Charakterisierung unterzogen und ihre Leistungsfähigkeit wird sowohl am IFSW als auch am INT untersucht.
Thesis Committee:
Prof. Takors (IBVT)
Problemstellung:
Die Errichtung einer zirkulären Wirtschaft (circular bioeconomy) ist ein wichtiger Baustein hin zu einer nachhaltigen Wirtschaftsform, die lokale Ressourcen favorisiert und damit die Menschen-verursachten Auswirkungen auf den Klimawandel minimiert. Bioverfahrenstechnischen Ansätzen, die auf nachwachsenden Rohstoffen beruhen oder beispielsweise CO2-haltige Abgase in Wertstoffe umsetzen, kommt dabei eine besondere Rolle zu. Sie können in großvolumigen Produktionsprozessen (>> 100 m³) z.B. Grund- und Feinchemikalien nachhaltig herstellen, müssen aber gleichzeitig gegenüber den etablierten Produktionsverfahren aus fossilen Rohstoffen ökonomisch bestehen. Letzteres ist besonders anspruchsvoll, da die heutigen fossilen Produktionsverfahren das Ergebnis teils 100jähriger Verfahrensoptimierung sind. Neue bioverfahrenstechnische Ansätze müssen daher optimal ausgelegt und betrieben werden, um erfolgreich in Konkurrenz zu dem fossilen status quo zu treten.
Die in diesem Vorgaben favorisieren Blasensäulen-Bioreaktoren bieten ein großes Potenzial biotechnische Prozesse im großen Maßstab zu etablieren. Gegenüber den bislang favorisierten Rührkessel-Reaktoren besitzen sie den intrinsischen Vorteil geringere Aufwendungen für Installation und Betrieb zu benötigen, was die Produktionsprozesse dann ökonomisch konkurrenzfähiger macht. Gleichzeitig existiert der Nachteil, dass das grundlegende Knowhow zur Auslegung und zum Betrieb solcher Bioreaktor-Blasensäulen im >>100 m³ Maßstab leider noch zu fragmentiert ist. In der industriellen Praxis sind bislang nur sehr wenige Beispiele etabliert, die das Ergebnis empirischer Tests sind. Eine stringente ad initio, in silico Methode zur Auslegung und zum erfolgreichen großvolumigen Betrieb derartiger Blasensäulen fehlt.
Relevanz der Themenstellung:
Zuletzt hat die Europäische Kommission im März 2024 explizit festgestellt, dass das 'Biomanufacturing' ein maßgeblicher Baustein zur Errichtung einer resilienten, nachhaltigen Produktion in Europa ist. In diesem Zusammenhang ist es essenziell, großvolumige industrielle Prozesse zur Herstellung z.B. von Grund- und Feinchemikalien, aber auch von Lebensmitteln bzw. -zusätzen zu etablieren. In einem vom Antragsteller mit verfassten und verantworteten Übersichtsartikel (Puiman et al., Current Opionion Biotechnology, in review) wird explizit die Bedeutung der sogenannten 'Gas Fermentation' mit Blasensäulen-Bioreaktoren hervorgehoben. Es werden die noch ungelösten Probleme zur modellierungstechnischen Auslegung dieser Reaktortypen aufgezeigt. Diese umfassen beispielsweise die Modellierung von Stoffaustausch, der Blasen-Fluid Interaktion, der Blasenpopulationsdynamik sowie die sehr hohe notwendige Rechenleistung, die bestenfalls die Simulation von 'snap shots' (Blitzlichtaufnahme) aber nicht von Prozessabläufen erlaubt.
Wissenschaftliche Fragestellung:
Um die Auslegung und den Betrieb von Blasensäulen-Bioreaktoren ingenieurwissenschaftlich fundiert durchführen zu können, bedarf es neuartiger Simulationsansätze, die die großvolumigen (>>100 m³) Bedingungen mit möglichst großer Genauigkeit nicht nur als 'Blitzaufnahme' (snap shot) sondern im zeitlichen Verlauf einer Fermentation beschreiben.
Die aktuellen Euler-Euler bzw. Euler-Langrange Ansätze basieren auf aufwändigen mathematischen Methoden (z.B. Reynolds-Average Navier-Stokes (RANS) Gleichungen bzw. Lattice-Boltzmann (LB) Methoden), die auch in kommerzieller Software wie ANSYS Fluent bzw. MStar zugänglich sind. Gerade letztere (Euler-Lagrange-Ansätze realisiert als LB in MStar) werden in der Arbeitsgruppe des Antragsstellers häufig zur Simulation von Hydrodynamik, Stoffübergang und mikrobieller Kinetik in Bioreaktoren eingesetzt. Dabei zeigt sich, dass die Berücksichtigung von Blasen als Lagrange 'Partikel' inkl. der dazugehörigen Blasenpopulationsdynamik essenziell ist, um deren Interaktion mit dem Fluid und den resultierenden Stoffübergang genau zu beschreiben. Allerdings sind die bislang verwendeten Ansätze bestenfalls nur in der Lage, einen singulären 'Arbeitspunkt' als 'quasi' steady-state zu nach rechen-intensiven Simulationen auf GPUs (Dauer: mehrere Tage bis Wochen) zu beschreiben.
Davon leitet sich die wissenschaftliche Fragestellung ab, inwieweit LB Simulationen durch die Interaktion mit physically informed neural networks (PINNs) beschleunigt werden können. Dadurch würde sich erstmals die Tür zur Simulation kompletter Fermentationsprozesse in großvolumigen Bioreaktoren unter Verwendung von Euler-Lagrange Ansätzen öffnen.
Konkret sollen über die in MStar implementierte Python Pre APIs Schnittstelle stationäre Lösungen aus einer separaten Python-Umgebung in MStar eingekoppelt werden. In einem ersten Schritt sollte es sich um stationäre Blasenverteilungen inkl. der dazugehörigen Geschwindigkeitsvektoren handeln. Auf dieser Basis sollte dann der in MStar implementierte LB Algorithmus in die Lage versetzt werden, die dazugehörigen Kräftebilanzen beschleunigt zu lösen, um dadurch wesentlich schneller zu pseudo-stationären Lösungen im Euler-Langrange Feld zu gelangen.
Die stationäre Blasenverteilung und inkl. der dazugehörigen Geschwindigkeitsvektoren soll über ein PINN separat in Python erfolgen. Das PINN ist das Ergebnis von reinforcement learning basierend auf Eingabedaten bekannter Simulationen und deren Lösungen. Zu diesem Zweck werden (i) eigene bereits vorhandene Simulationsergebnisse verwendet, (ii) neue Simulationen gezielt für verschiedene operative Konditionen durchgeführt und (iii) Literaturdaten eingepflegt. Diese in Lern- und Testdatensätze separierte Daten sollen zur Identifizierung des PINN führen. Ziel des PINN ist es, anfängliche Blasenverteilungen in einem Blasensäulen-Bioreaktor in die stationären Blasenverteilung für charakteristische Betriebsmodi zu überführen. Dadurch wird die aufwändige konvergierende Simulation in LB-Modus umgangen.
Darauf aufbauend soll in einem nächsten Schritt untersucht werden, inwieweit das PINN auch zur Vorhersage von pseudo-stationären Strömungsfelder des fluids verwendet werden kann. Die Python Schnittstelle erlaubt ebenfalls den Austausch von Volumenelementen und Geschwindigkeitsvektoren, wodurch komplette Strömungsfelder über PINN prinzipiell vorhergesagt werden können.
Gelingt die erfolgreiche Ankopplung der PINNs wird die Zeit zur Simulation operativer Bedingungen in Blasensäulen-Bioreaktoren stark reduziert. Dadurch können Sequenzen aufeinanderfolgender Zustände erstmals im Detail untersucht werden. Dies eröffnet beispielsweise die Möglichkeit, den Einfluss von Einbauten oder von außen vorgenommener operativer Maßnahmen auf die Leistungsfähigkeit des Bioreaktors - und damit des gesamten Bioprozesses - quantitativ zu beschreiben. Dies ist mit den bisherigen Methoden nicht möglicht. Der vorgestellte Ansatz öffnet daher die Tür zur neuartigen Auslegung und Bewertung von Blasensäulen-Bioreaktoren im realen großvolumigen Betrieb.