Jetzt bewerben! Ihre Bewerbung wird sofort nach Eingang bearbeitet.
Thesis Committee:
Prof. Bauernhansl (IFF)
Problemstellung:
Industrielle Exoskelette haben nachweislich einen positiven ergonomischen Effekt beim anwendungsspezifischen Einsatz,
personenbezogene Auswirkungen von industriellen Exoskeletten sind jedoch bisher kaum verstanden.
Klassische Ergonomie-Bewertungsmethoden wie Ergonomic Assessment Work Sheet (EAWS), Rapid Upper Limb Assessment
(RULA) oder der NIOSH-Lifting-Equation (Bewertungsregel für Lastenhandhabung des National Institute for Occupational Safety
and Health) eignen sich sehr eingeschränkt für das Assessment von industriellen Exoskeletten. Im Besonderen sind personendifferenzierte
Betrachtungen ergonomischer Maßnahmen und Auswirkungen damit nicht vorgesehen, die Assessment-Methoden
wurden mit dem Ziel einer arbeitsplatzbezogenen Ergonomie-Optimierung entwickelt.
Die derzeit eingesetzten biomechanischen Assessment-Methoden zur personenspezifischen Wirksamkeitsanalyse basieren auf
detaillierten experimentellen Analysen im Labor und sind aufgrund der benötigten Sensorik sehr aufwändig und begrenzt einsetzbar
für eine Vielzahl an Personen.
Ergänzend dazu bieten bereits digitale Auswertemodelle, basierend auf biomechanisch fundierten Menschmodellen,
vielversprechende Personalisierungsmöglichkeiten, wie Anthropometrie und Kraftfähigkeit [Lund et al. 2015, Chander et al. 2017].
In Kombination mit Exoskelett-Modellen stellen resultierende hybride Mensch-Exoskelett-Modelle den passenden Rahmen für die
Untersuchung von personenbezogenen Auswirkungen.
Allerdings steckt dieser Ansatz noch in den Kinderschuhen, denn viele Annahmen in Bezug auf (1) der mechanischen Schnittstelle
und (2) der Skalierung und damit Determinierung der personenspezifischen biomechanischen Eigenschaften sind für eine evidente
Wirksamkeitsanalyse noch nicht ausreichend verstanden.
Relevanz der Themenstellung:
Industrielle Exoskelette als präventive Maßnahme werden für die Sicherung der Arbeitskraft der Zukunft, problematisierend
verstärkt durch den demographischen Wandel, in den westlichen Industrieländern immer wichtiger werden. Die Vorhersage und
Auswertung personenbezogener Auswirkungen spielen für den optimiert ergonomischen Einsatz und das präventive
Wirksamkeitsverständnis eine zentrale Rolle. Besonders für die ökonomische Rechtfertigung als ergonomische Maßnahme sind
personenbezogene Auswirkungen und die damit einhergehende personenspezifische Akzeptanz Schlüsselfaktoren.
Besonders leistungsgewandelte Mitarbeiter:innen könnten so noch gezielter geschützt oder nach einem Ausfall wieder eingegliedert
werden. Des Weiteren bietet personenbezogenes Wirksamkeitsverständnis eine fundierte Argumentationsgrundlage für die
Deklarierung von Exoskeletten als persönliche Schutzausrüstung (PSA). Das wird sowohl für Hersteller, als auch für Anwender, und
deren Umgang mit Exoskeletten, bspw. im (S)TOP-Prinzip der DGUV, als personenbezogene ergonomische Maßnahme immer
wichtiger werden.
Mit einer personenbezogenen Assessment-Methode können Belastungsszenarien auf den/die einzelne/n Mitarbeiter:in richtig
verstanden und die optimale Einstellung des industriellen Exoskeletts als personalisiertes ergonomisches Werkzeug angepasst
werden.
Des Weiteren bieten digitale Assessment-Modelle auf lange Sicht das Potential auf Basis großer Datenmengen eine Korrelation
zwischen Anwendungs-Mensch-Daten und Krankheits-/Ausfalldaten mit Hilfe von KI-Methoden herzustellen. Dies könnte
perspektivisch die Frage nach den Langzeitauswirkungen beantworten.
Wissenschaftliche Fragestellung:
Wissenschaftliche Grundlage des geplanten Vorhabens ist die Identifikation der wichtigsten biomechanischen Größen und
Parameter für die Konzeption gekoppelter Exoskelett-Mensch-Modelle für die korrekte Darstellung personenbezogener
Auswirkungen von industriellen Exoskeletten [Koopman et al. 2020].
Anschließend ist eine Modellreduktion von Nöten für den effizienten Umgang mit personenbezogenen Modellen, dies geschieht v.a.
im Rahmen der Modell-Entwicklung und –Validierung. Ein besonderer Fokus liegt dabei auf der Schnittstellenmodellierung unter
Betrachtung der mechanischen Gewebeeigenschaften [Chander et al. 2019]. Über Sensitivitätsanalysen werden Modellparameter
weiter verstanden, priorisiert und bilden die Grundlage für die experimentelle Validierung.
Auf Basis dessen wird abschließend eine Modell-Einstellungs-/Kalibrierungsmethode für die ermittelten Personalisierungsparameter
entwickelt.
Zentrale Zielsetzung des Vorhabens ist die Entwicklung einer modellbasierten Methodik zur Personalisierung von
Exoskeletten im Rahmen von Mensch-Technik-Interaktion unter Berücksichtigung einer effizienten Modellreduktion bei
möglichst geringen Qualitätsverlusten.
Zentrale Herausforderungen des geplanten Vorhabens sind die Systematisierung und der Umgang mit großen Datenmengen
(Anwendungs- und Probandendaten) und auf Basis dieser großen Daten personenbezogene Auswirkungen biomechanisch,
arbeitsmedizinisch und ergonomisch zu interpretieren und für die Planung, Bewertung und Optimierung sowohl von industriellen
Exoskeletten, als auch von manuellen Arbeitsplätzen, nutzbar zu machen.
Thesis Committee:
Prof. Bauernhansl (IFF)
Problemstellung:
Die Gestaltung und Modellierung von Exoskeletten folgte bisher einer starren Methodik im Entwicklungsprozess. Ein Exoskelett
wird jedoch für seinen spezifischen Einsatz auf der Grundlage der Eigenschaften des Benutzers entworfen. Das IFF nutzt Game-
Engines als leistungsfähige Plattformen für die Modellierung, Simulation und Visualisierung von modularen mobilen
Produktionssystemen. Durch die in einer Game-Engine entwickelten Modelle ist es möglich, die Fabrik dynamisch anpassbar
vorauszusagen und zu konfigurieren. Die Menschmodellierung wurde bisher mit speziellen Software z.B. AnyBody Modeling
System™ entwickelt, die beschränkte unmittelbare Kompatibilität mit der Simulation anderer Produktionsmodule zulässt. Daher ist
es notwendig, die Anforderungen und Methoden zur Entwicklung, Personalisierung und Integration eines Menschmodells für die
Simulation und Visualisierung im Kontext einer modularen und mobilen Fabrik zu untersuchen. Darüber hinaus muss die
Genauigkeit eines Modells oder einer Darstellung diskutiert und bestimmt werden, indem die Auswirkungen auf die Sicherheit der
Person und des Systems sowie die Funktionalität berücksichtigt werden. Der Benutzer müssen desselben Exoskeletts ähnliche
Eigenschaften aufweisen, um dessen ergonomische, sichere und funktionell adäquate Nutzung zu gewährleisten. Dies führt dazu,
dass bei bisherigen Ansätzen die Gestaltung und virtuelle Modellierung eines Exoskeletts lange Entwicklungszeiten in Anspruch
nimmt und zu unflexiblen Ergebnissen führt.
Relevanz der Themenstellung:
Game-Engines verbessern kontinuierlich ihre physikalischen Simulationen, was sie zu potenziellen Entwicklungsumgebungen für
Simulationen in verschiedenen Forschungsbereichen macht, in diesem Fall für die individuelle Modellierung des Menschen,
einschließlich des Verhaltens des Muskel-Skelett-Systems und der Interaktion mit anderen Produktionsmodulen. Die Komplexität
der Menschmodellierung wird als besonders anspruchsvoll in der Fabrik betrachtet, da jeder Mensch sehr unterschiedliche,
individuelle Eigenschaften hat. Mittels eines dynamischen Muskel-Skelett-Modellansatzes in einer mit anderen Fabriksystemen
kompatiblen Umgebung können realistische Bewegungen und Kräfte anhand dreidimensionaler Mensch- und
Maschinengeometrien ermittelt werden. Auf diese Weise ist es möglich, den menschlichen Belastung und die Systemleistung zu
berechnen und sogar vorherzusagen und zu prüfen, ob das System die funktionalen, sicherheitstechnischen und ergonomischen
Anforderungen für die Mitarbeiter erfüllt. Das Ziel ist, Entwicklungszeiten von Exoskelett-Prototypen zu reduzieren sowie die
Flexibilität bei der Anpassung und Skalierung eines Exoskeletts und des Modells zu erhöhen.
Bisher wurden inverse kinematische oder vorwärtsgerichtete kinetische Algorithmen für Bewegungsanalysen und Steuerung
verwendet. Im Hinblick auf die Modellierung des Verhaltens von Mensch und Exoskelett ist die Analyse und Validierung des
Forward and Backward Reaching Inverse Kinematics (FABRIK) Algorithmus der University of Cambridge geplant.
Wissenschaftliche Fragestellung:
▪ Wie kann ein personalisierbares Menschmodell und seine Dynamik im Kontext der modularen,
mobilisierbaren Fabrik modelliert, simuliert und visualisiert werden?
▪ Wie müssen modulare und skalierbare Exoskelette entworfen und modelliert werden?
▪ Welche Anforderungen an game-engine-basierte Modellierung eines menschliches
Muskel-Skelett-System gibt es, um seine Interaktionen mit der Umgebung sowie mit anderen Systemen
geeignet zu modellieren, zu visualisieren und vorherzusagen?
Thesis Committee:
Prof. Bauernhansl (IFF), Prof. Huber (IFF)
Problemstellung:
Metamorphe Wertschöpfungssysteme bestehen aus einer Vielzahl an Hardware- und Softwaremodulen, die auftragsbezogen zu
Maschinen zusammengesetzt werden und nach Erfüllung der Aufgabe wieder zerfallen können.
Ziel dieser Produktionssysteme ist die Erhöhung der im System befindlichen Freiheitsgrade zur Steigerung von Flexibilität und
Effizienz. Zusätzlich wird die sog. vertikale Wertschöpfung ermöglicht. Vertikale Wertschöpfung bezeichnet die Wertsteigerung des
Produktionssystems durch Nutzung fungibler Lernergebnisse basierend auf der Informationsgewinnung produktionstechnischer
Informationen und Daten, die im Rahmen herkömmlicher (horizontaler) Produktionsprozesse gewonnen werden können.
Aufgrund der häufigen Neuzusammensetzung der Module ist aus Wertschöpfungsgründen eine schnelle Kopplung und
Abkopplung der Module wünschenswert. Eine kabellose IuK-Schnittstelle ermöglicht eine Verkürzung der Umbauzeiten. Aufgrund
der Vielzahl der Module sowie der Vielfalt und Menge der zu übertragenden Daten und Informationen zur Ermöglichung der für die
vertikale Wertschöpfung notwendigen Lernprozesse sowie der notwendigen Sicherstellung der fehlerfreien und sicheren
Datenübertragung werden Schnittstellen benötigt, die Produktionsansprüchen hinsichtlich Sicherheit und Fehlerfreiheit genügen,
andere Module negativ nicht beeinflussen, Verbindung mit einer Vielzahl an Modulen aufnehmen und gleichzeitig ausreichende
Menge an Daten übertragen können.
Relevanz der Themenstellung:
Derzeit gibt es verschiedene Ansätze an modularen Schnittstellen wie Plug’n‘Produce. Kabellose Verbindungen sind derzeit mit 5G
und NFC ebenfalls in der Erforschung. Jedoch beziehen die bestehenden Ansätze die Voraussetzung des maschinellen Lernens
bei Übermittlung von Steuerungsinformationen nicht in ausreichendem Maße mit ein. In Bezug auf metamorphe
Produktionssysteme stellt diese Fragestellung eine entscheidende Grundlage dar.
Wissenschaftliche Fragestellung:
▪ Welche Anforderungen an ad-hoc einsetzbare, kabellose Schnittstellen gibt es für die metamorphe
Produktion?
▪ Welche Daten und Informationen sind im Rahmen der vertikalen Wertschöpfung zu übertragen?
▪ Welche Rahmenbedingungen ergeben sich unter Bezug auch Safety und Security?
▪ Wie können diese Daten und Informationen kabellos übertragen werden?
Thesis Committee:
Prof. Bauernhansl (IFF)
Problemstellung:
Exoskelette im therapeutischen Einsatz können die menschliche Motorik verbessern indem sie durch ergänzende Gelenkmomente
die Bewegung unterstützen und dadurch einen größeren Bewegungsumfang ermöglichen. Studien zeigen, dass mit assistierende
Exoskelette in der Rehabilitation von Schlaganfallpatienten mit motorischen Beeinträchtigungen große therapeutische Wirkungen
erzielt werden kann. Für eine effiziente Therapie müsste das Exoskelette mit minimal notwendiger adaptiver Unterstützung
erfolgen, sodass die schlaffen Muskeln mit/ohne Stimulation durch die Armbewegungen trainiert werden. Bei zu hoher
Unterstützung würde das Trainingseffekt schwinden. Dieses Optimierungsproblem der Steuerung der Unterstützungsleistung eines
Exoskeletts muss mit der muskulären Kraftleistung des dysfunktionalen Gelenks erfolgen. Eine personalisierte neuromuskuläre
adaptive Echtzeit Anpassung des Exoskeletts auf die Gelenkfunktion des gelähmten Armes ist derzeit nicht möglich, weil keine
physikalisch fundierte patientenspezifische Muskelkraftbestimmung aus biomechanischen Simulationen gibt, die in Echtzeit den
dynamischen Gelenkwiderstand aus allen am Gelenk beteiligten Muskelkräfte realistisch dreidimensional aufgelöst bestimmen
kann.
Relevanz der Themenstellung:
Die derzeit eingesetzten MKS-Softwares für Menschmodellierung und die damit simulierte Interaktion mit dem Exoskelett basieren
auf stark idealisierten 1-D Modellen und können die tatsächliche Realität des 3D-Problems des muskuloskelettalen Systems nicht
abbilden. Aufgrund der starken Abweichungen der berechneten Muskelkraftwerte und der Reduktion der Modelkomplexität von 3D
auf 1D sind die MKS-Modelle nicht für eine personalisierte Auslegung für eine Armsteuerung anwendbar. Die Modellreduktion führt
zu unphysikalischen Ergebnissen, da das Muskelgewebematerial mit anisotropen Eigenschaften durch die Fiederung und mit
komplexer 3D-Geometrie ein nichtlineares kontinuumsmechanisches Problem darstellt, welches sich nicht realistisch in ein 1-D
Modell reduzieren lässt. Es kommt noch hinzu, dass die extrem wichtige Fixierung der Muskeln an den Knochenstrukturen von
MKS nur sehr rudimentär mit einem linearen 1D-Muskelverlauf approximiert wird, die zu falschen Muskelkraft-Gelenkbewegungs-
Beziehungen führen. Nur durch einen 3D-FE-vorwärts-dynamischen muskuloskelettalen Modellansatz mit exakten
Muskelgeometrien lassen sich realistische Bewegungen und Muskelkräfte bestimmen. Damit könnte durch eine mechanische
Strukturkopplung mit dem Exoskelett und der physiologischen EMG-Messungen der aktiven Muskeln die-Reglung des Exoskeletts
für eine personalisierte Therapie genau auf den dysfunktionalen Arm des Schlaganfallpatienten dynamisch adaptiv ausgelegt
werden, welches mit MKS-Methoden so nicht möglich ist.
Wissenschaftliche Fragestellung:
Die computergestützte Simulation der neuromuskulären Erkrankung des Armes, die durch einen Schlaganfall hervorgerufen wird,
beinhaltet sowohl eine methodische also auch eine softwaretechnische Herausforderung. Es gibt bisher keine publizierte 3D-FESimulation
von komplexen Muskel-Gelenk-Systemen mit einem vorwärtsdynamischen Ansatz der Armbewegung, die durch
geregelte Muskelaktivierung erfolgt. Allerdings sind diese 3D-Simulationsergebnisse der muskelkraftgetriebenen Bewegungen des
Arms essentiell, um die Interaktion mit dem Exoskelett zu analysieren und dessen Funktion daraufhin zu regeln. Die realitätsnahe
Lösung des biomechanischen Simulationsproblems des Ellenbogengelenks mit einem 3D-Multi-Muskel-System erfordert zum
einen Kenntnisse in der Physiologie des Arms und zum anderen in der nichtlinearen 3D-Kontinuumsmechanik sowie in effizienten
Optimierungsverfahren für die Bestimmung der Muskelaktivierungen und der Regelungstechnik zur Auslegung des Exoskeletts für
die Armunterstützung.
Zu allererst muss die muskuläre Dysfunktion des Arms eines Patienten bestimmt werden, die methodisch in zwei Schritten
aufgeteilt ist: Im ersten Schritt soll das vorgespannte Muskelsystem am Gelenk (passive Steifigkeiten des Ellenbogengelenks)
ermittelt werden. Die Vordehnung der Muskeln ist in zweierlei Aspekten relevant. Zum einen wird damit die statische
Gelenksteifigkeit bestimmt und zum anderen folgt aus der Muskelvordehnung die maximal mobilisierbare aktive Muskelkraft. Da
sich die Muskelvordehnungen nach dem Schlaganfall nicht ändert, sind die passiven Steifigkeitseigenschaften der Muskeln erstmal
nicht krankheitsbedingt beeinflusst und können anhand der physiologisch möglichen RoM wie bei einem gesunden Menschen
bestimmt werden. Die Optimierung der Vordehnungen soll über eine META-Modell-basierte Methode auf der Grundlage einer
Sensitivitätsstudie erfolgen. Im zweiten Schritt soll dann ebenfalls META-Modell basiert die Muskelaktivitäten für die muskuläre
Dysfunktion des Armes auf der Basis der gemessenen Bewegungs- und Kraftdaten bestimmt werden. Veränderungen der
Muskelvolumina durch Atrophie haben Einfluss auf die passive Steifigkeit der Muskeln und damit auch auf die Kraftentwicklung.
Durch Ultraschallmessung sollen diese Muskelvolumenänderungen erfasst und die Vordehnungen der Muskeln über die METAModelle
neu in Echtzeit berechnet werden können. Der dritte und letzte Schritt ist der Aufbau der bio-strukturmechanischen
Kopplung des patienten-spezifisch angepassten Simulationsmodels des Arms mit dem Exoskelett, um die Wechselwirkung zu
simulieren. Für die anschließende Sensitivitätsstudie müssen abhängig von der Anzahl von Designparameter große Menge von
Simulationen effizient geplant und auf einem Rechencluster z. B. am HLRS durchgeführt werden. Das Ziel wäre durch Aufnahmen
von EMG-Daten aus den Muskeln und der Position des bewegenden Arms, die als Inputparameter in die META-Modelle eingehen,
für den aktuellen Zustand herrschenden Muskelkräfte zu bestimmen, um daraus für das Exoskelett die erforderliche therapeutische
Unterstützung in Echtzeit zu berechnen und es nachzuregeln.
Thesis Committee:
Prof. Bauernhansl (IFF)
Problemstellung:
Biointelligente Systeme basieren auf der systematischen Interaktion zwischen Bio-, Hard- und Software. Während sich im Kontext der Digitalisierung zuletzt semi-standardisierte Entwicklungsprozesse (z.B. V-Modell) in der Industrie etablierten, erfordert die Entwicklung biointelligenter Systeme eine neuartige Konzepte. Neben der ‚zusätzlichen‘ (teilweise genetisch veränderten) biologischen Komponente, deren Verhalten nur schwerlich prognostizierbar ist, müssen elementare Anforderungen des nachhaltigen Designs über den gesamten Lebenszyklus betrachtet werden. Ein zusammenhängendes Rahmenwerk einschließlich eines modularen Werkzeugkastens existiert heute nicht.
Relevanz der Themenstellung:
Das Ziel dieses Projektthemas ist die Entwicklung eines Design-for-Biointelligence-Rahmenwerks, dass künftig als maßgebliches Instrument für Unternehmen bei der systematischen Gestaltung von biointelligenten Produktionssystemen und Produkten dienen soll. Folgende Aufgabenstellungen sind damit verbunden: Initiale Definition von Design-for-Biointelligence (DFB) als modulares Rahmenwerk, Recherche integraler Methoden und Werkzeuge durch systematisches Literature-Review (z.B. mittels PESTEL) und spezifischer Erhebungen im Rahmen von Experteninterviews,Validierung anhand von Fallbeispielen in Forschung und Entwicklung.
Wissenschaftliche Fragestellung:
Wie kann ein biointelligentes Design für unterschiedliche Systeme (Produkte, Produktion, Region etc.) definiert werden?
Welche Strategien, Methoden und Werkzeuge existieren in der Fachliteratur und industriellen Praxis mit explizitem Bezug zu einem biointelligenten Design?
Wie kann ein Design-for-Biointelligence Rahmenwerk modular gestaltet werden?
Thesis Committee:
Prof. Schuster (BWI)
Problemstellung:
Smart Contracts in Blockchain-Netzwerken erweitern die Möglichkeiten, Verträge abzuschließen. Über den Konsensmechanismus der Blockchain werden Zustände, die ansonsten für Marktteilnehmer nicht nachvollziehbar sind, transparent. So kann beispielsweise der erfolgreiche Verkauf eines Endprodukts auch für Zwischenhändler und Zulieferer nachvollzogen werden. Dadurch ist es möglich, in Verträgen dieses Ereignis aufzugreifen und beispielsweise eine Zahlung daran zu knüpfen. Die breitere Informationsbasis erleichtert auf der einen Seite durch die damit verbundene Reduktion der Eintrittsbarrieren den Markteintritt von neuen Akteuren. Auf der anderen Seite besteht aber auch die Gefahr, dass die Bildung von Kartellen gefördert wird, da geheime Absprachen zwischen Wettbewerbern von den Kartellmitgliedern einfacher kontrolliert werden können. Eine Analyse dieses Trade-Offs findet sich in Cong und He (2019). Für eine einführende Übersicht zu Smart Contracts siehe auch Schuster, Theissen und Uhrig-Homburg (2020).
Relevanz der Themenstellung:
Smart Contracts werden bisher noch nicht auf breiter Basis zur Steuerung von Lieferantennetzwerken eingesetzt. Eine Ursache hierfür ist auch, dass die wichtigen Player (z.B. große Automobilhersteller) ihr Informationsmonopol nicht aufgeben möchten, da die Konsequenzen hieraus nicht vollständig verstanden sind. Hier setzt das vorgeschlagene Forschungsthema an, um herauszuarbeiten, wie der Wettbewerb in solchen Netzwerken aussehen könnte und unter welchen Bedingungen sich hieraus Vorteile für bestimmte Marktteilnehmer ergeben.
Wissenschaftliche Fragestellung:
In einem ersten Schritt werden, basierend auf dem ökonomischen Modell von Cong und He (2019), verschiedene Use Cases für die Anwendung von dezentralen Blockchain-basierten Smart Contracts in Lieferantenbeziehungen entwickelt. Hierbei liegt ein Fokus auf den regulatorischen Rahmenbedingungen verschiedener Branchen (z.B. Automobilindustrie). In einem zweiten Schritt sollen dann Vorschläge erarbeitet werden, wie solche Blockchain-Netzwerke ausgestaltet werden können, um Wettbewerb zu fördern aber gleichzeitig die Gefahr der Kartellbildung zu reduzieren und Vertraulichkeit in kritischen Bereichen zu erhalten. Hierbei bietet sich dann ggf. auch die Zusammenarbeit mit Industrieunternehmen an, um deren Entscheidungssituationen und Präferenzen noch besser erfassen zu können.
Referenzen:
Cong, L.W. und Z. He. (2019): Blockchain Disruption in Smart Contracts. Review of Financial Studies, 32, S. 1754-1797.
Schuster, P., E. Theissen und M. Uhrig-Homburg (2020): Finanzwirtschaftliche Anwendungen der Blockchain-Technologie. Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung, 72, S. 125-147.
Thesis Committee:
Prof. Brem (ENI)
Problemstellung:
Der Wettbewerb um Innovationen ist hart wie nie, und das übergreifend in fast allen Industrien. Mit dem Aufstieg von Entwicklungsländern in der Weltwirtschaft hat ein dortiges Phänomen hierzulande Popularität erlangt. Sogenannte frugale Innovationen, Ergebnisse von Frugal Engineering, werden heute weit über diese Länder hinaus in der Produktentwicklung genutzt. Parallel dazu haben die vielen Anwendungsbereiche von künstlicher Intelligenz dazu geführt, dass sich auch unser grundsätzliches Verständnis vom Entstehen neuer Produkte massgeblich verändert hat. Gepaart mit der anhaltenden Diskussion um Klimaneutralität und Nachhaltigkeit in allen Lebensbereichen muss das Management von Technologien und Innovationen in Unternehmen deshalb grundlegend neu gedacht werden.
Relevanz der Themenstellung:
Vor diesem Hintergrund hat dieses Forschungsprojekt das Ziel, die unterschiedlichen Perspektiven von frugalen Innovationen, Künstlicher Intelligenz und Nachhaltigkeit zu nutzen, um unser Verständnis von Innovationsprozessen zu revolutionieren. Durch Frugal Engineering entstehen Innovationen, die mit dem in Forschung und Entwicklung weit verbreiteten Paradigma „immer mehr, immer besser“ bzw. „Over-engineering“ bricht. Es sollen einfache, technisch anspruchsvolle Lösungen entstehen, um neue (Preis-)Segmente zu erschließen. Dazu gehören insbesondere Ansätze zu „Localisation“ mit globalen Fokus, Neuentwicklung vs. Anpassung, Einsatz neuer Technologien sowie spezifische Preis- und Marketingstrategien. Künstliche Intelligenz wird zunehmend sowohl in den Frühphasen des Innovationsprozesses angewendet, wo Kreativität und Prototyping eine wichtige Rolle spielen, als auch in späteren Phasen, wo Produktion und Projektmanagement zentrale Themen sind. Somit muss unser etabliertes Verständnis von Mechanismen von technology-push und market-pull hinterfragt werden. Last but not least führt die aktuelle Nachhaltigkeitswelle zu neuen Ansätzen in der Produktentwicklung, z.B. durch das Revival von Konzepten wie der Kreislaufwirtschaft (Cradle-to-Cradle) oder ökologischer Innovationen.
Wissenschaftliche Fragestellung:
Systematisierung von Ansätzen zu Frugal Engineering, Künstlicher Intelligenz und Nachhaltigkeit in einem Produktentwicklungskontext; Analyse von Frugal Engineering, Künstlicher Intelligenz und Nachhaltigkeitsprinzipien und Best Practices; Empirische Untersuchung von relevanten Modellen und Ansätzen für die genannten Themenbereiche; Entwicklung einer Toolbox für Unternehmen zur Verbindung von Frugal Engineering, Künstlicher Intelligenz und Nachhaltigkeit für ein erfolgreiches Technologie- und Innovationsmanagement der Zukunft.
Thesis Committee:
Prof. Mitschang (IPVS), MANN+HUMMEL GmbH
Problemstellung:
Die fortschreitende Digitalisierung des Produktentstehungsprozesses und die zunehmende Vernetzung der Systeme ermöglichen neuartige Verknüpfungen und Analysen von Daten. Im Rahmen dieses Projekts soll ein Ansatz für einen datengetriebenen und automatisierten Produktenwicklungsprozess in Kooperation mit einem Industriepartner konzipiert, prototypisch implementiert und validiert werden. Dabei soll ein datengetriebenes Empfehlungssystem entstehen, das für eine neue Kundenspezifikation Teile eines passenden CAD-Modells des Produktdesigns vorschlägt. Als Datenquellen für das Empfehlungssystem kann auf historische Daten zu Kundenspezifikationen in einem Requirements-Management-Tool, auf CAD-Daten von abgeschlossenen Entwicklungsprojekten sowie auf Produktklassifizierungsdaten in einem PLM-System zurückgegriffen werden. In diesem Projekt sind in einem interdisziplinären Ansatz neben zentralen informationstechnischen Fragestellungen rund um Datenmanagement-, Business-Intelligence- und Big-Data-Technologien insbesondere auch ingenieurstechnische Aspekte der Produktenwicklung einzubeziehen.
Relevanz der Themenstellung:
Die Nutzung von Daten und Erfahrungen aus bestehenden und abgeschlossenen Projekten ist angesichts der schnelllebigen Produktlebenszyklen ein strategischer Wettbewerbsvorteil. Schnellere und gezielte Datenanalysen sind notwendig, um Kundenanforderungen wie kürzere Antwortzeiten und agiles Arbeiten zu erfüllen. Gleichzeitig erfordern volatile Marktbedingungen entsprechende Aktualität der für Analysen verwendeten Daten. Durch den steigenden Effizienzdruck ist es notwendig, die Produktentwicklung ressourceneffizienter und stärker produktionskostenorientiert aufzustellen, indem schon in der CAD-Modellierung systemseitig datengetriebene, intelligente, d. h. selbststeuernde und selbstoptimierende Ansätze berücksichtigt werden. Die Entwicklung solch datengetriebener Methoden ist ein komplexes und aktuelles Forschungsthema und bewegt sich im Spannungsfeld informationstechnischer, betriebswirtschaftlicher und ingenieurstechnischer Herausforderungen.
Wissenschaftliche Fragestellung:
Zentrale Aufgaben- und Fragestellungen dieser Arbeit sind:
• Analyse des Produktentstehungsprozesses beim Industriepartner sowie Abgrenzung des Forschungsthemas zu existierenden Ansätzen aus der Literatur.
• Erhebung und Strukturierung existierender Datenquellen und Datencharakteristika in den Prozessen und Systemen des Industriepartners sowie in verwandter Literatur.
• Erarbeitung und Definition generischer Datenanalyseszenarien für ein Empfehlungssystem für CAD-Modelle auf der Grundlage von Datenmanagement- und Big-Data-Technologien
• Ableitung von generischen und methodischen Anforderungen aus den Szenarien, insbesondere hinsichtlich erforderlicher Datenquellen, Datenqualität, Analyseverfahren und Realisierungstechnologien.
• Machbarkeitsuntersuchung der Szenarien anhand der Anforderungen und konkreter Produkte und Produktdesigns des Industriepartners.
• Konzeption eines generischen Ansatzes für ein datengetriebenes Empfehlungssystem für CAD-Modelle und prototypische Implementierung dieses Ansatzes für ausgewählte Szenarien des Industriepartners.
• Validierung des implementierten Ansatzes im Rahmen der ausgewählten Szenarien, z. B. hinsichtlich der Korrektheit und Vollständigkeit der vom datengetriebenen System empfohlenen CAD-Modelle (z. B. Vollständigkeitsgrad von 80%).
Thesis Committee:
Prof. Wagner (ISTE, ESE)
Problemstellung:
Das DevOps-Konzept hat eine Revolution in der Entwicklung von Web-, Cloud- und Unternehmenssoftware ausgelöst und vielen Vorteile gebracht. Es ermöglicht schnellere Releases und damit ein früheres Feedback zu den Kundenbedürfnissen sowie eine höhere Produktivität aufgrund geringerer Reibung zwischen Entwicklung, Bereitstellung und Betrieb. Im Kontext von cyber-physischen Systemen, wie z. B. in der Fertigung, war es bisher schwierig, DevOps zu implementieren. Die unterschiedlichen Kontextbedingungen wie kundenspezifische Hardware und Basissoftware sowie zusätzliche Qualitätsanforderungen, insbesondere im Bereich der Sicherheit, hindern Praktiker*innen daran, DevOps direkt in ihrer Umgebung anzuwenden. Insbesondere eine Schlüsselkomponente von erfolgreichem DevOps wurde bisher nicht auf cyber-physische Systeme (CPS) übertragen: Infrastructure-as-Code (IaC). Gegenwärtig gibt es keine IaC-Tools für CPS. Wir wissen nicht, wie IaC aussehen muss, um in einem CPS-Kontext zu funktionieren.
Relevanz der Themenstellung:
DevOps wird die vorherrschende Entwicklungsmethode für die meisten Softwareentwicklungsprojekte sein. Der Wettbewerbsvorteil, den es bietet, wird einen starken Einfluss auf den Erfolg von Unternehmen haben, die CPS entwickeln. Daher benötigt auch der Fertigungsbereich effiziente DevOps-Implementierungen und damit IaC. Während viele Initiativen zur Standardisierung der Hardware und Basissoftware in CPS genutzt werden können, spielt kundenspezifische Hardware und Software immer noch eine große Rolle. Auch müssen zusätzliche Anforderungen und Einschränkungen berücksichtigt werden. Eine Integration von allgemeinen DevOps-Prinzipien und -Werkzeugen mit standardisierten Schnittstellen und Komponenten sowie Informationen aus digitalen Zwillingen könnte IaC für industrietaugliches DevOps ermöglichen. Beispielsweise ermöglicht das flexible und vollständig automatisierte Deployment neuer Softwareversionen entweder in Simulations-, Test- oder Produktionshardware ein intensiveres und effizienteres Testen.
Wissenschaftliche Fragestellung:
Zentrale Aufgaben und Fragestellungen in diesem Projekt sind:
- Analyse bestehender CPS im Fertigungsbereich hinsichtlich ihrer Infrastruktur in Form von Hardware- und Softwarekomponenten sowie der Einsatzanforderungen
- Sammlung von bestehenden Standards für Schnittstellen, Komponenten und Bibliotheken
- Entwicklung eines IaC-Ansatzes für industrietaugliches DevOps, das bestehende Standards, kundenspezifische Hard- und Software, digitale Zwillingsinformationen und spezielle Qualitätsanforderungen einbezieht
- Auswahl eines bestehenden (Open-Source) IaC-Tools und dessen Erweiterung zur Unterstützung des neuen IaC-Ansatzes
- Integration, Verbesserung und Entwicklung von Testfallauswahl- und Testfallgenerierungstechniken, die den IaC-Ansatz nutzen können
- Empirische Evaluierung in kontrollierten Experimenten, Studentenprojekten und industriellen Fallstudien
Thesis Committee:
Prof. Wagner (ISTE, ESE)
Problemstellung:
Quantum computing is still in its infancy, but real applications start to appear. Yet, at present, building quantum-enabled software components is a niche for specialists. It has a particular steep learning curve even for engineers already familiar with classical computing and software engineering. The concepts are strongly different and there is no consensus yet how to best program quantum computers. Furthermore, it will be many years until quantum computers will be widespread in the hands of engineers. Instead, they are already available as part of cloud infrastructures. Using these Quantum-as-a-Service (QaaS) offers as well as building quantum software constitutes a huge challenge for engineers in the manufacturing domain. Integrated development environments, libraries for relevant algorithms and means to debug and test are missing.
Relevanz der Themenstellung:
Quantum computing promises huge improvements in computational problems related to manufacturing. IBM states that “Quantum computing is expected to help develop breakthrough products and services that will disrupt and redefine manufacturing.” They classify uses cases for manufacturing in the areas Discover, Design, Control and Supply. Examples include the simulation and optimization of production flows and robotics scheduling or machine learning using a high number of factors to increase yield. Hence, making this new computational paradigm accessible for engineers in manufacturing can enable new optimizations, simulation and decision-making support impossible on classical computers.
Wissenschaftliche Fragestellung:
Central tasks and questions related to this project are:
• Detailed analysis of computational problems and applications in manufacturing that fit to the quantum computing paradigm
• Systematic and grey literature review on integrated development environments, debugging and testing for quantum software
• Development of libraries of quantum algorithms for selected problems in manufacturing
• Improvement and integration of existing test and debugging approaches for quantum software into an existing development environment
• Empirical evaluation of the approaches, libraries and tools using controlled experiments with engineers and case studies with student projects and industrial partners
Thesis Committee:
Prof. Riedel (ISW)
Problemstellung:
Die Digitalen Zwillinge von Produkt und Produktion stehen vor der Herausforderung, dass sie nach Abschluss des Entwicklungsprozesses, nicht den realen Status der Produktion widerspiegeln. Dies bezieht sich auf kontinuierlich auftretende Ereignisse, wie Ungenauigkeiten im Produkt, Anlagenausfälle, schlechte Qualität oder fehlende Teile. Um eine resiliente Produktion zu erreichen, sollte eine ganzheitliche Methodik entwickelt werden, die einen Top-Down- mit einem Bottom-Up-Ansatz kombiniert, um Echtzeit-Produkt- und Produktionsparameter durch Basistechnologien wie 3D-Scanning und intelligente Sensoren zu erfassen und diese in den Digitalen Zwilling einzubetten. Dieser Erfassungs- und Einbettungsprozess führt zur Entwicklung so genannter "kognitiver Digitaler Zwillinge". Allerdings sind diese Digitalen Zwillinge oft auf historische Daten angewiesen, die erfahrungsgemäß aus Ungenauigkeiten bestehen können. Zusätzlich konzentriert sich das Promotionsprojekt auf die Ermöglichung von Resilienz in Digitalen Zwillingen durch die Entwicklung eines auf maschinellem Lernen basierenden Ansatzes für den Digitalen Zwilling. Dies ermöglicht es selbst zu lernen, wenn es eine Ungenauigkeit im Digitalen Zwilling gibt und führt zu einer Korrektur hin zu einem korrekten Zustand. Ein Motivationsszenario für die weitere Validierung in einer innovativen automatisierten Messzelle, in der modernste Robotiktechnologien, z.B. stationäre, kollaborative, mobile Systeme, integriert mit 3D-Laserscanning-Systeme, intelligente Sensoren, z.B. Temperatur, Druck, Geschwindigkeit in drei Achsen, den Kern der Demonstrationsaktivitäten darstellen. Neben dem Szenario der diskreten Fertigung in der Messzelle, stellt die Realisierung und Validierung des mehrschichtigen Kohlefaserdruckverfahrens den zweiten Demonstrator dar.
Relevanz der Themenstellung:
Um die kognitiven Digitalen Zwillinge in der betrieblichen Fertigungsumgebung zu implementieren, geht das Projekt in einem Bottom-up-Verfahren vor und adressiert das Thema in zwei kritischen Fertigungsbereichen: 1.) die Produktqualitätssicherung in der diskreten Fertigung, exemplarisch für die modulare Produktion in der Automobilindustrie und 2.) die Prozessqualitätssicherung in der kontinuierlichen Fertigung, exemplarisch für die Überwachung und Optimierung des mehrlagigen Kohlefaserdruckprozesses, für die Luft- und Raumfahrtindustrie. Beide Anwendungen stehen vor der Herausforderung, die Digitalen Modelle der physischen Fertigungseinheiten aus der Fabrikhalle, z.B. Teile, Komponenten, Anlagen, Werkzeuge, Vorrichtungen, menschliche Arbeitskräfte, zumindest nahezu in Echtzeit zum Leben zu erwecken. Die Validierung des entwickelten generischen Ansatzes und der Methodik für zwei spezifische Qualitätsbewertungsszenarien von Produkt und Prozess in ausgewählten Branchen wird für andere Produktionsdomänen und Branchen instanziiert. Auf die Entwicklung eines generischen Ansatzes für einen echtzeitfähigen Digitalen Zwilling in der Fertigung folgt die Entwicklung einer Roadmap für die Migration dieses generischen Ansatzes in andere Branchen und Anwendungsfälle, wie z.B. in der Werkzeugmaschinen-/Ausrüstungsindustrie und in Prozessen, wie bspw. der Logistik, Bearbeitung, etc.
Wissenschaftliche Fragestellung:
Um den kognitiven Digitalen Zwilling zur Realisierung einer resilienten Produktion/Fabrik zu konzipieren, zu entwickeln und zu validieren, wurden die folgenden wissenschaftlichen und technischen Ziele festgelegt:
Ziel #1: Konzeption und Entwicklung der Referenzmodelle für die Resiliente Produktion. In der Produkt-, Prozess- und Fabrikplanung existieren Referenzmodelle für den Produkt-, Prozess- und Produktionslebenszyklus, in denen Resilienz-Aspekte bisher nur unzureichend berücksichtigt werden. Das Ziel von Ziel #1 ist es, herauszufinden, wie die bestehenden Referenzmodelle um Resilienzindikatoren erweitert werden können und wie die erweiterten Referenzmodelle dann für die angesprochenen Anwendungsfälle zur Verfügung stehen. Damit wird es möglich, die Produktion ganzheitlich unter dem Gesichtspunkt der Resilienz-Merkmale zu bewerten und zu optimieren. Zusätzlich werden spezifische KPIs zur Messung der Performance der Prozessoptimierung und der Resilienz-Leistung entwickelt.
Ziel #2: Methodik für die Umsetzung des Referenzmodells in einem kognitiven Digitalen Zwilling und einer virtuellen Engineering-Umgebung. Das Referenzmodell bildet die Grundlage für die Weiterentwicklung und Implementierung einer neu gestalteten Engineering-Umgebung auf Basis modernster digitaler Fertigungstechnologien, z.B. von Siemens, Dassault Systems. Diese neue Engineering-Umgebung muss sich durch folgende Eigenschaften auszeichnen: offen, erweiterbar, servicebasiert und sicherheitsorientiert. Die Digitalen Zwillinge aller Fabrikobjekte werden um den erfassten Kontext aus dem Echtzeit-Shopfloor erweitert; unterstützt durch 3D-Scanning, drahtlose intelligente Sensorik und digitale Fertigungstechnologien. Der erreichte kognitive Status der Digitalen Zwillinge ermöglicht die Realisierung von Resilienz als Gleichgewicht zwischen Robustheit und Flexibilität.
Ziel #3: Entwurf und Entwicklung eines auf kognitiven Digitalen Zwillinge ausgerichteten Lernassistenzsystems für eine resiliente Produktion. Ziel ist es, ein lernendes und kontextbezogenes Assistenzsystem als Haupt-Enabler für die Erreichung einer resilienten Produktion zu entwickeln. Der Prozessablauf dieses neuen Systems beginnt mit der Erstellung des Digitalen Zwillings aller Fabrikobjekte; Erfassung von Echtzeitdaten aus der Fertigung, Hinzufügung von Kognition zum Digitalen Zwilling, basierend auf der in Ziel #2 entwickelten Methodik; Analyse der aktuellen Daten mit historischen Daten, basierend auf KI und Deep-Learning-Algorithmen; Ausarbeitung und Dokumentation von Maßnahmen für resiliente Prozesse und zur Unterstützung der Entscheidungsfindung.
Ziel #4: Entwicklung eines Ansatzes zum Selbstlernen, wenn es eine Abweichung von der genauen Asset-/Prozessdarstellung im Digitalen Zwilling gibt. Erreicht wird dies durch die Entwicklung eines probabilistischen, risikobasierten Ansatzes, um zu erkennen, woher die Abweichung in der Genauigkeit stammt und um automatisch seine Daten- und Modellquellen zu verstehen. Zusätzlich soll ein auf maschinellem Lernen basierender Ansatz zur Selbstanpassung des Digitalen Zwillings entwickelt werden, um seine Genauigkeit der Repräsentativität zu erhöhen, sowie ein Simulations-Toolkit mit maschinellen Lernfunktionen zur Optimierung der Genauigkeit des Digitalen Zwillings.
Ziel #5: Validierung, inkrementelle Verbesserung und Roadmaps für die Migration des generischen Ansatzes und der Methodik für andere Fertigungsprozesse und Branchen. Die Erreichung der Produktionsresilienz und der Resilienz des Digitalen Zwillings sowie die Prozessoptimierung in den beiden entwickelten Anwendungsfällen wird auf Basis der identifizierten KPIs in Ziel #1 durchgeführt. Es wird ein wissenschaftlich fundierter Validierungsprüfstand erarbeitet. Zusätzlich wird der Einsatz des Konzepts der kognitiven Digitalen Zwillings auch in anderen Fertigungsprozessen und Branchen entwickelt.
Thesis Committee:
Prof. Riedel (ISW)
Problemstellung:
Für die 3D Erfassung und Rekonstruktion von Bestandsgebäuden existieren bereits verschiedene Techniken, wie beispielsweise das Laserscanning-, die photogrammetrische Strucutre from Motion Methode oder das Structured Light Verfahren. Für alle erwähnten Techniken bedarf es jedoch vor jeder Erfassung vorherige Planungsschritte und die Erfassung selbst muss stets manuell durch menschliche Ressourcen durchgeführt werden. Auch nach der Erfassung sind noch immer viele manuelle Schritte in verschiedenen Softwareanwendungen notwendig um vom 3D Scan zum BIM Modell zu gelangen. Aus diesem Grund sind Scan-to-BIM Ansätze zum jetzigen Zeitpunkt noch immer mit vergleichsweise hohen Kosten verbunden. Laserscanning als die derzeitig hauptsächlich verwendete Technik für aktuelle Scan-to-BIM Ansätze, trägt mit weitaus höheren Anschaffungskosten im Vergleich zu anderen Erfassungsmethoden noch maßgeblich zu den bereits schon hohen Gesamtkosten bei. Weitere Nachteile ergeben sich bei der Verwendung von Laserscanning bei der Erfassung von kleinteiligen Objekten, da diese durch mehrere Scanpositionen erfasst werden müssen, was verglichen mit anderen Erfassungsmethoden zu einem weitaus höheren Zeitaufwand und somit höheren Kosten führt.
Relevanz der Themenstellung:
Durch den sich stetig weiterentwickelnden technischen Fortschritt von Hard- und Software, ergeben sich für den Bereich des 3D-Scannings ständig neue Anwendungsgebiete. Die immer erschwinglicher werdenden Technologien führen dazu, dass immer mehr Digitalisierung stattfindet. Beispielsweise lassen sich im Industriebereich bestehende Fabrikanlagen mit Laserscanning detailgetreu dreidimensional erfassen. Doch auch der technische Fortschritt im Bereich der Digitalkameras führt dazu, dass immer besser werdende Sensorik und Technik in den Geräten vorzufinden ist, weshalb auch die 3D Scanerfassung mit der Structure from Motion Methode zu sehr guten Ergebnissen führt. Die Anwendungsfälle der erfassten 3D-Daten können letztlich sehr vielfälltig sein. Die hohe Nachfrage nach digitalen Modellen von verschiedensten Objekten bis hin zu gesamten Bestandsgebäuden weckt den Bedarf nach automatisierten Erfassungmethoden, um Zeit und Kosten einsparen zu können.
Wissenschaftliche Fragestellung:
Ziel des Forschungsprojektes ist es ein autonomes Fahrzeug zu entwickeln, welches weitestgehend automatisiert 3D Scans durchführt, welche anschließend ebenfalls möglichst automatisiert in BIM Modelle überführt werden sollen. Ein stets aktuell gehaltenes digitalles Modell stellt hierbei einen wesentlichen Bestandteil für die sinnvolle Nutzung während der Betriebsphase eines Bestandsgebäudes dar. Auf dieser Grundlage soll das zu entwickelnde System sich auf kamerabasierte 3D Scans stützen, da sich daraus mit geringen Anschaffungskosten, guter Verfügbarkeit und einer teilweise zeitlich effizienteren Erfassung für die Aktualisierung von Bestandsgebäuden im Vergleich zu Laserscans, Vorteile ergeben. Vor dem eigentlichen Scanerfassungsprozess soll zur Erstellung eines Raumplans dieser zunächst abgefahren werden. Abhängig vom Raumplan werden 360° Panoramen erfasst, welche mithilfe von Bilderkennungsalgorithmen aus dem maschinellen Lernen, dabei helfen sollen Navigationsrouten, Kameraparameter und Bildanzahl für spezifische Raumbereiche festzulegen. Mithilfe des zu entwickelten Fahrzeuges und der Programm Automatisierungen soll untersucht werden, inwieweit sich der Scan-to-BIM Prozess automatisieren lässt. Der Ablauf lässt sich grob in die folgenden Schritte einteilen:
Aufnahme, Punktwolkenerzeugung, Klassifizierung und Ableitung in ein BIM Modell
Thesis Committee:
Prof. Riedel (ISW)
Problemstellung:
In einer betrieblichen Fertigungsumgebung werden kontinuierlich große Mengen heterogener Daten aus Produktions- und Montageprozessen gesammelt, die auf allen Ebenen der Fertigung anfallen, angefangen beim Prozess, den Arbeitsstationen, den Linien, dem Bereich und dem Standort der Produktion bis hin zum Produktionsnetzwerk. Um Flexibilität, Modularität und Anpassungsfähigkeit zu erreichen, ist die Implementierung von Digital Twins in der Produktion erforderlich. In der aktuellen Ära von Industrie 4.0 und auf dem Weg zur Industrie 5.0 ermöglicht ein Digitaler Zwilling, der in der Lage ist, von einem ständigen Zustrom von Echtzeitdaten zu profitieren, die Reaktionsfähigkeit der Produktion auf dynamische Veränderungen. Die Implementierung eines Digitalen Zwillings in Echtzeit erfordert einen vollautomatischen Datenerfassungsprozess auf der Basis eines homogenen und robusten Datenbankmanagementsystems. Die größte Herausforderung stellt eine wissenschaftlich definierte, vollautomatische Methode dar, um alle Daten aus heterogenen Datenquellen zu identifizieren, zu sammeln, zu verarbeiten und in einer sicheren und zuverlässigen Umgebung zu verwalten. Darüber hinaus muss das entsprechende Datenerfassungssystem eine gewisse Flexibilität aufweisen, um sich an neue Parameter anzupassen und den Prozess zu verbessern. Insbesondere ganzheitliche Lösungen für die Datenerfassung bzw. flüchtige Daten und Stammdaten sind gefragt. Die Reduzierung der Verzögerung zwischen dem Zeitpunkt der Datenerfassung und der Aktualisierung des Digitalen Zwillings stellt eines der wichtigsten Teilziele dar.
Relevanz der Themenstellung:
Zur Entwicklung einer effektiven und genauen Methodik, die die Implementierung eines automatisierten Datenerfassungsprozesses für Digital Twins in einer realen Fertigungsumgebung beschreibt, werden in diesem Projekt zwei ähnliche, aber unterschiedliche 3D-Scanverfahren zusammen mit der Verwendung von drahtlosen Sensortechnologien eingesetzt. Erstens ein Top-Down-3D-Laserscan mit feststehenden, an der Wand montierten Laserscannern rund um die Werkshalle und die Arbeitszellen, um allgemeine Daten über das Layout und die Position der Werkselemente zu gewinnen. Zweitens ein flexibler 3D-Laserscan von unten nach oben mit mobilen Robotern und hochpräzisen, an Roboterarmen montierten Laserscannern, um präzise Punktwolkendaten zu erfassen, die die Geometrie und Position wichtiger Fertigungs- oder Prozesselemente beschreiben. Darüber hinaus wird der Datensatz durch alle drahtlosen Sensorsysteme (z.B. Stromverbrauch, Motornutzlasten, Gelenkwinkel, Momentantemperaturen) verbessert, um ein vollständiges Basismodell für Echtzeit-Digital Twins zu generieren. Schließlich wird das Projektthema in zwei kritischen Fertigungsbereichen behandelt: 1) die Produktqualitätssicherung in der diskreten Fertigung, exemplarisch für die modulare Produktion in der Automobilindustrie und 2) die Prozessqualitätssicherung in der kontinuierlichen Fertigung, exemplarisch für die Überwachung und Optimierung des mehrschichtigen Kohlefaserdruckprozesses, für die Luft- und Raumfahrtindustrie.
Wissenschaftliche Fragestellung:
Das Ziel dieses Projekts ist es, eine robuste und klare Methodik für die Implementierung eines vollautomatischen Datenerfassungsprozesses zu entwickeln, der in der Lage ist, in einer hybriden und heterogenen Umgebung mit Top-Down-, Bottom-Up- und drahtlosen sensorischen datenerzeugenden Technologien Output zu liefern und Input zu und von einem Digitalen Zwilling zu empfangen. Für die Entwicklung und Validierung der Methodik ist eine Reihe von wissenschaftlichen und technischen Zielen geplant, wie folgt:
a) Identifikation des Digitalen Zwillings (Produkt, Prozess, Anlage, Fabrik, z.B. Prozess, Produktionssystem, Produktionsbereich, Linie, Produktionsstandort und schließlich Fabriknetzwerk) kritischer Parameter (z.B. Art, Quelle, Format, Bedeutung), die kontinuierlich in Echtzeit überwacht werden sollen. Das Hauptkonzept hinter der Struktur des Digitalen Zwillings wird durch eine hierarchische Organisation dargestellt, die die wesentlichen Daten mit höherer Priorität bereitstellt und den Digitalen Zwilling in Echtzeit speist. Sie wird es ermöglichen, dass die Simulation der Prozess- und Materialflussbewegungen und -aktivitäten kontinuierlich und ohne externe Eingriffe ablaufen kann. Der zentrale Teil der Datenausgabe wird einen allgemeinen Überblick über den Shopfloor in Echtzeit liefern, während die gesammelten Daten von den Sensoren zweiten Grades und allen anderen IoT-Geräten die diskreten Ereignisse für umfassende Simulationen liefern.
b) Identifizierung der geeigneten Technologie zur Erfassung von Echtzeitdaten (z. B. 3D-Laserscanning, Sicherheitskameraüberwachung, mobile und stationäre lokale Robotersensoren) entsprechend den spezifischen Prozessen (Montage, Produktion oder Logistik). Der Kernvorteil des Ansatzes und der Implementierung des Digitalen Zwillings stellt die Vielseitigkeit und die Fähigkeit dar, jeden der existierenden industriellen Prozesse virtuell zu simulieren; die einzige Einschränkung sind die Ressourcen zur Datenerfassung und die Lieferzeit für die Simulation. Diese Technologien müssen für die Art des zu analysierenden Prozesses, das rechtliche Umfeld für den Datenschutz und die externen Faktoren, die die Sensoren beeinflussen könnten, geeignet sein.
c) Erfassung der In-situ-Prozessparameter als Hauptgrundlage für die Anwendung von Deep-Learning-Algorithmen, gefolgt von einer automatischen Aktualisierung des Digitalen Zwillings. Dies kann durch den Einsatz modernster Modellierungs- und Simulationstechnologien und -systeme erreicht werden, z. B. durch das Siemens-Systemportfolio. Die von den Sensoren gelieferten Daten sind der erste Input in der Datenbank, wo das Programm die Filterpriorität, das Protokoll der Nutzung und die Methode der Implementierung im Digitalen Zwilling festlegt. Die Deep-Learning-Algorithmen verarbeiten den resultierenden Digitalen Zwilling, die Eingabedaten des Sensors und mögliche Korrekturen des Bedieners, wenn der Mensch in der Schleife bleibt, verfeinern die Ergebnisse und sorgen für eine kontinuierliche und inkrementelle Verbesserung.
d) Validierung der Methodik in mindestens zwei Anwendungsfällen, z. B. Qualitätsprüfung und 3D-Kohlefaserdruck. Nachdem das System auf virtueller und empirischer Ebene durch Experimente in einem Labor verifiziert wurde, wird ein Prozess der Integration im realen Leben realisiert. Dieser Schritt dient vor allem der Validierung des Systems und der Optimierung des Datenanalysealgorithmus, der Integration des Digitalen Zwillings und der Verbesserung.
e) Inkrementelle Verbesserung der Methodik und Veröffentlichung in der wissenschaftlichen Gemeinschaft. Als letzter Schritt der Forschung wird die Methode als Werkzeug in eine industrielle Umgebung integriert, für eine Vielzahl von Digitalen Zwillingen getestet und die resultierenden Daten, eine Referenz für das Verfeinerungsverfahren.
Thesis Committee:
Prof. Riedel (ISW), Prof. Herzwurm (BWI - Abt. VIII)
Problemstellung:
KI-Methoden sind auf vielen Prozessen in der Produktion oft nur bedingt anwendbar, da der Datensatz, der
auf einer einzelnen Anlage in akzeptabler Zeit aufgezeichnet werden kann, zum Trainieren der Modelle nicht
ausreichend groß ist. Eine Lösung, insbesondere für KMUs, wäre das Teilen der Trainingsdaten oder fertig
trainierten Modelle, mit Besitzern einer Schwesteranlage oder anderen Anwendern, die einen ähnlichen
Fertigungsprozess zu bewältigen haben. Wie sich in Voruntersuchungen jedoch gezeigt hat, fehlt einem
solchen Ansatz, insbesondere bei deutschen KMUs in der fertigenden Industrie, an Akzeptanz, da in der
Datenhoheit ein Wettbewerbsvorteil gehesen wird, der nicht unkontrolliert auf dem Markt verfügbar sein soll.
Die Förderung einer solchen Datenexternalisierung ist jedoch zweckdienlich, um die Effektivität der KILösungen
zu erhöhen und somit ihren Mehrwert zu steigern.
Relevanz der Themenstellung:
Die Relevanz und Anwendbarkeit von KI-Methoden in der Produktion kann anhand verschiedener Beispiele
aufgezeigt werden. Das wohl bekannteste ist die Vorgersage von Wartungsintervallen, besser bekannt unter
dem englichen Begriff "Predictive Maintanance". Darüber hinaus finden sich im Rahmen der Objekterkennung
einige Anwendungen der Qualitätskontrolle und Feinregelung von Prozessen. Darüber hinaus sind weitere
Anwendungen zur Prozessveresserung oder automatisierten Optimierung wie Generierung von
Programmcode im Fokus laufender Forschungsprojekte. Ein Ansatz der dazu führt, dass KMUs eine
Trainingsbasis für KI-Modelle zur Verfügung steht, kann somit als Katalysator für die Forschungs auf dem
gesamten Feld angesehen werden. Der aktuelle Stand der Forschung liefert bisher keine weitreichenden
Erkenntnisse darüber wie KMUs zum Einsatz von KI-Methoden gefördert werden können. Dies deutet auf die
Existenz einer Forschungslücke an der Schnittstelle zwischen Produktion und Wirtschaftsinformatik.
Wissenschaftliche Fragestellung:
Im Rahmen des Forschungsprojekts sollen in einem ersten Schritt, basierend auf [1], verschiedene
Architekturmodelle abgeleitet werden, die es erlaubten Trainingsdaten die auf industriellen Steuerungen
anfallen und aus diesen Daten trainierte KI-Modelle mit Dritten zu teilen. Hierbei sollen sowohl
Plattformarchitekturen als auch Peer-to-Peer-Architekturen zur datenbasierten Kollaboration [2] untersucht
und insbesondere anhand der Kriterien der Datenhoheit evaluiert werden. In einem zweiten Schritt soll
basierend auf den Architekturmodellen anhand mehrerer Anwendungsfälle (wie z.B. dem
Lichtbogenschweißen) eine Akzeptanzstudie unter potenziellen Industrieanwendern durchgeführt werden. In
das vielversprechendste Architekturmodell sind die Erketnisse der Aktzeptanzstudie zurückzuführen. Für eine
Dissertation über Fakultät 7 soll die Architektur prototypisch umgesetzt und deren Integation in die
Prozessanwendung aufgezeigt werden. Gleichzeitig stellt die prototypische Umsetzung eine Proof-of-Concept-
Validierung dar und lässt sich ebenfalls der gestaltungsorientierten Wirtschaftsinformatik zuordnen. Für eine
Dissertation über Fakultät 10 soll ein Verwertungsmodell für die sich ergebenden KI-basierte Ökosysteme
ausgearbeitet und empirisch bewertet. Dieser Schritt stellt eine Proof-of-Value-Validierung dar.
[1] Schmidt, Alexander, Florian Schellroth, and Oliver Riedel. "Control architecture for embedding
reinforcement learning frameworks on industrial control hardware." Proceedings of the 3rd International
Conference on Applications of Intelligent Systems. 2020.
[2] Schüler F. und Petrik D. "Objectives of Platform Research: A Co-citation and Systematic Literature Review
Analysis." In: Management Digitaler Plattformen. ZfbF-Sonderheft, 75/20, S. 1 - 33
Thesis Committee:
Prof. Mehring (IMVT)
Problemstellung:
Bremsfeinstaub bildet neben der aus Verbrennungsvorgängen hervorgehenden partikulären Phase den größten Anteil an gesundheitsschädlichen, lungengängigen, aus dem Verkehrsaufkommen hervorgehenden Feinstpartikeln (PM2.5 und kleiner). Größenverteilung und Materialzusammensetzung der Partikel hängen von den Randbedingungen des betrachteten Bremsprozesses und der dabei eingesetzten Materialien ab. Sie sind zudem bedingt durch thermische Einflüsse und Partikel-Partikel Wechselwirkungen in der Gasphase nach Freisetzung durch den Bremsprozess. Die Effektivität eines zur Abscheidung des entstehenden Bremsstaubs eingesetzten Abscheidesystems ist von physikalischen Einflüssen geprägt, die sich über mehrere Größenskalen erstrecken: Makroskopische Strömungsführung am Bremssystem und Strömung der staubbeladenen Luft im Abscheidesystem, Temperaturverhältnisse im Gesamtsystem, Größe und Form der Staubpartikel, Oberflächenbeschaffenheit der Staubpartikel und der Komponenten des Abscheidesystems, insbesondere auch die Makro- und Mikrostruktur eingesetzter Filtermedien.
Die Problemstellung der Arbeit befasst sich mit der Erfassung der relevanten physikalischen Prozesse, die für die Partikelbildung, Partikeldynamik und Partikelabscheidung im Brems- und Abscheidesystem eines Personenkraftwagens relevant sind. Hierbei geht es zunächst um die virtuelle Entwicklung eines geeigneten Prüfstandes, anhand dessen die entsprechenden physikalische Modelle entwickelt, validiert und in ein Gesamtsimulationsmodell umgesetzt werden. Letzteres soll es erlauben, effiziente Bremsstaubabscheidesysteme für zukünftige Kraftfahrzeuge gezielt zu entwickeln.
Relevanz der Themenstellung:
Feinstaub in der Atemluft stellt neben gasförmigen Schadstoffen ein erhebliches Gesundheitsrisiko dar. Dies gilt insbesondere in innerstädtischen Wohnbezirken aufgrund des dort vorzufindenden erheblichen Verkehrsaufkommens. Entwicklungen zur Reduzierung schädlicher Staubpartikel und insbesondere Feinstaub (PM10 und PM2.5) konzentrierten sich in der Vergangenheit vorwiegend auf die Verbesserung von Verbrennungsmotoren und deren Abgasreinigungsanlagen. Fortschritte in diesem Bereich führten dazu, dass sich heute ein bedeutender Anteil der in der Atemluft befindlichen Kleinstpartikel aus Bremsabrieb, Reifenabrieb und sich von der Fahrbahnoberfläche ablösenden Partikeln ergibt. In Bezug auf die Umweltbelastung durch Bremsabrieb sind insbesondere diejenigen Bereiche von Bedeutung, wo Bremsstaub erzeugt wird, und die sich durch eine hohe Populationsdichte auszeichnen, d.h., an Fußgängerampeln im Straßenverkehr, an Bahnsteigen in Bahnhöfen und den Haltestellen von Straßenbahnen und U-Bahnen.
Trotz des zunehmenden Ausbaus der E-Mobilität und regenerativen Bremssystemen in Elektrofahrzeugen auf Straße und Schiene wird Feinstaub aus Bremsabrieb auch mittelfristig eine Belastung für Mensch und Umwelt darstellen.
Vor diesem Hintergrund verfolgt die vorgegebene Themenstellung: a) die Entwicklung eines repräsentativen virtuellen Prüfstandes, welcher die aerodynamischen und thermischen Bedingungen im Bremsraumbereich eines Pkws genau abbildet (dieser Prüfstand wird vom Industriepartner gebaut und in Betrieb genommen) und b) die Entwicklung geeigneter physikalischer Modelle zur Beschreibung der Bremsstaubbildung, dessen Dynamik im Strömungsfeld und dessen Abscheidung. In Bezug auf b) ist eine sukzessive Vorgehensweise geplant, wobei zunächst von vereinfachten, semi-empirischen Modellbildungen aus, auf komplexere (mehrskalige, multiphysikalische) Modelle zugearbeitet wird. Ziel ist es, ein Gesamtsimulationsmodell bereitzustellen, um in Zukunft effektive, ökologisch und ökonomisch nachhaltige Bremsstaubabscheidesysteme für Anwendungen im Automobilbereich entwickeln zu können.
Wissenschaftliche Fragestellung:
Die wissenschaftliche Fragestellung befasst sich mit der virtuellen Entwicklung eines geeigneten Prüfstandes für Bremsstaubabscheidesysteme im Pkw-Bereich und der physikalischen Modellierung der Bremsstauberzeugung und Bremsstaubabscheidung . Von besonderem Interesse ist hierbei die Abbildung des Einflusses von auftretenden Temperaturprofilen auf die erzeugten Bremsstaubpartikel und die Partikelverteilung , sowie der Einfluss der Luftführung am Bremssystem und im Abscheidesystem auf Partikelbeladung und Partikelabscheidung.
Thesis Committee:
Prof. Graf (IFSW)
Problemstellung:
Für die Vereinzelung von Halbleiter-Materialien wie Silizium gibt es bereits etablierte Produktionsprozesse wie das mechanische Sägen oder laserbasierte Verfahren wie Scribe&Break, "full cut" ablativ oder Stealth Dicing. Bei besonders dünnen (<100µm) Wafern, komplexen Multilayer-Wafersystemen sowie bei neuartigen Materialien wie Siliziumkarbid stoßen diese Prozesse jedoch zunehmend an ihre Grenzen, indem ungewollte Materialschädigungen wie Risse oder Chipping entstehen.
Ziel dieser Arbeit ist ein voll ablativ basiertes Trennverfahren zu entwickeln, das für diese neuartigen Materialsysteme tauglich ist, d.h. eine besonders materialschonende und effiziente Bearbeitung insbesondere unter Ausnutzung von höheren mittleren Leistungen bis in den kW-Bereich ermöglicht. Durch eine maßgeschneiderte räumliche und zeitliche Energieeinbringung sollen Materialschädigungen reduziert und der Yield maximiert werden.
Relevanz der Themenstellung:
Die laserbasierende Materialbearbeitung dekt alle 6 Hauptgruppen der nach DIN 8580 definierten Fertigungsverfahren ab und gehört somit zum Kerngebiet der Graduate School for Advanced Manufacturing Engineering. Neben einer Steigerung der Effizienz und meist überlegener Bearbeitungsqualität sowie einer sehr hohen Flexibilität erschließt die laserbasierte Fertigung zudem oft konventionell nicht durchführbare Fertigungsprozesse und einsetzbare Werkstoffe.
Wissenschaftliche Fragestellung:
Es sind die drei folgenden, wesentlichen wissenschaftlichen Fragestellungen zu beantworten:
Welche Schädigungsmechanismen ergeben sich beim Wafer Dicing mittels gepulster Laserstarhlung in Abhängigkeit der Bearbeitungswellenlänge sowie bei zeitlichen und räumlichen Variation der Energieeinbringung und der Wechselwirkung beider Effekte?
Welches Modell eignet sich zur Beschreibung des Wafer Dicing Prozesses unter mehrstufigen Bearbeitungsabläufen, in Abhängigkeit von der Waferdicke und -beschaffenheit sowie komplexen Pulsparametern?
Wie können Leistungssteigerungen der ultrakurz gepulsten Laser (kW-Bereich) in Produktivitätssteigerungen beim Wafer Dicing umgesetzt werden?
Thesis Committee:
Prof. Möhring (IFW)
Problemstellung:
Die spanenden Fertigungsverfahren werden als wichtigste Untergruppe der Hauptgruppe Trennen (DIN 8580) häufig mit dem Gießen aus der Hauptgruppe Urformen und dem Schmieden aus der Hauptgruppe Umformen hinsichtlich ihrer möglichen Produktivität und der erreichbaren Bearbeitungs- bzw. Fertigungsgenauigkeit verglichen. Dies steht im Widerspruch zu der Tatsache, dass die Produktivität von spanenden Verfahren diesen beiden Gruppen aufgrund des zugrundeliegenden Abbildungsprozesses meist unterlegen sind. Beim Spanen muss die gewünschte Form mit dem Werkzeug abgefahren werden, was zwar weniger produktiv, dafür jedoch deutlich flexibler ist. Die Vorteile spanender Fertigungsverfahren liegen in der nahezu unbegrenzten Vielfalt der herstellbaren Konturen und auch die realisierbaren Fertigungsgenauigkeiten sind meist gegenüber den Verfahren Urformen und Umformen (viel) höher.
Relevanz der Themenstellung:
Die Zerspanbarkeit ist die Eigenschaft eines Werkstoffes sich durch Zerspanen mit Hilfe eines Werkzeugs und durch Relativbewegungen zwischen diesem Werkzeug und dem Werkstoff bearbeiten bzw. trennen zu lassen. Durch die spanende Bearbeitung, wie beispielsweise Drehen, Fräsen und Bohren als Vertreter der Zerspanverfahren mit geometrisch bestimmter Schneide oder dem Schleifen, Honen und Läppen als Beispiele von Verfahren mit geometrisch unbestimmter Schneide, werden Werkstücke in ihrer Form bzw. Kontur geändert. Gut zerspanbare Werkstoffe zeigen glatte Oberflächen nach der Zerspanung, ergeben Späne, die den Fertigungsablauf nicht behindern, die Zerspankräfte sind gering und die Standzeit der Werkzeuge ist hoch. In vielen Fällen können einige der genannten Eigenschaften, aber nicht alle gleich gut umgesetzt werden. Daher sind Kompromisse in Abhängigkeit der jeweils vorliegenden Anforderungen zu finden. Die Zerspanbarkeit eines Werkstoffs hängt also von vielen Parametern ab: Festigkeit und Zähigkeit, aber auch von anderen physikalischen Faktoren wie z.B. die Wärmeleitfähigkeit des Materials. Darüber hinaus sind die Materialherstellungs- sowie Vor- und Nachbearbeitungstechnologien in Bezug auf ihren Einfluss auf die Zerspanung und insbesondere auf die spätere Anwendung eines Bauteils zu berücksichtigen. Als fertigungstechnisches Verfahren liegt somit die Zerspanung im thematischen Fokus der GSaME und erfüllt mit dem hierzu notwendigen interdisziplinären Forschungsbedarf auch deren wissenschaftlichen Anspruch.
Wissenschaftliche Fragestellung:
Die quantitative Beurteilung bzw. Vorhersage der Zerspanbarkeit ist schwierig, da sie nicht nur vom Werkstoff, sondern auch von den Prozess- bzw. Zerspanbedingungen wie den Spanungsgrößen, Eingriffsgrößen wie Schnitttiefe und -breite, Schnittgeschwindigkeit, dem Schneidstoff (Werkzeug-Werkstoff), dem gewählten Kühlschmierprinzip (trocken, Überflutungskühlschmierung, Minimalmengenschmierung) und den vorliegenden Schnittbedingungen abhängen.
Aufgrund dieser komplexen Zusammenhänge wird es heute immer wichtiger, die o.g. Parameter von Werkzeug, Werkstück, Werkzeugmaschine und Prozess in geeigneten Geometriemodellen, Materialmodellen, Bruchmodellen, Reibungsmodellen sowie Prozess-/Kinematikmodellen abzubilden, um damit auch ihr Zusammenwirken mit einer ausreichend hohen Berechnungsgenauigkeit, unter Beachtung einer akzeptablen und sinnvollen Berechnungsdauer, simulativ abbilden und vorherbestimmen zu können.
Die Aufgaben des hier betreffenden Projekts sind daher die Entwicklung und Ausarbeitung geeigneter Teilmodelle an ausgewählten Zerspanprozessen, mit dem Ziel der Zusammenführung der Teilmodelle zu einem sog. gekoppelten Modell, das einerseits in einer guten Näherung dem zugrundeliegenden realen Zerspanprozess entspricht und andererseits eine Verallgemeinerung auf andere Zerspanprozesse ermöglicht. Auch sind unterschiedliche Modellansätze vergleichend im Hinblick auf Aufwand und Berechnungsgenauigkeit zu untersuchen und zu bewerten. Die theoretischen Forschungsansätze sind durch experimentelle Untersuchungen zu validieren und anhand von Beispielen in industrielle Anwendungen umzusetzen.
Thesis Committee:
Prof. Verl (ISW), Prof. Graf (IFSW)
Problemstellung:
Laserbasierte Verfahren bieten große Potentiale im Hinblick auf eine vollständig flexible, universelle und selbstkonfigurierende Produktion komplexer Bauteile (Software-Defined Manufacturing). Hierfür werden entsprechende Fertigungssysteme benötigt, die sich selbstständig auf neue Fertigungsverfahren einstellen und universell verwendbar sind. Ein wichtiger Baustein ist hierbei eine universelle Prozessregelung, die Material- und Prozessparameter unabhängig funktioniert. Im aktuellen Stand der Technik werden Regelungsparameter zum Beispiel für eine Einschweißtiefenregelung oder Höhenregelung beim Drahtauftragschweißen mit einem Messsignal auf jede Schweißaufgabe, vor allem Material aber auch Prozessparameter abhängig manuell optimiert. Dadurch führt eine Änderung wie zum Beispiel ein Materialwechsel aber auch eine Änderung der Schweißaufgabe zu langwierigen Einstellarbeiten am Fertigungssystem mit einem hohen Aufwand.
Relevanz der Themenstellung:
Laserbearbeitungsverfahren haben ein unbestrittenes Potential das Werkzeug für eine individualisierte und funktionsoptimierte Produktgestaltung in Verbindung mit einer ressourceneffizienten Fertigung für die zukünftige industrielle Produktion zu sein. Das Laserstrahlschweißen metallischer Werkstoffe ist ein unverzichtbares Fertigungsverfahren für viele Anwendungen in der Zukunft der Mobilität wie zum Beispiel in der Fertigung von Batteriezellen, Fügeaufgaben in der Herstellung von Elektromotoren aber auch in der Bauteilerstellung durch Verfahren der additiven Fertigung wie dem Laserpulverbettverfahren. In all diesen Bereichen ist die Beherrschung des Schweißprozesses die Grundvoraussetzung für eine effiziente und hochqualitative Produktion. Als produktionstechnisches Verfahren ist die Laserbearbeitung im thematischen Kern der GSaME angesiedelt und das Thema entspricht mit dem interdisziplinären Forschungsbedarf deren wissenschaftlichen Anspruch.
Wissenschaftliche Fragestellung:
Wie kann unter Verwendung von selbstlernenden Algorithmen ein universelles Regelungssystem
d.h. mindestens Material und Prozessparameter aber auch vielleicht verfahrensunabhängige Methode zur Prozessregelung entwickelt werden? Dafür soll auf Basis etablierter Messverfahren beginnend mit einfachen Regelaufgaben wie der Einschweißtiefenregelung beim Laserstrahlschweißen oder der Höhenregelung beim Laserdrahtauftragschweißen ein Regelsystem entwickelt werden, dass sich selbstständig auf die Änderungen der Messsignale und Prozessdynamik bei unterschiedlichen Materialien und Prozessparametern einstellt. Dazu ist es notwendig die Unterschiede in der Signalerfassung und die Änderung der Prozessdynamik experimentell zu bestimmen und beim Entwurf des Regelungssystems zu berücksichtigen. Dazu stehen moderne Bildgebungsverfahren in der Prozessanalytik wie zum Beispiel die am IFSW verfügbare Röntgendiagnostik, modernste High-Speed Videoverfahren mit bis zu 100.000 Bildern pro Sekunde mit hoher räumlicher Auflösung aber auch Experimente an Großforschungsanalagen wie dem Deutschen Elektronen Synchrotron (DESY) zur Verfügung.
Thesis Committee:
Prof. Graf (IFSW)
Problemstellung:
Das Erzeugen von Mikrobohrungen mit ultrakurzen Laserpulsen ist ein sehr vielversprechender, aber auch hochkomplexer Prozess, bei dem eine Vielzahl von Mechanismen bei hohen Temperaturen und Drücken auf sehr kleinen zeitlichen und räumlichen Skalen zusammenwirken. Präzise Mikrobohrungen können mit dem Laser daher nur durch eine dynamische Anpassung von Prozessparametern während des Bohrprozesses gefertigt werden.
Derzeit fehlt es an qualifizierter Sensorik, um die Form und Qualität der Mikrobohrung während des Bohrprozesses mit genügender Orts- und Zeitauflösung zu charakterisieren. Der Einsatz qualifizierter In-Prozess-Diagnostik soll es ermöglichen, die Ausbildung der Geoemtrie während des Bohrprozesses zu bestimmen, um den Bohrprozess regeln zu können und so Formgenauigkeit, Qualität und Reproduzierbarkeit von Lasermikrobohrungen zu steigern.
Relevanz der Themenstellung:
Qualität und Formgenauigkeit von Mikrobohrungen sind relevante Kriterien für viele High-Tech-Anwendungen. Mit der Verfügbarkeit hoher Pulsenergien > 2 mJ wächst der Anwendungbereich von Lasermikrobohrungen stetig, gleichzeitig nehmen die Herausforderungen durch die Verwendung hoher Pulsenergien und die steigenden Aspektverhältnisse der Mikrobohrungen zu. Um die hohen Anforderungen hinsichtlich Präzision und Reproduzierbarkeit von Lasermikrobohrungen auch in der software definierten Produktion mit individualisierten Anforderungen und wechselnden Materialien zu erfüllen, ist eine geeignete In-Prozess-Diagnostik zur Defekterkennung unerlässlich, um auf Basis der Sensordaten den Bohrprozess regeln zu können.
Wissenschaftliche Fragestellung:
Die In-Prozess Messung von prozessrelevanten Daten beim Mikrobohren mit ultrakurzen Laserpulsen ist heute nicht gelöst. Dies beinhaltet sowohl die Erfassung als auch die Interpretation und Auswertung der Daten. In dieser Arbeit sollen für die Erfassung der Daten einerseits Temperatur- und Röntgensensoren eingesetzt werden, welche Information über die Prozessbedingungen liefern. Andererseits soll der Einsatz der optischen Kohärenztomographie (OCT) Informationen über die Ausbildung der Geomtrie der Mikrobohrungen liefern. Während die Bestimmung der Bohrtiefe während des Bohrprozesses bereits gezeigt werden konnte, soll in dieser Arbeit geklärt werden, inwiefern auch die Form von Mikrbohrungen, d.h. die Einhaltung der Prozesstoleranzen bezüglich Geometrie und Qualität, durch OCT-Messungen bestimmt und entsprechend online verwertet werden können. Die Evaluierung der Messdaten soll anhand aufwendiger Diangostikverfahren wie Röntgenuntsuchungen oder Beobachtung durch transparente Materialien (Bohren in Silizium, Hinter-Glas-Bohren) erfolgen. Ein wesentlicher Abreitspunkt wird dabei die automatisierte Auswertung von Bild- und Sensordaten sein.