Jetzt bewerben! Ihre Bewerbung wird zeitnah nach Eingang bearbeitet.
Thesis Committee:
Prof. Bauernhansl (IFF)
Problemstellung:
Die Gestaltung und Modellierung von Exoskeletten folgte bisher einer starren Methodik im Entwicklungsprozess. Ein Exoskelett
wird jedoch für seinen spezifischen Einsatz auf der Grundlage der Eigenschaften des Benutzers entworfen. Das IFF nutzt Game-
Engines als leistungsfähige Plattformen für die Modellierung, Simulation und Visualisierung von modularen mobilen
Produktionssystemen. Durch die in einer Game-Engine entwickelten Modelle ist es möglich, die Fabrik dynamisch anpassbar
vorauszusagen und zu konfigurieren. Die Menschmodellierung wurde bisher mit speziellen Software z.B. AnyBody Modeling
System™ entwickelt, die beschränkte unmittelbare Kompatibilität mit der Simulation anderer Produktionsmodule zulässt. Daher ist
es notwendig, die Anforderungen und Methoden zur Entwicklung, Personalisierung und Integration eines Menschmodells für die
Simulation und Visualisierung im Kontext einer modularen und mobilen Fabrik zu untersuchen. Darüber hinaus muss die
Genauigkeit eines Modells oder einer Darstellung diskutiert und bestimmt werden, indem die Auswirkungen auf die Sicherheit der
Person und des Systems sowie die Funktionalität berücksichtigt werden. Der Benutzer müssen desselben Exoskeletts ähnliche
Eigenschaften aufweisen, um dessen ergonomische, sichere und funktionell adäquate Nutzung zu gewährleisten. Dies führt dazu,
dass bei bisherigen Ansätzen die Gestaltung und virtuelle Modellierung eines Exoskeletts lange Entwicklungszeiten in Anspruch
nimmt und zu unflexiblen Ergebnissen führt.
Relevanz der Themenstellung:
Game-Engines verbessern kontinuierlich ihre physikalischen Simulationen, was sie zu potenziellen Entwicklungsumgebungen für
Simulationen in verschiedenen Forschungsbereichen macht, in diesem Fall für die individuelle Modellierung des Menschen,
einschließlich des Verhaltens des Muskel-Skelett-Systems und der Interaktion mit anderen Produktionsmodulen. Die Komplexität
der Menschmodellierung wird als besonders anspruchsvoll in der Fabrik betrachtet, da jeder Mensch sehr unterschiedliche,
individuelle Eigenschaften hat. Mittels eines dynamischen Muskel-Skelett-Modellansatzes in einer mit anderen Fabriksystemen
kompatiblen Umgebung können realistische Bewegungen und Kräfte anhand dreidimensionaler Mensch- und
Maschinengeometrien ermittelt werden. Auf diese Weise ist es möglich, den menschlichen Belastung und die Systemleistung zu
berechnen und sogar vorherzusagen und zu prüfen, ob das System die funktionalen, sicherheitstechnischen und ergonomischen
Anforderungen für die Mitarbeiter erfüllt. Das Ziel ist, Entwicklungszeiten von Exoskelett-Prototypen zu reduzieren sowie die
Flexibilität bei der Anpassung und Skalierung eines Exoskeletts und des Modells zu erhöhen.
Bisher wurden inverse kinematische oder vorwärtsgerichtete kinetische Algorithmen für Bewegungsanalysen und Steuerung
verwendet. Im Hinblick auf die Modellierung des Verhaltens von Mensch und Exoskelett ist die Analyse und Validierung des
Forward and Backward Reaching Inverse Kinematics (FABRIK) Algorithmus der University of Cambridge geplant.
Wissenschaftliche Fragestellung:
▪ Wie kann ein personalisierbares Menschmodell und seine Dynamik im Kontext der modularen,
mobilisierbaren Fabrik modelliert, simuliert und visualisiert werden?
▪ Wie müssen modulare und skalierbare Exoskelette entworfen und modelliert werden?
▪ Welche Anforderungen an game-engine-basierte Modellierung eines menschliches
Muskel-Skelett-System gibt es, um seine Interaktionen mit der Umgebung sowie mit anderen Systemen
geeignet zu modellieren, zu visualisieren und vorherzusagen?
Thesis Committee:
Prof. Bauernhansl (IFF), Prof. Huber (IFF)
Problemstellung:
Metamorphe Wertschöpfungssysteme bestehen aus einer Vielzahl an Hardware- und Softwaremodulen, die auftragsbezogen zu
Maschinen zusammengesetzt werden und nach Erfüllung der Aufgabe wieder zerfallen können.
Ziel dieser Produktionssysteme ist die Erhöhung der im System befindlichen Freiheitsgrade zur Steigerung von Flexibilität und
Effizienz. Zusätzlich wird die sog. vertikale Wertschöpfung ermöglicht. Vertikale Wertschöpfung bezeichnet die Wertsteigerung des
Produktionssystems durch Nutzung fungibler Lernergebnisse basierend auf der Informationsgewinnung produktionstechnischer
Informationen und Daten, die im Rahmen herkömmlicher (horizontaler) Produktionsprozesse gewonnen werden können.
Aufgrund der häufigen Neuzusammensetzung der Module ist aus Wertschöpfungsgründen eine schnelle Kopplung und
Abkopplung der Module wünschenswert. Eine kabellose IuK-Schnittstelle ermöglicht eine Verkürzung der Umbauzeiten. Aufgrund
der Vielzahl der Module sowie der Vielfalt und Menge der zu übertragenden Daten und Informationen zur Ermöglichung der für die
vertikale Wertschöpfung notwendigen Lernprozesse sowie der notwendigen Sicherstellung der fehlerfreien und sicheren
Datenübertragung werden Schnittstellen benötigt, die Produktionsansprüchen hinsichtlich Sicherheit und Fehlerfreiheit genügen,
andere Module negativ nicht beeinflussen, Verbindung mit einer Vielzahl an Modulen aufnehmen und gleichzeitig ausreichende
Menge an Daten übertragen können.
Relevanz der Themenstellung:
Derzeit gibt es verschiedene Ansätze an modularen Schnittstellen wie Plug’n‘Produce. Kabellose Verbindungen sind derzeit mit 5G
und NFC ebenfalls in der Erforschung. Jedoch beziehen die bestehenden Ansätze die Voraussetzung des maschinellen Lernens
bei Übermittlung von Steuerungsinformationen nicht in ausreichendem Maße mit ein. In Bezug auf metamorphe
Produktionssysteme stellt diese Fragestellung eine entscheidende Grundlage dar.
Wissenschaftliche Fragestellung:
▪ Welche Anforderungen an ad-hoc einsetzbare, kabellose Schnittstellen gibt es für die metamorphe
Produktion?
▪ Welche Daten und Informationen sind im Rahmen der vertikalen Wertschöpfung zu übertragen?
▪ Welche Rahmenbedingungen ergeben sich unter Bezug auch Safety und Security?
▪ Wie können diese Daten und Informationen kabellos übertragen werden?
Thesis Committee:
Prof. Bauernhansl (IFF)
Problemstellung:
Exoskelette im therapeutischen Einsatz können die menschliche Motorik verbessern indem sie durch ergänzende Gelenkmomente
die Bewegung unterstützen und dadurch einen größeren Bewegungsumfang ermöglichen. Studien zeigen, dass mit assistierende
Exoskelette in der Rehabilitation von Schlaganfallpatienten mit motorischen Beeinträchtigungen große therapeutische Wirkungen
erzielt werden kann. Für eine effiziente Therapie müsste das Exoskelette mit minimal notwendiger adaptiver Unterstützung
erfolgen, sodass die schlaffen Muskeln mit/ohne Stimulation durch die Armbewegungen trainiert werden. Bei zu hoher
Unterstützung würde das Trainingseffekt schwinden. Dieses Optimierungsproblem der Steuerung der Unterstützungsleistung eines
Exoskeletts muss mit der muskulären Kraftleistung des dysfunktionalen Gelenks erfolgen. Eine personalisierte neuromuskuläre
adaptive Echtzeit Anpassung des Exoskeletts auf die Gelenkfunktion des gelähmten Armes ist derzeit nicht möglich, weil keine
physikalisch fundierte patientenspezifische Muskelkraftbestimmung aus biomechanischen Simulationen gibt, die in Echtzeit den
dynamischen Gelenkwiderstand aus allen am Gelenk beteiligten Muskelkräfte realistisch dreidimensional aufgelöst bestimmen
kann.
Relevanz der Themenstellung:
Die derzeit eingesetzten MKS-Softwares für Menschmodellierung und die damit simulierte Interaktion mit dem Exoskelett basieren
auf stark idealisierten 1-D Modellen und können die tatsächliche Realität des 3D-Problems des muskuloskelettalen Systems nicht
abbilden. Aufgrund der starken Abweichungen der berechneten Muskelkraftwerte und der Reduktion der Modelkomplexität von 3D
auf 1D sind die MKS-Modelle nicht für eine personalisierte Auslegung für eine Armsteuerung anwendbar. Die Modellreduktion führt
zu unphysikalischen Ergebnissen, da das Muskelgewebematerial mit anisotropen Eigenschaften durch die Fiederung und mit
komplexer 3D-Geometrie ein nichtlineares kontinuumsmechanisches Problem darstellt, welches sich nicht realistisch in ein 1-D
Modell reduzieren lässt. Es kommt noch hinzu, dass die extrem wichtige Fixierung der Muskeln an den Knochenstrukturen von
MKS nur sehr rudimentär mit einem linearen 1D-Muskelverlauf approximiert wird, die zu falschen Muskelkraft-Gelenkbewegungs-
Beziehungen führen. Nur durch einen 3D-FE-vorwärts-dynamischen muskuloskelettalen Modellansatz mit exakten
Muskelgeometrien lassen sich realistische Bewegungen und Muskelkräfte bestimmen. Damit könnte durch eine mechanische
Strukturkopplung mit dem Exoskelett und der physiologischen EMG-Messungen der aktiven Muskeln die-Reglung des Exoskeletts
für eine personalisierte Therapie genau auf den dysfunktionalen Arm des Schlaganfallpatienten dynamisch adaptiv ausgelegt
werden, welches mit MKS-Methoden so nicht möglich ist.
Wissenschaftliche Fragestellung:
Die computergestützte Simulation der neuromuskulären Erkrankung des Armes, die durch einen Schlaganfall hervorgerufen wird,
beinhaltet sowohl eine methodische also auch eine softwaretechnische Herausforderung. Es gibt bisher keine publizierte 3D-FESimulation
von komplexen Muskel-Gelenk-Systemen mit einem vorwärtsdynamischen Ansatz der Armbewegung, die durch
geregelte Muskelaktivierung erfolgt. Allerdings sind diese 3D-Simulationsergebnisse der muskelkraftgetriebenen Bewegungen des
Arms essentiell, um die Interaktion mit dem Exoskelett zu analysieren und dessen Funktion daraufhin zu regeln. Die realitätsnahe
Lösung des biomechanischen Simulationsproblems des Ellenbogengelenks mit einem 3D-Multi-Muskel-System erfordert zum
einen Kenntnisse in der Physiologie des Arms und zum anderen in der nichtlinearen 3D-Kontinuumsmechanik sowie in effizienten
Optimierungsverfahren für die Bestimmung der Muskelaktivierungen und der Regelungstechnik zur Auslegung des Exoskeletts für
die Armunterstützung.
Zu allererst muss die muskuläre Dysfunktion des Arms eines Patienten bestimmt werden, die methodisch in zwei Schritten
aufgeteilt ist: Im ersten Schritt soll das vorgespannte Muskelsystem am Gelenk (passive Steifigkeiten des Ellenbogengelenks)
ermittelt werden. Die Vordehnung der Muskeln ist in zweierlei Aspekten relevant. Zum einen wird damit die statische
Gelenksteifigkeit bestimmt und zum anderen folgt aus der Muskelvordehnung die maximal mobilisierbare aktive Muskelkraft. Da
sich die Muskelvordehnungen nach dem Schlaganfall nicht ändert, sind die passiven Steifigkeitseigenschaften der Muskeln erstmal
nicht krankheitsbedingt beeinflusst und können anhand der physiologisch möglichen RoM wie bei einem gesunden Menschen
bestimmt werden. Die Optimierung der Vordehnungen soll über eine META-Modell-basierte Methode auf der Grundlage einer
Sensitivitätsstudie erfolgen. Im zweiten Schritt soll dann ebenfalls META-Modell basiert die Muskelaktivitäten für die muskuläre
Dysfunktion des Armes auf der Basis der gemessenen Bewegungs- und Kraftdaten bestimmt werden. Veränderungen der
Muskelvolumina durch Atrophie haben Einfluss auf die passive Steifigkeit der Muskeln und damit auch auf die Kraftentwicklung.
Durch Ultraschallmessung sollen diese Muskelvolumenänderungen erfasst und die Vordehnungen der Muskeln über die METAModelle
neu in Echtzeit berechnet werden können. Der dritte und letzte Schritt ist der Aufbau der bio-strukturmechanischen
Kopplung des patienten-spezifisch angepassten Simulationsmodels des Arms mit dem Exoskelett, um die Wechselwirkung zu
simulieren. Für die anschließende Sensitivitätsstudie müssen abhängig von der Anzahl von Designparameter große Menge von
Simulationen effizient geplant und auf einem Rechencluster z. B. am HLRS durchgeführt werden. Das Ziel wäre durch Aufnahmen
von EMG-Daten aus den Muskeln und der Position des bewegenden Arms, die als Inputparameter in die META-Modelle eingehen,
für den aktuellen Zustand herrschenden Muskelkräfte zu bestimmen, um daraus für das Exoskelett die erforderliche therapeutische
Unterstützung in Echtzeit zu berechnen und es nachzuregeln.
Thesis Committee:
Prof. Bauernhansl (IFF)
Problemstellung:
Relevanz der Themenstellung:
Wissenschaftliche Fragestellung:
Thesis Committee:
Prof. Schuster (BWI)
Problemstellung:
Smart Contracts in Blockchain-Netzwerken erweitern die Möglichkeiten, Verträge abzuschließen. Über den Konsensmechanismus der Blockchain werden Zustände, die ansonsten für Marktteilnehmer nicht nachvollziehbar sind, transparent. So kann beispielsweise der erfolgreiche Verkauf eines Endprodukts auch für Zwischenhändler und Zulieferer nachvollzogen werden. Dadurch ist es möglich, in Verträgen dieses Ereignis aufzugreifen und beispielsweise eine Zahlung daran zu knüpfen. Die breitere Informationsbasis erleichtert auf der einen Seite durch die damit verbundene Reduktion der Eintrittsbarrieren den Markteintritt von neuen Akteuren. Auf der anderen Seite besteht aber auch die Gefahr, dass die Bildung von Kartellen gefördert wird, da geheime Absprachen zwischen Wettbewerbern von den Kartellmitgliedern einfacher kontrolliert werden können. Eine Analyse dieses Trade-Offs findet sich in Cong und He (2019). Für eine einführende Übersicht zu Smart Contracts siehe auch Schuster, Theissen und Uhrig-Homburg (2020).
Relevanz der Themenstellung:
Smart Contracts werden bisher noch nicht auf breiter Basis zur Steuerung von Lieferantennetzwerken eingesetzt. Eine Ursache hierfür ist auch, dass die wichtigen Player (z.B. große Automobilhersteller) ihr Informationsmonopol nicht aufgeben möchten, da die Konsequenzen hieraus nicht vollständig verstanden sind. Hier setzt das vorgeschlagene Forschungsthema an, um herauszuarbeiten, wie der Wettbewerb in solchen Netzwerken aussehen könnte und unter welchen Bedingungen sich hieraus Vorteile für bestimmte Marktteilnehmer ergeben.
Wissenschaftliche Fragestellung:
In einem ersten Schritt werden, basierend auf dem ökonomischen Modell von Cong und He (2019), verschiedene Use Cases für die Anwendung von dezentralen Blockchain-basierten Smart Contracts in Lieferantenbeziehungen entwickelt. Hierbei liegt ein Fokus auf den regulatorischen Rahmenbedingungen verschiedener Branchen (z.B. Automobilindustrie). In einem zweiten Schritt sollen dann Vorschläge erarbeitet werden, wie solche Blockchain-Netzwerke ausgestaltet werden können, um Wettbewerb zu fördern aber gleichzeitig die Gefahr der Kartellbildung zu reduzieren und Vertraulichkeit in kritischen Bereichen zu erhalten. Hierbei bietet sich dann ggf. auch die Zusammenarbeit mit Industrieunternehmen an, um deren Entscheidungssituationen und Präferenzen noch besser erfassen zu können.
Referenzen;
Cong, L.W. und Z. He. (2019): Blockchain Disruption in Smart Contracts. Review of Financial Studies, 32, S. 1754-1797.
Schuster, P., E. Theissen und M. Uhrig-Homburg (2020): Finanzwirtschaftliche Anwendungen der Blockchain-Technologie. Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung, 72, S. 125-147.
Thesis Committee:
Prof. Mitschang (IPVS), MANN+HUMMEL GmbH
Problemstellung:
Die fortschreitende Digitalisierung des Produktentstehungsprozesses und die zunehmende Vernetzung der Systeme ermöglichen neuartige Verknüpfungen und Analysen von Daten. Im Rahmen dieses Projekts soll ein Ansatz für einen datengetriebenen und automatisierten Produktenwicklungsprozess in Kooperation mit einem Industriepartner konzipiert, prototypisch implementiert und validiert werden. Dabei soll ein datengetriebenes Empfehlungssystem entstehen, das für eine neue Kundenspezifikation Teile eines passenden CAD-Modells des Produktdesigns vorschlägt. Als Datenquellen für das Empfehlungssystem kann auf historische Daten zu Kundenspezifikationen in einem Requirements-Management-Tool, auf CAD-Daten von abgeschlossenen Entwicklungsprojekten sowie auf Produktklassifizierungsdaten in einem PLM-System zurückgegriffen werden. In diesem Projekt sind in einem interdisziplinären Ansatz neben zentralen informationstechnischen Fragestellungen rund um Datenmanagement-, Business-Intelligence- und Big-Data-Technologien insbesondere auch ingenieurstechnische Aspekte der Produktenwicklung einzubeziehen.
Relevanz der Themenstellung:
Die Nutzung von Daten und Erfahrungen aus bestehenden und abgeschlossenen Projekten ist angesichts der schnelllebigen Produktlebenszyklen ein strategischer Wettbewerbsvorteil. Schnellere und gezielte Datenanalysen sind notwendig, um Kundenanforderungen wie kürzere Antwortzeiten und agiles Arbeiten zu erfüllen. Gleichzeitig erfordern volatile Marktbedingungen entsprechende Aktualität der für Analysen verwendeten Daten. Durch den steigenden Effizienzdruck ist es notwendig, die Produktentwicklung ressourceneffizienter und stärker produktionskostenorientiert aufzustellen, indem schon in der CAD-Modellierung systemseitig datengetriebene, intelligente, d. h. selbststeuernde und selbstoptimierende Ansätze berücksichtigt werden. Die Entwicklung solch datengetriebener Methoden ist ein komplexes und aktuelles Forschungsthema und bewegt sich im Spannungsfeld informationstechnischer, betriebswirtschaftlicher und ingenieurstechnischer Herausforderungen.
Wissenschaftliche Fragestellung:
Zentrale Aufgaben- und Fragestellungen dieser Arbeit sind:
• Analyse des Produktentstehungsprozesses beim Industriepartner sowie Abgrenzung des Forschungsthemas zu existierenden Ansätzen aus der Literatur.
• Erhebung und Strukturierung existierender Datenquellen und Datencharakteristika in den Prozessen und Systemen des Industriepartners sowie in verwandter Literatur.
• Erarbeitung und Definition generischer Datenanalyseszenarien für ein Empfehlungssystem für CAD-Modelle auf der Grundlage von Datenmanagement- und Big-Data-Technologien
• Ableitung von generischen und methodischen Anforderungen aus den Szenarien, insbesondere hinsichtlich erforderlicher Datenquellen, Datenqualität, Analyseverfahren und Realisierungstechnologien.
• Machbarkeitsuntersuchung der Szenarien anhand der Anforderungen und konkreter Produkte und Produktdesigns des Industriepartners.
• Konzeption eines generischen Ansatzes für ein datengetriebenes Empfehlungssystem für CAD-Modelle und prototypische Implementierung dieses Ansatzes für ausgewählte Szenarien des Industriepartners.
• Validierung des implementierten Ansatzes im Rahmen der ausgewählten Szenarien, z. B. hinsichtlich der Korrektheit und Vollständigkeit der vom datengetriebenen System empfohlenen CAD-Modelle (z. B. Vollständigkeitsgrad von 80%).
Thesis Committee:
Prof. Riedel (ISW)
Problemstellung:
Die Digitalen Zwillinge von Produkt und Produktion stehen vor der Herausforderung, dass sie nach Abschluss des Entwicklungsprozesses, nicht den realen Status der Produktion widerspiegeln. Dies bezieht sich auf kontinuierlich auftretende Ereignisse, wie Ungenauigkeiten im Produkt, Anlagenausfälle, schlechte Qualität oder fehlende Teile. Um eine resiliente Produktion zu erreichen, sollte eine ganzheitliche Methodik entwickelt werden, die einen Top-Down- mit einem Bottom-Up-Ansatz kombiniert, um Echtzeit-Produkt- und Produktionsparameter durch Basistechnologien wie 3D-Scanning und intelligente Sensoren zu erfassen und diese in den Digitalen Zwilling einzubetten. Dieser Erfassungs- und Einbettungsprozess führt zur Entwicklung so genannter "kognitiver Digitaler Zwillinge". Allerdings sind diese Digitalen Zwillinge oft auf historische Daten angewiesen, die erfahrungsgemäß aus Ungenauigkeiten bestehen können. Zusätzlich konzentriert sich das Promotionsprojekt auf die Ermöglichung von Resilienz in Digitalen Zwillingen durch die Entwicklung eines auf maschinellem Lernen basierenden Ansatzes für den Digitalen Zwilling. Dies ermöglicht es selbst zu lernen, wenn es eine Ungenauigkeit im Digitalen Zwilling gibt und führt zu einer Korrektur hin zu einem korrekten Zustand. Ein Motivationsszenario für die weitere Validierung in einer innovativen automatisierten Messzelle, in der modernste Robotiktechnologien, z.B. stationäre, kollaborative, mobile Systeme, integriert mit 3D-Laserscanning-Systeme, intelligente Sensoren, z.B. Temperatur, Druck, Geschwindigkeit in drei Achsen, den Kern der Demonstrationsaktivitäten darstellen. Neben dem Szenario der diskreten Fertigung in der Messzelle, stellt die Realisierung und Validierung des mehrschichtigen Kohlefaserdruckverfahrens den zweiten Demonstrator dar.
Relevanz der Themenstellung:
Um die kognitiven Digitalen Zwillinge in der betrieblichen Fertigungsumgebung zu implementieren, geht das Projekt in einem Bottom-up-Verfahren vor und adressiert das Thema in zwei kritischen Fertigungsbereichen: 1.) die Produktqualitätssicherung in der diskreten Fertigung, exemplarisch für die modulare Produktion in der Automobilindustrie und 2.) die Prozessqualitätssicherung in der kontinuierlichen Fertigung, exemplarisch für die Überwachung und Optimierung des mehrlagigen Kohlefaserdruckprozesses, für die Luft- und Raumfahrtindustrie. Beide Anwendungen stehen vor der Herausforderung, die Digitalen Modelle der physischen Fertigungseinheiten aus der Fabrikhalle, z.B. Teile, Komponenten, Anlagen, Werkzeuge, Vorrichtungen, menschliche Arbeitskräfte, zumindest nahezu in Echtzeit zum Leben zu erwecken. Die Validierung des entwickelten generischen Ansatzes und der Methodik für zwei spezifische Qualitätsbewertungsszenarien von Produkt und Prozess in ausgewählten Branchen wird für andere Produktionsdomänen und Branchen instanziiert. Auf die Entwicklung eines generischen Ansatzes für einen echtzeitfähigen Digitalen Zwilling in der Fertigung folgt die Entwicklung einer Roadmap für die Migration dieses generischen Ansatzes in andere Branchen und Anwendungsfälle, wie z.B. in der Werkzeugmaschinen-/Ausrüstungsindustrie und in Prozessen, wie bspw. der Logistik, Bearbeitung, etc.
Wissenschaftliche Fragestellung:
Um den kognitiven Digitalen Zwilling zur Realisierung einer resilienten Produktion/Fabrik zu konzipieren, zu entwickeln und zu validieren, wurden die folgenden wissenschaftlichen und technischen Ziele festgelegt:
Ziel #1: Konzeption und Entwicklung der Referenzmodelle für die Resiliente Produktion. In der Produkt-, Prozess- und Fabrikplanung existieren Referenzmodelle für den Produkt-, Prozess- und Produktionslebenszyklus, in denen Resilienz-Aspekte bisher nur unzureichend berücksichtigt werden. Das Ziel von Ziel #1 ist es, herauszufinden, wie die bestehenden Referenzmodelle um Resilienzindikatoren erweitert werden können und wie die erweiterten Referenzmodelle dann für die angesprochenen Anwendungsfälle zur Verfügung stehen. Damit wird es möglich, die Produktion ganzheitlich unter dem Gesichtspunkt der Resilienz-Merkmale zu bewerten und zu optimieren. Zusätzlich werden spezifische KPIs zur Messung der Performance der Prozessoptimierung und der Resilienz-Leistung entwickelt.
Ziel #2: Methodik für die Umsetzung des Referenzmodells in einem kognitiven Digitalen Zwilling und einer virtuellen Engineering-Umgebung. Das Referenzmodell bildet die Grundlage für die Weiterentwicklung und Implementierung einer neu gestalteten Engineering-Umgebung auf Basis modernster digitaler Fertigungstechnologien, z.B. von Siemens, Dassault Systems. Diese neue Engineering-Umgebung muss sich durch folgende Eigenschaften auszeichnen: offen, erweiterbar, servicebasiert und sicherheitsorientiert. Die Digitalen Zwillinge aller Fabrikobjekte werden um den erfassten Kontext aus dem Echtzeit-Shopfloor erweitert; unterstützt durch 3D-Scanning, drahtlose intelligente Sensorik und digitale Fertigungstechnologien. Der erreichte kognitive Status der Digitalen Zwillinge ermöglicht die Realisierung von Resilienz als Gleichgewicht zwischen Robustheit und Flexibilität.
Ziel #3: Entwurf und Entwicklung eines auf kognitiven Digitalen Zwillinge ausgerichteten Lernassistenzsystems für eine resiliente Produktion. Ziel ist es, ein lernendes und kontextbezogenes Assistenzsystem als Haupt-Enabler für die Erreichung einer resilienten Produktion zu entwickeln. Der Prozessablauf dieses neuen Systems beginnt mit der Erstellung des Digitalen Zwillings aller Fabrikobjekte; Erfassung von Echtzeitdaten aus der Fertigung, Hinzufügung von Kognition zum Digitalen Zwilling, basierend auf der in Ziel #2 entwickelten Methodik; Analyse der aktuellen Daten mit historischen Daten, basierend auf KI und Deep-Learning-Algorithmen; Ausarbeitung und Dokumentation von Maßnahmen für resiliente Prozesse und zur Unterstützung der Entscheidungsfindung.
Ziel #4: Entwicklung eines Ansatzes zum Selbstlernen, wenn es eine Abweichung von der genauen Asset-/Prozessdarstellung im Digitalen Zwilling gibt. Erreicht wird dies durch die Entwicklung eines probabilistischen, risikobasierten Ansatzes, um zu erkennen, woher die Abweichung in der Genauigkeit stammt und um automatisch seine Daten- und Modellquellen zu verstehen. Zusätzlich soll ein auf maschinellem Lernen basierender Ansatz zur Selbstanpassung des Digitalen Zwillings entwickelt werden, um seine Genauigkeit der Repräsentativität zu erhöhen, sowie ein Simulations-Toolkit mit maschinellen Lernfunktionen zur Optimierung der Genauigkeit des Digitalen Zwillings.
Ziel #5: Validierung, inkrementelle Verbesserung und Roadmaps für die Migration des generischen Ansatzes und der Methodik für andere Fertigungsprozesse und Branchen. Die Erreichung der Produktionsresilienz und der Resilienz des Digitalen Zwillings sowie die Prozessoptimierung in den beiden entwickelten Anwendungsfällen wird auf Basis der identifizierten KPIs in Ziel #1 durchgeführt. Es wird ein wissenschaftlich fundierter Validierungsprüfstand erarbeitet. Zusätzlich wird der Einsatz des Konzepts der kognitiven Digitalen Zwillings auch in anderen Fertigungsprozessen und Branchen entwickelt.
Thesis Committee:
Prof. Riedel (ISW)
Problemstellung:
Für die 3D Erfassung und Rekonstruktion von Bestandsgebäuden existieren bereits verschiedene Techniken, wie beispielsweise das Laserscanning-, die photogrammetrische Strucutre from Motion Methode oder das Structured Light Verfahren. Für alle erwähnten Techniken bedarf es jedoch vor jeder Erfassung vorherige Planungsschritte und die Erfassung selbst muss stets manuell durch menschliche Ressourcen durchgeführt werden. Auch nach der Erfassung sind noch immer viele manuelle Schritte in verschiedenen Softwareanwendungen notwendig um vom 3D Scan zum BIM Modell zu gelangen. Aus diesem Grund sind Scan-to-BIM Ansätze zum jetzigen Zeitpunkt noch immer mit vergleichsweise hohen Kosten verbunden. Laserscanning als die derzeitig hauptsächlich verwendete Technik für aktuelle Scan-to-BIM Ansätze, trägt mit weitaus höheren Anschaffungskosten im Vergleich zu anderen Erfassungsmethoden noch maßgeblich zu den bereits schon hohen Gesamtkosten bei. Weitere Nachteile ergeben sich bei der Verwendung von Laserscanning bei der Erfassung von kleinteiligen Objekten, da diese durch mehrere Scanpositionen erfasst werden müssen, was verglichen mit anderen Erfassungsmethoden zu einem weitaus höheren Zeitaufwand und somit höheren Kosten führt.
Relevanz der Themenstellung:
Durch den sich stetig weiterentwickelnden technischen Fortschritt von Hard- und Software, ergeben sich für den Bereich des 3D-Scannings ständig neue Anwendungsgebiete. Die immer erschwinglicher werdenden Technologien führen dazu, dass immer mehr Digitalisierung stattfindet. Beispielsweise lassen sich im Industriebereich bestehende Fabrikanlagen mit Laserscanning detailgetreu dreidimensional erfassen. Doch auch der technische Fortschritt im Bereich der Digitalkameras führt dazu, dass immer besser werdende Sensorik und Technik in den Geräten vorzufinden ist, weshalb auch die 3D Scanerfassung mit der Structure from Motion Methode zu sehr guten Ergebnissen führt. Die Anwendungsfälle der erfassten 3D-Daten können letztlich sehr vielfälltig sein. Die hohe Nachfrage nach digitalen Modellen von verschiedensten Objekten bis hin zu gesamten Bestandsgebäuden weckt den Bedarf nach automatisierten Erfassungmethoden, um Zeit und Kosten einsparen zu können.
Wissenschaftliche Fragestellung:
Ziel des Forschungsprojektes ist es ein autonomes Fahrzeug zu entwickeln, welches weitestgehend automatisiert 3D Scans durchführt, welche anschließend ebenfalls möglichst automatisiert in BIM Modelle überführt werden sollen. Ein stets aktuell gehaltenes digitalles Modell stellt hierbei einen wesentlichen Bestandteil für die sinnvolle Nutzung während der Betriebsphase eines Bestandsgebäudes dar. Auf dieser Grundlage soll das zu entwickelnde System sich auf kamerabasierte 3D Scans stützen, da sich daraus mit geringen Anschaffungskosten, guter Verfügbarkeit und einer teilweise zeitlich effizienteren Erfassung für die Aktualisierung von Bestandsgebäuden im Vergleich zu Laserscans, Vorteile ergeben. Vor dem eigentlichen Scanerfassungsprozess soll zur Erstellung eines Raumplans dieser zunächst abgefahren werden. Abhängig vom Raumplan werden 360° Panoramen erfasst, welche mithilfe von Bilderkennungsalgorithmen aus dem maschinellen Lernen, dabei helfen sollen Navigationsrouten, Kameraparameter und Bildanzahl für spezifische Raumbereiche festzulegen. Mithilfe des zu entwickelten Fahrzeuges und der Programm Automatisierungen soll untersucht werden, inwieweit sich der Scan-to-BIM Prozess automatisieren lässt. Der Ablauf lässt sich grob in die folgenden Schritte einteilen:
Aufnahme, Punktwolkenerzeugung, Klassifizierung und Ableitung in ein BIM Modell
Thesis Committee:
Prof. Riedel (ISW)
Problemstellung:
In einer betrieblichen Fertigungsumgebung werden kontinuierlich große Mengen heterogener Daten aus Produktions- und Montageprozessen gesammelt, die auf allen Ebenen der Fertigung anfallen, angefangen beim Prozess, den Arbeitsstationen, den Linien, dem Bereich und dem Standort der Produktion bis hin zum Produktionsnetzwerk. Um Flexibilität, Modularität und Anpassungsfähigkeit zu erreichen, ist die Implementierung von Digital Twins in der Produktion erforderlich. In der aktuellen Ära von Industrie 4.0 und auf dem Weg zur Industrie 5.0 ermöglicht ein Digitaler Zwilling, der in der Lage ist, von einem ständigen Zustrom von Echtzeitdaten zu profitieren, die Reaktionsfähigkeit der Produktion auf dynamische Veränderungen. Die Implementierung eines Digitalen Zwillings in Echtzeit erfordert einen vollautomatischen Datenerfassungsprozess auf der Basis eines homogenen und robusten Datenbankmanagementsystems. Die größte Herausforderung stellt eine wissenschaftlich definierte, vollautomatische Methode dar, um alle Daten aus heterogenen Datenquellen zu identifizieren, zu sammeln, zu verarbeiten und in einer sicheren und zuverlässigen Umgebung zu verwalten. Darüber hinaus muss das entsprechende Datenerfassungssystem eine gewisse Flexibilität aufweisen, um sich an neue Parameter anzupassen und den Prozess zu verbessern. Insbesondere ganzheitliche Lösungen für die Datenerfassung bzw. flüchtige Daten und Stammdaten sind gefragt. Die Reduzierung der Verzögerung zwischen dem Zeitpunkt der Datenerfassung und der Aktualisierung des Digitalen Zwillings stellt eines der wichtigsten Teilziele dar.
Relevanz der Themenstellung:
Zur Entwicklung einer effektiven und genauen Methodik, die die Implementierung eines automatisierten Datenerfassungsprozesses für Digital Twins in einer realen Fertigungsumgebung beschreibt, werden in diesem Projekt zwei ähnliche, aber unterschiedliche 3D-Scanverfahren zusammen mit der Verwendung von drahtlosen Sensortechnologien eingesetzt. Erstens ein Top-Down-3D-Laserscan mit feststehenden, an der Wand montierten Laserscannern rund um die Werkshalle und die Arbeitszellen, um allgemeine Daten über das Layout und die Position der Werkselemente zu gewinnen. Zweitens ein flexibler 3D-Laserscan von unten nach oben mit mobilen Robotern und hochpräzisen, an Roboterarmen montierten Laserscannern, um präzise Punktwolkendaten zu erfassen, die die Geometrie und Position wichtiger Fertigungs- oder Prozesselemente beschreiben. Darüber hinaus wird der Datensatz durch alle drahtlosen Sensorsysteme (z.B. Stromverbrauch, Motornutzlasten, Gelenkwinkel, Momentantemperaturen) verbessert, um ein vollständiges Basismodell für Echtzeit-Digital Twins zu generieren. Schließlich wird das Projektthema in zwei kritischen Fertigungsbereichen behandelt: 1) die Produktqualitätssicherung in der diskreten Fertigung, exemplarisch für die modulare Produktion in der Automobilindustrie und 2) die Prozessqualitätssicherung in der kontinuierlichen Fertigung, exemplarisch für die Überwachung und Optimierung des mehrschichtigen Kohlefaserdruckprozesses, für die Luft- und Raumfahrtindustrie.
Wissenschaftliche Fragestellung:
Das Ziel dieses Projekts ist es, eine robuste und klare Methodik für die Implementierung eines vollautomatischen Datenerfassungsprozesses zu entwickeln, der in der Lage ist, in einer hybriden und heterogenen Umgebung mit Top-Down-, Bottom-Up- und drahtlosen sensorischen datenerzeugenden Technologien Output zu liefern und Input zu und von einem Digitalen Zwilling zu empfangen. Für die Entwicklung und Validierung der Methodik ist eine Reihe von wissenschaftlichen und technischen Zielen geplant, wie folgt:
a) Identifikation des Digitalen Zwillings (Produkt, Prozess, Anlage, Fabrik, z.B. Prozess, Produktionssystem, Produktionsbereich, Linie, Produktionsstandort und schließlich Fabriknetzwerk) kritischer Parameter (z.B. Art, Quelle, Format, Bedeutung), die kontinuierlich in Echtzeit überwacht werden sollen. Das Hauptkonzept hinter der Struktur des Digitalen Zwillings wird durch eine hierarchische Organisation dargestellt, die die wesentlichen Daten mit höherer Priorität bereitstellt und den Digitalen Zwilling in Echtzeit speist. Sie wird es ermöglichen, dass die Simulation der Prozess- und Materialflussbewegungen und -aktivitäten kontinuierlich und ohne externe Eingriffe ablaufen kann. Der zentrale Teil der Datenausgabe wird einen allgemeinen Überblick über den Shopfloor in Echtzeit liefern, während die gesammelten Daten von den Sensoren zweiten Grades und allen anderen IoT-Geräten die diskreten Ereignisse für umfassende Simulationen liefern.
b) Identifizierung der geeigneten Technologie zur Erfassung von Echtzeitdaten (z. B. 3D-Laserscanning, Sicherheitskameraüberwachung, mobile und stationäre lokale Robotersensoren) entsprechend den spezifischen Prozessen (Montage, Produktion oder Logistik). Der Kernvorteil des Ansatzes und der Implementierung des Digitalen Zwillings stellt die Vielseitigkeit und die Fähigkeit dar, jeden der existierenden industriellen Prozesse virtuell zu simulieren; die einzige Einschränkung sind die Ressourcen zur Datenerfassung und die Lieferzeit für die Simulation. Diese Technologien müssen für die Art des zu analysierenden Prozesses, das rechtliche Umfeld für den Datenschutz und die externen Faktoren, die die Sensoren beeinflussen könnten, geeignet sein.
c) Erfassung der In-situ-Prozessparameter als Hauptgrundlage für die Anwendung von Deep-Learning-Algorithmen, gefolgt von einer automatischen Aktualisierung des Digitalen Zwillings. Dies kann durch den Einsatz modernster Modellierungs- und Simulationstechnologien und -systeme erreicht werden, z. B. durch das Siemens-Systemportfolio. Die von den Sensoren gelieferten Daten sind der erste Input in der Datenbank, wo das Programm die Filterpriorität, das Protokoll der Nutzung und die Methode der Implementierung im Digitalen Zwilling festlegt. Die Deep-Learning-Algorithmen verarbeiten den resultierenden Digitalen Zwilling, die Eingabedaten des Sensors und mögliche Korrekturen des Bedieners, wenn der Mensch in der Schleife bleibt, verfeinern die Ergebnisse und sorgen für eine kontinuierliche und inkrementelle Verbesserung.
d) Validierung der Methodik in mindestens zwei Anwendungsfällen, z. B. Qualitätsprüfung und 3D-Kohlefaserdruck. Nachdem das System auf virtueller und empirischer Ebene durch Experimente in einem Labor verifiziert wurde, wird ein Prozess der Integration im realen Leben realisiert. Dieser Schritt dient vor allem der Validierung des Systems und der Optimierung des Datenanalysealgorithmus, der Integration des Digitalen Zwillings und der Verbesserung.
e) Inkrementelle Verbesserung der Methodik und Veröffentlichung in der wissenschaftlichen Gemeinschaft. Als letzter Schritt der Forschung wird die Methode als Werkzeug in eine industrielle Umgebung integriert, für eine Vielzahl von Digitalen Zwillingen getestet und die resultierenden Daten, eine Referenz für das Verfeinerungsverfahren.
Thesis Committee:
Prof. Riedel (ISW), Prof. Herzwurm (BWI - Abt. VIII)
Problemstellung:
KI-Methoden sind auf vielen Prozessen in der Produktion oft nur bedingt anwendbar, da der Datensatz, der
auf einer einzelnen Anlage in akzeptabler Zeit aufgezeichnet werden kann, zum Trainieren der Modelle nicht
ausreichend groß ist. Eine Lösung, insbesondere für KMUs, wäre das Teilen der Trainingsdaten oder fertig
trainierten Modelle, mit Besitzern einer Schwesteranlage oder anderen Anwendern, die einen ähnlichen
Fertigungsprozess zu bewältigen haben. Wie sich in Voruntersuchungen jedoch gezeigt hat, fehlt einem
solchen Ansatz, insbesondere bei deutschen KMUs in der fertigenden Industrie, an Akzeptanz, da in der
Datenhoheit ein Wettbewerbsvorteil gehesen wird, der nicht unkontrolliert auf dem Markt verfügbar sein soll.
Die Förderung einer solchen Datenexternalisierung ist jedoch zweckdienlich, um die Effektivität der KILösungen
zu erhöhen und somit ihren Mehrwert zu steigern.
Relevanz der Themenstellung:
Die Relevanz und Anwendbarkeit von KI-Methoden in der Produktion kann anhand verschiedener Beispiele
aufgezeigt werden. Das wohl bekannteste ist die Vorgersage von Wartungsintervallen, besser bekannt unter
dem englichen Begriff "Predictive Maintanance". Darüber hinaus finden sich im Rahmen der Objekterkennung
einige Anwendungen der Qualitätskontrolle und Feinregelung von Prozessen. Darüber hinaus sind weitere
Anwendungen zur Prozessveresserung oder automatisierten Optimierung wie Generierung von
Programmcode im Fokus laufender Forschungsprojekte. Ein Ansatz der dazu führt, dass KMUs eine
Trainingsbasis für KI-Modelle zur Verfügung steht, kann somit als Katalysator für die Forschungs auf dem
gesamten Feld angesehen werden. Der aktuelle Stand der Forschung liefert bisher keine weitreichenden
Erkenntnisse darüber wie KMUs zum Einsatz von KI-Methoden gefördert werden können. Dies deutet auf die
Existenz einer Forschungslücke an der Schnittstelle zwischen Produktion und Wirtschaftsinformatik.
Wissenschaftliche Fragestellung:
Im Rahmen des Forschungsprojekts sollen in einem ersten Schritt, basierend auf [1], verschiedene
Architekturmodelle abgeleitet werden, die es erlaubten Trainingsdaten die auf industriellen Steuerungen
anfallen und aus diesen Daten trainierte KI-Modelle mit Dritten zu teilen. Hierbei sollen sowohl
Plattformarchitekturen als auch Peer-to-Peer-Architekturen zur datenbasierten Kollaboration [2] untersucht
und insbesondere anhand der Kriterien der Datenhoheit evaluiert werden. In einem zweiten Schritt soll
basierend auf den Architekturmodellen anhand mehrerer Anwendungsfälle (wie z.B. dem
Lichtbogenschweißen) eine Akzeptanzstudie unter potenziellen Industrieanwendern durchgeführt werden. In
das vielversprechendste Architekturmodell sind die Erketnisse der Aktzeptanzstudie zurückzuführen. Für eine
Dissertation über Fakultät 7 soll die Architektur prototypisch umgesetzt und deren Integation in die
Prozessanwendung aufgezeigt werden. Gleichzeitig stellt die prototypische Umsetzung eine Proof-of-Concept-
Validierung dar und lässt sich ebenfalls der gestaltungsorientierten Wirtschaftsinformatik zuordnen. Für eine
Dissertation über Fakultät 10 soll ein Verwertungsmodell für die sich ergebenden KI-basierte Ökosysteme
ausgearbeitet und empirisch bewertet. Dieser Schritt stellt eine Proof-of-Value-Validierung dar.
[1] Schmidt, Alexander, Florian Schellroth, and Oliver Riedel. "Control architecture for embedding
reinforcement learning frameworks on industrial control hardware." Proceedings of the 3rd International
Conference on Applications of Intelligent Systems. 2020.
[2] Schüler F. und Petrik D. "Objectives of Platform Research: A Co-citation and Systematic Literature Review
Analysis." In: Management Digitaler Plattformen. ZfbF-Sonderheft, 75/20, S. 1 - 33
Thesis Committee:
Prof. Möhring (IFW)
Problemstellung:
Die spanende Fertigungstechnik unterscheidet das Spanen mit geometrisch bestimmter Schneide (Drehen, Fräsen, Bohren, etc.) und mit geometrisch unbestimmter Schneide (Schleifen, Honen, Läppen, etc.). Die Verfahren mit geometrisch unbestimmter Schneide weisen i.A. eine geringere Zerspanproduktivität auf. Dafür sind sie für das Erreichen höherer Bearbeitungsgenauigkeiten und Oberflächenqualitäten besonders geeignet. Mit ISO-Bearbeitungsgenauigkeiten von IT8 bis IT1 (bzw. Rz von ca. 1 µm) stellen die Schleifverfahren die wichtigste Technologie mit geometrisch unbestimmter Schneide dar. Zur Fein- bzw. Finishbearbeitung werden Schleifverfahren z.B. eingesetzt für Kugellagerlaufflächen, Lagerringe, Lagersitze, Werkzeuge, Turbinenbauteile, Zylinderköpfe, Nockenwellen, Ventilstößel, Dichtungsflächen an Gehäusen und Getriebewellen, Verzahnungen, medizinische Instrumente und Implantate, Formen (z.B. zur Herstellung von Kunststoff- und Glasprodukten, wie bspw. optischen Linsen) u.v.m.; also an Bauteilen, die auch bei hohen Stückzahlen eine gleichbleibend hohe Fertigungsgenauigkeit benötigen, oder aber an individuellen Komponenten mit spezifischen höchst anspruchsvollen Eigenschaften (z.B. Teleskopspiegel). Für die Gewährleistung dieser hohen gleichbleibenden Fertigungsqualitäten, auch bei sich ändernden Prozessbedingungen, bieten sich Überwachungssysteme an, die auf den Methoden der künstlichen Intelligenz (KI) bzw. des Machine Learning (ML) basieren. Aufgrund der undefinierten Schneidenanordnung und -gestalt an Schleifwerkzeugen, dem ebenso weitgehend undefinierten Einsatz von Kühlschmierstoffen, der zeitlichen Änderung der Werkzeugeigenschaften (durch verschiedene Verschleißmechanismen am Werkzeug) sowie der prozessimmanenten Durchführung von Abricht- bzw. Konditionierprozessen am Schleifwerkzeug unterliegt das Schleifen vielfältigsten, z.T. stochastischen, transienten Einflussfaktoren. Über den Materialabtrag am Werkstück und die Herstellung mikro- und makroskaliger geometrischer Eigenschaften hinaus, beeinflusst gerade die Schleifbearbeitung die Oberflächen- und Randzoneneigenschaften, und somit die Funktions- und Leistungsfähigkeit von Bauteilen maßgeblich. Die Beherrschung der multiplen Wirkzusammenhänge zwischen Prozess- und Werkstückcharakteristika stellt noch immer ein grundlagenwissenschaftliches Forschungsgebiet dar und stellt Industrieunternehmen vor extreme Herausforderungen. In der Forschung wurden bislang nur "Ausschnitte" der Gesamtzusammenhänge erfolgreich behandelt. Eine weitgehend autonome Selbstoptimierung von Schleifprozessen unter Berücksichtigung der Gesamtheit der multiplen Wirkzusammenhänge wurde bisher nicht erreicht. Methoden der KI bzw. des ML bieten hier besondere Potenziale, die wirkenden Einflüsse datenbasiert abzubilden, und somit die Umsetzung von Prozessregelungsstrategien zu befähigen.
Relevanz der Themenstellung:
Die Produktionskosten eines zerspanend zu bearbeitenden Werkstücks werden vor allem durch das Zeitspanvolumen und den zunehmenden Werkzeugverschleiß bzw. durch die dadurch geringer werdende Bearbeitungsqualität bestimmt. Um dem entgegenzuwirken, werden Werkzeuge in der industriellen Praxis in der Regel vorsorglich deutlich zu früh ausgetauscht, was zu einem verschwendeten Standzeitpotential, längeren Rüstzeiten sowie höheren Werkzeugkosten führt. Die Verwendung von KI-gestützten intelligenten Werkzeugmanagement- bzw. Prozessüberwachungssystemen bietet neben der Möglichkeit der Ermittlung eines tieferen Verständnisses der Wirkzusammenhänge innerhalb des Zerspanprozesses, auch das Potenzial, die Standzeit des zugrundeliegenden Werkzeugs optimal auszunutzen.
Künstliche Intelligenz (KI) oder Maschinelles Lernen (ML) bieten dabei die Möglichkeit, das ganzheitliche Verständnis von Zerspanprozessen besser und breiter anwendbar zu gestalten. Nach dem ersten Anlernen der zu erstellenden Modelle kann durch in-situ Messungen mit Hilfe geeigneter Prozess- und Maschinengrößen wie z.B. Schwingungen, akustischen Signalen, oder Prozesskräften der Werkzeugverschleiß während der Zerspanung vorhergesagt werden. Im Umkehrschluss können die zu erwartenden Prozesskräfte sowie -temperaturen bei einem bekannten initialen Verschleißzustand abgeschätzt werden. Weiterhin können die Produktionskosten und Bauteileigenschaften bzw. -genauigkeiten wie Rauheit, Grathöhe, die im Gefüge vorliegende Mikrostruktur bzw. Mikrohärte bei bekannter Auswahl der Prozesseinstellgrößen in Zerspanverfahren vorhergesagt werden. Die Potenziale der Methoden der KI bzw. des ML sind in diesem Bereich der Fertigungstechnik noch nicht vollständig verstanden bzw. ausgeschöpft. Mit Hilfe einer ganzheitlichen Optimierung von Schleifprozessen könnten Ressourcen, Energie und Kosten in erheblichem Umfang eingespart werden, wobei die Bauteilqualität weiterhin gesichert, bzw. sogar erhöht werden kann. Diese Themenstellung ist einerseits grundlagenwissenschaftlich herausfordernd und an den Grenzen des aktuellen Standes des Wissens angesiedelt. Andererseits ergibt sich aus entsprechenden Lösungen ein enormes Umsetzungspotenzial in verschiedenen Industriezweigen.
Wissenschaftliche Fragestellung:
Aus der oben genannten Themenstellung leitet sich die wissenschaftliche Frage- bzw. Zielstellung des hier betreffenden GSaME-Stipendiums ab. Auf Basis von auszuwählenden Methoden der künstlichen Intelligenz und des Machine Learning sind Prototypen für selbst-optimierende Schleif- und Finish-Prozesse zu entwickeln, zu analysieren und zu erproben. Grundlegend sind hierzu zunächst geeignete Modelle zur ganzheitlichen Abbildung exemplarischer Schleifprozesse zu erstellen. Ein weiteres Teilziel besteht in der Zusammenführung von validierten, prädiktiven (KI-) Methoden zur Beurteilung sowie Vorhersage der Prozess-, Bauteil- und Werkzeugzustände am Beispiel konkreter Schleif- und Finishprozesse sowie von geeigneten Strategien zur Reaktion auf die festgestellten Prozesszustände unter Berücksichtigung von messbaren maschinen- und prozessspezifischen Einflussgrößen und Rahmenbedingungen. Unter den Rahmenbedingungen werden die Art, Anzahl und Anordnung der üblicherweise in Werkzeugmaschinen eingesetzten Sensorik verstanden sowie die Möglichkeit, Daten der Maschinensteuerung zu nutzen. Die Zusammenführung der Beurteilungs-/Vorhersagemethoden und Maßnahmen zur Prozessbeeinflussung soll in Form eines digitalen Assistenzsystems realisiert werden, das neben Modulen zur Datenerfassung, Zustandsbewertung und Handlungsempfehlung auch Schnittstellen zur Kommunikation der Module untereinander sowie mit dem Maschinenbediener beinhaltet. Zusammenfassung der Aufgaben:
- Validierte Erfassung von Prozess-, Maschinen- und Bauteilzuständen bei Schleif- und Finishprozessen unter Verwendung der derzeit in Werkzeugmaschinen üblicherweise eingesetzten Sensorik und verfügbarer Daten- und Signalquellen mit Aufbau einer validierten Messtechnik und Sensorik zur Erfassung notwendiger Daten und Signale
- Ableitung von Korrelationen und Beziehungen aus multisensorisch erfassten Schleif- und Finishprozessen zur Validierung der zugrundeliegenden KI-basierten Prädiktionsmethoden
- Entwicklung eines Assistenzsystems für die Kommunikation zwischen Bediener und Maschine
- Bereitstellung von Handlungsmaßnahmen auf Basis der Ergebnisse von prädiktiven KI-Methoden
Thesis Committee:
Prof. Hölzle (IAT)
Problemstellung:
Im Bereich der Produktion und Produktentwicklung stellen sich spezifische Herausforderungen in Bezug auf Kollaboration und Kommunikation bei der Remote-Zusammenarbeit. Großes Potential haben hier Systeme der Virtuellen oder Augmented Realität (AR/VR, häufig unter dem Begriff Metaverse zusammengefasst) ergänzt durch generative KI-Anwendungen. Zwar existieren spezifische VR-Softwaretools; diese sind jedoch oft isolierte Lösungen, die nur auf den spezifischen Anwendungsfall fokussieren und keine umfassende Unterstützung für kreative Prozesse bieten. Diese Diskrepanz zwischen aktuell vorhandenen Technologien und den tatsächlichen Anforderungen in der Praxis führt zu einer suboptimalen Nutzung der Potenziale von digitalen Werkzeugen im Entwicklungs- und Innovationsprozess. Es fehlt an integrierten virtuellen Tools, die kreative und kollaborative Prozesse in verteilten Teams umfassend und ganzheitlich unterstützen und fördern.
Relevanz der Themenstellung:
Die zunehmende Verbreitung von Remote Work führt zu einem Umbruch in der Arbeitswelt. Insbesondere haben sich Verständnis und Praxis der Kollaboration durch die Möglichkeit, ortsunabhängig zu arbeiten, grundlegend verändert. Gerade Innovation und Produktentwicklung sind von einem hohen Grad an interdisziplinärer Zusammenarbeit geprägt, da komplexe Probleme nur durch das Zusammenspiel verschiedener Fachrichtungen gelöst werden können. Kreativität spielt in diesem Kontext eine zentrale Rolle, um innovative Lösungen zu entwickeln und somit Wettbewerbsvorteile zu sichern. Zur Unterstützung kreativer Prozesse gewinnt die Einbindung digitaler Technologien wie generativer Künstlicher Intelligenz (KI) oder VR/AR Technologien rasant an Bedeutung.
Um in diesem Umfeld kreative Prozesse zu ermöglichen, besteht erheblicher Forschungsbedarf hinsichtlich einer technischen und prozessualen Gestaltung, welche die Einschränkungen der heute verbreiteten Lösungen überwindet.
Wissenschaftliche Fragestellung:
Die zentrale Frage dieser Forschungsarbeit ist, wie die Zusammenarbeit zwischen physischen und virtuellen Akteuren im Produktentwicklungsprozess mit besonderem Augenmerk auf Kreativität und Kollaboration gestaltet werden muss. Um diese Frage zu beantworten, sollen folgende Aspekte untersucht werden:
1. Welche Funktionen muss ein Tool haben, um Kommunikation, Kollaboration und Kreativität auch in Remote-Settings effizient unterstützen zu können?
2. Wie muss eine Benutzeroberfläche für Remote-Settings gestaltet werden, die sowohl verbale als auch non-verbale Interaktionsmöglichkeiten bietet und zugleich eine direkte räumliche Zusammenarbeit unterstützt?
3. Wie können Funktionen der generativen Künstlichen Intelligenz innerhalb des Tools optimal nutzerzentriert zugänglich gemacht und genutzt werden?
4. Wie kann eine technische Systemarchitektur aussehen, die diese Funktionalitäten abbildet und sich zugleich nahtlos in die bestehenden Entwicklungsprozesse integrieren lässt?
5. Welche Kriterien und Metriken können zur Evaluierung des Tools herangezogen werden, insbesondere hinsichtlich visueller Qualität (Umgebung und Avatare) und der Qualität der Interaktion (z.B. Latenz)?
Diese Forschungsarbeit zielt darauf ab, eine innovative Lösung zu entwickeln, welche den Anforderungen moderner Arbeitsumgebungen gerecht wird und gleichzeitig die kreative Kollaboration fördert. Die Untersuchung soll sich darauf konzentrieren, wie technische Systeme und Designprinzipien kombiniert und implementiert werden können, um ein effektives und für Nutzer ansprechendes Werkzeug für verteilte Teams im Engineering zu schaffen.
Thesis Committee:
Prof. Verl (ISW), Prof. Graf (IFSW)
Problemstellung:
Laserbasierte Verfahren bieten große Potentiale im Hinblick auf eine vollständig flexible, universelle und selbstkonfigurierende Produktion komplexer Bauteile (Software-Defined Manufacturing). Hierfür werden entsprechende Fertigungssysteme benötigt, die sich selbstständig auf neue Fertigungsverfahren einstellen und universell verwendbar sind. Ein wichtiger Baustein ist hierbei eine universelle Prozessregelung, die Material- und Prozessparameter unabhängig funktioniert. Im aktuellen Stand der Technik werden Regelungsparameter zum Beispiel für eine Einschweißtiefenregelung oder Höhenregelung beim Drahtauftragschweißen mit einem Messsignal auf jede Schweißaufgabe, vor allem Material aber auch Prozessparameter abhängig manuell optimiert. Dadurch führt eine Änderung wie zum Beispiel ein Materialwechsel aber auch eine Änderung der Schweißaufgabe zu langwierigen Einstellarbeiten am Fertigungssystem mit einem hohen Aufwand.
Relevanz der Themenstellung:
Laserbearbeitungsverfahren haben ein unbestrittenes Potential das Werkzeug für eine individualisierte und funktionsoptimierte Produktgestaltung in Verbindung mit einer ressourceneffizienten Fertigung für die zukünftige industrielle Produktion zu sein. Das Laserstrahlschweißen metallischer Werkstoffe ist ein unverzichtbares Fertigungsverfahren für viele Anwendungen in der Zukunft der Mobilität wie zum Beispiel in der Fertigung von Batteriezellen, Fügeaufgaben in der Herstellung von Elektromotoren aber auch in der Bauteilerstellung durch Verfahren der additiven Fertigung wie dem Laserpulverbettverfahren. In all diesen Bereichen ist die Beherrschung des Schweißprozesses die Grundvoraussetzung für eine effiziente und hochqualitative Produktion. Als produktionstechnisches Verfahren ist die Laserbearbeitung im thematischen Kern der GSaME angesiedelt und das Thema entspricht mit dem interdisziplinären Forschungsbedarf deren wissenschaftlichen Anspruch.
Wissenschaftliche Fragestellung:
Wie kann unter Verwendung von selbstlernenden Algorithmen ein universelles Regelungssystem
d.h. mindestens Material und Prozessparameter aber auch vielleicht verfahrensunabhängige Methode zur Prozessregelung entwickelt werden? Dafür soll auf Basis etablierter Messverfahren beginnend mit einfachen Regelaufgaben wie der Einschweißtiefenregelung beim Laserstrahlschweißen oder der Höhenregelung beim Laserdrahtauftragschweißen ein Regelsystem entwickelt werden, dass sich selbstständig auf die Änderungen der Messsignale und Prozessdynamik bei unterschiedlichen Materialien und Prozessparametern einstellt. Dazu ist es notwendig die Unterschiede in der Signalerfassung und die Änderung der Prozessdynamik experimentell zu bestimmen und beim Entwurf des Regelungssystems zu berücksichtigen. Dazu stehen moderne Bildgebungsverfahren in der Prozessanalytik wie zum Beispiel die am IFSW verfügbare Röntgendiagnostik, modernste High-Speed Videoverfahren mit bis zu 100.000 Bildern pro Sekunde mit hoher räumlicher Auflösung aber auch Experimente an Großforschungsanalagen wie dem Deutschen Elektronen Synchrotron (DESY) zur Verfügung.