Thesis Committee:
Prof. Bauernhansl (IFF)
Problem to be investigated:
The design and modeling of exoskeletons has so far followed a rigid methodology in the development process. However, an exoskeleton is designed for its specific use based on the user characteristics. The IFF uses game engines as powerful platforms for the modeling, simulation and visualization of modular mobile production systems. The models developed and integrated in a game engine allow to predict and configure the factory in a dynamically adaptable manner. On the other hand, human modeling was previously developed with special software such as AnyBody Modeling System™, which allows limited direct compatibility with the simulation of other production modules. It is therefore necessary to examine the requirements and methods for developing, personalizing and integrating a human model for simulation and visualization in the context of a modular and mobile factory. In addition, the accuracy of a model or representation needs to be discussed and determined by considering the implications for human and system safety as well as system functionality. An exoskeleton can be worn only by users with similar bodily properties or dimensions in order to ensure its ergonomic, safe and functionally adequate use. As a result, the continuous design based on virtual modeling and simulation of an exoskeleton takes long development times and leads to inflexible results so far.
Relevance of the research tpic:
Game-Engines verbessern kontinuierlich ihre physikalischen Simulationen, was sie zu potenziellen Entwicklungsumgebungen für
Simulationen in verschiedenen Forschungsbereichen macht, in diesem Fall für die individuelle Modellierung des Menschen,
einschließlich des Verhaltens des Muskel-Skelett-Systems und der Interaktion mit anderen Produktionsmodulen. Die Komplexität
der Menschmodellierung wird als besonders anspruchsvoll in der Fabrik betrachtet, da jeder Mensch sehr unterschiedliche,
individuelle Eigenschaften hat. Mittels eines dynamischen Muskel-Skelett-Modellansatzes in einer mit anderen Fabriksystemen
kompatiblen Umgebung können realistische Bewegungen und Kräfte anhand dreidimensionaler Mensch- und
Maschinengeometrien ermittelt werden. Auf diese Weise ist es möglich, den menschlichen Belastung und die Systemleistung zu
berechnen und sogar vorherzusagen und zu prüfen, ob das System die funktionalen, sicherheitstechnischen und ergonomischen
Anforderungen für die Mitarbeiter erfüllt. Das Ziel ist, Entwicklungszeiten von Exoskelett-Prototypen zu reduzieren sowie die
Flexibilität bei der Anpassung und Skalierung eines Exoskeletts und des Modells zu erhöhen.
Bisher wurden inverse kinematische oder vorwärtsgerichtete kinetische Algorithmen für Bewegungsanalysen und Steuerung
verwendet. Im Hinblick auf die Modellierung des Verhaltens von Mensch und Exoskelett ist die Analyse und Validierung des
Forward and Backward Reaching Inverse Kinematics (FABRIK) Algorithmus der University of Cambridge geplant.
Scientific objectives:
▪ Wie kann ein personalisierbares Menschmodell und seine Dynamik im Kontext der modularen,
mobilisierbaren Fabrik modelliert, simuliert und visualisiert werden?
▪ Wie müssen modulare und skalierbare Exoskelette entworfen und modelliert werden?
▪ Welche Anforderungen an game-engine-basierte Modellierung eines menschliches
Muskel-Skelett-System gibt es, um seine Interaktionen mit der Umgebung sowie mit anderen Systemen
geeignet zu modellieren, zu visualisieren und vorherzusagen?
Thesis Committee:
Prof. Bauernhansl (IFF), Prof. Huber (IFF)
Problem to be investigated:
Metamorphic value creation systems consist of a large number of hardware and software modules that are put together to make machines based on orders and can disintegrate again after the task has been completed. The aim of these production systems is to increase the degree of freedom in the system in order to increase flexibility and efficiency. In addition, the so-called vertical added value is made possible. Vertical added value describes the increase in value of the production system through the use of fungible learning outcomes based on the acquisition of production-related information and data that can be obtained in the context of conventional (horizontal) production processes. Due to the frequent reassembly of the modules, quick coupling and decoupling of the modules is desirable for reasons of added value. A wireless ICT interface enables the conversion times to be reduced. Due to the large number of modules as well as the variety and amount of data and information to be transmitted to enable the learning processes necessary for vertical value creation and the necessary safeguarding of error-free and secure data transmission, interfaces are needed that meet production requirements in terms of security and freedom from errors, have not negative influence on other modules, connect to a large number of modules and at the same time transfer a sufficient amount of data.
Relevance of the research tpic:
Derzeit gibt es verschiedene Ansätze an modularen Schnittstellen wie Plug’n‘Produce. Kabellose Verbindungen sind derzeit mit 5G
und NFC ebenfalls in der Erforschung. Jedoch beziehen die bestehenden Ansätze die Voraussetzung des maschinellen Lernens
bei Übermittlung von Steuerungsinformationen nicht in ausreichendem Maße mit ein. In Bezug auf metamorphe
Produktionssysteme stellt diese Fragestellung eine entscheidende Grundlage dar.
Scientific objectives:
▪ Welche Anforderungen an ad-hoc einsetzbare, kabellose Schnittstellen gibt es für die metamorphe
Produktion?
▪ Welche Daten und Informationen sind im Rahmen der vertikalen Wertschöpfung zu übertragen?
▪ Welche Rahmenbedingungen ergeben sich unter Bezug auch Safety und Security?
▪ Wie können diese Daten und Informationen kabellos übertragen werden?
Thesis Committee:
Prof. Bauernhansl (IFF)
Problem to be investigated:
Exoskeletons in therapeutic use can improve human motor function by assisting movement through complementary joint moments, thereby enabling a greater range of motion. Studies show that great therapeutic effects can be achieved with assistive exoskeletons in the rehabilitation of stroke patients with motor disabilities. For effective therapy, the exoskeleton would need to run with adaptive force support and optimally adjust to muscle force changes in real time so that the flaccid muscles are efficiently trained with/without stimulation by arm movements. If too much support is provided, the training effect would diminish. This optimization problem of controlling the support output of an exoskeleton must be done with the muscular force output of the dysfunctional joint. A personalized neuromuscular adaptive real-time adjustment of the exoskeleton to the joint function of the paralyzed arm is currently not possible because there is no physically based patient-specific muscle force determination from biomechanical simulations that can realistically determine the dynamic joint resistance in real time from all muscle forces involved in the joint in a three-dimensional resolution.
Relevance of the research tpic:
Die derzeit eingesetzten MKS-Softwares für Menschmodellierung und die damit simulierte Interaktion mit dem Exoskelett basieren
auf stark idealisierten 1-D Modellen und können die tatsächliche Realität des 3D-Problems des muskuloskelettalen Systems nicht
abbilden. Aufgrund der starken Abweichungen der berechneten Muskelkraftwerte und der Reduktion der Modelkomplexität von 3D
auf 1D sind die MKS-Modelle nicht für eine personalisierte Auslegung für eine Armsteuerung anwendbar. Die Modellreduktion führt
zu unphysikalischen Ergebnissen, da das Muskelgewebematerial mit anisotropen Eigenschaften durch die Fiederung und mit
komplexer 3D-Geometrie ein nichtlineares kontinuumsmechanisches Problem darstellt, welches sich nicht realistisch in ein 1-D
Modell reduzieren lässt. Es kommt noch hinzu, dass die extrem wichtige Fixierung der Muskeln an den Knochenstrukturen von
MKS nur sehr rudimentär mit einem linearen 1D-Muskelverlauf approximiert wird, die zu falschen Muskelkraft-Gelenkbewegungs-
Beziehungen führen. Nur durch einen 3D-FE-vorwärts-dynamischen muskuloskelettalen Modellansatz mit exakten
Muskelgeometrien lassen sich realistische Bewegungen und Muskelkräfte bestimmen. Damit könnte durch eine mechanische
Strukturkopplung mit dem Exoskelett und der physiologischen EMG-Messungen der aktiven Muskeln die-Reglung des Exoskeletts
für eine personalisierte Therapie genau auf den dysfunktionalen Arm des Schlaganfallpatienten dynamisch adaptiv ausgelegt
werden, welches mit MKS-Methoden so nicht möglich ist.
Scientific objectives:
Die computergestützte Simulation der neuromuskulären Erkrankung des Armes, die durch einen Schlaganfall hervorgerufen wird,
beinhaltet sowohl eine methodische also auch eine softwaretechnische Herausforderung. Es gibt bisher keine publizierte 3D-FESimulation
von komplexen Muskel-Gelenk-Systemen mit einem vorwärtsdynamischen Ansatz der Armbewegung, die durch
geregelte Muskelaktivierung erfolgt. Allerdings sind diese 3D-Simulationsergebnisse der muskelkraftgetriebenen Bewegungen des
Arms essentiell, um die Interaktion mit dem Exoskelett zu analysieren und dessen Funktion daraufhin zu regeln. Die realitätsnahe
Lösung des biomechanischen Simulationsproblems des Ellenbogengelenks mit einem 3D-Multi-Muskel-System erfordert zum
einen Kenntnisse in der Physiologie des Arms und zum anderen in der nichtlinearen 3D-Kontinuumsmechanik sowie in effizienten
Optimierungsverfahren für die Bestimmung der Muskelaktivierungen und der Regelungstechnik zur Auslegung des Exoskeletts für
die Armunterstützung.
Zu allererst muss die muskuläre Dysfunktion des Arms eines Patienten bestimmt werden, die methodisch in zwei Schritten
aufgeteilt ist: Im ersten Schritt soll das vorgespannte Muskelsystem am Gelenk (passive Steifigkeiten des Ellenbogengelenks)
ermittelt werden. Die Vordehnung der Muskeln ist in zweierlei Aspekten relevant. Zum einen wird damit die statische
Gelenksteifigkeit bestimmt und zum anderen folgt aus der Muskelvordehnung die maximal mobilisierbare aktive Muskelkraft. Da
sich die Muskelvordehnungen nach dem Schlaganfall nicht ändert, sind die passiven Steifigkeitseigenschaften der Muskeln erstmal
nicht krankheitsbedingt beeinflusst und können anhand der physiologisch möglichen RoM wie bei einem gesunden Menschen
bestimmt werden. Die Optimierung der Vordehnungen soll über eine META-Modell-basierte Methode auf der Grundlage einer
Sensitivitätsstudie erfolgen. Im zweiten Schritt soll dann ebenfalls META-Modell basiert die Muskelaktivitäten für die muskuläre
Dysfunktion des Armes auf der Basis der gemessenen Bewegungs- und Kraftdaten bestimmt werden. Veränderungen der
Muskelvolumina durch Atrophie haben Einfluss auf die passive Steifigkeit der Muskeln und damit auch auf die Kraftentwicklung.
Durch Ultraschallmessung sollen diese Muskelvolumenänderungen erfasst und die Vordehnungen der Muskeln über die METAModelle
neu in Echtzeit berechnet werden können. Der dritte und letzte Schritt ist der Aufbau der bio-strukturmechanischen
Kopplung des patienten-spezifisch angepassten Simulationsmodels des Arms mit dem Exoskelett, um die Wechselwirkung zu
simulieren. Für die anschließende Sensitivitätsstudie müssen abhängig von der Anzahl von Designparameter große Menge von
Simulationen effizient geplant und auf einem Rechencluster z. B. am HLRS durchgeführt werden. Das Ziel wäre durch Aufnahmen
von EMG-Daten aus den Muskeln und der Position des bewegenden Arms, die als Inputparameter in die META-Modelle eingehen,
für den aktuellen Zustand herrschenden Muskelkräfte zu bestimmen, um daraus für das Exoskelett die erforderliche therapeutische
Unterstützung in Echtzeit zu berechnen und es nachzuregeln.
Thesis Committee:
Prof. Bauernhansl (IFF)
Problem to be investigated:
Biointelligent systems are based on the systematic interaction between bio, hardware and software. While semi-standardized semi-standardized development processes (e.g. V-model) have recently become established in industry in the context of digitalization, the development of biointelligent systems requires new concepts. Besides the 'additional' (partly genetically (partly genetically modified) biological component, whose behavior is difficult to predict, elementary requirements of sustainable design must be considered over the entire life cycle. A coherent framework including a modular toolbox does not exist today.
Relevance of the research tpic:
Das Ziel dieses Projektthemas ist die Entwicklung eines Design-for-Biointelligence-Rahmenwerks, dass künftig als maßgebliches Instrument für Unternehmen bei der systematischen Gestaltung von biointelligenten Produktionssystemen und Produkten dienen soll. Folgende Aufgabenstellungen sind damit verbunden: Initiale Definition von Design-for-Biointelligence (DFB) als modulares Rahmenwerk, Recherche integraler Methoden und Werkzeuge durch systematisches Literature-Review (z.B. mittels PESTEL) und spezifischer Erhebungen im Rahmen von Experteninterviews,Validierung anhand von Fallbeispielen in Forschung und Entwicklung.
Scientific objectives:
Wie kann ein biointelligentes Design für unterschiedliche Systeme (Produkte, Produktion, Region etc.) definiert werden?
Welche Strategien, Methoden und Werkzeuge existieren in der Fachliteratur und industriellen Praxis mit explizitem Bezug zu einem biointelligenten Design?
Wie kann ein Design-for-Biointelligence Rahmenwerk modular gestaltet werden?
Thesis Committee:
Prof. Schuster (BWI)
Problem to be investigated:
Smart contracts in blockchain networks expand the possibilities for contracting. Via the consensus mechanism of the blockchain, conditions that are otherwise not verifiable for market participants become transparent. For example, the successful sale of a final product can also be traced by intermediaries and suppliers. This makes it possible to reference this transaction in contracts and, for example, link a payment to it. On the one hand, the broader information base makes it easier for new players to enter the market by reducing the barriers to entry. On the other hand, however, there is also the risk that it encourages collusion, because secret agreements between competitors can be more easily controlled by the involved parties. For an analysis of this trade-off, see Cong and He (2019). For an introductory overview of smart contracts, see also Schuster, Theissen, and Uhrig-Homburg (2020).
Relevance of the research tpic:
Smart Contracts werden bisher noch nicht auf breiter Basis zur Steuerung von Lieferantennetzwerken eingesetzt. Eine Ursache hierfür ist auch, dass die wichtigen Player (z.B. große Automobilhersteller) ihr Informationsmonopol nicht aufgeben möchten, da die Konsequenzen hieraus nicht vollständig verstanden sind. Hier setzt das vorgeschlagene Forschungsthema an, um herauszuarbeiten, wie der Wettbewerb in solchen Netzwerken aussehen könnte und unter welchen Bedingungen sich hieraus Vorteile für bestimmte Marktteilnehmer ergeben.
Scientific objectives:
In einem ersten Schritt werden, basierend auf dem ökonomischen Modell von Cong und He (2019), verschiedene Use Cases für die Anwendung von dezentralen Blockchain-basierten Smart Contracts in Lieferantenbeziehungen entwickelt. Hierbei liegt ein Fokus auf den regulatorischen Rahmenbedingungen verschiedener Branchen (z.B. Automobilindustrie). In einem zweiten Schritt sollen dann Vorschläge erarbeitet werden, wie solche Blockchain-Netzwerke ausgestaltet werden können, um Wettbewerb zu fördern aber gleichzeitig die Gefahr der Kartellbildung zu reduzieren und Vertraulichkeit in kritischen Bereichen zu erhalten. Hierbei bietet sich dann ggf. auch die Zusammenarbeit mit Industrieunternehmen an, um deren Entscheidungssituationen und Präferenzen noch besser erfassen zu können.
Referenzen:
Cong, L.W. und Z. He. (2019): Blockchain Disruption in Smart Contracts. Review of Financial Studies, 32, S. 1754-1797.
Schuster, P., E. Theissen und M. Uhrig-Homburg (2020): Finanzwirtschaftliche Anwendungen der Blockchain-Technologie. Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung, 72, S. 125-147.
Thesis Committee:
Prof. Mitschang (IPVS), MANN+HUMMEL GmbH
Problem to be investigated:
The advancing digitization of product development processes and the increasing connectivity of systems enable novel types of combinations and analyses of data. In cooperation with an industry partner, the goal of this project is to design, implement, and validate an approach for a data-driven and automated product development process. In this context, a data-driven recommendation system is to be created that suggests parts of a suitable CAD model of the product design for a new customers’ specification. Possible data sources for the recommendation system include historical data on customers' specifications of a requirements management tool, CAD data of completed product development projects, and product classification data of a PLM system. This project takes an interdisciplinary approach to not only address central issues related to data management, business intelligence and Big Data technologies, but also engineering aspects of product development.
Relevance of the research tpic:
Die Nutzung von Daten und Erfahrungen aus bestehenden und abgeschlossenen Projekten ist angesichts der schnelllebigen Produktlebenszyklen ein strategischer Wettbewerbsvorteil. Schnellere und gezielte Datenanalysen sind notwendig, um Kundenanforderungen wie kürzere Antwortzeiten und agiles Arbeiten zu erfüllen. Gleichzeitig erfordern volatile Marktbedingungen entsprechende Aktualität der für Analysen verwendeten Daten. Durch den steigenden Effizienzdruck ist es notwendig, die Produktentwicklung ressourceneffizienter und stärker produktionskostenorientiert aufzustellen, indem schon in der CAD-Modellierung systemseitig datengetriebene, intelligente, d. h. selbststeuernde und selbstoptimierende Ansätze berücksichtigt werden. Die Entwicklung solch datengetriebener Methoden ist ein komplexes und aktuelles Forschungsthema und bewegt sich im Spannungsfeld informationstechnischer, betriebswirtschaftlicher und ingenieurstechnischer Herausforderungen.
Scientific objectives:
Zentrale Aufgaben- und Fragestellungen dieser Arbeit sind:
• Analyse des Produktentstehungsprozesses beim Industriepartner sowie Abgrenzung des Forschungsthemas zu existierenden Ansätzen aus der Literatur.
• Erhebung und Strukturierung existierender Datenquellen und Datencharakteristika in den Prozessen und Systemen des Industriepartners sowie in verwandter Literatur.
• Erarbeitung und Definition generischer Datenanalyseszenarien für ein Empfehlungssystem für CAD-Modelle auf der Grundlage von Datenmanagement- und Big-Data-Technologien
• Ableitung von generischen und methodischen Anforderungen aus den Szenarien, insbesondere hinsichtlich erforderlicher Datenquellen, Datenqualität, Analyseverfahren und Realisierungstechnologien.
• Machbarkeitsuntersuchung der Szenarien anhand der Anforderungen und konkreter Produkte und Produktdesigns des Industriepartners.
• Konzeption eines generischen Ansatzes für ein datengetriebenes Empfehlungssystem für CAD-Modelle und prototypische Implementierung dieses Ansatzes für ausgewählte Szenarien des Industriepartners.
• Validierung des implementierten Ansatzes im Rahmen der ausgewählten Szenarien, z. B. hinsichtlich der Korrektheit und Vollständigkeit der vom datengetriebenen System empfohlenen CAD-Modelle (z. B. Vollständigkeitsgrad von 80%).
Thesis Committee:
Prof. Wagner (ISTE, ESE)
Problem to be investigated:
The DevOps concept has brought a revolution with many benefits in the engineering of web, cloud and enterprise software. It enables faster releases and, thereby, earlier feedback on customer needs and higher productivity because of less friction between development, deployment and operation. In the context of cyber-physical systems, such as in manufacturing, it has been difficult to implement DevOps. The different context conditions such as custom hardware and base software as well as additional quality requirements, especially safety, prevent practitioners from directly applying DevOps in their environment. Especially a key component of successful DevOps has not been brought to cyber-physical systems (CPS): Infrastructure-as-Code (IaC). At present, there are no IaC tools for CPS. We do not know what IaC needs to look like to work in an CPS context.
Relevance of the research tpic:
DevOps wird die vorherrschende Entwicklungsmethode für die meisten Softwareentwicklungsprojekte sein. Der Wettbewerbsvorteil, den es bietet, wird einen starken Einfluss auf den Erfolg von Unternehmen haben, die CPS entwickeln. Daher benötigt auch der Fertigungsbereich effiziente DevOps-Implementierungen und damit IaC. Während viele Initiativen zur Standardisierung der Hardware und Basissoftware in CPS genutzt werden können, spielt kundenspezifische Hardware und Software immer noch eine große Rolle. Auch müssen zusätzliche Anforderungen und Einschränkungen berücksichtigt werden. Eine Integration von allgemeinen DevOps-Prinzipien und -Werkzeugen mit standardisierten Schnittstellen und Komponenten sowie Informationen aus digitalen Zwillingen könnte IaC für industrietaugliches DevOps ermöglichen. Beispielsweise ermöglicht das flexible und vollständig automatisierte Deployment neuer Softwareversionen entweder in Simulations-, Test- oder Produktionshardware ein intensiveres und effizienteres Testen.
Scientific objectives:
Zentrale Aufgaben und Fragestellungen in diesem Projekt sind:
- Analyse bestehender CPS im Fertigungsbereich hinsichtlich ihrer Infrastruktur in Form von Hardware- und Softwarekomponenten sowie der Einsatzanforderungen
- Sammlung von bestehenden Standards für Schnittstellen, Komponenten und Bibliotheken
- Entwicklung eines IaC-Ansatzes für industrietaugliches DevOps, das bestehende Standards, kundenspezifische Hard- und Software, digitale Zwillingsinformationen und spezielle Qualitätsanforderungen einbezieht
- Auswahl eines bestehenden (Open-Source) IaC-Tools und dessen Erweiterung zur Unterstützung des neuen IaC-Ansatzes
- Integration, Verbesserung und Entwicklung von Testfallauswahl- und Testfallgenerierungstechniken, die den IaC-Ansatz nutzen können
- Empirische Evaluierung in kontrollierten Experimenten, Studentenprojekten und industriellen Fallstudien
Thesis Committee:
Prof. Wagner (ISTE, ESE)
Problem to be investigated:
Quantum computing is still in its infancy, but real applications start to appear. Yet, at present, building quantum-enabled software components is a niche for specialists. It has a particular steep learning curve even for engineers already familiar with classical computing and software engineering. The concepts are strongly different and there is no consensus yet how to best program quantum computers. Furthermore, it will be many years until quantum computers will be widespread in the hands of engineers. Instead, they are already available as part of cloud infrastructures. Using these Quantum-as-a-Service (QaaS) offers as well as building quantum software constitutes a huge challenge for engineers in the manufacturing domain. Integrated development environments, libraries for relevant algorithms and means to debug and test are missing.
Relevance of the research tpic:
Quantum computing promises huge improvements in computational problems related to manufacturing. IBM states that “Quantum computing is expected to help develop breakthrough products and services that will disrupt and redefine manufacturing.” They classify uses cases for manufacturing in the areas Discover, Design, Control and Supply. Examples include the simulation and optimization of production flows and robotics scheduling or machine learning using a high number of factors to increase yield. Hence, making this new computational paradigm accessible for engineers in manufacturing can enable new optimizations, simulation and decision-making support impossible on classical computers.
Scientific objectives:
Central tasks and questions related to this project are:
• Detailed analysis of computational problems and applications in manufacturing that fit to the quantum computing paradigm
• Systematic and grey literature review on integrated development environments, debugging and testing for quantum software
• Development of libraries of quantum algorithms for selected problems in manufacturing
• Improvement and integration of existing test and debugging approaches for quantum software into an existing development environment
• Empirical evaluation of the approaches, libraries and tools using controlled experiments with engineers and case studies with student projects and industrial partners
Thesis Committee:
Prof. Riedel (ISW)
Problem to be investigated:
The Digital Twins of product and production face the challenge that once the development process is closed, they do not reflect the real status of production where events as inaccuracy in the product, equipment failures, poor quality or missing compound parts happen continuously. For achieving production resilience a holistic methodology, combining a top-down with a bottom-up approach for capturing real-time product and production parameters through enabling technologies, as 3D-scanning, intelligent sensors, and then embedding them in Digital Twins should be developed. This capturing and embedding process will result in the development of such called "cognitive Digital Twins". Nevertheless, these Digital Twins often rely on history data which can consist of inaccuracies experience. Additionally, the PhD research project is focusing on enabling resilience in Digital Twins through developing a machine learning-based approach for the Digital Twin to self-learn if there is an inaccuracy in the Digital Twin, and to correct the inaccuracy by bringing the Digital Twin to the accurate state. A motivation scenario for the further validation in an innovative set-up of an automated measurement cell, where state-of-the-art robotics technologies, e.g. stationery, collaborative, mobile components, integrated with 3D laser scanning, intelligent sensors, e.g. temperature, pressure, velocity in three axes, represents the core of demonstration activities. Additionally to the discrete-manufacturing scenario in the measurement cell, the realisation and validation of the multi-layer carbon fiber printing process represent the second demonstrator.
Relevance of the research tpic:
Um die kognitiven Digitalen Zwillinge in der betrieblichen Fertigungsumgebung zu implementieren, geht das Projekt in einem Bottom-up-Verfahren vor und adressiert das Thema in zwei kritischen Fertigungsbereichen: 1.) die Produktqualitätssicherung in der diskreten Fertigung, exemplarisch für die modulare Produktion in der Automobilindustrie und 2.) die Prozessqualitätssicherung in der kontinuierlichen Fertigung, exemplarisch für die Überwachung und Optimierung des mehrlagigen Kohlefaserdruckprozesses, für die Luft- und Raumfahrtindustrie. Beide Anwendungen stehen vor der Herausforderung, die Digitalen Modelle der physischen Fertigungseinheiten aus der Fabrikhalle, z.B. Teile, Komponenten, Anlagen, Werkzeuge, Vorrichtungen, menschliche Arbeitskräfte, zumindest nahezu in Echtzeit zum Leben zu erwecken. Die Validierung des entwickelten generischen Ansatzes und der Methodik für zwei spezifische Qualitätsbewertungsszenarien von Produkt und Prozess in ausgewählten Branchen wird für andere Produktionsdomänen und Branchen instanziiert. Auf die Entwicklung eines generischen Ansatzes für einen echtzeitfähigen Digitalen Zwilling in der Fertigung folgt die Entwicklung einer Roadmap für die Migration dieses generischen Ansatzes in andere Branchen und Anwendungsfälle, wie z.B. in der Werkzeugmaschinen-/Ausrüstungsindustrie und in Prozessen, wie bspw. der Logistik, Bearbeitung, etc.
Scientific objectives:
Um den kognitiven Digitalen Zwilling zur Realisierung einer resilienten Produktion/Fabrik zu konzipieren, zu entwickeln und zu validieren, wurden die folgenden wissenschaftlichen und technischen Ziele festgelegt:
Ziel #1: Konzeption und Entwicklung der Referenzmodelle für die Resiliente Produktion. In der Produkt-, Prozess- und Fabrikplanung existieren Referenzmodelle für den Produkt-, Prozess- und Produktionslebenszyklus, in denen Resilienz-Aspekte bisher nur unzureichend berücksichtigt werden. Das Ziel von Ziel #1 ist es, herauszufinden, wie die bestehenden Referenzmodelle um Resilienzindikatoren erweitert werden können und wie die erweiterten Referenzmodelle dann für die angesprochenen Anwendungsfälle zur Verfügung stehen. Damit wird es möglich, die Produktion ganzheitlich unter dem Gesichtspunkt der Resilienz-Merkmale zu bewerten und zu optimieren. Zusätzlich werden spezifische KPIs zur Messung der Performance der Prozessoptimierung und der Resilienz-Leistung entwickelt.
Ziel #2: Methodik für die Umsetzung des Referenzmodells in einem kognitiven Digitalen Zwilling und einer virtuellen Engineering-Umgebung. Das Referenzmodell bildet die Grundlage für die Weiterentwicklung und Implementierung einer neu gestalteten Engineering-Umgebung auf Basis modernster digitaler Fertigungstechnologien, z.B. von Siemens, Dassault Systems. Diese neue Engineering-Umgebung muss sich durch folgende Eigenschaften auszeichnen: offen, erweiterbar, servicebasiert und sicherheitsorientiert. Die Digitalen Zwillinge aller Fabrikobjekte werden um den erfassten Kontext aus dem Echtzeit-Shopfloor erweitert; unterstützt durch 3D-Scanning, drahtlose intelligente Sensorik und digitale Fertigungstechnologien. Der erreichte kognitive Status der Digitalen Zwillinge ermöglicht die Realisierung von Resilienz als Gleichgewicht zwischen Robustheit und Flexibilität.
Ziel #3: Entwurf und Entwicklung eines auf kognitiven Digitalen Zwillinge ausgerichteten Lernassistenzsystems für eine resiliente Produktion. Ziel ist es, ein lernendes und kontextbezogenes Assistenzsystem als Haupt-Enabler für die Erreichung einer resilienten Produktion zu entwickeln. Der Prozessablauf dieses neuen Systems beginnt mit der Erstellung des Digitalen Zwillings aller Fabrikobjekte; Erfassung von Echtzeitdaten aus der Fertigung, Hinzufügung von Kognition zum Digitalen Zwilling, basierend auf der in Ziel #2 entwickelten Methodik; Analyse der aktuellen Daten mit historischen Daten, basierend auf KI und Deep-Learning-Algorithmen; Ausarbeitung und Dokumentation von Maßnahmen für resiliente Prozesse und zur Unterstützung der Entscheidungsfindung.
Ziel #4: Entwicklung eines Ansatzes zum Selbstlernen, wenn es eine Abweichung von der genauen Asset-/Prozessdarstellung im Digitalen Zwilling gibt. Erreicht wird dies durch die Entwicklung eines probabilistischen, risikobasierten Ansatzes, um zu erkennen, woher die Abweichung in der Genauigkeit stammt und um automatisch seine Daten- und Modellquellen zu verstehen. Zusätzlich soll ein auf maschinellem Lernen basierender Ansatz zur Selbstanpassung des Digitalen Zwillings entwickelt werden, um seine Genauigkeit der Repräsentativität zu erhöhen, sowie ein Simulations-Toolkit mit maschinellen Lernfunktionen zur Optimierung der Genauigkeit des Digitalen Zwillings.
Ziel #5: Validierung, inkrementelle Verbesserung und Roadmaps für die Migration des generischen Ansatzes und der Methodik für andere Fertigungsprozesse und Branchen. Die Erreichung der Produktionsresilienz und der Resilienz des Digitalen Zwillings sowie die Prozessoptimierung in den beiden entwickelten Anwendungsfällen wird auf Basis der identifizierten KPIs in Ziel #1 durchgeführt. Es wird ein wissenschaftlich fundierter Validierungsprüfstand erarbeitet. Zusätzlich wird der Einsatz des Konzepts der kognitiven Digitalen Zwillings auch in anderen Fertigungsprozessen und Branchen entwickelt.
Thesis Committee:
Prof. Riedel (ISW)
Problem to be investigated:
For 3D capturing and the reconstruction of existing buildings, various techniques such as laser scanning, the photogrammetric strucutre from motion method or the structured light method already exist. However, for all mentioned techniques, prior planning steps are required before any acquisition and the capturing process itself always has to be performed manually by human resources. Even after capture, many manual steps are still required in various software applications to get from 3D scan to BIM model. For this reason, scan-to-BIM approaches are still associated with comparatively high costs at this point in time. Laser scanning, the main technology currently used for scan-to-BIM approaches, adds significantly to the already high total costs with much higher acquisition costs compared to other capture methods. Further disadvantages arise when using laser scanning to capture small-scale objects, as these have to be captured through multiple scan positions, which requires much more time and thus causes higher costs compared to other capture methods.
Relevance of the research tpic:
Durch den sich stetig weiterentwickelnden technischen Fortschritt von Hard- und Software, ergeben sich für den Bereich des 3D-Scannings ständig neue Anwendungsgebiete. Die immer erschwinglicher werdenden Technologien führen dazu, dass immer mehr Digitalisierung stattfindet. Beispielsweise lassen sich im Industriebereich bestehende Fabrikanlagen mit Laserscanning detailgetreu dreidimensional erfassen. Doch auch der technische Fortschritt im Bereich der Digitalkameras führt dazu, dass immer besser werdende Sensorik und Technik in den Geräten vorzufinden ist, weshalb auch die 3D Scanerfassung mit der Structure from Motion Methode zu sehr guten Ergebnissen führt. Die Anwendungsfälle der erfassten 3D-Daten können letztlich sehr vielfälltig sein. Die hohe Nachfrage nach digitalen Modellen von verschiedensten Objekten bis hin zu gesamten Bestandsgebäuden weckt den Bedarf nach automatisierten Erfassungmethoden, um Zeit und Kosten einsparen zu können.
Scientific objectives:
Ziel des Forschungsprojektes ist es ein autonomes Fahrzeug zu entwickeln, welches weitestgehend automatisiert 3D Scans durchführt, welche anschließend ebenfalls möglichst automatisiert in BIM Modelle überführt werden sollen. Ein stets aktuell gehaltenes digitalles Modell stellt hierbei einen wesentlichen Bestandteil für die sinnvolle Nutzung während der Betriebsphase eines Bestandsgebäudes dar. Auf dieser Grundlage soll das zu entwickelnde System sich auf kamerabasierte 3D Scans stützen, da sich daraus mit geringen Anschaffungskosten, guter Verfügbarkeit und einer teilweise zeitlich effizienteren Erfassung für die Aktualisierung von Bestandsgebäuden im Vergleich zu Laserscans, Vorteile ergeben. Vor dem eigentlichen Scanerfassungsprozess soll zur Erstellung eines Raumplans dieser zunächst abgefahren werden. Abhängig vom Raumplan werden 360° Panoramen erfasst, welche mithilfe von Bilderkennungsalgorithmen aus dem maschinellen Lernen, dabei helfen sollen Navigationsrouten, Kameraparameter und Bildanzahl für spezifische Raumbereiche festzulegen. Mithilfe des zu entwickelten Fahrzeuges und der Programm Automatisierungen soll untersucht werden, inwieweit sich der Scan-to-BIM Prozess automatisieren lässt. Der Ablauf lässt sich grob in die folgenden Schritte einteilen:
Aufnahme, Punktwolkenerzeugung, Klassifizierung und Ableitung in ein BIM Modell
Thesis Committee:
Prof. Riedel (ISW)
Problem to be investigated:
In an operational manufacturing environment, a high volume of heterogeneous data is continuously collected from production and assembly processes, being generated at all levels of manufacturing, starting with the process, workstations, lines, area and site of production to the production network. To achieve flexibility, modularity, and adaptability, the implementation of production Digital Twins is required. In the current era of Industry 4.0, and towards the establishment on the way to Industry 5.0, a Digital Twin capable to benefit from a constant influx of real-time data, enables the reactiveness of production, to dynamic changes. The implementation of a real-time Digital Twin requires a fully automated data acquisition process based on a homogenous and robust database management system. The main challenge represents a scientifically defined, fully automated method to identify, collect, and process all data from heterogeneous data sources and manage it in a secure and reliable environment. Furthermore, the corresponding data acquisition system must benefit from certain flexibility to adapt to new parameters, allowing the process's improvement. Particularly holistic solutions for data acquisition, respectively volatile data and master data, are required. The reduction of the delay between the time of data acquisition and the update of the Digital Twin represents one of the main sub-objectives.
Relevance of the research tpic:
Zur Entwicklung einer effektiven und genauen Methodik, die die Implementierung eines automatisierten Datenerfassungsprozesses für Digital Twins in einer realen Fertigungsumgebung beschreibt, werden in diesem Projekt zwei ähnliche, aber unterschiedliche 3D-Scanverfahren zusammen mit der Verwendung von drahtlosen Sensortechnologien eingesetzt. Erstens ein Top-Down-3D-Laserscan mit feststehenden, an der Wand montierten Laserscannern rund um die Werkshalle und die Arbeitszellen, um allgemeine Daten über das Layout und die Position der Werkselemente zu gewinnen. Zweitens ein flexibler 3D-Laserscan von unten nach oben mit mobilen Robotern und hochpräzisen, an Roboterarmen montierten Laserscannern, um präzise Punktwolkendaten zu erfassen, die die Geometrie und Position wichtiger Fertigungs- oder Prozesselemente beschreiben. Darüber hinaus wird der Datensatz durch alle drahtlosen Sensorsysteme (z.B. Stromverbrauch, Motornutzlasten, Gelenkwinkel, Momentantemperaturen) verbessert, um ein vollständiges Basismodell für Echtzeit-Digital Twins zu generieren. Schließlich wird das Projektthema in zwei kritischen Fertigungsbereichen behandelt: 1) die Produktqualitätssicherung in der diskreten Fertigung, exemplarisch für die modulare Produktion in der Automobilindustrie und 2) die Prozessqualitätssicherung in der kontinuierlichen Fertigung, exemplarisch für die Überwachung und Optimierung des mehrschichtigen Kohlefaserdruckprozesses, für die Luft- und Raumfahrtindustrie.
Scientific objectives:
Das Ziel dieses Projekts ist es, eine robuste und klare Methodik für die Implementierung eines vollautomatischen Datenerfassungsprozesses zu entwickeln, der in der Lage ist, in einer hybriden und heterogenen Umgebung mit Top-Down-, Bottom-Up- und drahtlosen sensorischen datenerzeugenden Technologien Output zu liefern und Input zu und von einem Digitalen Zwilling zu empfangen. Für die Entwicklung und Validierung der Methodik ist eine Reihe von wissenschaftlichen und technischen Zielen geplant, wie folgt:
a) Identifikation des Digitalen Zwillings (Produkt, Prozess, Anlage, Fabrik, z.B. Prozess, Produktionssystem, Produktionsbereich, Linie, Produktionsstandort und schließlich Fabriknetzwerk) kritischer Parameter (z.B. Art, Quelle, Format, Bedeutung), die kontinuierlich in Echtzeit überwacht werden sollen. Das Hauptkonzept hinter der Struktur des Digitalen Zwillings wird durch eine hierarchische Organisation dargestellt, die die wesentlichen Daten mit höherer Priorität bereitstellt und den Digitalen Zwilling in Echtzeit speist. Sie wird es ermöglichen, dass die Simulation der Prozess- und Materialflussbewegungen und -aktivitäten kontinuierlich und ohne externe Eingriffe ablaufen kann. Der zentrale Teil der Datenausgabe wird einen allgemeinen Überblick über den Shopfloor in Echtzeit liefern, während die gesammelten Daten von den Sensoren zweiten Grades und allen anderen IoT-Geräten die diskreten Ereignisse für umfassende Simulationen liefern.
b) Identifizierung der geeigneten Technologie zur Erfassung von Echtzeitdaten (z. B. 3D-Laserscanning, Sicherheitskameraüberwachung, mobile und stationäre lokale Robotersensoren) entsprechend den spezifischen Prozessen (Montage, Produktion oder Logistik). Der Kernvorteil des Ansatzes und der Implementierung des Digitalen Zwillings stellt die Vielseitigkeit und die Fähigkeit dar, jeden der existierenden industriellen Prozesse virtuell zu simulieren; die einzige Einschränkung sind die Ressourcen zur Datenerfassung und die Lieferzeit für die Simulation. Diese Technologien müssen für die Art des zu analysierenden Prozesses, das rechtliche Umfeld für den Datenschutz und die externen Faktoren, die die Sensoren beeinflussen könnten, geeignet sein.
c) Erfassung der In-situ-Prozessparameter als Hauptgrundlage für die Anwendung von Deep-Learning-Algorithmen, gefolgt von einer automatischen Aktualisierung des Digitalen Zwillings. Dies kann durch den Einsatz modernster Modellierungs- und Simulationstechnologien und -systeme erreicht werden, z. B. durch das Siemens-Systemportfolio. Die von den Sensoren gelieferten Daten sind der erste Input in der Datenbank, wo das Programm die Filterpriorität, das Protokoll der Nutzung und die Methode der Implementierung im Digitalen Zwilling festlegt. Die Deep-Learning-Algorithmen verarbeiten den resultierenden Digitalen Zwilling, die Eingabedaten des Sensors und mögliche Korrekturen des Bedieners, wenn der Mensch in der Schleife bleibt, verfeinern die Ergebnisse und sorgen für eine kontinuierliche und inkrementelle Verbesserung.
d) Validierung der Methodik in mindestens zwei Anwendungsfällen, z. B. Qualitätsprüfung und 3D-Kohlefaserdruck. Nachdem das System auf virtueller und empirischer Ebene durch Experimente in einem Labor verifiziert wurde, wird ein Prozess der Integration im realen Leben realisiert. Dieser Schritt dient vor allem der Validierung des Systems und der Optimierung des Datenanalysealgorithmus, der Integration des Digitalen Zwillings und der Verbesserung.
e) Inkrementelle Verbesserung der Methodik und Veröffentlichung in der wissenschaftlichen Gemeinschaft. Als letzter Schritt der Forschung wird die Methode als Werkzeug in eine industrielle Umgebung integriert, für eine Vielzahl von Digitalen Zwillingen getestet und die resultierenden Daten, eine Referenz für das Verfeinerungsverfahren.
Thesis Committee:
Prof. Riedel (ISW), Prof. Herzwurm (BWI - Abt. VIII)
Problem to be investigated:
AI methods often have limited applicability on many manufacturing processes, as the data set that can be
recorded on a single plant in an acceptable amount of time is not large enough to train models. One solution,
especially for SMEs, would be to share the training data or fully trained models, with owners of a similar
equipment or other users facing a similar manufacturing process. However, as preliminary research has
shown, such an approach lacks acceptance, especially among German SMEs in the manufacturing industry,
as data sovereignty is seen as a competitive advantage that should not be available on the market without
control. Promoting such data externalization is, however, expedient to increase the effectiveness of AI
solutions and thus their added value.
Relevance of the research tpic:
Die Relevanz und Anwendbarkeit von KI-Methoden in der Produktion kann anhand verschiedener Beispiele
aufgezeigt werden. Das wohl bekannteste ist die Vorgersage von Wartungsintervallen, besser bekannt unter
dem englichen Begriff "Predictive Maintanance". Darüber hinaus finden sich im Rahmen der Objekterkennung
einige Anwendungen der Qualitätskontrolle und Feinregelung von Prozessen. Darüber hinaus sind weitere
Anwendungen zur Prozessveresserung oder automatisierten Optimierung wie Generierung von
Programmcode im Fokus laufender Forschungsprojekte. Ein Ansatz der dazu führt, dass KMUs eine
Trainingsbasis für KI-Modelle zur Verfügung steht, kann somit als Katalysator für die Forschungs auf dem
gesamten Feld angesehen werden. Der aktuelle Stand der Forschung liefert bisher keine weitreichenden
Erkenntnisse darüber wie KMUs zum Einsatz von KI-Methoden gefördert werden können. Dies deutet auf die
Existenz einer Forschungslücke an der Schnittstelle zwischen Produktion und Wirtschaftsinformatik.
Scientific objectives:
Im Rahmen des Forschungsprojekts sollen in einem ersten Schritt, basierend auf [1], verschiedene
Architekturmodelle abgeleitet werden, die es erlaubten Trainingsdaten die auf industriellen Steuerungen
anfallen und aus diesen Daten trainierte KI-Modelle mit Dritten zu teilen. Hierbei sollen sowohl
Plattformarchitekturen als auch Peer-to-Peer-Architekturen zur datenbasierten Kollaboration [2] untersucht
und insbesondere anhand der Kriterien der Datenhoheit evaluiert werden. In einem zweiten Schritt soll
basierend auf den Architekturmodellen anhand mehrerer Anwendungsfälle (wie z.B. dem
Lichtbogenschweißen) eine Akzeptanzstudie unter potenziellen Industrieanwendern durchgeführt werden. In
das vielversprechendste Architekturmodell sind die Erketnisse der Aktzeptanzstudie zurückzuführen. Für eine
Dissertation über Fakultät 7 soll die Architektur prototypisch umgesetzt und deren Integation in die
Prozessanwendung aufgezeigt werden. Gleichzeitig stellt die prototypische Umsetzung eine Proof-of-Concept-
Validierung dar und lässt sich ebenfalls der gestaltungsorientierten Wirtschaftsinformatik zuordnen. Für eine
Dissertation über Fakultät 10 soll ein Verwertungsmodell für die sich ergebenden KI-basierte Ökosysteme
ausgearbeitet und empirisch bewertet. Dieser Schritt stellt eine Proof-of-Value-Validierung dar.
[1] Schmidt, Alexander, Florian Schellroth, and Oliver Riedel. "Control architecture for embedding
reinforcement learning frameworks on industrial control hardware." Proceedings of the 3rd International
Conference on Applications of Intelligent Systems. 2020.
[2] Schüler F. und Petrik D. "Objectives of Platform Research: A Co-citation and Systematic Literature Review
Analysis." In: Management Digitaler Plattformen. ZfbF-Sonderheft, 75/20, S. 1 - 33
Thesis Committee:
Prof. Möhring (IFW)
Problem to be investigated:
Die spanende Fertigungstechnik unterscheidet das Spanen mit geometrisch bestimmter Schneide (Drehen, Fräsen, Bohren, etc.) und mit geometrisch unbestimmter Schneide (Schleifen, Honen, Läppen, etc.). Die Verfahren mit geometrisch unbestimmter Schneide weisen i.A. eine geringere Zerspanproduktivität auf. Dafür sind sie für das Erreichen höherer Bearbeitungsgenauigkeiten und Oberflächenqualitäten besonders geeignet. Mit ISO-Bearbeitungsgenauigkeiten von IT8 bis IT1 (bzw. Rz von ca. 1 µm) stellen die Schleifverfahren die wichtigste Technologie mit geometrisch unbestimmter Schneide dar. Zur Fein- bzw. Finishbearbeitung werden Schleifverfahren z.B. eingesetzt für Kugellagerlaufflächen, Lagerringe, Lagersitze, Werkzeuge, Turbinenbauteile, Zylinderköpfe, Nockenwellen, Ventilstößel, Dichtungsflächen an Gehäusen und Getriebewellen, Verzahnungen, medizinische Instrumente und Implantate, Formen (z.B. zur Herstellung von Kunststoff- und Glasprodukten, wie bspw. optischen Linsen) u.v.m.; also an Bauteilen, die auch bei hohen Stückzahlen eine gleichbleibend hohe Fertigungsgenauigkeit benötigen, oder aber an individuellen Komponenten mit spezifischen höchst anspruchsvollen Eigenschaften (z.B. Teleskopspiegel). Für die Gewährleistung dieser hohen gleichbleibenden Fertigungsqualitäten, auch bei sich ändernden Prozessbedingungen, bieten sich Überwachungssysteme an, die auf den Methoden der künstlichen Intelligenz (KI) bzw. des Machine Learning (ML) basieren. Aufgrund der undefinierten Schneidenanordnung und -gestalt an Schleifwerkzeugen, dem ebenso weitgehend undefinierten Einsatz von Kühlschmierstoffen, der zeitlichen Änderung der Werkzeugeigenschaften (durch verschiedene Verschleißmechanismen am Werkzeug) sowie der prozessimmanenten Durchführung von Abricht- bzw. Konditionierprozessen am Schleifwerkzeug unterliegt das Schleifen vielfältigsten, z.T. stochastischen, transienten Einflussfaktoren. Über den Materialabtrag am Werkstück und die Herstellung mikro- und makroskaliger geometrischer Eigenschaften hinaus, beeinflusst gerade die Schleifbearbeitung die Oberflächen- und Randzoneneigenschaften, und somit die Funktions- und Leistungsfähigkeit von Bauteilen maßgeblich. Die Beherrschung der multiplen Wirkzusammenhänge zwischen Prozess- und Werkstückcharakteristika stellt noch immer ein grundlagenwissenschaftliches Forschungsgebiet dar und stellt Industrieunternehmen vor extreme Herausforderungen. In der Forschung wurden bislang nur "Ausschnitte" der Gesamtzusammenhänge erfolgreich behandelt. Eine weitgehend autonome Selbstoptimierung von Schleifprozessen unter Berücksichtigung der Gesamtheit der multiplen Wirkzusammenhänge wurde bisher nicht erreicht. Methoden der KI bzw. des ML bieten hier besondere Potenziale, die wirkenden Einflüsse datenbasiert abzubilden, und somit die Umsetzung von Prozessregelungsstrategien zu befähigen.
Relevance of the research tpic:
Die Produktionskosten eines zerspanend zu bearbeitenden Werkstücks werden vor allem durch das Zeitspanvolumen und den zunehmenden Werkzeugverschleiß bzw. durch die dadurch geringer werdende Bearbeitungsqualität bestimmt. Um dem entgegenzuwirken, werden Werkzeuge in der industriellen Praxis in der Regel vorsorglich deutlich zu früh ausgetauscht, was zu einem verschwendeten Standzeitpotential, längeren Rüstzeiten sowie höheren Werkzeugkosten führt. Die Verwendung von KI-gestützten intelligenten Werkzeugmanagement- bzw. Prozessüberwachungssystemen bietet neben der Möglichkeit der Ermittlung eines tieferen Verständnisses der Wirkzusammenhänge innerhalb des Zerspanprozesses, auch das Potenzial, die Standzeit des zugrundeliegenden Werkzeugs optimal auszunutzen.
Künstliche Intelligenz (KI) oder Maschinelles Lernen (ML) bieten dabei die Möglichkeit, das ganzheitliche Verständnis von Zerspanprozessen besser und breiter anwendbar zu gestalten. Nach dem ersten Anlernen der zu erstellenden Modelle kann durch in-situ Messungen mit Hilfe geeigneter Prozess- und Maschinengrößen wie z.B. Schwingungen, akustischen Signalen, oder Prozesskräften der Werkzeugverschleiß während der Zerspanung vorhergesagt werden. Im Umkehrschluss können die zu erwartenden Prozesskräfte sowie -temperaturen bei einem bekannten initialen Verschleißzustand abgeschätzt werden. Weiterhin können die Produktionskosten und Bauteileigenschaften bzw. -genauigkeiten wie Rauheit, Grathöhe, die im Gefüge vorliegende Mikrostruktur bzw. Mikrohärte bei bekannter Auswahl der Prozesseinstellgrößen in Zerspanverfahren vorhergesagt werden. Die Potenziale der Methoden der KI bzw. des ML sind in diesem Bereich der Fertigungstechnik noch nicht vollständig verstanden bzw. ausgeschöpft. Mit Hilfe einer ganzheitlichen Optimierung von Schleifprozessen könnten Ressourcen, Energie und Kosten in erheblichem Umfang eingespart werden, wobei die Bauteilqualität weiterhin gesichert, bzw. sogar erhöht werden kann. Diese Themenstellung ist einerseits grundlagenwissenschaftlich herausfordernd und an den Grenzen des aktuellen Standes des Wissens angesiedelt. Andererseits ergibt sich aus entsprechenden Lösungen ein enormes Umsetzungspotenzial in verschiedenen Industriezweigen.
Scientific objectives:
Aus der oben genannten Themenstellung leitet sich die wissenschaftliche Frage- bzw. Zielstellung des hier betreffenden GSaME-Stipendiums ab. Auf Basis von auszuwählenden Methoden der künstlichen Intelligenz und des Machine Learning sind Prototypen für selbst-optimierende Schleif- und Finish-Prozesse zu entwickeln, zu analysieren und zu erproben. Grundlegend sind hierzu zunächst geeignete Modelle zur ganzheitlichen Abbildung exemplarischer Schleifprozesse zu erstellen. Ein weiteres Teilziel besteht in der Zusammenführung von validierten, prädiktiven (KI-) Methoden zur Beurteilung sowie Vorhersage der Prozess-, Bauteil- und Werkzeugzustände am Beispiel konkreter Schleif- und Finishprozesse sowie von geeigneten Strategien zur Reaktion auf die festgestellten Prozesszustände unter Berücksichtigung von messbaren maschinen- und prozessspezifischen Einflussgrößen und Rahmenbedingungen. Unter den Rahmenbedingungen werden die Art, Anzahl und Anordnung der üblicherweise in Werkzeugmaschinen eingesetzten Sensorik verstanden sowie die Möglichkeit, Daten der Maschinensteuerung zu nutzen. Die Zusammenführung der Beurteilungs-/Vorhersagemethoden und Maßnahmen zur Prozessbeeinflussung soll in Form eines digitalen Assistenzsystems realisiert werden, das neben Modulen zur Datenerfassung, Zustandsbewertung und Handlungsempfehlung auch Schnittstellen zur Kommunikation der Module untereinander sowie mit dem Maschinenbediener beinhaltet. Zusammenfassung der Aufgaben:
- Validierte Erfassung von Prozess-, Maschinen- und Bauteilzuständen bei Schleif- und Finishprozessen unter Verwendung der derzeit in Werkzeugmaschinen üblicherweise eingesetzten Sensorik und verfügbarer Daten- und Signalquellen mit Aufbau einer validierten Messtechnik und Sensorik zur Erfassung notwendiger Daten und Signale
- Ableitung von Korrelationen und Beziehungen aus multisensorisch erfassten Schleif- und Finishprozessen zur Validierung der zugrundeliegenden KI-basierten Prädiktionsmethoden
- Entwicklung eines Assistenzsystems für die Kommunikation zwischen Bediener und Maschine
- Bereitstellung von Handlungsmaßnahmen auf Basis der Ergebnisse von prädiktiven KI-Methoden
Thesis Committee:
Prof. Mehring (IMVT)
Problem to be investigated:
Bremsfeinstaub bildet neben der aus Verbrennungsvorgängen hervorgehenden partikulären Phase den größten Anteil an gesundheitsschädlichen, lungengängigen, aus dem Verkehrsaufkommen hervorgehenden Feinstpartikeln (PM2.5 und kleiner). Größenverteilung und Materialzusammensetzung der Partikel hängen von den Randbedingungen des betrachteten Bremsprozesses und der dabei eingesetzten Materialien ab. Sie sind zudem bedingt durch thermische Einflüsse und Partikel-Partikel Wechselwirkungen in der Gasphase nach Freisetzung durch den Bremsprozess. Die Effektivität eines zur Abscheidung des entstehenden Bremsstaubs eingesetzten Abscheidesystems ist von physikalischen Einflüssen geprägt, die sich über mehrere Größenskalen erstrecken: Makroskopische Strömungsführung am Bremssystem und Strömung der staubbeladenen Luft im Abscheidesystem, Temperaturverhältnisse im Gesamtsystem, Größe und Form der Staubpartikel, Oberflächenbeschaffenheit der Staubpartikel und der Komponenten des Abscheidesystems, insbesondere auch die Makro- und Mikrostruktur eingesetzter Filtermedien.
Die Problemstellung der Arbeit befasst sich mit der Erfassung der relevanten physikalischen Prozesse, die für die Partikelbildung, Partikeldynamik und Partikelabscheidung im Brems- und Abscheidesystem eines Personenkraftwagens relevant sind. Hierbei geht es zunächst um die virtuelle Entwicklung eines geeigneten Prüfstandes, anhand dessen die entsprechenden physikalische Modelle entwickelt, validiert und in ein Gesamtsimulationsmodell umgesetzt werden. Letzteres soll es erlauben, effiziente Bremsstaubabscheidesysteme für zukünftige Kraftfahrzeuge gezielt zu entwickeln.
Relevance of the research tpic:
Feinstaub in der Atemluft stellt neben gasförmigen Schadstoffen ein erhebliches Gesundheitsrisiko dar. Dies gilt insbesondere in innerstädtischen Wohnbezirken aufgrund des dort vorzufindenden erheblichen Verkehrsaufkommens. Entwicklungen zur Reduzierung schädlicher Staubpartikel und insbesondere Feinstaub (PM10 und PM2.5) konzentrierten sich in der Vergangenheit vorwiegend auf die Verbesserung von Verbrennungsmotoren und deren Abgasreinigungsanlagen. Fortschritte in diesem Bereich führten dazu, dass sich heute ein bedeutender Anteil der in der Atemluft befindlichen Kleinstpartikel aus Bremsabrieb, Reifenabrieb und sich von der Fahrbahnoberfläche ablösenden Partikeln ergibt. In Bezug auf die Umweltbelastung durch Bremsabrieb sind insbesondere diejenigen Bereiche von Bedeutung, wo Bremsstaub erzeugt wird, und die sich durch eine hohe Populationsdichte auszeichnen, d.h., an Fußgängerampeln im Straßenverkehr, an Bahnsteigen in Bahnhöfen und den Haltestellen von Straßenbahnen und U-Bahnen.
Trotz des zunehmenden Ausbaus der E-Mobilität und regenerativen Bremssystemen in Elektrofahrzeugen auf Straße und Schiene wird Feinstaub aus Bremsabrieb auch mittelfristig eine Belastung für Mensch und Umwelt darstellen.
Vor diesem Hintergrund verfolgt die vorgegebene Themenstellung: a) die Entwicklung eines repräsentativen virtuellen Prüfstandes, welcher die aerodynamischen und thermischen Bedingungen im Bremsraumbereich eines Pkws genau abbildet (dieser Prüfstand wird vom Industriepartner gebaut und in Betrieb genommen) und b) die Entwicklung geeigneter physikalischer Modelle zur Beschreibung der Bremsstaubbildung, dessen Dynamik im Strömungsfeld und dessen Abscheidung. In Bezug auf b) ist eine sukzessive Vorgehensweise geplant, wobei zunächst von vereinfachten, semi-empirischen Modellbildungen aus, auf komplexere (mehrskalige, multiphysikalische) Modelle zugearbeitet wird. Ziel ist es, ein Gesamtsimulationsmodell bereitzustellen, um in Zukunft effektive, ökologisch und ökonomisch nachhaltige Bremsstaubabscheidesysteme für Anwendungen im Automobilbereich entwickeln zu können.
Scientific objectives:
Die wissenschaftliche Fragestellung befasst sich mit der virtuellen Entwicklung eines geeigneten Prüfstandes für Bremsstaubabscheidesysteme im Pkw-Bereich und der physikalischen Modellierung der Bremsstauberzeugung und Bremsstaubabscheidung . Von besonderem Interesse ist hierbei die Abbildung des Einflusses von auftretenden Temperaturprofilen auf die erzeugten Bremsstaubpartikel und die Partikelverteilung , sowie der Einfluss der Luftführung am Bremssystem und im Abscheidesystem auf Partikelbeladung und Partikelabscheidung.
Thesis Committee:
Prof. Verl (ISW), Prof. Graf (IFSW)
Problem to be investigated:
Laser-based processes offer great potential with regard to a completely flexible, universal and self-configuring production of complex components (software-defined manufacturing). For this, manufacturing systems are needed that can adapt independently to new manufacturing processes and can be used universally. An important component here is universal process control that functions independently of material and process parameters. In the current state of the art, control parameters for, for example, welding depth control or height control in wire build-up welding are manually optimised for every welding task with a measurement signal, above all material but also process parameters dependent. As a result, a modification such as a material change or a change in the welding task leads to lengthy adjustment operations on the production system with a high level of effort.
Relevance of the research tpic:
Laserbearbeitungsverfahren haben ein unbestrittenes Potential das Werkzeug für eine individualisierte und funktionsoptimierte Produktgestaltung in Verbindung mit einer ressourceneffizienten Fertigung für die zukünftige industrielle Produktion zu sein. Das Laserstrahlschweißen metallischer Werkstoffe ist ein unverzichtbares Fertigungsverfahren für viele Anwendungen in der Zukunft der Mobilität wie zum Beispiel in der Fertigung von Batteriezellen, Fügeaufgaben in der Herstellung von Elektromotoren aber auch in der Bauteilerstellung durch Verfahren der additiven Fertigung wie dem Laserpulverbettverfahren. In all diesen Bereichen ist die Beherrschung des Schweißprozesses die Grundvoraussetzung für eine effiziente und hochqualitative Produktion. Als produktionstechnisches Verfahren ist die Laserbearbeitung im thematischen Kern der GSaME angesiedelt und das Thema entspricht mit dem interdisziplinären Forschungsbedarf deren wissenschaftlichen Anspruch.
Scientific objectives:
Wie kann unter Verwendung von selbstlernenden Algorithmen ein universelles Regelungssystem
d.h. mindestens Material und Prozessparameter aber auch vielleicht verfahrensunabhängige Methode zur Prozessregelung entwickelt werden? Dafür soll auf Basis etablierter Messverfahren beginnend mit einfachen Regelaufgaben wie der Einschweißtiefenregelung beim Laserstrahlschweißen oder der Höhenregelung beim Laserdrahtauftragschweißen ein Regelsystem entwickelt werden, dass sich selbstständig auf die Änderungen der Messsignale und Prozessdynamik bei unterschiedlichen Materialien und Prozessparametern einstellt. Dazu ist es notwendig die Unterschiede in der Signalerfassung und die Änderung der Prozessdynamik experimentell zu bestimmen und beim Entwurf des Regelungssystems zu berücksichtigen. Dazu stehen moderne Bildgebungsverfahren in der Prozessanalytik wie zum Beispiel die am IFSW verfügbare Röntgendiagnostik, modernste High-Speed Videoverfahren mit bis zu 100.000 Bildern pro Sekunde mit hoher räumlicher Auflösung aber auch Experimente an Großforschungsanalagen wie dem Deutschen Elektronen Synchrotron (DESY) zur Verfügung.