Datenkompression von multi-modalen Sensordaten in Abhängigkeit von Strom- und Zeitverbrauch

Themenfeld

Im Rahmen einer Forschungsarbeit entwickelt das IAS ein Sensorsystem für ein Spannwerkzeug, um mithilfe dieser Daten Predictive Maintenance zu implementieren. Diese Spannwerkzeuge haben einen hoch-komplexen Aufbau und bestehen aus vielen einzelnen Komponenten, die zusammen dafür sorgen, dass das eingespannte Element fest in der Drehmaschine sitzt. Eine essentielle Komponente sind Zangen, die das Bauteil in axialer Richtung einspannen. Das Ziel dieser Arbeit besteht darin, die Bewegungsmuster der Zangen zu erfassen und die Daten optimal zu übermitteln, sodass ein Ausfallen der Zangen mithilfe dieser Daten detektiert werden kann.

Aufgabenstellung

Die Optimierung Aufzeichnung und Übertragung dieser Daten stellt ein komplexes Problem dar, das drei diametrale Eigenschaften umfasst:
1. Die Energieeffizienz der Datenübertragung, währenddessen der Microcontroller das ca. dreifache an Energie benötigt.
2. Die Energie und Rechenzeit, die für die Komprimierung der Daten aufgewendet werden müssen. Es ist zu beachten, dass längere Rechenzeiten keine Energieeinsparungen bedeuten.

Vorkenntnisse

Fundiertes Wissen in:
- Informatik
- Mikrocontroller-Programmierung
- Digitale Signalverarbeitung

Ansprechpartner

Sebastian Baum

Style Transfer von Bilddaten für das Training von robusten Bildklassifikationsmodellen

Themenfeld

Modernste Bildmodelle wie Deep Convolutional Neural Networks übertreffen die menschliche Leistung bei Aufgaben wie der Bildklassifizierung. Allerdings ist ihre Leistung anfälliger für Änderungen in den Bilddaten, selbst wenn diese Änderungen gering sind. Aus diesem Grund ist die Robustheit, also die Fähigkeit eines Modells, eine konstante Leistung zu erzielen, wenn es mit beschädigten Daten konfrontiert wird, eine beliebte und anerkannte Forschungsrichtung. Um robuste Modelle zu trainieren, gehören Techniken zur Datenerweiterung zu den effektivsten Methoden. Sie erweitern die Vielfalt der Trainingsdaten und erhöhen in vielen Fällen die Robustheit gegenüber den üblichen zufälligen Verfälschungen. Allerdings sind die verfügbaren Arten der Datenerweiterung begrenzt. Jüngste Studien befassen sich mit dem Austausch der Texturen in den Trainingsbildern, damit die Modelle allgemeingültigere Merkmale aus den Bildern lernen können. Diese Methode des so genannten Style Transfers hat sich für Trainingsdaten im Hinblick auf die Verbesserung der Robustheit der trainierten Modelle als wirksam erwiesen. Immer leistungsfähigere Transfermodelle sowie die potenziell endlose Datenvielfalt an möglichen Bildkombinationen mtoivieren weitere Forschung zu Thema Style Transfer zur Erweiterung von Trainingsdaten.

Aufgabenstellung

Die Aufgabe dieser Masterarbeit besteht darin, angewandte Forschung zu betreiben, um effektive Ansätze für Style Transfer zu finden und zu entwickeln. Das Ziel ist es, die Methoden mit Hinblick auf die Robustheit zu evaluieren, wenn sie für die Trainingsdatenerweiterung beim Training von Bildklassifikatoren eingesetzt werden. Die folgenden Aufgaben sollen durchgeführt werden:
- Literaturrecherche zum Style Transfer oder Texture Transfer bei Bildern für Machine Learning Aufgaben.
- Literatur- und Softwarerepository-Recherche zu Modellen für Style Transfer oder Texture Transfer
- Integration von vielversprechenden Style Transfer Ansätzen in eine bestehende Trainings-Pipeline für Bildklassifikation
- Entwicklung von Methoden für Style Transfer in Trainingsdaten zwischen Bildern sowie aus externen Datensätzen
- Training von Bildklassifikationsmodellen in Pytorch mit und ohne Datenerweiterung mit Style Transfer
- Vergleich der Style Transfer Ansätze untereinander und mit dem Stand der Technik im Hinblick auf die Robustheit gegenüber allgemeinen Bildmanipulationen
- Bewertung und Diskussion der Effektivität der Methoden in Bezug auf Genauigkeit, Robustheit und Rechenaufwand.

Vorkenntnisse

- Python
- Kenntnisse des Datenladens / der Datenverarbeitung in Pipelines für maschinelles Lernen (insbesondere Pytorch)

Ansprechpartner

Georg Siedel

Umgang mit unterschiedlichen Datenstrukturen für KI Anwendungen

Themenfeld

Im Rahmen des SPP2422 "Datengetriebene Prozessmodellierung in der Umformtechnik" ist dem IAS die Aufgabe zugewiesen worden, die Verformung dreidimensionaler Objekte mithilfe künstlicher Intelligenz zu schätzen. Konkret handelt es sich um tiefgezogenes Blech, das die Form einer Dose annimmt. Nach dem Tiefziehvorgang und der Entfernung überschüssigen Materials führt die mechanische Spannung in dem Objekt zu einer elastischen Rückfederung, die eine Verformung des Bauteils bewirkt. Das IAS beabsichtigt im Rahmen des Projekts, diese Rückfederung mittels Machine-Learning-Anwendungen zu erlernen und zu schätzen.

Aufgabenstellung

Eine Herausforderung besteht darin, dass wie in vielen Anwendungen die erste Trainingsphase mithilfe von syntethischen Daten erfolgt und die zweite mit realen. Diese Datenstrukturen unterscheiden sich, weswegen folgende Fragen zu untersuchen sind:
1. Sollten die synthetischen Daten auf die realen Daten abgestimmt werden, sodass sich das Modell nicht anpassen muss?
2. Sollten sich beide Datensätze anpassen und mithilfe von Preprocessing Verfahren eine neue Art der Daten erzeugen, auf das das Modell trainiert wird?
3. Ist es Sinnvoll eine Modell-Architektur zu wählen, die beide Datenstrukturen verarbeitet?

Vorkenntnisse

Belastbares Wissen in:
- Python (Pytorch, Jax, Numpy)
- Künstliche Intelligenz (Deep Learning)
- Mathematik

Ansprechpartner

Sebastian Baum

Konzeptionierung eines Reinforcement-Learning-Ansatzes zur menschgestützten Ursachenanalyse in software-definierten Systemen

Themenfeld

Die moderne Systementwicklung ist geprägt von gestiegenen Kundenanforderungen und einem höheren Markt- und Zeitdruck. Die hierfür notwendigen Innovationen werden einerseits über einen höheren Software-Anteil in Produkten und andererseits über die Vernetzung von immer mehr bisher unabhängigen Systemen geschaffen, wodurch insgesamt heterogene und damit auch komplexere IT-Strukturen entstehen. Dies schlägt sich auch in der Automotive-Industrie nieder, in der über software-definiere Fahrzeuge neue Geschäftsmodelle erschlossen werden. Moderne E/E-Architekturen ermöglichen es dem Fahrzeug, mit seiner Umwelt zu kommunizieren sowie Daten während des Betriebs sammeln, die von den Herstellern anschließend zur Verbesserung der Fahr- oder Komfortdiensten genutzt werden können.

Zur Realisierung einer solchen Datenschleife ist eine automatisierte Analyse der sich im Betrieb befindlichen Software von zentraler Bedeutung. Eine zentrale Herausforderung ist dabei die Verknüpfung der im System auftretenden Ereignisse, um die Ursache etwaiger Fehler ermitteln zu können. Konventionelle Ansätze versagen dabei bei der Berücksichtigung von zeitlichem Verhalten sowie Kontextinformationen, die durch einen System-Ingenieur bereitgestellt werden können. Daher soll im Rahmen dieser Arbeit ein Reinforcement-Learning-Ansatz entwickelt werden, über den das Wissen des System-Ingenieurs sowie Informationen über Updates des Systems in die automatisierte Verknüpfung einfließen kann.

Aufgabenstellung

- Analyse existierender Ansätze zur Fehlerursachenanalyse
- Entwicklung eines Reinforcment-Learning-Ansatzes im Kontext einer software-definierten DevOps-Umgebung
- Integration in eine Analyse-Plattform für verteilte Cloud-Systeme
- Evaluierung des Konzepts anhand eines eigenen Datensatzes und dem Vergleich mit konventionellen Verfahren

Vorkenntnisse

- Sehr gute konzeptionelle Fähigkeiten
- Vorkenntnisse im Bereich Deep Learning und Markov-Ketten
- Grundlegende Kenntnisse im Software Engineering und bei IT-Systemen
- Gute Programmierkenntnisse
- Sehr gute Deutsch- und Englischkenntnisse

Ansprechpartner

Matthias Weiss

Konzeptionierung eines Reinforcement-Learning-Ansatzes zur selbst-adaptiven Anomalie-Detektion in software-definierten Systemen

Themenfeld

Die moderne Systementwicklung ist geprägt von gestiegenen Kundenanforderungen und einem höheren Markt- und Zeitdruck. Die hierfür notwendigen Innovationen werden einerseits über einen höheren Software-Anteil in Produkten und andererseits über die Vernetzung von immer mehr bisher unabhängigen Systemen geschaffen, wodurch insgesamt heterogene und damit auch komplexere IT-Strukturen entstehen. Dies schlägt sich auch in der Automotive-Industrie nieder, in der über software-definiere Fahrzeuge neue Geschäftsmodelle erschlossen werden. Moderne E/E-Architekturen ermöglichen es dem Fahrzeug, mit seiner Umwelt zu kommunizieren sowie Daten während des Betriebs sammeln, die von den Herstellern anschließend zur Verbesserung der Fahr- oder Komfortdiensten genutzt werden können.

Zur Realisierung einer solchen Datenschleife ist eine automatisierte Analyse der sich im Betrieb befindlichen Software von zentraler Bedeutung. Damit Änderungen oder aufkommende Fehler frühzeitig detektiert werden können, müssen daher die eingehenden Daten kontinuierlich auf Anomalien untersucht werden. Eine besondere Herausforderung stellt dabei die hohe Systemdynamik dar, die dazu führt, dass die eingesetzten Verfahren zur Anomalie-Detektion kontinuierlich aktualisiert werden müssen, um stets zuverlässige Alarmmeldungen ausgeben zu können. Da dies bisher mit einem hohen manuellen Aufwand verbunden ist, soll im Rahmen dieser Arbeit ein selbst-adaptiver Ansatz entwickelt werden, über den automatisiert geeignete Anomalie-Detektoren anhand der Systemeigenschaften ausgewählt und konfiguriert werden können.

Aufgabenstellung

- Analyse existierender Ansätze zur selbst-adaptiven Anomalie-Detektion
- Entwicklung eines eigenen Ansatzes im Kontext einer software-definierten DevOps-Umgebung
- Integration in eine Analyse-Plattform für verteilte Cloud-Systeme
- Evaluierung des Konzepts anhand eines eigenen Datensatzes und dem Vergleich mit konventionellen Verfahren

Vorkenntnisse

- Sehr gute konzeptionelle Fähigkeiten
- Vorkenntnisse im Bereich Deep Learning und Signalverarbeitung
- Grundlegende Kenntnisse im Software Engineering und bei IT-Systemen
- Programmierkenntnisse in Python
- Gute Deutsch- und Englischkenntnisse

Ansprechpartner

Matthias Weiss

Systematisches Testen von KI-basierten Systemen

Themenfeld

Testing of AI-based systems such as autonomous vehicles is challenging due to many situations and scenarios. Brute force is expensive and has gaps, as we see in practice. We thus use synthetic data for an AI-driven testing. This data covers real-world scenarios to train autonomous systems in a simulation-based environment. The training success is evaluated in a data loop and enhanced to close blind spots and unknown knowns. This thesis targets to integrate a requirements and test engine to an automated test system.

Aufgabenstellung

The goal of the thesis is to integrate existing parts of the system. A fully running system shall be implemented. The integration comprises verification and validation checks for the existing parts. Professional tools such as DOORS shall be used for industry-scale AI-based testing of autonomous systems.

Vorkenntnisse

Knowledge in Python
Industry-scale software engineering and tools
Work in a self-independent way
Passionate about clean and good quality code
Capable of integrating your work with other parts of the system

Ansprechpartner

Christof Ebert

Konstruktion und Realisierung eines Modellprozesses einer PtX-Offshore-Plattform

Themenfeld

Grüner Wasserstoff und Power-to-X-Verfahren (PtX) stellen wichtige Schlüsseltechnologien für die zukünftige Klimaneutralität dar. Durch den Offshore-Betrieb dieser Technologien und die Kombination mit hochdynamischen Winderzeugungsprozessen entstehen neue Herausforderungen, um einen sicheren und wirtschaftlichen verfahrenstechnischen Prozess zu ermöglichen. Am IAS soll dazu ein Modellprozess entwickelt werden, welcher die Präsentation von Konzepten wie etwa Digitaler Zwilling, Prozessleitsystem, etc. ermöglicht.

Aufgabenstellung

- Konstruktion eines transportablen und modularen Modellprozesses
- Berücksichtigung der Infrastruktur der unterschiedlichen zu präsentierenten Konzepte
- Realisierung des konstruierten Modellprozesses

Vorkenntnisse

- CAD-Kenntnisse erforderlich
- Selbstständig & verantwortungsbewusst
- Handwerkliche Geschicklichkeit

Ansprechpartner

Daniel Dittler

Untersuchung von Hybriden-Modellierungsansätzen zur Bestimmung der Restlebensdauer

Themenfeld

Die Anforderungen an Elektronik in Bezug auf die Verlängerung der Wartungs-intervalle und die Lebensdauer steigen. Für die Erfüllung dieser Anforderungen ist eine sehr gute Kenntnis aller beeinflussenden Faktoren notwendig. Die Zusammenhänge sind dabei für den Menschen nur schwer zu entdecken und herzustellen, weshalb Machine Learning eingesetzt werden soll.

Aufgabenstellung

Literaturrecherche über die bisherige Verwendung von Hybriden Modellen zur Lebensdauervorhersage in der Literatur
Konzeption einer beispielhaften Anwendung
Prototypische Umsetzung

Vorkenntnisse

Vorlesung TMS2 und ZSA
Selbstständiges Arbeiten
Gute Deutschkenntnisse
Gute Englischkenntnisse

Ansprechpartner

Maurice Artelt