Die Linearitätsanalyse von Successive-Approximation-Register (SAR)-Analog-Digital-Wandlern (ADCs) ist eine zentrale Aufgabe der Mixed-Signal-Verifikation, doch herkömmliche Methoden – Rampen- bzw. Sinushistogramm-Tests – erfordern Millionen von Messwerten und teure, hochlineare Stimulusquellen. Aktuelle modellbasierte Verfahren wie uSMILE senken die benötigte Sample-Zahl erheblich, sind jedoch auf Offline-Nachbearbeitung angewiesen. Um die Echtzeit-Prüfung zu verbessern, wurde eine adaptive Messsequenzierung mit einem erweiterten Kalman-Filter (EKF) entwickelt, die ohne Nachbearbeitung eine INL-Genauigkeit von unter 0,2 LSB in weniger als 70 ms erzielt.
Aktueller Stand
Ein Verhaltensmodell eines SAR-ADCs wurde in C implementiert. Simulierte ADC-Tests wurden sowohl mit herkömmlichen Histogrammverfahren als auch mit dem neuen Ansatz durchgeführt. Die USER-SMILE-Methode ist bislang noch nicht umgesetzt. Stimulus-Fehlerkorrektur und segmentierte INL-Identifikationsroutinen sind im C-Testframework bisher nicht verfügbar.
Ziel dieser Masterarbeit ist es, den USMILE-SAR-ADC-Test in die bestehende C-basierte Simulation zu integrieren und zu benchmarken, um einen direkten Leistungsvergleich hinsichtlich Genauigkeit, Prüfzeit und Stimulusanforderungen zu ermöglichen.
Aufgaben
Im Rahmen dieser Arbeit werden folgende Aufgaben gefordert:
1. Literaturrecherche zu
a. USMILE-Methodik: Segmentierte INL-Modellanpassung
b. SAR-ADC-Nichtidealitäten und Verhaltensmodellierung in C
2. Entwicklung von C-Modulen für USMILE-Stimuli, einschließlich:
a. Parametrisierbare, ggf. nichtlineare Rampen-/Sinusgeneratoren
b. Offset-Injektion für segmentierte Tests
3. Implementierung des USMILE-Algorithmus in C, bestehend aus:
a. Stimulus-Fehlerkorrektur zur Kompensation von Nonlinearitäten in Spannungsquellen
b. Segmentierte nicht-parametrische INL-Identifikation über MSB/ISB/LSB-Ebenen
c. Berechnung und Formatierung von INL/DNL-Kennwerten
4. Integration und Automatisierung des End-to-End-USMILE-Ablaufs:
a. Automatisiertes aufrufen der Stimulus-Module und des SAR-ADC-Modells
b. Datenerfassung, segmentierte Modellanpassung und Berichtserstellung
5. Simulation, Auswertung und Validierung:
a. Durchführung bei mehreren ADC-Auflösungen (z. B. 12–16 Bit) und Rauschpegeln
b. Quantifizierung der Prüfzeitreduktion sowie der INL-/DNL-Genauigkeit
6. (Optional) Einsatz und Validierung auf einer bestehenden Hardware-Testumgebung:
a. Integration der USMILE-Stimulusgeneratoren und C-basierten Algorithmen mit realer DAC/ADC-Hardware
- Grundlegendes Verständnis der ADC-Funktionalität
- Fundierte mathematische Kenntnisse
- Starkes konzeptionelles Verständnis
- Ausgeprägte Programmierkenntnisse (insbesondere in C)
- Erfahrung im Analog- und Mixed-Signal-Design (vorzugsweise)
Thorben Schey
♦
Die Einführung autonomer Fahrzeuge (englisch: AGVs) im öffentlichen Verkehr führt zu einer erhöhten Komplexität der Fahrzeuginteraktionen. Besonders herausfordernd wird es, wenn AGVs gemeinsam mit von Menschen gesteuerten Fahrzeugen (englisch: HDVs) sowie mit teilautonomen Fahrzeugen (englisch: SAVs) im Straßenverkehr aufeinandertreffen. Unterschiede in den Kommunikationsfähigkeiten und der verfügbaren Sensorik führen zu asymmetrischer Information und dynamischer Unsicherheit.
AGVs kommunizieren mit SAVs und nehmen die Umgebung mittels Onboard-Sensorik wahr. Das Verhalten von HDVs müssen sie jedoch ohne direkte Interaktion einschätzen können. AGVs müssen in diesen komplexen Verkehrssituationen zwischen Effizienz und Risiko abwägen.
Ziel dieser Arbeit ist es, die Forschungsfrage zu untersuchen, wie autonome Fahrzeuge in triadischen Konfliktszenarien des öffentlichen Verkehrs Sicherheit gewährleisten können, wenn konkurrierende Risiken und asymmetrische Informationen bestehen.
Das Verhalten von HDVs und SAVs soll probabilistisch modelliert und mit spieltheoretischer Entscheidungsfindung kombiniert werden. Das AGV agiert in der Verkehrsumgebung als strategischer Entscheidungsträger. Sein Verhalten wird durch ein Optimierungsproblem gesteuert das Risiko und Effizienz abwägt.
1. Literaturrecherche:
a. Untersuchung bestehender Ansätze zur Verhaltensmodellierung menschlicher Fahrer und teilautonomer Agenten.
b. Untersuchung probabilistischer Modelle und spieltheoretischer Ansätze im Bereich autonomes Fahren.
2. Verhaltensmodellierung von HDVs: Entwicklung eines Modells zur Beschreibung des Verhaltens von menschlich gesteuerten Fahrzeugen.
3. Entscheidungsfindung für das AGV: Entwurf einer Regelung, die dem AGV erlaubt, auf dynamische Verkehrssituationen zu reagieren.
4. Interaktionsmodellierung: Modellierung der Interaktion zwischen AGV, SAV und HDV in gemischten Verkehrsszenarien unter Berücksichtigung der Unterschiede in Kommunikation und Verhalten.
5. Evaluation und Analyse: Identifikation und Definition geeigneter Evaluations Metriken. Evaluation anhand dieser Metriken.
Vorkenntnisse:
Mathematik & Wahrscheinlichkeitstheorie:
Statistik, Wahrscheinlichkeitsrechnung, Optimierungsprobleme
Programmierung:
• Fortgeschrittene Kenntnisse in Python und/oder C++
• Vertrautheit mit Container Tools wie Docker (optional)
Georgios Katranis
♦
Die Entwicklung und Nutzung von Domain Specific Languages (DSLs) ermöglicht die präzise und strukturierte Modellierung von komplexen Domänenkonzepten. Die manuelle Erstellung von DSL-Modellen aus natürlichsprachlichen Anforderungen, Spezifikationen oder Stakeholder-Beschreibungen ist jedoch zeitaufwendig, fehleranfällig und erfordert tiefgreifende Kenntnisse der jeweiligen DSL-Syntax. Während Large Language Models beeindruckende Fähigkeiten im Verstehen und Verarbeiten natürlicher Sprache zeigen, ist die direkte Generierung syntaktisch korrekter DSL-Ausgaben aufgrund der spezifischen grammatikalischen Regeln und semantischen Constraints verschiedener domänenspezifischer Sprachen eine erhebliche Herausforderung. Die Automatisierung dieses Transformationsprozesses von natürlicher Sprache zu formalen DSL-Modellen bietet enormes Potenzial für die Effizienzsteigerung in der Softwareentwicklung und Systemmodellierung. Die zentrale Forschungsfrage liegt in der Entwicklung robuster Methoden, die sowohl die semantischen Zusammenhänge der natürlichen Eingabe korrekt erfassen als auch syntaktisch valide und semantisch korrekte DSL-Ausgaben produzieren können.
In dieser Masterarbeit soll ein System zur automatisierten Transformation natürlichsprachlicher Beschreibungen in domänenspezifische Sprachen entwickelt und evaluiert werden. Als konkreter Anwendungsfall wird die Universal Variability Language (UVL) für Feature-Modellierung verwendet, um die entwickelten Methoden zu implementieren und zu validieren. Zunächst wird eine systematische Analyse bestehender Ansätze zur automatischen DSL-Generierung durchgeführt und ein Evaluationsframework mit Benchmark-Datensätzen erstellt. Anschließend werden verschiedene Transformationsarchitekturen (End-to-End-LLM-Generierung, hybride Systeme mit regelbasierten Komponenten, Template-basierte Verfahren oder mehrstufige Pipelines mit strukturierten Zwischendarstellungen) entwickelt und implementiert. Die entwickelten Systeme werden sowohl hinsichtlich der syntaktischen Korrektheit der generierten DSL-Ausgaben als auch der semantischen Treue zur ursprünglichen natürlichsprachlichen Eingabe evaluiert. Dabei kommen automatisierte Metriken, Parsing-Validierung und qualitative Bewertungen zum Einsatz.
- Grundlagen des Machine Learning und Deep Learning
- Erfahrung mit Python und ML-Frameworks (PyTorch, Transformers, Hugging Face)
- Kenntnisse in Natural Language Processing (insbesondere Large Language Models)
- Verständnis von Programmiersprachen und Syntax-Parsing
Johannes Stuempfle
♦
Diese Arbeit zielt darauf ab, die Genauigkeit der internen Temperaturabschätzung in integrierten Schaltkreisen zu verbessern, indem das konventionelle thermische Modell (T_core = T_ambient + P_diss * R_th) mit Hilfe von Kalman-Filtertechniken erweitert wird. Der derzeitige Ansatz stützt sich auf Wärmewiderstandswerte aus dem Datenblatt, die oft ungenau sind und das dynamische thermische Verhalten nicht berücksichtigen.
Die vorgeschlagene Methode kombiniert Echtzeit-Leistungsmessungen mit begrenzten Temperatursensordaten im Rahmen eines Kalman-Filters, um genauere Temperaturschätzungen zu erhalten.
Durch experimentelle Validierung wird diese Forschung die Verbesserung der Schätzgenauigkeit im Vergleich zu herkömmlichen Methoden quantifizieren und eine praktische Lösung für die Echtzeit-Temperaturüberwachung demonstrieren, die mit der vorhandenen Sensorinfrastruktur implementiert werden kann.
Zu den wichtigsten Forschungsschritten gehören:
-Identifizierung der korrekten thermischen Reaktionscharakteristik durch kontrollierte Experimente
-Entwicklung eines dynamischen thermischen Modells, das kapazitive Effekte berücksichtigt
-Entwurf und Implementierung einer geeigneten Kalman-Filterstruktur
-Charakterisierung der Mess- und Prozessrauschparameter
-Validierung der Leistung des Schätzers unter verschiedenen Betriebsbedingungen
Maurice Artelt
♦
Diese Masterarbeit konzentriert sich auf die Optimierung der Inferenzphase von Graphenverarbeitungsmodellen und geht dabei auf die besonderen Herausforderungen ein, die durch graphenstrukturierte Daten entstehen. Die Forschung zielt darauf ab, die Modellleistung für eine verbesserte Benutzererfahrung zu verbessern und gleichzeitig hardwarespezifische Optimierungen zu erforschen, um eine maximale Effizienz bei graphbasierten Berechnungen zu erreichen.
- Leistungsverbesserung: Entwicklung von Techniken zur Verringerung der Inferenzlatenz und zur Verbesserung des Durchsatzes bei Graphenverarbeitungsmodellen ohne Beeinträchtigung der Genauigkeit oder der Fähigkeiten zur Graphenanalyse.
- Optimierung von Graphenalgorithmen: Untersuchung und Implementierung spezieller Methoden zur Optimierung von Graphenalgorithmen, einschließlich graph traversal, message passing und neighborhood sampling,
- Hardware-Beschleunigung: Erforschung hardwarespezifischer Optimierungen für verschiedene Plattformen (GPUs, TPUs, CPUs, Edge Devices) mit Schwerpunkt auf unregelmäßigen Speicherzugriffsmustern, spärlichen Berechnungen und parallelen Ausführungsstrategien speziell für die Graphenverarbeitung.
- Metriken zur Benutzerfreundlichkeit: Definition und Messung von Metriken für die Benutzererfahrung in Bezug auf die Geschwindigkeit der Graphenmodellinferenz und Erstellung von Benchmarks für reale graphenbasierte Anwendungen.
- Kenntnisse der mathematischen Grundlagen des maschinellen Lernens.
- Beherrschung von mindestens einem Graphenverarbeitungssystem (PyG, DGL, GraphScope).
- Erfahrung mit neuronalen Netzwerkarchitekturen.
- Grundlegende CUDA- oder Triton-Programmierkenntnisse sind von Vorteil.
- Gutes Englisch -> Die Arbeit sollte auf Englisch geschrieben werden.
- Verständnis von Speicherhierarchien und Bandbreiten in Linuxsystemen.
- Programmierkenntnisse in Python, C++ oder Zig.
Sebastian Baum
♦
In dieser Masterarbeit werden Methoden zur Zerlegung geometrischer Strukturen, die als Graphen dargestellt werden, in unabhängige topologische Einheiten untersucht. Durch die Identifizierung natürlicher Grenzen innerhalb geometrischer Graphenstrukturen können diese Einheiten separat bearbeitet werden, wobei die topologische Gesamtintegrität erhalten bleibt.
Du entwickelts Algorithmen zur Identifizierung und Extraktion topologisch kohärenter Subunits aus geometrischen Graphen. Diese Algorithmen müssen wichtige strukturelle Informationen bewahren und gleichzeitig eine unabhängige Verarbeitung der einzelnen Einheiten ermöglichen. Ein großes Problem könnte das Zusammenfügen dieser unabhängigen Einheiten sein. Der Student wird Rekonstruktionsmethoden implementieren und bewerten, die sich von diesen topologischen Einheiten auf komplexere Strukturen verallgemeinern lassen. Die Arbeit wird eine theoretische Analyse der mathematischen Grundlagen des Ansatzes sowie praktische Demonstrationen in Anwendungsbereichen wie der 3D-Simulationsverarbeitung umfassen
- Kenntnisse der mathematischen Grundlagen des maschinellen Lernens.
- Beherrschung von mindestens einem Graphenverarbeitungssystem (PyG, DGL, GraphScope).
- Erfahrung mit neuronalen Netzwerkarchitekturen.
- Gutes Englisch -> Die Arbeit sollte auf Englisch geschrieben werden.
- Programmierkenntnisse in Python, C++ oder Zig.
Sebastian Baum
♦
Testing of AI-based systems such as autonomous vehicles is challenging due to many situations and scenarios. Brute force is expensive and has gaps, as we see in practice. We thus use synthetic data for an AI-driven testing. This data covers real-world scenarios to train autonomous systems in a simulation-based environment. The training success is evaluated in a data loop and enhanced to close blind spots and unknown knowns. This thesis targets to integrate a requirements and test engine to an automated test system.
The goal of the thesis is to integrate existing parts of the system. A fully running system shall be implemented. The integration comprises verification and validation checks for the existing parts. Professional tools such as DOORS shall be used for industry-scale AI-based testing of autonomous systems.
Knowledge in Python
Industry-scale software engineering and tools
Work in a self-independent way
Passionate about clean and good quality code
Capable of integrating your work with other parts of the system
Christof Ebert
♦
Die Anforderungen an Elektronik in Bezug auf die Verlängerung der Wartungs-intervalle und die Lebensdauer steigen. Für die Erfüllung dieser Anforderungen ist eine sehr gute Kenntnis aller beeinflussenden Faktoren notwendig. Die Zusammenhänge sind dabei für den Menschen nur schwer zu entdecken und herzustellen, weshalb Machine Learning eingesetzt werden soll.
Literaturrecherche über die bisherige Verwendung von Hybriden Modellen zur Lebensdauervorhersage in der Literatur
Konzeption einer beispielhaften Anwendung
Prototypische Umsetzung
Vorlesung TMS2 und ZSA
Selbstständiges Arbeiten
Gute Deutschkenntnisse
Gute Englischkenntnisse
Maurice Artelt
♦