Kommentar |
Semesterprojekt 1
Mobile Roboter
V. Hafner
In diesem Semesterprojekt werden im Team Hard- und Software zweier mobiler Roboter weiterentwickelt. Der Roboter "Gretchen" ist ein humanoider Roboter für den Einsatz in Forschung und Lehre. Der Roboter "ChalkBot" ist ein mobiler Roboter, der mit Kreide zeichnen kann. Aktuell befinden sich beide Roboter im Prototypstadium. Zu den Aufgaben der Teilnehmer*innen gehören Erweiterung der Hardware und Software, Entwicklung grundlegender Verhaltensweisen und experimentelle Analyse der Roboter.
---------------------------------------------------------------------------------------------
Semesterprojekt 2
Entwicklung einer Process-Mining Issue-Management-Komponente
L. Pfahlsberger
Ziel des Semesterprojektes ist die Konzeption und prototypenhafte Implementierung einer Komponente zum Erfassen, Managen und Überwachen von identifizierten Prozessproblemen innerhalb einer bereits bestehenden Process Mining Software. Bei Process Mining handelt es sich um eine Technologie aus dem Bereich der datengetriebenen Prozessanalyse, bei der mittels extrahierter Operativdaten (z.B. aus ERP oder CRM-Systemen), Prozesse in ihrer ganzen Komplexität automatisch visualisiert und analysiert werden können. Dies ermögliche es Unternehmen die aus der Analyse resultierenden Informationen zu nutzen, um Prozessoptimierungen anzustoßen, die wiederum Geld, Zeit und Personal einsparen.
Der im Zuge dieses Semesterprojektes zu entwickelnde Prototyp soll die Befunde zu Problemen, Schwachstellen, Bottlenecks, etc. aus einer solchen Process Mining Analyse aufgreifen, sodass ein Prozessanalyst in seiner täglichen Arbeit bei der Optimierung der Prozesse bestmöglich unterstützt wird. Des Weiteren soll es auch möglich sein, potenzielle Ergebnisse einer theoretischen Prozessoptimierung zu simulieren oder mittels konkreter Optimierungsvorschläge zu unterstützen.
Das Projekt wird dabei in Kooperation mit einem echten Startup durchgeführt, bei dem die Studenten auch in die bestehenden DevOps-Prozesse und agilen Arbeitsweisen integriert werden. Technologisch wird das Projekt auf den Technologien Java, TypeScript sowie den Frameworks Spring und Angular basieren.
---------------------------------------------------------------------------------------------
Semesterprojekt 3
Modellgetriebene Qualitätsentwicklung
H. Schlingloff
Low-code und No-code-Plattformen sind Software-Entwicklungsumgebungen, bei denen die Entwicklung mit visuellen Applikationsdesign-Werkzeugen statt klassischen textbasierten Programmiersprachen stattfindet. Beim modellbasierten Entwurf erstellt der Entwickler ein abstraktes Modell des Zielsystems, welches dann schrittweise erweitert und in ausführbaren Code transformiert wird. Ein Problem ist in beiden Fällen die Erstellung der Modelle. Diese werden oft von Anwendungsfachleuten ohne fundierte Modellierungs- und Programmierkenntnisse erstellt, was für die nachfolgende Qualitätssicherung oft große Probleme bereitet. In diesem Semesterprojekt soll eine intelligente Unterstützung für den Modellierungsprozess, ein Modellierungs-Chatbot, erstellt werden, der den Benutzer in einem quasi-natürlichsprachlichen Dialog bei der Erstellung der Modelle hilft. Der Leistungsumfang soll dabei von der einfachen Datenerfassung, zum Beispiel in einem medizinischen Bereich, bis hin zum halbautomatischen Verfassen von Schablonen für komplexe Anwendungen reichen, und das System soll auch auf mobilen Plattformen wie z.B. autonomen Robotern und Benutzer-Endgeräten einsetzbar sein. Das Projekt findet in Kooperation und mit Unterstützung des Fraunhofer-Instituts für offene Kommunikationssysteme FOKUS (Christian Hein, Michael Wagner) statt. In dem Projekt lernen die Teilnehmenden, Werkzeuge für die modellbasierte Entwicklung zu realisieren und Benutzungsschnittstellen zu gestalten, und sammeln praktische Erfahrungen mit KI-basierten Dialogsystemen und Kommunikationsrobotern.
---------------------------------------------------------------------------------------------
Semesterprojekt 4
Optimales Routing in Eisenbahnbrettspielen
N. Bojikian
Während der Corona-Zeit hat auch das digitale Spielen von Brettspielen deutlich zugenommen. Dies ist besonders für Spiele interessant, die stark von Computerunterstützung profitieren oder die eine sehr internationale Fangemeinde haben. Beides trifft auf die 18xx genannte Spielefamilie zu, die in den 70ern von Francis Tresham mit dem Spiel 1829 begründet wurde. Hier handeln SpielerInnen mit Aktien von Eisenbahnfirmen, die jeweils durch den/die SpielerIn mit den meisten Anteilen kontrolliert werden. Ein Aspekt dabei ist es, die Züge der jeweiligen Firma optimal im Schienennetz einzusetzen. Beginnend mit 1829, 1830, 1825, ... gibt es mittlerweile wohl über 200 verschiedene 18xx Spiele.
Die open-source Plattform 18xx.games erlaubt das asynchrone und synchrone Spielen von vielen dieser Spiele. Auch die Berechnung der optimalen Routen für die Züge der aktuellen Firma kann dabei vom Computer übernommen werden. Allerdings ist dies sehr langsam (das zugrundeliegende Problem ist NP-schwer) und es gibt einen festen Timeout an dem der Algorithmus aufgibt, oft sind die Routen dann klar suboptimal.
Ziel des Projekts ist eine Verbesserung des Routings für die 18xx.games Plattform. Teilaspekte davon sind: * geeignete Modellierung des Schienennetzes als gewichteten Graph * automatische Konvertierung von Spieldaten in einen gewichteten Graphen * Vorverarbeitung und heuristische bzw. exakte Algorithmen für das Routing entwerfen und umsetzen * (optional) Einbau des verbesserten Routings in 18xx.games
Hinweis: Das Erlernen der Spielregeln dieser Spiele ist nicht Gegenstand des Projekts. Einzig die Regeln für das Routing der Züge müssen diskutiert und verstanden werden.
---------------------------------------------------------------------------------------------
Semesterprojekt 5
Automatisierung der Synchronisation von Software-Varianten
A. Schultheiß
In diesem Semesterprojekt stehen zunächst die Grundlagen statischen Variabilitätsmanagement im Fokus. Ziel ist es einen breiten Überblick über die wichtigsten Techniken und Konzepte statischen Variabilitätsmanagements zu gewinnen; dazu gehören unter anderem Software-Produktlinien, Feature-Modelle, bedingte Kompilierung, Feature-Tracing, Feature-Extraction, und Change Synchronization. Software wird of in mehreren Varianten entwickelt werden, um alle Kundenanforderungen zu erfüllen. Diese Varianten werden häufig nach dem Clone-and-Own-Prinzip entwickelt: Eine neue Variante eines Softwaresystems wird durch Kopieren und Anpassen einer bestehenden Variante erstellt. Während Clone-and-Own sehr flexibel ist und kaum Vorabplanung benötigt, verursacht es langfristig einen hohen Wartungsaufwand, da sich die geklonten Varianten parallel weiterentwickeln. Bestimmte Änderungen - wie z. B. Fehlerkorrekturen oder Erweiterungen gemeinsamen Codes - müssen daher zwischen den Varianten propagiert werden. Zwar existieren Techniken, um Änderungen an einer Quellcodedatei automatisch auf eine andere zu übertragen (z.B. git cherry-pick oder UNIX diff & patch), jedoch sind diese primär für die (parallele) Entwicklung verschiedener Versionen einer einzelnen Variante gedacht; sie berücksichtigen das Ausmaß der Variabilität, die durch Unterschiede im Quellcode der verschiedenen Varianten abgebildet ist, nicht. Im Seminar werden neue Techniken, welche die Synchronisation von Varianten vorantreiben, entworfen, implementiert, und validiert.
---------------------------------------------------------------------------------------------
Semesterprojekt 6
Deep-Learning-Techniken im Designprozess eines Fluoreszenz-Spektrometers
L. Grunske
In diesem Semesterprojekt werden die Grundlagen des maschinellen Lernens erarbeitet, wobei vom einzelnen Neuron aus startend insbesondere Deep-Learning-Techniken wie Multi-Layer-Perceptron, Convolutional-Neural-Network und Autoencoder im Fokus stehen werden. Aktuell kommen künstliche Intelligenzen insbesondere dann zum Einsatz, wenn die Dimensionalität des Problems so groß wird, dass klassische Daten-Analyse-Methoden versagen. Zum Beispiel ist die Anwendung mächtiger Simulationsumgebungen meist dadurch beschränkt, dass die Vielzahl von Simulationsparametern kombiniert mit der benötigten Rechenzeit es unmöglich macht, den gesamten Parameterraum auszuwerten. Das Lösen einer solchen Aufgabenstellung mit maschinellen Lernen wird anhand des Designprozesses eines Fluoreszenz-Spektrometers, das an der Synchrontronstrahlungsquelle BESSY II zum Einsatz kommen soll, erörtert. Dabei wird die K.I. die Entscheidung treffen, welche der großen Anzahl an Designmöglichkeiten (Geometrie, Gittereigenschaften, verwendete Materialien etc.) am Ende zum “optimalen” Spektrometer führt, um Atome und Moleküle sowohl in ihrer räumlichen Struktur als auch in ihrer Zeitdomäne zu untersuchen. |