Michael Philippsen
Prof. Dr. Michael Philippsen
Sekretariat
- Margit Zenk
- Telefon: +49 9131 85-27621
- Mobil: +491746083749
- E-Mail: margit.zenk@fau.de
-
Verifikation und Validierung in der industriellen Praxis
(Projekt aus Eigenmitteln)
Laufzeit: seit 01.01.2022Erkennung von Flaky-Tests auf Basis von Software-Versionsdaten und Testausführungshistorie
Regressionstests werden häufig und aufgrund ihres großen Umfangs zumeist vollautomatisiert ausgeführt. Sie sollen sicherstellen, dass Änderungen an einzelnen Komponenten eines Softwaresystems keine unerwünschten Nebenwirkungen auf das Verhalten von Teilsystemen haben, die von den Modifikationen eigentlich gar nicht betroffen sein sollten. Doch selbst wenn ein Testfall ausschließlich unveränderten Code ausführt, kann es trotzdem vorkommen, dass er manchmal erfolgreich ist und manchmal fehlschlägt. Derartige Tests nennt man "flaky" und die Gründe dafür können sehr vielfältig sein, u.a. Wettlaufsituationen bei nebenläufiger Ausführung oder vorübergehend nicht verfügbare Ressourcen (z.B. Netzwerk oder Datenbanken). Flaky-Tests sind für den Testprozess in jeder Hinsicht ein Ärgernis, denn sie verlangsamen oder unterbrechen sogar die gesamte Testausführung und sie untergraben das Vertrauen in die Testergebnisse: Ist ein Testlauf erfolgreich, kann daraus nicht zwangsläufig geschlossen werden, dass das Programm diesbezüglich wirklich fehlerfrei ist, und schlägt der Test fehl, müssen ggf. teure Ressourcen investiert werden, um das Problem zu reproduzieren und ggf. zu beheben.
Der einfachste Weg, Test-Flakyness zu erkennen, besteht darin, Testfälle wiederholt auf der identischen Code-Basis auszuführen, bis sich das Testergebnis ändert oder mit einer gewissen statistischen Aussagesicherheit davon auszugehen ist, dass der Test nicht "flaky" ist. Im industriellen Umfeld ist dieses Vorgehen jedoch selten möglich, da Integrations- oder Systemtests extrem zeit- und ressourcenaufwendig sein können, z.B. weil sie die Verfügbarkeit spezieller Test-Hardware voraussetzen. Aus diesem Grund ist es wünschenswert, die Klassifikation von Testfällen hinsichtlich Flakyness ohne wiederholte Neuausführung vorzunehmen, sondern dabei ausschließlich auf die bereits verfügbaren Informationen aus den bisherigen Entwicklungs- und Testphasen zurückzugreifen.
Im Jahr 2022 wurden verschiedene sogenannte Black-Box-Verfahren zur Erkennung von Test-Flakyness vergleichend untersucht, in einem realen industriellen Testprozess mit 200 Testfällen evaluiert und in ein praktisches Werkzeug implementiert. Die Klassifikation eines Testfalls erfolgt dabei ausschließlich auf Basis allgemein verfügbarer Informationen aus Versionskontrollsystemen und Testausführungswerkzeugen - also insbesondere ohne aufwändige Analyse der Codebasis oder Überwachung der Testüberdeckung, die im Falle eingebetteter Systeme in den meisten Fällen ohnehin unmöglich wäre. Von den 122 verfügbaren Indikatoren (u.a. z.B. die Testausführungszeit, die Anzahl der Code-Zeilen oder die Anzahl der geänderten Code-Zeilen in den letzten 3, 14 und 54 Tagen) wurden verschiedene Teilmengen extrahiert und ihre Eignung für die Erkennung von Test-Flakyness bei Verwendung unterschiedlicher Verfahren untersucht. Zu diesen Verfahren zählen regelbasierte Methoden (z.B. "ein Test ist flaky, wenn er mind. fünfmal innerhalb des Beobachtungsfensters fehlgeschlagen ist, aber dabei nicht fünfmal hintereinander"), empirische Bewertungen (u.a. die Bestimmung der kumulierten gewichteten "flip rate", also die Häufigkeit des Alternierens zwischen Testerfolg und -fehlschlag) sowie verschiedene Verfahren aus der Domäne des Maschinellen Lernens (u.a. Klassifikationsbäume, Random Forest oder Multi-Layer Perceptrons). Die Verwendung KI-basierter Klassifikatoren zusammen mit dem SHAP-Ansatz zur Erklärbarkeit von KI-Modellen führte zur Bestimmung der wichtigsten vier Indikatoren ("features") für die Bestimmung der Test-Flakyness im konkret untersuchten industriellen Umfeld. Als optimal hat sich dabei das sog. "Gradient Boosting" mit der kompletten Indikatorenmenge herausgestellt (F1-score von 96,5%). Nur marginal niedrigere Accuracy- und Recall-Kennwerte (bei nahezu gleichem F1-score) konnte das gleiche Verfahren mit nur vier ausgewählten Features erzielen.
Synergien von vor- und nachgelagerten Analysemethoden zur Erklärung künstlicher Intelligenz
Der Einsatz künstlicher Intelligenz verbreitet sich rasant und erobert immer neue Domänen des täglichen Lebens. Nicht selten treffen Maschinen dabei auch durchaus kritische Entscheidungen: Bremsen oder Ausweichen beim autonomen Fahren, Kredit(un)würdigkeit privater Personen bzw. von Unternehmen, Diagnose von Krankheiten aus diversen Untersuchungsergebnissen (z.B. Krebserkennung aus CT/MRT-Scans) u.v.m. Damit ein solches System im produktiven Einsatz Vertrauen verdient, muss sichergestellt und nachgewiesen sein, dass die gelernten Entscheidungsregeln korrekt sind und die Realität widerspiegeln. Das Trainieren eines maschinellen Modells selbst ist ein sehr ressourcenintensiver Prozess und die Güte des Ergebnisses ist in der Regel nur mit extrem hohem Aufwand und fundiertem Fachwissen nachträglich quantifizierbar. Der Erfolg und die Qualität des erlernten Modells hängt nicht nur von der Wahl des KI-Verfahrens ab, sondern wird im besonderen Maße vom Umfang und der Güte der Trainingsdaten beeinflusst.
Im Jahr 2022 wurde daher untersucht, welche qualitativen und quantitativen Eigenschaften eine Eingabemenge haben muss ("a-priori-Bewertung"), um damit ein gutes KI-Modell zu erzielen ("a-posteriori-Bewertung"). Dazu wurden verschiedene Bewertungskriterien aus der Literatur vergleichend bewertet und darauf aufbauend vier Basisindikatoren definiert: Repräsentativität, Redundanzfreiheit, Vollständigkeit und Korrektheit. Die zugehörigen Metriken erlauben eine quantitative Bewertung der Trainingsdaten im Vorfeld. Um die Auswirkung schlechter Trainingsdaten auf ein KI-Modell zu untersuchen, wurde mit dem sog. "dSprites"-Datensatz experimentiert, einem verbreiteten Generator für Bilddateien, der bei der Bewertung von Bilderkennungsverfahren eingesetzt wird. Damit wurden gezielt verschiedene Trainingsdatensätze generiert, die sich jeweils in genau einem der vier Basisindikatoren unterscheiden und dabei quantitativ unterschiedliche "a-priori-Güte" haben. Damit wurden jeweils zwei verschiedene KI-Modelle trainiert: Random Forest und Convolutional Neural Networks. Anschließend wurde die Güte der Klassifikation durch das jeweilige Modell anhand der üblichen statistischen Maße (Accuracy, Precision, Recall, F1-score) quantitativ bewertet. Zusätzlich wurde SHAP (ein Verfahren zur Erklärbarkeit von KI-Modellen) genutzt, um die Gründe für eine etwaige Missklassifikation bei schlechter Datenlage zu ermitteln. Wie erwartet, korreliert die Modellqualität mit der Trainigsdatenqualität: Je besser letztere hinsichtlich der vier Basisindikatoren abschneiden, desto genauer klassifiziert das trainierte Modell unbekannte Daten. Eine Besonderheit hat sich jedoch bei der Redundanzfreiheit herausgestellt: Erfolgt die Bewertung eines trainierten Modells mit komplett neuen/unbekannten Eingaben, dann ist die Genauigkeit der Klassifikation teils signifikant schlechter, als wenn die verfügbaren Eingabedaten in einen Trainings- und einen Evaluationsdatensatz geteilt werden: In letzteren Fall suggeriert die a-posteriori-Bewertung irreführend eine höhere Modellqualität.
Few-Shot Out-Of-Domain-Erkennung in der maschinellen Verarbeitung natürlicher Sprache
Die maschinelle Verarbeitung natürlicher Sprache ("Natural Language Processing", kurz NLP) hat viele Anwendungsgebiete, z.B. telefonische oder schriftliche Dialogsystemen (sog. Chat-Bots), die eine Kino-Auskunft erteilen, eine Eintrittskarte buchen, eine Krankmeldung aufnehmen oder Antworten auf diverse Fragen in bestimmten industriellen Abläufen geben. Häufig beteiligen sich derartige Chat-Bots auch in sozialen Medien, um z.B. kritische Äußerungen zu erkennen und ggf. zu moderieren. Mit zunehmendem Fortschritt auf dem Gebiet der künstlichen Intelligenz im Allgemeinen und der NLP im Speziellen, verbreiten sich zunehmend selbstlernende Modelle, die ihr fachliches und sprachliches Wissen erst während des konkreten praktischen Einsatzes dynamisch (und daher meist unüberwacht) ergänzen. Doch derartige Ansätze sind empfänglich für absichtlich oder unabsichtlich bösartige Beeinflussung. Beispiele aus der industriellen Praxis haben gezeigt, dass Chat-Bots schnell z.B. rassistische Äußerungen in sozialen Netzen "erlernen" und anschließend gefährdende extremistische Äußerungen tätigen. Daher ist es von zentraler Bedeutung, dass NLP-basierte Modelle zwischen gültigen "In-Domain (ID)" und ungültigen "Out-Of-Domain (OOD)" Daten (also sowohl Ein- als auch Ausgaben) unterscheiden können. Dazu benötigen die Entwickler eines NLP-Systems für das initiale Training des KI-Modells jedoch eine immense Menge an ID- und OOD-Trainingsdaten. Während erstere schon schwer in hinreichender Menge zu finden sind, ist die a-priori-Wahl der letzteren i.d.R. kaum sinnvoll möglich.
Im Jahr 2022 wurden daher verschiedene Ansätze zur OOD-Erkennung untersucht und vergleichend bewertet, die mit wenigen bis keinen ("few-shot") Trainingsdaten funktionieren. Als Grundlage für die experimentelle Evaluierung diente das derzeit beste und am weitesten verbreitete, Transformer-basierte und vortrainierte Sprachmodell RoBERTa. Zur Verbesserung der OOD-Erkennung wurden u.a. "fine-tuning" eingesetzt und untersucht, wie zuverlässig die Anpassung eines vortrainierten Modells an eine konkrete Domäne funktioniert. Zusätzlich wurden verschiedene Scoring-Verfahren implementiert und evaluiert, um Grenzwerte für die Klassifikation von ID- und OOD-Daten zu bestimmen. Um das Problem der fehlenden Trainingsdaten zu lösen, wurde auch ein Verfahren namens "data augmentation" evaluiert: Dabei wurden mittels GPT3 ("Generative Pretrained Transformer 3", ein autoregressives Sprachmodell, das Deep Learning verwendet, um menschenähnlichen Text zu erzeugen) zusätzliche ID- und OOD-Daten für das Training bzw. die Evaluation von NLP-Modellen generiert.
Anwendung gewichteter Kombinatorik bei der Erzeugung und Auswahl von Parametern und deren Repräsentanten im Software-Test
Einige funktionale Testverfahren (sogenannte Black-Box-Tests), beispielsweise die Äquivalenzklassenmethode oder Grenzwertanalyse, fokussieren sich auf einzelne Parameter. Für diese Parameter ermitteln sie Repräsentanten (Werte oder Klassen von Werten), die im Test zu berücksichtigen sind. Da für die Durchführung von Tests in der Regel nicht nur ein einzelner Parameter, sondern mehrere Parameter benötigt werden, müssen zur Ausführung eines Tests Repräsentanten mehrerer Parameter miteinander kombiniert werden. Üblicherweise werden dazu gut verstandene Kombinationsmethoden verwendet, wie "All Combinations", "Pair-wise" oder "Each choice". Dabei werden Informationen über Gewichte (Attribute wie bspw. die Wichtigkeit oder Priorität) der Parameter und Repräsentanten nicht berücksichtigt, die sich auf die Anzahl der zugehörigen Testfälle (z.B. aufgrund der Wichtigkeit) bzw. auf ihre empfohlene Reihenfolge (im Sinne der Priorisierung) auswirken sollten. Darüber hinaus gibt es im Falle der Äquivalenzklassenmethode Szenarien, bei denen eine Kombination mehrerer ungültiger Klassen in einem Testfall optional explizit gewünscht, gänzlich unerwünscht oder auf eine bestimmte Anzahl beschränkt bleiben sollte, um einerseits Fehlerkombinationen gezielt zu testen, aber andererseits die Fehlerlokalisierung zu vereinfachen. Es besteht Grund zur Annahme, dass durch die Berücksichtigung von derartigen Gewichten und Optionen zielgerichtetere und letztlich effizientere Testfälle abgeleitet werden können.
Im Jahr 2023 wurden daher zunächst bereits bekannte kombinatorische Ansätze untersucht und vergleichend bewertet, die Gewichte bei der Kombination von Parametern oder ihren Werten berücksichtigen. Darauf aufbauend wurde ein neuartiger Ansatz in der Erzeugung und Auswahl von Parametern und deren Repräsentanten im Software-Test entwickelt. Die vorgeschlagene Methode nutzt ein Gewichtungssystem, um individuelle Parameter, deren Äquivalenzklassen und konkrete Repräsentanten dieser Klassen in einer Testfallmenge zu priorisieren. Darüber hinaus können auch jeweils deren Interaktionen gezielt gewichtet werden, um bei Bedarf bestimmte Kombinationen häufiger in der generierten Testfallmenge vorkommen zu lassen. Zur Evaluation des Ansatzes wurde prototypisch eine geeignete Datenstruktur zur Repräsentation der verschiedenen Gewichtungen definiert. Anschließend wurden Bewertungsfunktionen für bestehende Testfallmengen implementiert, um quantitativ bestimmen zu können, wie gut eine Testfallmenge die vorgegebene Kombinatorik erfüllt. In einem weiteren Schritt wurden diese Bewertungsfunktionen in Kombination mit verschiedenen systematischen und heuristischen Verfahren verwendet (SAT-Solver Z3 bzw. Simulated Annealing und Genetische Algorithmen), um neue Testfallmengen passend zur Gewichtung zu generieren oder bestehende Testfallmengen durch Ergänzung fehlender Testfälle dahingehend zu optimieren. In den Versuchsreihen hat Simulated Annealing die schnellsten und besten Ergebnisse ermittelt. Das SAT-Verfahren funktionierte zwar für kleine Problemstellungen, war aber für größere Testfallmengen aufgrund exorbitanter Laufzeiten nicht mehr praxistauglich.
-
Informatik als Grundlage eines erfolgreichen MINT-Studiums entlang der Bildungskette fördern
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.11.2019 - 31.10.2022
Mittelgeber: Bayerisches Staatsministerium für Wissenschaft und Kunst (StMWK) (seit 2018)
URL: https://www.ddi.tf.fau.de/forschung/laufende-projekte/cs4mints-informatik-als-grundlage-eines-erfolgreichen-mint-studiums-entlanDie fortschreitende Digitalisierung verändert neben dem Arbeitsmarkt auch die Bildungslandschaft. Mit Mitteln aus dem DigitalPakt Schule werden u.a. im Zuge des Programms BAYERN DIGITAL II gravierende Veränderungen in der Informatikausbildung vorangetrieben, die wiederum neue Herausforderungen auf den verschiedenen Bildungsebenen mit sich ziehen.
Das Projekt CS4MINTS begegnet eben diesen Herausforderungen entlang der Bildungskette und knüpft an bereits im Rahmen des Projekts MINTerAKTIV gestartete Maßnahmen, wie u.a. der Stärkung der Begegnung zunehmender Heterogenität der Studierenden im Zuge der Einführungsveranstaltung in die Informatik, an.So wird im Zuge der Begabtenförderung das Frühstudium in Informatik aktiv für Mädchen beworben und das Angebot explizit erweitert. Durch frühzeitiges Vorgehen gegen genderspezifische Stereotypen bzgl. Informatik sowie eine Erweiterung des Fortbildungsangebots um gendersensitiven Informatikunterricht in allen Schularten, soll langfristig ein signifikanter Anstieg des Frauenanteils im Fach Informatik erreicht werden.
Durch die Erweiterung des Pflichtfachs Informatik in allen Schulen besteht außerdem ein großer Bedarf an geeigneten Unterrichtskonzepten und einer Stärkung der LehrerInnenbildung. Hierfür soll im Projektzeitraum ein regionales Netzwerk aufgebaut werden, um universitär erarbeitete und evaluierte Unterrichtsideen zur Stärkung von MINT im curricularen und extra-curricularen Rahmen zur Verfügung zu stellen.
Im Jahr 2020 haben wir mit der ersten Pilotierung der Konzeption zur Automatisierung des Feedbacks im Übungsbetrieb der Einführungsveranstaltung in die Informatik begonnen. Dazu wurden die Rückgabewerte der JUnit-Tests von Abgaben analysiert und erste mögliche Fehlerquellen untersucht. Im nächsten Schritt soll eine Möglichkeit ausgearbeitet werden, wie auf Grundlage dieser Rückgabewerte auf Programmierfehler oder Fehlvorstellungen der Studierenden geschlossen werden kann. Ziel dieser Bemühungen ist es schließlich, den Studierenden ein automatisch generiertes, kompetenzorientiertes Feedback zu ermöglichen, welches ihnen nach Abgabe der Programmieraufgaben (oder ggfls. schon während der Erarbeitungsphase) zur Verfügung steht. Das Feedback soll aufzeigen an welcher Stelle Fehler im Programmcode auftraten sowie auf mögliche Ursachen hinweisen.
Im Hinblick auf eine Begegnung von Heterogenität haben wir im Jahr 2020 die Inhalte des Repetitoriums für Informatik (RIP) dem bayerischen Lehrplan verschiedener Schularten gegenübergestellt. Die Inhalte sollen anschließend so angepasst werden, dass StudienanfängerInnen unterschiedlichster Bildungszweige gleiche Chancen haben, mittels des Repetitoriums mögliche Defizite zu erkennen und diese zu beheben. Außerdem wurde im Wintersemester 2020 während der Repetitoriumswoche erstmalig eine tägliche Programmiersprechstunde eingerichtet, in der es den TeilnehmerInnen möglich war Fragen zu stellen sowie Feedback zu den Aufgaben zu erhalten.
Der Einstieg in die Programmierung stellt für viele Studierende eine der großen Hürden zu Beginn des Studiums dar. Um den Programmieranfänger:innen zusätzliches Feedback zu ermöglichen, haben wir im Jahr 2021 das Projekt Feedback+ konzipiert und pilotiert. Im Rahmen von Feedback+ haben die Studierenden die Möglichkeit, Probleme, welche während der Bearbeitung der Übungsaufgaben oder beim Einrichten/Benutzen der Programmierumgebung auftreten, zu dokumentieren und in wöchentlich buchbaren Einzelsprechstunden zusätzliches Feedback zu erhalten. Dazu wurde eine StudOn-Umgebung eingerichtet, in der Probleme systematisch dokumentiert werden können. Eine erste Evaluation in Form von Einzelinterviews mit den teilnehmenden Studierenden lieferte ein durchweg positives Feedback und einen Wunsch auf Fortsetzung des Projektes.
-
Kooperative Exploration und Analyse von Software in einer Virtual/Augmented Reality Appliance
(Drittmittelfinanzierte Gruppenförderung – Teilprojekt)
Titel des Gesamtprojektes: Kooperative Exploration und Analyse von Software in einer Virtual/Augmented Reality Appliance
Laufzeit: 01.09.2018 - 31.12.2022
Mittelgeber: Bundesministerium für Wirtschaft und Technologie (BMWi)
URL: https://www2.cs.fau.de/research/Holoware/Der Aufwand für das Verstehen von Software umfasst in Entwicklungsprojekten bis zu 30% und in Wartungsprojekten bis zu 80% der Programmieraufwände. Deshalb wird in modernen Arbeitsumgebungen zur Software-Entwicklung eine effiziente und effektive Möglichkeit zum Software-Verstehen benötigt. Die dreidimensionale Visualisierung von Software steigert das Verständnis der Sachverhalte deutlich, und damit liegt eine Nutzung von Virtual-Reality-Techniken nahe. Im Rahmen des Holoware Projekts schaffen wir eine Umgebung, in der Software mit Hilfe von VR/AR (Virtual/Augmented Reality) und Technologien der Künstlichen Intelligenz (KI) kooperativ exploriert und analysiert werden kann. In dieser virtuellen Realität wird ein Software-Projekt oder -verbund dreidimensional visualisiert, sodass mehrere Benutzer gleichzeitig die Software gemeinsam und kooperativ erkunden und analysieren können. Verschiedene Nutzer können dabei aus unterschiedlichen Perspektiven und mit unterschiedlich angereicherten Sichten profitieren und erhalten so einen intuitiven Zugang zur Struktur und zum Verhalten der Software. Damit sollen verschiedene Nutzungsszenarien möglich sein, wie z.B. die Anomalieanalyse im Expertenteam, bei der mehrere Domänenexperten gemeinsam eine Laufzeitanomalie der Software analysieren. Sie sehen dabei die selbe statische Struktur der Software, jeder Experte jedoch angereichert mit den für ihn relevanten Detail-Informationen. Im VR-Raum können sie ihre Erkenntnisse kommunizieren und so ihre unterschiedliche Expertise einbringen.Darüber hinaus werden die statischen und dynamischen Eigenschaften des Software-Systems analysiert. Zu den statischen Eigenschaften zählen beispielsweise der Source-Code, statische Aufrufbeziehungen oder auch Metriken wie LoC, zyklomatische Komplexität o. Ä. Dynamische Eigenschaften lassen sich in Logs, Ablaufspuren (Traces), Laufzeitmetriken oder auch Konfigurationen, die zur Laufzeit eingelesen werden, gruppieren. Die Herausforderung liegt darin, diese Vielzahl an Informationen zu aggregieren, analysieren und korrelieren. Es wird eine Anomalie- und Signifikanz-Detektion entwickelt, die sowohl Struktur- als auch Laufzeitauffälligkeiten automatisch erkennt. Zudem wird ein Vorhersagesystem aufgebaut, das Aussagen über die Komponentengesundheit macht. Dadurch kann beispielsweise vorhergesagt werden, welche Komponente gefährdet ist, demnächst auszufallen. Bisher werden die Ablaufspuren um die Log-Einträge angereichert, wodurch ein detailliertes Bild der dynamischen Aufrufbeziehungen entsteht. Diese dynamischen Beziehungen werden auf den statischen Aufrufgraph abgebildet, da sie Aufrufe beschreiben, die aus der statischen Analyse nicht hervorgehen (beispielsweise REST-Aufrufe über mehrere verteilte Komponenten).
Im Jahr 2018 konnten folgende wesentlichen Beiträge geleistet werden:
- Entwicklung eines funktionsfähigen VR-Visualisierungsprototyps zu Demonstrations- und Forschungszwecken.
- Mapping von dynamischer Laufzeitdaten auf die statische Struktur als Grundlage für deren Analyse und Visualisierung.
- Entwurf und Implementierung der Anomalieerkennung von Ablaufspuren durch ein Unsupervised-Learning-Verfahren.
Im Jahr 2019 konnten weitere Verbesserungen erreicht werden:
- Erweiterung des Prototyps um die Darstellung dynamischen Software-Verhaltens.
- Kooperative (Remote-)Nutzung des Visualisierungsprototyps.
- Auswertung von Commit-Nachrichten zur Anomalieerkennung.
- Clustering der Aufrufe eines Systems nach Anwendungsfällen.
In dem Papier "Towards Collaborative and Dynamic Software Visualization in VR", das auf der International Conference on Computer Graphics Theory and Applications (VISIGRAPP) 2020 angenommen wurde, haben wir die Wirksamkeit unseres Prototyps zur Effizienzsteigerung beim Software-Verstehen gezeigt. Im Jahr 2020 wurde unser Papier "A Layered Software City for Dependency Visualization" auf der International Conference on Computer Graphics Theory and Applications (VISIGRAPP) 2021 angenommen und mit dem "Best Paper"-Award ausgezeichnet. Wir konnten belegen, dass das von uns entwickelte Layered Layout für Software-Städte das Analysieren von Software-Architektur vereinfacht und das Standard-Layout bei weitem übertrifft. Der finale Prototyp und die Publikationen, die im Rahmen des Forschungsprojektes entstanden sind, führten zu einem erfolgreichen Projektabschluss.
Nach Auslaufen der offiziellen Projektförderung durften wir in 2021 eine erweiterte Version des Award-Papiers ("Static And Dynamic Dependency Visualization in a Layered Software City") als Zeitschriftenartikel zur Begutachtung einreichen. Hier stellen wir eine Nacht-Ansicht der Stadt vor, in der die dynamischen Aufrufbeziehungen als Bögen visualisiert werden. Wir widmeten uns also einem zentralen, noch offenen Punkt: der Visualisierung von dynamischen Abhängigkeiten. In dem Papier "Trace Visualization within the Software City Metaphor: A Controlled Experiment on Program Comprehension" auf der IEEE Working Conference on Software Visualization (VISSOFT) haben wir dynamische Abhängigkeiten innerhalb der Software-Stadt über Licht-Intensitäten aggregiert dargestellt und konnten zeigen, dass diese Darstellung hilfreicher ist als alle Abhängigkeiten zu zeichnen. Auch für dieses Papier wurden wir zur Einreichung eines erweiterten Artikels "Trace Visualization within the Software City Metaphor: Controlled Experiments on Program Comprehension" zur Begutachtung aufgefordert. Wir zeigen dort eine erweiterte Darstellung dynamischer Abhängigkeiten und färben Bögen basierend auf HTTP Statuscodes.
In 2022 wurden beide Journalbeiträge akzeptiert: "Static And Dynamic Dependency Visualization in a Layered Software City" ist im Springer Nature Computer Science Journal veröffentlicht und "Trace Visualization within the Software City Metaphor: Controlled Experiments on Program Comprehension" wurde für das Information and Software Technology Journal angenommen. Zur Finalisierung von Holoware wurden alle Erweiterungen zu einer Gesamtvisualisierung zusammengefasst. Dazu wurden unterschiedlichen Ansichten verwendet, zwischen denen der Nutzer umschalten kann: in der Tagesansicht kann die Software-Architektur im neuartigen Holoware-Schichten-Layout analysiert werden und in der Nachtansicht werden dynamische Abhängigkeiten dargestellt. Im Rahmen einer Abschlussarbeit wurde Holoware zudem als AR-Visualisierung umgesetzt, sodass sie leicht als Showcase oder im Arbeitsalltag eingesetzt werden kann.
Mitte 2023 wurde das Projekt mit der Dissertation "Visualisierung der Statik, Dynamik und Infrastruktur von Software mit Hilfe der Stadt‐Metapher" final abgeschlossen. Dort werden nochmal alle Aspekte zusammengefasst, die im Rahmen von Holoware untersucht wurden: (a) die Statik des Systems, um die Software-Architektur zu begreifen, (b) die Dynamik des Systems, um die dynamische Abhängigkeiten (z. B. moderner Microservice-Architekturen) zu verstehen, und (c) die Infrastruktur des Systems, um Kosten zu analysieren und das Verständnis des Software‐Betriebs zu fördern. Zudem wurde 2023 noch ein weiterer Anwendungsfall aufgedeckt: der Einsatz von Holoware auf Messen. Durch die Visualisierung der Software ist es einfach, mit anderen Software-Entwicklern ins Gespräch zu kommen, da sofort über die visualisierte Software diskutiert werden kann. Dazu wurde das Setup der AR- und VR-Visualisierung so vereinfacht, dass Holoware jetzt auch ohne große technische Vorkenntnisse gestartet werden kann. Zudem wurde der Kontrast der Visualisierung verbessert, damit Umrisse und Bögen auch bei sehr hellen Lichtverhältnissen noch klar zu erkennen sind. -
Automatisiertes Testen von Übersetzern
(Projekt aus Eigenmitteln)
Laufzeit: seit 01.01.2018
URL: https://www.cs2.tf.fau.de/forschung/projekte/autocomptest/Übersetzer für Programmiersprachen sind äußerst komplexe Anwendungen, an die hohe Korrektheitsanforderungen gestellt werden: Ist ein Übersetzer fehlerhaft (d.h. weicht sein Verhalten vom dem durch die Sprachspezifikation definierten Verhalten ab), so generiert dieser u.U. fehlerhaften Code oder stürzt bei der Übersetzung mit einer Fehlermeldung ab. Solche Fehler in Übersetzern sind oftmals schwer zu bemerken oder zu umgehen. Nutzer erwarten deshalb i.A. eine (möglichst) fehlerfreie Implementierung des verwendeten Übersetzers.Leider lassen sowohl vergangene Forschungsarbeiten als auch Fehlerdatenbanken im Internet vermuten, dass kein real verwendeter Übersetzer fehlerfrei ist. Es wird deshalb an Ansätzen geforscht, mit deren Hilfe die Qualität von Übersetzern gesteigert werden kann. Da die formale Verifikation (also der Beweis der Korrektheit) in der Praxis oftmals nicht möglich oder rentabel ist, zielen viele der Forschungsarbeiten darauf ab, Übersetzer möglichst umfangreich und automatisiert zu testen. In den meisten Fällen erhält der zu testende Übersetzer dabei ein Testprogramm als Eingabe. Anschließend wird das Verhalten des Übersetzers bzw. des von ihm generierten Programms überprüft: Weicht dieses vom erwarteten Verhalten ab (stürzt der Übersetzer also beispielsweise bei einem gültigen Eingabeprogramm mit einer Fehlermeldung ab), so wurde ein Fehler im Übersetzer gefunden. Soll dieser Testvorgang automatisiert stattfinden, ergeben sich drei wesentliche Herausforderungen:
- Woher kommen die Testprogramme, auf die der Übersetzer angewendet wird?
- Was ist das erwartete Verhalten des Übersetzers bzw. des von ihm erzeugten Codes? Wie kann bestimmt werden, ob das tatsächliche Verhalten des Übersetzers korrekt ist?
- Wie können Testprogramme, die einen Fehler im Übersetzer anzeigen, vorbereitet werden, um der Behebung des Fehlers im Übersetzer bestmöglich behilflich zu sein?
Während die wissenschaftliche Literatur diverse Lösungen für die zweite Herausforderung vorstellt, die auch in der Praxis bereits etabliert sind, stellt die automatisierte Generierung zufälliger Testprogramme noch immer eine große Hürde dar. Damit Testprogramme zur Detektion von Fehlern in allen Teilen des Übersetzers verwendet werden können, müssen diese allen Regeln der jeweiligen Programmiersprache genügen, d.h. die Programme müssen syntaktisch und semantisch korrekt (und damit übersetzbar) sein. Auf Grund der Vielzahl an Regeln "echter" Programmiersprachen stellt die Generierung solcher übersetzbarer Programme eine schwierige Aufgabe dar. Dies wird zusätzlich dadurch erschwert, dass das Programmgenerierungsverfahren möglichst effizient arbeiten muss: Die wissenschaftliche Literatur zeigt, dass die Effizienz eines solchen Verfahrens maßgebliche Auswirkungen auf seine Effektivität hat -- nur wenn in kurzer Zeit viele (und große) Programme generiert werden können, kann das Verfahren sinnvoll zur Detektion von Übersetzerfehlern eingesetzt werden.
In der Praxis scheitert das automatisierte Testen von Übersetzern deshalb oftmals daran, dass kein zugeschnittener Programmgenerator verfügbar ist und die Entwicklung eines solchen einen zu hohen Aufwand bedeutet. Ziel unseres Forschungsprojekts ist daher die Entwicklung von Verfahren, die den Aufwand für die Implementierung von effizienten Programmgeneratoren reduzieren.
Weil in der automatische Generierung zufälliger Testprogramme zumeist große Programme generiert werden müssen, um eine effiziente Fehlersuche zu ermöglichen, können diese Programme nur schwer zur Behebung des Fehlers verwendet werden. Üblicherweise ist nur ein sehr kleiner Teil des Programms ursächlich für den Fehler, und möglichst viele anderen Teile müssen automatisch entfernt werden, bevor die Behebung des Fehlers plausibel ist. Diese sogenannte Testfallreduktion nutzt auch die bereits angesprochenen Lösungen für die Erkennung des erwarteten Verhalten und ist für automatisch generierte Programme unerlässlich,
sodass eine gemeinsame Betrachtung mit den anderen Komponenten sinnvoll ist. Üblicherweise ist die Testfallreduktion so gestaltet, dass fehlerauslösende Programm aus allen Quellen verarbeitet werden können.Leider ist oftmals nicht klar, welches der verschiedenen in der wissenschaftlichen Literatur vorgestellten Verfahren sich am besten für welche Situation eignet. Außerdem dauert eine Testfallreduktion in einigen Fällen sehr lange. Ziel unseres Forschungsprojekts ist daher, eine aussagekräftige Testfallsammlung zu schaffen und an dieser bestehende Verfahren zu vergleichen und zu verbessern.
Im Jahr 2018 haben wir mit der Entwicklung eines entsprechenden Werkzeugs begonnen. Als Eingabe dient eine Spezifikation der syntaktischen und semantischen Regeln der jeweiligen Programmiersprache in Form einer abstrakten Attributgrammatik. Eine solche erlaubt eine knappe Notation der Regeln auf hohem Abstraktionsniveau. Ein von uns neu entwickelter Algorithmus erzeugt dann Testprogramme, die allen spezifizierten Regeln genügen. Der Algorithmus nutzt dabei diverse technische Ideen aus, um eine angemessene Laufzeit zu erreichen. Dies ermöglicht die Generierung großer Testfallmengen in vertretbarer Zeit, auch auf üblichen Arbeitsplatzrechnern. Eine erste Evaluation hat nicht nur gezeigt, dass unser Verfahren sowohl effektiv als auch effizient ist, sondern auch dass es flexibel einsetzbar ist. So haben wir mit Hilfe unseres Verfahrens nicht nur Fehler in den C-Übersetzern gcc und clang entdeckt (unser Verfahren erreicht dabei eine ähnliche Fehleraufdeckungsgüte wie ein sprachspezifischer Programmgenerator aus der wissenschaftlichen Literatur), sondern auch diverse Bugs in mehreren SMT-Entscheidern. Einige der von uns entdeckten Fehler waren den jeweiligen Entwicklern zuvor noch unbekannt.
Im Jahr 2019 haben wir zusätzliche Features für das Schreiben von Sprachspezifikationen implementiert und die Effizienz des Programmgenerierungsverfahrens gesteigert. Durch die beiden Beiträge konnte der Durchsatz unseres Werkzeugs deutlich gesteigert werden. Des Weiteren haben wir mit Hilfe neuer Sprachspezifikationen Fehler in Übersetzern für die Programmiersprachen Lua und SQL aufgedeckt. Die Ergebnisse unserer Arbeit sind in eine Ende 2019 eingereichte (und inzwischen angenommene) wissenschaftliche Publikation eingeflossen. Neben der Arbeit an unserem Verfahren zur Programmgenerierung haben wir außerdem mit der Arbeit an einem Verfahren zur Testfallreduzierung begonnen. Das Verfahren reduziert die Größe eines zufällig generierten Testprogramms, das einen Fehler in einem Übersetzer auslöst, um die Suche nach der Ursache des Fehlers zu vereinfachen.
Im Jahr 2020 lag der Fokus des Forschungsprojekts auf sprachunabhängigen Verfahren zur automatischen Testfallreduzierung. Die wissenschaftliche Literatur schlägt unterschiedliche Reduzierungsverfahren vor. Da es bislang allerdings keinen aussagekräftigen Vergleich dieser Verfahren gibt, ist unklar, wie effizient und effektiv die vorgeschlagenen Reduzierungsverfahren tatsächlich sind. Wie wir festgestellt haben, gibt es dafür im Wesentlichen zwei Gründe, die darüber hinaus auch die Entwicklung und Evaluation neuer Verfahren erschweren. Zum einen verwenden die vorhandenen Implementierungen der vorgeschlagenen Reduzierungsverfahren unterschiedliche Implementierungssprachen, Programmrepräsentationen und Eingabegrammatiken. Mit diesen Implementierungen ist ein fairer Vergleich dieser Verfahren deshalb kaum möglich. Zum anderen gibt es keine umfangreiche Sammlung von (noch unreduzierten) Testprogrammen zur Evaluation von Reduzierungsverfahren. Dies hat zur Folge, dass die publizierten Reduzierungsverfahren jeweils nur mit sehr wenigen Testprogrammen evaluiert wurden, was die Aussagekraft der präsentierten Ergebnisse beeinträchtigt. Da in manchen Fällen darüber hinaus nur Testprogramme in einer einzigen Programmiersprache verwendet wurden, ist bislang unklar, wie gut diese Verfahren für Testprogramme in anderen Programmiersprachen funktionieren (wie sprachunabhängig diese Verfahren also tatsächlich sind). Um diese Lücken zu schließen, haben wir im Jahr 2020 mit der Implementierung eines Frameworks begonnen, das die wichtigsten Reduzierungsverfahren beinhaltet und so einen fairen Vergleich dieser Verfahren ermöglicht. Außerdem haben wir mit der Erstellung einer Testfallsammlung begonnen. Diese beinhaltet bereits etwa 300 Testprogramme in den Sprachen C und SMT-LIB 2, die etwa 100 unterschiedliche Fehler in realen Übersetzern auslösen. Diese Testfallsammlung erlaubt nicht nur aussagekräftigere Vergleiche von Reduzierungsverfahren, sondern verringert außerdem den Aufwand für die Evaluation zukünftiger Verfahren. Anhand erster Experimente konnten wir feststellen, dass es bislang kein Reduzierungsverfahren gibt, dass in allen Fällen am besten geeignet ist.
Außerdem haben wir uns im Jahr 2020 mit der Frage beschäftigt, wie das im Rahmen des Forschungsprojekts entstandene Framework zur Generierung zufälliger Testprogramme erweitert werden kann, um neben funktionalen Fehlern auch Performance-Probleme in Übersetzern finden zu können. Im Rahmen einer Abschlussarbeit ist dabei ein Verfahren entstanden, das eine Menge zufällig generierter Programme mit Hilfe von Optimierungstechniken schrittweise so verändert, dass die resultierenden Programme im getesteten Übersetzer deutlich höhere Laufzeiten als in einer Referenzimplementierung auslösen. Erste Experimente haben gezeigt, dass so tatsächlich Performance-Probleme in Übersetzern gefunden werden können.
Im Jahr 2021 haben wir die Implementierung der wichtigsten Reduzierungsverfahren aus der wissenschaftlichen Literatur sowie die Erstellung einer Testfallsammlung für deren Evaluation abgeschlossen. Aufbauend darauf haben wir außerdem einen quantitativen Vergleich der Verfahren durchgeführt; soweit wir wissen, handelt es sich dabei um den mit Abstand umfangreichsten und aussagekräftigsten Vergleich bisheriger Reduzierungsverfahren. Unsere Ergebnisse zeigen, dass es bislang kein Verfahren gibt, das in allen Anwendungsfällen am besten geeignet wäre. Außerdem konnten wir feststellen, dass es für alle Verfahren zu deutlichen Ausreißern kommen kann, und zwar sowohl hinsichtlich Effizienz (also wie schnell ein Reduzierungsverfahren ein Eingabeprogramm reduzieren kann) als auch Effektivität (also wie klein das Ergebnis eines Reduzierungsverfahrens ist). Dies deutet darauf hin, dass es noch Potenzial für die Entwicklung weiterer Reduzierungsverfahren in der Zukunft gibt, und unsere Ergebnisse liefern einige Einsichten, was dabei zu beachten ist. So hat sich beispielsweise gezeigt, dass ein Hochziehen von Knoten im Syntaxbaum unabdingbar für die Generierung möglichst kleiner Ergebnisse (und damit eine hohe Effektivität) ist und dass eine effiziente Behandlung von Listenstrukturen im Syntaxbaum notwendig ist. Die Ergebnisse unserer Arbeit sind in eine im Jahr 2021 eingereichte und angenommene Publikation eingeflossen.
Außerdem haben wir im Jahr 2021 untersucht, ob bzw. wie sich die Effektivität unseres Programmgenerierungsverfahrens steigern lässt, wenn bei der Generierung die Überdeckung der zugrundeliegenden Grammatik berücksichtigt wird. Im Rahmen einer Abschlussarbeit wurden dazu unterschiedliche, aus der wissenschaftlichen Literatur stammende kontextfreie Überdeckungsmetriken für den Anwendungsfall adaptiert sowie implementiert und evaluiert. Dabei hat sich gezeigt, dass die Überdeckung hinsichtlich einer kontextfreien Metrik nur bedingt mit der Fehleraufdeckung korreliert. In zukünftigen Arbeiten sollte deshalb untersucht werden, ob Überdeckungsmetriken, die auch kontextsensitive, semantische Eigenschaften berücksichtigen, besser für diesen Anwendungsfall geeignet sind.
Im Jahr 2022 wurde im Rahmen einer Abschlussarbeit mit der Entwicklung eines Rahmenwerks für die Realisierung sprachadaptierter Reduktionsverfahren begonnen. Dieses Rahmenwerk stellt eine domänenspezifische Sprache (DSL) zur Verfügung, mit deren Hilfe sich Reduktionsverfahren auf einfache und knappe Art und Weise beschreiben lassen. Mit diesem Rahmenwerk und der entwickelten DSL soll es möglich sein, bestehende Reduktionsverfahren mit möglichst wenig Aufwand an die Besonderheiten einer bestimmten Programmiersprache anpassen zu können. Die Hoffnung dabei ist, dass solche sprachadaptierten Verfahren noch effizienter und effektiver arbeiten können als die bestehenden, sprachunabhängigen Reduktionsverfahren. Darüber hinaus soll das Rahmenwerk auch den Aufwand für die Entwicklung zukünftiger Reduktionsverfahren verringern und könnte so einen wertvollen Beitrag für die Forschung auf diesem Gebiet leisten.
In Jahr 2023 lag der Fokus des Forschungsprojekts auf den Listenstrukturen, die bereits in 2021 kurz angesprochen wurden: Nahezu alle seit 2021 untersuchten Verfahren gruppieren Knoten im Syntaxbaum in Listen, um aus diesen dann mittels eines Listenreduktionsverfahrens nur die notwendigen Knoten auszuwählen. Unsere Experimente haben gezeigt, dass teilweise 70% und mehr der Reduktionszeit in Listen mit mehr als 2 Elementen verbracht wird. Diese Listen sind deswegen relevant, weil es in der wissenschaftlichen Literatur verschiedene Listenreduktionsverfahren gibt, diese sich aber für Listen mit 2 oder weniger Elementen nicht unterscheiden. Da der zeitliche Anteil so hoch sein kann, haben wir diese verschiedenen Listenreduktionsverfahren in unsere in 2020/2021 entwickelten Implementierungen der wichtigen Reduktionsverfahren integriert. Dabei haben wir neben den Verfahren aus der Literatur auch solche aufgenommen, die nur auf einer Website beschrieben oder nur in einer frei zugänglichen Implementierung umgesetzt waren.
Es wurde auch untersucht, wie man eine Listenreduktionen an einer Stelle unterbrechen und später fortsetzen kann. Die Idee war, auf der Basis einer Priorisierung zwischenzeitlich eine andere Liste zu reduzieren, die eine größere Auswirkung auf die Verkleinerung hat. In einigen Fällen trat der erhoffte Geschwindigkeitsgewinn zwar ein, es bleiben aber Fragen offen, die weitere Experimente mit priorisierenden Reduzierern und Listenreduktionsverfahren erfordern.
-
OpenMP für rekonfigurierbare heterogene Architekturen
(Drittmittelfinanzierte Gruppenförderung – Teilprojekt)
Titel des Gesamtprojektes: OpenMP für rekonfigurierbare heterogene Architekturen
Laufzeit: 01.11.2017 - 31.12.2023
Mittelgeber: Bundesministerium für Bildung und Forschung (BMBF)
URL: https://www2.cs.fau.de/research/ORKA/High-Performance Computing (HPC) ist ein wichtiger Bestandteil für die europäische Innovationskapazität und wird auch als ein Baustein bei der Digitalisierung der europäischen Industrie gesehen. Rekonfigurierbare Technologien wie Field Programmable Gate Array (FPGA) Module gewinnen hier wegen ihrer Energieeffizienz, Performance und ihrer Flexibilität immer größere Bedeutung.
Es wird außerdem zunehmend auf HPC-Systeme mit heterogenen Architekturen gesetzt, auch auf solche mit FPGA-Beschleunigern. Die große Flexibilität dieser FPGAs ermöglicht es, dass eine große Klasse von HPC-Applikationen mit FPGAs realisiert werden kann. Allerdings ist deren Programmierung bisher vorwiegend Spezialisten vorbehalten und sehr zeitaufwendig, wodurch deren Verwendung in Bereichen des wissenschaftlichen Höchstleistungsrechnens derzeit noch selten ist.
Im HPC-Umfeld gibt es verschiedenste Programmiermodelle für heterogene Rechnersysteme mit einigen Typen von Beschleunigern. Gängige Programmiermodelle sind zum Beispiel OpenCL (opencl.org), OpenACC (openacc.org) und OpenMP (OpenMP.org). Eine produktive Verwendbarkeit dieser Standards für FPGAs ist heute jedoch noch nicht gegeben.Ziele des ORKA Projektes sind:
- Nutzung des OpenMP-4.0-Standards als Programmiermodell, um ohne Spezialkenntnisse heterogene Rechnerplattformen mit FPGAs als rekonfigurierbare Architekturen durch portable Implementierungen eine breitere Community im HPC-Umfeld zu erschließen.
- Entwurf und Implementierung eines Source-to-Source-Frameworks, welches C/C++-Code mit OpenMP-4.0-Direktiven in ein ausführbares Programm transformiert, das die Host-CPUs und FPGAs nutzt.
- Nutzung und Erweiterung existierender Lösungen von Teilproblemen für die optimale Abbildung von Algorithmen auf heterogene Systeme und FPGA-Hardware.
- Erforschung neuer (ggf. heuristischer) Methoden zur Optimierung von Programmen für inhärent parallele Architekturen.
Im Jahr 2018 wurden folgende wesentlichen Beiträge geleistet:
- Entwicklung eines source-to-source Übersetzerprototypen für die Umschreibung von OpenMP-C-Quellcode (vgl. Ziel 2).
- Entwicklung eines HLS-Übersetzerprototypen, der in der Lage ist, C-Code in Hardware zu übersetzen. Dieser Prototyp bildet die Basis für die Ziele 3 und 4.
- Entwicklung mehrerer experimenteller FPGA-Infrastrukturen für die Ausführung von Beschleunigerkernen (nötig für die Ziele 1 und 2).
Im Jahr 2019 wurden folgende wesentlichen Beiträge geleistet:
- Veröffentlichung zweier Papiere: "OpenMP on FPGAs - A Survey" und "OpenMP to FPGA Offloading Prototype using OpenCL SDK".
- Erweiterung des source-to-source Übersetzerprototypen um OpenMP-Target-Outlining (incl. Smoke-Tests).
- Fertigstellung des technischen Durchstichs für den ORKA-HPC-Prototypen (OpenMP-zu-FPGA-Übersetzer).
- Benchmark-Suite für die quantitative Leistungsanalyse von ORKA-HPC.
- Erweiterung des source-to-source Übersetzerprototypen um das Genom für die genetische Optimierung der High-Level-Synthese durch Einstellen von HLS-Pragmas.
- Prototypische Erweiterung des TaPaSCo-Composers um ein (optionales) automatisches Einfügen von Hardware-Synchronisationsprimitiven in TaPaSCo-Systeme.
Im Jahr 2020 wurden folgende wesentlichen Beiträge geleistet:
- Weiterentwicklung der Genetischen Optimierung.
- Aufbau eines Docker-Containers für zuverlässige Reproduzierbarkeit der Ergebnisse.
- Integration der Softwarekomponenten der Projektpartner.
- Plugin-Architektur für Low-Level-Platformen.
- Implementation und Integration zweier LLP-Plugin-Komponenten.
- Erweiterung des akzeptierten OpenMP-Sprachstandards.
- Erweiterung der Test-Suite.
Im Jahr 2021 wurden folgende wesentlichen Beiträge geleistet:
- Erweiterung der Benchmark-Suite.
- Erweiterung der Test-Infrastruktur.
- Erfolgreicher Projektabschluss mit Live-Demo für den Projektträger.
- Evaluation des Projekts.
- Veröffentlichung der Publikation "ORKA-HPC - Practical OpenMP for FPGAs".
- Veröffentlichung des Quell-Codes und der Disseminationsumgebung auf Github.
- Erweiterung des akzeptierten OpenMP-Sprachstandards um neue OpenMP-Klauseln für die Steuerung der FPGA-bezogenen Transformationen.
- Weiterentwicklung der Genetischen Optimierung.
- Untersuchung des Verhältnisses von HLS-Leistungsschätzwerten und tatsächlichen Leistungskennzahlen.
- Aufbau eines linearen Regressionsmodells für die Vorhersage der tatsächlichen Leistungskennzahlen auf Basis der HLS-Schätzwerte.
- Entwicklung von Infrastruktur für die Übersetzung von OpenMP-Reduktionsklauseln.
- Erweiterung um die Übersetzung vom OpenMP-Pragma `parallel for` in ein paralleles FPGA-System.
Im Jahr 2022 wurden folgende wesentlichen Beiträge geleistet:
- Generierung und Veröffentlichung eines Datensatzes zur Untersuchung des Verhältnisses von HLS-Ressourcenschätzwerten und tatsächlichen Leistungskennzahlen.
- Erstellung und vergleichende Evaluierung verschiedener Regressionsmodelle zur Vorhersage der tatsächlichen Systemperformanz aus frühen Schätzwerten.
- Analyse und Bewertung der durch die HLS generierten Ressourcenabschätzungen.
- Veröffentlichung der Publikation “Reducing OpenMP to FPGA Round-trip Times with Predictive Modelling”.
- Entwicklung eines auf dem Polyeder-Modell beruhenden Verfahrens zur Detektion und Entfernung von redundanten Lese-Operationen in FPGA-Stencil-Codes.
- Implementierung dieses Verfahrens in ORKA-HPC.
- Quantitative Evaluation der Stärken dieses Verfahrens und Ermittlung der Voraussetzungen, unter denen das Verfahren anwendbar ist.
- Veröffentlichung der Publikation “Employing Polyhedral Methods to Reduce Data Movement in FPGA Stencil Codes”.
Im Jahr 2023 wurden folgende wesentlichen Beiträge geleistet:
- Entwicklung und Implementierung eines Optimierungsverfahrens von kanonischen Schleifenschachteln (z.B. aus OpenMP-Target-Regionen) für die FPGA-Hardware-Erzeugung mittels HLS. Der Kern des Verfahrens ist eine auf dem Polyeder-Modell basierende Schleifenrestrukturierung, welche mithilfe von Schleifen-Kachelungen, Fließbandverarbeitung, und Port-Verbreiterung unnötige Datentransfers vom/zum FPGA-Board-RAM vermeidet, die Anzahl der parallel aktiven Schaltkreise erhöht, den Datendurchsatz zum FPGA-Board-RAM maximiert und Schreib/Lese-Latenzen versteckt.
- Quantitative Evaluation der Stärken und Anwendungsfelder dieses Optimierungsverfahrens mithilfe von ORKA-HPC.
- Veröffentlichung des Verfahrens im Konferenz-Papier “Employing polyhedral methods to optimize stencils on FPGAs with stencil-specific caches, data reuse, and wide data bursts”.
- Veröffentlichung eines Reproduktionspakets für das Optimierungsverfahrens.
- Vorstellung des Verfahrens auf der Tagung “14th International Workshop on Polyhedral Compilation Techniques” im Rahmen eines halbstündigen Vortrags.
- Entwicklung eines Verfahrens für die vollautomatische Integration von Multi-Purpose-Caches in aus OpenMP generierte FPGA-Lösungen.
- Evaluation von Multi-Purpose-Caches in Kombination mit HLS-generierten Hardwareblöcken.
- Veröffentlichung der Publikation “Multipurpose Cacheing to Accelerate OpenMP Target Regions on FPGAs” (Best Paper Award).
-
Rekurrente Neuronale Netze (RNNs) zur echtzeitnahen Bestimmung nichtlinearer Bewegungsmodelle
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.10.2017 - 31.03.2021
Mittelgeber: Fraunhofer-Gesellschaft
URL: https://www2.cs.fau.de/research/RuNN/Mit wachsender Verfügbarkeit von Information über eine Umgebung (z.B. eine Sporthalle) und über die Objekte darin (z.B. Sportler in der Halle) steigt das Interesse, diese Informationen gewinnbringend zusammenzuführen (sog. Information Fusion) und zu verarbeiten. Zum Beispiel will man physikalisch korrekte Animationen (z.B. in der virtuellen Realität) von komplexen und hochdynamischen Bewegungen (z.B. in Sportsituationen) in Echtzeit rekonstruieren. Ebenso könnten z.B. auch Fertigungsanlagen der Industrie, die unter ungünstigen Umgebungsverhältnissen leiden (bspw. Magnetfeldinterferenzen oder fehlendes GPS-Signal), von bspw. hochpräziser Warenortung profitieren. Typischerweise verwendet man, um Bewegungen zu beschreiben, entweder Posen, die einen „Snapshot" eines Bewegungszustands beschreiben (z.B. Stillstand), oder ein Bewegungsmodell, welches eine Bewegung im zeitlichen Verlauf beschreibt (z.B. Laufen oder Rennen). Außerdem können menschliche Bewegungen durch unterschiedliche Sensoren (z.B. am Körper) erfasst und in Form von Posen und Bewegungsmodellen abgebildet werden. Dabei liefern verschiedene Typen von modernen Sensoren (bspw. Kamera-, Funk- und Inertial-Sensoren) Informationen von unterschiedlicher Qualität.Prinzipiell ist mit Hilfe teurer und hochpräziser Messinstrumente die Extraktion der Posen und resp. des Bewegungsmodells bspw. aus Positionen (Positionen, z.B. menschlicher Extremitäten, können Posen und Bewegungsmodelle beschreiben oder durch diese beschrieben werden) auf kleinen Trackingflächen fehlerfrei möglich. Kamerabasierte Sensorik liefert dabei die benötigten hochfrequenten hochpräzisen Referenzmessungen auf kleinen Flächen. Allerdings sinkt mit zunehmender Größe der Trackingfläche die Tauglichkeit kamerabasierter Systeme (auf Grund von Ungenauigkeiten oder Problemen durch Verdeckung). Ebenso liefern Funk- und Inertial-Sensoren nur verrauschte und ungenaue Messungen auf großen Flächen. Eine auf Bayes‘schen Filtern basierende Kopplung von Funk- und Inertial-Sensoren erzielt zwar eine höhere Genauigkeit. Diese ist aber noch immer unzureichend, um z.B. im Sport menschliche Bewegungen (abrupte und schnelle Bewegungsänderungen) auf großen Flächen sensorisch präzise zu erfassen. Damit sind die resultierenden Bewegungsmodelle ungenau.Ferner ist jede menschliche Bewegung hochgradig nichtlinear (resp. nicht vorhersagbar). Diese Nichtlinearität lässt sich mit Hilfe heutiger Bewegungsmodelle, wie sie bspw. durch Bayes‘schen Filter beschrieben werden, nicht korrekt abbilden, da diese (statistischen) Methoden ein nichtlineares Problem in lineare Teilprobleme herunterbrechen, die wiederum die Bewegung nicht physikalisch korrekt repräsentieren können. Darüber hinaus erzeugen aktuelle Verfahren hohe Latenz, wenn Genauigkeit gefordert ist.Aufgrund dieser drei Probleme (ungenaue Positionsdaten auf großen Flächen, Nichtlinearität und Latenz) sind heutige Verfahren bspw. für Sportanwendungen unbrauchbar, die kurze Antwortzeiten fordern. Im Rahmen dieses Projekts wird mit Hilfe von Methoden des maschinellen Lernens diesen Nichtlinearitäten entgegengewirkt. So umfasst das Projekt die Erforschung rekurrenter neuronaler Netze (RNN) zur Bestimmung nichtlinearer Bewegungsmodelle. Nichtlineare menschliche Bewegungen (z.B. die Lage des Kopfes zum Rumpf während des Laufens oder Rennens), können mittels moderner Bayes‘scher Filterverfahren (z.B. Kalman- und Partikel-Filter) und anderer statistischer Methoden nur durch ihre linearen Anteile und somit physikalisch nicht vollständig korrekt beschrieben werden. Daher ist das Kernziel, zu evaluieren, wie Methoden des maschinellen Lernens zur Beschreibung von komplexen und nichtlinearen Bewegungen eingesetzt werden können. Es wurde deshalb untersucht, ob RNNs die Bewegungen eines Objektes physikalisch korrekt beschreiben und bisherige Methoden unterstützen oder ersetzen können. Im Rahmen einer großangelegten Parameterstudie wurden physikalische korrekte Bewegungen simuliert und auf diesen Simulationen RNN-Verfahren optimiert. Es konnte erfolgreich gezeigt werden, dass RNN-Modelle mit Hilfe geeigneter Trainingsverfahren entweder physikalische Zusammenhänge oder Bewegungsformen erlernen.
Im Rahmen dieses Projekts werden drei wesentliche Themen bearbeitet:
I. Eine Basisimplementierung untersucht, wie und warum Methoden des maschinellen Lernens zur Bestimmung von Bewegungsmodellen von Menschen eingesetzt werden können.
Im Jahr 2018 wurde zunächst ein tieferes Verständnis der Ausgangssituation und Problemstellung aufgebaut. Mit Hilfe verschiedener Basisimplementierungen (unterschiedlicher Bewegungsmodelle) wurde untersucht (1) wie sich unterschiedliche Bewegungen (z.B. Menschen: Laufen, Rennen, Slalom und Fahrzeuge: Mäander, Zig-Zag) auf Messungenauigkeiten der verschiedenen Sensorfamilien auswirken, (2) wie sich Messungenauigkeiten verschiedener Sensorfamilien (z.B. sichtbare Orientierungsfehler, hörbare Störgeräusche und bewusste künstliche Messfehler) auf die menschliche Bewegung auswirken und (3) wie sich verschiedene Filtermethoden zur Fehlerkorrektur (Balanceakt zwischen Genauigkeit und Latenz) auf die Bewegung und Sensoren auswirken. Darüber hinaus konnte (4) gezeigt werden, wie Messungenauigkeiten (bedingt durch den Einsatz aktueller Bayes‘scher Filterverfahren) mit der menschlichen Körperhaltung (bspw. Gangapparat) nichtlinear korrelieren und wie Auswirkungen der Messfehler auf die Gesundheit (Simulatorkrankheit) mittels maschinellen Lernens vorhergesagt werden können. Es wurden Methoden des maschinellen und tiefen Lernens zur Bewegungserfassung (Mensch: Kopf, Körper, obere und untere Extremität; Fahrzeug: ein- und zweiachsig) und Bewegungsrekonstruktion (5) auf Basis von Inertial-, Kamera- und Funksensoren studiert und verschiedene Methoden zur Merkmalsextraktion (bspw. SVM, DT, k-NN, VAE, 2D-CNN, 3D-CNN, RNN, LSTMs, M/GRU) untersucht. Diese wurden u. A. zu verschiedenen hybriden Filtermodellen verschaltet, um extrahierte Merkmale um zeitliche und kontextsensitive Bewegungsinformationen anzureichern und so möglicherweise genauere, robustere und echtzeitnahe Bewegungsmodelle zu erstellen. So konnten (6) Bewegungsmodelle für mehrachsige Fahrzeuge (Gabelstapler) auf Basis von Inertial-, Funk- und Kameradaten gelernt werden, die auf unterschiedliche Umgebungen, respektive Trackingflächen (Größe, Form und sensorische Struktur bspw. Magnetfeld, Mehrwege, Texturierung und Beleuchtung) generalisieren. Weiter (7) konnte ein tieferes Verständnis der Auswirkungen von nicht konstant beschleunigten Bewegungsmodellen auf Funksignale untersucht werden. Auf Basis dieser Erkenntnisse konnte ein LSTM Modell angelernt werden, das unterschiedliche Bewegungsgeschwindigkeiten und Bewegungsformen eines einachsigen Roboters (Segway) nahe Echtzeit und genauer als herkömmliche Verfahren vorhersagen kann.
Im Jahr 2019 wurde festgestellt, dass diese Modelle auch die menschliche Bewegung (menschliches Bewegungsmodell) vorhersagen können. Weiter wurde im Jahr 2019 festgestellt, dass die LSTM Modelle zur Laufzeit entweder vollständig autark oder als Stützstellen in Lokalisierungsschätzern (bspw. Pedestrian Dead Reckoning, PDR, Methoden) integriert werden können.
II. Darauf aufbauend soll versucht werden, wie diese Basis hinsichtlich ihrer Robustheit, Latenz und Wiederverwendbarkeit zu optimieren ist.
Im Jahr 2018 konnten die Erkenntnisse aus I. (1-7) genutzt werden, um sogenannte (1) relative Pedestrian Dead Reckoning (PDR) Verfahren mit Hilfe von Bewegungsklassifizierern zu stabilisieren. Diese konnten eine Generalisierung auf beliebige Umgebungen ermöglichen. Das tiefere Funksignalverständnis (2) ermöglichte das Abbilden von Langzeitfehlern in RNN-basierten Bewegungsmodellen, um die Positionsgenauigkeit und Stabilität zu verbessern und nahe Echtzeit vorherzusagen. Die Robustheit der Bewegungsmodelle (3) konnte in ersten Versuchen mit Hilfe verschiedener realer (den Modellen unbekannter) Bewegungstrajektorien für ein- und zweiachsige Fahrzeuge gezeigt werden. Weiter wurde untersucht, (4) wie hybride Filtermodelle (bspw. Verschaltung von Merkmalsextraktoren 2D/3D-CNN und Zeitreihe RNN-LSTM) sowohl genauere, als auch stabilere und gefilterte (um Ausreißer korrigierte) Ergebnisse liefert.
Im Jahr 2019 wurde gezeigt, dass Modelle der RNN Familie in der Lage sind, Bewegungen in die Zukunft zu extrapolieren, so dass diese die Latenz der Verarbeitungskette und darüber hinaus kompensieren. Weiter wurde im Jahr 2019 die Erklärbarkeit, Interpretierbarkeit und Robustheit der hier untersuchten Modelle und die Wiederverwendbarkeit auf die menschliche Bewegung untersucht.Mit Hilfe eines Simulators wurden im Jahr 2019 physikalisch korrekte Bewegungen, z.B. Positionen von Fußgängern, Fahrradfahrern, Autos und Flugzeugen erzeugt. Auf Basis dieser Daten wurde gezeigt, dass RNN Modelle zwischen unterschiedlichen Bewegungstypen interpolieren können. Weiter wurde gezeigt, dass RNN Modelle fehlende Datenpunkte kompensieren, weißes und zufälliges Rauschen als solches interpretieren und Bewegungen in die Zukunft extrapolieren können. Letzteres ermöglicht die Kompensation von verarbeitungsspezifischer Latenz und ermöglicht eine Vorhersage der menschlichen Bewegung aus Funk- und Inertial-Daten in harter Echtzeit.Neue RNN Architektur. Ferner wurde im Jahr 2019 eine neue Architektur, bzw. Topologie, eines neuronalen Netzes erforscht, welches die Stärken und Schwächen von flachen neuronalen Netzen und rekurrenter Netzen so kompensiert, dass eine optimales NN zur Bestimmung physikalisch korrekter Bewegung in einer großangelegten Parameterstudie gefunden werden konnte.Architektur Optimierung. Es wurde im Jahr 2019 eine großangelegte Studie zur Optimierung der Modellparameter für die Mensch-zentrierte Lokalisierung durchgeführt. Diese optimalen Architekturen können die menschliche Bewegung aus möglichst wenig Sensorinformationen weit in die Zukunft voraussagen. Die Architektur mit dem geringsten Lokalisierungsfehler kombiniert zwei DNNs mit einem RNN.Interpretierbarkeit von Modellen. Dieses neue Modell wurde im Jahr 2019 auf seine Funktionsweise untersucht. Dazu wurde eine neuartige Prozesskette zur Interpretation und Erklärung des Modells erforscht. Die Prozesskette nutzt den Fluss der gegenseitigen Information und die gegenseitige Übertragungsentropie in Kombination mit verschiedenen gezielten Manipulationen der versteckten Zustände und geeigneten Visualisierungstechniken, um den Zustand des Modells zu jedem Zeitpunkt zu bestimmen.Darüber hinaus wurde im Jahr 2019, um extrahierte Merkmale eines neuronalen Netzes besser zu visualisieren und zu interpretieren, ein "Variational Auto-Encoder" (VAE) adaptiert. Der VAE wurde so gestaltet und parametrisiert, dass der Rekonstruktionsfehler des Signals innerhalb des Messrauschens liegt und das Modell gleichzeitig gezwungen wird, entwirrte Merkmale im latenten Raum abzulegen. Dieses Entwirren ermöglicht erste subjektive Aussagen über die Zusammenhänge der Merkmale, die wirklich nötig sind, um den Kanalzustand eines Funksignals optimal zu kodieren.Kompression. Dabei wurde im Jahr 2019 ein netter Seiteneffekt des VAEs entdeckt. Ein solcher VAE bietet die Möglichkeit der dezentralen Vorverarbeitung der Kanalinformationen direkt an der Antenne. Diese Komprimierung führt dann zu weniger Datenverkehr, erzeugt weniger Kommunikationslast und erhöht somit die Anzahl möglicher Teilnehmer an der Kommunikation und Lokalisierung in einem abgeschlossenen Sensornetz.Einfluss der Variation der Eingabeinformationen. Weiter wurde im Jahr 2019 untersucht, wie sich Änderungen der Inputsequenzlänge eines rekurrenten neuronalen Netzes auf den Lernerfolg und die Art der Ergebnisse des Modells auswirken. Es wurde entdeckt, dass eine längere Sequenz das Modell überredet, eher ein Bewegungsmodell i.S.v. der Form der Bewegung zu erlernen, während kürzere Sequenzen dazu tendieren physikalische Zusammenhänge zu erlernen. Die höchste Genauigkeit erreicht man mit der optimalen Balance zwischen kurzen und langen Sequenzen.Es wurde im Jahr 2019 eine Geschwindigkeitsschätzung mittels des neuen Verfahrens untersucht. Diese floss dann direkt in ein PDR Modell ein, um die Positionsgenauigkeit zu erhöhen. Eine erste Arbeit im Jahr 2019 dazu hat im Detail untersucht, welche Verfahren am besten geeignet sind, um eine ungerichtete Geschwindigkeit der menschlichen Bewegung aus einem rohen Intertialsignal zu schätzen. Ein neues Verfahren, eine Kombination aus einem eindimensionalen CNN und einem BLSTM, hat hier den Stand der Technik abgelöst.
Im Jahr 2020 wurden die Modellarchitektur hinsichtlich der Vorhersagegenauigkeit optimiert und die Auswirkungen einer tiefen Kombination von Bayes'schen und DL-Methoden auf die Vorhersagegenauigkeit und Robustheit untersucht.
Optimierung. Im Jahr 2020 wurde die bestehende CNN- und RNN-Architektur verbessert und ein ResNet-BLSTM vorgeschlagen. Das CNN wurde durch ein Restnetzwerk ersetzt, um tiefere und qualitativ hochwertigere Merkmale aus einem kontinuierlichen Datenstrom zu extrahieren. Es konnte gezeigt werden, dass diese Architektur höhere Rechenkosten mit sich bringt, aber die genauesten, über den Stand der Technik hinausgehenden Ergebnisse liefert. Zusätzlich kann die RNN-Architektur verkleinert werden, um dem Ausbleichen des Kontextvektors der LSTM-Zellen entgegenzuwirken, da das verbleibende Netzwerk optimalere Merkmale bietet.Tiefe Bayes Verfahren. Im Jahr 2020 wurde untersucht, ob Methoden der RNN-Familie bestimmte Bewegungseigenschaften aus aufgezeichneten Bewegungsdaten extrahieren können, um die starren Mess-, Rausch- und Übergangsverteilungen eines Kalman-Filters (KF) zu ersetzen. Eine Studie konnte zeigen, dass hochoptimierte LSTM-Zellen robustere (geringe Fehlervarianz der Prädiktionen) und präzisere (Positionsgenauigkeit) Trajektorien rekonstruieren können als ein ebenso hochoptimierter KF. Das tiefe Ineinandergreifen von LSTM in KF, sogenanntes tiefe Bayes Verfahren, lieferte die robustesten und präzisesten Positionen und Trajektorien. Diese Studie zeigte auch, dass von allen Methoden, die auf realistischen synthetischen Daten trainiert wurden, die tiefe Bayes-Methode am wenigsten reale Daten benötigt, um sich an eine neue unbekannte Domäne anzupassen.
III. Abschließend soll eine Demonstration der Machbarkeit erprobt werden.
Im Jahr 2018 wurde im Rahmen einer Großstudie mit sozialwissenschaftlichem Hintergrund das weltgrößte virtuelle Dinosauriermuseum eröffnet. Es konnte gezeigt werden, dass ein vorausgewähltes (auf das Einsatzszenario optimiertes) Bewegungsmodell die menschliche Bewegung robust und genau (i.S.v. kein signifikanter Einfluss auf die Simulatorkrankheit) abbilden resp. vorhersagen kann. Dieses wird als Basis für Vergleichstest für weitere Modelle (mensch-zentriert und generalisierend auf unterschiedliche Umgebungen) genutzt.
Im Jahr 2019 wurden auf Basis der erzielten Forschungsergebnisse in I und II zwei neue Live-Demonstratoren entwickelt. (1) Eine Modelleisenbahn, welche in variablen Geschwindigkeiten eine Landschaft mit Tunnel durchquert. Dabei repräsentiert der Tunnel realistische und typische Umgebungscharakteristika, die zu nichtlinearen Mehrwegeausbreitungen eines zu lokalisierenden Funksenders führen und letztendlich zu fehlerhaften Positionsbestimmung. Dieser Demonstrator zeigt, dass die im Rahmen des Forschungsprojektes erforschten RNN Verfahren sowohl auf komplexen Kanalimpulsantworten, als auch auf dimensionsreduzierten Antwortzeiten hochgenau und robust lokalisieren können und darüber hinaus bessere Ergebnisse als herkömmliche Kalman-Filter liefern. (2) Der zweite Demonstrator dient zur Visualisierung der Bewegung der oberen Extremität eines Menschen. Dabei wurde die menschliche Bewegung mit kostengünstiger Inertialsensorik erfasst, klassifiziert und Bewegungsparameter abgeleitet. Eine grafische Oberfläche visualisiert nahe Echtzeit die Bewegung und die abgeleiteten Parameter.Die geplante Generalisierbarkeit, bspw. der mensch-zentrierten Modelle, und die Anwendbarkeit von RNN-basierten Verfahren in unterschiedlichen Umgebungen konnte mittels (1) und (2) demonstriert werden.Im Jahr 2019 konnten folgende Anwendungen der vorgeschlagenen Methode beforscht und entwickelt werden:Anwendung: Funksignal. Es wurden die Kanalinformationen eines Funksystems hierarchisch derart klassifiziert, dass das Lokalisierungsproblem eines Line of Sight (LoS) und Non Line of Sight (NLoS) Klassifizierers in ein binäres Problem übertragen werden konnte. So kann rein auf Basis einzelner Kanalinformationen einer einzelnen Antenne eine Position auf einen Meter genau lokalisiert werden, wenn die Umgebung heterogene Kanalausbreitung breitstellt.Ferner wurden LoS und NLoS Kanalinformationen simuliert und genutzt, um zwischen unterschiedlichen Kanälen zu interpolieren. Dies ermöglicht den Anbietern von Funksystemen, auf sich ändernde oder neue Umgebungen in den Kanalinformationen bereits a-priori in der Simulation einzugehen. Durch selektives Nachtrainieren der Modelle mit dem simulierten Wissen werden robustere Modelle ermöglicht.Anwendung: Kamera- und Funksignal. Weiter konnte gezeigt werden, wie sich die RNN Methoden auf Informationen anderer Sensorfamilien, z.B. Videobilder, übertragen lassen. Eine Kombination von Funk- und Kamerasystemen ermöglichte es, ein Modell zu trainieren, welches selbst in Verdeckungsfällen der Kamera eine reibungslose Fusion der beiden Sensorinformationen schafft und zu einer robusteren und genaueren Lokalisierung mehrerer Personen führt.Anwendung: Kamerasignal. In einer weiteren Arbeit wurde ein RNN-Verfahren genutzt, um die zeitlichen Zusammenhänge von Ereignissen in Bildern zu untersuchen. Im Gegensatz zu der vorangegangenen Arbeit, die heterogene Sensorinformationen nutzt, nutzt dieses Netz lediglich Bildinformationen. Das Modell nutzt die Bildinformationen allerdings so, dass es die Bilder unterschiedlich interpretiert: als räumliche Informationen i.S.v. ein einzelnes Bild, und als temporale Information i.S.v. mehrere Bilder im Input. Dieses Aufsplitten führt dazu, dass einzelne Bilder quasi als zwei fiktive virtuelle Sensorinformationsströme genutzt werden können, um Ergebnisse räumlich (Merkmale) zu erkennen und temporal (zeitliche Zusammenhänge) besser vorhersagen zu können. Eine weitere Arbeit nutzt Kamerabilder, um die Kamera selbst zu lokalisieren. Dazu wurde eine neue Verarbeitungskette erschaffen, welche das Videosignal über die Zeit aufbricht und absolute und relative Informationen in unterschiedlichen neuronalen Netzen erlernt und deren Ausgabe in einem Fusionsnetz zu einer optimalen Pose zusammenführt.Anwendung: EEG-Signal. In einem Kooperationsprojekt konnten die hier erforschten Methoden auf weitere Sensordaten angewendet werden. Es konnten Beta- und Gammawellen des menschlichen Gehirns in unterschiedlichen emotionalen Zuständen aufgezeichnet werden und diese von einem RNN genutzt werden, um die Emotionen einer Testperson in 90% aller Fälle aus rohen EEG Daten korrekt vorherzusagen.Anwendung: Simulatorkrankheit. In einer weiteren Arbeit konnte gezeigt werden, wie sich die Visualisierung in VR auf die menschliche Wahrnehmung und Bewegungsanomalien, respektive Simulatorkrankheit, auswirkt und wie sich die hier erforschten neuronalen Netze ausnutzen lassen, um die Effekte vorherzusagen.Im Jahr 2020 wurden auf Basis der erzielten Forschungsergebnisse in II ein neuer Live-Demonstrator entwickelt.Anwendung: Gangrekonstruktion in VR. Im Jahr 2020 wurde das vorhandene CNN-RNN-Modell verwendet, um die Bewegung des Menschen, nämlich den Gangzyklus und die Gangphasen, vorherzusagen. Dabei wurden Sensordaten eines am Kopf montierten Trägheitssensors verwendet, um einen virtuellen Avatar in VR in Echtzeit zu visualisieren. Es konnte gezeigt werden, dass das DL-Modell deutlich geringere Latenzen aufweist als der Stand der Technik, da es Gangphasen früher erkennen und zukünftige genauer vorhersagen kann. Dies geht jedoch zu Lasten des erforderlichen Rechenaufwands und damit der erforderlichen Hardware.
Das Projekt wurde im Jahr 2021 erfolgreich abgeschlossen. Im Jahr 2021 wurden im Rahmen einer erfolgreich abgeschlossenen Dissertation wesentliche Erkenntnisse aus dem Projektverlauf verknüpft und Schlussfolgerungen gezogen sowie zahlreiche Forschungsfragen aufgegriffen und beantwortet.
Im Rahmen des Forschungsvorhabens wurden mehr als 15 Qualifikationsarbeiten, 6 Patentfamilien und mehr als 20 wissenschaftliche Publikationen erfolgreich abgeschlossen und veröffentlicht. Kernbeitrag des Projekts ist die Kenntnis der Anwendbarkeit und Tücken rekurrenter neuronaler Netze (RNN), ihrer unterschiedlichen Zelltypen und Architekturen in unterschiedlichen Anwendungsgebieten. Fazit: Die Möglichkeit der RNN-Familie, mit Dynamiken in Datenströmen umzugehen, z.B. Ausfällen, Verzögerungen und unterschiedlichen Sequenzlängen in Zeitreihendaten, macht sie heute in einer Vielzahl von Anwendungsbereichen unverzichtbar.
Das Projekt wird im Rahmen von Seminaren an der FAU und außeruniversitären Forschungsaktivitäten bei Fraunhofer IIS im Rahmen des ADA Lovelace Center fortgeführt.
Im Jahr 2022 wurde die Augmentierung von Zeitreihen untersucht. Zu diesem Zweck wurden verschiedene generative Methoden, nämlich Variational Autoencoder (VAE) und Generative Adversarial Networks (GAN), hinsichtlich ihrer Fähigkeit evaluiert, Zeitreihen verschiedener Anwendungsdomänen zu generieren, z.B., Eigenschaften von Funksignalen, Signalstärke, Kanalimpulsantwort, Merkmale von GNSS-Spektren und mehrdimensionale Signale von Trägheitssensoren. Es wurde eine neuartige Architektur namens ARCGAN vorgeschlagen, die alle bekannten Vorteile der Stand der Technik-Methoden vereint und daher deutlich ähnlichere (nützlichere) Zeitreihen generieren kann als der Stand der Technik.Im Jahr 2023 wurde begonnen, generative Methoden auf Basis von Aufmerksamkeitsmechanismen, Transformer-Architektur und GPT hinsichtlich ihrer Vorhersageleistung von Zeitreihen zu untersuchen. Zu diesem Zweck wurden Methoden wie Legendre Units (LMU), neuartige Transformatorarchitekturen und TimeGPT zur Vorhersage von Lokalisierungsinformationen evaluiert. Es zeigte sich, dass mittels entsprechender Eingabeaufforderungen und Kalibrierung vorkonfigurierter GPT-Modelle an neue Anwendungsbereiche angepasst werden können, wodurch das Training deutlich effizienter wird und Energie eingespart wird.
Im Jahr 2024 werden GPT-ähnliche Modelle weiter auf ihre Unsicherheit, Erklärbarkeit und Anpassungsfähigkeit untersucht. Darüber analysieren wir die Machbarkeit dieser generativen Verfahren in Bezug auf verschiedene Anwendungsfelder, z.B., Vorhersage und Anomalieerkennung, Anomaliecharakterisierung, Anomalielokalisierung sowie Anomaliemitigierung.
-
Grundlagen der Informatik als Fundament eines zukunftsorientierten MINT-Studiums
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.10.2016 - 30.09.2019
Mittelgeber: Bayerisches Staatsministerium für Bildung und Kultus, Wissenschaft und Kunst (ab 10/2013)
URL: https://www2.cs.fau.de/research/GIFzuMINTS/Die zunehmende Digitalisierung aller Wissenschafts- und Lebensbereiche hat dazu geführt, dass Kompetenzen in den Grundlagen der Informatik für Studierende aller Studiengänge der Technischen Fakultät (und darüber hinaus) als essentiell erachtet werden. Für den Studienerfolg haben sich diese, typischerweise direkt in der Studieneingangsphase verorteten, Lehrveranstaltungen allerdings für viele Studierende als problematische Hürde erwiesen, die letztlich häufig zum Studienabbruch führen kann. Aus diesem Grund widmen wir uns dem Ausbau der Unterstützung von angehenden Studierenden beim Übergang Schule-Hochschule sowie während der Studieneingangsphase.
Die Projektschwerpunkte liegen hinsichtlich der Studienorientierung in der Förderung des potenziellen MINT-Nachwuchses bereits vor Studienbeginn durch regionale und überregionale Kontakte wie z.B. Unterstützung bei W-Seminaren oder Fortbildungen von Lehrerinnen und Lehrern als Multiplikatoren für die Studienwahl. Hinsichtlich des Übergangs Schule-Hochschule steht der Ausgleich unterschiedlicher Vorkenntnisse der Studienanfänger durch Repetitorien im Vordergrund. In der Studieneingangsphase liegt der Schwerpunkt in der Senkung der Abbruchquote in MINT-Studiengängen durch spezielle Intensivierungsübungen und Tutorenschulungen unter Berücksichtigung der Heterogenität.
2018 stand unter anderem die Untersuchung der Wirksamkeit aller Maßnahmen im Fokus. Untersucht wurde der Einfluss des angestiegenen Übungsgruppenangebots und der umfangreichen Unterstützung durch die Tutorinnen und Tutoren. Außerdem war die Wirksamkeitsuntersuchung hinsichtlich des Zusammenhangs von Wahrnehmung des Übungsangebots und Abbruchquote Untersuchungsgegenstand. Weiterhin wurden die Auswirkungen der Teilnahme am Repetitorium auf die Leistungen in den Übungen und in der Klausur untersucht.
Um das Ziel der Gewinnung und Qualifizierung von Lehrerinnen und Lehrern als Multiplikatoren zu erreichen, wurde das Angebot an Lehrerfortbildungen weiter ausgebaut. In diesen Fortbildungen wurden innovative Herangehensweisen, Beispiele und Inhalte für den Unterricht mit dem Ziel aufgezeigt, dass die Teilnehmerinnen und Teilnehmer das Gelernte an ihre Schülerinnen und Schüler weitervermitteln.
Ein weiteres Teilziel war die quantitative und qualitative Verbesserung der in Informatik geschriebenen W-Seminar-Arbeiten. Dazu wurde eine 24-seitige Broschüre entwickelt und an Schulen in umliegenden Landkreisen verschickt. Mit dieser Broschüre sollen Lehrkräfte bei der Gestaltung und Durchführung von W-Seminaren in der Informatik mit Themenvorschlägen, Hinweisen und einer Checkliste für die Schülerinnen und Schüler unterstützt werden. Im Jahr 2019 endete das Projekt GIFzuMINTS mit einem besonderen Höhepunkt: Am 20.05.2019 besuchte uns der bayerische Staatsminister für Wissenschaft und Kunst, Bernd Sibler, zusammen mit dem stellvertretenden Hauptgeschäftsführer der vbw bayme vbm, Dr. Christof Prechtl, um sich über den Stand des Projekts zu informieren. Wissenschaftsminister Bernd Sibler zeigte sich beim Projektbesuch beeindruckt: "Das Konzept der FAU geht passgenau auf die Anforderungen eines Informatikstudiums ein. Die jungen Studentinnen und Studenten werden dort abgeholt, wo sie stehen. Das ist exakt unser Anliegen, das wir mit MINTerAKTIV verfolgen: Wir wollen, dass jede Studentin und jeder Student die Unterstützung bekommt, die sie bzw. er braucht, um das Studium erfolgreich abschließen zu können."Bis zum Projektende wurden die entwickelten und umgesetzten Maßnahmen gründlich evaluiert und als dauerhafte Angebote etabliert. Dabei wurde das Repetitorium Informatik in ein kontinuierliches virtuelles Angebot zum Selbststudium überführt und auf den neuesten Stand der Technik aktualisiert. Das an besonders begabte Studierende gerichtete Angebot der Vorbereitung auf die Teilnahme an internationalen Programmierwettbewerben wurde ausgeweitet und als Vertiefungsmodul eingerichtet. Damit die begonnenen Maßnahmen auch zukünftig reibungslos weitergeführt werden können, wurde bereits frühzeitig die Aufnahme in das anschließende Förderprojekt beantragt, das zukünftig als CS4MINTS auch bewilligt wurde. -
Entwicklung adaptiver Algorithmen in funkbasierten Lokalisierungssystemen
(Drittmittelfinanzierte Einzelförderung)
Ziel dieses Projektes ist die Entwicklung adaptiver Algorithmen für den Einsatz in Funklokalisierungssystemen. Im Rahmen dieses Projekts werden drei wesentliche Themen bearbeitet:
Automatisierte Konfiguration der Ereignis-Detektoren. In vorangegangenen Forschungsprojekten wurden die Grundlagen zur Analyse verrauschter Sensordatenströme gelegt. Allerdings bestand hierbei noch das Problem, dass Ereignis-Detektoren aufwändig und genau parametrisiert werden müssen, zufriedenstellende Ergebnisse zu produzieren. Dieses Arbeitspaket betrachtet Möglichkeiten einer automatisierten Konfiguration der Ereignis-Detektoren auf Basis vorhandener Ereignis- und Sensordatenströme.
In 2016 wurden erste Konzepte untersucht, um aus einer Vielzahl vorhandener Spieldaten die optimale Konfiguration der Ereignis-Detektoren zu bestimmen. Dabei wurden in einer Fußballanwendungen Spiele und Spielszenen durch Sportwissenschaftler manuell annotiert (z.B. Spieler A tritt Ball mit linkem Fuß zum Zeitpunkt t). Diese manuell annotierten Spielszenen sollen später zur Optimierung der Parameter in der Hierarchie von Ereignisdetektoren herangezogen werden.Evaluierung von Methoden und Techniken des maschinellen Lernens für Anwendungen zur Lokalisierung. In vorhergehenden Forschungsprojekten wurden bereits erste Algorithmen des maschinellen Lernens im Kontext funkbasierter Lokalisierungssysteme entwickelt (z.B. evolutionäre Algorithmen zur Bestimmung von Antennenpositionen und -ausrichtungen). Im Rahmen dieses Arbeitspakets werden weitere Ansätze untersucht, um Lokalisierungssysteme durch derartige Methoden zu unterstützen.
Im Jahr 2016 wurden erste Ansätze evaluiert, um Teile der Positionsrechnung laufzeitbasierter Funklokalisierungssysteme durch Methoden des maschinellen Lernens zu ersetzen. Bislang werden die Rohdaten solcher Systeme durch eine Signalverarbeitungskette (Analog-Digital-Wandlung, Ankunftszeitbestimmung, Kalman-Filterung, Bewegungsanalyse) zu einer Position verrechnet. Dies erfordert einen vergleichsweise hohen Installations- und Konfigurationsaufwand für die Inbetriebnahme eines Lokalisierungssystems in der Zielumgebung und für die Zielanwendung.Evaluierung bildgebender Verfahren zur Unterstützung funkbasierter Lokalisierungssysteme. Funkbasierte Lokalisierungssysteme können ihre Stärken gegenüber Kamera-basierten Lokalisierungssystemen immer dann ausspielen, wenn es zu Verdeckungen von Objekten kommen kann. Im Gegenzug haben Funkbasierte Systeme Probleme mit metallischen Aufbauten/Oberflächen, da die Funkwellen an metallischen Oberflächen reflektiert werden und damit über mehrere Pfade an den Empfangsantennen empfangen werden. In diesem Arbeitspaket sollen Algorithmen für eine Bild-basierte Ortungskomponente entwickelt werden, um Funk-Lokalisierungssysteme bei der Positionsrechnung zu unterstützen.
In 2016 wurde damit begonnen zwei unterschiedliche Systeme zu entwickeln: CNNLok, ein System zur kamerabasierten Eigenlokalisierung von Objekten (sog. inside-out tracking), sowie InfraLok ein System zur Lokalisierung mir Kameras in der Infrastruktur (sog. outside-in tracking) auf Infrarot-Basis. CNNLok nutzt ein Convolutional Neural Network, trainiert auf einer Vielzahl von in der Zielumgebung erstellter Kamerabilder. Das Netzwerk liefert anschließend zu einem aktuellen Kamerabild die Position der Kamera (bzw. des Objektes) im Raum. InfraLok detektiert Infrarot-LEDs über ein Multi-Kamerasystem und ermittelt deren Position im Raum. -
Software-Wasserzeichen
(Projekt aus Eigenmitteln)
Laufzeit: seit 01.01.2016
URL: https://www2.cs.fau.de/research/SoftWater/Unter Software-Wasserzeichnen versteht man das Verstecken von ausgewählten Merkmalen in Programme, um sie entweder zu identifizieren oder zu authentifizieren. Das ist nützlich im Rahmen der Bekämpfung von Software-Piraterie, aber auch um die richtige Nutzung von Open-Source Projekten (wie zum Beispiel unter der GNU Lizenz stehende Projekte) zu überprüfen. Die bisherigen Ansätze gehen davon aus, dass das Wasserzeichen bei der Entwicklung des Codes hinzugefügt wird und benötigen somit das Verständnis und den Beitrag der Programmierer für den Einbettungsprozess. Ziel unseres Forschungsprojekts ist es, ein Wasserzeichen-Framework zu entwickeln, dessen Verfahren automatisiert beim Übersetzen des Programms Wasserzeichen sowohl in neu entwickelte als auch in bestehende Programme hinzufügen. Als ersten Ansatz untersuchten wir eine Wasserzeichenmethode, die auf einer symbolischen Ausführung und anschließender Funktionsynthese basiert.
Im Jahr 2018 wurden im Rahmen von zwei Bachelorarbeiten Methoden zur symbolischen Ausführung und Funktionssynthese untersucht, um zu ermitteln, welche sich für unseren Ansatz am Besten eignet. Im Jahr 2019 wurde ein Ansatz auf Basis der LLVM Compiler Infrastruktur untersucht, der mittels konkolischer Ausführung (concolic execution, eine Kombination aus symbolischer und konkreter Ausführung) ein Wasserzeichen in einem ungenutzten Hardwareregister versteckt. Hierzu wurde der LLVM-Registerallokator dahingehend verändert, dass er ein Register für das Wasserzeichen freihält. Im Jahr 2020 wurde das inzwischen LLWM genannte Rahmenprogramm für das automatische Einfügen von Software-Wasserzeichen in Quellcode auf Basis der LLVM Compiler Infrastruktur um weitere dynamische Verfahren erweitert. Grundlage der hinzugefügten Verfahren sind, unter anderem, das Ersetzen/Verschleiern von Sprungadressen sowie Modifikationen des Aufrufgraphen. Im Jahr 2021 wurde das Rahmenprogramm LLWM um weitere angepasste, bereits in der Literatur bekannte, dynamische Verfahren sowie um das eigene Verfahren erweitert, das wir nun IR-Mark nennen Die hinzugefügten Verfahren basieren unter anderem auf der Umwandlung von bedingten Konstrukten in semantisch äquivalenten Schleifen oder auf Integrieren von Hashfunktionen, die die Funktionalität des Programms unverändert lassen, die Widerstandsfähigkeit aber erhöhen. IR-Mark wählt nun nicht nur gezielt die wenigen Funktionen aus, in denen die Registerverwendung bei der Code. Erzeugung verändert wird, sondern umfasst nun auch dynamische Aspekte um in den freigehaltenen Registern sinnvoll erscheinende Tarnwerte zu berechnen. Ein Artikel über LLWM und IR-Mark konnte publiziert werden. Im Jahr 2022 wurde das Rahmenprogramm LLWM um ein weiteres angepasstes Verfahren ergänzt. Die Methode nutzt Ausnahmebehandlungen, um das Wasserzeichen zu tarnen. Im Jahr 2023 wurden mehr Methoden angepasst, um das LLWM-Framework zu erweitern. Hierzu zählen Techniken zum Einbetten, die auf Prinzipien der Zahlentheorie und des Aliasings beruhen. -
Automatische Erkennung von Wettlaufsituationen
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2016 - 30.09.2021
URL: http://www2.informatik.uni-erlangen.de/research/AuDeRace/Große Softwareprojekte, an denen hunderte Entwickler arbeiten, sind schwer zu überblicken und enthalten viele Fehler. Zum Testen solcher Software haben sich automatisierte Tests bewährt, die Teilbereiche der Software (Unit-Tests) oder die komplette Software (Systemtest) testen und Fehler reproduzierbar erkennen können. Dieses Vorgehen funktioniert gut bei sequentiellen Programmen, die ein deterministisches Verhalten aufweisen. Moderne Software enthält jedoch vermehrt Parallelität. Durch diese Nebenläufigkeit treten etliche neue, teils schwer zu lokalisierende, Fehler auf, die nicht mehr durch herkömmliche Testverfahren sicher detektiert werden können. Dazu gehören vor allem Verklemmungen und gleichzeitige Zugriffe auf die selbe Speicherstelle. Ob ein solcher Fehler auftritt, hängt von dem konkreten Ausführungsplan der Aktivitätsfäden ab. Dieser unterscheidet sich jedoch bei jeder Ausführung und ist auch stark von dem darunterliegenden System abhängig. Somit treten entsprechende Fehler normalerweise nicht bei jedem Testlauf auf, je nach Testsystem sogar niemals. Aus diesem Grund sind die herkömmlichen Testverfahren nicht mehr ausreichend für moderne, nebenläufige Software.
In dem Projekt AuDeRace werden Verfahren entwickelt, die Nebenläufigkeitsfehler reproduzierbar, effizient und mit möglichst geringen Aufwand für Entwickler erkennen können. Unter anderem wird eine Technik entwickelt, die es ermöglicht, Tests um einen Ablaufplan zu erweitern, durch den die Ausführung weiterhin deterministisch bleibt. Ein weiteres generelles Problem an Tests bleibt dabei aber bestehen: Der Entwickler muss sich zunächst Testfälle überlegen und diese anschließend implementieren. Insbesondere im Kontext von Parallelität ist es aber extrem schwer, sich das Verhalten von Programmen vorzustellen und problematische Stellen zu identifizieren. Deshalb sollen kritische Stellen automatisiert erkannt werden, bevor überhaupt entsprechende Tests geschrieben wurde. Es existieren bereits Ansätze, potentiell kritische Stellen zu detektieren, allerdings werden dabei entweder sehr viele fälschliche Warnungen generiert oder die Analyse ist immens zeitintensiv. Ziel dieses Projektes ist es, durch eine geeignete Kombination aus statischer und dynamischer Analyse, die Anzahl an falschen Erkennungen zu reduzieren, bzw. langsame Analysen zu beschleunigen, sodass die Verfahren nicht nur in kleinen Testbeispielen funktionieren, sondern auch komplexe Softwareprojekte effizient analysieren können.Im Jahr 2016 wurden bestehende Ansätze und Programme auf ihre Tauglichkeit untersucht. Dabei wurde ein vielversprechendes Verfahren ausgemacht, das mithilfe von Model Checking und vorgegebenen Bedingungen Ablaufpläne konstruiert, die ungewolltes Verhalten erzeugen. Allerdings zeigten die Ergebnisse ein deutliches Problem hinsichtlich eines produktiven Einsatzes, da in sinnvoller Zeit nur sehr kleine Programme analysiert werden konnten. Daher beschäftigte sich das Projekt damit, die Programme um möglichst viele Anweisungen zu kürzen, die nichts mit den gesuchten Wettlaufsituationen zu tun haben. Dadurch sollen spätere Analysen beschleunigt werden.
Im Jahr 2017 wurden die Untersuchungen zur automatischen Reduktion von Programmen weitergeführt. Außerdem wurde erforscht, ob sich die existierende Technik des Mutationstestens auch auf nebenläufige Programme erweitern lässt. Die Ergebnisse zeigen, dass es durchaus möglich ist, Tests für eine parallele Software qualitativ zu bewerten. Allerdings muss teilweise auf Heuristiken zurückgegriffen werden, um auch größere Projekte in vertretbarer Zeit bewerten zu können.
Im Jahr 2018 lag der Fokus auf einer deterministischen Ausführung von Testfällen. Es wurde ein Konzept erarbeitet, um reproduzierbare Ergebnisse bei der Ausführung zu erzielen: Ein zusätzlicher Ablaufplan spezifiziert das Ablaufverhalten der verschiedenen Aktivitäten. Eine Instrumentierung von vorher markierten Positionen im Code und anderen relevanten Bytecode-Instruktionen soll hier während der Ausführung entsprechend die Kontrolle an eine Verwaltungsaktivität abgeben, die den Ablauf steuert. Damit die Markierungen (Angabe von Positionen im Quellcode) auch nach Änderungen am Quellcode gültig bleiben, sollen diese automatisch auf eine neue Version angepasst werden können. Eine Merge-Technik ähnlich derer zu Versionsverwaltungssystemen soll hier eingesetzt werden.
Das Projekt stellte bis 2019 einen Beitrag des Lehrstuhls Informatik 2 zum IZ ESI (Embedded Systems Initiative, http://www.esi.fau.de/ ) dar. In diesem Rahmen wurden verschiedene Ansätze zur Verbesserung der Qualität nebenläufiger Software untersucht. Zusammenfassend wurde festgestellt, dass verschiedenartige Verfahren notwendig und realisierbar sind, allerdings meistens die hohen Laufzeiten ein großes Problem darstellen.
Über das ESI Projekt hinaus wurde die Verwendung von Mutationstests durch die Entwicklung eines Werkzeugs zur Äquivalenzerkennung und Testfallgenerierung verbessert. Eine entsprechende Publikation wurde eingereich und angenommen.
Im Jahr 2020 evaluierten wir Ansätze und Techniken zur Erkennung von externen Wettlaufsituationen. Während bei klassischen Wettlaufsituationen mehrere Aktivitätsfäden eines Programms nicht richtig miteinander arbeiten, treten externe Wettlaufsituationen bei der Interaktion der Software mit anderen, unabhängigen und unbekannten Komponenten auf. Das können andere gleichzeitig laufende Programme sein, das Betriebssystem oder sogar Code eines böswilligen Angreifers, der gezielt mit der analysierten Software interferiert.
Im Jahr 2021 wurde ein Verfahren entwickelt, um statisch Wettlaufsituationen bei der Verwendung von externen Ressourcen zu erkennen. Ein häufiges Muster ist, dass Programme die Eigenschaften von Dateien abrufen und später auf Grund der vorherigen Überprüfungen auf die Dateien erneut zugreifen. Ändert sich der Zustand der Datei in der Zwischenzeit, kann eine Vielzahl von Problemen auftreten (time-of-check to time-of-use). Neben unerwartetem Verhalten können jedoch auch Angreifer durch geeignetes Anpassen der Datei, gezielt Fehlverhalten auslösen oder das System kompromittieren. Mit dem entworfenen Verfahren sollen solche Problemstellen in einer Software automatisch erkannt werden. -
Parallele Code-Analyse auf einer GPU
(Projekt aus Eigenmitteln)
Laufzeit: 01.07.2013 - 30.09.2020
URL: https://www2.cs.fau.de/research/ParCAn/Im Übersetzerbau (und auch an anderen Stellen) gibt es Analyseverfahren, bei denen Informationen solange durch einen Graphen propagiert und dabei verändert werden, bis sich das Analyseergebnis als Fixpunkt einstellt. In diesem Projekt entwickelten wir den Programmrahmen ParCAn, in dem verschiedene derartige Verfahren parallel und dadurch schneller auf der Graphikkarte ablaufen können.
Der Forschungsschwerpunkt des Jahres 2016 lag auf der Weiterentwicklung eines Synchronisationsmechanismus für GPUs. Bekannte Synchronisationsverfahren für die CPU (z. B. Spin-Lock) können nicht ohne weitere Anpassung auf der GPU verwendet werden, weil sie aufgrund spezieller Eigenschaften der GPU-Architektur zu Dead- bzw. Livelocks führen. Synchronisation wird jedoch (auch bei vorwiegend datenparallen Graphimplementierungen) benötigt, wenn sich Abhängigkeiten dynamisch ergeben. Der im Projekt entwickelte GPU-Synchronisationsmechanismus löst zwei wesentliche, auf GPUs nicht-triviale Probleme: Erstens verhindern wir Dead- bzw. Livelocks. Zweites erreichen wir einen maximalen Parallelitätsgrad, indem datenparallele Threads, die an nicht-kollidierenden Stellen der Datenstruktur arbeiten, nicht blockiert werden sondern die Datenstruktur zeitgleich verändern können. Beispiele sind Threads, die disjunkte Stellen eines Graphen modifizieren, ohne die strukturelle Integrität des Graphen zu beeinflussen. Bei unserem Ansatz hat der Programmierer die Möglichkeit, Regeln zu formulieren, unter welchen Umständen eine derartige parallele Ausführung eines kritischen Abschnitts erlaubt ist. Zur Laufzeit wird dann geprüft, welcher Grad an Parallelität ausgenutzt werden kann.
In den folgenden Arbeitsschritten wird der Synchronisationsmechnismus um einen Ablaufplaner erweitert, der kollidierende Zugriffe auf eine Datenstruktur so umsortiert, dass die SIMD-Ausführungsweise der GPU weniger Serialisierung bedingt, als ohne diese Umsortierung. Dadurch steigt der Paralellitätsgrad. Die zugrundeliegende Idee nutzt aus, dass GPUs Threads in einer Hierarchie von Organisationseinheiten verwalten. Stellt der oben beschriebene Synchronisationsmeachnismus einen kollidierenden Zugriff auf einer Hierarchieebene fest, wird auf der nächstkleineren Organisationseinheit erneut auf das Vorhandensein des Konflikts geprüft. Falls dieser dort nicht besteht, dann ist eine parallele Ausführung von wenigen Threads möglich, was immer noch besser ist als die größere Hierarchieebene sequentiell auszuführen. Ziel des Ablaufplaners ist es dann, die entdeckten Kollisionen so über die Organisationseinheiten zu verteilen, dass möglichst viele Threads parallel ausgeführt werden können. Da diese Ablaufplanung zur Laufzeit ausgeführt wird, muss sie effizient und selbst parallel sein sowie evtl. ausnutzen, dass neuere GPUs zur Laufzeit weitere Threads dynamisch starten können.
Graphen sind eine fundamentale Datenstruktur zur Repräsentation der Beziehungen zwischen Daten (z.B. soziale Netzwerke, Analyse der Verlinkung von Webseiten). Zu analysierende Graphen können Millionen/Milliarden von Knoten/Kanten enthalten. GPUs können Graphen mit mehreren 1000 Threads parallel verarbeiten. Graph-Analysen arbeiten nach dem Bulk Synchrones Parallel (BSP) Model. Eine Graph-Analyse zerfällt in drei, strikt getrennte, Phasen: Rechnen, Kommunikation und Synchronisation. Letztere beiden setzen Interaktion mit dem Host (CPU) voraus, welche sich negativ auf die Laufzeit auswirken. Unser GPU-basierter Übersetzer arbeitet ebenfalls nach dem BSP Model: Ein Entwickler modifiziert Code, dieser wird in einen (Kontrollfluss-) Graphen transformiert und auf der GPU analysiert. Jede Code-Veränderung löst diesen Zyklus aus. Der Graph muss also sehr schnell aufgebaut und auf die GPU transferiert werden.
Publikationen im Bereich der Graph-Analysen beschränken sich darauf, das Rechnen zu beschleunigen und auch nur dies zu vermessen. Die Ende-zu-Ende Zeit der Ausführung eines Programmes wird nicht berücksichtigt. Der Einfluss der Kommunikation und Synchronisation wird außer Acht gelassen, hat aber einen entscheidenden Einfluss auf die Laufzeit.
Für unseren GPU gestützten Übersetzer, betrachten wir alle drei Phasen des BSP-Models. 2017 veröffentlichten wir ein Papier, das die Synchronisation erheblich beschleunigt. Ferner fokussierten wir uns auf die Kommunikation. In diesem Kontext bedeutet Kommunikation das Kopieren des Graphen auf die GPU (und zurück). Während diese Zeit stark von der Datenstruktur des Graphen abhängt, beeinflusst sie auch die Dauer der Rechenphase. Weil bislang noch keine Untersuchung in der Literatur vorhanden ist, die die Datenstrukturen systematisch hinsichtlich ihrer Effizienz im Kontext von GPUs untersucht, implementierten wir einerseits mehrere Benchmarks, die unterschiedliche Eigenschaften von Graphen abfragen (Zugriff nur auf Vorgänger/Nachfolger, zufälliger Zugriff auf Knoten). Andererseits implementierten wir 8 Datenstrukturen zur Darstellung von Graphen auf der GPU. Die daraus resultierenden Kombinationen wurden mit, strukturell verschiedenen, Eingabegraphen vermessen. Die Ergebnisse sollen Entwickler bei der passenden Wahl der Datenstruktur für ihr GPU-Problem unterstützen.
Im Jahr 2018 schlossen wir die im Vorjahr begonnen Arbeiten an einer Studie zur Effizienz von Graphstrukturen auf der GPU ab und haben weitere Optimierungen an ParCAn vorgenommen. Um die Leistungsfähigkeit unseres Frameworks zu untersuchen, haben wir es in das LLVM-Übersetzersystem integriert. Umfangreiche Vergleichsmessungen zeigten, dass wir mit ParCAn den LLVM-Übersetzungsprozess um bis zu 40% beschleunigen konnten. Die zugehörige Publikation wurde auf einer Fachkonferenz (28th International Conference on Compiler Construction) als Bestes Papier
ausgezeichnet.
Im Jahr 2019 wurde ParCAn an das veränderte Ausführungsmodell neuer NVIDIA GPU-Architekturen angepasst. Mit Einführung der Volta-Architektur können Aktivitäten unabhängig Fortschritt erzielen. Jede Aktivität besitzt seinen eigenen Befehlszähler und Aufrufstapel. Vorher teilten sich Gruppen von Aktivitäten (Warps), den gleichen Befehlszähler und Aufrufstapel. Aktivitäten in einem Warp führten entweder die selbe Anweisung aus oder waren inaktiv (engl.: lock-step execution). Da jetzt Aktivitäten unabhängig voneinander Fortschritt erzielen können, besteht jetzt die Gefahr von Nebenläufigkeitsfehlern innerhalb von Warps.Der Programmcode von ParCAn wurde nach Programmstellen durchsucht, die durch das geänderte Ausführungsmodell zu Nebenläufigkeitsfehlern führen könnten. Die Anwendung wurde entsprechend angepasst. Somit lässt sich ParCAn auch auf den neusten NVIDIA Architekturen korrekt ausführen.
Im Jahr 2020 wurde das Forschungsprojekt erfolgreich beendet. Es konnte gezeigt werden, dass durch die Parallelisierung der besonders kostenintensiven Datenflussanalysen die Übersetzungszeit in unserer Testumgebung um bis zu 31% reduziert werden kann. Das Forschungsprojekt zeigt somit erfolgreich einen Weg hin zum parallelisierten Übersetzer auf, der den Anforderungen heutiger Softwareprojekte besser entspricht. Die Wichtigkeit dieses Forschungsthema wurde 2019 durch einen „Best Paper Award“ auf der renommierten Fachkonferenz „Compiler Construction“ unterstrichen, siehe CC-Literaturangabe.Durch die Verwendung der GPU als Zielarchitektur wurden weitere forschungsrelevante Fragen beantwortet, die ebenfalls publiziert wurden.
Einige Analysen sammeln ihre Informationen in einer globalen Datenstruktur, die von allen Aktivitäten gleichzeitig modifiziert werden kann. Gerade auf der GPU mit ihrer Vielzahl an gleichzeitig laufenden Aktivitäten stellt dies hohe Anforderungen an eine effiziente Synchronisation beim Zugriff auf die gemeinsam genutzte Datenstruktur. So wurde im Rahmen des Forschungsprojektes ein effizientes Rahmenwerk zum Herstellen von gegenseitigen Ausschluss implementiert, siehe LNCS-Literaturangabe. Bisherige Ansätze führten unweigerlich zu Verklemmungen, dem Blockieren des Programms. Zudem wurde die Effizienz des Rahmenwerks durch die Verwendung einer Variante des Inspektions-Ausführungs-Paradigmas erhöht.
Eine andere Fragestellung befasste sich mit der Effizienz von Graphstrukturen auf GPUs. Im Kern implementiert ParCAn einen Graphtraversierungsalgorithmus. Das zu übersetzende Programm wird in einen Graphen umgewandelt, dem Kontrollflussgraphen (KFG), auf dem die Analysen ausgeführt werden. Durch die Vielzahl an parallelen Zugriffen stellt der KFG für die Leistungsfähigkeit von ParCAn eine kritische Datenstruktur dar. Aus diesem Grund wurde eine umfangreiche Studie durchgeführt, in der die Leistung von Graph-Datenstrukturen verglichen wurden. Die Ergebnisse wurden genutzt, um für ParCAn die bestmögliche Datenstruktur zur Repräsentation des KFG zu verwenden. Aus den Messdaten wurden allgemeine Kriterien zur Effizient einer Datenstruktur abgeleitet. Diese Kriterien - dargestellt als Entscheidungsbaum - ermöglichen es Entwicklern auch außerhalb des ParCAn-Kontextes, für ihre statischen Graphalgorithmen die am besten geeigneten Datenstrukturen zu wählen. Die Ergebnisse der Studie wurden auf dem GPGPU-Workshop vorgestellt, siehe Literaturangaben.
-
Design for Diagnosability
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 15.05.2013 - 30.09.2018
Mittelgeber: Bayerisches Staatsministerium für Wirtschaft und Medien, Energie und Technologie (StMWIVT) (ab 10/2013)
URL: http://www2.informatik.uni-erlangen.de/research/DfD/Viele Software-Systeme verhalten sich während der Testphase oder sogar im Regelbetrieb im negativen Sinne auffällig. Die Diagnose und die Therapie solcher Laufzeitanomalien ist oft langwierig und aufwändig bis hin zu unmöglich. Mögliche Folgen bei der Verwendung des Software-Systems sind lange Antwortzeiten, nicht erklärbares Verhalten oder auch Abstürze. Je länger die Folgen unbehandelt bleiben, desto höher ist der entstehende wirtschaftliche Schaden.
"Design for Diagnosability" beschreibt eine Werkzeugkette mit Modellierungssprachen, Bausteinen und Werkzeugen, mit denen die Diagnosefähigkeit von Software-Systemen gesteigert wird. Mit dieser Werkzeugkette werden Laufzeitanomalien schneller erkannt und behoben – idealerweise noch während der Entwicklung des Software-Systems. Unser Kooperationspartner QAware GmbH bringt ein Software EKG ein, mit dem die Exploration von Laufzeit-Metriken aus Software-Systemen, visualisiert als Zeitreihen, möglich ist.
Das Forschungsprojekt Design for Diagnosability erweitert das Umfeld dieses bestehenden Software-EKG. Die Software-Blackbox misst minimal-invasiv technische und fachliche Laufzeitdaten des Systems. Die Speicherung der erfassten Daten erfolgt in Form von Zeitreihen in einer neu entwickelten Zeitreihendatenbank Chronix. Chronix ist darauf ausgelegt, eine Vielzahl an Zeitreihen äußerst effizient hinsichtlich Speicherplatzbedarf und Zugriffszeiten zu speichern. Chronix ist ein Open Source Projekt (www.chronix.io) und kann frei benutzt werden. Die Zeitreihen werden mit der Time-Series-API analysiert, z.B. mittels einer automatisierten Strategie zur Erkennung von Ausreißern. Die Time-Series-API bietet Grundbausteine, um weitere Strategien zur Identifikation von Laufzeitanomalien in Zeitreihen umzusetzen.
Die aufgeführten Werkzeuge werden in Kombination mit dem bestehenden Software-EKG zum Dynamic Analysis Workbench ausgebaut, um eine zeitnahe Diagnose und Behebung von Laufzeitanomalien zu ermöglichen. Hierzu sind Diagnosepläne vorgesehen, die einen Software-Entwickler unterstützen, eine Laufzeitanomalie schneller und zuverlässiger einzugrenzen und zu erkennen. Das Ziel der Werkzeugkette ist die Qualität von Software-Systemen zu erhöhen, insbesondere hinsichtlich der Kennzahlen Mean-Time-To-Repair sowie Mean-Time-Between-Defects.Vor dem erfolgreichen Projektabschluss im Juli 2016 konnten noch eine Reihe wesentlicher Beiträge geleistet werden:
- Wir haben Chronix und ein Framework zur verteilten Berechnung gekoppelt. Dadurch skaliert die Anomalieanalyse jetzt auf riesige Mengen an Zeitreihendaten.
- Wir haben Chronix fortentwickelt und weitere Komponenten ergänzt, wie z. B. ein noch effizienteres Speichermodell, mehrere Adapter für diverse Zeitreihendatenbanken, weitere server-seitige Analysefunktionen und neue Zeitreihentypen.
- Wir haben unseren Benchmark für Zeitreihendatenbanken veröffentlicht.
- Wir haben zur Analyse von Anomalien einen Ansatz entwickelt, der Aufrufe ausgehend von der Anwendung bis hinein auf die Betriebssystemebene nachvollzieht.
Obwohl die Förderung im Jahr 2016 auslief, haben wir im Jahr 2017 noch weitere Beiträge geleistet:
- Wir haben Chronix auf der USENIX Conference on File and Storage Technologies (FAST) im Februar 2017 in Santa Clara, CA, vorgestellt.
- Wir haben Chronix mit Schnittstellen ausgestattet, um in der Industrie verwendete Zeitreihendatenbanken anzubinden.
- Wir haben einen Ansatz entwickelt, der für eine gegebene Analyse (Funktion und zu analysierende Zeitreihen) die ideale Cluster-Konfiguration (bzgl. Verarbeitungszeit und Kosten) bestimmt.
- Wir haben Spark, ein Rahmenwerk zur verteilten Verarbeitung von Massendaten so erweitert, dass die GPU bei der verteilten Analyse von Zeitreihen genutzt werden kann. Ergebnisse haben wir auf der Apache Big Data Konferenz im Mai 2017 in Miami, Florida, vorgestellt.
Auch im Jahr 2018 haben wir noch weitere Beiträge im Forschungsprojekt geleistet:
- Wir haben ein Papier auf der PROFES 2018 veröffentlicht, in dem wir Techniken und Erkenntnisse beschreiben, wie man Laufzeitdaten in einem großen Software-Projekt schon zur Entwicklungszeit für alle Projektbeteiligten anbieten kann und damit die Zusammenarbeit verbessert.
- Wir haben das Open Source Projekt von Chronix gewartet und dabei weiter stabilisiert (Aktualisieren von Versionen, Fehlerbehebungen etc.).
-
Echtzeitkritische Systeme
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.01.2013 - 31.12.2013
Mittelgeber: Industrie -
Methoden und Werkzeuge zur iterativen Entwicklung und Optimierung von Software für eingebettete Multicore-Systeme
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 15.10.2012 - 30.11.2014
Mittelgeber: Bayerisches Staatsministerium für Wirtschaft, Infrastruktur, Verkehr und Technologie (StMWIVT) (bis 09/2013)Für eingebettete Systeme werden Multicore-Prozessoren immer wichtiger, da diese hohe Rechenleistung bei niedrigem Energieverbrauch ermöglichen. Die Entwicklung von paralleler Software für diese Systeme stellt jedoch neue Herausforderungen für viele Branchen dar, da existierende Software und Werkzeuge nicht für Parallelität entworfen wurden. Die effiziente Entwicklung, die Optimierung und das Testen von Multicore-Software, speziell für eingebettete Systeme mit hohen Zuverlässigkeits- und Zeitanforderungen, sind offene Probleme.
Im Verbundprojekt "WEMUCS" [http://www.multicore-tools.de/] wurden im 2-jährigen Verlauf des Projekts Techniken für die effiziente und iterative Entwicklung, die Optimierung sowie den Test von Multicore-Software durch neue Werkzeuge und Methoden geschaffen. Hierfür wurden mehrere Technologien und innovative Werkzeuge zur Modellierung, Simulation, Visualisierung, Tracing und zum Test entwickelt und zu einer Werkzeugkette integriert. Diese wurden in Fallstudien in der Automobilbranche, der Telekommunikation und der Automatisierungstechnik evaluiert und iterativ weiter entwickelt.
Während es für klassische Single-Core-Applikationen gut erforschte Methoden zur Erzeugung von Testfällen und bewährte Maße und Hierarchien für deren Überdeckung gibt, sind ebenfalls nötige Methoden für mehrkernfähige Anwendungen noch nicht etabliert. Gerade durch das Zusammenspiel gleichzeitig ablaufender Aktivitäten können sich aber erst Fehlerzustände ergeben, die durch das isolierte Testen jeder einzelnen, beteiligten Aktivität nicht identifiziert werden können. Als Teil des WEMUCS-Projektes (genauer: Arbeitspaket AP3 [http://www.multicore-tools.de/de/test.html]) haben wir ausgehend von einem Fallbeispiel ein generalisierbares Verfahren entwickelt (im Folgenden "Testing-Pipeline" genannt), um derartige Wechselwirkungen von parallelen Aktivitäten systematisch zu lokalisieren und etwaige Auswirkungen auf den Programmablauf durch Testmethoden gezielt zu untersuchen.
Zum Zweck der praktischen Erprobung der im AP3 entwickelten Testing-Pipeline, einschließlich der automatischen Parallelisierung von bislang sequentiellem Code, wurde vom Projektpartner Siemens eine Gepäckförderanlage, wie man sie von Flughäfen kennt, vollständig (inkl. Code) modelliert. Das modellierte Fallbeispiel ist so gestaltet, dass man unterschiedlich große Anlagen, d.h. u.a. mit unterschiedlich vielen Förderbändern für Zufuhr bzw. Abtransport, automatisiert generieren kann. Die Hardware der Förderanlage wird dabei durch das Simulationsgerät SIMIT von Siemens emuliert, während die Steuerungssoftware (in der Sprache: AWL) auf einer Software-basierten SPS ausgeführt wird.
Im ersten Schritt der Testing-Pipeline wird der AWL-Code durch ein vom Lehrstuhl für Programmiersysteme im Berichtszeitraum und im Vorjahr entwickeltes Werkzeug in die für Menschen verständlichere Programmiersprache HLL konvertiert und die in AWL noch sequentiell ausgeführte Abschnitte in einem direkt angeschlossenen zweiten Schritt automatisch in parallel ausgeführte HLL-Einheiten überführt. Für eine exemplarische Gepäckförderanlage mit acht Zufuhr- und acht Abtransportförderbändern sowie einem ringförmigen Zwischenband aus mehreren geraden und gewundenen Segmenten hat unser Werkzeug 11.704 Zeilen sequentiellen AWL-Code automatisch in 34 KB parallelen HLL-Code transcodiert.
Im dritten Schritt der Testing-Pipeline wird der HLL-Code analysiert und durch ein weiteres, im Projektverlauf vom Lehrstuhl entwickeltes Werkzeug in ein Testmodell überführt. Dieses Testmodell stellt den interprozeduralen Kontrollfluss der nebenläufigen Unterprogramme zusammen mit potentiellen und für den Test relevanten Thread-Wechseln als hierarchische UML-Aktivitäten dar (derzeit als XMI-Dokument, z.B. für den Import in Enterprise Architect von Sparx Systems). Für die vorangehend beschriebene Gepäckförderanlage hat unser Werkzeug ebenfalls automatisch 103 Aktivitätsdiagramme (mit 1.302 Knoten und 2.581 Kanten) erzeugt.
Nach einem optionalen Schritt, bei dem das Testmodell von einem Tester manuell angepasst werden kann (z.B. um Prioritäten zu ändern oder zusätzliche Prüfschritte einzubauen), kann das Modell dann in die MBTsuite des Projektpartners sepp.med GmbH geladen werden. Dieses umfangreich konfigurierbare Werkzeug dient zur Generierung von Testfällen, die eine möglichst vollständige Überdeckung des Modells anstreben. Für die exemplarische Gepäckförderanlage wurde u.a. auf einem haushaltsüblichen Standard-PC innerhalb von lediglich sechs Minuten eine hochgradig optimierte Testfallmenge generiert, die mit nur 10 Testfällen rund 99% der Knoten und 78% der Kanten im Gesamtmodell überdecken konnte.
Zusammen mit dem Projektpartner sepp.med GmbH demonstrieren wir im Projekt dass und wie zwei Export-Module für die MBTsuite entwickelt werden können, die die generierten Testfälle einerseits für den menschlichen Tester als Tabellendokument ausgibt, bei dem jeder Testfall ein Tabellenblatt füllt, dessen Spalten und Zeilen anschaulich den nebenläufigen Ablauf und die Thread-Wechsel zeigen, sowie andererseits zur weiteren Verarbeitung als ausführbare Testfallmenge (d.h. hier als Java-Programm für den nun folgenden Schritt). Die ausführbaren Tests bestehen aus mehreren Testfällen, bei dem jeder Testfall aus mehreren Testschritten und jeder Testschritt aus Steueranweisungen besteht, so dass ein Testlauf einer jederzeit eindeutig reproduzierbaren Programmausführung des zu testenden, nebenläufigen HLL-Codes entspricht. Werden diese Testfälle gestartet, dann schließt sich die Werkzeugkette, indem der HLL-Code in einem von Lehrstuhl entwickelten HLL-Emulator nach der Vorgabe im Testfall kontrolliert ausgeführt und dabei gleichzeitig ein detailliertes Protokoll der Testausführung zum Zweck der Visualisierung generiert wird.
Dieses Protokoll kann schließlich durch ein von der sepp.med GmbH entwickeltes Plug-In für Enterprise Architect wie eine zusätzliche Schicht/Ansicht "über" das Testmodell gelegt werden, so dass der Tester für jeden einzelnen Testfall bzw. für die gesamte Testfallmenge graphisch nachvollziehen kann, welche Abläufe getestet wurden und wo gegebenenfalls ein Fehler aufgetreten ist: Die "graphische Spur" endet in diesem Fall genau an der betroffenen HLL-Anweisung und lässt sich z.B. "rückwärts" untersuchen, um die Ursache des Fehlschlags zu identifizieren.
Das am Fallbeispiel prototypisch realisierte Verfahren stellt damit einen wesentlichen Beitrag zum Testen nebenläufigen Codes auf eingebetteten Systemen dar. Es ist ein Beitrag des Lehrstuhls Informatik 2 zum "IZ ESI" [http://www.esi.uni-erlangen.de].
-
Inkrementelle Code-Analyse
(Projekt aus Eigenmitteln)
Laufzeit: 01.04.2012 - 30.06.2017
URL: https://www2.cs.fau.de/research/InCA/Um sicherzustellen, dass Fehler im Programmdesign schon früh im Entwicklungsprozess gefunden werden, ist es nützlich, Fehler möglichst schon während des Editierens des Programms zu finden. Dazu sollte die verwendete Analyse so schnell sein, dass ein interaktiver Einsatz möglich ist. Eine Möglichkeit, dies umzusetzen, ist der Einsatz von inkrementeller Analyse, bei der die Analyseergebnisse von Teilen eines Programms zu Gesamtergebnissen kombiniert werden. Vorteil von inkrementeller Programmanalyse ist, dass bei kleineren Änderungen ein großer Teil der Analyseergebnisse wieder verwendet werden kann, wie auch z.B. Analyseergebnisse von u.U. verwendeten Programmbibliotheken. Hierdurch kann der Analyseaufwand drastisch reduziert werden, wodurch die Analyse interaktiv nutzbar wird.
Unsere Analyse basiert darauf, für (Teile von) einzelnen Funktionen zu bestimmen, welche Auswirkungen die Ausführung auf den Zustand des Programms zur Laufzeit haben kann. Hierzu wird der Laufzeitzustand eines Programms abstrakt durch einen Graphen dargestellt, der die im Speicher befindlichen Variablen und Objekte und ihre Verzeigerung beschreibt. Die Funktion wird symbolisch ausgeführt und dabei wird bestimmt, welche Änderungen an dem Laufzeitzustand bzw. an dem diesen darstellenden Graphen verursacht werden können. Um die Effekte von Hintereinanderausführung von Programmteilen, Funktionsaufrufen, Schleifen, etc. zu bestimmen, können die Änderungsbeschreibungen der Programmteile dann zu größeren Änderungsbeschreibungen kombiniert werden. Die Analyse geht dabei Bottom-Up vor, analysiert also eine aufgerufene Funktion vor der aufrufenden Funktion (wobei Rekursion analysierbar ist).Im Jahr 2015 lag der Schwerpunkt der Forschung darauf, die eingesetzten Algorithmen und Datenstrukturen weiter zu entwickeln. So konnte die für die Analyse eines gegebenen Programmes benötigte Laufzeit deutlich verringert werden. Zum anderen dürfen die zu analysierenden Programme mehr und mächtigere Features und Elemente der Programmiersprache benutzen.
Im Jahr 2016 lag der Schwerpunkt der Forschung darauf, die eingesetzten Algorithmen und Datenstrukturen weiter zu entwickeln. Im Fokus lagen hierbei zum einen die Skalierbarkeit der Analyse bis hin zu Programmen mit mehr als 1 Mio. Anweisungen und zum anderen die inkrementelle Analyse, bei der die Analyseergebnisse von unveränderten Programmteilen weiterverwendet werden, was die Analyse bei typischen Software-Entwicklungspraktiken (großes Code-Volumen, meist sehr kleine Änderungen) deutlich beschleunigt.
Im Jahr 2017 lag der Schwerpunkt unserer Forschung darauf, die eingesetzten Algorithmen und Datenstrukturen weiter zu entwickeln. Zusätzlich zu einer besseren Skalierbarkeit der Analyse bei großen zu analysierenden Programmen und einer Weiterentwicklung der inkrementellen Analyse (bei der die Analyseergebnisse von unveränderten Programmteilen weiterverwendet werden), lag der Fokus darauf, die Analyse anschaulich zu dokumentieren, ihre Korrektheit nachzuvollziehen und eine theoretische Grundlage zu konstruieren.
-
Inter-Thread Testing
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2012 - 31.12.2013Zur Beschleunigung von Rechensystemen setzen Prozessor-Hersteller schon lange nicht mehr auf steigende Taktraten - im Gegenteil: Die absolute Taktzahl sinkt, stattdessen werden in Prozessoren immer mehr unabhängige Recheneinheiten (cores) verbaut. Dafür müssen die Entwickler nun umdenken: Sie bekommen ihre Applikationen nur dann performanter (effizienter), wenn sie ihre Programme so modularisieren, dass unabhängige Codeabschnitte nebenläufig ausgeführt werden. Leider sind heutige Systeme schon funktional so komplex geworden, dass selbst die Entwicklung für eine sequentielle Ausführung noch nicht fehlerfrei gelingt - die Parallelisierung auf mehrere Rechenkerne fügt der System-Konzeption eine weitere nicht-funktionale Komplexitätsdimension hinzu. Zwar hat die Forschung auf dem Gebiet der Softwaretechnik eine Vielzahl von Qualitätssicherungsmaßnahmen hervorgebracht, da aber die zunehmende Verbreitung von Mehrkernsystemen noch verhältnismäßig neu ist, fehlen bislang wirksame Verfahren zum Testen nebenläufiger Applikationen.
Das vorliegende Projekt hat zum Ziel, diese Lücke durch Bereitstellung eines automatisierten Testsystems zu schließen. Dazu bedarf es zunächst einer Testkriterienhierarchie, die Überdeckungsmaße speziell für das Konzept der Nebenläufigkeit bereitstellt. Vergleichbar z.B. der Verzweigungsüberdeckung für sequentielle Programme, die die Ausführung jedes Programmzweigs im Test fordert (z.B. die Bedingung eines if-statements sowohl wahr als auch falsch erzwingt - auch dann, wenn es keinen expliziten else-Zweig gibt), muss ein fundiertes Testendekriterium für nebenläufige Applikationen die systematische Ausführung aller relevanten Verschränkungen fordern (z.B. alle Reihenfolge-Kombinationen die auftreten können, wenn zwei Fäden einen gemeinsamen Speicherbereich verändern dürfen). Eine Testkriterienhierarchie schreibt dem Tester zwar vor, welche Eigenschaften seine 'fertige' Testfallmenge vorweisen muss, hilft dem Tester aber nicht bei der Identifikation der einzelnen Testfälle. Dabei genügt es nicht, wie im Falle sequentieller Tests, das Augenmerk auf die Testfälle allein zu richten: Testszenarien für parallele Module müssen zusätzlich Steuerungsinformationen zur gezielten Ausführungskontrolle der TUT (Threads Under Test) enthalten.
Im Jahr 2012 ist ein Framework für Java entstanden, das diese gezielte Ablaufsteuerung für TUT automatisch generiert. Der Tester muss lediglich die Byte-Code-Dateien seiner Applikation bereitstellen, weitere Details wie z.B. Quellcode oder Einschränkungen auf bestimmte Testszenarien kann er optional angeben, er muss sie aber nicht zwangsweise mühsam einpflegen. Der Ansatz verwendet Aspekt-Orientierte Programmierung, um die für typische Nebenläufigkeitsfehler verantwortlichen Speicherzugriffe (Lesen bzw. Schreiben von Variablen) mittels automatisch generierten Advices zu umschließen. Werden die Aspekte ins SUT (System Under Test) eingewoben, dann werden Variablenzugriffe zur Ausführungszeit abgefangen und die ausführenden Threads in der Ablaufsteuerung 'geparkt', bis das gewünschte Testszenario erreicht ist, und dann kontrolliert in der gewünschten Reihenfolge zur weiteren Ausführung reaktiviert. Zur Demonstration wurden einige naive Ablaufsteuerungen umgesetzt, die individuelle Variablenzugriffe z.B. gezielt abwechselnd verschiedenen Threads erlauben.
Der 2012 begonnene Prototyp des InThreaT-Framework wurde im Jahr 2013 zum Eclipse-Plugin umgebaut. Damit ist der Ansatz Multi-Projekt-fähig geworden und die erforderliche Funktionalität integriert sich nahtlos in die vertraute Entwicklungsumgebung (IDE) des Entwicklers bzw. des Testers. Darüber hinaus verringert sich für den Tester dadurch auch der Konfigurationsaufwand, der nunmehr ebenfalls intuitiv in der gewohnten IDE erfolgt - z.B. die Auswahl und Persistenz der im Test zu beobachtenden Verschränkungspunkte, welche schließlich Grundlage der automatische Variation der zu testenden Verschränkungen sind. Für die automatische Exploration der relevanten Verschränkungen bedarf es außerdem einer Infrastruktur zur Anreicherung von Testfällen mit Steuerungsinformationen zwecks kontrollierter (Wieder-)Ausführung einzelner Tests. Im Jahr 2013 wurde exemplarisch ein solcher Ansatz für JUnit untersucht und implementiert, bei dem einzelne Testmethoden und/oder ganze Testklassen mit geeigneten Annotationen versehen werden.
-
Embedded Realtime Language Development Framework
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2012 - 30.11.2014ErLaDeF ist unsere Testumgebung für die Erforschung neuer Programmiersprachen und Compiler-Techniken. Unser Zielbereich ist die Infrastruktur, die nötig ist, um Programmieren von eingebetteten parallelen Systemen (insbesondere im Echtzeitbereich) zu vereinfachen.
Im Bereich der eingebetteten Systeme und der Echtzeit-Software gibt es feste Grenzen für den Verbrauch an Betriebsmitteln wie Hauptspeicher oder Rechenzeit. Ein typischer Steuerrechner z. B. darf für eine Regelungsaufgabe im Allgemeinen nicht beliebig viel Zeit verbrauchen, um eine Fehlfunktion des gesteuerten Systems zu verhindern. Die Hardware-Entwicklung der letzten Jahre hat dazu geführt, dass vermehrt Mehrkern-Prozessoren in eingebetteten Systemen eingesetzt werden. Um die damit verbundene Leistungssteigerung auszunutzen, ist es daher nötig, die Steuerungs- und Systemsoftware, die auf diesen eingebetteten Systemen laufen soll, ebenfalls zu parallelisieren, ohne dabei die Anforderungen an Echtzeitfähigkeit und Resourcenverbrauch zu verletzen.
Wir erforschen verschiedene Strategien, um diese Parallelisierung von Software in den Griff zu bekommen: Vereinfachung der Fähigkeiten von Programmiersprachen, automatische Parallelisierung, Bibliotheken mit Entwurfsmustern für die parallele Programmierung, tiefgehende Analyse im Übersetzer, Model Checking und Beschleunigung von Übersetzeranalyse bis hin zur interaktiven Nutzung.
Parallelisierung von Programmen zur Laufzeit
Aktuell konzentrieren wir uns bei der automatisierten Parallelisierung auf Laufzeit-Parallelisierung. Das zu parallelisierende Programm wird während seiner Ausführung auf Schleifen untersucht, die parallel ausführbar sind. Unser Ansatz besteht darin, laufzeitintensive Schleifen zunächst in zwei Durchläufen auf ihre Parallelisierbarkeit zu untersuchen. Die Analysedurchläufe werden parallel ausgeführt. Im ersten Analysedurchlauf werden die Adressen aller Schreibzugriffe auf den Hauptspeicher in einer gemeinsam genutzten Datenstruktur gespeichert. Zugriffe auf diese Datenstruktur müssen nicht synchronisiert werden, wenn sichergestellt wird, dass bei konkurrierenden Schreibzugriffen überhaupt ein Wert geschrieben wird. Im zweiten Durchlauf wird für jeden Speicherzugriff (auch lesende!) überprüft, ob eine Datenabhängigkeit zu einem Schreibzugriff besteht. Falls keine Datenabhängigkeiten gefunden werden, wird die Schleife parallel ausgeführt - anderenfalls sequentiell.
Im Jahr 2013 konnten wir die Analyse verfeinern, indem wir in der Analyse beachten, dass die Speicherzugriffe der sequenziellen Ausführung der ersten Schleifen vor den parallelen Ausführungen der restlichen Schleifen stattfindet. Dadurch ist in mehr schwierigen Fällen eine Parallelisierung möglich. Zusätzlich sorgt das dafür, dass falls eine Schleife nicht parallel ausgeführt werden kann, unsere Analyse nur geringen Overhead verursacht.
Im Jahr 2014 konnten wir das Verfahren so verbessern, dass mit der Ausführung der ersten Schleifeniterationen zusammen mit der Analyse begonnen werden kann. Um das zu ermöglichen, musste die Analyse so verbessert werden, dass sie auch dann noch zuverlässig funktioniert, wenn sich die Daten (durch die gleichzeitige Ausführung) ändern. Durch diese Verbesserung konnten wir den Overhead für nicht-parallelisierbare Schleifen erheblich senken. Außerdem haben wir eine Programmiersprache entwickelt, die diejenigen Schleifen wie den beschriebenen zur Laufzeit parallelisiert, welche der Programmierer als Kandidaten zur Parallelisierung markiert hat. Eine Analyse prüft zuvor, ob die Schleifen illegale Konstrukte enthalten, mit denen der Parallelisierer noch nicht umgehen kann. Ansonsten wird Code erzeugt, der die Schleifen zur Laufzeit inspiziert und dann potenziell parallel ausführt.
Entwurfsmuster für parallele Programmierung
Eine Bibliothek von Entwurfsmustern der parallelen Programmierung erlaubt es einem Programmierer, bekannte Strategien auszuwählen und bei ihrer Implementierung auf erprobten, effizienten Code zur ̈uckzugreifen. Wir erforschen, welche Entwurfsmuster für parallele Programmierung und insbesondere Kommunikation in parallelen Programmen es überhaupt gibt, und wann diese angewendet werden können. Aus unserer bereits über 30 verschiedene Kommunikationsmuster enthaltenden Bibliothek versuchen wir in diesen Projekt für einen gegebenen Anwendungsfall automatisiert das zu seinen Anforderungen passende Entwurfsmuster zu selektieren. Im Jahr 2013 haben wir diese Bibliothek um NUMA-taugliche Kommunikationskanäle zur Verwendung auf Network-on-Chip Prozessoren erweitert.
Skriptsprache Pylon für eingebettete Systeme
Pylon ist eine statisch getypte Skriptsprache und kommt zwecks einfacher Erlernbarkeit mit wenigen Schlüsselwörtern aus. Ein Großteil der Komplexität (z.B. Typinferenz) ist in den Übersetzer verschoben. Der Programmierer muss sich keine Gedanken über Datentypen machen. Trotzdem bleibt das Programm statisch typisiert. Alleine aus dem Wert einer Zuweisung kann der Übersetzer den gerade benötigten Datentyp ableiten (Duck-Typing). Da die Sprache zudem implizit parallel ist, erfordert die Parallelisierung einer Anwendung kein Expertenwissen.
Beim Entwurf der Sprache wurde darauf geachtet, auf Sprachkonstrukte zu verzichten, welche die Analysierbarkeit erschweren (z.B. Zeiger, Vererbung, Polymorphie usw.), bzw. diese durch leichter analysierbare Alternativen zu ersetzen, die in früheren Projekten erarbeitet wurden. Der Fokus liegt darauf, den Anwender schon bei der Erstellung von robustem Programmcode bestmöglich zu unterstützen und Fehler statisch zu melden, die bei anderen Sprachen erst zu Laufzeit auftreten.Interaktive Programmanalyse
Um sicherzustellen, dass Fehler im Programmdesign möglichst schon früh im Entwicklungsprozess gefunden werden, ist es nötig, Fehler möglichst schon während des Editierens des Programms zu finden. Dazu muss die verwendete Analyse so schnell sein, dass interaktiver Einsatz möglich ist. Wir arbeiten an zwei Ansätzen, dies zu verwirklichen.
Unser erster Ansatz basiert darauf, die Probleme der Programmanalyse durch verbesserte Algorithmen zu lösen. Ein wichtiges Hilfsmittel ist dabei eine verzögerte Analyse, bei der ein Programmteil erst dann analysiert wird, wenn die zugehörigen Analyseergebnisse benötigt werden. Die Analyse soll auch inkrementell ablaufen, d.h. bei kleinen Änderungen im Programm-Code soll nur möglichst wenig des Programms neu analysiert werden. Dazu zerlegen wir ein Programm rekursiv in Teile und berechnen anschließend, welche Auswirkungen und Effekte diese Teile während einer Ausführung des Programms haben; diese Auswirkungen und Effekte speichern wir zusammenfassend in symbolischen Beschreibungen, die dann dazu verwendet werden, um die Fehler beim Zusammenspiel der zugehörigen Teile des Programms zu finden, um die Auswirkungen von größeren Teilen des Programms zu beschreiben und um bei Änderung eines Bestandteils des Programms nicht das komplette Programm neu analysieren zu müssen, sondern stattdessen die symbolischen Beschreibungen aller unveränderten Programmteile wieder zu verwenden.
In 2013 lag der Schwerpunkt der Forschung auf der Erstellung von sowohl präzisen als auch kompakten Datenstrukturen zur Repräsentation der Effekte und Auswirkungen von Programmteilen, sowie der Erarbeitung von effizienten Algorithmen zur Erstellung und Nutzung dieser Datenstrukturen.Im Jahr 2014 haben wir unser Werkzeug zur interaktiven Programmanalyse weiterentwickelt, um größere Code-Bestände zu analysieren und die Analyseergebnisse für spätere Verwendung aufzubewahren. Dadurch wird auch Code präzise analysierbar, der (vorab analysierte) größere Bibliotheken benutzt.
Unser zweiter Ansatz basiert darauf, die Programmanalyse selbst zu parallelisieren und dadurch auf interaktive Geschwindigkeit zu beschleunigen.Im Jahr 2013 haben wir begonnen, grundlegende Übersetzeranalysen in eine datenparallele Darstellung zu bringen. Dazu ist ein Rahmenprogramm für Prädikatspropagation in der Entwicklung. Diese datenparallelen Algorithmen sind dann einfach auf viele verschiedene Multi-Core Architekturen und GPUs portier
Objektorientierte Sprachen bieten im Allgemeinen die Möglichkeit, mittels Konstruktoren dynamisch Objekte zu erstellen. Der hierfür benötigte Speicher wird vom Laufzeitsystem angefordert. Im Unterschied zu Desktop-Systemen ist bei eingebetteten Systemen der Speicher noch sehr limitiert. Eine häufige Verwendung des new-Operators kann dazu führen, dass zur Laufzeit nicht genügend Speicher zu Verfügung steht und das Programm unerwartet beendet wird.
Im Jahr 2015 wurde daher eine Analyse entwickelt, um dieses Problem bereits zur Entwicklungszeit zu erkennen und an den Entwickler rückzumelden. Dazu ermittelt die Analyse die Lebensspanne einer Referenz auf ein Objekt. Existiert keine Referenz mehr auf dieses Objekt, kann das Objekt aus dem Speicher entfernt werden. Wir setzen hierzu das aus der automatischen Speicherbereinigung als Reference Counting (RC) bekannte Verfahren statisch und interaktiv während der Entwicklung eines Programmes ein, um Fehler zum frühestmöglichen Zeitpunkt zu erkennen. Wurde ein Objekt detektiert, das keine Referenzen mehr hat, muss der Programmierer es durch gezieltes Einfügen von Anweisungen löschen (z.B. delete) oder wiederverwenden. Damit kann der Speicherverbrauch einer Anwendung bereits zur Entwicklungszeit abgeschätzt werden. Die weitgehend sprachunabhängige Analyse basiert auf Pylon und dem im Vorjahr entwickelten parallelen Propagationsframework für Prädikate.
Das Projekt stellt einen Beitrag des Lehrstuhls Informatik 2 zum IZ ESI dar, siehe auch http://www.esi.uni-erlangen.de.
-
Übersetzerunterstützte Parallelisierung für Mehrkern-Architekturen
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2011 - 31.12.2016Die Entwicklung von schnelleren und immer effizienteren Rechnerarchitekturen ist in den letzten Jahren an verschiedene Grenzen gestoßen. Althergebrachte Techniken trugen nicht mehr oder nur noch wenig zur Beschleunigung der Hardware bei. Grundprobleme sind dabei das auseinander driftende Verhältnis der Latenzen von Speicher und CPU und die Abwärme bei steigenden Taktfrequenzen. Als Lösung drängen sich homogene und heterogene Mehr- und Vielkern-Architekturen auf, die durch verringerte Taktfrequenzen und mehrschichtige Speicherhierarchien einen Großteil der genannten Problematik vermeiden. Unter Umständen wird mittels Spezialisierung einzelner Komponenten die Rechenleistung weiter erhöht. Aktuelle Zielarchitekturen sind dabei vor allem Grafikkarten mit Hunderten von Recheneinheiten und der Intel XeonPhi-Prozessor, der auf einem Board 60 Kerne inkl. Hyperthreading zur Verfügung stellt.Während sich datenparallele Probleme mit Hilfe der neuen Architekturen meist relativ einfach beschleunigen lassen, ist die Umsetzung von auf Arbeitspaketen basierenden (sog. Task-parallelen) Probleme Gegenstand der aktuellen Forschung. Die Schwierigkeit ergibt sich dabei meist durch die Irregularität des entstehenden Task-Baumes und der damit verbundenen unterschiedlichen Ausführungsdauer. Dadurch ergeben sich die folgenden Fragestellungen: Welcher Kern führt welche Arbeitspakete in welcher Reihenfolge aus? Wann werden Arbeitspakete vom aktuellen Rechenknoten auf einen anderen Rechenknoten verschoben? Welche Daten gehören zu einem Arbeitspaket, können mehrere Kerne/Rechnerknoten parallel auf die Daten zugreifen? Wie müssen die Daten von verschiedenen Rechnerknoten wieder zusammengeführt werden? In welcher Form kann der Übersetzer in Zusammenarbeit mit dem Laufzeitsystem selbständig Arbeitspakete erzeugen und verteilen?
Im Jahr 2011 wurde in diesem Projekt das Programmiermodell Cilk für die heterogene CellBE-Architektur (ein PowerPC-Kern (PPU) mit acht SPU "Koprozessoren" zur Ausführung paralleler Berechnungen) implementiert und erweitert. Die CellBE-Architektur bietet sich aufgrund ihrer enormen Leistung auf einem einzelnen Chip als Zielarchitektur an. Um ein Arbeitspaket in der heterogenen Architektur verschieben zu können, haben wir das Cilk-Programmiermodell um ein weiteres Schlüsselwort ergänzt. Dazu entwickelten wir eine Quell-zu-Quelltext-Transformation, die aus einem Quelltext den entsprechenden Quelltext sowohl für die PPU als auch für die SPU erzeugen kann. Desweiteren wurden die entsprechenden Daten zu den Arbeitspaketen per DMA-Transfer passend in die lokalen Caches der Koprozessoren verschoben und nach Abarbeitung eines Teilbaumes auf den entfernten Koprozessoren der Speicher mit Hilfe eines automatischen Speicherbereinigers wieder
freigegeben.Im Jahr 2012 wurden Grafikkarten (GPUs) als weitere Zielarchitektur ins Auge gefasst, die heutzutage eine weitaus höhere Rechenleistung im Gegensatz zu normalen Prozessoren anbieten. Diese Rechenleistung kann durch die Programmierung mit Cuda (NVidia) oder OpenCL (AMD) aufgrund ihrer Struktur für datenparallele Probleme relativ einfach abgerufen werden. Weitaus schwieriger ist die Umsetzung Task-paralleler Anwendungen, die im weiteren Verlauf des Projekts untersucht werden sollen. Dazu werden verschiedene Lastausgleichsalgorithmen entworfen, prototypisch umgesetzt und miteinander verglichen werden. Im Jahr 2012 wurde ein erstes Verfahren mit mehrstufigen Warteschlangen und dem Prinzip der Arbeitsspende (work donation) entworfen.
Im Jahr 2013 wurden neben der Weiterentwicklung der Lastausgleichsalgorithmen für die Grafikkarte mit dem Intel XeonPhi-Prozessor die Gruppe der Zielarchitekturen weiter vergrößert. Der XeonPhi-Prozessor stellt mit seiner Vielzahl an Kernen und der großen Registerbreite und der damit verbundenen Vektorisierbarkeit neue Herausforderung an die Algorithmen zur Verteilung der Arbeitspakete. Konkret wurde das Cilk-Verfahren für den XeonPhi erweitert und angepasst, um automatisch während der Quellcode-Transformation Funktionen zu verschmelzen und die Möglichkeiten zur (automatischen) Parallelisierung durch den Intel-Compiler zu erhöhen. Dabei wurden mehrere Analysen implementiert, die nicht nur die Anzahl verschmelzbarer Funktionen erhöhen, sondern darüber hinaus auch das Auseinanderlaufen von Kontrollflusspfaden in den verschmolzenen Funktionen verhindern (bzw. zumindest abfangen).
Im Jahr 2014 wurde die vorhandene Implementierung der Lastausgleichsalgorithmen für den Intel XeonPhi-Prozessor so erweitert, dass die Arbeit auf mehrere XeonPhi-Prozessoren verteilt werden kann. Im Gegensatz zum Arbeitsdiebstahl, der weiterhin auf einer einzelnen Instanz des XeonPhi zur Lastverteilung zwischen den Kernen verwendet wird, wird die Arbeit aktiv an andere Prozessoren abgegeben. Mit einer neu entwickelten Annotation werden zur Abarbeitung des Arbeitspakets notwendige Daten gekennzeichnet und mit verschoben. Die Herausforderung dabei ist das Verschmelzen der Daten an Synchronisationspunkten. Desweiteren wurde begonnen, Cilk in den clang-Übersetzer des LLVM-Frameworks einzubauen, um automatisiert den CUDA-Code zur Ausführung auf Grafikkarten zu erzeugen. Dieser Code soll dabei auf ein leichtgewichtiges Laufzeitsystem zur Ordnung und Ausführung der Arbeitspakete aufsetzen. Dazu werden Analysen implementiert, die Divergenz soweit möglich vermeiden sollen.
Im Jahr 2015 wurden verschiedene Lastverteilungsalgorithmen zur Auführung von Cilk-Programmen auf der Grafikkarte evaluiert und verglichen. Dazu wurden Warteschlangenalgorithmen mit parallelem Zugriff implementiert und die automatische Erzeugung des CUDA-Codes verfeinert. Da weiterhin das korrekte Setzen der Cilk-Schlüsselwörter zur Synchronisation eine Herausforderung für den Programmierer darstellt, werden zur Übersetzungszeit aus rekursivem Quelltext ohne Cilk-Annotationen "plausible" Code-Varianten inkl. Synchronisationsanweisungen erzeugt. Diese Code-Varianten werden dann zur Laufzeit spekulativ ausgeführt und das Ergebnis der schnellsten, korrekten Variante für die weitere Berechnung verwendet. Desweiteren ist die Größe des Basisfalls der Rekursion entscheidend für den optimalen Geschwindigkeitsgewinn. Deswegen wurde begonnen, die Größe des Basisfalls durch Analysen zur Übersetzungs- und Laufzeit zu optimieren und rekursive Aufrufe durch Funktionseinbettung und Vektorisierung zu ersetzen.
-
Automatische Code-Parallelisierung zur Laufzeit
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2011 - 30.04.2016Aktuell konzentrieren wir uns bei der automatisierten Parallelisierung auf Laufzeit-Parallelisierung. Das zu parallelisierende Programm wird während seiner Ausführung auf Schleifen untersucht, die parallel ausführbar sind. Unser Ansatz besteht darin, laufzeitintensive Schleifen zunächst in zwei Durchläufen auf ihre Parallelisierbarkeit zu untersuchen. Die Analysedurchläufe werden parallel zueinander und parallel zu einer sequenziellen Ausführung der Schleife ab der ersten Iteration ausgeführt. Im ersten Analysedurchlauf werden die Adressen aller Schreibzugriffe auf den Hauptspeicher in einer gemeinsam genutzten Datenstruktur gespeichert. Zugriffe auf diese Datenstruktur müssen nicht synchronisiert werden, wenn sichergestellt wird, dass bei konkurrierenden Schreibzugriffen überhaupt ein Wert geschrieben wird. Im zweiten Durchlauf wird für jeden Speicherzugriff (auch für lesende!) überprüft, ob eine Datenabhängigkeit zu einem Schreibzugriff besteht. Damit die sequenzielle Ausführung parallel zur Analyse gestartet werden kann, muss diese die Speicherzugriffe, die sie durchführt, protokollieren und überprüfen. Falls keine Datenabhängigkeiten gefunden werden, wird die Schleife parallel ausgeführt. Anderenfalls wird die sequentielle Ausführung ohne weitere Instrumentisierung fortgeführt.Im Jahr 2015 haben wir begonnen, das Verfahren in eine bestehende Javascript-Engine einzubauen. Die Wahl ist auf Javascriptcore aus Webkit gefallen, weil dort in der letzten Optimierungsstufe LLVM verwendet wird. Damit ist es einfacher möglich, das Verfahren auch für andere LLVM Sprachen zu verwenden, oder auf Analysen zurückzugreifen, die für LLVM entwickelt wurden. Javascriptcore verwendet ein mehrstufiges JIT Verfahren. In der letzten (am meisten optimierten) Stufe wird LLVM Zwischencode erzeugt, der dann von dem LLVM-Compiler mit den dort verfügbaren Optimierungen übersetzt wird. An diesen Punkt bauen wir unsere Parallelisierung ein. Wenn diese Optimierungsstufe erreicht ist, ist sichergestellt, dass der Code oft ausgeführt wird und sich unser aufwändiges Verfahren lohnt. Wir setzen unser Verfahren vor der Erzeugung des LLVM Code an, um Zugriff auf die JIT-Protokolldaten zu haben, die uns bei der Entscheidung unterstützen, welche Schleifen parallelisiert werden sollen.
Das Projekt stellt einen Beitrag des Lehrstuhls Informatik 2 zum IZ ESI dar, siehe auch http://www.esi.uni-erlangen.de .
-
Effiziente Software-Architekturen für verteilte Ereignisverarbeitungssysteme
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 15.11.2010 - 31.12.2015
Mittelgeber: Fraunhofer-GesellschaftFunkortungssysteme, auch bekannt als Real-Time Location Systems (RTLS), geraten immer mehr in den Fokus der Logistik, Produktion und vieler weiterer Prozesse. Diese Systeme liefern wertvolle Informationen über den Aufenthaltsort von beteiligten Objekten zur Laufzeit. Damit können Prozesse verfolgt, analysiert und optimiert werden. Neben den Forschungsbereichen an der Basis von Ortungssystemen, wie robuste und störsichere Ortungstechnologien oder Verfahren zur hochgenauen Positionsbestimmung, rücken mehr und mehr Methoden in den Vordergrund, die aus Positionsdatenströmen wertvolle Informationen für weitere Verarbeitungsstufen gewinnen. In diesem Kontext erforscht das Projekt Verfahren zur Ereignisdetektion in Positionsdatenströmen zur Laufzeit.
2011 wurde damit begonnen, auftretende Ereignisse in Lokalisierungssystemen zu erkennen und vorherzusagen. Hierfür werden Ereignisströme zur Laufzeit analysiert und ausgewertet. Somit konnten Modelle erlernt werden, um Ereignisse aus Ereignisströmen zu prädizieren.
2012 wurden für die Laufzeitanalyse von Positionsdatenströmen mehrerer Methoden entwickelt, um Ereignisse mit möglichst geringer Latenz detektieren zu können. Hierbei können einzelne Teilereignisse durch sog. Ereignisdetektoren dazu verwendet werden, höhere Zusammenhänge in den Daten hierarchisch zusammenzusetzen. Hierdurch wird die Komplexität der einzelnen Detektionskomponenten drastisch reduziert. Diese werden somit wartbarer und durch die Ausnutzung paralleler und verteilter Rechnerstrukturen wesentlich effizienter. Es ist nun möglich, Ereignisse in den Positionsdatenströmen innerhalb von nur einigen hundert Millisekunden zu erkennen.
2013 wurde die Verzögerung v.a. verteilter Ereignisverarbeitungssysteme weiter minimiert und ein spezielles Migrationsverfahren entwickelt, das die Verteilung von Softwarekomponenten im laufenden Betrieb so modifizt, dass möglichst wenig zeitliche Verluste durch Netzwerkkommunikation auftreten. Des Weiteren wurde ein spekulatives Verfahren puffernder Ereignisverarbeitungssysteme zur Optimierung erarbeitet. Überschüssige Systemressourcen werden effizient verwendet, um die Latenz in Ereignisverarbeitungssystemen auf ein Minimum zu reduzieren. Es wurde außerdem ein repräsentativer Datensatz (mit Sensor- und Positionsdatenströmen sowie manuell eingefügten Ereignissen) sowie eine praxisrelevante Aufgabenstellung veröffentlicht.
2014 wurden grundlegende Verfahren zur Bewältigung von Unsicherheiten (bezüglich der Definition von Ereignisdetektoren) und Unschärfe (im Sinne von Ungenauigkeiten innerhalb von Ereignissen an sich) untersucht. Im Rahmen des Forschungsprojekts wurde ein vielversprechender Ansatz verfolgt, der ohne den üblichen Determinismus ereignisverarbeitender Systeme auskommt und stattdessen parallele Berechnungspfade verfolgt und dabei durch die parallel Betrachtung mehrerer möglicher Zustände eine robustere und genauerere Ereignisverarbeitung erreicht. Dabei kann ein Anwendungsentwickler Wahrscheinlichkeiten oder Funktionen hinterlegen, welche die Ereignisdetektoren bzw. die generierten Ereignisse parametrisieren.
Dieses Verfahren wurde 2015 weiter verbessert, optimiert und veröffentlicht. Des Weiteren wurden erste Ansätze zum Erlernen optimaler Parameterkonfigurationen für Ereignisdetektoren untersucht. Damit wird eine manuelle Einstellung und Optimierung von Threshold-Parametern innerhalb der Detektoren unnötig.
Das Projekt stellt einen Beitrag des Lehrstuhls Informatik 2 zum IZ ESI (http://www.esi-anwendungszentrum.de) dar.
-
Analyse von Code-Repositories
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2010 - 12.04.2024
URL: https://www2.cs.fau.de/research/AnaCoRe/Bei der Weiterentwicklung von Software führen die Entwickler oftmals sich wiederholende, ähnliche Änderungen durch. Dazu gehört beispielsweise die Anpassung von Programmen an eine veränderte Bibliotheksschnittstelle, die Behebung von Fehlern in funktional ähnlichen Komponenten sowie die Parallelisierung von sequentiellen Programmteilen. Wenn jeder Entwickler die nötigen Änderungen selbst erarbeiten muss, führt dies leicht zu fehlerhaften Programmen, beispielsweise weil weitere zu ändernde Stellen übersehen werden. Wünschenswert wäre stattdessen ein automatisiertes Verfahren, das ähnliche Änderungen erkennt und mit dieser Wissensbasis Software-Entwickler bei weiteren Änderungen unterstützt.Änderungsextraktion
In 2017 entwickelten wir ein neues Vorschlagssystem mit Namen ARES (Accurate REcommendation System). Verglichen mit bisherigen Ansätzen erzeugt es genauere Vorschläge, da seine Algorithmen Code-Verschiebungen während der Muster- und Vorschlagserzeugung berücksichtigen. Der Ansatz basiert darauf, dass zwei Versionen eines Programms miteinander verglichen werden. Das Werkzeug extrahiert dabei automatisch, welche Änderungen sich zwischen den beiden Versionen ergeben haben, und leitet daraus generalisierte Muster aus zu ersetzenden Code-Sequenzen ab. Diese Muster können anschließend von ARES dazu verwendet werden, analoge Änderungen für den Quellcode anderer Programme automatisch vorzuschlagen.
Zur Extraktion der Änderungen verwenden wir ein baumbasiertes Verfahren. Im Jahr 2016 wurde ein neuer Algorithmus (MTDIFF) für solche baumbasierten Verfahren entwickelt und gut sichtbar publiziert, der die Genauigkeit der Änderungsbestimmung verbessert.Symbolische Ausführung von Code-Fragmenten
Im Jahr 2014 wurde ein neues Verfahren zur symbolischen Code-Ausführung namens SYFEX entwickelt, welches die Ähnlichkeit des Verhaltens zweier Code-Teilstücke bestimmt. Mit diesem Verfahren soll eine Steigerung der Qualität der Verbesserungsvorschläge erreicht werden. Abhängig von der Anzahl und Generalität der Muster in der Datenbank kann SIFE ohne das neue Verfahren unpassende Vorschläge liefern. Um dem Entwickler nur die passenden Vorschläge anzuzeigen, wird das semantische Verhalten des Vorschlags mit dem semantischen Verhalten des Musters aus der Datenbank verglichen. Weichen beide zu sehr voneinander ab, wird der Vorschlag aus der Ergebnismenge entfernt. Die Besonderheit von SYFEX besteht darin, dass es auf herausgelöste Code-Teilstücke anwendbar ist und keine menschliche Vorkonfiguration benötigt.
SYFEX wurde im Jahr 2015 verfeinert und auf Code-Teilstücke aus Archiven von verschiedenen Software-Projekten angewendet. Der Schwerpunkt im Jahr 2016 lag auf einer Untersuchung, inwieweit SYFEX zum semantischen Vergleich von Abgaben eines Programmierwettbewerbs geeignet ist. In den Jahren 2017 und 2018 wurde SYFEX optimiert. Des Weiteren wurde mit der Erstellung eines Datensatzes semantisch ähnlicher Methoden aus quelloffenen Software-Archiven begonnen, der im Jahr 2019 veröffentlicht wurde.Verfahren zur symbolischen Ausführung beruhen auf Algorithmen zur Erfüllbarkeitsprüfung von logisch-mathematischen Ausdrücken, um zulässige Ausführungspfade in einem Programm zu bestimmen. Oftmals beanspruchen diese Algorithmen einen großen Teil der aufgewendeten Rechenzeit. Um diese Erfüllbarkeitsprüfung zu beschleunigen, wurde in den Jahren 2019 und 2020 mit einer Technik experimentiert, um komplizierte Ausdrücke durch einfachere Ausdrücke mit gleicher Bedeutung zu ersetzen. Hierbei werden die einfacheren Ausdrücke durch ein Verfahren zur Programmsynthese aufgedeckt. Im Jahr 2020 wurde diese Programmsynthese um ein neuartiges Verfahren ergänzt, das für eine bestimmte Menge an Operationen bereits vorab ermitteln kann, ob sich damit ein Ausdruck mit gleicher Bedeutung wie der kompliziertere Quellausdruck bilden lässt. Unsere im Jahr 2021 erschienene wissenschaftliche Publikation beschreibt dieses Verfahren und zeigt, dass durch dessen Einsatz die Laufzeit von gängigen Programmsynthetisierern im Mittel um 33% verringert werden kann. Ebenfalls im Jahr 2021 wurde das Verfahren auf weitere Klassen von Programmsyntheseproblemen erweitert. Im Jahr 2022 wurden diese Erweiterungen umfangreich evaluiert. Diese Evaluation zeigte, dass die Erweiterungen zu einer vergleichbaren Beschleunigung gängiger Programmsyntheseverfahren auf einer größeren Klasse von Syntheseproblemen führen. Die Arbeiten an Unlösbarkeitsdetektoren für Bitvektor-Programmsynthesen wurden 2023 fortgesetzt, umfassend ausgearbeitet und endeten in einer Dissertation.Detektion von semantisch ähnlichen Code-Fragmenten
SYFEX erlaubt es, die semantische Ähnlichkeit zweier Code-Fragmente zu bestimmen. So ist es damit prinzipiell möglich, Paare oder Gruppen von semantisch ähnlichen Code-Fragmenten (semantische Klone) zu identifizieren. Auf Grund des hohen Laufzeitaufwands verbietet sich der Einsatz von SYFEX -- wie auch von anderen Werkzeugen dieser Art -- allerdings, um in größeren Code-Projekten nach semantisch ähnlichen Code-Fragmenten zu suchen. Im Jahr 2016 wurde deshalb mit der Entwicklung eines Verfahrens begonnen, mit dessen Hilfe die Detektion semantisch ähnlicher Code-Fragmente beschleunigt werden kann. Grundlage dieses Verfahrens ist eine Reihe von sog. Basiskomparatoren, die zwei Code-Fragmente jeweils hinsichtlich eines Kriteriums (beispielsweise die Anzahl bestimmter Kontrollstrukturen oder die Beschaffenheit der Kontrollflussgraphen) miteinander vergleichen und dabei möglichst geringen Laufzeitaufwand haben. Diese Basiskomparatoren können anschließend zu einer Hierarchie von Verfahren verknüpft werden. Um damit die semantische Ähnlichkeit zweier Fragmente möglichst genau bestimmen zu können, wird mit Hilfe der Genetischen Programmierung nach Hierarchien gesucht, die die von SYFEX für eine Reihe von Code-Paaren berechneten Ähnlichkeitswerte möglichst gut approximieren. Im Rahmen einer ersten Untersuchung hat sich gezeigt, dass sich das implementierte Verfahren tatsächlich für die Bestimmung von semantisch ähnlichen Code-Paaren eignet.
Die Implementierung dieses Verfahrens wurde in den Jahren 2017 und 2018 weiter verbessert. Zudem spielte die tiefergehende Evaluation des Verfahrens auf Basis von Methodenpaaren aus Software-Archiven sowie von Abgaben für Programmieraufgaben eine wichtige Rolle.Semantische Code-Suche
Häufig steht die bei der Software-Entwicklung zu implementierende Funktionalität bereits in ähnlicher Form als Teil von Programmbibliotheken zur Verfügung. In vielen Fällen ist es ratsam, diese bereits vorhandene Realisierung zu verwenden statt die Funktionalität erneut zu implementieren, beispielsweise um den Aufwand für das Entwickeln und Testen des Codes zu reduzieren.
Voraussetzung für die Wiederverwendung einer für den Anwendungszweck geeigneten Implementierung ist, dass Entwickler diese überhaupt finden können. Zu diesem Zweck werden bereits heute regelmäßig Code-Suchmaschinen verwendet. Etablierte Verfahren stützen sich dabei insbesondere auf syntaktische Merkmale, d.h. der Nutzer gibt beispielsweise eine Reihe von Schlüsselwörtern oder Variablen- und Methodennamen an, nach denen die Suchmaschine suchen soll. Bei diesen Verfahren bleibt die Semantik des zu suchenden Codes unberücksichtigt. Dies führt in der Regel dazu, dass relevante, aber syntaktisch verschiedene Implementierungen nicht gefunden werden ("false negatives") oder dass syntaktisch ähnliche, aber semantisch irrelevante Ergebnisse präsentiert werden ("false positives"). Die Suche nach Code-Fragmenten auf Basis ihrer Semantik ist Gegenstand aktueller Forschung.
Im Jahr 2017 wurde am Lehrstuhl mit der Entwicklung eines neuen Verfahrens zur semantischen Code-Suche begonnen. Der Nutzer spezifiziert dabei die gesuchte Funktionalität in Form von Eingabe-Ausgabe-Beispielen. Mit Hilfe eines aus der Literatur stammenden Verfahrens zur Funktionssynthese wird eine Methode erzeugt, die das durch die Beispiele beschriebene Verhalten möglichst genau realisiert. Diese synthetisierte Methode wird dann mit Hilfe des im Rahmen dieses Forschungsprojekts entwickelten Verfahrens zur Detektion von semantisch ähnlichen Code-Fragmenten mit den Methodenimplementierungen vorgegebener Programmbibliotheken verglichen, um ähnliche Implementierungen zu finden, die dem Nutzer als Ergebnis der Suche präsentiert werden. Eine erste Evaluation der prototypischen Implementierung zeigt die Umsetzbarkeit und Verwendbarkeit des Verfahrens.Cluster-Bildung von ähnlichen Code-Änderungen
Voraussetzung für die Erzeugung generalisierter Änderungsmuster ist es, die Menge aller aus einem Quelltext-Archiv extrahierten Code-Änderungen in Teilmengen zueinander ähnlicher Änderungen aufzuteilen. Im Jahr 2015 wurde diese Erkennung ähnlicher Änderungen im Rahmen eines neuen Werkzeugs C3 verbessert. In einem ersten Schritt wurden verschiedene Metriken für den paarweisen Ähnlichkeitsvergleich der extrahierten Code-Änderungen implementiert und evaluiert. Darauf aufbauend wurden aus der Literatur bekannte Clustering-Algorithmen evaluiert und neue Heuristiken zur automatisierten Bestimmung der jeweiligen Parameter implementiert, um das bisherige naive Verfahren zur Identifizierung ähnlicher Änderungen zu ersetzen. Mit den im Rahmen von C3 implementierten Verfahren konnte im Vergleich zum bisherigen Ansatz eine deutliche Verbesserung erzielt werden. So können mit den neuen Verfahren mehr Gruppen ähnlicher Änderungen identifiziert werden, die sich für die Weiterverarbeitung im Rahmen von SIFE zur Generierung von Vorschlägen eignen.
Die zweite Verbesserung zielt darauf ab, die erhaltenen Gruppen ähnlicher Änderungen zusätzlich automatisiert zu verfeinern. Zu diesem Zweck wurden verschiedene Verfahren aus dem Umfeld des maschinellen Lernens zur Ausreißererkennung untersucht, um Änderungen, die fälschlicherweise einer Gruppe zugeordnet wurden, wieder zu entfernen.
Im Jahr 2016 wurde C3 um eine weitere Metrik zum Vergleich zweier Code-Änderungen erweitert, die im Wesentlichen den textuellen Unterschied zwischen den Änderungen (wie er beispielsweise von dem Unix-Werkzeug 'diff' erzeugt wird) bewertet. Des Weiteren wurde das in C3 implementierte Verfahren im Rahmen eines Konferenzbeitrags veröffentlicht. In diesem Zusammenhang wurde auch der zur Evaluation des Verfahrens erzeugte Datensatz von Gruppen ähnlicher Änderungen unter einer Open-Source-Lizenz veröffentlicht, siehe https://github.com/FAU-Inf2/cthree . Dieser kann zukünftigen Arbeiten als Referenz oder Eingabe dienen. Außerdem wurden prototypisch Verfahren implementiert, mit denen die Ähnlichkeitsberechnung und das Clustering in C3 inkrementell erfolgen können. Diese erlauben es, dass bei neuen Änderungen, die zu einem Software-Archiv hinzugefügt werden, die zuvor bereits berechneten Ergebnisse weiterverwendet werden können und nur ein Teil der Arbeit wiederholt werden muss. -
Softwareleitstand
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.11.2009 - 31.12.2015
Mittelgeber: Bundesministerium für Wirtschaft und Technologie (BMWi)Prototypische Entwicklung eines neuartigen Werkzeugs zur Qualitätsabsicherung bei der Softwareentwicklung.
Moderne Softwaresysteme werden sowohl fachlich, technisch als auch organisatorisch zunehmend komplexer: So steigen die Anzahl und der Vernetzungsgrad der zu realisierenden Anforderungen pro System stetig, die technischen Vorgaben z.B. an den Verteilungsgrad und die Zuverlässigkeit der Systeme werden komplexer und die Softwareentwicklung selbst findet zunehmend in global verteilten Teams und mit wachsendem Zeitdruck statt. Aus diesen Gründen wird es auch zunehmend schwieriger, Softwareentwicklungsprojekte fachlich, technisch und organisatorisch zu steuern.
Als Softwareleitstand bezeichnen wir ein Werkzeug, das leitenden Projektrollen wie dem Projektleiter, dem Softwarearchitekten, dem Anforderungsarchitekten und dem Entwicklungsleiter eine hohe Transparenz und damit verbesserte Steuerbarkeit von Softwareentwicklungsprojekten ermöglicht.
Transparenz herrscht dann, wenn sowohl Zusammenhänge zwischen den vielfältigen Erzeugnissen eines Softwareentwicklungsprojekts als auchderen Eigenschaften schnell und gesamtheitlich zugänglich sind und entsprechend dem individuellen Informationsbedarf eines Projektbeteiligten aufbereitet sind.
Der Softwareleitstand ist ein Werkzeug, das den Zugang zu den Zusammenhängen (Traceability) und den Eigenschaften (Metriken) der Erzeugnisse von Softwareentwicklungsprojekten vereinheitlicht. Damit kann die Effizienz von Softwareentwicklungsprojekten maßgeblich gesteigert werden. Es sollen Erzeugnisse des Softwareentwicklungsprojekts (Artefakte) und ihre Zusammenhänge (Relationen), sowie zu den Artefakten zuordenbare Metriken zentral erfasst, integriert und analysiert werden können. Die entsprechenden Analysen werden in Form von Visualisierungen des Artefaktgraphen mitsamt den zugeordneten Metriken und Regelprüfungen durchgeführt.
Das Projekt Softwareleitstand wird in Kooperation des Lehrstuhls mit der QAware GmbH München durchgeführt. Die ersten 30 Projektmonate wurden aus Mitteln des BMWi gefördert.
Die Umsetzung des Softwareleitstands erfolgte dabei in zwei Arbeitssträngen, die auch den beiden Subsystemen des Werkzeugs entsprechen: Der Integration Pipeline, die Traceability Informationen und Metriken aus verschiedensten Werkzeugen der Softwareentwicklung zusammen sammelt, sowie dem Analysis Core (Analysekern), der eine gesamtheitliche Auswertung der integrierten Daten ermöglicht.
Die Integration Pipeline wurde durch den Projektpartner QAware GmbH entwickelt. Dabei wurde zunächst eine Modellierungssprache für Traceability Informationen in Kombination mit Metriken (TraceML) definiert. Die Sprache besteht dabei aus einem Meta-Modell sowie einer Modellbibliothek zur einfachen Definition von angepassten Traceability Modellen. Aufbauend auf der TraceML wurde das Integration Pipeline Framework auf Basis des Eclipse Modeling Projekts entwickelt. Dabei wird sowohl das Eclipse Modeling Framework zur Abbildung der Modelle und Metamodelle, als auch die Modeling Workflow Engine zur Modelltransformation und Eclipse CDO als Modell-Repository verwendet. Auf Basis des Integration Pipeline Frameworks wurden dann eine Reihe von gängigen Werkzeugen der Softwareentwicklung wie z.B. Subversion, Eclipse, JIRA, Enterprise Architect und Maven angebunden.
Der Analysekern wurde durch den Lehrstuhl entwickelt. Zentrales Thema waren dabei die Konzeption und Realisierung einer domänenspezifischen Sprache für die graph-basierte Traceability-Analyse. Die Traceability Query Language (TracQL) reduziert den Aufwand zur Umsetzung von Traceability-Analysen zu reduzieren. TracQL erleichtert dabei sowohl die Extraktion als auch die Transformation der Traceability-Daten, so dass diese dann mittels kurzer funktional formulierter Graph-Traversierungen analysiert werden können. Die Sprache baut auf der multi-paradigmen Sprache Scala auf und wurde bereits mehrfach in realen Industrieprojekten zur Analyse erfolgreich eingesetzt.
Im Jahr 2014 erweiterten wir die Modularität der Sprache, um sie sowohl strukturell als auch operational anpassbar und erweiterbar zu machen. Dies erhöht nicht nur die Ausdrucksstärke der Sprache, sondern verbessert auch die Wiederverwendbarkeit bereits erstellter Traceability-Analysen.
Der Schwerpunkt des Jahres 2015 lag auf der Evaluation und Dokumentation des Ansatzes. Ziel war dabei, die zentralen Eigenschaften des Ansatzes hervorzuheben und deren Wirksamkeit nachzuweisen. Im Wesentlichen handelt es sich dabei um folgende drei Eigenschaften:
- Repräsentationsunabhängigkeit: TracQL ist an eine Vielzahl an Datenquellen anbindbar und macht deren Datentypen statisch typisiert verfügbar.
- Modularität: Der Ansatz ist sowohl strukturell als auch operational anpassbar und erweiterbar.
- Anwendbarkeit: Die Sprache besticht durch Ausdrucksstärke und Performanz im Vergleich zu anderen Ansätzen. -
OpenMP/Java
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.10.2009 - 01.10.2015
Mittelgeber: IndustrieJaMP ist eine Implementierung des bekannten OpenMP Standards für Java. JaMP erlaubt es (unter anderem) Schleifen zu parallelisieren, ohne sich mit der low-level Thread-API von Java befassen zu müssen. Eine parallele Schleife hätte in JaMP folgende Form:
class Test {
...void foo() {
......//#omp parallel for
......for (int i=0;i .........a[i] = b[i] + c[i]
......}
...}
}
JaMP implementiert im Moment die Funktionalität von OpenMP 2.0 und Teile der Spezifikation 3.0 (z.B. die collapse clause). Die aktuelle JaMP Version erzeugt reinen Java Code und ist auf jeder JVM (die Java 1.5+ unterstützt) lauffähig. Die neueste Version kann sogar CUDA fähige Hardware verwenden um Schleifen auszuführen, wenn der Schleifenrumpf eine Transformation nach CUDA möglich macht. Ist die Transformation nicht möglich, wird nebenläufiger Code für gängige Multicore Prozessoren erzeugt. JaMP unterstütz auch die gleichzeitige Nutzung von mehreren Maschinen und Acceleratoren. Dieses wurde durch die Entwicklung von zwei Abstraktionsbibliotheken ermöglicht. Die untere Abstraktionsschicht bietet abstrakte Recheneinheiten, die von den eigentlichen Berechnungseinheiten wie CPUs und GPUs und ihrem Ort in einem Rechnerbündel abstrahieren. Eine weitere Abstraktionsschicht baut auf dieser Schicht auf und bietet Operationen um partitionierte und replizierte Arrays zu verwalten. Ein partitioniertes Array wird dabei automatisch über die abstrakten Berechnungseinheiten verteilt, wobei die Geschwindigkeiten der einzelnen Berechnungseinheiten berücksichtigt werden. Welcher abstrakte Arraytyp für ein Array in einem Java-Programm konkret eingesetzt wird, wird vom JaMP-übersetzer bestimmt, der erweitert wurde um ein Programm entsprechend zu analysieren.Im Jahr 2010 wurde die JaMP-Umgebung erweitert, so dass die gleichzeitige Nutzung von mehreren Maschinen und Acceleratoren unterst ̈utzt wird. Dieses wurde durch die Entwicklung von zwei Abstraktionsbibliotheken erreicht. Die untere Schicht bietet abstrakte Recheneinheiten, die von den eigentlichen Berechnungseinheiten wie CPUs und GPUs und ihrem Ort in einem Rechnerb ̈undel abstrahieren. Die darauf aufbauende Schicht bietet partitionierte und replizierte Arrays. Ein partitioniertes Array wird dabei automatisch ̈uber die abstrakten Berechnungseinheiten verteilt, wobei die Geschwindigkeiten der einzelnen Berechnungseinheiten zwecks fairer Verteilung ber ̈ucksichtigt werden. Welcher abstrakte Array-Typ f ̈ur ein Array eines Java-Programms konkret eingesetzt wird, entscheidet der JaMP- ̈Ubersetzer mit Hilfe einer Code-Analyse.
Im Jahr 2012 wurde die JaMP-Umgebung erweitert, so dass Schleifen, die Java-Objekte verwenden, ebenfalls auf Rechnerbündeln ausführbar sind. Dabei werden zwei Klassen von Objekten unterschieden. Normale Shared-Objekte werden auf allen Berechnungseinheiten repliziert. Arrays, die Java als Objekte ansieht, können repliziert oder über die Berechnungseinheiten partitioniert werden. Dies ist unabhängig davon, ob es sich um ein Array von Objekten oder primitiven Datentypen handelt. Um die Laufzeit zu verkürzen, wurde mit der Java-Semantik gebrochen und die verzeigerte Objekt-Struktur des Programms wird nun für die Rechnerbündel auf eine flache Struktur abgebildet.
Im Jahr 2013 haben wir untersucht, wie man die Verwendung von Java-Objekten in parallelem OpenMP-Code optimieren kann. Es hat sich gezeigt, dass wir den Sprachumfang leicht einschränken müssen, indem wir Vererbung bei Objekten verbieten, die im parallelen Code eingesetzt werden. Das stellt sicher, dass zur Laufzeit keine anderen Typen als zur Übersetzungszeit vorliegen. Wir benutzen diese Eigenschaft, um Objekte in Arrays auf direkte Weise einbetten zu können. Dadurch wurde die Kommunikation mit den Recheneinheiten der GPU enorm beschleunigt und auch die Laufzeit auf den Berechnungseinheiten wurde leicht gesenkt.
Im Jahr 2014 wurde eine JaMP-Version für Android 4.0 entwickelt, die bisher nur das SIMD-Konstrukt von OpenMP unterstützt.
Im Jahr 2015 wurde das Task-Konzept (OpenMP 3.0) in JaMP integriert. Dadurch lassen .sich rekursive Algorithmen mit JaMP parallelisieren. -
Parallelisierungstechniken für eingebettete Systeme in der Automatisierungstechnik
(Projekt aus Eigenmitteln)
Laufzeit: 01.06.2009 - 31.12.2015Dieses im Jahr 2009 gestartete Projekt befasst sich mit der Refaktorisierung und Parallelisierung von Anwendungen aus der Automatisierungstechnik. Die Programme laufen dabei auf speziellen eingebetteten Systemen. Diese Hardware bildet einen Industriestandard und kommt weltweit zum Einsatz. Da auch in eingebetteten Systemen zunehmend Multicore-Architekturen eingesetzt werden, muss bestehende, sequentielle Software für diese neuen Architekturen parallelisiert werden, um einen Zuwachs an Leistung zu gewinnen. Da die Programme typischerweise in der Industrie zur Regelung von Prozessen und zur Fertigungsautomatisierung eingesetzt werden, haben sie einen langen Lebenszyklus, um die Investitionskosten für die Unternehmen gering zu halten. Aufgrund der langen Einsatzzeit der Programme werden diese oftmals nicht mehr durch die ursprünglichen Entwickler gepflegt. Weiterhin wurde für die Programme oftmals ein hoher Aufwand betrieben, um eine zuverlässige Funktionsweise zu gewährleisten. Erweiterungen an der Software werden daher nur zögerlich vorgenommen.
Eine Migration dieser Altanwendungen auf neue Systeme und ihre anschließende Parallelisierung kann daher nicht von Hand vorgenommen werden, da sich dies als zu fehlerträchtig erweist. Es sind also Werkzeuge nötig, die diese Aufgaben automatisch vornehmen bzw. den Entwickler bei der Migration und Parallelisierung unterstützen.
Erforschung von Parallelisierungstechniken
Zur Parallelisierung von bestehenden Anwendungen aus der Automatisierungstechnik wurde ein spezieller Übersetzer entwickelt, der zunächst Programme aus der Automatisierungstechnik auf ihre automatische Parallelisierbarkeit untersuchte. Hierbei zeigte sich, dass eine automatische Parallelisierung mit existierenden Techniken nicht effizient durchführbar ist. Deshalb konzentriert sich dieses Teilprojekt auf zwei Schritte. Im ersten Schritt wurde eine Datenabhängigkeitsanalyse entwickelt, die potentielle kritische Abschnitte in einem parallelen Programm erkennt und diese dem Entwickler vorschlägt und deren Schutz in den Code einbaut. Die Analyse erlaubt es, atomare Blöcke zu identifiziert, die sehr gut mit den atomaren Blöcken übereinstimmen, die ein Experte im Code platzieren würde. Es wurde außerdem nachgewiesen, dass die Laufzeit nur unmaßgeblich beeinträchtigt wird, falls das Verfahren in seltenen Fällen kritische Abschnitte annimmt, die tatsächlich gar nicht existieren oder kritische Abschnitte ermittelt, die größer als tatsächlich notwendig sind.
Im zweiten Schritt wurden die bestehenden Verfahren Software-Transaktionaler-Speicher (STM) und Lock-Inferenz zur Implementierung atomarer Blöcke verfeinert und verbessert. In dem neuen Ansatz verwendet ein atomarer Block STM, solange Lock-Inferenz keine feingranulare Synchronisation garantieren kann, und wechselt zur Laufzeit von STM zu Lock-Inferenz, sobald feingranulare Synchronisation mit Locks möglich ist. Damit wird jeder atomare Block feingranular synchronisiert, wobei der Laufzeitaufwand von STM minimiert wird. Um die Effektivität des kombinierten Verfahrens zu steigern, wurden bestehende Lock-Inferenz-Algorithmen verbessern, um in mehr Fällen als bisher feingranular synchronisierte atomare Blöcke mit Lock-Inferenz zu implementieren. Es konnte gezeigt werden, dass das kombinierte Verfahren zur Implementierung atomarer Blöcke die Ausführungszeiten gegenüber einer reinen Umsetzung mit STM oder Lock-Inferenz um einen Faktor zwischen 1.1 und 6.3 beschleunigt. Obwohl feingranulare Synchronisation im Allgemeinen zu besserer Leistung als eine grobgranulare Lösung führt, gibt es Fälle, in denen eine grobgranulare Implementierung die gleiche Leistung zeigt. Daher wurde ein Laufzeitmechanismus für STM entwickelt, der ebenfalls mit der kombinierten Technik funktioniert. Dieser Mechanismus startet mit einer kleinen Anzahl an Locks, d.h. mit einer grobgranularen Synchronisierung, bei der Zugriffe auf unterschiedliche gemeinsame Variablen durch die selbe Schlossvariable synchronisiert werden. Falls dieses grobgranulare Locking dazu führt, dass zu viele Zugriffe auf unterschiedliche Variablen auf das selbe Lock warten müssen, dann erhöht die entwickelte Technik graduell die Anzahl an Locks. Dies erhöht die Granularität des Lockings, sodass unabhängige Zugriffe häufiger nebenläufig ausgeführt werden können. Dieser Laufzeitmechanismus zur dynamischen Anpassung der Locking-Granularität führt zu einer bis zu 3.0 mal besseren Laufzeiten als eine statische grobgranulare Lösung.
Das Teilprojekt wurde im Jahr 2014 abgeschlossen.
Erforschung von Migrationstechniken
Unsere Forschung zur Migration von Altanwendungen bestand ursprünglich aus dem Ansatz, veraltete Code-Konstrukte durch ein spezielles Werkzeug automatisch durch besseren Code ersetzen zu lassen. Die zu ersetzenden Code-Konstrukte und der verbesserte Code wurden dabei von Programmierern in einer speziell entwickelten Beschreibungssprache spezifiziert. Hierbei stellte sich jedoch die Handhabbarkeit dieses Werkzeugs für unerfahrene Entwickler als zu schwierig heraus.
Daher wurde mit der Entwicklung eines neues Werkzeugs begonnen, das zu ersetzende Code-Sequenzen automatisch aus Software-Versionsarchiven erlernt, diese dann generalisiert und Verbesserungen vorschlägt. Der Ansatz basiert darauf, dass zwei Versionen eines Programms miteinander verglichen werden. Unser Werkzeug extrahiert dabei, welche Änderungen sich zwischen den beiden Versionen ergeben haben und leitet daraus generalisierte Muster aus zu ersetzenden Code-Sequenzen und die dazugehörigen Code-Verbesserungen automatisch ab. Diese Muster werden in einer Datenbank gespeichert und können anschließend von unserem Werkzeug dazu verwendet werden, analoge Änderungen für den Quellcode anderer Programme vorzuschlagen.
Im Jahr 2014 wurde ein neues Verfahren zur symbolischen Code-Ausführung entwickelt, das die Anzahl falscher Vorschläge reduziert. Abhängig von der Anzahl und Generalität der Muster in der Datenbank kann es ohne das neue Verfahren zu unpassenden Vorschlägen kommen. Um die unpassenden Vorschläge zu verwerfen, wird das semantische Verhalten des Vorschlags mit dem semantischen Verhalten des Musters aus der Datenbank verglichen. Weichen beide zu sehr voneinander ab, wird der Vorschlag aus der Ergebnismenge entfernt. Die Besonderheit des Verfahrens besteht darin, dass es auf herausgelöste Code-Teilstücke anwendbar ist und keine menschliche Vorkonfiguration benötigt.
Die aktuellen Ergebnisse von unserem Werkzeug SIFE sind online zu finden (letztes Update: 2014-05-09).
-
Integrierte Werkzeug-Kette zur metamodellbasierten Modellierung und Ausführung von Software-Entwicklungsprozessen
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.10.2008 - 31.12.2012
Mittelgeber: Bundesministerium für Wirtschaft und Technologie (BMWi)Aufgrund ständig wachsender Anforderungen, die an die Entwicklung komplexer Softwaresysteme gestellt werden, gewinnt die Einhaltung wohldefinierter Software-Entwicklungsprozesse (SWEPe) immer mehr an Bedeutung. Im Kontext umfangreicher, global verteilter Entwicklungsprojekte ist dabei insbesondere ein Trend zu organisationsübergreifenden, langlaufenden und dabei dynamisch veränderbaren Prozessen erkennbar. Zur effektiven Beschreibung und Unterstützung solcher Entwicklungsprozesse sind speziell geeignete Prozessmodellierungssprachen und eine mächtige Werkzeugunterstützung unverzichtbar. Die Ergebnisse vorangegangener Untersuchungen machten deutlich, dass der Markt für SWEP-Beschreibungs- und -Ausführungsumgebungen derzeit noch keine Lösungen bietet, die eine hinreichend präzise und flexible Modellierung von Entwicklungsprozessen sowie deren automatisierte Ausführung, Steuerung und überwachung ermöglichen. Diese Lücke wurde im Rahmen eines Kooperationsprojektes geschlossen, das in Zusammenarbeit mit der develop group als Industriepartner durchgeführt und mit Mitteln des BMWi gefördert wurde. Es wurde im Oktober 2008 mit drei wissenschaftlichen Mitarbeitern gestartet und im September 2011 abgeschlossen. Ziel dieses Kooperationsprojektes war es, auf Grundlage eines durchgängigen, metamodellbasierten Ansatzes eine integrierte Werkzeugkette für die Modellierung und Ausführung industrieller Software-Entwicklungsprozesse prototypisch zu realisieren. Im Hinblick auf die Praxistauglichkeit der Lösung lag das Hauptaugenmerk dabei auf der Anpassbarkeit der Prozessmodelle an verschiedene industrielle Entwicklungsszenarien, auf der Anwenderfreundlichkeit der Prozessbeschreibung und auf einer weitgehenden Automatisierung der Prozessausführung, die zur Effizienzsteigerung in der Entwicklung entscheidend beiträgt. Diese charakteristischen Vorzüge werden durch einen relativ hohen Formalisierungsgrad der Prozessmodellierung, durch eine weitgehende Generizität der Modellierungs- und Prozessausführungswerkzeuge sowie durch die Verwendung verbreiteter und akzeptierter Industriestandards (UML, SPEM) erreicht. Als Basis für die integrierte Werkzeugkette kommt eine Erweiterung des SPEM-Standards (eSPEM - enactable SPEM) zum Einsatz. eSPEM erweitert das SPEM um Konzepte zur Verhaltensmodellierung auf Grundlage der UML-Aktivitäts- und -Zustandsmaschinendiagramme. Als Ergänzung bietet das eSPEM spezifische Sprachkonstrukte, um bestimmte für SWEPe typische Sachverhalte angemessen modellieren zu können, darunter u.a. die dynamische Erzeugung und Planung von Entwicklungsaktivitäten und Arbeitsschritten. Im Berichtszeitraum 2012 wurde eine Zusammenfassung der integrierten Werkzeugkette und des eSPEM anlässlich des Workshops "First Workshop on Academics Modeling with Eclipse" auf der "8th European Conference on Modelling Foundations and Applications" veröffentlicht. Bei der Definition von SWEPen im industriellen Kontext wurde außerdem deutlich, dass Referenzmodelle und Normen einen zunehmend starken Einfluss auf die Modellierung von SWEPen ausüben. Im Mittelpunkt solcher Normen und Referenzmodell, die nachfolgend als Qualitätsstandards bezeichnet werden, stehen dabei oft Verfahren und Vorgehensweisen (sogenannte Best Practices), die auf eine Verbesserung der Qualität des zu entwickelten SW-Produktes abzielen oder eine gesteigerte Effizienz des Entwicklungsvorhabens zum Ziel haben (z.B. CMMI oder Automotive SPICE). Andere Qualitätsstandards, wie z.B. die ISO 26262 Functional Safety - Road Vehicles, stellen Anforderungen an die im SWEP definierten Maßnahmen zur Entwicklung eines sicheren SW-Produktes (Safety). In diesem Zusammenhang ist ein weiteres Ziel des Forschungsprojektes, diese Anforderungen aus Qualitätsstandards mit dem SWEP zu verknüpfen. Damit soll die effiziente Durchführung von Assessments des SWEPes und Prozessverbesserungsprojekten unterstützt werden. Der Schwerpunkt liegt dabei insbesondere auf Szenarien, in denen mehr als ein Qualitätsstandard zum Einsatz kommt (z.B. CMMI, Automotive SPICE und ISO 26262). -
Funkortung
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 01.05.2008 - 14.11.2013
Mittelgeber: Fraunhofer-GesellschaftFunkortungssysteme, auch bekannt als Real-Time Location Systems (RTLS), geraten immer mehr in den Fokus der Logistik, Produktion und vielen weiteren Prozessen. Diese Systeme liefern wertvolle Informationen über den Aufenthaltsort von beteiligten Objekten zur Laufzeit. Damit können Prozesse verfolgt, analysiert und optimiert werden. Neben den Forschungsbereichen an der Basis von Ortungssystemen, wie robuste und störsichere Ortungstechnologien oder Verfahren zur hochgenauen Positionsbestimmung, rücken mehr und mehr Methoden in den Vordergrund, die aus Positionsdatenströmen wertvolle Informationen für weitere Verarbeitungsstufen gewinnen. In diesem Kontext erforscht das Projekt Funkortung die automatisierte Einmessung von Funkortungssystemen, die Generierung von generischen dynamischen Bewegungsmodellen und Verfahren zur Ereignisdetektion in Positionsdatenströmen zur Laufzeit. Im Jahr 2009 wurden Algorithmen zur Berechnung der Position und Orientierung der Empfangsantennen eines Funkortungssystems weiterentwickelt. Die Algorithmen berechnen selbstständig Messpunktkoordinaten, die eine schnelle und genaue Einmessung ermöglichen. Zur automatisierten Einmessung wurden hierzu Roboter verwendet. Unser Algorithmus berücksichtigt Hindernisse und die Empfangseigenschaften des Ortungssystems und kann Fehlmessungen wie Mehrwegeempfang in der Berechnung der Position und Orientierung der Empfangsantenne aussortieren. 2010 wurden Modelle entwickelt, die dynamische Bewegnungsmodelle ermöglichen. Hier wurden lernende Verfahren eingesetzt, um Modelle während der Laufzeit anzupassen. Es wurde die formale Sprache TBL (Trajectory Behavior Language) konstruiert, mittels derer Trajektorien beschrieben werden können. Weitere Algorithmen können die Darstellung nochmals verkleinern und somit die zur Speicherung von Trajektorien erforderliche Datenmenge komprimieren. Nun werden Verfahren untersucht, mit denen die entwickelten Bewegungsmodelle zur Laufzeit gelernt werden können. Diese sollen in einer Untersuchung zur Prädiktion von Bewegungen evaluiert werden. Desweiteren wird untersucht, inwieweit sich auftretende Ereignisse in Lokalisierungssystemen vorhersagen lassen können, indem vorhandene Ereignisströme zur Laufzeit analysiert und gelernt werden. -
Modellgetriebene Komponentenkomposition
(Drittmittelfinanzierte Einzelförderung)
Laufzeit: 15.06.2007 - 31.12.2011
Mittelgeber: IndustrieDieses im Rahmen der INI.FAU-Kooperation durchgeführte Projekt analysiert die Integration von Fahrzeugfunktionen auf Steuergeräte und entwickelt modellgetriebene Unterstützungsmöglichkeiten. Die gewonnenen Erkenntnisse werden exemplarisch anhand der Integration aller Komponenten eines Fahrdynamikregelsystems auf einem AUTOSAR-Steuergerät überprüft werden. In der Automobilindustrie ist es schon lange üblich, Fahrzeugfunktionen auf hohem Abstraktionsniveau modellbasiert zu entwickeln. Um frühzeitig Fehleinschätzungen bezüglich Laufzeit- und Ressourcenbedarf auszuschließen, ist es nötig, die entwickelte Software nicht nur zu simulieren, sondern auch auf der Zielhardware testen zu können. Aufgrund von Kosten- und Sicherheitsanforderungen ist die Integration auf ein Steuergerät aber sehr zeitaufwändig und erfordert Expertenwissen, das einem Funktionsentwickler normalerweise nicht zur Verfügung steht. AUTOSAR (AUTomotive Open System ARchitecture) etabliert sich als Standard für die Basissoftware auf Steuergeräten. Doch durch die Neuheit dieses Standards gibt es noch keine Verfahren und Werkzeuge, um die Integration von Funktionen auf einem Steuergerät zu unterstützen. Im Jahr 2008 wurden die Modellierungsmöglichkeiten in AUTOSAR in Bezug auf ihre Eignung bei Audi und auf mögliche Konflikte mit bestehenden Standards sowie mit bei Audi eingesetzten Technologien untersucht. Des Weiteren wurde die automatische Vervollständigung einer Reglerkomponente zu einer AUTOSAR-Softwarearchitektur prototypisch realisiert. Im Jahr 2009 wurde damit begonnen, die ermittelten Unterstützungsmöglichkeiten (automatische Konfiguration der Buskommunikation mit Hilfe einer Busdatenbank sowie automatisches Scheduling der auszuführenden Prozesse) mit Hilfe eines modellgetriebenen Ansatzes auf Basis des Eclipse Modeling Frameworks zu realisieren und in die Werkzeuglandschaft bei Audi zu integrieren. Durch die modellgetriebene Entwicklung wird eine leichte Anpassbarkeit des entstehenden Prototypen an sich verändernde Anforderungen erzielt. Im Jahr 2010 wurde die in einem AUTOSAR-Projekt zur Verfügung stehenden Informationen genutzt, um daraus automatisch sowohl die lokale Kommunikation zu konfigurieren, als auch diejenige, die Steuergerätegrenzen überschreitet. Ebenso konnten bereits vorhandene Abhängigkeitsspezifikationen mit Hilfe eines genetischen Algorithmus zur automatischen Erzeugung eines Taskscheduling verwendet werden, der die Kommunikationslatenzen zwischen kooperierenden Softwarebausteinen minimiert. Der bestehende Prototyp wurde um die erarbeiteten Verfahren erweitert. -
JavaParty
(Projekt aus Eigenmitteln)
Laufzeit: 01.04.2007 - 31.12.2010JavaParty [http://svn.ipd.uni-karlsruhe.de/trac/javaparty/wiki/JavaParty] erlaubt eine einfache Portierung von parallelen Java-Programmen mit mehreren Threads auf eine verteilte Umgebung wie z.B. einem Cluster. Das Standard-Java unterstützt parallele Programme durch Threads und Synchronisationsmechanismen. Während Mehrprozess-Java-Programme auf einen einzelnen Speicheraddressbereich beschränkt sind, dehnt JavaParty die Möglichkeiten von Java auf verteilte Systeme aus.
Die übliche Art, parallele Anwendungen auf eine verteilte Umgebung zu portieren, ist die Verwendung von Kommunikationsbibliotheken. Java's entfernter Methodenaufruf (RMI) macht die Verwendung expliziter Kommunikationsprotokolle unnötig, führt aber immer noch zu einer erhöhten Programmkomplexität. Gründe dafür sind die beschränkten Möglichkeiten des RMIs und die benötigte zusätzliche Funktionalität für die Erzeugung und den Zugriff auf entfernte Objekte.
Der Ansatz von JavaParty ist anders. JavaParty-Klassen können direkt als entfernt (remote) deklariert werden. Während normale Java Klassen auf eine einzelne Virtuelle Maschine beschränkt sind, sind entfernte Klassen und deren Instanzen in der gesamten verteilten JavaParty-Umgebung sichtbar und erreichbar. Soweit man nur entfernte Klassen betrachtet, kann die JavaParty-Umgebung als eine Virtuelle Maschine angesehen werden, die sich über verschiedene Computer verteilt. Der Zugriff und die Erzeugung von entfernten Klassen sind syntaktisch nicht von dem regulärer Java-Klassen zu unterscheiden.In den Jahren 2007/08 wurde eine neue Version des JavaParty-Übersetzers implementiert, die mit den in Java 1.5/1.6 neu eingeführten Kontrollstrukturen zurecht kommt. Diese Implementierung beruht auf dem öffentlichen und frei verfügbaren Eclipse-Übersetzer. Dadurch können zukünftige Weiterentwicklungen der Sprache Java und zugehörige Anpassungen desÜbersetzers direkt in JavaParty einfließen.
Im Jahr 2009 wurde der JavaParty-Übersetzer um eine Semantik für innere Klassen erweitert.
Im Jahr 2010 wurden folgende Ziele erreicht:
- Viele in der Vergangenheit selbstimplementierte Datenstrukturen des Laufzeit Systems wurden aus Stabilitätsgründen durch inzwischen effizientere Java-eigene Implementierungen ersetzt.
- Die Kommunikationsschicht (KaRMI) wurde aufgrund von Kompatibilitäts- und Sicherheitsproblemen bassierend auf der aktuellesten Java-Socket-Technologie neu implementiert.
- Entfernte Klassen wurden um einen ”nahen” Kontext erweitert, der für jedes Objekt auf jedem Rechner lokalen Speicher zur Verfügung stellt. Damit lassen sich lokalitätsgewahre Algorithmen ausdrücken. -
ParSeMiS - die Parallele und Sequenzielle Graph Mining Suite
(Projekt aus Eigenmitteln)
Laufzeit: 01.05.2006 - 31.12.2010Die Arbeitsgruppe ParSeMiS (Parallele und Sequenzielle Graph Mining Suite) beschäftigt sich mit der Suche nach häufigen interessanten Strukturen in Graphdatenbanken; ein Forschungsgebiet, das in den letzten Jahren sehr reges Interesse findet. Da viele Forschungs- und Wirtschaftsdaten in strukturierter Form erfasst werden können, bietet sich die Speicherung komplexer Zusammenhänge in Form von allgemeinen oder speziellen Graphen an.
Diese meist unüberschaubaren Datenmengen sind nur schwer mit Hand und Auge zu erfassen, so dass Algorithmen zur Entdeckung interessanter Korrelationen unabdingbar sind. Da deren Entdeckung in Graphen im Allgemeinen aufwändig ist (NP-vollständig), ist die Suche nach parallelen und spezialisierten Algorithmen und Heuristiken notwendig, die den benötigen Rechenzeit- und Speicheranforderungen auch bei immer größer werdenden Datenmengen gewachsen sind.
Das Ziel dieses Projektes ist es, ein effizientes und flexibles Werkzeug zur Suche in beliebigen Graphdaten bereitzustellen, um sowohl die Einbindung in neue Anwendungsgebiete als auch die Entwicklung neuer Suchverfahren zu beschleunigen und zu vereinfachen.Aufbauend auf den Ergebnissen des Projekts ParMol2 wurden 2006/2007 folgende Ziele erreicht:
- Restrukturierung und Neudesign der gewachsenen ParMol-Strukturen zu einer flexiblen Graphbibiliothek.
- Ergänzung des objekt-orientierten Graphdesigns zu kompakteren, zur Parallelisierung besser geeigneten Datenstrukturen.
- Überführung und Zerlegung der Algorithmen gSpan und Gaston in die neuen Strukturen und Einbau von Erweiterungen für das aktuelle Anwendungsgebiet ”Prozedurale Abstraktion”.
- Entwurf und Implementierung eines neuen Algorithmus zur Suche in gerichteten azyklischen Graphen (DAGs) als Spezialisierung für die Prozedurale Abstraktion.
- Implementierung einer angepassten grafischen Anzeige für DAGs.
Im Jahr 2008 wurden folgende Ziele erreicht:
- Dokumentation und Veröffentlichung der Sourcen zur Verbreitung des Projekts,
- Implementierung einer angepassten graphischen Anzeige für DAGs,
- Begin der Erneuerung der graphischen Oberfläche und
- Erweiterung der Cluster-Verteilung zur Nutzung aller Kerne bei Bündeln aus Mehrkernrechnern.
Im Jahr 2009 wurden folgende Ziele angegangen:
- Beschleunigung der Suche mit einbettungs-bassierter Häufigkeit: Indem auf die zum Pruning benötigten Eigenschaften des Maximalen-Cliquen-Test intensiver eingegangen wurde, konnte gerade in dem für Anwendungen interessanten Bereich von niedrigen Häufigkeiten eine hohe Beschleunigung erreicht werden. Dies wird durch eine frühzeitige Erkennung im NP-vollständigen Test ermöglicht, die feststellt, ob ein überhaupt noch Fragment noch häufig vorhanden sein kann.
- Verbesserte Verteilung für Mehrkern-Cluster-Architekturen: Hier wurde und wird untersucht, wie sich die gemeinsame Positionierung verschiedener Threads im selben realen Speicher zur Beschleunigung der parallelen Suche ausnutzen lässt.
Im Jahr 2010 wurden die verteilten Stack-Implementierungen auch für andere Algorithmen und Daten getestet.
-
Tapir
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2006 - 31.12.2010Tapir ist eine neue Programmiersprache zur Vereinfachung der Systemprogrammierung. Systemprogrammierung bezeichnet unter anderem die Programmierung von Netzwerkprotokollen, Betriebssystemen, Middleware- und DSM-Systemen. Diese Komponenten stellen essentielle Teile eines Systems dar, da sie Dienste bereitstellen, auf denen andere Applikationen aufbauen. Das Betriebssystem stellt einer Anwendung z.B. eine Ausführungsumgebung bereit, die von der konkreten Hardware abstrahiert, so dass die Applikation eine robuste, Hardware-unabhängige Schnittstelle nutzen kann. Ein weiteres Beispiel für Systemprogrammierung ist ein DSM-System. Es simuliert in einem Rechnerbündel mit verteiltem Speicher einen gemeinsamen Adressraum und verbirgt die Kommunikation im Rechnerbündel vor der Anwendung.
Im Vergleich zu Anwendungssoftware stellt systemnahe Software völlig andere Anforderungen an die Programmierung. Die Leistung der einzelnen Systemkomponenten kann sich auf alle Anwendungen und somit das gesamte System auswirken. Deshalb muss der erzeugte Maschinen-Code besonders effizient ausführbar sein. Fehler auf der Systemebene beeinflussen nicht nur einzelne Anwendungen sondern können ebenfalls das gesamte System beeinträchtigen. Systemsoftware sollte aus diesem Grund möglichst (beweisbar) fehlerfrei sein. All diese Anforderungen haben direkte Auswirkungen auf die verwendbaren Programmiersprachen und den verwendeten Programmierstil:
- Hochsprachen wie C++, C# und Java verstecken Implementierungsdetails vor dem Programmierer. Der Programmierer benötigt z.B. kein Wissen darüber, wie ein Methodenaufruf konkret durchgeführt wird. Dieses Wissen ist jedoch bei der Entwicklung von Systemsoftware erforderlich.
- Hochsprachen stellen Funktionen bereit, die für Systemsoftware in der Regel nicht benötigt werden oder sogar unerwünscht sind. Beispielsweise wird innerhalb eines Betriebssystems keine automatische Speicherbereinigung oder Ausnahmebehandlung verwendet.
- Systemprogramme erfordern kein so hohes Abstraktionsniveau, wie es meist von Hochsprachen gefordert wird. Ebenso verzichtet man bei der Erstellung von Systemsoftware zumeist auf die Benutzung externer Bibliotheken, da viele Bibliotheken auf die Systemsoftware als Basis angewiesen sind und somit nicht zur Verfügung stehen.Tapir ist an existierende Hochsprachen wie C++ und Java angelehnt, verzichtet aber auf Eigenschaften und Funktionen die ohne Bedeutung für eine Sprache zur Systemprogrammierung sind. Beispielsweise besitzt Tapir keine Speicherbereinigung, Ausnahmebehandlung oder Typumwandlung. Klassen und Objekte können zwar definiert werden, eine Vererbungsbeziehung zwischen Klassen ist aber nicht erlaubt. Das mit Tapir spezifizierte Systemprogramm kann mit Model Checking-Techniken bereits während der Entwicklung auf Fehler überprüft werden. Ein Übersetzerprototyp und ein Werkzeug zum Model Checking sind bereits implementiert. Tapir-Code ist leicht verifizierbar, da Programmteile als Implementierungsdetails markiert werden können, die danach bei der Verifizierung ignoriert werden. Tapir-Programme können (z.B. auf Grafikkarten) parallel ausgeführt werden, ohne dass es zu Verklemmungen oder ähnlichen Fehlern kommt, die üblicherweise bei paralleler Programmierung auftreten.
Schon während sich Tapir noch in der Entwicklung befindet, wurde es bereits verwendet, um eine Spezifikation für das DSM-Protokoll von Jackal zu erarbeiten. Zur Erweiterung des Tapir-Sprachentwurfes wurden RDMA-basierte DSM-Protokolle evaluiert. Die semantische Analyse von Tapir-Programmen ist sehr speicherintensiv, da sie auf Model Checking beruht. Um die Analyse zu beschleunigen, war es erforderlich, eine eigene, auf sehr große Objektmengen spezialisierte, Virtuelle Maschine für Java zu entwickeln. Die neu entwickelte, LVM genannte virtuelle Maschine zeigt wesentlich bessere Laufzeiteigenschaften als übliche Java Virtual Machine Implementierungen, sobald der verfügbare Hauptspeicher nicht mehr ausreicht und das Auslagern auf den Hintergrundspeicher notwendig wird.
2006/2007 wurde an den grundlegenden Spracheigenschaften von Tapir gearbeitet. Obwohl Tapir an existierende Hochsprachen wie C++ und Java angelehnt ist, wurden alle unnötigen Eigenschaften und Funktionen entfernt. Beispielsweise fehlen Tapir Speicherbereinigung, Ausnahmebehandlung und Typwandlungen; Klassen und Objekte können zwar definiert werden, jedoch ist keine Vererbungsbeziehung zwischen Klassen erlaubt. Das mit Tapir spezifizierte Systemprogramm kann mit Model Checking-Techniken bereits während der Entwicklung auf Fehler überprüft werden. Ein prototypischer Übersetzer und ein Verifikationswerkzeug wurden 2006/2007 implementiert.
Im Jahr 2008 lag der Schwerpunkt unserer Arbeiten auf der Weiteentwicklung dieser VM, die nun über mehrere Maschinen verteilt effizient arbeitet. Dadurch können Tapir-Programme schneller verifiziert werden und in Java geschriebene wissenschaftliche Anwendungen laufen schneller ab.
Im Jahr 2009 wurde die Sprachspezifikation von Tapir verbessert. Die neue Sprachspezifikation erleichtert die automatische Verifizierung und erlaubt die Generierung von effizienterem Maschinencode. Um die Sprache leichter verifizieren zu können, ist es nun möglich, Programmteile als Implementierungsdetails zu markieren. Diese markierten Teile können danach problemlos bei der Verifizierung ignoriert werden. Die höhere Effizienz der Sprache wurde durch die Unterstützung von Nebenläufigkeit erreicht. Programme können damit (z.B. auf Grafikkarten) parallel ausgeführt werden, ohne dass es zu Verklemmungen oder ähnlichen Fehlern kommt, dieüblicherweise bei paralleler Programmierung auftreten.
-
Cluster and Grid computing made easy
(Projekt aus Eigenmitteln)
Laufzeit: 01.01.2006 - 31.12.2010Im Jackal Projekt wird ein Distributed Shared Memory Systems (DSM) für Java entwickelt. Das System erlaubt es, ein Programm mit mehreren Threads auf einem Rechnerbündel auszuführen. Gleichzeitig bleibt das Programm auf normalen JVMs (die nur einen Rechner unterstützen) lauffähig. Zur besseren Fehlertoleranz beinhaltet Jackal ein Checkpoint System, das in periodischen Abständen den Programmzustand auf die Festplatte speichern kann. Es ist dann möglich, diesen gespeicherten Zustand zu einem späteren Zeitpunkt zu laden und die Ausführung fortzusetzen. Außer normalen nebenläufigen Programmen lassen sich mit Jackal Anwendungen, die OpenMP Direktiven beinhalten, verwenden. Durch eine Kombination aus dem Checkpoint System und den OpenMP Direktiven kann man Anwendungen (ab dem gespeicherten Checkpoint) mit einer beliebigen Rechnerzahl wiederaufnehmen. Man ist dadurch nicht mehr an die Anzahl der Rechner gebunden, die beim Starten des Programms festgelegt wurde. Das Jackal-DSM ist nicht nur für klassische Rechnerbündel ausgelegt. Es gibt Erweiterungsarbeiten sowohl für den Einsatz im Grid als auch für Rechnerbündel mit Multicore-Prozessoren.
-
International Collegiate Programming Contest an der FAU
(Projekt aus Eigenmitteln)
Laufzeit: seit 01.11.2002
URL: http://www2.informatik.uni-erlangen.de/research/ICPC/Seit 1977 wird der International Collegiate Programming Contest (ICPC) ausgetragen. Dabei sollen Teams aus je drei Studierenden ca. 13 Programmieraufgaben lösen. Als Erschwernis kommt hinzu, dass nur ein Computer pro Gruppe zur Verfügung steht. Die Aufgaben erfordern solide Kenntnisse von Algorithmen aus allen Gebieten der Informatik und Mathematik, wie z.B. Graphen, Kombinatorik, Zeichenketten, Algebra und Geometrie. Bei der Lösung kommt es darauf an, einen effizienten und richtigen Algorithmus zu finden und zu implementieren.
Der ICPC wird jedes Jahr in drei Stufen ausgetragen. Zuerst werden innerhalb der Universitäten in lokalen Ausscheidungen die maximal drei Teams bestimmt, die dann zu den regionalen Wettbewerben entsandt werden. Erlangen liegt seit dem Jahr 2009 im Einzugsbereich des Northwestern European Regional Contest (NWERC), an dem u.a. auch Teams aus Großbritannien, den Benelux-Staaten und Skandinavien teilnehmen. Die Sieger aller regionalen Wettbewerbe der Welt (und einige Zweitplatzierte) erreichen die World Finals, die im Frühjahr des jeweils darauffolgenden Jahres (2024 in Sharm El Sheikh, Egypten) stattfinden.Am 28. Januar 2023 fand erneut der Winter Contest statt. Daran beteiligten sich 75 Teams von 16 Hochschulen und Universitäten, darunter 13 Teams aus Erlangen. Unser bestes Team erreichte den 10. Platz. Am 17. Juni wurde der German Collegiate Programming Contest an verschiedenen deutschen Universitäten und Hochschulen ausgetragen, mit 14 Teams aus Erlangen. Das beste FAU-Team belegte den 11. Platz unter den 105 teilnehmenden Teams aus ganz Deutschland. Der NWERC fand am 26. November in Delft statt. Dort wurde die FAU durch 3 Teams vertreten, die die Plätze 32, 96 und 125i von insgesamt 143 teilnehmenden Teams erreichten. Das Hauptseminar "Hallo Welt! - Programmieren für Fortgeschrittene" fand auch im Jahr 2023 wieder statt.
2024
Multilayer Multipurpose Caches for OpenMP Target Regions on FPGAs
Proceedings of the 20th International Workshop on OpenMP, IWOMP 2024 (Perth, Australia, 23.09.2024 - 25.09.2024)
In: Espinosa, A., Klemm, M., de Supinski, B.R., Cytowski, M., Klinkenberg, J. (Hrsg.): OpenMP: Advancing OpenMP for Future Accelerators, Cham: 2024
DOI: 10.1007/978-3-031-72567-8_6
BibTeX: Download
, , :
Multilayer Multipurpose Caches for OpenMP Target Regions on FPGAs [Data set]
(2024)
DOI: 10.5281/zenodo.12755510
BibTeX: Download
(online publication)
, , :
Employing Polyhedral Methods to Optimize Stencils on FPGAs with Stencil-specific Caches, Data Reuse, and Wide Data Bursts
14th International Workshop on Polyhedral Compilation Techniques, (IMPACT 2024, in conjunction with HiPEAC 2024) (München, 17.01.2024)
DOI: 10.48550/arXiv.2401.13645
URL: https://impact-workshop.org/impact2024/#mayer24-fpgas
BibTeX: Download
, , :
Employing polyhedral methods to optimize stencils on FPGAs with stencil-specific caches, data reuse, and wide data bursts [Reproduction Package]
(2024)
DOI: 10.5281/zenodo.10396084
BibTeX: Download
(online publication)
, , :
Register Expansion and SemaCall: 2 Low-overhead Dynamic Watermarks Suitable for Automation in LLVM
ACM SIGSAC Conference on Computer and Communications Security (CCS'24), Workshop on Offensive and Defensive Techniques in the Context of Man At The End (MATE) attacks (Checkmate ’24) (Salt Lake City, UT, 18.10.2024 - 18.10.2024)
In: CheckMATE '24: Proceedings of the 2024 Research on offensive and defensive techniques in the context of Man At The End (MATE) attacks, New York: 2024
DOI: 10.1145/3689934.3690815
URL: https://dl.acm.org/doi/10.1145/3689934.3690815#
BibTeX: Download
, , :
Register Expansion and SemaCall: 2 low-overhead dynamic Watermarks suitable for Automation in LLVM [Source code and Raw Experiment data]
(2024)
DOI: 10.5281/zenodo.13337275
BibTeX: Download
(anderer)
, , , , :
2023
Multipurpose Cacheing to Accelerate OpenMP Target Regions on FPGAs (Best Paper Award)
Proceedings of the 19th International Workshop on OpenMP, IWOMP 2023 (Bristol, GBR, 13.09.2023 - 15.09.2023)
In: Simon McIntosh-Smith, Tom Deakin, Michael Klemm, Bronis R. de Supinski, Jannis Klinkenberg (Hrsg.): OpenMP: Advanced Task-Based, Device and Compiler Programming 2023
DOI: 10.1007/978-3-031-40744-4_10
BibTeX: Download
, , :
Multipurpose Cacheing to Accelerate OpenMP Target Regions on FPGAs [Data set]
14114 (2023), S. 147 - 162
ISSN: 0302-9743
DOI: 10.5281/zenodo.8055889
BibTeX: Download
(online publication)
, , :
Practical Flaky Test Prediction using Common Code Evolution and Test History Data
16th IEEE International Conference on Software Testing, Verification and Validation, ICST 2023 (Dublin, 16.04.2023 - 20.04.2023)
In: IEEE (Hrsg.): Proceedings - 2023 IEEE 16th International Conference on Software Testing, Verification and Validation, ICST 2023 2023
DOI: 10.1109/ICST57152.2023.00028
BibTeX: Download
, , , , :
Practical Flaky Test Prediction using Common Code Evolution and Test History Data [replication package]
figshare (2023)
DOI: 10.6084/m9.figshare.21363075
BibTeX: Download
(online publication)
, , , , :
Employing Polyhedral Methods to Reduce Data Movement in FPGA Stencil Codes
Languages and Compilers for Parallel Computing (LCPC 2022) (Chicago, IL, 12.10.2022 - 14.10.2022)
In: Charith Mendis, Lawrence Rauchwerger (Hrsg.): Proc. of the 35rd Intl. Workshop on Languages and Compilers for Parallel Computing (LCPC 2022), Cham: 2023
DOI: 10.1007/978-3-031-31445-2_4
BibTeX: Download
, , :
Forschungsdaten Test-Eintrag 1 (weiterer Typ, online, Band) [Data set]
Zenodo (2023)
DOI: 10.5281/zenodo.2558378
URL: https://zenodo.org/record/2558378
BibTeX: Download
(online publication)
:
Forschungsdaten Test-Eintrag 2 (weiterer Typ, anderer, Band) [Data set]
Zenodo (2023)
DOI: 10.5281/zenodo.2558378
URL: https://zenodo.org/record/2558378
BibTeX: Download
(anderer)
:
2022
Reducing OpenMP to FPGA Round-trip Times with Predictive Modelling
18th International Workshop on OpenMP (IWOMP 2022) (Chattanooga, TN, 27.09.2022 - 30.09.2022)
In: Michael Klemm, Bronis R. de Supinski, Jannis Klinkenberg, Brandon Neth (Hrsg.): OpenMP in a Modern World: From Multi-device Support to Meta Programming 2022
DOI: 10.1007/978-3-031-15922-0
BibTeX: Download
, , :
Reducing OpenMP to FPGA Round-trip Times with Predictive Modelling [Data set]
Zenodo (2022)
DOI: 10.5281/zenodo.7534795
BibTeX: Download
(online publication)
, , :
Static And Dynamic Dependency Visualization in a Layered Software City
In: SN Computer Science 3 (2022), S. Article 511
ISSN: 2661-8907
DOI: 10.1007/s42979-022-01404-6
BibTeX: Download
, :
Trace visualization within the Software City metaphor: Controlled experiments on program comprehension
In: Information and Software Technology 150 (2022), S. Article 106989
ISSN: 0950-5849
DOI: 10.1016/j.infsof.2022.106989
BibTeX: Download
, :
The ORKA-HPC Compiler — Practical OpenMP for FPGAs
34th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2021) (Newark, DE, 13.10.2021 - 14.10.2021)
In: Xiaoming Li, Sunita Chandrasekaran (Hrsg.): Proceedings of the 34th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2021), Cham: 2022
DOI: 10.1007/978-3-030-99372-6
URL: https://lcpc2021.github.io/pre_workshop_papers/Mayer_lcpc21.pdf
BibTeX: Download
, , , , :
2021
Cloud Cost City: A Visualization of Cloud Costs Using the City Metaphor
16th International Conference on Information Visualization Theory and Applications (IVAPP) (Virtual, originally Vienna, Austria, 08.02.2021 - 10.02.2021)
In: Christophe Hurter, Helen Purchase, Jose Braz, Kadi Bouatouch (Hrsg.): Proceedings of the 16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISIGRAPP) - Volume 3: IVAPP, Portugal: 2021
DOI: 10.5220/0010254701730180
BibTeX: Download
, :
Trace Visualization within the Software City Metaphor: A Controlled Experiment on Program Comprehension
IEEE Working Conference on Software Visualization (VISSOFT) (Virtual, originally Luxembourg City, Luxembourg, 27.09.2021 - 28.09.2021)
In: Proceedings of the IEEE Working Conference on Software Visualization (VISSOFT) 2021
DOI: 10.1109/VISSOFT52517.2021.00015
BibTeX: Download
, :
A layered software city for dependency visualization (Best Paper Award)
16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, VISIGRAPP 2021 (Virtual, originally Vienna, Austria, 08.02.2021 - 10.02.2021)
In: Christophe Hurter, Helen Purchase, Jose Braz, Kadi Bouatouch (Hrsg.): Proceedings of the 16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications - Volume 3: IVAPP, Portugal: 2021
DOI: 10.5220/0010180200150026
URL: http://www.ivapp.visigrapp.org
BibTeX: Download
, , :
Approximate Bit Dependency Analysis to Identify Program Synthesis Problems as Infeasible
International Conference on Verification, Model Checking, and Abstract Interpretation (VMCAI'2021) (Copenhagen, 17.01.2021 - 19.01.2021)
In: Fritz Henglein, Sharon Shoham, Yakir Vizel (Hrsg.): Verification, Model Checking, and Abstract Interpretation (VMCAI 2021), Cham: 2021
DOI: 10.1007/978-3-030-67067-2_16
URL: https://i2git.cs.fau.de/i2public/publications/-/raw/master/vmcai2021.pdf
BibTeX: Download
, :
Test Case Reduction: A Framework, Benchmark, and Comparative Study
International Conference on Software Maintenance and Evolution (ICSME 2021) (Luxembourg (LU), 27.09.2021 - 01.10.2021)
In: Proceedings of the International Conference on Software Maintenance and Evolution (ICSME 2021) 2021
DOI: 10.1109/ICSME52107.2021.00012
URL: https://i2git.cs.fau.de/i2public/publications/-/raw/master/ICSME21.pdf
BibTeX: Download
, , :
LLWM & IR-Mark: Integrating Software Watermarks into an LLVM-based Framework
ACM SIGSAC Conference on Computer and Communications Security (CCS'21), Workshop on Offensive and Defensive Techniques in the Context of Man At The End (MATE) Attacks (Checkmate ’21) (Republic of Korea, 19.11.2021 - 19.11.2021)
In: Checkmate '21: Proceedings of the 2021 Research on offensive and defensive techniques in the Context of Man At The End (MATE) Attacks, New York: 2021
DOI: 10.1145/3465413.3488576
BibTeX: Download
, , :
2020
MutantDistiller: Using Symbolic Execution for Automatic Detection of Equivalent Mutants and Generation of Mutant Killing Tests
15th International Workshop on Mutation Analysis (Mutation 2020) (Porto, 24.10.2020 - 24.10.2020)
In: 2020 IEEE International Conference on Software Testing, Verification and Validation Workshops (ICSTW) 2020
DOI: 10.1109/ICSTW50294.2020.00055
URL: https://mutation-workshop.github.io/2020/
BibTeX: Download
, , :
RNN-aided Human Velocity Estimation from a Single IMU
In: Sensors 13 (2020), S. 1-31
ISSN: 1424-8220
DOI: 10.3390/s20133656
URL: https://www.mdpi.com/1424-8220/20/13/3656
BibTeX: Download
, , , , , :
Localization Limitations of ARCore, ARKit, and Hololens in Dynamic Large-Scale Industry Environments
15th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (GRAPP 2020) (Valletta, 27.02.2020 - 29.02.2020)
In: Kadi Bouatouch, A. Augusto Sousa, Jose Braz (Hrsg.): Proceedings of the 15th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications - Volume 1: GRAPP, Portugal: 2020
DOI: 10.5220/0008989903070318
URL: http://www.grapp.visigrapp.org/
BibTeX: Download
, , , , , :
Towards Collaborative and Dynamic Software Visualization in VR
15th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (GRAPP 2020) (Valletta, 27.02.2020 - 29.02.2020)
In: Andreas Kerren, Christophe Hurter, Jose Braz (Hrsg.): Proceedings of the 15th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications - Volume 3: IVAPP, Portugal: 2020
DOI: 10.5220/0008945201490156
URL: http://www.ivapp.visigrapp.org/
BibTeX: Download
, , :
Artifact for "Approximate Bit Dependency Analysis to Identify Program Synthesis Problems as Infeasible"
Zenodo (2020)
DOI: 10.5281/zenodo.4275482
BibTeX: Download
(online publication)
, :
Language-Agnostic Generation of Compilable Test Programs
International Conference on Software Testing, Verification and Validation (ICST 2020) (Porto, 24.10.2020 - 28.10.2020)
In: Proceedings of the International Conference on Software Testing, Verification and Validation (ICST 2020) 2020
DOI: 10.1109/ICST46399.2020.00015
URL: https://i2git.cs.fau.de/i2public/publications/-/raw/master/ICST20.pdf
BibTeX: Download
, , :
2019
GPU-Accelerated Fixpoint Algorithms for Faster Compiler Analyses (Best Paper Award)
28th International Conference on Compiler Construction (Washington, D.C., 16.02.2019 - 17.02.2019)
In: ACM (Hrsg.): Proceedings of the 28th International Conference on Compiler Construction, New York, NY, USA: 2019
DOI: 10.1145/3302516.3307352
URL: http://www2.informatik.uni-erlangen.de/publication/download/cc19_parcan_blass.pdf
BibTeX: Download
, :
Which Graph Representation to Select for Static Graph-Algorithms on a CUDA-capable GPU
12th Workshop on General Purpose Processing Using GPUs (Providence, RI, 13.04.2019 - 13.04.2019)
In: ACM (Hrsg.): Proceedings of the 12th Workshop on General Purpose Processing Using GPUs, New York, NY, USA: 2019
DOI: 10.1145/3300053.3319416
URL: http://ieeetcca.org/2018/12/16/12th-workshop-on-general-purpose-processing-using-gpu-gpgpu-2019-asplos-2019/
BibTeX: Download
, :
Efficient Inspected Critical Sections in Data-Parallel GPU Codes
30th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2017) (College Station, TX, 11.10.2017 - 13.10.2017)
In: Rauchwerger, Lawrence (Hrsg.): Proceedings of the 30th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2017), Cham: 2019
DOI: 10.1007/978-3-030-35225-7_15
URL: https://www2.cs.fau.de/publication/download/lcpc2017_blass.pdf
BibTeX: Download
, , :
A Bidirectional LSTM for Estimating Dynamic Human Velocities from a Single IMU
10th International Conference on Indoor Positioning and Indoor Navigation (IPIN) (Pisa, 30.09.2019 - 03.10.2019)
In: IEEE (Hrsg.): Proceedings of the 10th International Conference on Indoor Positioning and Indoor Navigation (IPIN) 2019
DOI: 10.1109/IPIN.2019.8911814
URL: https://www2.cs.fau.de/publication/download/IPIN2019.pdf
BibTeX: Download
, , , , , :
Sick Moves! Motion Parameters as Indicators of Simulator Sickness
In: IEEE Transactions on Visualization and Computer Graphics 25 (2019), S. 3146-3157
ISSN: 1077-2626
DOI: 10.1109/TVCG.2019.2932224
URL: https://ieeexplore.ieee.org/document/8798880
BibTeX: Download
, , , , , , , :
SeSaMe: A Data Set of Semantically Similar Java Methods
16th International Conference on Mining Software Repositories (MSR 2019) (Montréal, QC, Kanada, 26.05.2019 - 27.05.2019)
In: Proceedings of the 16th International Conference on Mining Software Repositories (MSR 2019), Piscataway, NJ, USA: 2019
DOI: 10.1109/MSR.2019.00079
URL: https://i2git.cs.fau.de/i2public/publications/-/raw/master/MSR19.pdf
BibTeX: Download
, , :
SeSaMe: A Data Set of Semantically Similar Java Methods [Data set]
Zenodo (2019)
DOI: 10.5281/zenodo.2558377
BibTeX: Download
(online publication)
, , :
OpenMP on FPGAs - A Survey
15th International Workshop on OpenMP (IWOMP 2019) (Auckland, 11.09.2019 - 13.09.2019)
In: Xing Fan, Bronis R. de Supinski, Oliver Sinnen, Nasser Giacaman (Hrsg.): OpenMP: Conquering the Full Hardware Spectrum - Proceedings of the 15th International Workshop on OpenMP (IWOMP 2019), Cham: 2019
DOI: 10.1007/978-3-030-28596-8_7
URL: https://link.springer.com/content/pdf/10.1007/978-3-030-28596-8_7.pdf
BibTeX: Download
, , :
2018
FAU-Inf2/ARES: PhD Thesis Version
Zenodo (2018)
DOI: 10.5281/zenodo.1183903
BibTeX: Download
(online publication)
, , :
FAU-Inf2/tree-measurements: PhD Thesis Version [Data set]
Zenodo (2018)
DOI: 10.5281/zenodo.1183900
BibTeX: Download
(online publication)
, :
Head-to-Body-Pose Classification in No-Pose VR Tracking Systems
25th IEEE Conference on Virtual Reality and 3D User Interfaces (IEEE VR 2018) (Reutlingen, 18.03.2018 - 22.03.2018)
In: Proceedings of the 25th IEEE Conference on Virtual Reality and 3D User Interfaces (IEEE VR 2018) 2018
DOI: 10.1109/VR.2018.8446495
URL: http://www2.informatik.uni-erlangen.de/publication/download/IEEE-VR2018b.pdf
BibTeX: Download
, , :
Human Compensation Strategies for Orientation Drifts
25th IEEE Conference on Virtual Reality and 3D User Interfaces (Reutlingen, 18.03.2018 - 22.03.2018)
In: Proceedings of the 25th IEEE Conference on Virtual Reality and 3D User Interfaces (IEEE VR 2018) 2018
DOI: 10.1109/VR.2018.8446300
URL: https://www2.cs.fau.de/publication/download/IEEE-VR2018a.pdf
BibTeX: Download
, , :
Supervised Learning for Yaw Orientation Estimation
(2018)
ISSN: 2471-917X
DOI: 10.1109/IPIN.2018.8533811
URL: https://www2.cs.fau.de/publication/download/IPIN2018a.pdf
BibTeX: Download
, , :
Recurrent Neural Networks on Drifting Time-of-Flight Measurements
9th International Conference on Indoor Positioning and Indoor Navigation (IPIN 2018) (Nantes, 24.09.2018 - 27.09.2018)
In: Proceedings of the 9th International Conference on Indoor Positioning and Indoor Navigation (IPIN 2018) 2018
DOI: 10.1109/IPIN.2018.8533813
URL: https://www2.cs.fau.de/publication/download/IPIN2018b.pdf
BibTeX: Download
, , , , :
Optical Camera Communication for Active Marker Identification in Camera-based Positioning Systems
15th Workshop on Positioning, Navigation and Communications (WPNC'18) (Bremen, 25.10.2018 - 26.10.2018)
In: Proceedings of the 15th Workshop on Positioning, Navigation and Communications (WPNC'18) 2018
DOI: 10.1109/WPNC.2018.8555846
URL: https://www2.cs.fau.de/publication/download/WPNC2018.pdf
BibTeX: Download
, , , :
FAU-Inf2/cthree: PhD Thesis Version
Zenodo (2018)
DOI: 10.5281/zenodo.1183902
BibTeX: Download
(online publication)
, , :
2017
More Accurate Recommendations for Method-Level Changes
11th Joint Meeting of the European Software Engineering Conference and the ACM SIGSOFT Symposium on the Foundations of Software Engineering (ESEC/FSE2017) (Paderborn, 04.09.2017 - 08.09.2017)
In: Proceedings of 2017 11th Joint Meeting of the European Software Engineering Conference and the ACM SIGSOFT Symposium on the Foundations of Software Engineering (ESEC/FSE2017), New York, NY, USA: 2017
DOI: 10.1145/3106237.3106276
URL: https://www2.cs.fau.de/publication/download/ESECFSE17.pdf
BibTeX: Download
, , , :
FAU-Inf2/treedifferencing: Version of the ASE Publication 2016
Zenodo (2017)
DOI: 10.5281/zenodo.840877
BibTeX: Download
(online publication)
, :
Acoustical manipulation for redirected walking
23rd ACM Symposium on Virtual Reality Software and Technology (VRST '17) (Gothenburg, 08.11.2017 - 10.11.2017)
In: Proceedings of the 23rd ACM Symposium on Virtual Reality Software and Technology (VRST '17), New York: 2017
DOI: 10.1145/3139131.3141205
URL: https://www2.cs.fau.de/publication/download/VRST2017.pdf
BibTeX: Download
, , , :
Diff Graphs for a fast Incremental Pointer Analysis
12th Workshop on Implementation, Compilation, Optimization of Object-Oriented Languages, Programs and Systems (ICOOOLPS 2017) (Barcelona, 19.06.2017 - 19.06.2017)
In: ACM (Hrsg.): Proceedings of the 12th Workshop on Implementation, Compilation, Optimization of Object-Oriented Languages, Programs and Systems (ICOOOLPS'17) 2017
DOI: 10.1145/3098572.3098578
BibTeX: Download
, :
Chronix: Long Term Storage and Retrieval Technology for Anomaly Detection in Operational Data
15th USENIX Conference on File and Storage Technologies (FAST 17) (Santa Clara, CA, 27.02.2017 - 02.03.2017)
In: USENIX Association (Hrsg.): Proceedings of the 15th USENIX Conference on File and Storage Technologies (FAST 17) 2017
Open Access: https://www.usenix.org/conference/fast17/technical-sessions/presentation/lautenschlager
URL: https://www.usenix.org/system/files/conference/fast17/fast17-lautenschlager.pdf
BibTeX: Download
, , , :
AuDoscore: Automatic Grading of Java or Scala Homework
Third Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2017) (Potsdam, 05.10.2017 - 06.10.2017)
In: Sven Strickroth Oliver Müller Michael Striewe (Hrsg.): Proceedings of the Third Workshop "Automatische Bewertung von Programmieraufgaben" (ABP 2017) 2017
Open Access: http://ceur-ws.org/Vol-2015/ABP2017_paper_01.pdf
URL: http://ceur-ws.org/Vol-2015/ABP2017_paper_01.pdf
BibTeX: Download
, , :
2016
Move-Optimized Source Code Tree Differencing
31st International Conference on Automated Software Engineering (ASE 2016) (Singapore, 03.09.2016 - 09.09.2016)
In: Proceedings of the 31st International Conference on Automated Software Engineering (ASE 2016) 2016
DOI: 10.1145/2970276.2970315
BibTeX: Download
, :
Automatic clustering of code changes
13th International Conference on Mining Software Repositories (MSR 2016) (Austin, TX, USA, 14.05.2016 - 15.05.2016)
In: Proceedings of the 13th International Conference on Mining Software Repositories (MSR'16) 2016
DOI: 10.1145/2901739.2901749
URL: http://dl.acm.org/citation.cfm?id=2901749
BibTeX: Download
, , , , :
2015
Simultaneous inspection: Hiding the overhead of inspector-executor style dynamic parallelization
International Workshop on Languages and Compilers for Parallel Computing (LCPC 2014) (Hillsboro, OR, USA, 15.09.2014 - 17.09.2014)
In: James Brodman, Peng Tu (Hrsg.): Languages and Compilers for Parallel Computing, 27th International Workshop, LCPC 2014, Berlin Heidelberg: 2015
DOI: 10.1007/978-3-319-17473-0_7
BibTeX: Download
, , :
Fast and efficient operational time series storage: The missing link in dynamic software analysis
Symposium on Software Performance (SSP 2015) (München, 04.11.2015 - 06.11.2015)
In: Softwaretechnik-Trends (Band 35, Nr. 3): Proceedings of the Symposium on Software Performance (SSP 2015) 2015
URL: http://pi.informatik.uni-siegen.de/gi/stt/35_3/03_Technische_Beitraege/SSP_2015_paper_10.pdf
BibTeX: Download
, , , :
Rahmenwerk zur Ausreißererkennung in Zeitreihen von Software-Laufzeitdaten
Fachtagung Software Engineering & Management (SE 2015) (Dresden, Deutschland, 17.03.2015 - 20.03.2015)
In: Uwe Aßmann, Birgit Demuth, Thorsten Spitta, Georg Püschel, Ronny Kaiser (Hrsg.): Software Engineering & Management (SE 2015), Bonn: 2015
URL: http://www2.informatik.uni-erlangen.de/publication/download/SE2015.pdf
BibTeX: Download
, , , :
Approximative Event Processing on Sensor Data Streams (Best Poster and Demostration Award)
9th ACM International Conference on Distributed Event-Based Systems (DEBS'15) (Oslo, 29.06.2015 - 03.07.2015)
In: Proceedings of the 9th ACM International Conference on Distributed Event-Based Systems (DEBS'15) 2015
DOI: 10.1145/2675743.2776767
URL: http://www2.informatik.uni-erlangen.de/publication/download/DEBS2015.pdf
BibTeX: Download
, , :
Concurrent Computing in the Many-core Era (Dagstuhl Seminar 15021)
Dagstuhl, Germany: 2015
(Dagstuhl Reports, Bd. 5)
DOI: 10.4230/DagRep.5.1.1
URL: http://drops.dagstuhl.de/opus/volltexte/2015/5010
BibTeX: Download
, , , (Hrsg.):
2014
Using Multi Level-Modeling Techniques for Managing Mapping Information
1st Int. Workshop on Multi-Level Modelling, ACM/IEEE 17th International Conference on Model Driven Engineering Languages and Systems (Valencia, Spain, 28.09.2014 - 28.09.2014)
In: Proceedings of the 1st Int. Workshop on Multi-Level Modelling, ACM/IEEE 17th International Conference on Model Driven Engineering Languages and Systems, Aachen: 2014
URL: http://ceur-ws.org/Vol-1286/p11.pdf
BibTeX: Download
, , , , :
Combining Lock Inference with Lock-Based Software Transactional Memory
26th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2013) (San Jose, California, USA, 25.09.2013 - 27.09.2013)
In: Călin Cașcaval, Pablo Montesinos (Hrsg.): Languages and Compilers for Parallel Computing, 26th International Workshop, LCPC 2013, Berlin Heidelberg: 2014
DOI: 10.1007/978-3-319-09967-5_19
BibTeX: Download
, , :
Design for Diagnosability
In: Java Magazin (2014), S. 44-50
ISSN: 1619-795X
BibTeX: Download
, , , :
Predictive Load Management in Smart Grid Environments
8th ACM International Conference on Distributed Event-Based Systems (DEBS'14) (Mumbai, 26.05.2014 - 29.05.2014)
In: Proceedings of the 8th ACM International Conference on Distributed Event-Based Systems (DEBS'14), New York: 2014
DOI: 10.1145/2611286.2611330
URL: http://www2.informatik.uni-erlangen.de/publication/download/DEBS2014.pdf
BibTeX: Download
, , , , :
Adaptive Speculative Processing of Out-of-Order Event Streams
In: ACM Transactions on Internet Technology 14 (2014), S. 4:1-4:24
ISSN: 1533-5399
DOI: 10.1145/2633686
URL: https://www2.cs.fau.de/publication/download/ACM_TOIT2014.pdf
BibTeX: Download
, :
A Modular and Statically Typed Effectful Stack for Custom Graph Traversals
8th International Workshop on Graph-Based Tools (GraBaTs 2014) (York, UK, 25.07.2014 - 25.07.2014)
In: Tichy, Matthias ; Westfechtel, Bernhard (Hrsg.): Proceedings of the 8th International Workshop on Graph-Based Tools (GraBaTs 2014) 2014
DOI: 10.14279/tuj.eceasst.68.952
URL: http://journal.ub.tu-berlin.de/eceasst/article/view/952
BibTeX: Download
, :
2013
Source Code Transformations to Increase the Performance of Software Transactional Memory
24th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2011) (Fort Collins, Colorado, USA, 08.09.2011 - 10.09.2011)
In: Sanjay Rajopadhye, Michelle Mills Strout (Hrsg.): Languages and Compilers for Parallel Computing, 24th International Workshop, LCPC 2011, Berlin Heidelberg: 2013
DOI: 10.1007/978-3-642-36036-7
BibTeX: Download
, , :
Compiler-Guided Identification of Critical Sections in Parallel Code
International Conference on Compiler Construction (Rome, Italy, 16.03.2013 - 24.03.2013)
In: Ranjit Jhala, Koen De Bosschere (Hrsg.): Compiler Construction, 22nd International Conference, CC 2013, Berlin Heidelberg: 2013
DOI: 10.1007/978-3-642-37051-9_11
URL: https://www2.informatik.uni-erlangen.de/publication/download/CC2013.pdf
BibTeX: Download
, , :
Reduktion von False-Sharing in Software-Transactional-Memory
25th Workshop der GI-Fachgruppe Parallel-Algorithmen, -Rechnerstrukturen und -Systemsoftware (PARS 2013) (Erlangen, Germany, 11.04.2013 - 12.04.2013)
In: Parallel-Algorithmen und Rechnerstrukturen (PARS 2013) 2013
URL: https://www2.cs.fau.de/publication/download/STM_PARS2013.pdf
BibTeX: Download
, , :
Evolutionary Algorithms that use Runtime Migration of Detector Processes to Reduce Latency in Event-Based Systems
2013 NASA/ESA Conference on Adaptive Hardware and Systems (AHS-2013) (Torino, Italy, 25.06.2013 - 27.06.2013)
In: Proceedings of the 2013 NASA/ESA Conference on Adaptive Hardware and Systems (AHS-2013) 2013
DOI: 10.1109/AHS.2013.6604223
URL: http://www2.informatik.uni-erlangen.de/publication/download/AHS2013.pdf
BibTeX: Download
, , :
Distributed Low-Latency Out-of-Order Event Processing for High Data Rate Sensor Streams
27th IEEE International Parallel & Distributed Processing Symposium (IPDPS'13) (Boston, Massachusetts, 20.05.2013 - 24.05.2013)
In: Proceedings of 27th International Parallel and Distributed Processing Symposium (IPDPS'13) 2013
DOI: 10.1109/IPDPS.2013.29
URL: http://www2.informatik.uni-erlangen.de/publication/download/IPDPS2013.pdf
BibTeX: Download
, :
Dynamic Low-Latency Distributed Event Processing of Sensor Data Streams
25th Workshop der GI-Fachgruppe Parallel-Algorithmen, -Rechnerstrukturen und -Systemsoftware (PARS 2013) (Erlangen, 11.04.2013 - 12.04.2013)
In: Parallel-Algorithmen und Rechnerstrukturen (PARS 2013) 2013
URL: http://www2.informatik.uni-erlangen.de/publication/download/PARS2013.pdf
BibTeX: Download
, :
Reliable Speculative Processing of Out-of-Order Event Streams in Generic Publish/Subscribe Middlewares
7th ACM International Conference on Distributed Event-Based Systems (DEBS'13) (Arlington, Texas, 29.06.2013 - 03.07.2013)
In: Proceedings of the 7th ACM International Conference on Distributed Event-Based Systems (DEBS'13) 2013
DOI: 10.1145/2488222.2488263
URL: http://www2.informatik.uni-erlangen.de/publication/download/DEBS2013.pdf
BibTeX: Download
, :
Runtime Migration of Stateful Event Detectors with Low-Latency Ordering Constraints
9th International Workshop on Sensor Networks and Systems for Pervasive Computing (San Diego, CA, 18.03.2013 - 22.03.2013)
In: Proceedings of the 2013 IEEE International Conference on Pervasive Computing and Communications Workshops 2013
DOI: 10.1109/PerComW.2013.6529567
URL: http://www2.informatik.uni-erlangen.de/publication/download/persens2013.pdf
BibTeX: Download
, :
Double Inspection for Run-Time Loop Parallelization
24th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2011) (Fort Collins, CO, USA, 08.09.2011 - 10.09.2011)
In: Sanjay Rajopadhye, Michelle Mills Strout (Hrsg.): Languages and Compilers for Parallel Computing, 24th International Workshop, LCPC 2011, Berlin Heidelberg: 2013
DOI: 10.1007/978-3-642-36036-7_4
BibTeX: Download
, , :
Language and Runtime Techniques for better Model Checking Efficiency of Parallel Programs
26th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2013) (San Jose, California, USA, 25.09.2013 - 27.09.2014)
In: Călin Cașcaval, Pablo Montesinos (Hrsg.): Proceedings of the 26th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2013), Berlin Heidelberg: 2013
DOI: 10.1007/978-3-319-09967-5
BibTeX: Download
, :
CellCilk: Extending Cilk for heterogeneous multicore platforms
24th International Workshop on Languages and Compilers for Parallel Computing (LCPC 2011) (Fort Collins, Colorado, USA, 08.09.2011 - 10.09.2011)
In: Rajopadhye, S.; Strout, M. Mills (Hrsg.): Languages and Compilers for Parallel Computing, 24th International Workshop, LCPC 2011for Parallel Computing (LCPC 2011), Berlin Heidelberg: 2013
DOI: 10.1007/978-3-642-36036-7_7
URL: http://www2.informatik.uni-erlangen.de/publication/download/CellCilk11.pdf
BibTeX: Download
, , :
Object Support for OpenMP-style Programming of GPU Clusters in Java
27th International Conference on Advanced Information Networking and Applications Workshops (Barcelona, Spain, 25.03.2013 - 28.03.2013)
In: Proceedings of the 27th International Conference on Advanced Information Networking and Applications Workshops (WAINA 2013) 2013
DOI: 10.1109/WAINA.2013.62
URL: http://www2.informatik.uni-erlangen.de/publication/download/WDVP13.pdf
BibTeX: Download
, , , :
2012
Expressing Parallelism and Timing in Embedded Real-Time Applications
8th International Summer School on Advanced Computer Architecture and Compilation for High-Performance and Embedded Systems (Fiuggi, Italy, 11.07.2012 - 11.07.2012)
In: High-Performance and Embedded Architecture and Compilation (HiPEAC) Network of Excellence (Hrsg.): 8th International Summer School on Advanced Computer Architecture and Compilation for High-Performance and Embedded Systems (ACACES) 2012 - Poster Abstracts, Ghent (Belgium): 2012
URL: https://www2.cs.fau.de/publication/download/braunstein_acaces_abstract.pdf
BibTeX: Download
, , :
Annotation Support for Generic Patches
International Workshop on Recommendation Systems for Software Engineering (Zurich, Switzerland, 04.06.2012 - 04.06.2012)
In: Proceedings of the Third International Workshop on Recommendation Systems for Software Engineering (RSSE 12) 2012
DOI: 10.1109/RSSE.2012.6233400
URL: http://www2.informatik.uni-erlangen.de/publication/download/DVP12.pdf
BibTeX: Download
, , :
An Integrated Tool Chain for Software Process Modeling and Execution
8th European Conference on Modeling Foundations and Applications (ECMFA 2012) (Lyngby, Denmark, 02.07.2012 - 05.07.2012)
In: Störrle, Harald ; Botterweck, Goetz ; Bourdellès, Michel ; Kolovos, Dimitris ; Paige, Richard ; Roubtsova, Ella ; Rubin, Julia ; Tolvanen, Juha-Pekka (Hrsg.): Joint Proceedings of co-located Events at the 8th European Conference on Modeling Foundations and Applications (ECMFA 2012), Copenhagen, Denmark: 2012
URL: http://www2.imm.dtu.dk/conferences/ECMFA-2012/proceedings/PDF/ECMFA-2012-Workshop-Proceedings.pdf
BibTeX: Download
, , , , :
Learning Event Detection Rules with Noise Hidden Markov Models
2012 NASA/ESA Conference on Adaptive Hardware and Systems (AHS-2012) (Nuremberg, Germany, 25.06.2012 - 28.06.2012)
In: Proceedings of the 2012 NASA/ESA Conference on Adaptive Hardware and Systems (AHS-2012) 2012
DOI: 10.1109/AHS.2012.6268645
URL: http://www2.informatik.uni-erlangen.de/publication/download/AHS2012.pdf
BibTeX: Download
, :
Towards a Distributed Self-Optimizing Event Processing System for Realtime Locating Systems (RTLS)
6th ACM International Conference on Distributed Event-Based Systems (DEBS'12) (Berlin, 16.06.2012 - 20.06.2012)
In: DEBS PhD Workshops, 6th ACM International Conference on Distributed Event-Based Systems 2012
URL: http://www2.informatik.uni-erlangen.de/publication/download/DEBS2012.pdf
BibTeX: Download
, :
Multicore Software Engineering, Performance and Tools (Proceedings MSEPT 2012)
Berlin Heidelberg: 2012
(Lecture Notes in Computer Science (LNCS), Bd. 7303)
ISBN: 978-3-642-31201-4
DOI: 10.1007/978-3-642-31202-1
BibTeX: Download
, (Hrsg.):
TracQL: A Domain-Specific Language for Traceability Analysis
Joint Working Conference on Software Architecture & 6th European Conference on Software Architecture (WICSA/ECSA 2012) (Helsinki, Finland, 20.08.2012 - 24.08.2012)
In: Ali Babar M., Cuesta C., Savolainen J., Männistö T. (Hrsg.): Proceedings of the 2012 Joint Working Conference on Software Architecture & 6th European Conference on Software Architecture, Los Alamitos, CA: 2012
DOI: 10.1109/WICSA-ECSA.212.53
BibTeX: Download
, , :
Parallel Memory Defragmentation on a GPU
ACM SIGPLAN Workshop on Memory Systems Performance and Correctness (MSPC 12) (Beijing, China, 16.06.2012 - 16.06.2012)
In: Proceedings of the 2012 ACM SIGPLAN Workshop on Memory Systems Performance and Correctness (MSPC'12) 2012
DOI: 10.1145/2247684.2247693
URL: http://www2.informatik.uni-erlangen.de/publication/download/VP12.pdf
BibTeX: Download
, :
2011
ReflexML: UML-based architecture-to-code traceability and consistency checking
5th European Conference on Software Architecture, ECSA 2011 (Essen, 13.09.2011 - 16.09.2011)
In: Ivica Crnkovic, Volker Gruhn, Matthias Book (Hrsg.): Software Architecture Software Architecture, 5th European Conference, ECSA 2011, Berlin Heidelberg: 2011
DOI: 10.1007/978-3-642-23798-0_37
URL: http://link.springer.com/chapter/10.1007/978-3-642-23798-0_37
BibTeX: Download
, :
Trajectory Behavior Language
2nd International Conference on Positioning and Context-Awareness (PoCA 2011) (Brussels, 24.03.2011 - 24.03.2011)
In: Proceedings of the 2nd International Conference on Positioning and Context-Awareness (PoCA 2011), Antwerpen: 2011
URL: http://www2.informatik.uni-erlangen.de/publication/download/PoCA2011b.pdf
BibTeX: Download
, , :
A FUML-Based Distributed Execution Machine for Enacting Software Process Models
Modelling Foundations and Applications (Birmingham, UK, 06.06.2011 - 09.06.2011)
In: France, Robert ; Kuester, Jochen ; Bordbar, Behzad ; Paige, Richard (Hrsg.): Proceedings 7th European Conference on Modeling Foundations and Applications, Berlin Heidelberg: 2011
DOI: 10.1007/978-3-642-21470-7_3
BibTeX: Download
, , , , , :
Is There Hope for Automatic Parallelization of Legacy Industry Automation Applications?
24th Workshop der GI-Fachgruppe Parallel-Algorithmen, -Rechnerstrukturen und -Systemsoftware (PARS 2011) (Rüschlikon, Switzerland, 25.05.2011 - 27.05.2011)
In: Parallel-Algorithmen und Rechnerstrukturen (PARS 2011) 2011
URL: http://www2.informatik.uni-erlangen.de/publication/download/PARS2011.pdf
BibTeX: Download
, , :
Structural Equivalence Partition and Boundary Testing
Software Engineering 2011 - Fachtagung des GI-Fachbereichs Softwaretechnik (Karlsruhe, 24.02.2011 - 25.02.2011)
In: Ralf Reussner, Matthias Grund, Andreas Oberweis, Walter Tichy (Hrsg.): Lecture Notes in Informatics (LNI), P-183, Bonn: 2011
URL: https://www2.cs.fau.de/publication/download/SE2011-OsterPhilippsen-SEBT.pdf
BibTeX: Download
, :
JavaParty
In: Padua, David (Hrsg.): Encyclopedia of Parallel Computing, New York: Springer US, 2011, S. 992-997
ISBN: 978-0-387-09765-7
DOI: 10.1007/978-0-387-09766-4_49
BibTeX: Download
:
Proceedings of the 4th International Workshop on Multicore Software Engineering (IWMSE'11)
New York: 2011
(International Conference on Software Engineering ICSE, Bd. 2011, Waikiki, Honolulu, HI, USA)
ISBN: 978-1-4503-0577-8
URL: http://dl.acm.org/citation.cfm?id=1984693&CFID=625143511&CFTOKEN=93536545
BibTeX: Download
, (Hrsg.):
A Statically Typed Query Language for Property Graphs
15th International Database Engineering and Applications Symposium (IDEAS'11) (Lissabon, Portugal, 21.09.2011 - 23.09.2011)
In: Bernardino, Jorge; Cruz, Isabel; Desai, Bipin C. (Hrsg.): Proceedings of 15th International Database Engineering and Applications Symposium (IDEAS'11), New York: 2011
DOI: 10.1145/2076623.2076653
URL: http://www2.informatik.uni-erlangen.de/publication/download/Ntausch_ideas11.pdf
BibTeX: Download
, , :
Enabling Multiple Accelerator Acceleration for Java/OpenMP
3rd USENIX Workshop on Hot Topics in Parallelism (HotPar '11) (Berkeley, CA, 26.05.2011 - 27.05.2011)
In: Proceedings 3rd USENIX Workshop on Hot Topics in Parallelism (HotPar '11) 2011
URL: http://www.usenix.org/event/hotpar11/tech/final_files/Veldema.pdf
BibTeX: Download
, , :
A Hybrid Functional and Object-Oriented Language for a Multi-Core Future
In: it - Information Technology 53 (2011), S. 84-90
ISSN: 1611-2776
DOI: 10.1524/itit.2011.0629
URL: http://www2.informatik.uni-erlangen.de/publication/download/itit.2011.0629.pdf
BibTeX: Download
, :
Iterative data-parallel mark & sweep on a GPU
International Symposium on Memory Management (ISMM '11) (San Jose, California, USA, 04.06.2011 - 08.06.2011)
In: Boehm, Hans-Juergen ; Bacon, David F. (Hrsg.): Proceedings of the International Symposium on Memory Management (ISMM'11), New York: 2011
DOI: 10.1145/1993478.1993480
URL: http://doi.acm.org/10.1145/1993478.1993480
BibTeX: Download
, :
2010
eSPEM - A SPEM Extension for Enactable Behavior Modeling
ECMFA 2010, 6th European Conference of Modelling Foundations and Applications (Paris, France, 15.06.2010 - 18.06.2010)
In: Kühne, Thomas ; Selic, Bran ; Gervais, Marie-Pierre ; Terrier, Francois (Hrsg.): 6th European Conference of Modelling Foundations and Applications, Berlin Heidelberg: 2010
DOI: 10.1007/978-3-642-13595-8
URL: http://www2.informatik.uni-erlangen.de/publication/download/ecmfa2010_eSPEM.pdf
BibTeX: Download
, , , , , :
Irregular data-parallelism in a parallel object-oriented language by means of Collective Replication
CS-2010-04 (2010), S. 14
ISSN: 2191-5008
Open Access: https://opus4.kobv.de/opus4-fau/frontdoor/index/index/docId/1544
URL: http://www.opus.ub.uni-erlangen.de/opus/frontdoor.php?source_opus=2268
BibTeX: Download
(Techreport)
, , :
Proceedings of the 3rd International Workshop on Multicore Software Engineering (IWMSE'10)
New York: 2010
(International Conference on Software Engineering ICSE, Bd. 2010, Cape Town, South Africa)
ISBN: 978-1-60558-964-0
URL: http://dl.acm.org/citation.cfm?id=1808954&picked=prox&cfid=625143511&cftoken=93536545
BibTeX: Download
, (Hrsg.):
Safe and Familiar Multi-core Programming by means of a Hybrid Functional and Imperative Language
22nd International Workshop of Languages and Compilers for Parallel Computing (LCPC 2009) (Newark, DE, 08.10.2009 - 10.10.2009)
In: Guang R. Gao, Lori L. Pollock, John Cavazos, Xiaoming Li (Hrsg.): Languages and Compilers for Parallel Computing, 22nd International Workshop, LCPC 2009, Berlin Heidelberg: 2010
DOI: 10.1007/978-3-642-13374-9_11
URL: http://www2.informatik.uni-erlangen.de/publication/download/LCPC_hpc_tapir.pdf
BibTeX: Download
, :
2009
A meta-predictor framework for prefetching in object-based DSMs
In: Concurrency and Computation-Practice & Experience 21 (2009), S. 1789-1803
ISSN: 1532-0626
DOI: 10.1002/cpe.1443
URL: http://www2.informatik.uni-erlangen.de/publication/download/BKCP09.pdf
BibTeX: Download
, , , :
Reparallelization Techniques for Migrating OpenMP Codes in Computational Grids
In: Concurrency and Computation-Practice & Experience 21 (2009), S. 281-299
ISSN: 1532-0626
DOI: 10.1002/cpe.1356
URL: http://www2.informatik.uni-erlangen.de/publication/download/migration-OpenMP-CCPE.pdf
BibTeX: Download
, , , , :
Tapir: Language Support to Reduce the State Space in Model-Checking
ATPS 2009 - 4. Arbeitstagung Programmiersprachen (Lübeck, 28.09.2009 - 02.10.2009)
In: Fischer, Stefan ; Maehle, Erik ; Reischuck, Rüdiger (Hrsg.): Informatik 2009 - Im Focus das Leben, Bonn: 2009
URL: http://www2.informatik.uni-erlangen.de/publication/download/ATPS09-tapir.pdf
BibTeX: Download
, :
DAG Mining for Code Compaction
In: Cao, L. ; Yu, P. S. ; Zhang, C. ; Zhang, H. (Hrsg.): Data Mining for Business Applications, Berlin Heidelberg: Springer, 2009, S. 209-224
ISBN: 978-0-387-79419-8
DOI: 10.1007/978-0-387-79420-4_15
URL: http://www2.informatik.uni-erlangen.de/publication/download/WDWFP09.pdf
BibTeX: Download
, , , , :
Dynamic code footprint optimization for the IBM cell broadband engine
2009 ICSE Workshop on Multicore Software Engineering, IWMSE 2009 (Vancouver, BC, 18.05.2009 - 18.05.2009)
DOI: 10.1109/IWMSE.2009.5071385
URL: http://www2.informatik.uni-erlangen.de/publication/download/WFKSWP09.pdf
BibTeX: Download
, , , , , :
2008
Automatic Prefetching with Binary Code Rewriting in Object-based DSMs (Best Paper)
Euro-Par 2008 Conference (Las Palmas de Gran Canaria, Spain, 26.08.2008 - 29.08.2008)
In: Luque, Emilio ; Margalef, Tomàs ; Benítez, Domingo (Hrsg.): EuroPar 2008 - Parallel Processing, Berlin Heidelberg: 2008
DOI: 10.1007/978-3-540-85451-7_69
URL: http://www2.informatik.uni-erlangen.de/publication/download/dynamic_prefetcher.pdf
BibTeX: Download
, , , :
A Proposal for OpenMP for Java
International Workshop on OpenMP (IWOMP'05) (Reims, France, 01.06.2005 - 04.06.2005)
In: Matthias S. Mueller, Barbara M. Chapman, Bronis R. de Supinski, Allen D. Malony, Michael Voss (Hrsg.): OpenMP Shared Memory Parallel Programming, International Workshops IWOMP 2005 and IWOMP 2006, Berlin Heidelberg: 2008
DOI: 10.1007/978-3-540-68555-5_33
URL: http://www2.informatik.uni-erlangen.de/publication/download/java-openmp.pdf
BibTeX: Download
, , , :
An Automatic Cost-based Framework for Seamless Application Migration in Grid Environments
20th IASTED International Conference on Parallel and Distributed Computing and Systems (PDCS'08) (Orlando, FL, USA, 16.11.2008 - 18.11.2008)
In: Proceedings of the 20th IASTED International Conference on Parallel and Distributed Computing and Systems (PDCS'08), Anaheim, CA, USA: 2008
URL: http://www2.informatik.uni-erlangen.de/publication/download/OGRE-PDCS.pdf
BibTeX: Download
, , :
Cluster Research at the Programming Systems Group
(2008), S. 30-31
URL: http://www.rrze.uni-erlangen.de/wir-ueber-uns/publikationen/HPC-2008-Screenversion.pdf
BibTeX: Download
(anderer)
, , :
A DSM protocol aware of both thread migration and memory constraints (Best Paper)
20th IASTED International Conference on Parallel and Distributed Computing and Systems (PDCS'08) (Orlando, FL, USA, 16.11.2008 - 18.11.2008)
In: Gonzalez, Teofilo F. (Hrsg.): Proceedings of the 20th IASTED International Conference on Parallel and Distributed Computing and Systems (PDCS'08), Anaheim, CA, USA: 2008
URL: http://www2.informatik.uni-erlangen.de/publication/download/LVM-PDCS.pdf
BibTeX: Download
, , :
Evaluation of RDMA opportunities in an Object-Oriented DSM
20th International Workshop on Languages and Compilers for Parallel Computing (LCPC '07) (Urbana, Illinois, 11.10.2007 - 13.10.2007)
In: Vikram Adve, María Jesús Garzarán, Paul Petersen (Hrsg.): Languages and Compilers for Parallel Computing, 20th International Workshop, LCPC 2007, Berlin Heidelberg: 2008
DOI: 10.1007/978-3-540-85261-2_15
URL: http://www2.informatik.uni-erlangen.de/publication/download/LCPC_rdma.pdf
BibTeX: Download
, :
Supporting Huge Address Spaces in a Virtual Machine for Java on a Cluster
20th International Workshop on Languages and Compilers for Parallel Computing (LCPC '07) (Urbana, Illinois, 11.10.2007 - 13.10.2007)
In: Vikram Adve, María Jesús Garzarán, Paul Petersen (Hrsg.): Languages and Compilers for Parallel Computing, 20th International Workshop, LCPC 2007, Berlin Heidelberg: 2008
DOI: 10.1007/978-3-540-85261-2_13
URL: http://www2.informatik.uni-erlangen.de/publication/download/LCPC_LVM.pdf
BibTeX: Download
, :
DAGMA: Mining Directed Acyclic Graphs (Outstanding Paper Award)
IADIS European Conference on Data Mining 2008 (Amsterdam, The Netherlands, 24.07.2008 - 26.07.2008)
In: Hans Weghorn ; Ajith P. Abraham (Hrsg.): Proceedings of the IADIS European Conference on Data Mining, Amsterdam, The Netherlands: 2008
URL: http://www2.informatik.uni-erlangen.de/publication/download/ecdm2008-dagma.pdf
BibTeX: Download
, , , , :
2007
Graph-based procedural abstraction
International Symposium on Code Generation and Optimization, CGO 2007 (San Jose, CA, 11.03.2007 - 14.03.2007)
In: International Symposium on Code Generation and Optimization (CGO'07) 2007
DOI: 10.1109/CGO.2007.14
URL: http://www2.informatik.uni-erlangen.de/publication/download/cgo2007-shrink.pdf
BibTeX: Download
, , , , , :
Esodyp+: Prefetching in the Jackal Software DSM
Proceedings of the Euro-Par 2007 Conference (Rennes, France, 28.08.2007 - 31.08.2007)
In: Kermarrec, Anne-Marie; Bougé, Luc; Priol, Thierry (Hrsg.): EuroPar 2007 - Parallel Processing, Berlin Heidelberg: 2007
DOI: 10.1007/978-3-540-74466-5_60
URL: http://www2.informatik.uni-erlangen.de/publication/download/esodyp.pdf
BibTeX: Download
, , , , :
Reparallelization and Migration of OpenMP Programs
7th International Symposium on Cluster Computing and the Grid (CCGrid '07) (Rio de Janeiro, Brazil, 14.05.2007 - 17.05.2007)
In: Proceedings of the 7th International Symposium on Cluster Computing and the Grid (CCGrid '07), New York, NY, USA: 2007
DOI: 10.1109/CCGRID.2007.96
URL: http://www2.informatik.uni-erlangen.de/publication/download/migration-OpenMP.pdf
BibTeX: Download
, , , , :
JaMP: An Implementation of OpenMP for a Java DSM
In: Concurrency and Computation-Practice & Experience 18 (2007), S. 2333-2352
ISSN: 1532-0626
DOI: 10.1002/cpe.1178
URL: http://www2.informatik.uni-erlangen.de/publication/download/jamp-journal.pdf
BibTeX: Download
, , , :
Reparallelisierung und Migration von OpenMP-Applikationen (Young Researchers Award)
21. Workshop der GI-Fachgruppe Parallel-Algorithmen, -Rechnerstrukturen und -Systemsoftware (PARS 2007) (Hamburg, 31.05.2007 - 01.06.2007)
In: Parallel-Algorithmen und Rechnerstrukturen (PARS 2007) 2007
URL: http://www2.informatik.uni-erlangen.de/publication/download/migration-OpenMP-PARS.pdf
BibTeX: Download
, :
2006
JaMP: An Implementation of OpenMP for a Java DSM
Workshop on Compilers for Parallel Computers (A Coruna, Spain, 09.01.2006 - 11.01.2006)
In: Proceedings of the 12th Workshop on Compilers for Parallel Computers 2006
URL: http://www2.informatik.uni-erlangen.de/publication/download/jamp.pdf
BibTeX: Download
, , , :
Mining Molecular Datasets on Symmetric Multiprocessor Systems
2006 IEEE International Conference on Systems, Man and Cybernetics (Taipei, Taiwan, 08.10.2016 - 11.10.2006)
In: Proceedings of the 2006 IEEE International Converence on Systems, Man and Cybernetics, New York: 2006
DOI: 10.1109/ICSMC.2006.384889
URL: http://www2.informatik.uni-erlangen.de/publication/download/SMC2006.pdf
BibTeX: Download
, , , :
The ParMol package for frequent subgraph mining
Third International Workshop on Graph Based Tools (GraBaTs) (Natal, Brasil, 21.09.2006 - 22.09.2006)
In: Zündorf, Albert ; Varro, Daniel (Hrsg.): Third International Workshop on Graph Based Tools 2006
URL: http://www2.informatik.uni-erlangen.de/publication/download/GraBaTs2006_ParMol.pdf
BibTeX: Download
, , , , :
The ParMol Package for Frequent Subgraph Mining
In: Electronic Communications of the EASST Volume 1 (2006), S. 1-12
ISSN: 1863-2122
URL: http://journal.ub.tu-berlin.de/eceasst/article/viewFile/85/63
BibTeX: Download
, , , , :
Edgar: the Embedding-baseD GrAph MineR
International Workshop on Mining and Learning with Graphs (Berlin, 18.09.2006 - 22.09.2006)
In: Gärtner, Thomas ; Garriga, Gemma C. ; Meinl, Thorsten (Hrsg.): Proceedings of the International Workshop on Mining and Learning with Graphs 2006
URL: http://www2.informatik.uni-erlangen.de/publication/download/MLG2006_Edgar.pdf
BibTeX: Download
, , , , :
2005
Parallel Mining for Frequent Fragments on a Shared-Memory Multiprocessor -Results and Java-Obstacles-
Workshop der GI-Fachgruppe "Maschinelles Lernen, Wissensentdeckung, Data Mining" (FGML) (Saarbrücken, Germany, 10.10.2005 - 12.10.2005)
In: Bauer, Mathias ; Kröner, Alexander ; Brandherm, Boris (Hrsg.): LWA 2005 - Beiträge zur GI-Workshopwoche Lernen, Wissensentdeckung, Adaptivität 2005
BibTeX: Download
, , :
Near Overhead-free Heterogeneous Thread-migration
2005 IEEE International Conference on Cluster Coomputing (Boston, Massachusetts, USA, 26.09.2005 - 30.09.2005)
In: Proceedings of the 2005 IEEE International Conference on Cluster Coomputing, New York: 2005
DOI: 10.1109/CLUSTR.2005.347042
URL: http://www2.informatik.uni-erlangen.de/publication/download/thread_migration.pdf
BibTeX: Download
, :
A quantitative comparison of the subgraph miners MoFa, gSpan, FFSM, and Gaston
9th European Conference on Principles and Practices of Knowledge Discovery in Databases (Porto, Portugal, 03.10.2005 - 07.10.2005)
In: Jorge, Alipio; Torgo, Luis; Brazdil, Pavel; Camacho, Rui; Gama, Joao (Hrsg.): Knowledge Discovery in Database: PKDD 2005, Berlin Heidelberg: 2005
DOI: 10.1007/11564126_39
URL: http://www2.informatik.uni-erlangen.de/publication/download/PKDD05.pdf
BibTeX: Download
, , , :
2004
Latency Reduction in Software-DSMs by Means of Dynamic Function Splicing
16th IASTED International Conference on Parallel and Distributed Computing and Systems (PDCS'04) (Cambridge, MA, USA, 09.11.2004 - 11.11.2004)
In: Proceedings of the 16th IASTED International Conference on Parallel and Distributed Computing and Systems, Anaheim, CA, USA: 2004
URL: http://www2.informatik.uni-erlangen.de/publication/download/pdcs04dfs.pdf
BibTeX: Download
, , :
Using Object Combining for Object Prefetching in DSM Systems
11th Workshop on Compilers for Parallel Computers (CPC 2004) (Seeon, 07.07.2004 - 09.07.2004)
In: Gerndt, Michael ; Kereku, Edmond (Hrsg.): Proceedings of the 11th Workshop on Compilers for Parallel Computers (CPC 2004) 2004
URL: http://www2.informatik.uni-erlangen.de/publication/download/cpc2004.ps.gz
BibTeX: Download
, :
2003
A Controlled experiment on inheritance depth as a cost factor for maintenance
In: Journal of Systems and Software 65 (2003), S. 115-126
ISSN: 0164-1212
DOI: 10.1016/S0164-1212(02)00053-5
URL: http://pswt.informatik.uni-erlangen.de/publication/download/jss.pdf
BibTeX: Download
, , , :
Compiler Optimized Remote Method Invocation
5th IEEE Conf. on Cluster Computing (CC 2003) (Hong Kong, 01.12.2003 - 04.12.2003)
In: Proc. 5th IEEE Conf. on Cluster Computing 2003
DOI: 10.1109/CLUSTR.2003.1253308
URL: http://www2.informatik.uni-erlangen.de/publication/download/cc2003.pdf
BibTeX: Download
, :
2002
Internetwahlen: Demokratische Wahlen über das Internet?
In: Informatik-Spektrum 25 (2002), S. 138-150
ISSN: 0170-6012
DOI: 10.1007/s002870200216
URL: http://www2.informatik.uni-erlangen.de/publication/download/wahlen.pdf
BibTeX: Download
:
Finding plagiarisms among a set of programs with JPlag
In: Journal of Universal Computer Science 8 (2002), S. 1016-1038
ISSN: 0948-695X
DOI: 10.3217/jucs-008-11-1016
URL: http://pswt.informatik.uni-erlangen.de/publication/download/jplag.pdf
BibTeX: Download
, , :
Two controlled experiments assessing the usefulness of design pattern documentation during program maintenance
In: IEEE Transactions on Software Engineering 28 (2002), S. 595-606
ISSN: 0098-5589
DOI: 10.1109/TSE.2002.1010061
URL: http://pswt.informatik.uni-erlangen.de/publication/download/patdoc_tse2001.pdf
BibTeX: Download
, , , :
2001
Java and numerical computing
In: Computing in Science & Engineering 3 (2001), S. 18-24
ISSN: 1521-9615
DOI: 10.1109/5992.908997
URL: http://www2.informatik.uni-erlangen.de/publication/download/cise-ron.pdf
BibTeX: Download
, , , :
Java communications for large-scale parallel computing
3rd International Conference on Large-Scale Scientific Computations (Sozopol/Bulgaria, 06.06.2001 - 10.06.2001)
In: Marbenov, S. ; Wasniewski, J. ; Yalamov, P. (Hrsg.): Large-Scale Scientific Computing, Berlin Heidelberg: 2001
DOI: 10.1007/3-540-45346-6_3
URL: http://www2.informatik.uni-erlangen.de/publication/download/scicomp-getov.pdf
BibTeX: Download
, :
Multiparadigm communications in Java for Grid computing
In: Communications of the ACM 44 (2001), S. 118-125
ISSN: 0001-0782
DOI: 10.1145/383845.383872
URL: http://www2.informatik.uni-erlangen.de/publication/download/cacm-getov.pdf
BibTeX: Download
, , , :
Exploiting object locality in JavaParty, a distributed computing environment for workstation clusters
9th Intl. Workshop on Compiler for Parallel Computers (CPC 2001) (Edinburgh, Scotland/UK, 27.06.2001 - 29.06.2001)
In: O'Boyle, Michael ; Fursin, Grigori ; Ashby, Tom ; Franke, Bjoern ; Long, Shun (Hrsg.): Proceedings of the 9th Intl. Workshop on Compiler for Parallel Computers (CPC 2001) 2001
URL: http://www2.informatik.uni-erlangen.de/publication/download/jp-local-calls.pdf
BibTeX: Download
, :
Leistungsaspekte Paralleller Objektorientierter Programmiersprachen (Habilitationsschrift, 2001)
BibTeX: Download
:
Verschiedene Realisierungsmöglichkeiten für komplexe Zahlen in Java im Vergleich
In: it + ti - Informationstechnik und Technische Informatik 43 (2001), S. 159-165
ISSN: 0944-2774
DOI: 10.1524/itit.2001.43.3.159
URL: http://www2.informatik.uni-erlangen.de/publication/download/complex-itti.pdf
BibTeX: Download
:
JavaGrande - High Performance Computing with Java
Workshop on Applied Parallel Computing, New Paradigms for HPC in Industry and Academia (Para2000) (Bergen, Norway, 18.06.2000 - 21.06.2000)
In: Sørevik, Tor ; Manne, Fredrik ; Moe, Randi ; Gebremedhin, Assefaw Hadish (Hrsg.): Applied Parallel Computing. New Paradigms for HPC in Industry and Academia, Berlin Heidelberg: 2001
DOI: 10.1007/3-540-70734-4_5
BibTeX: Download
, , , , , , :
2000
Complex numbers for Java
In: Concurrency Practice and Experience 12 (2000), S. 477-491
ISSN: 1040-3108
DOI: 10.1002/1096-9128(200005)12:63.0.CO;2-W
URL: http://www2.informatik.uni-erlangen.de/publication/download/complexe.pdf
BibTeX: Download
, :
A survey on concurrent object-oriented languages
In: Concurrency and Computation-Practice & Experience 12 (2000), S. 917-980
ISSN: 1532-0626
DOI: 10.1002/1096-9128(20000825)12:103.0.CO;2-F
URL: http://www2.informatik.uni-erlangen.de/publication/download/cool-survey.pdf
BibTeX: Download
:
Cooperating distributed garbage collectors for clusters and beyond
In: Concurrency Practice and Experience 12 (2000), S. 595-610
ISSN: 1040-3108
DOI: 10.1002/1096-9128(200005)12:73.0.CO;2-D
URL: http://www2.informatik.uni-erlangen.de/publication/download/dgc.pdf
BibTeX: Download
:
Cooperating distributed garbage collectors for clusters and beyond
8th Workshop on Compilers for Parallel Computers (CPC 2000) (Aussois, France, 04.01.2000 - 07.01.2000)
In: Proceedings of the 8th Workshop on Compilers for Parallel Computers (CPC 2000) 2000
URL: http://www2.informatik.uni-erlangen.de/publication/download/dgc.pdf
BibTeX: Download
:
JavaGrande: Hochleistungsrechnen mit Java
OOP'2000 (München)
In: Proc. Objekt-Orientiertes Programmieren, -: 2000
URL: http://www2.informatik.uni-erlangen.de/publication/download/oop00.pdf
BibTeX: Download
:
JavaGrande - Hochleistungsrechnen mit Java
In: Informatik-Spektrum 23 (2000), S. 79-89
ISSN: 0170-6012
DOI: 10.1007/s002870050153
URL: http://www2.informatik.uni-erlangen.de/publication/download/jgf.pdf
BibTeX: Download
:
Locality optimization in JavaParty by means of static type analysis
In: Concurrency Practice and Experience 12 (2000), S. 613-628
ISSN: 1040-3108
DOI: 10.1002/1096-9128(200007)12:83.0.CO;2-G
URL: http://www2.informatik.uni-erlangen.de/publication/download/static.pdf
BibTeX: Download
, :
More efficient serialization and RMI for Java
In: Concurrency Practice and Experience 12 (2000), S. 495-518
ISSN: 1040-3108
DOI: 10.1002/1096-9128(200005)12:73.0.CO;2-W
URL: http://www2.informatik.uni-erlangen.de/publication/download/serialrmi.pdf
BibTeX: Download
, , :
JPlag: Finding plagiarisms among a set of programs
(2000)
BibTeX: Download
(Techreport)
, , :
1999
Irregular parallel algorithms in Java
6th Int. Workshop on Solving Irregularly Structured Problems in Parallel (San Juan, Puerto Rico, USA, 12.04.1999 - 16.04.1999)
In: Rolim, José (Hrsg.): Parallel and Distributed Processing, Berlin Heidelberg: 1999
DOI: 10.1007/BFb0097988
URL: http://www2.informatik.uni-erlangen.de/publication/download/irregular99.pdf
BibTeX: Download
, , :
Fair multi-branch locking of several locks
In: International Journal of Parallel and Distributed Systems and Networks 2 (1999), S. 17-26
ISSN: 1206-2138
URL: http://www2.informatik.uni-erlangen.de/publication/download/locks.pdf
BibTeX: Download
, :
Java as a basis for parallel data mining in workstation clusters
7th International Conference on High-Performance Computing and Networking (HPCN) (Amsterdam, NL, 12.04.1999 - 14.04.1999)
In: Sloot, P. ; Bubak, M. ; Hoekstra, Alfons G. ; Hertzberger, B. (Hrsg.): Proc. 7th International Conference on High Performance Computing and Networking (HPCN Europe), Berlin Heidelberg: 1999
DOI: 10.1007/BFb0100648
URL: http://www2.informatik.uni-erlangen.de/publication/download/dataminps.pdf
BibTeX: Download
, , , , :
Complex numbers for Java
3rd International Symposium on Computing in Object-Oriented Parallel Environments (ISCOPE'99) (San Francisco/USA, 07.12.1999 - 10.12.1999)
In: Matsuoka, Satoshi ; Oldehoeft, Rodney R. ; Tholburn, Marydell (Hrsg.): Computing in Object-Oriented Parallel Environments, Berlin Heidelberg: 1999
DOI: 10.1007/10704054_1
URL: https://www2.cs.fau.de/publication/download/complexe.pdf
BibTeX: Download
, :
Komplexe Zahlen für Java
Java-Informationstage JIT'99 (Düsseldorf, 20.09.1999 - 21.09.1999)
In: Cap, C. H. (Hrsg.): Java-Informations-Tage JIT'99, Berlin Heidelberg: 1999
DOI: 10.1007/978-3-642-60247-4_24
URL: http://www2.informatik.uni-erlangen.de/publication/download/complexd.pdf
BibTeX: Download
, :
More efficient object serialization
6th Int. Workshop on Solving Irregularly Structured Problems in Parallel (San Jose, Puerto Rico/USA, 12.04.1999 - 16.04.1999)
In: Rolim, José (Hrsg.): Parallel and Distributed Processing, Berlin Heidelberg: 1999
DOI: 10.1007/BFb0097962
URL: https://www2.cs.fau.de/publication/download/serialrmi.pdf
BibTeX: Download
, :
A more efficient RMI
ACM 1999 conference on Java Grande (San Francisco, CA, 12.06.1999 - 14.06.1999)
In: Fox, Geoffrey; Schauser, Klaus; Snir, Marc (Hrsg.): Proceedings of the ACM 1999 conference on Java Grande, New York: 1999
DOI: 10.1145/304065.304117
URL: https://www2.cs.fau.de/publication/download/serialrmi.pdf
BibTeX: Download
, , :
JavaParty: Erfahrungen mit verteiltem und parallelem Programmieren in Java
OOP'99 (München)
In: Paulisch, Frances (Hrsg.): Objekt-Orientiertes Programmieren, -: 1999
URL: http://www2.informatik.uni-erlangen.de/publication/download/oop99.pdf
BibTeX: Download
:
Effizientes RMI für Java
Java-Informations-Tage JIT'99 (Düsseldorf, 20.09.1999 - 21.09.1999)
In: Cap, C. H. (Hrsg.): Java-Informations-Tage JIT'99, Berlin Heidelberg: 1999
DOI: 10.1007/978-3-642-60247-4_13
URL: http://www2.informatik.uni-erlangen.de/publication/download/rmi-german.pdf
BibTeX: Download
, , :
Java Entwicklungsumgebungen im Vergleich
(1999)
URL: http://www2.informatik.uni-erlangen.de/publication/download/idevergl.pdf
BibTeX: Download
(Techreport)
, , :
Iterim Java Grande Forum Report
JGF-TR-4 (1999)
URL: http://www2.informatik.uni-erlangen.de/publication/download/jgf-tr-4-beta.pdf
BibTeX: Download
(Techreport)
, , , , , , , , , , :
1998
RESH - Rechnernetze als Supercomputer und Hochleistungsdatenbanken: Zwischenbericht
(1998)
URL: http://www2.informatik.uni-erlangen.de/publication/download/1998-23.pdf
BibTeX: Download
(Techreport)
, , , , , :
CeBIT'98 brachte wertvolle Kontakte zur Industrie
In: UNIKATH-Neues vom Campus der Universität Karslruhe, 1998, S. 24-25
BibTeX: Download
(Techreport)
, :
Seminarbeiträge Cache-Optimierung
(1998)
URL: http://www2.informatik.uni-erlangen.de/publication/download/1998-05.pdf
BibTeX: Download
(Techreport)
, , :
Large-scale parallel geophysical algorithms in Java: A feasibility study
In: Concurrency and Computation-Practice & Experience 10 (1998), S. 1143-1154
ISSN: 1532-0626
DOI: 10.1002/(SICI)1096-9128(199809/11)10:11/133.0.CO;2-W
URL: http://www2.informatik.uni-erlangen.de/publication/download/veltran.pdf
BibTeX: Download
, , :
Large-scale parallel geophysical algorithms in Java: A feasibility study
In: Leading Edge (Tulsa, OK) 17 (1998), S. 1662-1666
ISSN: 1070-485X
URL: https://www2.cs.fau.de/publication/download/tle.pdf
BibTeX: Download
, , :
Large-scale parallel geophysical algorithms in Java: A feasibility study
ACM Workshop on Java for High-Performance Network Computing (Palo Alto, CA, 28.02.1998 - 01.03.1998)
In: Fox, Geoffrey C. (Hrsg.): Proc. of the ACM Workshop on Java for High-Performance Network Computing, New York: 1998
URL: http://www2.informatik.uni-erlangen.de/publication/download/veltran.pdf
BibTeX: Download
, , :
Large-scale parallel geophysical algorithms in Java: A feasibility study
1998 (1998), S. 32
BibTeX: Download
(Techreport)
, , :
Parallelizing large-scale geophysical algorithms in Java
Fourth International Conference on Mathematical and Numerical Aspects of Wave Propagation (Waves'98) (Golden, Colorado/USA, 01.06.1998 - 05.06.1998)
In: De Santro, John A. ; Cohen, Gary (Hrsg.): Fourth International Conference on Mathematical and Numerical Aspects of Wave Propagation (Waves'98), Philadelphia PA: 1998
URL: http://www2.informatik.uni-erlangen.de/publication/download/siamWP98.pdf
BibTeX: Download
, , :
Data parallelism in Java
Proc. 12th Int. Symposium on High Performance Computing Systems and Applications (HPCS'98) (Edmonton, Canada, 20.05.1998 - 22.05.1998)
In: Schaefer, J. (Hrsg.): High Performance Computing Systems and Applications, New York: 1998
DOI: 10.1007/978-1-4615-5611-4_11
URL: https://www2.cs.fau.de/publication/download/forall.pdf
BibTeX: Download
:
Is Java ready for computational science?
2nd European Parallel and Distributed Systems Conference (Euro-PDS'98) (Vienna/Austria, 01.07.1998 - 03.07.1998)
In: Bukhres, O. ; El-Rewini, H. (Hrsg.): 2nd European Parallel and Distributed Systems Conference 1998
URL: http://www2.informatik.uni-erlangen.de/publication/download/javaCS.pdf
BibTeX: Download
:
Locality optimization in JavaParty by means of static type analysis
7th International Workshop on Compilers for Parallel Computers (CPC 1998) (Linköping, 29.06.1998 - 01.07.1998)
In: Fritzson, Peter (Hrsg.): Proceedings of the 7th International Workshop on Compilers for Parallel Computers (CPC 1998) 1998
BibTeX: Download
, :
Locality optimization in JavaParty by means of static type analysis
First UK Workshop on Java for High Performance Network Computing (Southampton/UK, 02.09.1998 - 03.09.1998)
In: Pritchard, David ; Reeve, Jeff (Hrsg.): First UK Workshop on Java for High Performance Network Computin 1998
URL: https://www2.cs.fau.de/publication/download/static.pdf
BibTeX: Download
, :
Fallstudie: Parallele Realisierung geophysikalischer Basisalgorithmen in Java
In: Informatik - Forschung und Entwicklung 13 (1998), S. 72-78
ISSN: 0178-3564
DOI: 10.1007/s004500050099
URL: http://www2.informatik.uni-erlangen.de/publication/download/fallstudie.pdf
BibTeX: Download
, , :
JavaParty - portables paralles und verteiltes Programmieren in Java
Java-Informations-Tage (JIT'98) (Frankfurt/Main, 12.11.1998 - 13.11.1998)
In: Cap, C. H. (Hrsg.): Java-Informations-Tage, Berlin Heidelberg: 1998
DOI: 10.1007/978-3-642-59984-2_3
URL: http://www2.informatik.uni-erlangen.de/publication/download/partyd.pdf
BibTeX: Download
, , :
Java Grande Forum Report : Making Java work for high-end computing
JGF-TR-1 (1998)
URL: http://www2.informatik.uni-erlangen.de/publication/download/sc98grande.pdf
BibTeX: Download
(Techreport)
, , , , , , , , , , :
Forschungsprojekte des Lehrstuhls für Programmiersysteme der Universität Karlsruhe (TH)
In: Informatik - Forschung und Entwicklung 13 (1998), S. 93-96
ISSN: 0178-3564
DOI: 10.1007/s004500050101
URL: http://www2.informatik.uni-erlangen.de/publication/download/jahr1997.pdf
BibTeX: Download
, , , :
1997
Fair multi-branch locking of several locks
IASTED Intl. Conf. on Parallel and Distributed Computing and Systems (PDCS) (Washington D.C./USA, 13.10.1997 - 16.10.1997)
In: Li, K. ; Olariu, S. ; Pan, Y. ; Stojmenovic, I. (Hrsg.): Proceedings of the 1997 IASTED Intl. Conf. on Parallel and Distributed Computing and Systems (PDCS) 1997
URL: https://www2.cs.fau.de/publication/download/locks.pdf
BibTeX: Download
, :- Philippsen Michael, Zenger M.:
JavaParty: Transparent remote objects in Java
Symposium on Principles and Practice of Parallel Programming, Workshop on Java for Science and Engineering Computation (Las Vegas, NV, 21.06.1997 - 21.06.1997)
In: Symposium on Principles and Practice of Parallel Programming, Workshop on Java for Science and Engineering Computation 1997
URL: http://www2.informatik.uni-erlangen.de/publication/download/party.pdf
BibTeX: Download
JavaParty: Transparent remote objects in Java
In: Concurrency Practice and Experience 9 (1997), S. 1225-1242
ISSN: 1040-3108
DOI: 10.1002/(SICI)1096-9128(199711)9:113.0.CO;2-F
URL: http://www2.informatik.uni-erlangen.de/publication/download/party.pdf
BibTeX: Download
, :
Documenting design patterns in code eases program maintenance
Workshop on Process Modelling and Empirical Studies of Software Evolution at the International Conference on Software Engineering (ICSE) (Boston/USA, 18.05.1997 - 18.05.1997)
In: Harrison, Rachel ; Shepperd, Martin ; Daly, John W. (Hrsg.): ICSE Workshop - Process Modeling and Empirical Studies of Software Evolution 1997
URL: http://pswt.informatik.uni-erlangen.de/publication/download/jakk_pmesse97.pdf
BibTeX: Download
, , :
1996
Java Seminarbeiträge
(1996)
URL: http://www2.informatik.uni-erlangen.de/publication/download/1996-24.pdf
BibTeX: Download
(Techreport)
:
1995
Automatic alignment of array data and processes to reduce comminication time on DMPPs
Fifth ACM SIGPLAN Symposium on Principles and Practice of Parallel Programming (PPoPP'95) (Santa Barbara/CA/USA, 19.07.1995 - 21.07.1995)
In: Wexelblat, Richard L. (Hrsg.): Proceedings of the 5th ACM SIGPLAN Symposium on Principles and Practice of Parallel Programming (PPoPP'95), New York: 1995
DOI: 10.1145/209936.209953
URL: http://www2.informatik.uni-erlangen.de/publication/download/Alignment-2.pdf
BibTeX: Download
:
Enabling compiler transformations for pSather
(1995)
URL: https://www2.informatik.uni-erlangen.de/publication/download/EnablingTrafos.pdf
BibTeX: Download
(Techreport)
:
Imperative concurrent object-oriented languages: An annotated bibliography
(1995)
URL: http://www2.informatik.uni-erlangen.de/publication/download/COOL-bib.pdf
BibTeX: Download
(Techreport)
:
Imperative concurrent object-oriented languages
(1995)
URL: https://www2.informatik.uni-erlangen.de/publication/download/cool-survey.pdf
BibTeX: Download
(Techreport)
:
Automatic synchronization elimination in synchronous FORALLs
The Fifth Symposium on the Frontiers of Massively Parallel Computation (Frontiers'95) (Mc Lean, VA/USA, 06.02.1995 - 09.02.1995)
In: Frontiers '95 : The Fifth Symposium on the Frontiers of Massively Parallel Computation, Los Alamitos, CA: 1995
DOI: 10.1109/FMPC.1995.380435
URL: https://www2.cs.fau.de/publication/download/front95.pdf
BibTeX: Download
, :
1994
Automatic alignment of array data and processes to reduce communication time on DMPPs
(1994)
URL: http://www2.informatik.uni-erlangen.de/publication/download/Alignment-2.pdf
BibTeX: Download
(Techreport)
:
Optimierungstechniken zur Übersetzung paralleler Programmiersprachen (Dissertation, 1994)
BibTeX: Download
:
Sather 1.0 tutorial
(1994)
URL: http://www2.informatik.uni-erlangen.de/publication/download/SatherTutorial.pdf
BibTeX: Download
(Techreport)
:
Data and process alignment in Modula-2*
Intl. Workshop on Automatic Parallelization (AP'93) (Saarbrücken, Germany, 01.03.1993 - 03.03.1993)
In: Kessler, C.W. (Hrsg.): Automatic Parallelization - New Approaches to Code Generation, Data Distribution, and Performance Prediction, Wiesbaden: 1994
DOI: 10.1007/978-3-322-87865-6_10
URL: http://www2.informatik.uni-erlangen.de/publication/download/Alignment-1.pdf
BibTeX: Download
, :
Project Triton: Towards improved programmability of parallel computers
In: David J. Lilja ; Peter L. Bird (Hrsg.): The Interaction of Compilation Technology and Computer Architecture, Boston, Dordrecht, London: Kluwer Academic Publishers, 1994, S. 249-281
ISBN: 978-1-4613-6154-1
DOI: 10.1007/978-1-4615-2684-1_10
URL: http://www2.informatik.uni-erlangen.de/publication/download/Triton.pdf
BibTeX: Download
, , , , , :
Zur programmiertechnischen Beherrschung von massivem Parallelismus
Softwareentwicklung für Supercomputer (Karlsruhe, Germany, 03.03.1994 - 04.03.1994)
In: Schreiner, A. ; Schnepf, E. (Hrsg.): Drittes ODIN Symposium, Rechenzentrum Universität Karlsruhe 1994
BibTeX: Download
, , , , , , :
1993
Synchronization barrier elimination in synchronous FORALLs
(1993)
URL: https://www2.cs.fau.de/publication/download/front95.pdf
BibTeX: Download
(Techreport)
, :
Triton/1: A massively-parallel mixed-mode computer designed to support high level languages
2nd Workshop on Heterogeneous Processing (WHP 93) (Newport Beach/CA/USA, 13.04.1993 - 16.04.1993)
In: Proceedings of the 2nd Workshop on Heterogeneous Processing (WHP 93), New York: 1993
DOI: 10.1109/WHP.1993.664368
URL: http://www2.informatik.uni-erlangen.de/publication/download/triton-hp.pdf
BibTeX: Download
, , , :
The Modula-2* environment for parallel programming
Conference on Massively Parallel Programming Models (MPPM'93) (Berlin, Germany, 20.09.1993 - 23.09.1993)
In: Giloi, Wolfgang K. (Hrsg.): Programming Models for Massively Parallel Computers, Los Alamitos: 1993
DOI: 10.1109/PMMP.1993.315555
URL: http://www2.informatik.uni-erlangen.de/publication/download/mppm93.pdf
BibTeX: Download
, , , , :
The Modula-2* environment for parallel programming
3rd International Workshop on Compilers for Parallel Computers (CPC 1993) (Delft, NL, 13.12.1993 - 16.12.1993)
In: Henk Sips (Hrsg.): Proceedings of the 3rd International Workshop on Compilers for Parallel Computers (CPC 1993) 1993
URL: http://www2.informatik.uni-erlangen.de/publication/download/mppm93.pdf
BibTeX: Download
, , , , :
Compiling machine-independent parallel programs
In: Acm SIGPLAN Notices 28 (1993), S. 99-108
ISSN: 0362-1340
DOI: 10.1145/163114.163127
URL: http://www2.informatik.uni-erlangen.de/publication/download/sigplan93.pdf
BibTeX: Download
, , :
Compiling machine-independent parallel programs
(1993)
URL: https://www2.informatik.uni-erlangen.de/publication/download/sigplan93.pdf
BibTeX: Download
(Techreport)
, , :
Project Triton: Towards improved programmability of parallel machines
26th Hawaii International Conference on System Sciences (HICSS) (Wailea, Maui, Hawaii/USA, 04.01.1993 - 08.01.1993)
In: Proceedings of the 26th Hawaii International Conference on System Sciences (HICSS), New York: 1993
DOI: 10.1109/HICSS.1993.270745
URL: https://www2.cs.fau.de/publication/download/Triton.pdf
BibTeX: Download
, , , :
Programming parallel supercomputers
Joint international conference on mathematical methods and supercomputing in nuclear applications (M and C and SNA '93) (Karlsruhe, 19.04.1993 - 23.04.1993)
In: Küster, H. ; Stein, E. ; Werner, W. (Hrsg.): Proceedings of the International Conference on Mathematical Methods and Supercomputing in Nuclear Applications 1993
URL: http://www2.informatik.uni-erlangen.de/publication/download/nuclear.pdf
BibTeX: Download
, :
1992
Automatic data distribution for nearest neighbor networks
Fourth Symposium on the Frontiers of Massively Parallel Computation (Frontiers '92) (Mc Lean, VA, USA, 19.10.1992 - 21.10.1992)
In: Proceedings of the Fourth Symposium on the Frontiers of Massively Parallel Computation (Frontiers '92) 1992
DOI: 10.1109/FMPC.1992.234890
URL: http://www2.informatik.uni-erlangen.de/publication/download/front92.pdf
BibTeX: Download
:
Compiling for massively parallel machines
International Workshop on Code Generation (Dagstuhl Castle, Germany, 20.05.1991 - 24.05.1991)
In: Giegerich, Robert ; Graham, Susan L. (Hrsg.): Code Generation - Concepts, Tools, Techniques, Berlin Heidelberg: 1992
DOI: 10.1007/978-1-4471-3501-2_6
URL: http://www2.informatik.uni-erlangen.de/publication/download/dagstuhl.pdf
BibTeX: Download
, :
Modula-2* and its compilation
First International ACPC (Austrian Center for Parallel Computation) Conference (Salzburg, Austria, 30.09.1991 - 02.10.1991)
In: Zima, Hans P. (Hrsg.): Parallel Computation: First International ACPC Conference, Berlin Heidelberg: 1992
DOI: 10.1007/3-540-55437-8_79
URL: http://www2.informatik.uni-erlangen.de/publication/download/salzburg.pdf
BibTeX: Download
, :
Project: Triton: Towards improved programmability of parallel machines
(1992)
URL: https://www2.cs.fau.de/publication/download/Triton.pdf
BibTeX: Download
(Techreport)
, , , :
Projekt Triton: Beiträge zur Verbesserung der Programmierbarkeit hochparalleler Rechensysteme
In: Informatik - Forschung und Entwicklung 7 (1992), S. 1-13
ISSN: 0178-3564
URL: http://www2.informatik.uni-erlangen.de/publication/download/d-triton.pdf
BibTeX: Download
, , , :
A critique of the programming language C*
In: Communications of the ACM 35 (1992), S. 21-24
ISSN: 0001-0782
DOI: 10.1145/129888.376122
URL: http://www2.informatik.uni-erlangen.de/publication/download/CstarCritique.pdf
BibTeX: Download
, , :
From Modula-2* to efficient parallel code
(1992)
URL: https://www2.cs.fau.de/publication/download/wien.pdf
BibTeX: Download
(Techreport)
, , , :
From Modula-2* to efficient parallel code
3rd International Workshop on Compilers for Parallel Computers (CPC 1992) (Vienna, Austria, 06.07.1992 - 09.07.1992)
In: Zima, Hans P. (Hrsg.): Proceedings of the 3rd International Workshop on Compilers for Parallel Computers (CPC 1992) 1992
URL: http://www2.informatik.uni-erlangen.de/publication/download/wien.pdf
BibTeX: Download
, , , :
1991
Erfahrungen mit der MasPar MP-1
Conference on Supercomputing and Applications (Bochum)
In: Ehlich, Hartmut ; Schloßer, Karl-Heinz ; Wojcieszynski, Brigitte (Hrsg.): Bochumer Schriften zur Parallelen Datenverarbeitung, Bochum: 1991
URL: http://www.philippsen.com/mypapers/bib/I001.bib
BibTeX: Download
:
Modula-2* and its compilation
(1991)
URL: http://www2.informatik.uni-erlangen.de/publication/download/salzburg.pdf
BibTeX: Download
(Techreport)
, , :
Hochgradiger Parallelismus
(1991)
URL: http://www2.informatik.uni-erlangen.de/publication/download/d-hochparallel.pdf
BibTeX: Download
(Techreport)
, :
Hochgradiger Parallelismus
(1991)
URL: http://www2.informatik.uni-erlangen.de/publication/download/d-hochparallel.pdf
BibTeX: Download
(Techreport)
, :
A critique of the programming language C*
(1991)
URL: http://www2.informatik.uni-erlangen.de/publication/download/CstarCritique.pdf
BibTeX: Download
(Techreport)
, , :
1990
The Triton project
(1990)
BibTeX: Download
(Techreport)
, , :
Ausgewählte Kapitel aus dem Übersetzerbau
Grunddaten
Titel | Ausgewählte Kapitel aus dem Übersetzerbau |
---|---|
Kurztext | inf2-ueb3 |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Es ist keine Anmeldung erforderlich.
Parallelgruppen / Termine
In der Vorlesung werden Aspekte des Übersetzerbaus beleuchtet, die über die Vorlesungen "Grundlagen des Übersetzerbaus" und "Optimierungen in Übersetzern" hinausgehen.
Voraussichtliche Themen sind:
- Übersetzer u. Optimierungen für funktionale Programmiersprachen
- Übersetzung aspektorientierter Programmiersprachen
- Erkennung von Wettlaufsituationen
- Software Watermarking
- Statische Analyse und symbolische Ausführung
- Binden von Objektcode und Unterstützung für dynamische Bibliotheken
- Strategien zur Ausnahmebehandlung
- Just-in-Time-Übersetzer
- Speicherverwaltung und Speicherbereinigung
- LLVM
Die Materialien zur Lehrveranstaltung werden über StudOn bereitgestellt.
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Julian Brandner Tobias Heineken Florian Mayer Daniela Novac |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mi, 08:15 - 09:45 | 16.10.2024 - 05.02.2025 | 25.12.2024 01.01.2025 |
|
Grundlagen des Übersetzerbaus
Grunddaten
Titel | Grundlagen des Übersetzerbaus |
---|---|
Kurztext | inf2-ueb |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Voraussetzung zur Teilnahme an der Modulprüfung ist die erfolgreiche Bearbeitung der Übungsaufgaben.
Parallelgruppen / Termine
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Florian Mayer Prof. Dr. Michael Philippsen Tobias Heineken |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Do, 08:15 - 09:45 | 17.10.2024 - 06.02.2025 | 02.01.2025 26.12.2024 |
|
Parallele und Funktionale Programmierung
Grunddaten
Titel | Parallele und Funktionale Programmierung |
---|---|
Kurztext | PFP |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Parallelgruppen / Termine
Die Materialien zur Lehrveranstaltung werden über StudOn bereitgestellt.
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Dr.-Ing. Norbert Oster |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Di, 12:15 - 13:45 | 15.10.2024 - 04.02.2025 | 24.12.2024 31.12.2024 |
|
Machine Learning: Advances
Grunddaten
Titel | Machine Learning: Advances |
---|---|
Kurztext | SemML-II |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Anmeldung mit Themenanfrage per E-Mail vor Beginn des Seminars; Die Themen werden nach dem Prinzip "Wer zuerst kommt, mahlt zuerst" verteilt.
Parallelgruppen / Termine
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch oder Englisch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Tobias Feigl |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
nach Vereinbarung - | - |
|
|||
Einzeltermin Do, 14:00 - 15:00 | 10.10.2024 - 10.10.2024 | ||||
Blockveranstaltung+Sa Sa, 09:00 - 16:00 | 04.01.2025 - 29.03.2025 | 06.01.2025 |
Machine Learning: Introduction
Grunddaten
Titel | Machine Learning: Introduction |
---|---|
Kurztext | SemML-I |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Anmeldung mit Themenanfrage per E-Mail vor Beginn des Seminars; Die Themen werden nach dem Prinzip "Wer zuerst kommt, mahlt zuerst" verteilt.
Parallelgruppen / Termine
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch oder Englisch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Tobias Feigl |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
nach Vereinbarung - | - |
|
|||
Einzeltermin Do, 14:00 - 15:00 | 10.10.2024 - 10.10.2024 | 11302.04.150 | |||
Blockveranstaltung+Sa Sa, 09:00 - 16:00 | 04.01.2025 - 29.03.2025 | 06.01.2025 |
Begleitseminar zu Bachelor- und Masterarbeiten
Grunddaten
Titel | Begleitseminar zu Bachelor- und Masterarbeiten |
---|---|
Kurztext | inf2-bs-bama |
Turnus des Angebots | in jedem Semester |
Semesterwochenstunden | 3 |
Parallelgruppen / Termine
1. Parallelgruppe
Semesterwochenstunden | 3 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mo, 12:15 - 13:45 | 14.10.2024 - 03.02.2025 | 23.12.2024 06.01.2025 30.12.2024 |
|
11302.04.150 |
Übungen zu Ausgewählte Kapitel aus dem Übersetzerbau
Grunddaten
Titel | Übungen zu Ausgewählte Kapitel aus dem Übersetzerbau |
---|---|
Kurztext | inf2-ueb3-ex |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Blockveranstaltung n.V. nach der Vorlesungszeit.
Parallelgruppen / Termine
Die Übungen zu Übersetzerbau 3 stellen eine Ergänzung zur Vorlesung dar. In der Vorlesung wird unter anderem die Architektur und Funktionsweise einer virtuellen Maschine beleuchtet. In den Übungen soll dies praktisch umgesetzt werden. Hierzu sollen die Studenten in einer Blockveranstaltung eine kleine virtuelle Maschine selbst implementieren. Den Anfang bildet das Einlesen des Byte-Codes und am Ende soll ein funktionsfähiger optimierender Just-in-Time-Übersetzer entstehen.
Die Materialien zur Lehrveranstaltung werden über StudOn bereitgestellt.
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Tobias Heineken Florian Mayer Julian Brandner |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
nach Vereinbarung - | - |
|
Übungen zu Grundlagen des Übersetzerbaus
Grunddaten
Titel | Übungen zu Grundlagen des Übersetzerbaus |
---|---|
Kurztext | inf2-ueb-ex |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Parallelgruppen / Termine
Im Rahmen der Übungen werden die in der Vorlesung vorgestellten Konzepte und Techniken zur Implementierung eines Übersetzers in die Praxis umgesetzt. Ziel der Übungen ist es, bis zum Ende des Semesters einen funktionsfähigen Übersetzer für die Beispiel-Programmiersprache e2 zu implementieren. Die hierfür nötigen zusätzlichen Kenntnisse (z.B. Grundlagen des Assemblers für x86-64) werden in den Tafelübungen vermittelt. Die im Laufe des Semesters zu erreichenden Meilensteine sind im StudOn-Eintrag der Vorlesung aufgelistet. Die Materialien zur Lehrveranstaltung werden über StudOn bereitgestellt.
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Tobias Heineken Prof. Dr. Michael Philippsen Florian Mayer |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mo, 14:15 - 15:45 | 14.10.2024 - 03.02.2025 | 06.01.2025 23.12.2024 30.12.2024 |
Im Rahmen der Übungen werden die in der Vorlesung vorgestellten Konzepte und Techniken zur Implementierung eines Übersetzers in die Praxis umgesetzt. Ziel der Übungen ist es, bis zum Ende des Semesters einen funktionsfähigen Übersetzer für die Beispiel-Programmiersprache e2 zu implementieren. Die hierfür nötigen zusätzlichen Kenntnisse (z.B. Grundlagen des Assemblers für x86-64) werden in den Tafelübungen vermittelt. Die im Laufe des Semesters zu erreichenden Meilensteine sind im StudOn-Eintrag der Vorlesung aufgelistet. Die Materialien zur Lehrveranstaltung werden über StudOn bereitgestellt.
2. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Tobias Heineken Florian Mayer |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Fr, 08:15 - 09:45 | 18.10.2024 - 07.02.2025 | 01.11.2024 27.12.2024 03.01.2025 |
Im Rahmen der Übungen werden die in der Vorlesung vorgestellten Konzepte und Techniken zur Implementierung eines Übersetzers in die Praxis umgesetzt. Ziel der Übungen ist es, bis zum Ende des Semesters einen funktionsfähigen Übersetzer für die Beispiel-Programmiersprache e2 zu implementieren. Die hierfür nötigen zusätzlichen Kenntnisse (z.B. Grundlagen des Assemblers für x86-64) werden in den Tafelübungen vermittelt. Die im Laufe des Semesters zu erreichenden Meilensteine sind im StudOn-Eintrag der Vorlesung aufgelistet. Die Materialien zur Lehrveranstaltung werden über StudOn bereitgestellt.
3. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Tobias Heineken Prof. Dr. Michael Philippsen Florian Mayer |
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Fr, 10:15 - 11:45 | 18.10.2024 - 07.02.2025 | 27.12.2024 03.01.2025 01.11.2024 |
|
Übungen zu Parallele und Funktionale Programmierung
Grunddaten
Titel | Übungen zu Parallele und Funktionale Programmierung |
---|---|
Kurztext | UePFP |
Turnus des Angebots | nur im Wintersemester |
Semesterwochenstunden | 2 |
Parallelgruppen / Termine
10. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 25
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Di, 12:00 - 14:00 | 15.10.2024 - 04.02.2025 | 24.12.2024 31.12.2024 |
14201.00.001 |
4. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 40
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Di, 12:15 - 13:45 | 15.10.2024 - 04.02.2025 | 24.12.2024 31.12.2024 |
11302.02.133 |
11. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 25
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Di, 16:00 - 18:00 | 15.10.2024 - 04.02.2025 | 24.12.2024 31.12.2024 |
14201.00.001 |
14. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 25
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mi, 10:00 - 12:00 | 16.10.2024 - 05.02.2025 | 01.01.2025 25.12.2024 |
11302.00.156 |
9. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Julian Brandner David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 25
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mo, 16:00 - 18:00 | 14.10.2024 - 03.02.2025 | 06.01.2025 30.12.2024 23.12.2024 |
14201.00.001 |
5. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Julian Brandner David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 40
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Fr, 12:15 - 13:45 | 18.10.2024 - 07.02.2025 | 01.11.2024 27.12.2024 20.12.2024 03.01.2025 |
11302.02.133 |
8. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Julian Brandner David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 25
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Do, 14:00 - 16:00 | 17.10.2024 - 06.02.2025 | 26.12.2024 02.01.2025 |
11302.00.153 |
6. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Julian Brandner David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 40
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Do, 16:15 - 17:45 | 17.10.2024 - 06.02.2025 | 26.12.2024 02.01.2025 |
11302.02.133 |
1. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 40
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mi, 12:15 - 13:45 | 16.10.2024 - 05.02.2025 | 01.01.2025 25.12.2024 |
11302.02.133 |
2. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Julian Brandner David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 40
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mi, 08:15 - 09:45 | 16.10.2024 - 05.02.2025 | 25.12.2024 01.01.2025 |
11302.02.133 |
12. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 25
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mi, 14:00 - 16:00 | 16.10.2024 - 05.02.2025 | 01.01.2025 25.12.2024 |
14201.00.001 |
13. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Prof. Dr. Michael Philippsen Julian Brandner David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 25
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Do, 16:00 - 18:00 | 17.10.2024 - 06.02.2025 | 26.12.2024 02.01.2025 |
14201.00.001 |
7. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 40
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Mi, 16:15 - 17:45 | 16.10.2024 - 05.02.2025 | 25.12.2024 01.01.2025 |
11302.02.133 |
15. Parallelgruppe
Semesterwochenstunden | 2 |
---|---|
Lehrsprache | Deutsch |
Verantwortliche/-r |
Julian Brandner Prof. Dr. Michael Philippsen David Schwarzbeck |
Maximale Anzahl Teilnehmer/-innen: 40
Zeitpunkt | Startdatum - Enddatum | Ausfalltermin | Durchführende/-r | Bemerkung | Raum |
---|---|---|---|---|---|
wöchentlich Di, 10:15 - 11:45 | 15.10.2024 - 04.02.2025 | 31.12.2024 24.12.2024 |
- Verfahren und Vorrichtung zum Einfügen von Synchronisationsbefehlen in Programmabschnitte eines Programms (Nachanmeldung: WO2013091908)
Erfinder: , , - Method and Device for protecting critical sections in threats of a programm (Nachanmeldung: WO2013091907)
Erfinder: , , - Verfahren und Vorrichtung zum Einfügen von Synchronisationsbefehlen in Programmabschnitte eines Programms (Prioritätsbegründende Patentanmeldung: DE102011089180)
Erfinder: , , - Method and Device for protecting critical sections in threats of a programm (Prioritätsbegründende Patentanmeldung: DE102011089181)
Erfinder: , , - Konzept zur Kodierung von Daten, die kodierte Positionen definieren, die eine Bewegungsbahn eines Objekts darstellen (Prioritätsbegründende Patentanmeldung: EP2469496 (EP10196851))
Erfinder: ,
- PASA 2020, 14th Workshop on Parallel Systems and Algorithms, at the International Conference on Architecture of Computing Systems (ARCS 2020), Aachen, Germany, May 25-28, 2020, PC-Mitglied
- 5th Workshop on Artifical Intelligence and Empirical Methods for Software Engineering and Parallel Computing Systems (AI-SEPS), co-located with ACM Conf. on Systems, Programming, Languages and Applications: Software for Humanity (SPLASH 2018), Boston, MA, November 04-09, 2018, PC-Mitglied
- PASA 2018, 13th Workshop on Parallel Systems and Algorithms, at the International Conference on Architecture of Computing Systems (ARCS 2018), Braunschweig, Germany, April 9-12, 2018, PC-Mitglied
- 4th Workshop on Software Engineering for Parallel Systems (SEPS), co-located with ACM Conf. on Systems, Programming, Languages and Applications: Software for Humanity (SPLASH 2016), Vancouver, Canada, October 22-27, 2017, PC-Mitglied
- 11th ACM International Conference on Distributed and Event-Based Systems (DEBS 2017), Barcelona, Spain, June 19-23, 2017, PC-Mitglied
- 6th Intl. Workshop on Multicore Software Engineering (IWMSE17) at Euro-Par 2017, 23rd Intl. Europ. Conf. on Parallel and Distributed Computing, Santiago de Compostela, Spain, August 28-29, 2017, PC-Mitglied
- 27. PARS-Workshop 2017, Parallel-Algorithmen, -Rechnerstrukturen und -Systemsoftware, Hagen, Germany, May 4-5, 2017, PC-Mitglied
- 3rd Workshop on Software Engineering for Parallel Systems (SEPS), co-located with ACM Conf. on Systems, Programming, Languages and Applications: Software for Humanity (SPLASH 2016), Amsterdam, The Netherlands, October 30 – November 4, 2016, PC-Mitglied
- 5th Intl. Workshop on Multicore Software Engineering (IWMSE16) at Euro-Par 2016, 22nd Intl. Europ. Conf. on Parallel and Distributed Computing, Grenoble, France, August 22-26, 2016, PC-Mitglied
- PASA 2016, 12th Workshop on Parallel Systems and Algorithms, at the International Conference on Architecture of Computing Systems (ARCS 2016), Nürnberg, Germany, April 4-5, 2016, PC-Mitglied
- Intl. Conf. on Multicore Software Engineering, Performance, and Tools (MUSEPAT 2016), at the 31rd ACM/SIGAPP Symposium On Applied Computing, Pisa, Italy, April 4-8, 2016, PC- und Steering-Committee Mitglied
- 2nd Workshop on Software Engineering for Parallel Systems (SEPS), co-located with ACM Conf. on Systems, Programming, Languages and Applications: Software for Humanity (SPLASH 2015), Pittsburgh, PA, October 25-30, 2015, PC-Mitglied
- 26. PARS-Workshop 2015, Parallel-Algorithmen, -Rechnerstrukturen und -Systemsoftware, Potsdam, Germany, 7.-8. Mai 2015, PC-Mitglied
- Intl. Conf. on Multicore Software Engineering, Performance, and Tools (MUSEPAT 2015), at the 30th ACM/SIGAPP Symposium On Applied Computing, Salamanca, Spain, April 13-17, 2015, PC- und Steering-Committee Mitglied
- 1st Workshop on Software Engineering for Parallel Systems (SEPS), co-located with ACM Conf. on Systems, Programming, Languages and Applications: Software for Humanity (SPLASH 2014), Portland, OR, October 21, 2014, PC-Mitglied
- PASA 2014, 11th Workshop on Parallel Systems and Algorithms, Lübeck, Germany, Feb. 25-28, 2014
- IPDPS’14, 28th IEEE Intl. Parallel + Distributed Processing Symposium, Phoenix, AZ, May 19-23, 2014, PC-Mitglied
- Intl. Conf. on Multicore Software Engineering, Performance, and Tools (MUSEPAT 2013), Saint Petersburg, Russia, Augsut, 21-23, PC- und Steering-Committee-Mitglied
- 25. PARS – Workshop, Erlangen, April 11-12, 2013, Co-Chair
- Workshop on Parallel and Distributed Programming at Euro-Par 2013, Aachen, Germany, August 26-30, 2013, Local PC chair
- IPDPS’13, 27th IEEE Intl. Parallel + Distributed Processing Symposium, Boston, MA, May 20-24, 2013, PC-Mitglied
- ISMM’13, ACM Intl. Symp. on Memory Management, Seattle, WA, June 20-21, 2013, PC-Mitglied
- MC’12, Facing the Multicore-Challenge III, September 19-21, 2012, PC-Mitglied
- MSEPT’12, International Conference on Multicore Software Engineering, Performance, and Tools, at Tools 2012, Prague, Czech Republic, May 31, 2012, Organizer, PC Co-Chair
- PASA 2012, 10th Workshop on Parallel Systems and Algorithms, Munich, Germany, Feb. 28-29, 2012
- PADTAD IX, Workshop on Parallel and Distributed Systems: Testing, Analysis, and Debugging at the Intl. Symp. on Software Testing and Analysis, Toronto, Canada, July 17, 2011
- 24. PARS – Workshop, Zürich, May 26-27, 2011
- 4th Intl. Systems and Storage Conference, SYSTOR 2011, Haifa, Israel, May 30-June 1, 2011
- 3rd Intl. Workshop on Multicore Software Engineering (IWMSE10) at 32st Intl. Conf. on Software Engineering (ICSE), Cape Town, South Africa, May 03, 2010, Organizer, PC Co-Chair
- 4th Intl. Workshop on Multicore Software Engineering (IWMSE11) at 33rd Intl. Conf. on Software Engineering (ICSE), Waikiki, Honolulu, Hawaii, May 21, 2011, Organizer, PC Co-Chair
- 2nd Intl. Workshop on Multicore Software Engineering (IWMSE09) at 31st Intl. Conf. on Software Engineering (ICSE), Vancouver, Canada, May 18, 2009
- IEEE International Parallel and Distributed Processing Symposium, IPDPS 2008, Miami, FL, April 14-18, 2008
- 3rd Intl. ACM SIGPLAN/SIGOPS Conf. on Virtual Execution Environments, VEE 2007, San Diego, CA, June 13-15, 2007
- 2006 Intl. Symp. on Parallel and Distributed Processing and Applications, ISPA 2006, Sorrento, Italy, Dec. 1-4, 2006
- 2006 High Performance Computing and Simulation Conference,
Bonn, May 28-30, 2006 - 5th IEEE International Symposium on Signal Processing and Information Technology (ISSPIT’05), Athens, Greece, December 18-21, 2005
- International Conference on Parallel and Distributed Computing and Networks, PDCN 2005, Innsbruck, Austria, February 15-17, 2005
- International Conference on Compiler Construction, CC’05, Edinburgh, Scotland, April 4-5, 2005
- International Conference on High Performance Computing, Hyderabad, India, December 17-20, 2003
- Workshop on High-Performance Object-Oriented and Middleware Systems at Euro-Par 2003, Klagenfurt, Austria, August 26-29, 2003, Local PC Chair
- 5th International Workshop on Java for Parallel and Distributed Computing at IPDPS 2003, Nice, France, April 22-26, 2003
- Workshop on Parallel Programming: Models, Methods, and Programming Languages at Euro-Par 2002, Paderborn, Germany, August 27-30, 2002
- Fourth Workshop on Java for High-Performance Computing in conjunction with ACM International Conference on Supercomputing, ICS ’02, New York, USA, June 22-26, 2002
- 4th International Workshop on Java for Parallel and Distributed Computing at IPDPS 2002, Fort Lauderdale, USA, April 15-19, 2002
- Tenth IEEE International Symposium on High Performance Distributed Computing (HPDC-10), San Francisco, California, August 7-10, 2001
- Workshop on Object Oriented Architectures, Tools and Applications at Euro-Par 2001, Manchester, UK, August 28-31, 2001
- NET.OBJECTDAYS 2001, (Nachfolge JIT, DJEK, STIJA), Erfurt, Germany, September 10-13, 2001
- Workshop: Java in High Performance Computing at HPCN-Europe’01, Amsterdam, June 25-27, 2001
- Third Workshop on Java for High-Performance Computing in conjunction with ACM International Conference on Supercomputing, ICS ’01, Sorrento, Italy, June 16-21, 2001
- ACM 2001 Java Grande Conference, Stanford, California, June 2-4, 2001, PC Chair
- 3rd International Workshop on Java for Parallel and Distributed Computing at IPDPS 2001, San Francisco, California, April 23-27, 2001
- Workshop on Object Oriented Architectures, Tools and Applications at Euro-Par 2000, Munich, Germany, August 29-September 1, 2000, Local PC Chair
- NET.OBJECTDAYS 2000, (Nachfolge JIT, DJEK, STIJA), Erfurt, Germany, October 10-12, 2000
- ACM 2000 Java Grande Conference, San Francisco, California, June 3-4, 2000
- 2nd International Workshop on Java for Parallel and Distributed Computing at IPDPS 2000, Cancun, Mexico, May 1-5, 2000
- Workshop: Java in High Performance Computing at HPCN-Europe’00, Amsterdam, May 8-10, 2000
- Workshop on Java for High Performance Computing at
ICS Supercomputing 2000, Santa Fe, New Mexico, May 7, 2000 - TOOLS USA’99 (Technology of Object-Oriented Languages and Systems), Santa Barbara, California, August 2-6, 1999
- JIT’99 Java-Informations-Tage 1999, Düsseldorf, Germany, September 20-21, 1999
- Tutorial and Workshop on Java for High-Performance Computing at Supercomputing 99, Rhodes, Greece, June 19-20, 1999
- ACM 1999 Java Grande Conference, San Francisco, California, June 12-14, 1999
- Workshop: Java in High Performance Computing at HPCN-Europe’99, RAI Conference Center, Amsterdam, April 12-14, 1999
- International Workshop on Java for Parallel and Distributed Computing at IPDPS 1999 San Juan, Puerto Rico, April 12-16, 1999
- Asia Pacific Web Conference (APWeb98), Beijing, P.R. China, September 27-30, 1998
- TOOLS USA’98 (Technology of Object-Oriented Languages and Systems), Santa Barbara, California, August 3-7, 1998
- ACM 1998 Workshop on Java for High-Performance Network Computing, Palo Alto, California, February 28-March 1, 1998
Aktuelle:
- Vertrauensdozent der GI in Erlangen, seit 04/2004.
- Lehrbelastungskommission, seit 05/2002.
Frühere:
- Mitglied Berufungsausschuss W3 Data- und Software-Engineering (Nachfolge Leis), 12/2022-08/2024.
- Mitglied Berufungskommission W3 Informatik (Systemsoftware), Friedrich-Schiller Universität FSU Jena, 01/2020-06/2022
- Vorsitzender Berufungsausschuss W2 Didaktik der Informatik (Nachfolge Romeike), 11/2018-11/2019.
- Kommissarische Leitung der Professur für Didaktuk der Infrmatik, 10/2018-11/2019.
- Mitglied der Studienkommission Informatik, 11/2018-11/2019.
- Mitglied des Vorstands des Zentrums für Lehrerbildung, 10/2018-11/2019.
- Mitglied Berufungsausschuss W3 Experimentelle Astroteilchenphysik (Nachfolge Anton), 12/2017-05/2019.
- Mitglied Berufungsausschuss W3 Visual Computing (Nachfolge Greiner), 06/2016-12/2017.
- Mitglied der Raum- und Baukommission der Technischen Fakultät, 10/2013-04/2015.
- Stellvertretender Sprecher der Kollegialen Leitung des Department Informatik, 10/2011-09/2013.
- Kommissarische Leitung der Professur für Didaktik der Informatik, 08/2012-09/2013.
- Vorsitzender Berufungsverfahren W2-Professur Didaktik der Informatik (Nachfolge Brinda), 07/2012-02/2013.
- Mitglied der Prüfungsausschusses MA Internationale Wirtschaftsinformatik, 12/2008-11/2019.
- Mitglied der Berufungskommission W1-Professur für Digitalen Sport, 12/2009-02/2011.
- Mitglied der Berufungskommission W3-Professur für IT-Sicherheitsinfrastrukturen, 10/2009-12/2010.
- Schriftführer des Berufungsausschusses W2-Professur Open Source Software, 07/2008-09/2009.
- Externes Mitglied der Berufungskommission W3-Professur für Softwaresysteme an der Universität Passau, 06/2008-10/2008.
- Mitglied des Senats und des Hochschulrats der Friedrich-Alexander-Universität, 10/2007-09/2009.
- Mitglied des Fachbereichsrats der Technischen Fakultät, 10/2004-09/2009.
- Mitglied der Kommission zur Verteilung und Verwendung der Studienbeiträge der Informatik, 11/2006-09/2009 (für den Studiengang Informatik: 11/2006-09/2007, für den Studiengang IuK 10/2007-09/2009, 05/2010-09/2010)
- Mitglied der Berufungskommission W2-Professur für technisch-wissenschaftl. Höchstleistungsrechnen, 05/2006-12/2007.
- IT-Generalist der DFG-Expertenkommission zur Begleitung des Projekts Online-Wahl der Fachkollegien 2007, 04/2006-06/2008.
- Mitglied der Berufungskommission W2-Professur für Informatik (Datenbanksysteme, Nachfolge Jablonski), 01/2006-09/2007.
- Kommissarische Leitung des Lehrstuhls Informatik 3, Rechnerarchitektur, 10/2005-02/2009.
- Exportbeauftragter des Instituts für Informatik, 10/2005-11/2007.
- Arbeitsgruppe Bachelor/Master für den Studiengang Informatik, 05/2005-08/2007.
- Arbeitsgruppe Bachelor/Master für den Studiengang Informations- und Kommunikationstechnik, 05/2005-01/2006.
- Geschäftsführender Vorstand des Instituts für Informatik, 10/2004-09/2005.
- Mitglied der Strukturkommission der Technischen Fakultät, 10/2004-09/2005.
- Mitglied des Consilium Techfak, 10/2004-09/2005.
- Vorstand des Interdisziplinären Zentrums für funktionale Genomik, FUGE, 09/2004-06/2009.
- Arbeitsgruppe Bibliotheksmodernisierung, 04/2004-12/2012.
- Mitglied der Berufungskommission W3-Professur für Informatik (Rechnerarchitektur, Nachfolge Dal Cin), 11/2003-02/2009.
- Mitglied der Studienkommission Informations- und Kommunikationstechnik, 10/2003-09/2005.
- Mitglied der Studienkommission Wirtschaftsinformatik, seit 04/2002.
- Mitglied der Studienkommission Informatik, 04/2002-09/2011.
- Senatsberichterstatter Berufungsverfahren C3-Professur Organische Chemie (Nachf. Saalfrank), 08/2004-02/2005.
- Schriftführer Berufungsverfahren C3-Professur Didaktik der Informatik, 04/2004-03/2005.
- Mitglied der Berufungskommission C3-Professur für Informatik (Nachfolge Müller), 11/2003-07/2004.
- Mitglied der Berufungskommission C3-Professur für Numerische Simulation mit Höchstleistungsrechnern, 07/2002-01/2003.
- Mitglied der Berufungskommission C4-Professur für Informatik (Rechnernetze und Kommunikationssysteme), Nachfolge Herzog, 04/2002-02/2003.
- ACM Transactions on Software Engineering and Methodology, TOSEM
- ACM Transactions on Programming Languages and Systems, TOPLAS
- IEEE Transactions on Parallel and Distributed Systems
- Journal of Parallel and Distributed Computing
- Concurrency – Practice and Experience
- Software – Practice and Experience
- Journal of Systems and Software
- Informatik-Spektrum
- Informatik – Forschung und Entwicklung
- GI, Gesellschaft für Informatik, seit 1987
- ACM, Association for Computing Machinery, seit 1990
- IEEE, Institute of Electrical and Electronics Engineers, seit 1993. Seit 2020 Senior Member
2023
Visualisierung der Statik, Dynamik und Infrastruktur von Software mit Hilfe der Stadt‐Metapher (Dissertation, 2023)
URL: https://opus4.kobv.de/opus4-fau/files/23373/DissertationVeronikaDashuberPress.pdf
BibTeX: Download
:
2022
Ein datenparalleler Ansatz zur Beschleunigung von Datenflussanalysen mittels GPU (Dissertation, 2022)
DOI: 10.25593/978-3-96147-494-3
BibTeX: Download
:
2021
Datengetriebene Methoden zur Bestimmung von Position und Orientierung in funk‐ und trägheitsbasierter Koppelnavigation (Dissertation, 2021)
URL: https://nbn-resolving.org/urn:nbn:de:bvb:29-opus4-173550
BibTeX: Download
:
2019
Effiziente Speicherung von Zeitreihen mit Betriebsdaten aus Software-Systemen zur Analyse von Laufzeitanomalien (Dissertation, 2019)
URL: http://www.shaker.de/shop/978-3-8440-6785-9
BibTeX: Download
:
2018
Learning Code Transformations from Repositories (Dissertation, 2018)
DOI: 10.25593/978-3-96147-142-3
BibTeX: Download
:
2017
Modellierung und effiziente Ausführung von Softwareentwicklungsprozessen (Dissertation, 2017)
URL: http://nbn-resolving.de/urn:nbn:de:bvb:29-opus4-82628
BibTeX: Download
:
Eine domänenspezifische Sprache zur Analyse von Software-Verfolgbarkeitsinformationen (Dissertation, 2017)
URL: https://www.shaker.de/de/content/catalogue/index.asp?lang=de&ID=8&ISBN=978-3-8440-5689-1&search=yes
BibTeX: Download
:
2014
Compiler and Runtime Techniques to Identify and Optimize Atomic Blocks in Parallel Programs (Dissertation, 2014)
BibTeX: Download
:
Latency Minimization of Order-Preserving Distributed Event-Based Systems (Dissertation, 2014)
BibTeX: Download
:
2012
Modellbasierte Extraktion, Repräsentation und Analyse von Traceability-Informationen (Dissertation, 2012)
URL: https://www2.cs.fau.de/publication/download/2012_Dissertation_JosefAdersberger.pdf
BibTeX: Download
:
Dynamische probabilistische Bewegungsmodelle mittels Verhaltensmodellierung (Dissertation, 2012)
BibTeX: Download
:
2010
Graphbasierte Prozedurale Abstraktion (Dissertation, 2010)
BibTeX: Download
:
Improved DSM Efficiency, Flexibility, and Correctness (Habilitationsschrift, 2010)
URL: https://opus4.kobv.de/opus4-fau/files/1543/paper.pdf
BibTeX: Download
:
Attribute Grammar Based Genetic Programming (Dissertation, 2010)
BibTeX: Download
:
2009
Reparallelization and Migration of OpenMP Applications in Grid Environments (Dissertation, 2009)
BibTeX: Download
:
Ein agentenbasierter evolutionärer Adaptions- und Optimierungsansatz für verteilte Systeme (Dissertation, 2009)
BibTeX: Download
:
Dynamische Programm-Code-Verwaltung und -Optimierung für eingebettete Systeme (Dissertation, 2009)
URL: http://www.opus.ub.uni-erlangen.de/opus/volltexte/2009/1544/pdf/DominicSchellDissertation.pdf
BibTeX: Download
:
2007
Automatische Generierung optimaler struktureller Testdaten für objekt-orientierte Software mittels multi-objektiver Metaheuristiken (Dissertation, 2007)
URL: https://www.ps.tf.fau.de/files/2020/04/norbertoster_dissertation2007.pdf
BibTeX: Download
:
2006
Optimisation of the Allocation of Functions in Vehicle Networks (Dissertation, 2006)
URL: http://www2.informatik.uni-erlangen.de/publication/download/diss-hardung.pdf
BibTeX: Download
:
Modellbasierte Generierung von Beherrschungsmechanismen für Inkonsistenzen in komponentenbasierten Systemen (Dissertation, 2006)
BibTeX: Download
:
2004
Advanced Compiling Techniques to reduce RAM Usage of Static Operating Systems (Dissertation, 2004)
URL: https://opus4.kobv.de/opus4-fau/frontdoor/index/index/docId/65
BibTeX: Download
:
Syntaxanalyse auf Basis der Dependenzgrammatik (Dissertation, 2004)
BibTeX: Download
:
2003
Ein Modell zur Beschreibung und Lösung von Zeitplanungsproblemen (Dissertation, 2003)
BibTeX: Download
:
Erfolge und Probleme evolutionärer Algorithmen, induktiver logischer Programmierung und ihrer Kombination (Habilitationsschrift, 2003)
BibTeX: Download
:
Ein sprachunabhängiger Ansatz zur Entwicklung deklarativer, robuster LA-Grammatiken mit einer exemplarischen Anwendung auf das Deutsche und das Englische (Dissertation, 2003)
BibTeX: Download
:
2002
Integrierte Hardware- und Softwareplanung flexibler Fertigungssysteme (Dissertation, 2002)
BibTeX: Download
:
Structural Coverage Criteria for Testing Object-Oriented Software (Dissertation, 2002)
BibTeX: Download
:
Eigene:
2001
Leistungsaspekte Paralleller Objektorientierter Programmiersprachen (Habilitationsschrift, 2001)
BibTeX: Download
:
1994
Optimierungstechniken zur Übersetzung paralleler Programmiersprachen (Dissertation, 1994)
BibTeX: Download
:
- Marqc Schanne: Software-Architekturen für lokalitätsabhägige Diensterbringung auf mobilen Endgeräten. [DA]
Betreuer: Philippsen, M.: abgeschlossen 2002 - Sven Buth: Persistenz von verteilten Objekten im Rahmen eines offenen, verteilten eCommerce-Frameworks. [DA]
Betreuer: Philippsen, M.: abgeschlossen 2002 - Jochen Reber: Verteilter Garbage Collector für JavaParty. [SA]
Betreuer: Philippsen, M.: abgeschlossen 2000 - Thorsten Schlachter: Entwicklung eines Java-Applets zur diagrammbasierten Navigation innerhalb des WWW. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1999 - Edwin Günthner: Komplexe Zahlen für Java. [DA]
Betreuer: Philippsen, M.: abgeschlossen 1999 - Christian Nester: Ein flexibles RMI Design für eine effiziente Cluster Computing Implementierung. [DA]
Betreuer: Philippsen, M. abgeschlossen 1999 - Daniel Lukic: ParaStation-Anbindung für Java. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1998 - Jörg Afflerbach: Vergleich von verteilten JavaParty-Servlets mit äquivalenten CGI-Skripts. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1998 - Thomas Dehoust: Abbildung heterogener Datensätze in Java. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1998 - Guido Malpohl: Erkennung von Plagiaten unter einer Vielzahl von ähnlichen Java-Programmen. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1997 - Bernhard Haumacher: Lokalitätsoptimierung durch statische Typanalyse in JavaParty. [DA]
Betreuer: Philippsen, M.: abgeschlossen 1997 - Matthias Kölsch: Dynamische Datenobjekt- und Threadverteilung in JavaParty. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1997 - Christian Nester: Parallelisierung rekursiver Benchmarks für JavaParty mit expliziter Datenobjekt- und Threadverteilung. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1997 - Matthias Jacob: Parallele Realisierung geophysikalischer Basisalgorithmen in JavaParty. [DA]
Betreuer: Philippsen, M.: abgeschlossen 1997 - Oliver Reiff: Optimierungsmöglichkeiten für Java-Bytecode. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1996 - Marc Schanne: Laufzeitverhalten und Portierungsaspekte der Java-VM und ausgewählter Java-Bibliotheken. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1996 - Edwin Günthner: Portierung der Java VM auf den Multimedia Video Prozessor MVP TMS320C80. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1996 - Matthias Zenger: Transparente Objektverteilung in Java. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1996 - Matthias Winkel: Erweiterung von Java um ein FORALL. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1996 - Roland Kasper: Modula-2*-Benchmarks in einem Netz von Arbeitsplatzrechnern. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1993 - Markus Mock: Alignment in Modula-2*. [DA]
Betreuer: Philippsen, M.: abgeschlossen 1992 - Stefan Hänßgen: Ein symbolishcer X Windows Debugger für Modula-2*. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1992 - Paul Lukowicz: Code-Erzeugung für Modula-2* für verschiedene Maschinenarchitekturen. [DA]
Betreuer: Philippsen, M.: abgeschlossen 1992 - Hendrik Mager: Die semantische Analyse von Modula-2*. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1992 - Ernst Heinz: Automatische Elimination von Synchronisationsbarriere in synchronen FORALLs. [DA]
Betreuer: Philippsen, M.: abgeschlossen 1991 - Stephan Teiwes: Die schnellste Art zu multiplizieren? – Der Algorithmus von Schönhage und Strassen auf der Connection Machine. [SA]
Betreuer: Philippsen, M.: abgeschlossen 1991 - Ralf Kretzschmar: Ein Modula-2*-Übersetzer für die Connection Machine. [DA]
Betreuer: Philippsen, M.: abgeschlossen 1991
04/02 – heute | Universitätsprofessor (W3), Inhaber des Lehrstuhls für Programmiersysteme (Informatik 2) der Friedrich-Alexander Universität Erlangen-Nürnberg |
---|---|
06/10 | abgelehnter Ruf auf die Universitätsprofessor (W3) für Parallele und Verteilte Architekturen der Johannes-Gutenberg-Universität Mainz |
01/98 – 03/02 | Abteilungsleiter Bereich Softwaretechnik/Authorized Java Center am FZI Forschungszentrum Informatik, Karlsruhe |
09/95 – 09/01 | Hochschulassistent (C1) am IPD, Institut für Programmstrukturen und Datenorganisation, Lehrstuhl Prof. Tichy, am KIT, Karlsruher Institut für Technologie |
09/94 – 08/95 | Post-Doc am ICSI (International Computer Science Institute) an der Universität von Berkeley, Kalifornien |
02/90 – 08/94 | Wissenschaftlicher Mitarbeiter (BAT IIa) am IPD, Institut für Programmstrukturen und Datenorganisation, Lehrstuhl Prof. Tichy, am KIT, Karlsruher Institut für Technologie |
Ausbildung
07/01 | Habilitation in Informatik an KIT, Karlsruher Institut für Technologie, Thema: Leistungsaspekte Paralleler Objektorientierter Programmiersprachen. | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
11/93 | Promotion in Informatik: Dr. rer. nat. (mit Auszeichnung), am KIT, Karlsruher Institut für Technologie, Thema: Optimierungstechniken zur Übersetzung paralleler Programmiersprachen; Gutachter: Prof. Dr. Walter F. Tichy und Prof. Dr. G. Goos | ||||||||||||
WS 85/86 – 89/90 | Diplomstudium der Informatik, Nebenfach Wirtschaftsingenieurwesen, am KIT, Karlsruher Institut für Technologie
|
||||||||||||
05/85 | Allgemeine Hochschulreife (1.6, Jahrgangsdritter) | ||||||||||||
08/76 – 05/85 | Theodor-Heuss-Gymnasium, Essen-Kettwig | ||||||||||||
08/72 – 06/76 | Schmachtenbergschule, Kettwig |
Preise, Auszeichnungen, Nominierungen
2023 |
|
2021 |
|
---|---|
2019 |
|
2015 |
|
2014 | von der Technischen Fakultät der Friedrich-Alexander Universität Erlangen-Nürnberg und ihrer Fachschaft Informatik nominiert für den Ars legendi-Preis für exzellente Hochschullehre des Stifterverbands und der Hochschulrektorenkonferenz |
2008 |
|
2008 |
|
Auslandserfahrung
05/15 – 16/15 | ICSI (International Computer Science Institute) an der Universität von Berkeley, Kalifornien |
---|---|
12/10 – 03/11 | Microsoft Research, Research in Software Engineering (RiSE) Group, Redmond, WA |
09/94 – 08/95 | ICSI (International Computer Science Institute) an der Universität von Berkeley, Kalifornien |
02/96 – 04/96 | weiterer Forschungsaufenthalt am ICSI in Berkeley, Kalifornien |
02/92 – 03/92 | Forschungsaufenthalt bei INRIA (Institut National de Recherche en Informatique et en Automatique), Sophia Antipolis, Frankreich |
02/91 – 03/91 | weiterer Forschungsaufenthalt bei INRIA in Sophia Antipolis, Frankreich |
02/90 – heute | Unzählige Auslandsreisen zu internationalen wissenschaftlichen Konferenzen mit eigenen Vorträgen |
Consulting
04/91 – heute | Selbständige Organisations- und Unternehmensberatung sowie Gutachten für diverse Auftraggeber aus Industrie und Handel |
---|---|
10/99 – 01/13 | Konzeption, Erstellung und Weiterentwicklung eines Anwendungsspezifischen Content-Management-Systems für die ISO Arzneimittel GmbH & Co. KG |
12/95 – 12/97 | Konzeption und Realisierung einer Java-Erweiterung für skalierbare Internet-Umgebungen, auch für elektronischen Handel. Im Auftrag von Electric Communities, Kalifornien |
01/96 – 05/96 | Konzeption einer Anwendung im Bereich des elektronischen Handels für die Mercedes-Benz Lease & Finanz GmbH (jetzt Mercedes-Benz-Bank AG) |
07/85 – 03/91 | Werkstudent der Stinnes Organisationsberatung GmbH, vielfältige Aufgaben in diversen Konzernbereichen der Stinnes AG (jetzt DB Schenker AG) und der Veba AG (jetzt E.ON AG) |
01/84 – 12/86 | Freier Mitarbeiter der Hauptverwaltung der Horten AG (jetzt Galeria Karstadt Kaufhof GmbH) in den Bereichen Systemanalyse und Software-Erstellung |
07/84 – 08/84 | Werkstudent der Brenntag Mineralöl GmbH, Analyse und Blackboxtest eines fremdbezogenen Warenwirtschaftssystems |