Augsburg – das heimliche Zentrum der Multi-Core-Forschung

Initiativen und Förderungen, die das meist an Universitäten beheimatete Know-how der Parallelisierung für Firmen nutzbar machen, sind demnach dringend nötig. In der “Augsburg Multicore Task Force” wird das Forschungs-Know-how gebündelt und interessierten Firmen zur Verfügung gestellt. Auch die Lehre soll davon profitieren, damit die Studierenden der Informatik für die zukünftigen Problemstellungen in der Industrie gerüstet sind.

Die Augsburger Informatiker stellen sich den wichtigen Forschungsfragestellungen in den drei Bereichen der Multicore-Prozessor-Entwicklung: der Programmierwerkzeuge und der geeigneten Parallelisierung der Anwendungen.

Am Lehrstuhl für Systemnahe Informatik mit Schwerpunkt Kommunikationssysteme und Internet-Anwendungen von Theo Ungerer arbeiten Forschergruppen an Hardware und System-Software für das neue Gebiet der eingebetteten Multicore-Prozessoren – also der Anwendung der Multicore-Technologie in Autos, Flugzeugen und Maschinen -, um durch die erhöhte Leistungsfähigkeit der Prozessoren beispielsweise eine höhere Fahrsicherheit, einen geringeren Spritverbrauch und einen geringeren Schadstoffausstoß durch Autos und Flugzeuge zu erreichen. Ungerer koordiniert das EU-Forschungsprojekt MERASA (Multicore Execution of Hard Real-Time Applications Supporting Analysability), an dem neben der Universität Augsburg auch Forschergruppen der Universität Toulouse, des Barcelona Supercomputing Center sowie die Firmen Honeywell aus Brno in Tschechien, außerdem Infineon aus München und NXP aus den Niederlanden, Airbus in Frankreich und die European Space Agency beteiligt sind.

Auch Arbeitsgruppen von Rudi Knorr am Lehrstuhl für Kommunikationstechnik mit Schwerpunkt Systeme und Netze im Zugangsbereich und der von ihm geleiteten Fraunhofer-Einrichtung für Systeme der Kommunikationstechnik ESK arbeiten in enger Kooperation mit der Industrie an echtzeitfähigen eingebetteten Systemen für Kommunikationsanwendungen. In einem umfassenden Systemkonzept führen die Wissenschaftler eine neuartige Virtualisierungsschicht zwischen Hardware und Betriebssystem ein. Diese abstrahiert alle verfügbaren Ressourcen – von Cores bis zu den Netzschnittstellen, und erlaubt damit mehreren Betriebssystemen parallel auf die Hardware zuzugreifen. Mit diesem Hypervisor, der die Ressourcen verwaltet, können mehrere Betriebssysteme und Anwendungen die vorhandenen Ressourcen dynamisch nutzen. Das Zusammenspiel der Komponenten Betriebssystem und Hypervisor erlaubt eine dynamische und optimierte Nutzung der vorhandenen Ressourcen. Die Zuordnung der Rechenoperationen auf die Cores geschieht automatisch, wobei Echtzeitbedingungen eingehalten werden, die im Entwurfsprozess beschrieben und während der Laufzeit dynamisch überwacht werden.

Eine Forschergruppe von Rainer Lienhart am Lehrstuhl für Multimedia Computing arbeitet an der Parallelisierung von Algorithmen des Maschinenlernens für einen Rechner mit zwei Quadcore-Prozessoren und bringt damit wichtiges Know-how für die Parallelisierung von Anwendungsprogrammen mit ein.

Die Arbeitsgruppe von Bernhard Bauer für Programmierung verteilter Systeme beschäftigt sich mit modellgetriebener Softwareentwicklung für Multicore-Plattformen. Ziel ist es, die Softwarerealisierung soweit wie möglich zu automatisieren, um Kosten zu reduzieren, sowie die Wartbarkeit und die Evolution von Softwaresystemen zu verbessern. Dazu werden Beschreibungsmechanismen erarbeitet, um bereits auf Modellebene mögliche Parallelisierungen zu beschreiben bzw. durch geeignete Modellanalysen eine automatische Parallelisierung zu erreichen. Darüber hinaus werden Methoden, Patterns, Best Practices und Tools entwickelt, die die Softwareingenieure beim Entwurf von großen Anwendungsprogrammen für Multicore-Prozessoren unterstützen.

Schließlich stellt Walter Vogler sein Know-how aus der Theoretischen Informatik – Modellierung paralleler Aktivitäten mittels Prozessalgebra und Petrinetzen – für die Multicore-Forschergruppe zur Verfügung.

Page: 1 2

Silicon-Redaktion

Recent Posts

Axel Springer und Microsoft vertiefen Partnerschaft

Mit gemeinsamen Angeboten in den Bereichen Vermarktung, KI, Content und Cloud will man "unabhängigen Journalismus…

5 Tagen ago

Keine Angst vor Phishing

Bereits seit einigen Jahren führt die RGF Staffing Germany Schulungen durch, um die eigenen Mitarbeiter…

5 Tagen ago

Blick ins Innenleben industrieller KI

Das Europäische Forschungsprojekt XMANAI hat den Blick in die KI geöffnet und macht ihre Entscheidungsprozesse…

5 Tagen ago

Wie Hacker Large Language Models für ihre Zwecke nutzen

Hacker nutzen LLM weniger als visionäre Alleskönner-Technologien, sondern als effiziente Werkzeuge zum Verbessern von Standardangriffen,…

5 Tagen ago

Software AG entwickelt KI-gestütztes Process-Mining-Tool

Der "ARIS AI Companion" soll alle Mitarbeitenden darin befähigen, Prozesse zu analysieren und Ineffizienzen aufzudecken.

5 Tagen ago

EM 2024: Fußballfest für Cyberangriffe

Kurz vor der Fußball-Europameisterschaft in Deutschland nehmen die Cyberbedrohungen für Sportfans zu, warnt Marco Eggerling…

1 Woche ago