Praktikum „Parallele Programmierung“
Beschreibung
Um Mehrkernprozessoren und Multiprozessoren effizient zu nutzen, genügt es nicht, ein serielles Programm zu schreiben. Vierkernsysteme sind auch schon bei Arbeitsplatzrechnern weit verbreitet. Standards wie MPI und OpenMP, erlauben es, in den Programmiersprachen C(++) und Fortran Code zu schreiben, welcher auch auf Hochleistungsrechnern lauffähig ist.
Im Praktikum werden wir das parallele Programmieren mit MPI und OpenMP erlernen und auch eigenständige Anwendungen (z.B. Spielelöser) in Gruppen entwickeln. Im Vergleich zu der Vorlesung Hochleistungsrechnen werden wird der Fokus auf der Praxis liegen.
Beachten Sie auch unsere allgemeinen organisatorischen Hinweise zu Praktika.
Lernziel
Ziel des Praktikums ist es, aktuelle Parallelisierungskonzepte kennen zu lernen und Problemstellungen im Team zu bearbeiten. Die Studierenden gewinnen eine Übersicht über hilfreiche Werkzeuge zur Entwicklung und Bewertung von Anwendungen.
Zielgruppe
Das Projekt eignet sich für Studierende der Informatik in den Diplom- und Bachelorstudiengängen. Studierende anderer Studiengänge müssen die Anrechnung mit dem jeweiligen Prüfungsausschuss klären.
Interessierte Zuhörer sind auch herzlich willkommen.
Daten der Veranstaltung
Dozenten
- Thomas Ludwig
- Petra Nerge
- Nathanael Hübbe
Vorgehen
Zunächst werden die Grundlagen theoretisch vermittelt und mit kleinen Beispielen geübt. Im zweiten Teil werden in kleinen Gruppen jeweils unterschiedliche Problemstellungen bearbeitet. Hierbei wird ein (kleiner) Projektplan erstellt und im Team eine Anwendung zur Problemlösung implementiert. Status und aufgetretene Probleme werden regelmäßig gemeinsam besprochen.
Beispiel Problemstellungen
- Optimale Spielzüge ermitteln (Suchbaumverfahren) für Spiele.
- (Einfache) Räuber-Beute-Beziehung eines abgeschlossenen Systems mit Tierwanderung.
- Autos im Straßenverkehr eines Stadtnetzes und entstehende Staus.
Für weitere Vorschläge sind wir offen. Wichtig ist vor allem die korrekte Parallelisierung (evtl. mit Alternativen) und Auswertung. Detaillierte Kenntnisse der Numerik sind nicht erforderlich.
Konkret vorgeschlagene Themen:
- Astrophysikalische Berechnungen
- Mastermind
- Skat, Go oder Robotersimulation
- Längste Wege Problem
- Lösen großer logischer Formeln
- Gezeitenmodell
- Ein Algorithmus aus der Bioinformatik
Zeitplan und Materialien
- Theoretische Grundlagen (in der Vorlesungszeit)
- 12.04.2012 - Architekturen, Programmierkonzepte von OpenMP und MPI, Versionsverwaltung, Anwendungsklassen, Gebietszerlegung und Aufgabenteilung.
- Übung: erste Schritte mit OpenMP und MPI auf unserem Cluster, anlegen eines Repositories und Testbeispiele verwalten.
- 19.04.2012 - Parallelisierung von Anwendungen, Einführung in Debugging, Speichermanagment von C/Fortran, MPI, Individuelle und kollektive Operationen im Detail, nicht-blockierende Aufrufe
- Übung: einfache Probleme selbständig parallelisieren. Werkzeuge: DDT+Valgrind. Übungsblatt 1 Matrizen
- 26.04.2012 - Leistungsbewertung von Anwendungen, PGAS, MPI-I/O - Folien
- Einfaches Modell für Leistungsengpässe; CPU: Betrachtungen zu FLOPS, Instructions per Second, Cache-Hit/Miss Ratio, …
- Übung: Amdahls Gesetz, Speedup-Diagramme bewerten, PGAS, MPI-I/O. Übungsblatt 2 Julia Mengen SourceCodeAntriebsdaten + SoureCode
- 03.05.2012 - OpenMP, Programmanalyse Werkzeuge OpenMP Tutorials sind hier verlinkt
- Übung: Verschiedene Code-Fragmente parallelisieren und die Leistung bewerten. Übungsblatt 3
- 10.05.2012 – SIMD-Programmierung Folien
- 24.05.2012 – Leistungsanalyse
- Übung: Verschiedene Code-Fragmente parallelisieren und die Leistung bewerten. Sunshot bzw. Jumpshot zur Analyse verwenden. Programm mit Hardware-Countern laufen lassen und bewerten.
- Projektbearbeitung (je nach Absprache auch in der vorlesungsfreien Zeit)
- 14.06.2012 – Projektvorstellung und Präsentation der algorithmischen Lösung und Projektplan
- 28.06.2012 – Statustreffen – Vorstellung der bisherigen Arbeiten und aufgetretene Probleme
- Statustreffen – Vorstellung der bisherigen Arbeiten und aufgetretene Probleme, erste Leistungsergebnisse
- Präsentation der Ergebnisse
Ergebnisse
- Ameisensimuation – Christian Peter, Dominik Rupp – Präsentation – Ausarbeitung – Source Code – Video
Mastermind
Authors: Fabian Fiedler, Nicole Tänzer
This program calculates for each of the 1296 possible Mastermind colour codes how many steps the algorithm spends for guessing the right code. The algorithm was described by Donald Knuth in his Work “The Computer as Master Mind”. You can use the program to identify the codes, that are easy to guess and the codes, wich are difficult.
Fish & Shark
Authors: Sebastian Rothe, Alexander Lambertz
This simulation is a modification of a Wator Theory. It simulates fishs, sharks and plankton. Fishs die and respawn after a certain period of time. Sharks eat fishs and duplicate themselves. Plankton is just growing all the time. This simulation was parallized by using the MPI Framework.
Literaturhinweise
Links
- Interne Verarbeitung von OpenMP und Auto-Parallisierung im GCC (von 2006) - OpenMP and automatic parallelization in GCC
- GCC Features um parallel zu programmieren, auch eine schöne kurze Übersicht über die parallele Programmierung Parallel programming with GCC
- GCC Optimierungsflags GCC Handbuch HTML
- Details zu Intel Architektur http://www.intel.com/products/processor/manuals/
- Speicherbandbreite / Ausnutzung abschätzen mit Performance Countern http://software.intel.com/en-us/articles/detecting-memory-bandwidth-saturation-in-threaded-applications/
Bücher
- Using MPI, 2nd Edition, by William Gropp, Ewing Lusk, and Anthony Skjellum, published by MIT Press ISBN 0-262-57132-3.
- MPI: The Complete Reference, by Marc Snir, Steve Otto, Steven Huss-Lederman, David Walker, and Jack Dongarra, The MIT Press.
- MPI: The Complete Reference - 2nd Edition: Volume 2 - The MPI-2 Extensions, by William Gropp, Steven Huss-Lederman, Andrew Lumsdaine, Ewing Lusk, Bill Nitzberg, William Saphir, and Marc Snir, The MIT Press.
- Parallel Programming With MPI, by Peter S. Pacheco, published by Morgan Kaufmann.