|
|
Optimierte Methoden für das Verteilte Rechnen >>>>>>>>>>>>>>>>>>>>>>>
Laufzeit wird abschätzbar
Ob bei der Simulation von Enzymreaktionen in verschiedenen Substraten oder
von Verbrennungsvorgängen in Brennkammern, bei simulierten Crash-Versuchen
oder dem Geschehen beim Wiedereintritt einer Rakete in die Erdatmosphäre:
Dreh- und Angelpunkt bei der Modellierung und Simulation komplexer Systeme
ist die zur Verfügung stehende Rechnerleistung. Je mehr Variablen zu berücksichtigen
sind und je schneller die zu simulierenden Vorgänge ablaufen, umso mehr
ist davon gefragt. Gelöst wird diese Herausforderung mit den Methoden
des Verteilten Rechnens. Im Rahmen des Projekts „Methods for large-scale
and real-time simulations on distributed heterogeneous resources“ arbeiten
Wissenschaftler am Höchstleistungsrechenzentrum der Uni Stuttgart (HLRS)
daran, dieses zu optimieren.
Um
für die Bewältigung großer Datenmengen auf mehr Rechenleistung
zurückgreifen zu können, ist Arbeitsteilung bei den „elektronischen
Kollegen“ angesagt. So können mehrere Prozessoren zu so genannten
Parallelrechnern zusammengefasst werden, die gleichzeitig ein Programm abarbeiten.
Möglich ist es aber auch, das große, rechenintensive Projekt in
viele kleine Aufgaben zu zerlegen und an viele verschiedene, „gleichzeitig“ arbeitende
Computer zu verteilen – Distributed Computing oder Verteiltes Rechnen
genannt.
Um dieses verteilte Rechnen möglichst optimal zu gestalten,
bedarf es zunächst einmal einer Software, durch die sich die unterschiedlichen
Computer „verstehen“. Dann gilt es, für die Verwaltung
der Aufgaben ein möglichst effizientes Vorgehen zu entwickeln, das
den gesamten Ablauf bis hin zur Zusammenführung der einzelnen Ergebnisse
zum gemeinsamen Endergebnis umfasst. Schließlich muss jederzeit klar
sein, was schon berechnet ist, was gerade bearbeitet wird und was noch
berechnet werden muss. „Die Nutzer brauchen sich um all diese Dinge
keine Gedanken machen“, sagt Dr. Natalia Currle-Linde, wissenschaftliche
Mitarbeiterin am HLRS. Das sei wie bei einem PC-Anwender, der beim Schreiben
eines Briefes nicht um die Vorgänge in seinem Rechner wissen muss.
Stattdessen geben die Nutzer - Praktiker und Forscher aus der Medizin,
den Ingenieur- oder den Naturwissenschaften, die bei der Modellierung und
Simulation ihrer Projekte auf das Know-how der Stuttgarter Informatiker
setzen - die Daten ihrer rechenintensiven Aufgaben mittels einer speziellen
Benutzeroberfläche in den Computer ein. |
|
Oberflächendarstellung einer TEM Beta-Lactamase, ein Enzym, das
von zahlreichen Bakterien gebildet wird und Antibiotika wie etwa Penicilline
und Cephalosporine unwirksam werden lässt. Die Simulation von Enzymreaktionen
ist hoch komplex und erfordert optimierte Methoden des Verteilten Rechnens. (Foto:
ITB) |
Dann
heißt es erst einmal abwarten. Wie lange? Diese Frage soll in Zukunft
dank Vorabsimulationen sowie Observierungen während der Laufzeit zuverlässiger
abschätzbar sein. Gerade bei zeitkritischen Anwendungen ist dies enorm
wichtig. „Das bedeutet, wir können dann auch Laufzeiten gewährleisten“,
erklärt Natalia Currle-Linde. Julia
Alber
KONTAKT
______________________________
Dr. Natalia Currle-Linde
Höchstleistungsrechenzentrum Stuttgart
Tel. 0711/685-65801
e-mail: linde@hlrs.de
>>>> http://www.hlrs.de
|
|