E-Book, Deutsch, 458 Seiten
Reihe: X.systems.press
Bauke / Mertens Cluster Computing
2006
ISBN: 978-3-540-29928-8
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark
Praktische Einführung in das Hochleistungsrechnen auf Linux-Clustern
E-Book, Deutsch, 458 Seiten
Reihe: X.systems.press
ISBN: 978-3-540-29928-8
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark
Das Buch ist eine praktische Einführung in das Hochleistungsrechnen auf Linux-Clustern. In vier Teilen (Grundlagen, Technik, Programmierung, Praxis) wird ausführlich erklärt, wie man einen Haufen (Cluster) preiswerter Standard-PCs in einen Parallelcomputer verwandelt und diesen dann zur Lösung rechenintensiver Probleme einsetzt. Insbesondere enthält das Buch eine fundierte Einführung in MPI, dem grundlegenden Programmiermodell für Cluster-Computer. Dabei werden anhand konkreter Beispiele die wichtigsten Paradigmen paralleler Programmierung präsentiert. Vorgestellt werden außerdem Entwicklungswerkzeuge, die Fehlersuche in parallelen Programmen und nützliche Bibliotheken.
Autoren/Hrsg.
Weitere Infos & Material
1;Vorwort;5
2;Inhaltsverzeichnis;7
3;Teil I Grundlagen;14
3.1;1 Von Megahertz zu Gigaflops;15
3.1.1;1.1 Ochsen oder Hühner?;15
3.1.2;1.2 Rechenleistung im Takt;17
3.1.3;1.3 Von-Neumann-Flaschenhals;19
3.1.4;1.4 Benchmarks;20
3.1.5;1.5 Amdahls Gesetz;22
3.1.6;1.6 Granularität;25
3.1.7;1.7 Parallele Leistungsmetriken;28
3.1.8;1.8 Notizen;30
3.2;2 Parallelrechner;33
3.2.1;2.1 Gemeinsamer oder verteilter Speicher;33
3.2.2;2.2 Verbindungsnetzwerke;36
3.2.3;2.3 Cluster-Computer;39
3.2.4;2.4 SETI@home und Grid-Computing;44
3.2.5;2.5 Notizen;46
3.3;3 Programmieransätze;49
3.3.1;3.1 Datenparallelität;49
3.3.2;3.2 Threads;51
3.3.3;3.3 Nachrichtentransfer;56
3.3.4;3.4 Notizen;59
4;Teil II Technik;62
4.1;4 Cluster-Design;63
4.1.1;4.1 Grundlegende Komponenten;63
4.1.2;4.2 Anforderungen an einen High-Performance-Cluster;64
4.1.3;4.3 Netzwerktechnik;65
4.1.4;4.4 CPU-Architektur;73
4.1.5;4.5 Arbeitsspeicher;74
4.1.6;4.6 Massenspeicher;75
4.1.7;4.7 Diskless nodes;77
4.1.8;4.8 Hardware-Monitoring;78
4.1.9;4.9 Unterbringung, Klima und Kühlung;79
4.1.10;4.10 Cluster now!;81
4.1.11;4.11 Besonderheiten von Knoten-Hardware;82
4.1.12;4.12 Schrauben oder kaufen?;83
4.1.13;4.13 Notizen;85
4.2;5 PCs vernetzen;87
4.2.1;5.1 TCP/IP-Grundlagen;89
4.2.2;5.2 Calculus – Der Beispiel-Cluster;92
4.2.3;5.3 Erstinstallation;93
4.2.4;5.4 Netzwerk-Basiskon.guration;102
4.2.5;5.5 SystemImager;109
4.2.6;5.6 Wichtige Netzdienste;116
4.2.7;5.7 Channel bonding;137
4.2.8;5.8 Diskless nodes;141
4.2.9;5.9 Notizen;152
4.3;6 Cluster-Dienste;155
4.3.1;6.1 LAM/MPI;155
4.3.2;6.2 Jobverwaltung und Batch-Systeme;163
4.3.3;6.4 Notizen;175
5;Teil III MPI;178
5.1;7 Grundlagen;179
5.1.1;7.1 Das Minimalgerüst;179
5.1.2;7.3 Kollektive Kommunikation;185
5.1.3;7.4 Anatomie der Nachrichtenübertragung;201
5.1.4;7.5 Nicht blockierender Nachrichtentransfer;217
5.1.5;7.6 Der MPI-Standard;225
5.1.6;7.7 Notizen;232
5.2;8 Fortgeschrittene Techniken;235
5.2.1;8.1 Kommunikator- und Gruppenmanagement;235
5.2.2;8.2 Fehlerbehandlung;242
5.2.3;8.3 Nutzerspezifische Datentypen;246
5.2.4;8.5 Notizen;268
5.3;9 Parallelisierungstechniken;271
5.3.1;9.1 Perfekte Parallelisierung;271
5.3.2;9.2 Geometrische Parallelisierung;301
5.3.3;9.3 Notizen;321
6;Teil IV Praxis;323
6.1;10 Debuggingmethoden und Entwicklungswerkzeuge für MPI- Programme;325
6.1.1;10.1 Kontrollausgaben;325
6.1.2;10.2 Debugger;329
6.1.3;10.3 Profiler;334
6.1.4;10.4 XMPI;336
6.1.5;10.5 Namen für MPI-Objekte;340
6.1.6;10.6 Notizen;342
6.2;11 Bibliotheken;345
6.2.1;11.1 Überblick;346
6.2.2;11.2 APPSPACK;358
6.2.3;11.3 FFTW;363
6.2.4;11.4 Tina’s Random Number Generator Library;368
6.2.5;11.5 Notizen;378
6.3;12 Benchmarks;379
6.3.1;12.1 Highly-Parallel LINPACK;379
6.3.2;12.2 Intel MPI Benchmarks;397
6.3.3;12.3 Notizen;404
6.4;13 Checkpoint-Restart;405
6.4.1;13.1 Überblick;405
6.4.2;13.2 Ckpt;409
6.4.3;13.4 Notizen;420
7;Teil V Anhang;422
7.1;14 Die C-Schnittstelle des MPI-Standards;423
7.1.1;14.1 Konstanten;423
7.1.2;14.4 Nicht blockierende Punkt-zu-Punkt-Kommunikation;429
7.1.3;14.5 Persistente Kommunikation;432
7.1.4;14.6 Abgeleitete Datentypen;432
7.1.5;14.8 Einfache Gruppen, Kontexte und Kommunikatoren;443
7.1.6;14.9 Kommunikatoren mit Topologie;449
7.2;15 Argumente aus der Kommandozeile einlesen;451
8;Literaturverzeichnis;455
9;Sachverzeichnis;461




