Bauke / Mertens | Cluster Computing | E-Book | www.sack.de
E-Book

E-Book, Deutsch, 458 Seiten

Reihe: X.systems.press

Bauke / Mertens Cluster Computing

Praktische Einführung in das Hochleistungsrechnen auf Linux-Clustern
2006
ISBN: 978-3-540-29928-8
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark

Praktische Einführung in das Hochleistungsrechnen auf Linux-Clustern

E-Book, Deutsch, 458 Seiten

Reihe: X.systems.press

ISBN: 978-3-540-29928-8
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark



Das Buch ist eine praktische Einführung in das Hochleistungsrechnen auf Linux-Clustern. In vier Teilen (Grundlagen, Technik, Programmierung, Praxis) wird ausführlich erklärt, wie man einen Haufen (Cluster) preiswerter Standard-PCs in einen Parallelcomputer verwandelt und diesen dann zur Lösung rechenintensiver Probleme einsetzt. Insbesondere enthält das Buch eine fundierte Einführung in MPI, dem grundlegenden Programmiermodell für Cluster-Computer. Dabei werden anhand konkreter Beispiele die wichtigsten Paradigmen paralleler Programmierung präsentiert. Vorgestellt werden außerdem Entwicklungswerkzeuge, die Fehlersuche in parallelen Programmen und nützliche Bibliotheken.

Bauke / Mertens Cluster Computing jetzt bestellen!

Weitere Infos & Material


1;Vorwort;5
2;Inhaltsverzeichnis;7
3;Teil I Grundlagen;14
3.1;1 Von Megahertz zu Gigaflops;15
3.1.1;1.1 Ochsen oder Hühner?;15
3.1.2;1.2 Rechenleistung im Takt;17
3.1.3;1.3 Von-Neumann-Flaschenhals;19
3.1.4;1.4 Benchmarks;20
3.1.5;1.5 Amdahls Gesetz;22
3.1.6;1.6 Granularität;25
3.1.7;1.7 Parallele Leistungsmetriken;28
3.1.8;1.8 Notizen;30
3.2;2 Parallelrechner;33
3.2.1;2.1 Gemeinsamer oder verteilter Speicher;33
3.2.2;2.2 Verbindungsnetzwerke;36
3.2.3;2.3 Cluster-Computer;39
3.2.4;2.4 SETI@home und Grid-Computing;44
3.2.5;2.5 Notizen;46
3.3;3 Programmieransätze;49
3.3.1;3.1 Datenparallelität;49
3.3.2;3.2 Threads;51
3.3.3;3.3 Nachrichtentransfer;56
3.3.4;3.4 Notizen;59
4;Teil II Technik;62
4.1;4 Cluster-Design;63
4.1.1;4.1 Grundlegende Komponenten;63
4.1.2;4.2 Anforderungen an einen High-Performance-Cluster;64
4.1.3;4.3 Netzwerktechnik;65
4.1.4;4.4 CPU-Architektur;73
4.1.5;4.5 Arbeitsspeicher;74
4.1.6;4.6 Massenspeicher;75
4.1.7;4.7 Diskless nodes;77
4.1.8;4.8 Hardware-Monitoring;78
4.1.9;4.9 Unterbringung, Klima und Kühlung;79
4.1.10;4.10 Cluster now!;81
4.1.11;4.11 Besonderheiten von Knoten-Hardware;82
4.1.12;4.12 Schrauben oder kaufen?;83
4.1.13;4.13 Notizen;85
4.2;5 PCs vernetzen;87
4.2.1;5.1 TCP/IP-Grundlagen;89
4.2.2;5.2 Calculus – Der Beispiel-Cluster;92
4.2.3;5.3 Erstinstallation;93
4.2.4;5.4 Netzwerk-Basiskon.guration;102
4.2.5;5.5 SystemImager;109
4.2.6;5.6 Wichtige Netzdienste;116
4.2.7;5.7 Channel bonding;137
4.2.8;5.8 Diskless nodes;141
4.2.9;5.9 Notizen;152
4.3;6 Cluster-Dienste;155
4.3.1;6.1 LAM/MPI;155
4.3.2;6.2 Jobverwaltung und Batch-Systeme;163
4.3.3;6.4 Notizen;175
5;Teil III MPI;178
5.1;7 Grundlagen;179
5.1.1;7.1 Das Minimalgerüst;179
5.1.2;7.3 Kollektive Kommunikation;185
5.1.3;7.4 Anatomie der Nachrichtenübertragung;201
5.1.4;7.5 Nicht blockierender Nachrichtentransfer;217
5.1.5;7.6 Der MPI-Standard;225
5.1.6;7.7 Notizen;232
5.2;8 Fortgeschrittene Techniken;235
5.2.1;8.1 Kommunikator- und Gruppenmanagement;235
5.2.2;8.2 Fehlerbehandlung;242
5.2.3;8.3 Nutzerspezifische Datentypen;246
5.2.4;8.5 Notizen;268
5.3;9 Parallelisierungstechniken;271
5.3.1;9.1 Perfekte Parallelisierung;271
5.3.2;9.2 Geometrische Parallelisierung;301
5.3.3;9.3 Notizen;321
6;Teil IV Praxis;323
6.1;10 Debuggingmethoden und Entwicklungswerkzeuge für MPI- Programme;325
6.1.1;10.1 Kontrollausgaben;325
6.1.2;10.2 Debugger;329
6.1.3;10.3 Profiler;334
6.1.4;10.4 XMPI;336
6.1.5;10.5 Namen für MPI-Objekte;340
6.1.6;10.6 Notizen;342
6.2;11 Bibliotheken;345
6.2.1;11.1 Überblick;346
6.2.2;11.2 APPSPACK;358
6.2.3;11.3 FFTW;363
6.2.4;11.4 Tina’s Random Number Generator Library;368
6.2.5;11.5 Notizen;378
6.3;12 Benchmarks;379
6.3.1;12.1 Highly-Parallel LINPACK;379
6.3.2;12.2 Intel MPI Benchmarks;397
6.3.3;12.3 Notizen;404
6.4;13 Checkpoint-Restart;405
6.4.1;13.1 Überblick;405
6.4.2;13.2 Ckpt;409
6.4.3;13.4 Notizen;420
7;Teil V Anhang;422
7.1;14 Die C-Schnittstelle des MPI-Standards;423
7.1.1;14.1 Konstanten;423
7.1.2;14.4 Nicht blockierende Punkt-zu-Punkt-Kommunikation;429
7.1.3;14.5 Persistente Kommunikation;432
7.1.4;14.6 Abgeleitete Datentypen;432
7.1.5;14.8 Einfache Gruppen, Kontexte und Kommunikatoren;443
7.1.6;14.9 Kommunikatoren mit Topologie;449
7.2;15 Argumente aus der Kommandozeile einlesen;451
8;Literaturverzeichnis;455
9;Sachverzeichnis;461



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.