Neu kaufen

oder
Loggen Sie sich ein, um 1-Click® einzuschalten.
oder
Mit kostenloser Probeteilnahme bei Amazon Prime. Melden Sie sich während des Bestellvorgangs an.
Gebraucht kaufen
Gebraucht - Wie neu Informationen anzeigen
Preis: EUR 32,74

oder
 
   
Jetzt eintauschen
und EUR 1,50 Gutschein erhalten
Eintausch
Alle Angebote
Möchten Sie verkaufen? Hier verkaufen
Den Verlag informieren!
Ich möchte dieses Buch auf dem Kindle lesen.

Sie haben keinen Kindle? Hier kaufen oder eine gratis Kindle Lese-App herunterladen.

Parallele numerische Verfahren (Springer-Lehrbuch Masterclass) [Taschenbuch]

Götz Alefeld

Preis: EUR 42,95 kostenlose Lieferung. Siehe Details.
  Alle Preisangaben inkl. MwSt.
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
Auf Lager.
Verkauf und Versand durch Amazon. Geschenkverpackung verfügbar.
Lieferung bis Mittwoch, 3. September: Wählen Sie an der Kasse Morning-Express. Siehe Details.
‹  Zurück zur Artikelübersicht

Inhaltsverzeichnis

1 Grundsätzliches über Parallelrechner.- 1.1 Rechnertypen und Architekt uren.- 1.1.1 Verteilter und gemeinsamer Speicher.- 1.1.2 Granularität.- 1.1.3 Prozessortopologie.- 1.1.4 SIMD- und MIMD-Rechner.- 1.2 Leistungsb eurt eilung von Par allelrechnern.- 1.2.1 Parallelisierungsgrad.- 1.2.2 Speed-up und Effizienz.- 1.2.3 Das Gesetz von Amdahl.- 1.3 Parallele Programmiermodelle.- 1.3.1 Ebenen der Parallelität.- 1.3.2 Implizite und explizite Paralle lität.- 1.3.3 Erzeugung von Prozessen.- 1.3.4 Datenaustausch.- 2 Parallele Verfahren für partielle Differentialgleichungen.- 2.1 Standardverfahren für elliptische Differentialgleichungen.- 2.1.1 Poisson-Gleichung mit Dirichlet-Randbedin gungen.- 2.1.2 Das Jacobi-Verfahren zur Lösung von Gleichungssystemen.- 2.1.3 Das Gauß-Seidel-Verfahren.- 2.1.4 Das SOR-Verfahr en.- 2.2 Parallelisierung.- 2.2.1 Parallelisierung des Jacobi-Verfahrens.- 2.2.2 Parallelisierung von Gauß-Seidel- und SOR-Verfahren.- 2.2.3 Wellenfront (Wavefront)-Nummerierung.- 2.2.4 Red-Black-Nummerierung (Schachbrett-Ordnung).- 2.3 Das ADI-Verfahren.- 2.3.1 Die Wärmeleitungsgleichung.- 2.3.2 Explizites Differenzenverfahren.- 2.3.3 Sequentielles ADI-Verfahren.- 2.3.4 Auflösung von Gleichungssystemen mit Tridiagonalmatrix.- 2.3.5 Parallele Durchfiihrung des ADI-Verfahrens.- 3 Graph-Partitionierung.- 3.1 Hilfsmittel und Definitionen.- 3.2 Spektralbisektion.- 3.3 Weitere Partitionierungsheuristiken.- 4 Die Methode der konjugierten Gradienten.- 4.1 Sequentielle Durchführung.- 4.1.1 Minimierung eines Funktionals.- 4.1.2 Zusammenhang zum Gaufß-Seidel-Verfahren.- 4.1.3 Die Methode des steilsten Abstiegs.- 4.1.4 Die Methode der konjugierten Gradienten (CG-Verfahren).- 4.2 Das vorkonditionierte CG-Verfahren.- 4.2.1 Das symmetrische SOR-Verfahren (SSOR-Verfahren).- 4.2.2 Konstruktion einer Vorkonditionierungsmatrix.- 4.2.3 Weitere Möglichkeiten zur Vorkonditionierung.- 4.3 Parallelisierung des CG-Verfahrens.- 4.3.1 Der parallele Algorithmus.- 4.3.2 Parallele Vorkonditionierung durch Gebietszerlegung.- 5 Mehrgitterverfahren (Multi-Grid Method).- 5.1 Motivation.- 5.2 Übergang zwischen Gittern.- 5.3 Grobgitterkorrektur (Coarse Grid Correction).- 5.4 Interpolation und Prolongation im zweidimensionalen Fall.- 5.5 Bemerkungen zur Programmierung des Mehrgitterverfahrens.- 5.5.1 Gitterzerlegung und Mehrgitterverfahren.- 6 Das symmetrische Eigenwert-Problem.- 6.1 Das Jacobi-Verfahren zur Berechnung von Eigenwerten.- 6.1.1 Parallele Durchfuhrung.- 6.1.2 Realisierung auf einem Parallelrechner.- 6.2 Berechnung der Eigenwerte durch Reduktion der Matrix auf Tridiagonalgestalt.- 6.2.1 Reduktion auf Tridiagonalgestalt.- 6.2.2 Berechnung der Eigenwerte einer symmetrischen Tridiagonalmatrix.- 6.3 Ein Divide-and-Conquer- Verfahren („Teile-und-Herrsche-Verfahren“).- 6.3.1 Divide-and-Conquer-Verfahren für Tridiagonalmatrizen T ? ?n*n mit n=2m.- 7 Der Gauß-Algortthmus — Anwendung bei Integralgleichungen.- 7.1 Grundlagen.- 7.2 Das Nyström-Verfahren.- 7.3 Parallele Durchführung des Nyström-Verfahrens.- 7.3.1 Der parallele Gauß-Algorithmus mit Pivotsuche.- 8 Aufgaben für ein Parallelrechnerpraktikum.- 8.1 Elementare Aufgaben.- 8.1.1 Speed-up.- 8.1.2 Ein erstes paralleles Programm.- 8.1.3 Punkt-zu-Punkt-Kommunikation mit MPI.- 8.1.4 Kommunikationsbandbreite und Start-up-Zeit.- 8.1.5 Kollektive Kommunikation mit MPI.- 8.2 Parallele Matrix-Vektor-Multiplikation für dichtbesetzte Matrizen.- 8.3 SOR-Verfahren mit Red-Black-Ordnung.- 8.4 Direktes Lösen von Gleichungssystemen mit Tridiagonalmatrix.- 8.5 Graphpartitionierung I.- 8.6 Graphpartitionierung II.- 8.7 CG-Verfahren.- 8.8 Jacobi-Verfahren zur Berechnung von Eigenwerten.- 8.9 Nyström-Verfahren.- A Ein Linux-Cluster als Parallelrechner.- A.l Hardware.- A.2 Systemsoftware.- A.2.1 Betriebssystem-Installati on.- A.2.2 Nameservices.- A.2.3 NIS (Network Information Service).- A.2.4 NFS (Network File System).- A.2.5 Remote Shell (rsh) / Secure Shell (ssh).- A.2.6 Automatisierung durch Skripte.- A.3 Programmbiblioth eken zur parallelen Programmierung.- A.3.1 Programmerstellung.- A.3.2 Die Compiler mpicc, mpiCC und mpif77.- A.3.3 Starten und Beenden der Kommunikationsumgebung mit lamboot und lamwipe.- A.3.4 Starten von parallelen Programmen mit mpirun.- A.3.5 MPI-Kurzreferenz.- Stichwortverzeichnis.

‹  Zurück zur Artikelübersicht