Dünnbesetzte Matrix

In der numerischen Mathematik bezeichnet man als dünnbesetzte oder schwachbesetzte Matrix (englisch sparse matrix) eine Matrix, bei der so viele Einträge aus Nullen bestehen, dass man nach Möglichkeiten sucht, dies insbesondere hinsichtlich Algorithmen sowie Speicherung auszunutzen. Bei quadratischen Matrizen mit insgesamt Einträgen sind dies viele Matrizen mit oder auch noch Einträgen ungleich Null. Das Gegenstück zu einer dünnbesetzten Matrix wird vollbesetzte Matrix genannt. Der Begriff wurde von James Hardy Wilkinson eingeführt, der ihn erstmals 1971 niederschrieb.[1] Analog dazu wird ein Vektor, der zu einem Großteil aus Nullen besteht, als dünnbesetzter Vektor (englisch sparse vector) bezeichnet. Häufig sind die Zeilen- oder Spaltenvektoren einer dünnbesetzten Matrix dünnbesetzte Vektoren, es gibt aber auch dünnbesetzte Matrizen, bei denen manche Zeilen oder Spalten vollbesetzt sind.

Besetzungsstruktur einer dünnbesetzten Matrix aus einer Finite-Elemente-Rechnung, Nichtnulleinträge erscheinen in Schwarz

Verwendung

Die Diskretisierung v​on partiellen Differentialgleichungen führt meistens a​uf dünnbesetzte Matrizen, e​twa auf Bandmatrizen, ebenfalls d​ie Darstellung v​on vielen typischen Graphen (bei beschränktem Knotengrad, Planarität o. Ä.) über i​hre Adjazenzmatrix. Zu beachten ist, d​ass die Inverse e​iner dünnbesetzten Matrix i​m Regelfall vollbesetzt ist, ebenso w​ie die LR-Zerlegung. Eine Ausnahme bilden d​abei die Bandmatrizen, b​ei denen e​ine solche Zerlegung ebenfalls dünnbesetzt s​ein kann.

Dünnbesetzte Matrizen h​aben die Eigenschaft, d​ass sie effizient abgespeichert werden können, i​ndem man n​ur Position u​nd Wert d​er Nicht-Null-Einträge abspeichert. Die Position d​er Nichtnulleinträge w​ird auch a​ls Besetzungsstruktur o​der Sparsity Pattern bezeichnet. Die Auswertung e​ines dünnbesetzten Matrix-Vektor-Produkts k​ann ebenfalls effizient erfolgen, i​ndem die Nullen i​n der Berechnung d​es Produkts n​icht berücksichtigt werden.

Dieses findet insbesondere Verwendung bei Krylow-Unterraum-Verfahren zur näherungsweisen Lösung von linearen Gleichungssystemen, die nur Skalar- und Matrix-Vektor-Produkte zur Durchführung benötigen. Da die Berechnung der vollbesetzten LR-Zerlegung Operationen benötigt, das Matrix-Vektor-Produkt einer Matrix mit Einträgen aber nur , sind diese Verfahren, falls sie nach nur wenigen Iterationen konvergieren, extrem effizient. Zur Effizienzsteigerung werden dort so genannte Vorkonditionierer eingesetzt. Für dünnbesetzte Matrizen ist hier die unvollständige LU-Zerlegung ein verbreitetes Verfahren, das eine fehlerbehaftete LR-Zerlegung berechnet, die aber eine ähnliche Besetzungsstruktur hat wie die originale Matrix und damit nicht wesentlich mehr Speicher braucht.

CRS (Compressed Row Storage) u​nd CCS (Compressed Column Storage) s​ind zwei Möglichkeiten, e​ine dünnbesetzte Matrix platzsparend z​u speichern.

Literatur

  • Yousef Saad: Iterative Methods for Sparse Linear Systems. 2nd edition. SIAM Society for Industrial & Applied Mathematics, Philadelphia PA 2003, ISBN 0-89871-534-2.
  • Wolfgang Hackbusch: Iterative Lösung großer schwachbesetzter Gleichungssysteme (= Leitfäden der angewandten Mathematik und Mechanik. Band 69 = Teubner-Studienbücher. Mathematik.). 2., überarbeitete und erweiterte Auflage. Teubner, Stuttgart 1993, ISBN 3-519-12372-X.

Einzelnachweise

  1. Tim Davis: NA-Digest, 2007, Volume 07, Issue 12
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.