Pseudoinverse

Die Pseudoinverse einer Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra, der auch in der numerischen Mathematik eine wichtige Rolle spielt. Sie ist eine Verallgemeinerung der inversen Matrix auf singuläre und nichtquadratische Matrizen, weshalb sie häufig auch als verallgemeinerte Inverse bezeichnet wird. Der häufigste Anwendungsfall für Pseudoinversen ist die Lösung linearer Gleichungssysteme und linearer Ausgleichsprobleme.

Eine erste Form wurde von E. H. Moore (1920)[1] und Roger Penrose (1955)[2] beschrieben. Die nach ihnen benannte Moore-Penrose-Inverse ist nicht die einzige Möglichkeit, eine Pseudoinverse zu definieren, häufig wird aber Pseudoinverse synonym mit Moore-Penrose-Inverse benutzt.[3] Die Moore-Penrose-Inverse ist für alle Matrizen mit Einträgen aus den reellen oder komplexen Zahlen definiert und eindeutig. Mit ihr kann man bei linearen Ausgleichsproblemen die optimale Lösung hinsichtlich der kleinsten Summe quadrierter Abweichungen der euklidischen Normen berechnen.

Eine numerisch robuste Methode zur Bestimmung der Moore-Penrose-Inversen baut auf der Singulärwertzerlegung auf.

Allgemeine Pseudoinversen

Die Verallgemeinerung der Bildung der Inversen einer Matrix auf singuläre Matrizen wird in der Literatur nicht einheitlich gehandhabt und orientiert sich oftmals an der zu lösenden Aufgabenstellung (einige Beispiele solcher Verallgemeinerungen sind weiter unten aufgeführt).

Nach Adi Ben-Israel[4] sollte eine Definition von verallgemeinerten Inversen zumindest die folgenden drei Forderungen erfüllen:

  1. Für reguläre Matrizen sollte sich eindeutig die gewöhnliche Inverse ergeben.
  2. Im verallgemeinerten Sinne sollten auch singuläre Matrizen invertierbar sein (wenigstens einige, nicht notwendigerweise alle).
  3. Für singuläre Matrizen sollten die verallgemeinerten Inversen ähnliche Eigenschaften haben wie gewöhnliche Inverse regulärer Matrizen.

Als Ausgangspunkt für die Konstruktion von verschiedenen Pseudoinversen schwächt Adi Ben-Israel[4] dann die vier definierenden Aussagen für die im nächsten Abschnitt beschriebene Moore-Penrose-Inverse in verschiedene Richtungen ab und ergänzt sie durch andere Bedingungen. Die Mindestforderung an eine Pseudoinverse ist die folgende: Eine Matrix ist genau dann Pseudoinverse von , wenn gilt:

Dagegen bezeichnet Max Koecher[5] eine Matrix genau dann als Pseudoinverse von , wenn für sie die folgenden beiden Aussagen

und

zutreffen.

Die erste Bedingung sichert dabei, dass die Spalten von durch auf Lösungen des Gleichungssystems abgebildet werden. Durch die zweite Aussage können keine vom Nullvektor verschiedene Spalten von im Kern von liegen.

Die Moore-Penrose-Inverse

Die Moore-Penrose-Inverse (auch einfach Pseudoinverse) einer Matrix ist die eindeutig bestimmte Matrix , welche die folgenden vier Eigenschaften („Moore-Penrose-Bedingungen“) erfüllt:

( ist eine verallgemeinerte Inverse.)
( verhält sich wie eine schwache Inverse.)
(Die Matrix ist hermitesch.)
(Die Matrix ist ebenfalls hermitesch.)

Dabei bezeichnet die adjungierte Matrix zu einer Matrix . Bei Matrizen mit Einträgen aus den reellen Zahlen ist diese identisch mit der zu transponierten Matrix .

Die Moore-Penrose-Inverse kann auch durch einen Grenzwert definiert werden:

mit als der Einheitsmatrix in . Dieser Grenzwert existiert auch dann, wenn und nicht existieren.

Rechenregeln

für

Spezialfälle

Sind die Spalten der Matrix linear unabhängig, dann ist invertierbar. In diesem Fall gilt die folgende Gleichung[4]

Nimmt man die erste Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand . Daraus folgt, dass eine Linksinverse zu ist.

Sind die Zeilen der Matrix linear unabhängig, dann ist invertierbar. In diesem Fall gilt die folgende Gleichung

Nimmt man die zweite Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand . Daraus folgt, dass eine Rechtsinverse zu ist.

Sind sowohl Spalten als auch die Zeilen einer Matrix unabhängig, dann ist die Matrix invertierbar, und die Pseudoinverse stimmt mit der Inversen überein.

Ist das Produkt zweier Matrizen definiert und eine der beiden eine unitäre Matrix, dann gilt

Man kann die Pseudoinverse auch für Skalare und Vektoren definieren, indem man diese als Matrizen betrachtet. Bei Skalaren ist die Pseudoinverse von null wieder null, und für alle anderen Werte ist sie . Für Vektoren gilt

Diese Behauptungen lassen sich überprüfen, indem man die Kriterien für die Moore-Penrose-Inverse nachprüft.

Ist die Matrix hermitesch (oder symmetrisch im reellen Fall), dann ist ebenfalls hermitesch (symmetrisch). Aus dem Spektralsatz folgt in diesem Fall die Zerlegung

und damit

,

wobei die Pseudoinverse der Diagonalmatrix durch

für alle Diagonaleinträge gegeben ist.

Berechnung

  • Ist der Rang der -Matrix , dann kann in das Produkt einer -Matrix und einer -Matrix zerlegt werden. Es gilt
Hat vollen Zeilenrang, das heißt, es gilt , dann kann für die Einheitsmatrix gewählt werden und obige Formel reduziert sich zu
In ähnlicher Weise gilt für eine Matrix mit vollem Spaltenrang, das heißt, es gilt , die Gleichung
  • Mit der Singulärwertzerlegung existiert ein anderes Verfahren zur Berechnung der Pseudoinversen. Ist die Singulärwertzerlegung von , dann gilt
Bei einer Diagonalmatrix wie entsteht die Pseudoinverse, indem man die Matrix transponiert und die von null verschiedenen Elemente invertiert, also bildet mit
  • Mit Hilfe der Ränderung von Matrizen kann die Pseudoinverse implizit dargestellt oder auch berechnet werden.[6]
  • Der Algorithmus von Greville ist eine endliche iterative Methode zur spaltenweisen Berechnung der Moore-Penrose-Inversen.[7]

Das Verfahren, bei dem man die Matrix benötigt, wird zwar bei der numerischen Berechnung der Lösung überbestimmter Gleichungssysteme der Bequemlichkeit halber öfter benutzt, ist jedoch numerisch instabil, da die Kondition der Matrix quadriert wird. Als stabile und effiziente numerische Methode gilt die Verwendung der QR-Zerlegung. Das auf der Singulärwertzerlegung aufbauende Verfahren ist das aufwendigste, aber auch das numerisch gutartigste. Das auf der Ränderung beruhende Verfahren bietet einen Kompromiss zwischen Aufwand und numerischer Stabilität.

Einen Überblick über numerischen Aufwand und Stabilität der Verfahren gibt auch [6].

Anwendungen

Ist das Gleichungssystem nicht lösbar, so lässt sich mit der Pseudoinversen die Lösung nach der Methode der kleinsten Quadrate, also die mit kleinster euklidischer Norm als berechnen.

Gibt es für das Gleichungssystem unendlich viele Lösungen, so kann man diese über

bestimmen. Dabei ist diejenige Lösung des Gleichungssystems, die von den kleinsten Abstand bezüglich der euklidischen Norm hat.

Ausgewählte weitere Versionen von verallgemeinerten Inversen

Drazin-Inverse

Sei eine Matrix mit Index (der Index von ist die minimale ganze Zahl für die und den gleichen Kern haben). Dann ist die Drazin-Inverse diejenige eindeutig definierte -Matrix , die den Bedingungen

genügt. Sie wurde von Michael Drazin eingeführt.

Berechnung

Zur Berechnung kann man die Zerlegung

der Matrix in Jordan-Normalform nutzen, wobei der reguläre Teil der Jordan-Form sei und nilpotent. Die Drazin-Inverse ergibt sich dann zu

.

Die Drazin-Inverse einer Matrix mit Index (für die also gleich der Nullmatrix ist) bezeichnet man auch als Gruppen-Inverse. Die Gruppen-Inverse ist eine Pseudoinverse nach der Definition von Koecher.[5]

Anwendungen

1. Eine wichtige Anwendung für die Drazin-Inverse ist die analytische Darstellung der Lösung zeitinvarianter linearer Deskriptorsysteme. Als Beispiel diene die Differenzengleichung

eines zeitdiskreten Deskriptorsystems mit der reellen -Matrix . Die Lösung der Differenzengleichung erfüllt die Gleichungen mit . Anfangswerte sind also nur dann konsistent, wenn sie in allen Bildern der Matrizen liegen (sonst bricht die Lösung nach endlich vielen Schritten ab). Die Lösung der Differenzengleichung ist dann .

2. Für reelle oder komplexe -Matrizen  mit Index  gilt die Gleichung

Damit lässt sich die Sprungantwort eines linearen zeitinvarianten dynamischen Systems

mit Eingangssignal

Zustandsvektor ( Nullvektor), Systemmatrix und Ein- beziehungsweise Ausgabevektoren in der Form

darstellen.

Restringierte verallgemeinerte Inversen – die Bott-Duffin-Inverse

Bei manchen praktischen Aufgabenstellungen ist die Lösung eines linearen Gleichungssystems

nur dann zulässig, wenn sie innerhalb eines gewissen linearen Teilraumes von liegt. Man sagt auch, dass das Problem durch ein restringiertes lineares Gleichungssystem beschrieben wird (englisch constrained linear equation).

Im Folgenden werde der orthogonale Projektor auf mit bezeichnet. Das restringierte lineare Gleichungssystem

ist genau dann lösbar, wenn das für das unrestringierte Gleichungssystem

zutrifft. Ist der Unterraum ein echter Teilraum von , so ist die Systemmatrix des unrestringierten Problems auch dann singulär, wenn sich die Systemmatrix des restringierten Problems invertieren lässt (in diesem Fall gilt ). Das erklärt, dass für die Lösung restringierter Probleme auch Pseudoinverse herangezogen werden. Man bezeichnet eine Pseudoinverse von dann auch als -restringierte Pseudoinverse von . Diese Definition scheint zunächst der Forderung 1 aus Abschnitt Allgemeine Pseudoinversen zu widersprechen. Dieser Widerspruch relativiert sich jedoch wieder, wenn man bedenkt, dass die -restringierte Pseudoinverse für bijektives  auf dem interessierenden Raum  injektiv ist und dass der Bildraum die gleiche Dimension wie  hat.

Ein Beispiel für eine Pseudoinverse mit der sich die Lösung eines restringierten Problems ermitteln lässt, ist die Bott-Duffin-Inverse von bzgl. , die durch die Gleichung

definiert ist, falls die auf der rechten Seite auftretende gewöhnliche Inverse existiert.

Anwendungen

Die Bott-Duffin-Inverse kann zur Lösung der Gleichungen eines affin-linearen elektrischen Netzwerkes benutzt werden, wenn sich die Relation zwischen Zweigspannungsbelegungen   und Zweigstrombelegungen   in der Form

darstellen lassen, wobei der Raum aller die kirchhoffschen Knotengleichungen erfüllenden Strombelegungen ist und die Spaltenmatrix der in die Zweige eingespeisten unabhängigen Quellspannungen sein soll. An dieser Stelle fließt der graphentheoretische Satz von Tellegen ein, der besagt, dass die Räume der Zweigspannungsbelegungen und Zweigstrombelegungen, die die kirchhoffschen Maschen- beziehungsweise Knotengleichungen erfüllen, orthogonal komplementär zueinander sind.

Eine Eigenschaft der Bott-Duffin-Inversen ist, dass mit ihrer Hilfe die zu einer vorgegebenen Quellspannungsbelegung zugehörigen Zweigströme

und Zweigspannungen

berechnet werden können ( steht für die Einheitsmatrix im ).

Literatur

  • W. Mackens, H. Voß: Mathematik I für Studierende der Ingenieurwissenschaften
  • A. Kielbasinski, H. Schwetlick: Numerische lineare Algebra, Deutscher Verlag der Wissenschaften, 1988

Einzelnachweise

  1. E. H. Moore: On the reciprocal of the general algebraic matrix. In: Bulletin of the American Mathematical Society 26, S. 394–395, 1920
  2. Roger Penrose: A generalized inverse for matrices. In: Proceedings of the Cambridge Philosophical Society 51, S. 406–413, 1955, doi:10.1017/S0305004100030401
  3. J. Stoer: Numerische Mathematik 1. Springer Verlag, 2002, ISBN 3-540-66154-9
  4. Adi Ben-Israel, Thomas N.E. Greville: Generalized Inverses. Springer-Verlag, 2003, ISBN 0-387-00293-6
  5. Max Koecher: Lineare Algebra und analytische Geometrie, Springer-Verlag Berlin, 1997
  6. Nobuo Shinozaki, Masaaki Sibuya, and Kunio Tanabe: Numerical algorithms for the Moore-Penrose inverse of a matrix: Direct methods. Annals of the Institute of Statistical Mathematics, Springer Netherlands, Vol. 24, No. 1, Dec. 1972, pp. 193–203, doi:10.1007/BF02479751.
  7. T. N. E. Greville: Some applications of the pseudo inverse of a matrix. SIAM Rev., No. 2, 1960, pp. 15–22, doi:10.1137/1002004, JSTOR:2028054.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.