Satz von Gauß-Markow

In der Stochastik ist der Satz von Gauß-Markow (in der Literatur ist auch die englische Transkription Markov zu finden, also Satz von Gauß-Markov) bzw. Satz von Gauß ein mathematischer Satz über die Klasse der linearen erwartungstreuen Schätzfunktionen. Er stellt eine theoretische Rechtfertigung der Methode der kleinsten Quadrate dar und ist nach den Mathematikern Carl Friedrich Gauß und Andrei Andrejewitsch Markow benannt. Es wird in neuer Zeit vorgeschlagen, dass der Satz einfach Satz von Gauß heißen sollte, da die Zuschreibung zu Markow auf einem Irrtum beruht (siehe #Geschichte). Der Satz besagt, dass in einem linearen Regressionsmodell, in dem die Störgrößen einen Erwartungswert von null und eine konstante Varianz haben sowie unkorreliert sind (Annahmen des klassischen linearen Regressionsmodells), der Kleinste-Quadrate-Schätzer – vorausgesetzt er existiert – ein bester linearer erwartungstreuer Schätzer, kurz BLES[1] (englisch best linear unbiased estimator, kurz: BLUE) ist. Hierbei bedeutet der „beste“, dass er – innerhalb der Klasse der linearen erwartungstreuen Schätzer – die „kleinste“ Kovarianzmatrix aufweist und somit minimalvariant ist. Die Störgrößen müssen nicht notwendigerweise normalverteilt sein. Sie müssen im Fall der verallgemeinerten Kleinste-Quadrate-Schätzung auch nicht unabhängig und identisch verteilt sein.

Geschichte

Der Satz wurde im Jahr 1821 von Carl Friedrich Gauß bewiesen. Versionen seines Beweises wurden unter anderem von Helmert (1872), Czuber (1891) und Markow (1912) veröffentlicht. Jerzy Neyman, der die Arbeit von Gauß nicht kannte, benannte den Satz unter anderem nach Markow. Seitdem ist der Satz als Satz von Gauß-Markow bekannt. Da die heutige Bezeichnung vor allem auf der Unkenntnis Neymans von Gauß’ Beweis beruht, wird in neuer Zeit – vor allem in englischsprachiger Literatur – vorgeschlagen, den Satz allein nach Gauß zu benennen, etwa Satz von Gauß. Historische Informationen zum Satz von Gauß-Markow finden sich bei Seal (1967), Placket (1972), Stigler (1986) und in History of Mathematical Statistics from 1750 to 1930 von Hald (1998).[2]

Formulierung des Satzes

In Worten lautet dieser Satz: Der Kleinste-Quadrate-Schätzer ist die beste lineare erwartungstreue Schätzfunktion, wenn die zufälligen Störgrößen (die folgenden Formeln beziehen sich auf die einfache lineare Regression):[3]

  • unkorreliert sind:
    .
unabhängige Zufallsvariablen sind immer auch unkorreliert. Man spricht in diesem Zusammenhang auch von Abwesenheit von Autokorrelation.
  • im Mittel Null sind: Wenn das Modell einen – von Null verschiedenen – Achsenabschnitt enthält, ist es vernünftig, dass man zumindest fordert, dass der Mittelwert von in der Grundgesamtheit Null ist und sich die Schwankungen der einzelnen Störgrößen über die Gesamtheit der Beobachtungen ausgleichen. Mathematisch bedeutet das, dass der Erwartungswert der Störgrößen Null ist . Diese Annahme macht keine Aussage über den Zusammenhang zwischen und , sondern gibt lediglich eine Aussage über die Verteilung der unsystematischen Komponente in der Grundgesamtheit.[4] Dies bedeutet, dass das betrachte Modell im Mittel dem wahren Zusammenhang entspricht. Wäre der Erwartungswert nicht Null, dann würde man im Mittel einen falschen Zusammenhang schätzen. Zur Verletzung dieser Annahme kann es kommen, wenn eine relevante Variable im Regressionsmodell nicht berücksichtigt wurde (siehe Verzerrung durch ausgelassene Variablen).
  • eine endliche konstante Varianz haben (Homoskedastizität):
wenn die Varianz der Residuen (und somit die Varianz der erklärten Variablen selbst) für alle Ausprägungen der Regressoren gleich ist, liegt Homoskedastizität bzw. Varianzhomogenität vor.

Alle oben genannten Annahmen über die Störgrößen lassen sich so zusammenfassen:

,

das heißt alle Störgrößen folgen der Verteilung mit Erwartungswert und der Varianz . Hierbei ist die Verteilung anfangs nicht näher spezifiziert.

Diese Annahmen werden auch als Gauß-Markow-Annahmen bezeichnet. In der Ökonometrie wird der Satz von Gauß-Markow oft abweichend dargestellt und es werden weitere Annahmen getroffen.

Allgemeine Formulierung des Satzes von Gauß-Markow (regulärer Fall)

Als Ausgangslage betrachten wir ein typisches multiples lineares Regressionsmodell mit gegebenen Daten für statistische Einheiten und Regressoren. Der Zusammenhang zwischen der abhängigen Variablen und den unabhängigen Variablen kann wie folgt dargestellt werden

.

In Matrixnotation auch

mit . In kompakter Schreibweise

.

Hier stellt einen Vektor von unbekannten Parametern dar (bekannt als Regressionskoeffizienten), die mithilfe der Daten geschätzt werden müssen. Des Weiteren wird angenommen, dass die Störgrößen im Mittel Null sind: , was bedeutet, dass wir davon ausgehen können, dass unser Modell im Mittel korrekt ist. Hierbei nimmt man von der Datenmatrix an, dass sie vollen (Spalten-)Rang hat, das heißt, es gilt . Insbesondere ist dann eine reguläre, also invertierbare Matrix. Deshalb spricht man hier vom regulären Fall (s. Überschrift). Ferner nimmt man für die Kovarianzmatrix des Vektors der Störgrößen an, dass gilt. Die Gauß-Markow-Annahmen lassen sich im multiplen Fall also zusammenfassen als

wobei der Erwartungswert der Störgrößen der Nullvektor und die Kovarianzmatrix den Erwartungswert des dyadischen Produkts der Störgrößen

darstellt.

Diese Annahme ist die Homoskedastizitätsannahme im multiplen Fall. Durch obige Spezifikation des linearen Modells erhält man damit für den Zufallsvektor

.[5]

Durch diese Annahmen erhält man:

  1. Dass der Kleinste-Quadrate-Schätzer für den wahren Parametervektor , der lautet, ein minimalvarianter linearer erwartungstreuer Schätzer für ist.
  2. Dass die Kovarianzmatrix des Kleinste-Quadrate-Schätzers ist.
  3. Dass die geschätzte Varianz der Störgrößen ein erwartungstreuer Schätzer für die unbekannte Varianz der Störgrößen ist.

Minimalvarianter

Der minimalvariante, bzw. „der Beste“ Schätzer zeichnet sich dadurch aus, dass er die „kleinste“ Kovarianzmatrix (bzgl. der Loewner-Halbordnung) aufweist (ist somit minimalvariant). Ein Schätzer der diese Eigenschaft aufweist wird deshalb auch minimalvarianter oder effizienter Schätzer genannt. Bei zusätzlicher Annahme von Erwartungstreue spricht man auch vom minimalvarianten erwartungstreuen Schätzer.

Jeder Schätzer aus der Klasse der linearen erwartungstreuen Schätzer lässt sich darstellen als

(Linearität)

mit einer -Matrix . Ein Beispiel für einen Schätzer dieser Klasse ist der Kleinste-Quadrate-Schätzer .

Die Eigenschaft der Erwartungstreue besagt, dass die Schätzfunktion „im Mittel“ dem wahren Parametervektor entspricht

.

Unter den oben genannten Voraussetzungen gilt dann, für alle Vektoren , die Ungleichung:

(Effizienzeigenschaft),

wobei der Kleinste-Quadrate-Schätzer ist, also der Schätzer, der mittels der Kleinste-Quadrate-Schätzung ermittelt wurde. Diese Effizienzeigenschaft kann auch umgeschrieben werden in

oder

.[6]

Diese Eigenschaft wird positive Semidefinitheit genannt (siehe auch Kovarianzmatrix als Effizienzkriterium). Wenn also obige Ungleichung zutrifft, dann kann man sagen, dass besser ist als .

Linearität

Für den Kleinste-Quadrate-Schätzer gilt, dass er ebenfalls linear ist

.

Die obige Ungleichung besagt, dass nach dem Satz von Gauß-Markow ein bester (nämlich minimalvarianter) linearer erwartungstreuer Schätzer, kurz BLES[7] (englisch Best Linear Unbiased Estimator, kurz: BLUE) ist, also in der Klasse der linearen erwartungstreuen Schätzern die kleinste (Ko-)Varianz besitzt. Für diese Eigenschaft der Schätzfunktion braucht keine Verteilungsinformation der Störgröße vorzuliegen. Eine Steigerung der BLES-Eigenschaft stellt die sogenannte BES-Eigenschaft (BES für Bester erwartungstreuer Schätzer) dar, bei der die Beschränkung auf lineare Schätzer wegfällt. Oft stellt der Maximum-Likelihood-Schätzer eine Lösung dar, die BES ist. Tatsächlich ist der Kleinste-Quadrate-Schätzer bei normalverteilten Störgrößen ein Maximum-Likelihood-Schätzer und mit dem Satz von Lehmann-Scheffé kann die BES-Eigenschaft nachgewiesen werden.

Beweis

Gegeben, dass der wahre Zusammenhang durch ein lineares Modell beschrieben wird, gilt es den Kleinste-Quadrate-Schätzer mit allen anderen linearen Schätzern zu vergleichen. Um einen Vergleich anstellen zu können beschränkt man sich in der Analyse auf die Klasse der linearen und erwartungstreuen Schätzer. Jeder beliebige Schätzer dieser Klasse, neben dem Kleinste-Quadrate Schätzer , kann dargestellt werden als

mit .

Falls erhält man den Kleinste-Quadrate-Schätzer . Die Klasse aller linearen Schätzer ist somit gegeben durch

, wobei die Matrix gegeben ist durch

Nun gilt es Restriktionen für zu finden die sicherstellen, dass erwartungstreu für ist. Ebenfalls muss die Kovarianzmatrix von gefunden werden. Der Erwartungswert von ergibt

D. h. ist dann und nur dann erwartungstreu für , wenn , also gilt .

Es folgt für die Kovarianzmatrix von :

Daraus folgt

[8]

Diese Matrix wird immer positiv semidefinit sein, – unabhängig wie definiert ist – da eine Matrix multipliziert mit ihrer eigenen Transponierten immer positiv semidefinit ist.

Singulärer Fall, schätzbare Funktionen

Wir betrachten nun den sog. singulären Fall, d. h. es gilt . Dann ist auch nicht von vollem Rang, also nicht invertierbar. Der oben angegebene Kleinste-Quadrate-Schätzer existiert nicht. Man sagt, ist nicht schätzbar bzw. nicht identifizierbar.

Der singuläre Fall tritt dann ein, wenn , oder wenn nur in verschiedenen Regressoreinstellungen beobachtet wird, oder wenn lineare Abhängigkeiten in der Datenmatrix vorliegen.

Sei nun . Dann sind bestenfalls -dimensionale Linearformen linear und erwartungstreu schätzbar, wobei eine -Matrix ist.

Schätzbarkeitskriterium

mit einer -Matrix ist schätzbar genau dann, wenn es eine -Matrix gibt, so dass gilt, d. h. wenn jeder Zeilenvektor von eine Linearkombination der Zeilenvektoren von ist. Siehe z. B.[9]

Wesentlich eleganter kann das Schätzbarkeitskriterium mit Pseudoinversen formuliert werden. Dabei heißt Pseudoinverse von , wenn gilt.

mit einer -Matrix ist schätzbar genau dann, wenn . Dabei ist eine beliebige Pseudoinverse von . Siehe z. B.[10]

Beispiel

Für die quadratische Regressionsgleichung wurden Beobachtungen bei durchgeführt. Damit ergibt sich

.

Dann ist

schätzbar, weil die Zeilenvektoren von Linearkombinationen der Zeilenvektoren von sind. Beispielsweise ist der zweite Zeilenvektor von gleich der Differenz aus drittem und erstem Zeilenvektor von .

Hingegen ist

nicht schätzbar, weil sich keiner der Zeilenvektoren von als Linearkombination der der Zeilenvektoren von darstellen lässt.

Satz von Gauß-Markow im singulären Fall

Sei schätzbar. Dann ist

bester linearer erwartungstreuer Schätzer für , wobei eine beliebige Pseudoinverse zu ist.

Der Schätzer kann auch ohne Pseudoinverse ausgedrückt werden:

Dabei ist eine beliebige Lösung des Normalgleichungssystems .

Verallgemeinerte Kleinste-Quadrate-Schätzung

Die verallgemeinerte Kleinste-Quadrate-Schätzung (VKQ-Schätzung), die von Aitken[11] entwickelt wurde, erweitert der Satz von Gauß-Markow auf den Fall, bei dem der Vektor der Störgrößen eine nichtskalare Kovarianzmatrix hat, d. h. es gilt .[12] Der VKQ-Schätzer ist ebenfalls BLUE.

Siehe auch

Literatur

  • George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988

Einzelnachweise

  1. International Statistical Institute: Glossary of statistical terms.
  2. Ulrich Kockelkorn: Lineare statistische Methoden. De Gruyter 2018, ISBN 978-3-486-78782-5, S. 329 (abgerufen über De Gruyter Online).
  3. Ludwig von Auer: Ökonometrie. Eine Einführung. Springer, ISBN 978-3-642-40209-8, 6. durchges. u. aktualisierte Aufl. 2013, S. 49.
  4. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 5. Auflage. Nelson Education 2015, S. 24.
  5. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 202.
  6. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 203.
  7. International Statistical Institute: Glossary of statistical terms.
  8. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T.C. Lee. Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, Chichester, Brisbane, Toronto, Singapore, ISBN 978-0-471-62414-1, second edition 1988, S. 205.
  9. C. R. Rao, Helge Toutenburg, Shalabh, C. Heumann: Linear Models and Generalizations, Springer-Verlag 2008 (third edition)
  10. F. Pukelsheim: Optimal Design of Experiments, Wiley, New York 1993
  11. A. C. Aitken: On Least Squares and Linear Combinations of Observations. In: Proceedings of the Royal Society of Edinburgh. 55. Jahrgang, 1935, S. 42–48.
  12. David S. Huang: Regression and Econometric Methods. John Wiley & Sons, New York 1970, ISBN 0-471-41754-8, S. 127–147 (google.com).
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.