Stichprobenkovarianz

Die Stichprobenkovarianz oder empirische Kovarianz (oft auch einfach Kovarianz (von lateinisch con- = „mit-“ und Varianz von variare = „(ver)ändern, verschieden sein“)) ist in der Statistik eine nichtstandardisierte Maßzahl für den (linearen) Zusammenhang zweier statistischer Variablen. Die korrigierte Stichprobenkovarianz ist eine erwartungstreue Schätzung der Kovarianz einer Grundgesamtheit mittels einer Stichprobe.

Ist die Kovarianz positiv, dann gehen kleine Werte der einen Variable überwiegend einher mit kleinen Werten der anderen Variable und gleichfalls für große Werte. Für eine negative Kovarianz ist das genau umgekehrt.

Definition

Ist eine Datenreihe (Stichprobe) zweier statistischer Variablen und , dann ist die Stichprobenkovarianz definiert als „durchschnittliches Abweichungsprodukt

mit den arithmetischen Mitteln und der Datenreihen und .

Die Stichprobenkovarianz misst die gemeinsame Streuung („Mitstreuung“) der Beobachtungsdaten einer Stichprobe. Dabei wird die mittlere Abweichung der Beobachtungsdaten von den Mittelwerten berechnet.

Korrigierte Stichprobenkovarianz

Um aus einer Stichprobe eine Schätzung der unbekannten Kovarianz der Grundgesamtheit zu erhalten wird die korrigierte Stichprobenkovarianz genutzt:

Bei einer einfachen Zufallsstichprobe haben die Stichprobenvariablen und die Kovarianz . Unter Annahme einer zweidimensionalen Normalverteilung der Stichprobenvariablen und mit Hilfe der Maximum-Likelihood-Methode ergibt sich die Schätzfunktion

.

Es stellt sich jedoch heraus, dass der Erwartungswert ist, d. h. die Schätzfunktion ist nicht erwartungstreu (also verzerrt) für .

Die korrigierte Stichprobenkovarianz ist jedoch unverzerrt. Im Rahmen der induktiven Statistik wird daher immer die korrigierte Stichprobenkovarianz verwendet.

Auswahl der Berechnungsformel

Der Kovarianz kann, gemäß ihrer Definition, mit der Gleichung

aus einer Datenreihe berechnet werden. Diese Formel wird verwendet, wenn die Werte und einen vollständigen Datensatz beschreiben und die wahren Mittelwerte und der beiden Zufallsvariablen bekannt oder ausreichend bekannt sind. Oft liegt jedoch nur eine Stichprobe mit einer reduzierten Anzahl von Messwerten vor, mit denen die Kovarianz nur geschätzt werden kann. Wenn dabei die Mittelwerte aus dem arithmetischen Mittel gebildet werden, liefert die obige Formel systematisch zu kleine Werte. Daher verwendet man insbesondere bei sehr wenigen Messwerten die Formel der korrigierten Stichprobenkovarianz

welche die Kovarianz zumindest erwartungstreu schätzt.

In manchen Fällen sind einzelne Messwerte der Stichprobe unterschiedlich über- oder unterrepräsentiert oder die Messwerte haben unterschiedliche Auftrittswahrscheinlichkeiten. In einem solchen Fall kann mit der erweiterten Formel

jedem Messwert zum Ausgleich ein individuelles Gewicht zugeordnet werden. Wenn die Gewichte zur Korrektur von relativen Häufigkeiten verwendet werden, dann ist die erwartungstreue Normierung

zu verwenden. Bei Gewichten, die eine Wahrscheinlichkeit angeben, mit der das Wertepaar in einer Stichprobe zu finden ist, muss dagegen mit

normiert werden. Die Mittelwerte und werden dabei mit den jeweiligen Gewichten gebildet:

, .

Eigenschaften

Siehe auch: Kovarianz (Stochastik)#Eigenschaften und Rechenregeln

Beziehung zur Varianz

Die Kovarianz ist eine Erweiterung der Varianz, denn es gilt

  • bzw.
  • .

Dabei ist und die empirischen Varianzen mit passendem Vorfaktor. Das heißt, die Varianz ist die Kovarianz einer Variable mit sich selbst.

Verschiebungssatz

Der Verschiebungssatz liefert eine alternative Darstellung der Kovarianz

  • .
  • .

Diese Formeln ermöglichen in vielen Fällen eine einfachere Berechnung der Kovarianz. Bei numerischer Rechnung muss dabei allerdings auf unerwünschte Stellenauslöschung bei der Subtraktion großer Zahlen geachtet werden.

Symmetrie und Linearität

Die Kovarianz ist linear und symmetrisch, d. h. es gilt:

Symmetrie
Beim Vertauschen der Rollen von und ergibt sich der gleiche Wert für die Kovarianz:
  • bzw.
Linearität
Wird eine der Variablen einer linearen Transformation unterzogen, z. B. , so gilt
  • bzw.
Wegen der Symmetrie ist die Kovarianz auch im zweiten Argument linear.

Die Linearität der Kovarianz hat zur Folge, dass die Kovarianz von der Maßeinheit der Variablen abhängt. So erhält man beispielsweise die zehnfache Kovarianz, wenn man anstatt die Variable betrachtet. Da diese Eigenschaft die absoluten Werte der Kovarianz schwer interpretierbar macht, betrachtet man häufig stattdessen den maßstabsunabhängigen Korrelationskoeffizienten.

Beispiele

Beispiel 1

Die folgende Grafik zeigt für 21 verschiedene Datensätze jeweils das Streudiagramm zusammen mit der Kovarianz und der Korrelation des Datensatzes. Die erste Reihe zeigt sieben Datensätze mit unterschiedlich starkem linearen Zusammenhang, wobei die Korrelation von +1 über 0 nach −1 geht. Da die Kovarianz ein nicht-standardisiertes Maß ist, geht sie von +2 auf Null bis auf −2. D.h., wenn es keinen linearen Zusammenhang gibt, dann ist die Kovarianz genauso Null wie die Korrelation. Das Vorzeichen der Kovarianz zeigt die Richtung des Zusammenhangs an; jedoch zeigt sie nicht die Stärke des Zusammenhangs.

Noch deutlicher wird es in der zweiten Zeile, wo alle sieben Datensätze einen perfekten linearen Zusammenhang haben. Doch die Kovarianz nimmt ab auf Null und wird dann negativ. Die Korrelation ist für diese Datensätze entweder +1 oder −1 (bzw. undefiniert). Die dritte Zeile zeigt schließlich, dass sowohl die Kovarianz als auch die Korrelation Null ist, obwohl ein deutlicher Zusammenhang zwischen beiden Variablen sichtbar ist. D.h. die Kovarianz misst nur den linearen Zusammenhang und nicht-lineare Zusammenhänge werden nicht erkannt.

Kovarianz 
  
    
      
        
          s
          
            x
            y
          
        
      
    
    {\displaystyle s_{xy}}
  
 und Korrelation 
  
    
      
        
          r
          
            x
            y
          
        
      
    
    {\displaystyle r_{xy}}
  
 für unterschiedliche Datensätze.
Kovarianz und Korrelation für unterschiedliche Datensätze.

Beispiel 2

In einer Schule soll überprüft werden, ob es einen Zusammenhang gibt zwischen der Anzahl der unterrichteten Stunden der Lehrer am Tag und der Anzahl der getrunkenen Tassen Kaffee. Es wurden zehn Datenpaare erhoben und ausgewertet (so nicht durchgeführt, nur der Anschauung halber!):

Nummer12345678910
Anzahl Stunden ()5684665754
Anzahl Tassen ()2141202331

Die Kovarianz wird nun folgendermaßen berechnet:
a.) Zunächst wird das arithmetische Mittel beider Variablen ermittelt:

und

b.) Die Kovarianz wird nun berechnet über:

Da die Kovarianz größer als null ist, ist für diese Stichprobe ein positiver Zusammenhang zwischen der Anzahl der Unterrichtsstunden und der Anzahl der Tassen Kaffee ersichtlich. Ob dies auf die Grundgesamtheit, hier das Lehrerkollegium, generalisierbar ist, hängt von der Qualität der Stichprobe ab.

Stichproben-Kovarianzmatrix

Gegegeben ist eine Datenmatrix

mit Stichproben zu Variablen, das heißt: in Reihe ist die Stichprobe . Die Stichproben-Kovarianzmatrix wird in diesem Fall die Dimension besitzen.

Eine Schätzung der Kovarianzmatrix in der Grundgesamtheit erhält man, indem man die Varianzen und Kovarianzen in der Grundgesamtheit und durch die empirischen Varianzen und empirischen Kovarianzen (ihre empirischen Gegenstücke) und ersetzt (sofern die -Variablen Zufallsvariablen darstellen schätzen die die Parameter in der Grundgesamtheit). Diese sind gegeben durch[1][2]

und .

Dies führt zur Stichproben-Kovarianzmatrix :

.

Zum Beispiel sind und gegeben durch

und ,

mit dem arithmetischen Mittel

.

Beispiel

Bei 10 Datenpunkten seien jeweils die Werte und gemessen worden:

Messwerte
1,01,41
2,01,56
2,02,19
4,02,79
5,03,04
6,02,23
9,03,74
9,03,84
9,02,80
13,04,18

Die Berechnung des geschätzten Mittelwertes ergibt: , ,  ; , .

Daher ist die Stichprobenkovarianzmatrix .

In Bezug auf den Mittelpunkt der Punktwolke kann im Diagramm eine Konzentrationsellipse eingezeichnet werden. Die Punkte auf dem Rand der Ellipse sind also durch folgende Menge gegeben:

.

Siehe auch

Einzelnachweise

  1. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 648.
  2. Rencher, Alvin C., und G. Bruce Schaalje: Linear models in statistics., John Wiley & Sons, 2008., S. 156.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.