Stationärer stochastischer Prozess

Ein stationärer stochastischer Prozess ist ein stochastischer Prozess mit speziellen Eigenschaften und damit Untersuchungsobjekt der Wahrscheinlichkeitstheorie. Man unterscheidet stochastische Prozesse,

  • die stationär im engeren Sinn (auch strikt, streng oder stark stationär) sind, und solche,
  • die stationär im weiteren Sinn (auch schwach stationär) sind.

Bei beiden Typen von Prozessen besitzen die endlichdimensionalen Verteilungen des Prozesses bestimmte zeitunabhängige Eigenschaften. Diese beziehen sich bei der Stationarität im engeren Sinn auf die gesamte Verteilungsgestalt und bei der Stationarität im weiteren Sinn nur auf die ersten beiden Momente der endlichdimensionalen Verteilungen. Für Gauß-Prozesse, deren sämtliche endlichdimensionalen Verteilungen multivariate Normalverteilungen sind, fallen die beiden Konzepte zusammen.

Definition

Zeitreihe von Residuen, für dessen zugrundeliegenden Prozess durch eine Dickey-Fuller-Test die Hypothese der Stationarität abgelehnt wird.

Im Folgenden bezeichnet einen reellwertigen stochastischen Prozess mit Indexmenge . Dabei ist häufig die Menge der ganzen, der natürlichen oder der reellen Zahlen. Häufig ist ein Zeitindex und eine Menge von Zeitpunkten.

Stationarität im engeren Sinn

Ein stochastischer Prozess mit heißt stationär im engeren Sinn (auch strikt, streng oder stark stationär), falls alle endlichdimensionalen Verteilungen translationsinvariant sind, d. h. für beliebige , beliebige Stellen (Zeitpunkte) und alle Verschiebungen mit gilt, dass die Zufallsvektoren (die endlichen Teilfamilien) und dieselbe Wahrscheinlichkeitsverteilung haben.[1]

Stationarität im weiteren Sinn

Ein stochastischer Prozess heißt stationär im weiteren Sinn[1] oder schwach stationär, wenn

  1. die Varianzen aller Zufallsvariablen endlich sind, d. h. für alle gilt ,
  2. die Erwartungswertfunktion konstant ist, d. h. für alle gilt ,
  3. die Kovarianzfunktion translationsinvariant ist, d. h. für alle und alle Verschiebungen mit gilt
.

Dabei bezeichnen und den Erwartungswert und die Varianz einer Zufallsvariablen und bezeichnet die Kovarianz der Zufallsvariablen und .

Anmerkungen

  • Die Kovarianzfunktion wird auch als Autokovarianzfunktion bezeichnet.
  • Mit einem stationären Prozess ohne zusätzliche Spezifikation kann je nach inhaltlichem Kontext und Autor ein im engeren Sinn stationärer Prozess[2] oder ein im weiteren Sinn stationärer Prozess[3] gemeint sein.
  • Die beiden Konzepte der Stationarität können formal analog für allgemeinere Indexmengen definiert werden, auf denen eine binäre Operation erklärt ist.
  • Der Begriff der Kovarianzstationarität wird in der Literatur uneinheitlich verwendet. Meistens heißt ein Prozess kovarianzstationär, wenn die Kovarianzfunktion translationsinvariant ist, aber die Erwartungswertfunktion nicht notwendig konstant ist.[4] Bei einigen Autoren wird kovarianzstationär synonym mit stationär im weiteren Sinn verwendet, so dass die Konstanz der Erwartungswertfunktion impliziert ist.[5]

Eigenschaften

  • Ein stochastischer Prozess, dessen Zufallsvariablen insgesamt stochastisch unabhängig und identisch verteilt sind, ist stationär im engeren Sinn. Wegen der stochastischen Unabhängigkeit existieren die höherdimensionalen Verteilungen in elementarer Form, nämlich als Produktverteilungen der eindimensionalen Verteilungen, also z. B.
für die zweidimensionalen Verteilungen, wobei die Verteilungsfunktion jeder eindimensionalen Verteilung ist. Also sind alle zweidimensionalen Verteilungen zeitunabhängig. Für drei voneinander verschiedene Zeitpunkte und gilt
,
so dass auch die dreidimensionalen Verteilungen zeitunabhängig sind. Analoges gilt für alle endlichdimensionalen Verteilungen, so dass die Stationarität im engeren Sinn folgt.
  • Ein stochastischer Prozess, dessen Zufallsvariablen paarweise unkorreliert und identisch verteilt sind, ist stationär im weiteren Sinn.
  • Ein stochastischer Prozess der stationär im engeren Sinn ist, ist nicht notwendig auch stationär im weiteren Sinn. Dies hängt damit zusammen, dass eine im weiteren Sinn stationärer Prozess endliche Varianzen besitzen muss, was für einen im engeren Sinn stationären Prozess nicht gilt. Beispielsweise bildet eine Folge stochastisch uanbhängiger identisch Cauchy-verteilter Zufallsvariablen einen im engeren Sinn stationären stochastischen Prozess, der aber nicht im weiteren Sinn stationär ist, da eine Cauchy-verteilte Zufallsvariable keine endliche Varianz besitzt.
  • Ein stochastischer Prozess der stationär im weiteren Sinn ist, muss nicht notwendig stationär im engeren Sinn sein. Die Stationarität im engeren Sinn bezieht sich nur auf die ersten und zweiten Momente des Prozesses. Beispielsweise die dritten Momente oder andere Eigenschaften der Verteilung können sich im Zeitablauf ändern. Wenn eine Zufallsvariable eine Gleichverteilung im Intervall hat, dann gilt und . sei eine Folge stochastisch unabhängiger Zufallsvariablen, wobei für standardnormalverteilt ist und für eine Gleichverteilung auf besitzt, dann ist dieser Prozess stationär im weiteren Sinn, aber nicht stationär im engeren Sinn.
  • Ein Gauß-Prozess ist genau dann stationär im engeren Sinn, wenn er stationär im weiteren Sinn ist. Dies rechtfertigt es, im Zusammenhang von Gauß-Prozessen nur von stationär zu sprechen.
  • Ein Gauß-Prozess, dessen Zufallsvariablen paarweise unkorreliert und identisch verteilt sind, ist ein stationärer Gaußprozess, da für multivariate Normalverteilungen aus der Unkorreliertheit die stochastische Unabhängigkeit folgt.
  • Ein stochastischer Prozess identisch normalverteilter Zufallsvariablen, die paarweise unkorreliert sind, ist stationär im weiteren Sinn, aber nicht notwendig stationär im engeren Sinn und nicht notwendig ein Gauß-Prozess.

Interpretation der Stationarität im weiteren Sinn

Die erste Eigenschaft besagt, dass jede der Zufallsvariablen endliche Varianz hat und somit zu dem Hilbertraum gehört. Hieraus folgt dann auch, dass der Erwartungswert existiert und endlich ist. Mit der Konstanz der Erwartungswertfunktion kann man zu einem neuen Prozess übergehen, für den dann gilt. Dieser Prozess wird auch zentrierter Prozess genannt. Man kann also für viele Zwecke ohne Beschränkung der Allgemeinheit annehmen, ein stationärer stochastischer Prozess habe den Mittelwert 0. Die Zeitinvarianz der Kovarianzfunktion stellt eine Beziehung zwischen unterschiedlichen Zeitpunkten her und ist damit die bedeutendste Eigenschaft. Sie sagt aus, dass die Kovarianzen zwischen zwei Zeitpunkten nicht von den beiden Zeitpunkten, sondern nur von dem Abstand der beiden Zeitpunkte zueinander abhängt. Die Bedingung kann auch so formuliert werden, dass eine Funktion nur einer einzigen Variablen ist.

Eine geometrische Interpretation des univariaten Falles greift auf den Hilbertraum zurück, dessen Elemente die einzelnen Zufallsvariablen des Prozesses sind. Die geometrische Interpretation unterstützt das tiefere Verständnis des Begriffs der Stationarität. Es wird angenommen, dass die Erwartungswertfunktion konstant Null ist. Da eine Norm in ist, kann die Forderung so verstanden werden, dass alle Prozessvariablen gleich lang sind, d. h. auf einer Kugel liegen. sagt dann, obiger Interpretation folgend, dass für festes alle den gleichen Winkel einschließen. Erhöht man um Eins, so wird immer um denselben Winkel weitergedreht. Die Konstanz der Erwartungswertfunktion bedeutet , dass also der Winkel zwischen der Einheit und jeder Prozessvariablen konstant ist. Hier wird ein Breitengrad aus der Einheitskugel ausgeschnitten.

Beispiele

Anwendungen

Zeitreihenanalyse

Stationarität ist eine der bedeutendsten Eigenschaften stochastischer Prozesse in der Zeitreihenanalyse. Mit der Stationarität erhält man Eigenschaften, die nicht nur für einzelne Zeitpunkte gelten, sondern Invarianzen über die Zeit hinweg sind. Die Zeitreihe hat zu allen Zeitpunkten den gleichen Erwartungswert und die gleiche Varianz. Eine wichtige Klasse von nichtstationären Prozessen sind integrierte Prozesse.

In der Zeitreihenanalyse ist eine wichtige Fragestellung, eine nichtstationäre Zeitreihe so zu transformieren, dass die Stationärität für die transformierte Zeitreihe plausibel wird. Weit verbreitete Methoden sind hier die Bildung von Differenzen, das Umskalieren oder das Logarithmieren der Zeitreihe. Allgemeiner kann man versuchen, eine stationäre Zeitreihe zu erhalten, indem man ein geeignetes Trend-Saison-Modell verwendet.

Wahrscheinlichkeitstheorie

Stationäre stochastische Prozesse in diskreter Zeit, die als kanonische Prozesse gegeben sind, lassen sich als maßerhaltendes dynamisches System auffassen. Dazu definiert man den Shift-Operator als

.

Dann ist und der Prozess entsteht durch iterierte Anwendung von . Somit handelt es sich um ein dynamisches System, das aufgrund der Stationarität maßerhaltend ist. Darauf aufbauend lassen sich auch ergodische stochastische Prozesse definieren, für die wichtige Sätze der Ergodentheorie wie beispielsweise der individuelle Ergodensatz gelten und damit starke Gesetze der großen Zahlen für abhängige Folgen von Zufallsvariablen liefern.

Literatur

  • Peter J. Brockwell, Richard A. Davis: Time Series: Theory and Methods. 2. Auflage. Springer, New York 1991, ISBN 0-387-97429-6, doi:10.1007/978-1-4419-0320-4.
  • G. E. P. Box, G. M. Jenkins: Times Series Analysis: Forecasting and Control. 3. Auflage, ISBN 0-13-060774-6
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Stationärer Prozess, S. 368–372.

Fußnoten

  1. P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Stationärer Prozess, S. 368.
  2. Heinz Bauer: Wahrscheinlichkeitstheorie. 5. Auflage. Walter de Gruyter, Berlin / New York 2002, ISBN 3-11-017236-4, S. 383.
  3. Peter J. Brockwell, Richard A. Davis: Time Series: Theory and Methods. 2. Auflage. Springer, New York 1991, ISBN 0-387-97429-6, S. 11, doi:10.1007/978-1-4419-0320-4.
  4. Gebhard Kirchgässner, Jürgen Wolters, Uwe Hassler: Introduction to Modern Times Series Analysis. 2. Auflage. Springer, Berlin / Heidelberg 2012, ISBN 978-3-642-33435-1, S. 14, doi:10.1007/978-3-642-33436-8.
  5. James D. Hamilton: Time Series Analysis. Princeton University Press, Princeton 1994, ISBN 978-0-691-04289-3, S. 45.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.