18,99 €
Masterarbeit aus dem Jahr 2007 im Fachbereich Mathematik - Stochastik, Note: 1.0, Universität Bielefeld, Sprache: Deutsch, Abstract: Wir beginnen mit einem sehr einfachen Beispiel: Denken wir an einen zufälligen Läufer in einer sehr kleinen Stadt, die nur aus vier Straßen besteht. Dabei werden die vier Straßenecken wie in der untenstehenden Abbildung mit v1, v2, v3 und v4 bezeichnet. Zum Zeitpunkt 0 steht der zufällige Läufer in der Ecke v1. Zum Zeitpunkt 1 wirft er eine faire Münze und entscheidet je nach Ausfall, ob er weiter nach v2 oder v4 geht. Zum Zeitpunkt 2 wirft er wieder eine faire Münze, um zu entscheiden, zu welcher benachbarten Ecke er gehen soll. Dabei verwendet er die Entscheidungsregel, wenn die Münze Kopf zeigt, einen Schritt im Uhrzeigersinn zu gehen und andernfalls, wenn die Münze Zahl zeigt, einen Schritt gegen den Uhrzeigersinn zu gehen. Diese Prozedur wird fortgeführt für die Zeiten 3, 4, usw.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Page 1
vorgelegt von:
Thomas Plehn
Page 5
und
Die Verteilung vonXnf¨ urn≥2 zu berechnen, setzt ein wenig mehr Nachdenken voraus. An dieser Stelle ist es sinnvoll, sich auf bedingte Wahrscheinlichkeiten zu beziehen. Nehmen wir an, dass der L¨ aufer zur Zeitnan der Eckev2steht. Dann erhalten wir die bedingten Wahrscheinlichkeiten
und
wegen des M¨ unzwurf-Mechanismus zur Entscheidung ¨ uber den n¨ achsten Schritt. Tats¨ achlich
erhalten wir dieselben bedingten Wahrscheinlichkeiten, wenn wir in den Bedingungen die vollst¨ andige Vergangenheit des Prozesses bis zur Zeitnber¨ ucksichtigen:
1
2 und
1
2
Dies gilt f¨ ur jede Wahl voni0, ..., in−1, vorausgesetzt, dass der Pfadi0, i1, ..., in−1eine positive Wahrscheinlichkeit besitzt. Dieses Ph¨ anomen wird die Ged¨ achnislosigkeits-Eigenschaft genannt, die auch als Markov-Eigenschaft bekannt ist: Die bedingte Verteilung vonXn+1gegeben (X0, ..., Xn) h¨ angt nur vonXnab. Eine andere interessante Eigenschaft dieses Zufallsprozesses besteht darin, dass die bedingte Verteilung vonXn+1, gegeben dass beispielsweiseXnv2, f¨ ur allendieselbe ist. Diese Eigenschaft heißt Zeit-Homogenit¨ at, oder einfach Homogenit¨ at. Derartige Prozesse lassen sich mit Hilfe sogenannter ¨ Ubergangsmatrizen beschreiben:
DefinitionSeiPeinek×kMatrix mit den Elementen{Pi,j:i, j..., k}.Ein Zufallsprozess (X0, X1, ...)mit endlichem ZustandsraumS{s1, ..., sk}heißt dann (homogene) Markovkette mit ¨ UbergangsmatrixP, wenn f¨ ur allen,allei, j∈ {1,..., k}und allei0, ..., in−1∈ {1,..., k}gilt:
Page 6
Zum Beispiel ist das Beispiel mit dem zuf¨ alligen L¨ aufer von oben eine Markovkette, mit dem Ereignisraum{1,...,4} und der ¨ Ubergangsmatrix
Jede ¨ Ubergangsmatrix erf¨ ullt dabei:
Pi,j≥0∀i,j∈ {1,..., k}
und
Die erste Eigenschaft bedeutet nur, dass alle bedingten Wahrscheinlichkeiten stets nichtnegativ sind und die zweite Eigenschaft besagt, dass sie sich zu 1 aufsummieren. Wir wenden uns nun einer anderen wichtigen Charakteristik von Markovketten zu, n¨ amlich der sogenannten Anfangsverteilung, die beschreibt, wie die Markovkette startet. Die Anfangsverteilung ist gegeben durch einen Zeilenvektorµ(0), der sich folgendermaßen zusammensetzt:
Daµ(0)eine Wahrscheinlichkeitsverteilung repr¨ asentiert, ergibt sich:
In unserem Beispiel mit dem zuf¨ alligen L¨ aufer gilt: