Markov Chain Monte Carlo Methoden - Thomas Plehn - E-Book

Markov Chain Monte Carlo Methoden E-Book

Thomas Plehn

0,0
18,99 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Masterarbeit aus dem Jahr 2007 im Fachbereich Mathematik - Stochastik, Note: 1.0, Universität Bielefeld, Sprache: Deutsch, Abstract: Wir beginnen mit einem sehr einfachen Beispiel: Denken wir an einen zufälligen Läufer in einer sehr kleinen Stadt, die nur aus vier Straßen besteht. Dabei werden die vier Straßenecken wie in der untenstehenden Abbildung mit v1, v2, v3 und v4 bezeichnet. Zum Zeitpunkt 0 steht der zufällige Läufer in der Ecke v1. Zum Zeitpunkt 1 wirft er eine faire Münze und entscheidet je nach Ausfall, ob er weiter nach v2 oder v4 geht. Zum Zeitpunkt 2 wirft er wieder eine faire Münze, um zu entscheiden, zu welcher benachbarten Ecke er gehen soll. Dabei verwendet er die Entscheidungsregel, wenn die Münze Kopf zeigt, einen Schritt im Uhrzeigersinn zu gehen und andernfalls, wenn die Münze Zahl zeigt, einen Schritt gegen den Uhrzeigersinn zu gehen. Diese Prozedur wird fortgeführt für die Zeiten 3, 4, usw.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Inhaltsverzeichnis
1 Grundlagen zu Markov-Ketten
1.1 Definition
1.4 Konvergenzsatz
2 Metropolis-Hastings Algorithmus
2.1 Allgemeine Beschreibung des Metropolis-Hastings Algorithmus
2.2 Implementierung des Metropolis-Algorithmus im Beispiel der Exponential-
3 Gibbs-Sampler
3.1 Allgemeine Beschreibung des Gibbs-Samplers
3.2 Implementierung des Gibbs-Sampler Beispiels
4 Approximate counting
4.1 Problemstellung
4.2 Existenz-Theorem
4.3 Beweis: erster Teil
4.4 Beweis: zweiter Teil
4.5 Implementierung
5 Literatur
6 Quelltexte
6.1 Metropolis-Hastings Algorithmus
6.2 Gibbs-Sampler
6.3 Approximate-Counting Algorithmus

Page 1

vorgelegt von:

Thomas Plehn

Page 5

und

Die Verteilung vonXnf¨ urn≥2 zu berechnen, setzt ein wenig mehr Nachdenken voraus. An dieser Stelle ist es sinnvoll, sich auf bedingte Wahrscheinlichkeiten zu beziehen. Nehmen wir an, dass der L¨ aufer zur Zeitnan der Eckev2steht. Dann erhalten wir die bedingten Wahrscheinlichkeiten

und

wegen des M¨ unzwurf-Mechanismus zur Entscheidung ¨ uber den n¨ achsten Schritt. Tats¨ achlich

erhalten wir dieselben bedingten Wahrscheinlichkeiten, wenn wir in den Bedingungen die vollst¨ andige Vergangenheit des Prozesses bis zur Zeitnber¨ ucksichtigen:

1

2 und

1

2

Dies gilt f¨ ur jede Wahl voni0, ..., in−1, vorausgesetzt, dass der Pfadi0, i1, ..., in−1eine positive Wahrscheinlichkeit besitzt. Dieses Ph¨ anomen wird die Ged¨ achnislosigkeits-Eigenschaft genannt, die auch als Markov-Eigenschaft bekannt ist: Die bedingte Verteilung vonXn+1gegeben (X0, ..., Xn) h¨ angt nur vonXnab. Eine andere interessante Eigenschaft dieses Zufallsprozesses besteht darin, dass die bedingte Verteilung vonXn+1, gegeben dass beispielsweiseXnv2, f¨ ur allendieselbe ist. Diese Eigenschaft heißt Zeit-Homogenit¨ at, oder einfach Homogenit¨ at. Derartige Prozesse lassen sich mit Hilfe sogenannter ¨ Ubergangsmatrizen beschreiben:

DefinitionSeiPeinek×kMatrix mit den Elementen{Pi,j:i, j..., k}.Ein Zufallsprozess (X0, X1, ...)mit endlichem ZustandsraumS{s1, ..., sk}heißt dann (homogene) Markovkette mit ¨ UbergangsmatrixP, wenn f¨ ur allen,allei, j∈ {1,..., k}und allei0, ..., in−1∈ {1,..., k}gilt:

Page 6

Zum Beispiel ist das Beispiel mit dem zuf¨ alligen L¨ aufer von oben eine Markovkette, mit dem Ereignisraum{1,...,4} und der ¨ Ubergangsmatrix

Jede ¨ Ubergangsmatrix erf¨ ullt dabei:

Pi,j≥0∀i,j∈ {1,..., k}

und

Die erste Eigenschaft bedeutet nur, dass alle bedingten Wahrscheinlichkeiten stets nichtnegativ sind und die zweite Eigenschaft besagt, dass sie sich zu 1 aufsummieren. Wir wenden uns nun einer anderen wichtigen Charakteristik von Markovketten zu, n¨ amlich der sogenannten Anfangsverteilung, die beschreibt, wie die Markovkette startet. Die Anfangsverteilung ist gegeben durch einen Zeilenvektorµ(0), der sich folgendermaßen zusammensetzt:

Daµ(0)eine Wahrscheinlichkeitsverteilung repr¨ asentiert, ergibt sich:

In unserem Beispiel mit dem zuf¨ alligen L¨ aufer gilt: