Markov-Ketten Flashcards
Markovkette - Definition
Übergansmatrix einer Markovkette - Definition
stochastische Matrix - Definition
Was gilt für eine Übergangsmatrix einer Markovkette auf einem endlichen Zustandsraum?
Sie ist stochastisch
Was gilt für eine stochastische Matrix P?
- Zu jeder stochastischen Matrix P existiert eine Markovkette mit Übergangsmatrix P.
- Die Potenz P^n ist ebenfalls stochastisch
Was gilt für die Überganswahrscheinlichkeiten in P^n von einer Übergangsmatrix P einer Markovkette mit endlichem Zustandsraum?
Startverteilung - Defintion
Wie kann man die Verteilung von X_n berechnen mit der Startverteilung
Invariante Verteilung - Definition
Eigenschaften einer invarianten Verteilung
Wann existiert immer immer eine invariante Verteilung für eine Markovkette?
Wenn die Markovkette einen endlichen Zustandsraum S besitzt.
Wie kann man invariante Verteilungen bestimmen?
Pfad in Markovkette - Definition
irrduzibel - Definition
invariante Verteilung auf irreduzible Markov-Kette - Theorem