09 Hidden Markov Model Flashcards

1
Q

Markov-Bedingung: Beschränkter Horizont

A

Die Wahrscheinlichkeit einen Zustand zu erreichen ist nur von seinem direkten Vorgängerzustand abhängig

P(q_{t+1} = S_j | q_t = S_i, q_{t-1} = S_k, … )
= P(q_{t+1} = S_j | q_t = S_i)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Zeitinvarianz

A

Die Wahrscheinlichkeit eines Zustandsübergangs ist unabhängig von der Zeit

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Hidden Markov Modelle (HMM)

A

Bisherige Annahme:
Ereignisse (Zustände) sind direkt beobachtbar

Erweiterung (HMM):
Beobachtung ist eine stochastische Funktion des Zustands –> Zustände können nur indirekt beobachtet werden.

HMM beschreibt einen doppelt stochastischen Prozess:
Der zugrunde liegende stochastische Prozess kann nur indirekt durch eine andere Menge von stochasitschen Prozessen beobachtet werden, die eine Beobachtungssequenz produziert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

3 grundlegende Probleme HMM

A

Evaluationsproblem:

  • gegeben: Modell lamda = {S,V,A,B,π}
  • gesucht: Wahrschienlichkeit P(O | lamda) für die Ausgabe O = o_1, o_2, …, o_T
  • Bedeutung: Wie gut erklärt ein Modell eine Beobachtungssequenz?
  • vorwärtsalgorithmus, rückwärtsalgorithmus

Dekodierungsproblem:

  • Gegeben: Ausgabesequenz = und Modell lamda
  • Gesucht: Wahrscheinlichste Zustandsfolge Q, die O erklärt
  • Bedeutung: Finden der “korrekten” (verborgenen) Zustandssequenz
  • Viterbi-Algorithmus

Lern- oder Optimierungsproblem

  • geg.: Ausgabesequenz(en) O und ein Suchraum für Modelle
  • Ges.: Anpassung der Parameter lamda, s.d. O besser erklärt wird
  • Bedeutung: Optimierung der Modellparameter (Training)
  • kein analytischer Lösungsweg bekannt –> baum-welch-algorithmus
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Baum-Welch-Algorithmus : Bewertung

A

Es gilt:
P(O | lamda-neu) ≥ P(O | lamda)

Damit verbessert sich das Modell auf der Menge der Trainingsdaten

Realisiert EM (Expectation Maximization) Ansatz

Training wird abgebrochen, wenn nur noch minimale Verbesserungen

Es kann kein globales Maximum garantiert werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Arten von HMM

A

Ergodisches Modell:
* jeder Zustand kann von jedem anderen Zustand aus in einer endlichen Anzahl von Schritten erreicht werden

Barkis-Modell (Links-nach-rechts-modell):

  • der Zustandsindes wird mit der Zeit größer oder bleibt gleich
  • auch mit parallelen Pfaden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Einordnung HMM

A
Typ der Inferez: induktiv 
Ebene des Lernens: subsymbolisch 
Lernvorgang: überwacht 
Beispielgebung: nicht inkrementell 
Umfang der Beispiele: umfangreich 
Hintergrundwissen: empirisch
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Anwendungsbereiche HMM

A

überall dort, wo man zugrunde liegende stochastische Prozesse nur indirekt (zusätzliche stochasitsche Prozesse) beobachten (erfassen) kann …

  • spracherkennung
  • gestenerkennung zB Robotik
  • autonome Fahrzeuge Ampelzustandsschätzung
  • bioinformatik
How well did you know this?
1
Not at all
2
3
4
5
Perfectly