Erkennung Flashcards
Unterschied Computer Vision und Computergrafik
- Computer Vision: Wie erkennt man aus dem digitalen Bild das Objekt?
- Computergrafik: Wie stelle ich das Objekt digital dar?
Bayes Decision Theory Konzepte
- a priori Wahrscheinlichkeit
- bedingte Wahrscheinlichkeit
- a posteriori Wahrscheinlichkeit
Appearance-Based Methods zur Gesichtsdetektion/Objekterkennung
- Prinzip:
-> Erscheinungsmodell aus großen Sammlungen von Bildern lernen
-> am Häufigsten Sliding Window Ansatz
-> Jedes Fenster als “Gesicht” oder “kein Gesicht” klassifizieren - 3 Aspekte:
-> Repräsentation des Objektes
-> Trainingsdaten (positive und negative)
-> Klassifikator und Lernmethode
Sliding Window Approach
- Suchstrategie für Objekterkennung
- Eingabebild wird in Ein-Pixel-Schritten horizontal und vertikal gescannt
- Das Bild wird um einen Faktor verkleinert
- Wiederholung von 1. und 2. bis das Bild zu klein ist
Erkennungsarten
- Verifikation
-> Analyse der biometrischen Merkmale und Überprüfung, ob diese zum Referenzmerkmalsdatensatz gehören - Identifikation
-> Abgleich mit Personen in Datenbank
Bayes Decision Theory Konzepte: A priori Wahrscheinlichkeit
Gibt eine merkmalsunabhängige Auftrittswahrscheinlichkeit der Klasse Ci
Bayes Decision Theory Konzepte: Bedingte/Likelihood-Wahrscheinlichkeit
Gibt die Wahrscheinlichkeit, dass bei der Klasse Ci das Merkmal x beobachtbar ist
Bayes Decision Theory Konzepte: A Posteriori Wahrscheinlichkeit
Gibt die Wahrscheinlichkeit, dass ein Merkmal x zur Klasse Ci gehört
Objekterkennung Wichtige Komponenten der Beschreibung
- lokale Beschreibung / Merkmale
- globale Anordnung der lokalen Merkmale
Entscheidungsgrenze Bayes Decision Theory
Dort wo:
p(x|a) = p(x|b)
p(x|a)P(a) = p(x|b)P(b)
p(a|x) = p(b|x)
Bayes Theorem (Formel a posteriori Wahrscheinlichkeit)
P(x|Ck)*P(Ck) / P(x)
Bayes Entscheidungsregel
P(C1|x) > P(C2|x)
ist äquivalent zu
P(x|C1)P(C1) > P(x|C2)P(C2)
das ist äquivalent zu Likelihood Ratio Test
P(x|C1)/P(C2) > P(C2) > P(C1) = lamda
Naive Bayes
- Untersuchung bei mehr Merkmalen
- Annahme, dass alle Merkmale statistisch unabhängig sind
-> oft nicht richtig, ergibt aber gute Ergebnisse