Seminare Flashcards

1
Q

Zeitreihen Def

A
  • Gegeben sei eine Folge Events/forensische Beobachtungen
  • Jedes Event wird einer endlichen Symbol-/Indexmenge zugeordnet
  • wie viel Zeit vergangen ist, ist irrelevant, geht nur um Ablauf/Reihenfolge
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Zeitreihenvergleich Def

A
  • Vgl. zweier Wörter
  • Hamming-Abstand: Anzahl unterschiedl. Events/Symbole zwischen 2 gleichlangen Wörtern
  • Levenstein Algorithmus/Ablauf: Anzahl unterschiedlciher Events/Symbole zwischen 2 ungleichlangen Wörtern
  • Wörter entsprechen Abfolge der Indexmengen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Plausibilität im quantitativen Sinne

A
  • f(H) → f(H, D) (a posteriori)
  • D = Beobachtungen / Daten f(H) = Plausibilität
  • man hat 2 Hypothesen. Frage: welche Hypothese ist wie plausibel? wir aktualisieren unser Vorabwissen, was ist plausibel
  • H1/H2 -> sind etwa 50/50 (apriori) -> X: Daten/Beobachtung => damit können wir unser aprioriwissen aktualisierien
    -> wohin verschiebt sich Plausibilität?
    -> P(h1|X) über Bayes (für die Aktualisierung des a priori wissens)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Was ist ein Modell?

A

Abbildung (Reflektion) unseres Grundverständinisses über die natürliche Realität/Ist nicht Realität, bildet sie nur ab
-> mathematische Struktur

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Arten von Modellen

A

nicht linguistisch
* materielles
* graphisches

linguistisch
* Kalkülmodelle
-> Prädikaten Logik: es ist dies und jenes gegeben, also gilt das
* mathematisch
-> modellhafte Reduktion der Sprache
-> progosefähig
-> z.B.: Semantik, phys. Formeln, Fallsimulation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Eigenschaften mathematischer Modelle

A
  • formelle Repräsentation eines Systems
  • zweckmäßige Vereinfachung
    -> berechenbar

Mathematische Modelle können in verschiedene Klassen unterteilt werden.

  • Dynamisches Modell
    -> Zustandsgrößen und Signale hängen von der Zeit ab. Gegenteil: statisches Modell.
  • Deterministisches Modell
    -> Zu jedem Zeitpunkt sind die Zustandsgrößen und Signale eindeutig bestimmt. Gegenteil: stochastisches Modell; Größen können zufällige Werte annehmen.
  • Diskretes Modell
    -> Werte der Zustandsgrößen sind nur für diskrete Zeitpunkte, etwa t∈N , erklärt. Zusätzlich kann auch die Wertemenge diskret (abzählbar) sein. Gegenteil: kontinuierliches Modell; Werte sind für t∈[a,b]⊂R+ erklärt.”
  • Bei der Modellbildung lassen sich folgende Prozesse differenzieren:
    1. Abgrenzung - Nichtberücksichtigung irrelevanter Objekte
    2. Reduktion - Weglassen von Objektdetails
    3. Dekomposition- Zerlegung, Auflösung in einzelne Segmente
    4. Aggregation - Vereinigung von Segmenten zu einem Ganzen
    5. Abstraktion - Begriffs- bzw. Klassenbildung.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Aufgaben mathematischer Modelle

A
  • Beschreibung des Verhaltens komplexer Systeme
  • gesuchte wird ein mathemat. Zusammenhand, der die zeitlichen Entwicklung wiedergibt, dass zudem prognosefähig ist
  • Prognose: Risultat einer Simmulation <-> forensische Beobachtung/Daten <-> Experiment
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Simulation

A
  • Anwendung von Modellen zum Zwecke der Datenerzeugung mit Hilfe der Modellstruktur, z.B. zur Validierung oder zur Vorhersage der Systemreaktion.

oder

  • eine Vorgehensweise zur Analyse von Systemen, die für die theoretische oder formelmäßige Behandlung zu komplex sind. Dies ist überwiegend bei dynamischem Systemverhalten gegeben. Bei der Simulation werden Experimente an einem Modell durchgeführt, um Erkenntnisse über das reale System zu gewinnen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Simulation versus Beobachtung

A
  • nach Modellbildung u. Simulation sind Simulationsergebnisse mit Wirklichkeit zu vergleichen
  • Entsprechen Abweichungen nicht den Erwartungen (das Maß für einen akzeptablen Fehler hängt vom Problembereich ab) beginnt die Suche nach dem Grund für die Abweichung
    -> Hierfür sind dann die einzelnen Teilschritte zu hinterfragen
  • Insbesondere unterscheidet man zwischen:
  • Modellfehler
    -> Nicht erfasste physikalische Prozesse, Annahmen über Homogenität, Verteilungen, Form von Abhängigkeiten, etc.
  • Datenfehler
    -> Ungenügend genau erfasste Daten an der Systemgrenze (Rand- und Anfangsbedingungen) oder Parameter.
  • Simulationsfehler (auch Approximationsfehler)
    -> Fehler die durch Approximation des Modells zum Zwecke der numerischen Lösung entstehen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Posterior odds ratio versus Bayes factor

A

P(H1 = Löwe|D)/P(H2=nichtLöwe|D) = (P(D|H1=Löwe)/P(D|H2=nichtLöwe)) * ((P(H1=Löwe)/P(H2=nichtLöwe))

Posterior odds ratio = Bayes factor * Prior odds ratio

  • Vorteil:
    -> hierbei die schwerbestimmbare (und oftmals nicht analytisch beschreibbare) marginalisierende Konstante herausfällt.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Definition relative Plausibilität

A
  • gegeben zwei konkurrierende Hypothesen:
    -> Hi, Hj ∈ M : P(Hi | D) / P(Hj | D) ∈ [0, ∞]
    -> posterior odds ratio versus Bayes factor
    Satz von Bayes
  • gegeben sei eine Menge von Hypothesen
  • ℌ = (H1, H2, …, Hn) Hi ∈ ℌ
  • P(Hi | D) = P(D | Hi) P(Hi) / ⅀k=1 bis n P(D | Hk) P(Hk)
  • P(Hi | D) = a posteriori Wkt.
  • P(D | Hi) = Wkt., dass Hi die Daten erklärt
  • P(Hk) = a priori Wkt. und marginalisierende Konstante
  • Marginalisierende Konstante benötigen wir, damit:
    1) ∀ Hi ∈ ℌ: P(Hi | D) ∈ [0, 1]
    2) ⅀k=1 bis n P(Hk | D)
  • gegeben seien neue Beobachtungen D2, dann kann man schreiben: (Bayesian Updating)
    -> P(Hi | D2) ∝ P(D | Hi) * P(Hi | D)
    -> P(Hi | D) → alte posteriori entspricht der neuen a priori Wkt.
    ∝ = proportional
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Absolute Plausibilität

A

P(H|E)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Maximum-Likelihood Prinzip

A

Sofern keine weiteren Randannahmen existieren, ist jedes Modell zu wählen, welches auf gegebenen Daten D maximal wahrscheinlich ist.
Bsp: Eine Stichprobe einer metrischen Variablen X sei gegeben.
Dann ist das arithmetische Mittel X̅ der SP jene Punktschätzung für 𝞵, die die Annahme X ~ N (𝞵, 𝞼) mit Wkt P(X | 𝞵, 𝞼) maximiert.

  1. Was ist eine Theorie?
    Bezeichnet das systematische und nach bestimmten Prinzipien geordnete Beobachtung und erklären der Realität
  2. Bewertung eines binären Klassifikationsmodells
    Bewertungsmaße bekannt:
    sensitivity (recall, true-positive rate, TPR)
    specificity (true-negative rate, TNR)
    precision (true-positive predictive value)
  • Welcher punktgeschätzten a posteriori Wahrscheinlichkeit entspricht sie?
    -> Inhaltliche Bedeutung wie TP
  • Was besagt die posterior odds ratio P(y+|y^+)/P(y−|y^+)? (Querverweis: Seite 1 Abb. unten)
    -> Allgemein: Verhältnis zw. den posterio Wahrscheinlichkeiten zweier Events / Hypothesen → Kontrast der Hypothesen P(y+/y+)/P(y-|y+) → Unter Bedingung, dass klassifizierter Datenpunkt positiv ist, wie groß die ist wkt, dass Datenpunkt tatsächlich positiv ist? (Verhältnis zw. TP und FP)
    -> Im Zähler: Wkt, gegeben ein pos. klass. Datenpunkt, dass Datenpunkt tatsächlich positiv ist;
    -> Im Nenner: Wkt, gegeben ein pos. klass. Datenpunkt, dass Datenpunkt tatsächlich negativ ist
  • Wie liest man diese bedingte Wahrscheinlichkeit ab?
    -> von rechts nach links!
  • P(Spurenverursacher|Spuren)/P(Spurenverursacher|Spuren)
    → gegeben der Spuren, wie groß ist die Wahrscheinlichkeit, dass sie vom Spurenverursacher sind GETEILT DURCH gegeben der Spuren, wie groß ist die Wahrscheinlichkeit, dass sie nicht vom Spurenverursacher sind
  • Inwiefern können wir den Zeugen als binären Klassifikator verstehen? Beim Taxiproblem: Entweder grünes Taxi → als grün erkannt oder als blau erkannt oder blaues Taxi → als grün erkannt oder als blau erkannt
  • Was sind, in diesem Kontext, TPR und false-positive rate?
    -> TPR: TP / P = wie oft wird die tatsächliche Farbe erkannt?
    -> FPR: FP / N = wie oft wird die tatsächliche Farbe nicht erkannt?
  1. „Konkret: Es ist ein Wahrscheinlichkeitsmodell M zu definieren, das den Beobachtungen D eine Wahrscheinlichkeit zu ordnen kann. Somit sind auch darin eingeschlossene Zufallsvariablen X={X1,X2,…,XK} festzulegende Modellannahmen. Je nach Fragestellung treffen wir gemäß P(X=D|M) bzw. P(M|X=D) Signfikanzaussagen“ - Seminar
    => Signifikanz ist also immer Signifikanz mit Bezug auf ein Zufallsexperiment
    -> Signifikanz nur bei Hypothesen Prüfen

keine Verallgemeinerungen
* Forensisch: je nach Kontext anders bewerten, bevor man in Modellierung kommt muss man sagen: “DAS MUSS SIGNIFIKANT SEIN”
-> Was ist Signifikant in diesem Kontext? Prüfungsfrage! -> P(H1|X) hinreichend klein (nicht mehr plausibel) => H1 bspw. nicht plausibel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Monte Carlo Simulation

A
  • Verfahren aus der Stochastik
  • sehr große Zahl gleichartiger Zufallsexperimente ist Basis
    Es wird dabei versucht, analytisch nicht oder nur aufwendig lösbare Probleme mit Hilfe der Wahrscheinlichkeitstheorie numerisch zu lösen“ – Seminar
  • probabilistisches Modell, das ein Element der Unsicherheit oder Zufälligkeit in seine Vorhersage einbeziehen kann
  • jedes Mal andere Ergebnisse
  • Fungiert nach dem Gesetz der großen Zahlen → wie wahrscheinlich, dass Person diagonal gelaufen ist? → Binomialverteilung
  • Problem: Wenn KEINE analytische Betrachtung möglich, müssen wir uns annähern
  • In Bezug auf die Forensik: Fluchtweg eines Verdächtigen.
    -> Wie plausibel ist, dass Spur zum Täter passt?
    -> Wie wahrscheinlich, dass Person gesehen wurde, aber nur „zufällig“ da war?
    -> Wie viele der Fluchtwege gehen am gelben Haus vorbei?
    -> Oder Fallsimulation: freier Fall statisch ausschließbar (unter Annahme, dass das Modell korrekt ist)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Zeitreihen - Modell

A
  • Die zeitliche Relation zwischen zwei Ereignissen, kodiert si und sj, geht verloren. Wir abstrahieren im Modell die Ereignisabfolge - aber nicht wie viel Zeit zwischen Ereignissen vergangen ist.“
    => keine Zeitstempel nur chronologischer Ablauf
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Dotplot Allgemein

A
  • Gegeben seien zwei Sequenzen X=(x1,…,xm) und Y=(y1,…,yn) mit Längen m bzw. n sowie eine binäre Matrix M mit Größe m×n. Dann entspricht der Dotplot der Matrix M mit den Einträgen:
    Mi,j={1 xi=yj
    0 xi≠yj
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Alignment Definition

A
  • Gegeben seien zwei Sequenzen X=(x1,…,xm) und Y=(y1,…,yn) sowie das um das Lückensymbol “−” erweiterte Alphabet Ω∗=Ω∪{−}.
  • Dann entspricht das Alignment von X und Y den editierten Wörtern X∗=(x∗1,…,x∗k) und Y∗ (y∗1,…,y∗k) gleicher Länge k über dem Alphabet Ω∗.
  • Die Abfolgen der Editieroperationen, mit denen X in X∗ und Y in Y∗ überführt wird, ist gemäß einem Kostenmodell optimal.
    => wird mit dem Lückensymbol – erweitert
    => Fehlpaarung = Mismatch
    => wir können ein Alignment als einen “Pfad durch die Optimierungs-Matrix / Dotplotmatrix verstehen”, wobei wir von einem Matrixelement gehen können
  • diagonal = Match/Missmatch
  • nach oben = Lücke in y
  • nach links = Lücke in x
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Hamming-Abstand

A
  • Eines der einfachsten Abstandsmaße für Sequenzen
  • Minimaler Abstand zweier Sequenzen keine Lücken
    → nur Anzahl von Fehlpaarungen berücksichtigen gleiche Länge (Sequenz)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Levenshtein - Alignment und Abstand Definition

A
  • Gegeben seien zwei Sequenzen X=(x1,…,xm) und Y=(y1,…,yn) sowie das um das Lückensymbol “−” erweiterte Alphabet Ω∗=Ω∪{−}.
  • Dann entspricht das Alignment von X und Y den editierten Wörtern X∗=(x∗1,…,x∗k) und Y∗ (y∗1,…,y∗k) gleicher Länge k über dem Alphabet Ω∗. Die Abfolgen der Editieroperationen, mit denen X in X∗ und Y in Y∗ überführt wird, ist optimal dadurch, dass die Anzahl von Editieroperationen minimal ist.
  • Kostenmodell:
    -> fügen einer Lücke: +1
    -> assen eines Mismatches: +1
    -> assen eines Matches: 0
  • Bemerkungen:
    1. x * & y * haben am Ende gleiche Länge ^= K
    2. Levenshtein-Abstand dl(x,y) entspricht Anzahl-s-terminale Lücken und Anzahl-e-terminale Lücken sofern x & y in orangenen Abschnitt identisch sind. (= Abstand muss minimal sein)

dj(x,y)= ∑ { 0, xt^ * = yt^ *
1, xt^ * ≠ yt^ *
K (oben), k=1 (unten)

venshtein-Abstand entspricht dieser minimalen Anzahl an Editieroperationen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Optimierungs-Matrix

A
  • Di größe: (m+1)(n+1)
  • Erweiterung durch (damit wir Lücken einfügen können!)
    -> Nullzeile
    -> Nullspalte
    -> um s-terminale Lücken in x & y abbilden zu können
  • Doo: Element oben links in der Matrix („Startpunkt“)
  • Dm,n: Element unten rechts („Endpunkt“)
  • Di,o: i-tes Element in der Nullspalte
  • Do,j: j-tes Element in der Nullzeile
    ** Bemerkung: Da eine s-terminale Lücke in x / y mit länge i / j uns + 1 * i / j kosten, initialisieren wir Di,o = +1 * i bzw. Do,j = + 1 * j **
  • di,j = kürzester Weg von Doo nach Dij
  • es folgt:
    dj(x,y)= ∑ { 0, xt^ * = yt^ *
    1, xt^ * ≠ yt^ * } = min = { Dm-1, n-1 (0 od. +1)
    Dm-1,n (+1)
    Dm,n-1 (+1)
    K (oben), k=1 (unten)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Dotplot vs Optimierungsmatrix vs Scoringmatrix

A
  • Dotplot: Kein Kostenmodell, sondern visualisiert gleiche Elemente zweier Sequenzen
  • Optimierungsmatrix: Berechnungstruktur, Bei Optimierungsmatrix soll das beste/optimale Alignment zu finden, ist die Berechnungsstruktur
  • Scoringmatrix: Zeigt die Kosten an
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Was ist eine sog. Scoring-Matrix/Austauschmatrix (Vo4.28)? Stimmt die folgende Aussage: “Die Scoring-Matrix entspricht nicht der Optimierungs-Matrix”? Begründen Sie Ihre Entscheidung.

A
  • Bei Scoring-Matrix werden Austauschwahrscheinlichkeiten eingetragen, sind alle Austausche gleich wahrscheinlich? Wie viel kostet es ein Element durch ein anderes zu ersetzen (siehe Übung 8) -> Hat nix mit einem optimalen Pfad zu tun, sondern zeigt nur Kosten an
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Weshalb ist unter folgenden Bedingungen eine Matrix nicht mit dem Levenshtein erzeugt wurden? Gap = 2, Mismatch = 1

A

Levensthein: Lücke und Missmatch = 1
→ Bei Kosten hat Gap=2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Berechnung einer Matrix

A
  • Hinweis: Labud’sche Regel: Diagonal schlägt bei Gleichstands des Scorings die jeweils anderen Editiertoperation
  • Iterative Berechnung
    -> 2. Schritt des NWL-Algo.
    -> für i=1,…,n (Zeilenweise)
    -> für j=1,…,n (Zeilenweise)
  • Rekursive Berechnung
    Dm,n = min = { Dm-1, n-1 + s(xm,yn)
    Dm-1,n +Lückenkosten
    Dm,n-1 +Lückenkosten
    Di,j = min = { Di-1, j-1 + s(xi,yj)
    Di-1,j +Lückenkosten
    Di,j-1 +Lückenkosten
    K (oben), k=1 (unten)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Was bedeutet der Begriff Dynamische Programmierung? In wie fern wird zur Lösung des Alignment-Problems das Gesamtproblem in Teilprobleme zerlegt und ersteres dadurch optimal gelöst?

A

Beim dynamischen Programmieren unterteilt man das Problem in eine Einzelentscheidungen und kleiner dimensionierte Probleme.
Bei der Überführung von einem Alignment in ein anderes wird bei jedem einzelnen Element eine Editieroperation so gewählt, dass die Kosten dabei minimal sind.

+ : Das Verfahren findet ein globales Optimum, findet das Aligment mit dem besten Score bei gegebenen Parametern
- : Häufig haben viele Aligments den selben Score

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Interpretieren Sie die in der Vorlesung genannten Begriffe Deletion und Substitution.

A

Deletion: Das Löschen eines Elements
Substitution: Ersetzen eines Elements aus Menge A durch Menge B

27
Q

Nenne Sie die drei Schritte des Levenshtein. Was geschieht im 1. Schritt? Verknüpfen Sie dazu Vo4.4 mit Ihren Seminaraufzeichnungen und rekapitulieren Sie die algorithmische Bedeutung der ϕ-Zeile und -Spalte.

A
  1. Anfangsbedingungen der obersten Zeile und linken Spalte: D(i,0) = Σk d(ak,Φ) und D(0,j) = Σk d(Φ,bk) (Einfügen einer Lücke - diese Werte legen die Strafen für ungepaarte Bausteine am Anfang beider Sequenzen fest - Initialisierung)
  2. Rekursionsformel: D(i,j) = min{D(i-1,j)+d(ai, Φ), D(i-1,j-1)+d(ai,bj),D(i,j-1)+d(Φ,bj)} Berücksichtigt alle drei möglichen Schritte
  3. Zurückverfolgung (traceback) von (n,m) zu (0,0)

Algorithmische Bedeutung: Ermöglicht das Einfügen einer Lücke und den Vergleich zweier Sequenzen unterschiedlicher Länge, definiert dabei die Kosten einer Lücke

28
Q

Was ist ein globales Alignment zweier Sequenzen?

A
  • was ist eine Sequenz in fo kontext (abfolge von diskreten abzählbaren Ereignissen(Zeitfolgen))
  • was ist aligment in fo kontext (vergl. Von Sequenzen – Überschneidung => Aligment) // unter einem kostenmodell optimales aligment
  • globales => über alle Sequenzen
  • jedes Symbol jeder Sequenz ist im Aligment vorhanden (bei lokalem nicht der Fall)
  • die gesamte Sequenz wird aligniert
  • so viele Matches wie möglich werden gefunden
  • Sequenzen sollten ähnliche Länge aufweisen
29
Q

Der Needleman-Wunsch-Algorithmus (kurz: NW-Algorithmus) ist eine Abwandlung des Levenshtein-Algorithmus. Wie müssen die Schritte 1 und 2 des Levenshtein abgewandelt werden, sodass sich das gezeigte optimale globale Alignment nach Needleman-Wunsch ergibt?

A
  • Anfangsbedingung bleibt gleich, zusätzlich dazu eine Definition für die Kosten von Lücken, Missmatch und Match (anderes Kostenmodell)
  • Bei Rekursionsformel: Hinzufügen Kostenmodell (scoring Model)
30
Q

Formulieren Sie in eigenen Pseudo-Code-haften Worten, wie Schritt 3 - der Traceback umgesetzt werden könnte.

A

Starte bei (m, n) und gehe entweder zu (m-1, n), (m, n-1) oder (m-1, n-1), je nachdem wo das Minimum ist. Wiederhole so lange, bis man (1, 1) erreicht

31
Q

Der Smith-Waterman-Algorithmus (SW-Algorithmus) ist eine weitere, noch stärke Adaption des Levenshtein-Algorithmus. Er ermöglicht die Bestimmung eines optimalen lokalen Alignments zweier Sequenzen. Was bedeutet der Begriff lokal in diesem Kontext?

A
  • Nicht in jedem Fall möchte man ein Alignment von Anfang bis Ende beider Sequenzen. Aliniert man nur den Bereich größter Sequenzähnlichkeit, nennt man das ein lokales Alignment. Das optimale, lokale Alignment kann man mit dem Smith-Waterman-Algorithmus berechnen.
  • global (NW)
    -> die gesamte Sequenz wird aligniert
    -> so viele Matches wie möglich werden gefunden
    -> Sequenzen sollten ähnliche Länge aufweisen
  • lokal (SW)
    -> Sequenzabschnitte mit hoher Match-Dichte werden gefunden
    -> Sequenzen müssen nur in Teilabschnitten ähnlich sein (z.B. Domäne, konservierte Bereiche)
    -> Sequenzen können verschieden lang sein
    -> Es existieren statistische Signifikanz-Methode
32
Q

Vergleichen Sie den NW-, SW- und Levenshtein-Algorithmus

A
  • Levenstein
    -> Schritt 0: Kostenmodell ist vorgegeben
    -> Schritt 1: initialisierung Tabelle
    -> Schritt 2: Auffüllen der Tabelle
    -> Schritt 3: Trace-Back
    -> Anfangsbedingung: Einfügen Lücke
    -> Rekursionsformel: Für jede Editoperation Kosten +1 (außer bei Match)
    -> Backtracking: Minimum bis (1, 1)
  • Needleman-Wunsch
    -> Schritt 0: Kostenmodell festlegen
    -> Schritt 1: initialisierung Tabelle
    -> Schritt 2: Auffüllen der Tabelle
    -> Schritt 3: Trace-Back
    -> Anfangsbedingung: Lückensumme (freie Wahl der Kosten)
    -> Rekursionsformel: Für jede Editoperation bei ungleichen Werten Kosten + Kosten aus Kostenmodell
    -> Backtracking: Minimum bis (0, 0)
  • Smith-Waterman
    -> Schritt 0: Mindestwert festlegen
    -> Schritt 1: Di#=0, D#j=0
    -> Schritt 2: Auffüllen der Tabelle, Wenn 0 dann Stopp symbol
    -> Schritt 3: Trace-Back
    -> Anfangsbedingung: Ränder auf 0
    -> Rekursionsformel: Für jede Editoperation bei ungleichen Werten Kosten - 1 (darf nicht < 0 sein)
    -> Backtracking: Beginn bei größtem Score
33
Q

Was ist ein sog. Multiples Sequenz-Alignment (MSA)? Wozu könnte man sie einsetzen?

A
  • Ein Alignment von mehr als zwei Sequenzen wird als multiples Sequenz-Alignment bezeichnet. Es ermöglicht den Vergleich von mehr als zwei Sequenzen.
  • Wozu?
    -> Ähnlichkeit von mehreren Sequenzen gleichzeitig und Erkennung Ähnlichkeit der Sequenzen untereinander.
  • Welche Infos werden generiert (z.B)?
    -> Wie ähnlich sind Suchverläufe mehrere Personen
    -> Bewegungsdaten (Ähnlichkeit in Teilabschnitten)
34
Q

Beschreiben Sie die vier Schritte des ClustalW-Algorithmus

A
  1. Berechnung aller möglichen paarweisen Alignments (NxN Stück)
  2. Überführung der Alignments in eine NxN-Distanzmatrix
    • wir zählen prozentualen Anteil identischer Positionen im Alignment ^=S
    • D = 1 - s/100 ^= p-Distanz
  3. Überführung der Distanzmatrix in einen guide tree (Hilfsbaum)
    • hierarchische Baumstruktur
      (- Visualisierung paarweiser Ähnlichkeiten) => welche Sequenz(en) sind
      schrittweise zu einem MSA zusammenzuführen
  4. Zusammenführen
    • progressives Alignment:
    • MSA werden in Reihenfolge des Guide Trees verschmolzen, d.h. es werden erst die Sequenzen zusammen aligniert, die die geringste Unähnlichkeit (höchste Ähnlichkeit) haben, dann die mit der zweithöchsten Ähnlichkeit usw. Zum Schluss werden die Teil-MSA aligniert
      -> daraus ergibt sich der komplette Baum
  • Idee dahinter: mit schrittweiser steigender Unähnlichkeit zwischenden zu alignierenden Sequenzen oder Teil-MSA, die Wahrscheinlichkeit von Alignment-Fehlern in den jeweiligen Schritten gering zu halten
35
Q

Was bedeutet der Heuristik-Begriff allgemein?

A

Heuristische Verfahren sind eine Annäherung an die genaue Berechnung von Sequenzalignments mit dem Smith-Watermann oder Needleman-Wunsch Algorithmus.

36
Q

Warum bedarf es beim Zeichenkettenvergleich, unter gewissen Bedingungen, die Verwendung heuristischer Methoden?

A
  • N >= 3 -> MSA-Berechnung -> führt zu Großen Datenmengen -> rasanter Wachstum der Matrix
    -> N Anzahl von Sequenzen, wenn größer gleich 3 = MSA
  • Datenbankabgleiche (paarweise Vergleiche)
    -> Datenbank 1 ⇔ DB2
    -> Sie ermöglichen es, auch innerhalb kurzer Zeit ganze
  • Datenbanken nach ähnlichen Zeitreihen zu durchsuchen.
    -> Sequenz mit abertausend anderen Sequenz vergleichen
  • eine (oder zwei) sehr lange Sequenzen im paarweisen Vergleich
37
Q

Welche konkreten heuristischen Methoden zum Sequenzvergleich haben Sie in der Vorlesung gelernt? Nennen Sie.

A

FastA, Clustal W, BLAST

38
Q

Vergleichen Sie die beiden Methoden miteinander als auch mit der Alignment-Strategie nach Smith & Waterman. Welche algorithmischen Eigenschaften führen zu einer heuristischen Problemlösung?

A
  • SW
    -> Sequenzabschnitt mit hoher Match-Dichte werden gefunden
    -> Sequenzen müssen nur in Teilabschnitten ähnlich sein (z.B. Domänen, konservierte Bereiche)
    -> Sequenzen können verschieden lang sein
    -> Es existieren statistische Signifikanz-Methoden
  • FastA
    -> berechnet Scorewerte für Diagonale, Diagonale mit besten Scores werden behalten
    -> Diagonalen werden verlängert
    -> Diagonalen, die schlecht zu einem Alignment mit der besten Diagonalen passen, werden verworfen
    -> vollständiges dyn. Prog. innerhalb einer Zone/Band, in dem die verbliebenen Diagonalen sind (rechenintensiv)
  • BLAST (local aligments)
    -> Suchsequenz (“Query”) - Indexeinträge der Wortlänge w
    -» Wir zerlegen unsere Suchsequenz in kleinere Teile
    -> Datenbanksequenz – mit ersten Hit
    -» Welche Sequenzen passt auf ein gegebenes Teilwort
    -> Datenbanksequenz – mit ersten und zweiten Hit
    -» potentielle Sequenz die zu Query passen könnte wird rausgefiltert
    -> Datenbanksequenz – Ausdehnung der Hits in beide Richtungen
  • Unterschied: Bei FASTA einen Bereich finden, wo wir dyn. Programmierung durchführen können (nur ein TEILBEREICH). FastA langsamer, aber dafür sensitiver
  • Blast: KEINE dynamische Programmierung
  • Cluster W
  • kombiniert versch. Heuristiken (progressives Alignment Verfahren)
  • häufig eingesetztes Programm zum globalen multiplen Alignment von DNA- und Proteinsequenzen
  • paarweises Alignment → Distanzmatrix → Guide Tree → progressives Alignment)
39
Q

Unüberwachtes Lernen

A
  • Klasseninformationen werden für das Training nicht verwendet
  • Methode des maschinellen Lernens, bei der der Algorithmus lernt, selbständig und ohne Überwachung Muster und Zusammenhänge in Daten explorativ zu erkennen
40
Q

Motivation Clusteranalytische Verfahren

A
  • Gruppe von Objekten zu homogenen Gruppen zusammenzufassen
    -> wenn dies zum Erhebungszeitpunkt noch nicht der Fall war
    -> Objekte können dabei sowohl Individuen (wie befragte Personen), Gegenstände (zum Beispiel verschiedene Produkte) als auch Aggregate (wie Länder oder Organisationen) sein
  • um vorliegenden Daten zu strukturieren
  • Um Merkmalshomogenität für eine cluster-analytische Problemstellung bestimmen zu können, wird ein Modell für Objekt(un)ähnlichkeit gefordert.
  • Die wichtigsten metrischen und nicht-metrischen Unähnlichkeitsmaße für vektorielle Daten: euklidische Distanz, Manhattan-Metrik, Hamming-Distanz
  • !!Unähnlichkeitsmaße für nicht-vektorielle Daten sind problem- bzw. kontext spezifisch (z.B. p-Distanz für Sequenzdaten)
  • Merkmalsähnlichkeit muss vorab definiert werden, Modell für Objektunähnlichkeit notwendig -> (Un-)Ähnlichkeitsmaß
41
Q

Beispiele zu vektorielle Daten und nicht vektoriellen Daten

A
  • vektoriell
    -> Softwareprojekt: 32 Label -> 32-dimensionale vektorielle Daten
    -> Bag of Words
    -> Vektorrepräsentation
    -> Methoden: k-means, Self-organizing maps, Neural Gas, Affinity Propagation, DBSCAN (dichtebasiert)
  • nicht vektoriell
    -> rohe Textdaten
    -> wie wird hier (Un-)ähnlichkeit definiert?
    -> Methoden: k-medians (kaum mehr verwendet, numerisch schwierig wie median neural gas), Affinity Propagation, Median Neural Gas, DBSCAN

Bei Affinity Propagation und DBSCAN ist es egal, ob vektoriell oder nicht-vektoriell, betrachten nur paarweise Ähnlichkeit

42
Q

k-means-Algorithmus

A
  1. Wähle zufällig k Cluster-Zentren μ1,…, μk
  2. berechne für jedes x E S, zu welchem Clustermittelpunkt μi es am nächsten liegt
  3. berechne für jeden Cluster Ci seine Kosten, d.h. berechne für jedes Ci die Kostenfunktion
  4. berechne für jeden Cluster Ci seinen neuen Mittelpunkt μi
  5. Wiederholung 2.), 3.) und 4.) bis sich die c(Ci) (Ɐi), bzw die Clusterzuordnung nicht mehr Ändert
    - Cluster-Zentren (=Prototypen), virtuelle Datenpunkte im Vektorraum
    - arithm. Mittel funktioniert nur in Kombination mit euklidischer Distanz!
43
Q

Algorithmische Verbesserungen

A
  • k-means++: Intelligentere Initialisierung der Zentren μ1 ,…, μk
  • versuchen Prototypen so zu initialisieren, dass finale Konvergenz möglichst geringen Fehler hat
  • Self-organizing maps und Neural Gas: Prototypen explorieren Datenraum kooperativ, Verwendung des sog. Hebb’schen Lernens
  • Growing Neural Gas und Growing SOM: Verfahren die k während des Trainings verändern (erhöhen) können. Nachteil: Wahl von Hyper-Paramtern nötig.
44
Q

Self-organizing-maps

A

Der Gewichtsvektor eines Neurons in der feature map gibt dessen Repräsentation im Datenraum an. Ergo: Nach dem Training liegen Gewichtsvektoren benachbarter feature map-Neurone im Datenraum nah beieinander.

45
Q

Hierarchisches Clustering

A
  • Eine Auswahl von Methoden:
    -> UPGMA (unweighted pair-grouped method with arithmetic means)
    -> Neighbor joining
    -> SOTA (Self-organizing Tree Algorithm) (numerisch stabile Variante)
  • Eigenschaften:
    -> Anzahl von Clustern ist nicht festzulegen
    -> NJ und UPGMA sind parameterfreie Methoden
    -> Festlegung von Clustern (z. E. merkmalshomogene Objektgruppen) ist post hoc zu treffen
    -> starke Visualisierungstechniken, sofern die Datenpunktanzahl nicht zu groß ist
46
Q

Kern Idee der UPGMA

A
  • Allgemein: Unählichkeitsmatrix (Distanzmatrix) nötig
    1. wir suchen jeden Eintrag mit geringster Unähnlichkeit in der Matrix (Höchste Ähnlichkeit, geringste Unähnlichkeit aka niedrigste Zahl) -> ergibt 1. Endast (AStlänge addiert ergeben Distanz)
    2. Distanzmatrix wird aktualisiert gemittelte Distanzen der übrigen Objekte zu den Objekten A und D, repräsentiert durch Element V (einfügen des Teilbaums)
    3. erneut niedrigsten Eintrag (geringste Unähnlichkeit) wählen und an Teilbaum anhängen
    4. E und V als Element W in Distanzmatrix einfügen,
    5. Distanzmatrix aktualisieren (gemittelte Distanzen) solange bis es nicht mehr geht
  • -> Definiert ersten Endast
    Astlängen addiert ergeben Distanz
    Finaler Schritt: aktualisierung der Distanzmatrix
    -> wir entfernen a&d und fügen ein neues Teilelement ein, was A&D repräsentiert (alle gemittelten Distanzen der übrigen Objekt zu den Objekten A&d (aka v))
    wir fügen E zusammen -> Astlänge: 1+1 nach unten = 2
    solange bis es nicht mehr geht
47
Q

Überwachtes Lernen

A

ist eine Unterkategorie des maschinellen Lernens und der künstlichen Intelligenz. Es zeichnet sich dadurch aus, dass es markierte Datensätze verwendet, um Algorithmen zu trainieren, die Daten klassifizieren oder Ergebnisse korrekt vorhersagen können

48
Q

Markove-Modelle

A

Eine Markove-Kette ist ein spezieller stochastischer Prozess, bei dem zu jedem Zeitpunkt die Wahrscheinlichkeit aller zukünftigen Zustände nur vom momentanen Zustand abhängen

49
Q

Hidden Markov-Modell (Erweiterung des normalen Modell)

A
  • Hidden = lässt Beobachtung zu, aber zustände hinter Beobachtung versteckt!
  • Ein HMM beschreibt einen Markov-Prozess über eine latente Zustandsmenge Λ, wobei nur Emissionen über einem Emissionsalphabet Σ beobachtbar sind.
  • Die Transitionswahrscheinlichkeiten A beschreiben die Wahrscheinlichkeit für einen Übergang von einem latenten Zustand in den nächsten.
  • Die Emissionswahrscheinlichkeitsmenge E gibt die Wahrscheinlichkeit eine spezifische Emission im aktuellen latenten Zustand der Kette zu beobachten.
  • „Die Folge der latenten Zustände der Kette ist hinter der Folge von beobachteten Emissionen versteckt.
  • Anwendung:
    Speech to text (Audiosignal aus dem wir eine plausible Folge an Wörtern bilden wollen)
    Detektion von Autorenschaften (Berechnen wie viele Autoren es gab)

Grundlegende Aufgaben auf einem HMM
* Wenn wir eine Beobachtungsfolge O zu einem Modell λ haben, wie lässt sich die Wahrscheinlichkeit P(O| λ) berechnen? (Evaluation)
→ Forward Algorithmus
* Wie lässt sich zu der Beobachtung die Sequenz der wahrscheinlichsten verborgenen Zustände finden? (Dekodierung) (ich möchte aus trocken trocken feucht feucht wissen was bei rauskommt)
→ Viterbi Algorithmus

50
Q

Entscheidungsbäume

A
  • “Entscheidungsbäume sind eine Methode zur automatischen Klassifikation von Datenobjekten und damit zur Lösung von Entscheidungsproblemen. Sie werden außerdem zur übersichtlichen Darstellung von formalen Regeln genutzt. Ein Entscheidungsbaum besteht immer aus einem Wurzelknoten und beliebig vielen inneren Knoten sowie mindestens zwei Blättern. Dabei repräsentiert jeder Knoten eine logische Regel und jedes Blatt eine Antwort auf das Entscheidungsproblem.”
51
Q

Rosenblatt Perceptron

A

Reizübergabe (nur 1 Perceptron)
* Über Dendriten & 2 Eingaben in Neuron
-> Neuron stärkt/schwächt Reiz
-> Reize kommen im Körper an
-> summieren die Eingaben der Reize
-> anhand Regeln ob es Ausgaben gibt oder nicht
* y = Aktivierungsfunktion (gibt Zelle Reiz, ja oder nein)
* x = Das, was reinkommt (Reiz)
* w = Gewichte (Reizverstärkung/-abschwächung)
* Teta = Bias (Aktivierungspotential)
* Es rechnet Inputs (X1,X2) in einen binären Output Y um. Gewichte beziffern die Wichtigkeit des jeweiligen Inputs für den Output. Die Anpassung der Gewichte erfolgt im Lernvorgang. Der Output berechnet sich aus der Summe der gewichteten Inputs. Um sicherzustellen, dass Y ein binärer Output ist, verwendet das Perzeptron eine Treppenfunktion mit wohldefinierten Schwellwert.

52
Q

Multilayer Perceptrons (MLP)

A
  • Verbund mehrerer Perceptrons
  • Eingabe: vektorielle Repräsentation
  • Trainings??: Vektorrepräsentation ???
    -> ist Hidden (Blackbox)
  • Output: Vektorrepräsentation Klassenlabels Anschließend Abgleich Input/Output
    -> Fehlergröße wird berechnet
    -> Gewichte damit angepasst
53
Q

Vergleich zw. Entscheidungsbäume & MLP

A

Entscheidungsbäume
* Modellarchitektur
-> vektorielle Daten
-> Repräsentation von formalen Regeln
-> jeder Knoten ist logische Regel
-> Knoten repräsentiert Vergleiche hinsichtlich eines Attributs
-> Blätter sind Antworten auf Entscheidungsproblem
-> Blätter enthalten die Klasse
-> Kante repräsentiert verschiedene Attributwerte
-> numerisch instabil
* Trainingsverfahren (nicht so wichtig)
-> wenn alle Elemente aus T(Daten) zu einer Klasse gehören
-> Dann //Erzeuge ein Blatt//
-> Konstruiere ein Blatt mit der Klasse als Bezeichner Sonst:
-> //Erzeuge rekursive einen Teilbaum//
Wähle das informativste Merkmal xi
-> Beginn: für_alle vorkommenden Werte von Merkmal xi Konstruiere alle Teilbäume rekusrive mit den entsprechenden Teilmengen als DAten
-> Ende: Für_alle
-> Konstruiere einen Baumknoten mit Bezeichner xi und hänge alle erzeugte Teilbäume an Ende Sonst
* Vorgehen in der Anwendung
Bspw.:
-> Alter -> jung? -> nein
-> Alter -> alt? -> veredelt?-> Ja
-> Alter -> alt? -> natürlich?-> Boden -> reichhaltig-> ja
-> Alter -> alt? -> natürlich?-> Boden -> mager-> nein
* Interpretierbarkeit & Klassenentscheidung
-> interpretierbares Klassifikationsmodell
-> Klassifikation ist transparent, da Regeln nachvollziehbar
-> Klassenentscheidung über Regeln
-> Interpretierbare Maschinelle Modelle sind für die Forensik wichtig
* Anwendung
-> Vorhersage, ob ein Apfelbaum Früchte tragen wird (diagnose, prognose)

MLPs
* Modellarchitektur
-> Verbund aus mehreren Perceptrons
-> Eingabe: vektorielle Repräsentation eines Datenpunktes
-> Ausgabe: Vektorrepräsentation des Klassenlabels
-» Output soll Klassenvektor entsprechen
-> meist 3 Layer: Input, Hidden, Output

  • Trainingsverfahren (nicht so wichtig)
    -> Ausbilden neuer Verbindungen, bzw. löschen bestehender Verbindungen
    -> Anpassen der Gewichte wij von Neuron i zu Neuron j
    -> Anpassen der Schwellwerte der Neuronen
    -> Hinzufügen oder löschen von Neuronen
    => Praktisch gesehen ‚lernt‘ ein Netz hauptsächlich durch Modifikation der Gewichte der Neuronen.
  • Vorgehen in der Anwendung
    Bspw.
    1. Präsentation des Ziffernbildes durch entsprechende Aktivierung der Eingabeneuronen,
    2. Vorwärtspropagierung der angelegten Eingabe durch das Netz; dies erzeugt ein Ausgabemuster für die aktuelle Eingabe (Vektor - Ausgabe),
    3. Vergleich der Ausgabe mit der erwünschten Ausgabe liefert einen Fehlervektor(Lerneingabe), stellt die Differenz zwischen Ausgabe und erwünschter Ausgabe dar,
    4. Rückwärtspropagierung der Fehler von der Ausgabeschicht zur Eingabeschicht liefert Änderungen der Verbindungsgewichte, die dazu dienen, den Fehlervektor zu verringern
    5. Änderung der Gewichte aller Neuronen des Netzes um die vorher berechneten Werte.
  • Interpretierbarkeit & Klassenentscheidung
    -> Nicht interpretierbar
    -> Klassenentscheidung über Input, interne
    -> Gewichtung und anschließender Output
  • Anwendung
    -> Erkennung von Gegenständen in Bildern
    -> Vorhersage
    -> Erkennung von KiPo auf bspw. YT
    -> Mustererkennung (z.B. Ziffererkennung)
54
Q

Zelluläre Automaten und MAS (Multi-Agent-System)

A
  • “Zelluläre oder auch zellulare Automaten dienen der Modellierung räumlich diskreter dynamischer Systeme, wobei die Entwicklung einzelner Zellen zum Zeitpunkt t+1 primär von den Zellzuständen in einer vorgegebenen Nachbarschaft und vom eigenen Zustand zum Zeitpunkt t abhängt”
  • Markov-Ketten: Beschreibung der Übergänge zwischen den möglichen Zuständen
  • Zellulären Automaten: Einfluss der Nachbarschaft bzw. der Nachbarn
  • Kombination aus Markov-Kette und Zellulären Automaten: Eine gängige Methode in der Simulation und Modellierung
  • Zellularer Raum ZR:
    -> n-dimensionaler Raum, eingeteilt in diskrete Zellen
    -> Auch “Gitter”
    -> Zellen sind z. B.
    -» Einheitsintervalle auf der Geraden
    -» Einheitsquadrate oder Wabenzellen in der Ebene
    -> Einheitshyperwürfel im n-Dimensionalen
  • Zustandsmenge Z
    -> Menge der Zustände, die jede Zelle im Zellularen Raum einnehmen kann
    -> Zustandsmenge Z = {0, 1} für binäre Zellulare Automaten
  • Reduktion: komplexes System auf seine grundlegenden Bestandteile zu reduzieren.
    -> Genauer: komplexe Verhaltensweisen oder Zustände in einfachere Regeln oder Zustände zerlegt, um das Verhalten des Gesamtsystems besser zu verstehen oder zu modellieren.
  • Abstraktion: irrelevante Details vernachlässigen und nur die wichtigsten Merkmaler bzw. Strukturen zu betrachten.
    -> Genauer: auf wesentliche Muster oder Wechselwirkungen konzentriert und unwichtige Details vernachlässigt, um die Modellierung zu vereinfachen.
  • Determiniertheit: bedeutet, dass das Verhalten des zellulären Automaten eindeutig durch die anfängige Konfiguration und die Regelsetzung bestimmt ist.
55
Q

ZA: Warum für Raum und Zeit bei diskreten Modellen?

A
  • Aufbau der Automaten
    -> Raum und Zeit sind durch das Updaten verknüpft
  • welcher EInfluss hat die Umgebung, ZA = (ZR, Z, N, ZF)
  • Raum, Zustände (Zustandsraum), Nachbarn, Übergänge / Zustandsfunktion (Regeln)
  • Zustandsfunktion (Regeln) -> das hatte er gestern an die Tafel so geschrieben für ZF
56
Q

Abgrenzung zu MAS

A
  • Multi-Agenten-Systeme
  • zweite Ebene mit individuellen und kollektiven urbanen Akteuren = Agenten
  • Agenten sind mobil und können sich frei über Zellenraster (ZR) bewegen
  • verschiedene Arten der Kommunikation zwischen Agenten bzw Agenten und Zellen definierbar
57
Q

Mikro-Makro-Problem

A
  • Zwischen Mikro- und Makroebene besteht eine zirkulär-kausale Verbindung
    1. Handlungsträgern (Akteure) stehen auf verschiedenen Ebenen in Wechselwirkung
    2. Dies hat zur Folge, dass alle Handlungsträger gegenseitig aufeinander einwirken, indem sie gleichzeitig die Umwelt der anderen Handlungsträger darstellen und das gemeinsam erzeugte Handeln mitbestimmen.
    3. Verhaltensweisen nicht direkt, sondern nur über die Änderung gewisser Rahmenbedingungen (-> Kontrollparameter) beeinflussbar
    -> Variation eines Kontrollparameters kann einen systemweiten Phasenübergang hervorrufen oder das makroskopische Verhalten eines Systems bestimmen
    -» Sowohl auf der Makro- als auch auf der Mikroebene werden die Verhaltensweisen der Handlungsträger dadurch bestimmt, dass sie stets versuchen die negativen Faktoren zu minimieren und die positiven zu maximieren. -> Individuelle Optimierung -> System Optimierung
    -»> Kompromiss zwischen verschiedenen Faktoren nötig, wird als Trade-Off bezeichnet (Inkaufnahme der Verschlechterung eines Aspekts, um einen anderen Aspekt zu verbessern)
58
Q

Definieren Sie den Levenshtein-Abstand. Warum kann der Hamming-Abstand für die gegebenen Sequenzen nicht bestimmt werden?
x = MISSISSIPPI
y = MYMISSISAHIPPY

A
  • Hammingabstand kann nicht bestimmt werden, da die Sequenzen nicht gleichlang sind
  • Levenshtein: Minimale Anzahl an Operieroptionen, es werden Lücken eingefügt, Kosten für Missmatches/Lücken betragen 1
59
Q

Das optimale Alignment zweier Sequenzen (Zeitreihen im engeren Sinne) entspricht der Überführung von x in y durch die kostenoptimale Editierung beider Sequenzen anhand einer adäquaten Editier-Kostenfunktion.

A
  • Missmatch
  • Rauslöschen eines Elements
  • Lücke einfügen
  • Lücke in x
  • Lücke in y
  • Missmatch zulassen
60
Q

Was ist ein Permutationstest?

A

Ein Permutationstest ist in der nichtparametrischen Statistik ein exakter Test, bei dem zufällige Stichprobenwiederholungen unter Annahme der Nullhypothese identischer Verteilungen gezogen werden, häufig mithilfe von Monte-Carlo-Simulationen. Basierend auf der daraus resultierenden Verteilung der Teststatistik wird bestimmt, wie wahrscheinlich die Teststatistik der Originaldaten unter der Nullhypothese ist.

61
Q

Viterbi-Algorithmus

A
  • beinhaltet dynamische Programmierung mittels Backtracking
  • Viterbi-Pfad ist der Pfad mit den größten Wahrscheinlichkeiten
    Bsp:
  • Pseudo-forensische Frage:
  • Gegeben sei eine zeitliche Reihe von 9 Münzwürfen.
  • x = (KKZKKKKZK)
  • Ansatz: Wir bestimmen jene Zustandsfolge über Λ, welche die Beobachtungs-wahrscheinlichkeit der Münzfolge maximiert, gemäß dem maximum likelihood-Prinzip.
62
Q

Convolutional Neural Network

A
  • besteht aus einem oder mehreren Convolutional Layer
  • gefolgt von einem Pooling Layer
  • kann sich prinzipiell beliebig oft wiederholen, bei ausreichend Wiederholungen spricht man dann von Deep Convolutional Neural Networks, die in den Bereich Deep Learning fallen.
  • Hierbei ist auf die Ähnlichkeit zum Optimalfilter hinzuweisen.
  • Architektonisch können im Vergleich zum mehrlagigen Perzeptron (Multi-Layer-Perzeptron) drei wesentliche Unterschiede festgehalten werden (Details hierzu siehe Convolutional Layer):
    -> 2D- oder 3D-Anordnung der Neuronen
    -> Geteilte Gewichte
    -> Lokale Konnektivität
63
Q

Signifikanz

A

Signifikanz ist eine mathematische Größe, die ein Urteil darüber ermöglicht, ob ein gemessener Zusammenhang zufällig oder aussagekräftig ist. Es geht dabei um den Zusammenhang zwischen verschiedenen Variablen einer Stichprobe und um die Frage, ob dieser Zusammenhang Rückschlüsse auf die Grundgesamtheit zulässt