Vorlesung 7 Flashcards

1
Q

Wie erfolgt die Konstruktion eines Entscheidungsbaumes?

A
  • Anfang: Wurzel des Baumes repräsentiert alle Datenpunkte
  • In jeder Iteration wird ein Knoten des Baumes ausgewählt, welcher in zwei Teilknoten geteilt. Dazu wird eine Dimension (Feature) ausgewählt, in welcher dieser Knoten des Baumes bestmöglich geteilt wird.
  • Dies wird solange wiederholt, bis nur noch eine kleine Menge von Datenpunkten in den jeweiligen Knoten vorhanden ist.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was ist Pruning?

A

Bei der Konstruktion von Entscheidungsbäumen:
Am Ende können noch einzelne Knoten bei Bedarf wieder entfernt werden, um eventuelles Overfitting zu verhindern.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Welche Maße gibt es, um den besten Split eines Knotens zu bestimmen?

A
  • Klassifikationsfehler
  • Gini-Index
  • Kreuzentropy (Cross Entropy)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Was ist der Gini-Index?

A

Der Gini-Index wird im Kontext von Entscheidungsbäumen verwendet, um die Unreinheit der Daten zu messen. Um den Gini-Index zu berechnen, subtrahiert man die Summe der quadrierten Wahrscheinlichkeiten jeder Klasse von eins.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie wählt man den besten Split für einen Knoten aus?

A
  • Man geht alle d Dimensionen für einen Knoten durch und bestimmt den besten Split entlang dieser Dimension.
  • Man wählt die Dimension aus, die am Ende den kleinsten Fehler erzeugt.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Sind Entscheidungsbäume abhängig von Merkmalsskalierung?

A

Nein

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Können Entscheidungsbäume sensibel gegenüber kleinen Änderungen in den Daten sein?

A

Ja

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Reagieren Entscheidungsbäume sensibel auf Rotation der Trainingsdaten?

A

Ja

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wie konstruiert man einen Entscheidungsbaum für Regression?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Erkläre Ensemble Modelle

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was ist Bootstrapping?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Man kann darüber hinaus die Bootstrap Schätzer auch aggregieren. Dies nennt man … ?

A

Bagging (Bootsrap Aggregation)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist der Vorteil von Bagging?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wie schaut Bootsrapping und Bagging konkret aus?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was ist der Nachteil des Bagging-Schätzers?

A

Sollten alle individuellen Schätzer den gleichen großen Bias haben, so hat der Bagging-Schätzer diesen leider auch.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was ist eine beliebte Modellwahl für die einfachen Klassifikatoren/Regressoren, um Bootstrapping + Bagging anzuwenden?

A

Entscheidungsbäume, diese ergeben dann einen Random Forest.

17
Q

Beschreib den Ablauf zur Erstellung eines Random Forests

18
Q

Wie bestimmt man die Vorhersage eines Randomforests für Klassifikations- und Regressionsprobleme?

19
Q

Nenn Best Practices für die Wahl der Parameter eines Random Forests