Grunder för maskininlärning Flashcards

1
Q

Data delas upp i tre dataset:

A
  • Träningsdata
  • Valideringsdata
  • Testdata
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Träningsdata

A

Den data som modellen tränar på
- Hitta mönster och generalisera

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Valideringsdata

A

Används under träningens gång, ofta efter epoch. För att se om generaliseringen är bra eller lutar mot overfitting

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Testdata

A

Den data som används när träningen är klar
- Data som modellen aldrig tidigare sett
- Testar generaliseringsförmåga

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Generaliserbarhet

A

Modellens förmåga att prestera bra på ny osedd data
- För at undvika overfitting

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Overfitting

A

När modellen lär sig brus och detaljer
- Anpassad efter specifika träningsdatan
- Inte lärt sig mönstret
- Kan inte prestera på osedd data
- Kan inte generalisera

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Optimering

A

Process där modellens parametrar justerar för att minska loss function

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Vad är målet med träningen?

A

Få modellen att hitta underliggande mönster och kunna generalisera

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Optimerare

A

Algoritmer som används för att justera vikterna under träningens gång

  • Gradient Descent
  • Stochastic Gradient Descent
  • ADAM
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Gradient Descent

A

Beräknar derivatan över hela träningsdatan

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Stochastic Gradient Descent

A

Beräknar derivatan, men justerar vikt efter varje enskild data, inte för hela datasetet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

ADAM

A

Avancerad och dynamisk för varje parameter

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Outliers

A

Avvikande värden på data

Datapunkterna är inte optimala och ger en missvisande träning, påverkar underliggande mönstret fel
- Vilket leder till overfitting

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Noise

A

Brusig data

  • Slumpmässiga variationer som inte är relaterade till det verkliga mönstret.
  • Kan användas för att skapa data
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Underfitting

A

När en modell är för enkel eller otränad
- Inte lyckats fånga det underliggande mönstret

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

The manifold hypothesis

A

Att man kan få högdimensionell data till lägre dimensioner utan att förlora viktig information

-Beskriver hur en bild som är högdimensionell och kanske har 1000 pixlar kan beskrivas med någora få parametrar som färg och ljusstyrka

17
Q

Interpolering

A

Matematisk metod för att uppskatta värden inom ett intervall baserat på kända värden.

Ex skapa en funktion som ligger mellan en handskriven 6 och 0. För att sedan kunna sätta en gräns när de övergår

18
Q

K-fold validation

A

Metod för att utvärdera modellen under pågående träning
Delar upp data för att testa prestation efter varje iteration

19
Q

Batchstorlek

A

Hur många datapunkter som används för varje iteration

20
Q

Iteration

A

Ett steg i träningen där en batch används

21
Q

Epoch

A

När all data passerat genom modellen en gång

22
Q

Learning rate

A

Bestämmer hur mycket modellen ska justera sina vikter för varje iteration

23
Q

Vad är det som producerar en output i en perceptron?

A

Aktiveringsfunktionen

24
Q

Hur gör man för att hantera med komplexa klassificeringsproblem med en perceptron?

A

Man sätter ihop flera perceptroner
- Multi layer perceptron

25
Vilka logiska funktioner kan man hantera med single layer perceptron?
AND - två villkor som måste uppfyllas för aktivering OR - något eller båda villkor måste uppfyllas för aktivering
26
Varför kan single layer perceptron klassificera AND och OR?
Eftersom det är linjärt separerbart
27
Vad innebär det att OR är inklusiv?
Att funktionen inkluderar både fallen som orsak till aktivering
28
Vad menas med att en funktion är exklusiv?
Att båda fallen INTE får vara sanna samtidigt för en output på 1. Det är exklusivt/enbart en enda indata som får vara 1 Detta är icke-linjärt separerbart
29
Är XOR separerbart eller inte
ICKE-separerbart Vi behöver multilayer perceptron för detta
30
Multi-layer perceptron
En perceptron där man lägger till hidden layer. Ger indirekt ett nätverk med flera perceptroner som arbetar parallellt. - AND - OR - XOR
31
Brukar man behöva flest neuroner i ingångslager eller hidden layer?
Hidden layer
32
Credit assignment problem
När man inte vet vilka vikter det är som orsakar problemet, i vilket lager?!
33
Vilken är vanligaste formen av backpropagation?
Gradient Descent