INFÖR TENTA Flashcards

1
Q

Vilken är den enklaste typen av ANN?

A

Perceptronen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vad är grunden för maskininlärning?

A

Perceptronen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vad är Single Layer Perceptronen lämplig för?

A

Enkel klassificering där problemen är binära
- Antingen katt eller hund

Problem som är linjärt separerbara

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Kan single layer perceptron hantera icke-linjärt-separerbara problem?

A

NEJ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Kan multi-layer-perceptronen hantera icke-linjärt-separerbara problem?

A

JA

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vilka logiska operationer är linjärt separerbara?

A

AND
OR (inklusiv)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Vilken logisk operation är icke-linjärt separerbar?

A

XOR
(exklusiv)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Vad innebär det att ett probem är linjärt separerbart?

A

Går att separera datan med en enda linje till två grupper
- Binärt, till två grupper

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Varför gav man upp tron på AI?

A

För att single layer perceptronen hade nått ett tak. Man trodde detta då gällde all AI

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Hur skiljer sig MLP från SLP?

A

Det adderar hidden layer

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Hur fungerar MLP?

A

Som flera SLP som arbetar parallellt

  • Kan dra som egna linjer för att separera flera saker
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Credit assignment problem

A

Kan uppstå i MLP
Dilemma kring vilken vikt som orsakar felaktig output

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hur hanterar man credit assignment problem?

A

Backporpagation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Backpropagation

A

Är en metod för att minska loss function i jakt på vilken vikt som behöver justeras

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Hur går backpropagation till?

A
  • Inleds efter output
  • Utgår från outputlager och jobbat bakåt
  • Utgår från loss function
  • Räknar ut hur mycket varje vikt bidrog till felet, till loss function
  • Om och om igen för varje vikt i varje lager
  • När fel upptäcks ska de justeras
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Vilken optimeringsalgoritm används vis backpropagation?

A

Gradient descent

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Hur fungerar gradient descent?

A

Efter att backpropagation räknat ut hur mycket en vikt bidrar till den felaktiga outputen så kommer GD att beräkna hur mycket vikten ska justeras. Detta är en iterativ process.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Vad är det som gradient descent räknar ut för att veta hur mycket vikten ska justeras?

A

Parietalderivatan

  • Ser till lutningen för varje vikt
  • Räknar ut hur mycket vikten ska justeras med hänsyn till alla vikter i nätverket. Eftersom alla påverkar alla
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Vad var det som gjorde att intresset för AI kom tillbaka under 80-talet?

A

Att man upptäckte gradient descent och backpropagation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Hur fungerar symbolisk AI

A
  • Fördefinierade explicita regler från användare
  • Top-Down
  • Manipulation av symboler
  • IF , THEN
  • Får regeler och data för att ge svar
  • Fungerar bra i mico, schack
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Vad är dåligt med symbolisk AI?

A
  • Når ett tak
  • Går inte ge den alla regler för alla tänkbara scenarion
  • Kan ej hitta mönster
  • Kan ej generalisera
  • Dålig på luddiga problem, om en hund är för lik en katt
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Vad gör ANN bättre än symbolisk AI?

A
  • Lär sig själv
  • Behöver ingen manuell kodning
  • Kan hantera komplexa och luddiga problem
  • Bottom-Up, tar info
  • Maskininlärning
  • Lär sig mönster
  • Kan generaliser
  • Macro
  • Får data och svar och skapar själv regler
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Vad visas i en confusion matrix?

A

Accuracy hos en klassificeringsmodell?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Vad menas med accuracy?

A

Hur träffsäker modellen är

  • Hur många rätt den har
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Vad visar tabellen som skapas vid confusion matrix?
Hur många prediktioner som var rätt och fel - TP - FP - TN - FN
26
Gör confusion matrix träningen övervakad?
Ja
27
Fine tuning
För att förbättra prestandan på en specifik uppgift i en redan förtränad modell
28
Hur gör man vid fine tuning?
Man använder ny data för att justera vikterna i den färdiga modellen
29
Varför använder man fine tuning?
Slippa skapa och träna ny modell
30
Prompt engineering
Används i LLM för att påverla modellens output. Man ändrar inga vikter eller modellens struktur. Man anpassar instruktionerna som modellen får för att anpassa vad modellen ska generera
31
Vad är MNIST?
Ett dataset med handskriva siffror från 0-9
32
Hur går det till när en modell tränar sig på MNIST?
- Före träningen konventeras varje bild till en vektor. Vektorn representerar pixlarna där 1 = färg och 0 = tom - Vektorn (bildens pixlar) åker in i modellen - Modellen gör en gissning på siffra - Vid fel gissning beräknas loss function - Backpropagation - Detta itereras tills träningen är klar
33
Vad är layerwise-relevence-propagation?
En metod inom XAI för att förklara bildklassificering. Syftet är att förstå varför modellen klassificerar som den gör
34
Hur går layerwise-relevence-propagation till?
- Börjar i outputlager - Outputen får en relevansscore - Score arbetas bakåt genom nätverket till inputlagret - Relevansscore fördelas över alla inputs - Inputsen är ofta pixlar - Hur mycket score en input får beror på uhr mycket den har bidragit till nätverkets output
35
Beskriv Layerwise-relevense-propagation med tre ord:
- Local - Model specific - Posthoc
36
För vad används Convolutional Neural Networks?
Visuell data
37
Hur förbereds datan inför CNN?
Pixlarna görs om till tensorer
38
Är kopplingarna mellan convolutional layer och pooling layer dense?
Nej
39
Hur skapas feature map
Ett filter med förtränade vikter för visst feature sveper över bilder
40
Vad heter processen där filtrer sveper över bilden?
Convolution
41
Vad bildar vi convolution?
Feature map - Skapas när filtret glider över bilden
42
Vad händer med feature mapen?
Når pooling layer och går igenom pooling
43
Vad sker vid pooling?
Skapas pooling map
44
Finns det förtränade vikter i pooling map?
Nej
44
Vilka värden plockas ut när pooling map skapas
- Största - Medelvärde
45
Är feature map eller tillhörande pooling map störst
Feature map Eftersom pooling map är en sammanfattning av det viktigaste från feature map
46
Innebär feature map down sampling?
Ja
47
Vad är down sampling?
Minskar spatiala upplösningen
48
Vad händer med receptieve fields vid downsampling?
Ökar - Längre in i nätverket är fälten större pga mer downsampling
49
Vad är nästa steg i CNN efter sista poolinglayer?
- Pooling map plattas ut till vektor via flatten. - Vektorn åker in in klassificeringsmodell. - Softmax
50
Vad är receptive fields
Den del av INGÅNDSbilden som en neuron kan se Detta gäller alla neuroner i nätverket
51
Vad innebär högre känslighet för en neuron?
Aktiveras enklare och starkare när något träffar receptive field
52
Spatial invarience
Att filter kan känna igen feature oavsett vart det finns på bilden
53
Hur skrivs funktionen "shape"?
[lager , rader , kolumner]
54
Föreställ dig en multi-layer-perceptron. Hur många gånger beräknas dot-product?
Dot-product beräknas för varje neuron som TAR EMOT en eller flera vektorer
55
Vad är dot product?
När man räknar ut en enda summa för vektorer - Vektorerna måste vara lika stora
56
Vad kan dot product kallas?
Skalärprodukt
57
Hur många pooling maps skapas?
Lika många som antalet feature maps
58
Vad menas med fully connected eller dense?
Att alla neuroner i ett alger kopplas till alla neuroner i tidigare och nästa lager
59
Om du får veta att en CNN har 3 classes. Vad innebär detta?
Att den har 3 lager
60
Vilka värden kan en Linjär aktiveringsfunktion ge?
Alla, den är obegränsad
61
Hur bra eller dålig är en linjär aktiveringsfunktion?
Dålig för klassificering Kan bara dra rak linje Kan ej hanter icke-linjärt-separerbart
62
Vilka värden kan en ReLu aktivering ge?
Från 0 och större För negativa värden blir output alltid 0. Efter detta linjärt
63
Vilka värden kan Sigmoid function ge?
0-1 Sannolikhet med minst 0% och max 100% Om x är 0 blir output 0,5
64
Vad är Sigmoid function bra för
Klassificering Kan hantera binära och icke-linjära
65
Vilka värden kan softmax function ge?
0-1 Sannolikhet Summan av alla outputs blir alltid 1 (100%) S-kurva
66
Vad är softmax function bra för
Multiklassificering
67
Hur påverkas klassificerings-delen när det är djupare CNN?
Enklare klassificering Färre data som kommer in pga mer subsampling vid fler lager i CNN