NLP Flashcards

1
Q

Recurrent NN

A

Skickar tillbaka information till sig själv samtidigt som den skicar framåt

  • Bra för sekvenser av data
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Long Short-Term Memory

A

En typ av RNN
- Lägger till tidsstämpel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Sentimentanalys

A

Process där känslomässig information identiferar och extraheras

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Hur går sentimentanalys till?

A
  • Tokenization
  • Stop word removal
  • Extrahera och tilldela sentimentvärde
  • Summera värden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

One hot encoding

A

Varje ord representeras av binär vektor. Bara nollor och en enda etta. Vart ettan är avgör ord

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Real-number value

A

decimaltal i vektorerna istället för binärt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

seq2seq

A

Arkitektur i LLM som bygger på encoder-decoder

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Latent vektor

A

Den numeriska representationen av en dold data, ofta ett ord

  • för att fånga struktur
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Olika metoder för prompt engineering?

A
  • Chain-of-thought
  • Self-ask
  • ReAct
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Är BERT bidirectional eller unidirectional

A

Bidirectional

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Är GPT bidirectional eller unidirectional

A

Unidirectional

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Chain-of-thought

A

Modellen tvingas stegvis resonera sig fram till ett svar. Resonemanget printas ut steg för steg och sist kommer svaret

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Self-ask

A

modellen bryter ner en fråga i mindre delfrågor och ställer delfrågorna till sig själv. Slutligen blir det ett sista svar

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

ReAct

A

modellen förklarar först sitt resonemang, Re

Sedan agerar modellen på detta, Act

om och om igen tills det slutliga svaret

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Varför är transformers bra?

A

Möjliggör parallell bearbetning av sekvenser

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

I vilka modeller används transformers?

A

De som GENERERAR data

17
Q

Hur förbereds data inför en transformermodell?

A
  • Tokenization
  • Word embedding
  • Positional encoding
18
Q

Vad sker vid tokenization?

A
  • Dela upp i mindre enheter
  • Tilldela varje enhet unikt id
19
Q

Vad sker vid wordembeddings?

A

Varje id från listan plockas ut och får egen array

20
Q

Vad sker vid positional encoding?

A

Vektor från wordembeddning läggs ihop med vektor för position och blir en slutlig representation

21
Q

Vad händer i self-attention mekanismen?

A

Beräknas uppmärksamhetsvektor som visar hur ordet hörhåller sig till övriga ord
- Hur mycket uppmärksamhet avrje ord ska få
- Ger kontext

22
Q

Hur skapas uppmärksamhetsvektorn?

A

Attentionscore och softmax

Högre attentionscore ger högre vikt

23
Q

Vad händer vid residual connections?

A

Residualen beräknas:

Uppmärksamhetsvektor + vektorn före attention

24
Q

Vad händer i normaliseringslager?

A

Datan anpassas
Varje vektor ska ha medelvärde på 0 med standarsavvikelse på 1

25
Vilken aktivering används i feedforward i transformers?
ReLu
26
Sker det vanlig multiheaded self-attention efter masked multi-headed self attention i decodern?
Ja
27
Vilken aktiveringsfunktion används för de slutliga representationerna innan de printas ut?
Softmax Sannolikhet