NLP Flashcards
Recurrent NN
Skickar tillbaka information till sig själv samtidigt som den skicar framåt
- Bra för sekvenser av data
Long Short-Term Memory
En typ av RNN
- Lägger till tidsstämpel
Sentimentanalys
Process där känslomässig information identiferar och extraheras
Hur går sentimentanalys till?
- Tokenization
- Stop word removal
- Extrahera och tilldela sentimentvärde
- Summera värden
One hot encoding
Varje ord representeras av binär vektor. Bara nollor och en enda etta. Vart ettan är avgör ord
Real-number value
decimaltal i vektorerna istället för binärt
seq2seq
Arkitektur i LLM som bygger på encoder-decoder
Latent vektor
Den numeriska representationen av en dold data, ofta ett ord
- för att fånga struktur
Olika metoder för prompt engineering?
- Chain-of-thought
- Self-ask
- ReAct
Är BERT bidirectional eller unidirectional
Bidirectional
Är GPT bidirectional eller unidirectional
Unidirectional
Chain-of-thought
Modellen tvingas stegvis resonera sig fram till ett svar. Resonemanget printas ut steg för steg och sist kommer svaret
Self-ask
modellen bryter ner en fråga i mindre delfrågor och ställer delfrågorna till sig själv. Slutligen blir det ett sista svar
ReAct
modellen förklarar först sitt resonemang, Re
Sedan agerar modellen på detta, Act
om och om igen tills det slutliga svaret
Varför är transformers bra?
Möjliggör parallell bearbetning av sekvenser
I vilka modeller används transformers?
De som GENERERAR data
Hur förbereds data inför en transformermodell?
- Tokenization
- Word embedding
- Positional encoding
Vad sker vid tokenization?
- Dela upp i mindre enheter
- Tilldela varje enhet unikt id
Vad sker vid wordembeddings?
Varje id från listan plockas ut och får egen array
Vad sker vid positional encoding?
Vektor från wordembeddning läggs ihop med vektor för position och blir en slutlig representation
Vad händer i self-attention mekanismen?
Beräknas uppmärksamhetsvektor som visar hur ordet hörhåller sig till övriga ord
- Hur mycket uppmärksamhet avrje ord ska få
- Ger kontext
Hur skapas uppmärksamhetsvektorn?
Attentionscore och softmax
Högre attentionscore ger högre vikt
Vad händer vid residual connections?
Residualen beräknas:
Uppmärksamhetsvektor + vektorn före attention
Vad händer i normaliseringslager?
Datan anpassas
Varje vektor ska ha medelvärde på 0 med standarsavvikelse på 1