NLP CHAT Flashcards

1
Q

Vad är NLP och vad används det till?

A

Natural Language Processing (NLP) är en teknik för att analysera, förstå och generera mänskligt språk. Används för översättning, sentimentanalys, chatbots, etc.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vad är tokenisering?

A

Processen att dela upp text i mindre delar (tokens) som kan vara tecken, ord eller subord.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vad är en utmaning med ord-tokenisering?

A

Out of Vocabulary (OOV) problem - ord som inte finns i vokabulären kan vara svåra att hantera.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Vad är word embeddings?

A

Numeriska representationer av ord som gör att maskiner kan förstå semantiska relationer mellan ord.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Ge ett exempel på word embeddings-teknik.

A

One-hot vektorer, där varje ord representeras av en binär vektor med en enda 1:a.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vad är en nackdel med one-hot vektorer?

A

De kräver mycket minne eftersom de har hög dimension.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Vad är encoder-decoder-arkitekturen?

A

En modell där en encoder bearbetar indata och en decoder genererar utdata, ofta använt i sekvens-till-sekvens-modeller som maskinöversättning.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Vad är en latent representation?

A

En kompakt representation av en sekvens som används av en decoder för att generera utdata.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Vad löser attention-mekanismen?

A

Den hanterar problemet med långa sekvenser genom att tilldela vikt till olika delar av indata vid varje tidssteg.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Vad är en transformer-modell?

A

En neural nätverksarkitektur som bygger på självuppmärksamhet (self-attention) och möjliggör parallell bearbetning.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Hur skiljer sig transformer-modeller från RNNs?

A

Transformers tillåter parallell bearbetning medan RNNs bearbetar sekvenser sekventiellt, vilket gör RNNs långsammare att träna.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Vad är en stor fördel med LLMs?

A

De kan användas för flera uppgifter (multitasking) och kan generalisera över olika domäner.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Vad är skillnaden mellan finetuning och prompting?

A

Finetuning innebär att man tränar om en LLM på en specifik dataset, medan prompting innebär att man ger extra instruktioner för att styra output utan att ändra modellen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Vad är Chain of Thought (CoT)?

A

En prompting-teknik där modellen uppmanas att redogöra för sina tankesteg innan den ger ett slutligt svar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Vad är Self-Ask?

A

En teknik där en LLM bryter ner en fråga i mindre delfrågor för att stegvis komma fram till svaret.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Vad är en traditionell chatbot jämfört med en modern AI-driven chatbot?

A

En traditionell chatbot använder fördefinierade svar medan en modern AI-driven chatbot genererar dynamiska svar baserat på kontext.

17
Q

Vad är Turing-testet?

A

Ett test där en dator försöker övertyga en mänsklig domare att den också är en människa.

18
Q

Vad är en foundation model?

A

En stor språkmodell (LLM) som kan generalisera över många olika uppgifter och inte är begränsad till en specifik funktion.

19
Q

Nämn en utmaning med att träna LLMs från grunden.

A

Det kräver extremt mycket beräkningskraft och resurser eftersom modellerna har miljarder/triljoner parametrar.

20
Q

Hur kan LLMs användas inom sjukvård?

A

De kan användas i expertssystem, diagnostik och rekommendationer inom sjukvård.