Natural Language Processing Flashcards

1
Q

Vad står förkortningen NLP för?

A) Natural Language Processing

B) Neural Learning Protocol

C) Numeric Language Programming

D) Networked Logic Paradigm

A

Rätt svar: A) Natural Language Processing

Förklaring: NLP är en förkortning för Natural Language Processing, vilket är den vanliga termen för behandling av mänskligt språk med datorer, som direkt anges i kursmaterialet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vilka av följande användningsområden nämns i presentationen för NLP?

A) Översättning

B) Taligenkänning (Speech-to-Text)

C) Sentimentanalys

D) Alla ovanstående

A

Rätt svar: D) Alla ovanstående

Förklaring: Kursmaterialet listar flera användningsområden, däribland översättning, text-till-tal och sentimentanalys, vilket gör att alla alternativen stämmer.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vilka nivåer av tokenisering kan man använda inom NLP för att omvandla text till numeriska representationer?

A) Endast tecken

B) Endast ord

C) Tecken, ord och subord

D) Endast subord

A

Rätt svar: C) Tecken, ord och subord

Förklaring: Inom NLP kan tokenisering göras på flera nivåer beroende på uppgiftens behov. Man kan dela upp texten i enskilda tecken, hela ord eller använda en kompromiss med subord, vilket ger en flexibel hantering av språkliga strukturer.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Vad är en nackdel med att använda en enkel one-hot representation för ord?

A) Den kan bara representera små vokabulärer

B) Den kräver en mycket hög dimension för stora vokabulärer

C) Den använder realvärden istället för binära värden

D) Den bevarar inte ordets position i en mening

A

Rätt svar: B) Den kräver en mycket hög dimension för stora vokabulärer

Förklaring: One-hot representation kräver en stor vektor för varje ord, vilket blir ineffektivt när vokabulären är stor, något som lyfts fram i presentationen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Vilken komponent ingår typiskt i en seq2seq (encoder-decoder) arkitektur?

A) Konvolutionella neurala nätverk

B) LSTM-celler (Long Short-Term Memory)

C) Beslutsträd

D) Support Vector Machines

A

Rätt svar: B) LSTM-celler (Long Short-Term Memory)

Förklaring: Kursmaterialet visar att seq2seq-arkitekturen ofta använder LSTM-celler för att hantera sekvensdata i både encoder och decoder.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vad är syftet med “attention”-mekanismen i moderna översättningsmodeller?

A) Att reducera antalet noder i nätverket

B) Att använda endast det sista dolda tillståndet

C) Att viktas och använda alla dolda tillstånd för att fånga kontexten

D) Att ersätta alla LSTM-celler med enkla feedforward-nätverk

A

Rätt svar: C) Att viktas och använda alla dolda tillstånd för att fånga kontexten

Förklaring: Attention-mekanismer gör det möjligt att utnyttja alla dolda tillstånd i sekvensen, vilket förbättrar modellens förmåga att fånga kontext, vilket är centralt i moderna modeller.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Vilken av följande påståenden om Transformers är korrekt enligt presentationen?

A) Transformers är långsammare att träna än RNNs eftersom de är sekventiella

B) Transformers utnyttjar parallell bearbetning och är därmed snabbare att träna

C) Transformers saknar någon form av attention-mekanism

D) Transformers kan inte hantera långa sekvenser eftersom de inte har något minne

A

Rätt svar: B) Transformers utnyttjar parallell bearbetning och är därmed snabbare att träna

Förklaring: Till skillnad från RNNs kan Transformers bearbeta sekvenser parallellt, vilket gör dem både snabbare och effektivare vid träning.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Vilken skillnad betonas mellan traditionella chatbots och moderna konversations-AI enligt kursmaterialet?

A) Traditionella chatbots bygger på regler, medan moderna system (t.ex. ChatGPT) baseras på stora språkmodeller

B) Traditionella chatbots använder attention, medan moderna system enbart använder enkla statistiska metoder

C) Moderna chatbots är regelbaserade och förutsägbara

D) Traditionella chatbots klarar av multipla uppgifter utan specialisering

A

Rätt svar: A) Traditionella chatbots bygger på regler, medan moderna system (t.ex. ChatGPT) baseras på stora språkmodeller

Förklaring: Presentationen jämför traditionella, regelbaserade chatbots med moderna system som utnyttjar stora språkmodeller för att hantera multipla uppgifter.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Vad innebär “finetuning” av en LLM enligt kursmaterialet?

A) Att träna en modell helt från grunden med ett nytt dataset

B) Att lägga till extra instruktioner utan att ändra modellens vikter

C) Att träna om en redan förtränad modell på ett specifikt dataset för att anpassa den till en ny uppgift

D) Att använda modellen utan några ändringar alls

A

Rätt svar: C) Att träna om en redan förtränad modell på ett specifikt dataset för att anpassa den till en ny uppgift

Förklaring: Finetuning innebär att man tar en redan förtränad modell och tränar den vidare på ett nytt dataset för att specialanpassa den till en specifik uppgift, vilket beskrivs i presentationen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Vilka metoder kan användas inom prompt engineering för att förbättra prestandan hos stora språkmodeller?

A) Chain-of-thought (CoT)

B) Self-Ask

C) ReAct

D) Alla ovanstående

A

Rätt svar: D) Alla ovanstående

Förklaring: Inom prompt engineering finns flera tekniker, såsom Chain-of-thought för att uppmuntra steg-för-steg resonemang, Self-Ask för att bryta ner frågor i mindre delar och ReAct där modellen både resonerar och agerar. Alla dessa metoder används för att optimera och förbättra språkmodellernas svar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly