Natural Language Processing Flashcards
Vad står förkortningen NLP för?
A) Natural Language Processing
B) Neural Learning Protocol
C) Numeric Language Programming
D) Networked Logic Paradigm
Rätt svar: A) Natural Language Processing
Förklaring: NLP är en förkortning för Natural Language Processing, vilket är den vanliga termen för behandling av mänskligt språk med datorer, som direkt anges i kursmaterialet.
Vilka av följande användningsområden nämns i presentationen för NLP?
A) Översättning
B) Taligenkänning (Speech-to-Text)
C) Sentimentanalys
D) Alla ovanstående
Rätt svar: D) Alla ovanstående
Förklaring: Kursmaterialet listar flera användningsområden, däribland översättning, text-till-tal och sentimentanalys, vilket gör att alla alternativen stämmer.
Vilka nivåer av tokenisering kan man använda inom NLP för att omvandla text till numeriska representationer?
A) Endast tecken
B) Endast ord
C) Tecken, ord och subord
D) Endast subord
Rätt svar: C) Tecken, ord och subord
Förklaring: Inom NLP kan tokenisering göras på flera nivåer beroende på uppgiftens behov. Man kan dela upp texten i enskilda tecken, hela ord eller använda en kompromiss med subord, vilket ger en flexibel hantering av språkliga strukturer.
Vad är en nackdel med att använda en enkel one-hot representation för ord?
A) Den kan bara representera små vokabulärer
B) Den kräver en mycket hög dimension för stora vokabulärer
C) Den använder realvärden istället för binära värden
D) Den bevarar inte ordets position i en mening
Rätt svar: B) Den kräver en mycket hög dimension för stora vokabulärer
Förklaring: One-hot representation kräver en stor vektor för varje ord, vilket blir ineffektivt när vokabulären är stor, något som lyfts fram i presentationen.
Vilken komponent ingår typiskt i en seq2seq (encoder-decoder) arkitektur?
A) Konvolutionella neurala nätverk
B) LSTM-celler (Long Short-Term Memory)
C) Beslutsträd
D) Support Vector Machines
Rätt svar: B) LSTM-celler (Long Short-Term Memory)
Förklaring: Kursmaterialet visar att seq2seq-arkitekturen ofta använder LSTM-celler för att hantera sekvensdata i både encoder och decoder.
Vad är syftet med “attention”-mekanismen i moderna översättningsmodeller?
A) Att reducera antalet noder i nätverket
B) Att använda endast det sista dolda tillståndet
C) Att viktas och använda alla dolda tillstånd för att fånga kontexten
D) Att ersätta alla LSTM-celler med enkla feedforward-nätverk
Rätt svar: C) Att viktas och använda alla dolda tillstånd för att fånga kontexten
Förklaring: Attention-mekanismer gör det möjligt att utnyttja alla dolda tillstånd i sekvensen, vilket förbättrar modellens förmåga att fånga kontext, vilket är centralt i moderna modeller.
Vilken av följande påståenden om Transformers är korrekt enligt presentationen?
A) Transformers är långsammare att träna än RNNs eftersom de är sekventiella
B) Transformers utnyttjar parallell bearbetning och är därmed snabbare att träna
C) Transformers saknar någon form av attention-mekanism
D) Transformers kan inte hantera långa sekvenser eftersom de inte har något minne
Rätt svar: B) Transformers utnyttjar parallell bearbetning och är därmed snabbare att träna
Förklaring: Till skillnad från RNNs kan Transformers bearbeta sekvenser parallellt, vilket gör dem både snabbare och effektivare vid träning.
Vilken skillnad betonas mellan traditionella chatbots och moderna konversations-AI enligt kursmaterialet?
A) Traditionella chatbots bygger på regler, medan moderna system (t.ex. ChatGPT) baseras på stora språkmodeller
B) Traditionella chatbots använder attention, medan moderna system enbart använder enkla statistiska metoder
C) Moderna chatbots är regelbaserade och förutsägbara
D) Traditionella chatbots klarar av multipla uppgifter utan specialisering
Rätt svar: A) Traditionella chatbots bygger på regler, medan moderna system (t.ex. ChatGPT) baseras på stora språkmodeller
Förklaring: Presentationen jämför traditionella, regelbaserade chatbots med moderna system som utnyttjar stora språkmodeller för att hantera multipla uppgifter.
Vad innebär “finetuning” av en LLM enligt kursmaterialet?
A) Att träna en modell helt från grunden med ett nytt dataset
B) Att lägga till extra instruktioner utan att ändra modellens vikter
C) Att träna om en redan förtränad modell på ett specifikt dataset för att anpassa den till en ny uppgift
D) Att använda modellen utan några ändringar alls
Rätt svar: C) Att träna om en redan förtränad modell på ett specifikt dataset för att anpassa den till en ny uppgift
Förklaring: Finetuning innebär att man tar en redan förtränad modell och tränar den vidare på ett nytt dataset för att specialanpassa den till en specifik uppgift, vilket beskrivs i presentationen.
Vilka metoder kan användas inom prompt engineering för att förbättra prestandan hos stora språkmodeller?
A) Chain-of-thought (CoT)
B) Self-Ask
C) ReAct
D) Alla ovanstående
Rätt svar: D) Alla ovanstående
Förklaring: Inom prompt engineering finns flera tekniker, såsom Chain-of-thought för att uppmuntra steg-för-steg resonemang, Self-Ask för att bryta ner frågor i mindre delar och ReAct där modellen både resonerar och agerar. Alla dessa metoder används för att optimera och förbättra språkmodellernas svar.