Matematiska byggstenar Flashcards
Vad är en vektor enligt kursmaterialet?
A) Ett enskilt tal
B) Ett geometriskt plan
C) En tvådimensionell matris
D) En lista med tal som beskriver storlek och riktning (t.ex. en rad i ett kalkylblad)
Svar: D
Förklaring: En vektor är en ordnad samling tal (t.ex. en rad i ett kalkylblad) som kan representera data med både storlek och riktning.
Vad är dotprodukten (skalärprodukt) mellan två vektorer?
A) Summan av de två vektorerna
B) Skillnaden mellan två vektorer
C) Summan av produkterna av motsvarande element
D) Produkten av längderna av vektorerna
Svar: C
Förklaring: Dotprodukten beräknas genom att multiplicera motsvarande element i två vektorer och sedan summera dessa produkter, vilket ofta kallas en “weighted sum”.
Hur definieras en matris enligt kurslitteraturen?
A) Som en enskild vektor
B) Som en ordnad samling av skalärer i rader och kolumner
C) Som ett tal med en riktning
D) Som en tensor av rank 0
Svar: B
Förklaring: En matris är en tvådimensionell ordnad samling av tal organiserade i rader och kolumner, vilket även kan ses som data i form av ett kalkylblad.
Vad är en tensor enligt kurslitteraturen?
A) Ett specialiserat neuralt nätverk
B) En metod för att beräkna dotprodukter
C) Enbart en tvådimensionell matris
D) En container för att lagra data, som kan vara skalärer, vektorer, matriser eller högre ordningens arrayer
Svar: D
Förklaring: En tensor är en generell datastruktur för att lagra numerisk data och kan ha olika “rank” (0: skalär, 1: vektor, 2: matris, etc.).
Vilket påstående stämmer om tensorernas “rank”?
A) En skalär är en tensor av rank 0, en vektor av rank 1 och en matris av rank 2
B) En skalär är en tensor av rank 1, en vektor av rank 2 och en matris av rank 3
C) Alla tensorer har alltid rank 2
D) Rank definieras endast för matriser
Svar: A
Förklaring: Definitionen anger att en skalär är en tensor med rank 0, en vektor har rank 1 och en matris har rank 2.
Hur kan en gråskalig bild representeras med hjälp av tensorer?
A) Som en vektor
B) Som en matris (2D-tensor)
C) Som en tensor av rank 0
D) Som en sekvens av skalärer
Svar: B
Förklaring: En gråskalig bild representeras vanligtvis som en matris där varje element motsvarar en pixelvärde, alltså en tensor av rank 2.
Vad är en artificiell neuron i ett neuralt nätverk?
A) En funktion som enbart summerar indata
B) En metod för att normalisera indata
C) En datatyp som lagrar matriser
D) En komponent som beräknar en viktad summa av ingångar, lägger till ett bias och applicerar en aktiveringsfunktion
Svar: D
Förklaring: En artificiell neuron tar emot ingångar, multiplicerar dem med vikter, adderar ett bias och skickar resultatet genom en aktiveringsfunktion (exempelvis ReLU) för att producera en output.
Hur lagras vikterna för alla neuroner i ett lager vanligtvis?
A) Som en lista
B) Som en skalär
C) Som en matris
D) Som en tensor med rank 0
Svar: C
Förklaring: Vikterna för ett helt lager lagras oftast i en matris där varje rad (eller kolumn) representerar vikterna för en neuron, vilket gör att vi kan använda dotprodukter vid beräkningen.
Vad beskriver “shape” hos en tensor?
A) Antalet element i tensoren
B) En tuple med heltal som anger längden på varje dimension
C) Antalet rader i en matris
D) Talets storlek i bytes per kolumn
Svar: B
Förklaring: Shape beskriver dimensionerna hos en tensor genom en tuple av heltal, t.ex. en matris med 2 rader och 3 kolumner har shape (2, 3).
Vad är syftet med en loss-funktion (error function) vid träning av nätverksmodeller?
A) Att mäta hur bra modellen presterar på träningsdata genom att jämföra prediktioner med faktiska värden
B) Att beräkna gradienterna i nätverket för att avgöra hur vikterna ska justeras
C) Att indikera när modellen börjar överanpassa sig genom att mäta skillnader på en valideringsuppsättning
D) Att bestämma den optimala inlärningshastigheten baserat på skillnaderna mellan prediktioner och faktiska värden
Svar: A
Förklaring: Loss-funktionen beräknar skillnaden mellan modellens prediktioner och de faktiska värdena, vilket används för att styra hur vikterna ska justeras under träningen.
Vad är gradient descent?
A) En direkt ekvation som beräknar optimala vikter genom att lösa linjära system
B) En metod för att normalisera indata genom att justera deras fördelning
C) En iterativ optimeringsalgoritm som justerar modellens vikter genom att röra sig i riktning mot den negativa gradienten
D) Ett sätt att estimera vikternas inverkan genom att summera deras individuella bidrag till förlusten
Svar: C
Förklaring: Gradient descent är en central optimeringsmetod där man beräknar gradienten (partiella derivatan) av loss-funktionen med avseende på vikterna och justerar dessa i riktning mot att minska felet.
Vad används partialderivator till inom träning av neurala nätverk?
A) För att beräkna loss-funktionen direkt
B) För att mäta förändringen av loss-funktionen med avseende på en enskild vikt, vilket är nödvändigt vid backpropagation
C) För att normalisera indata
D) För att bestämma tensorernas shape
Svar: B
Förklaring: Partialderivator visar hur loss-funktionen förändras när en enskild vikt ändras, och är avgörande för att kunna uppdatera vikterna korrekt under backpropagation.
Vad är syftet med att använda kedjeregeln (chain rule) i neurala nätverk?
A) Att beräkna dotprodukter
B) Att öka inlärningshastigheten
C) Att dela upp en komplex derivata i enklare delar, så att man kan beräkna gradienten genom flera lager
D) Att normalisera loss-funktionen
Svar: C
Förklaring: Kedjeregeln används för att bryta ner beräkningen av gradienten för en sammansatt funktion (som ett neuralt nätverk) i enklare steg, vilket är fundamentalt för backpropagation.
Vad menas med “momentum” i optimeringssammanhang?
A) Att vikterna uppdateras med en fast konstant
B) Att tidigare gradienter tas med i beräkningen för att hjälpa till att undvika att fastna i lokala minima
C) Att öka batchstorleken
D) Att byta aktiveringsfunktion under träning
Svar: B
Förklaring: Momentum är en teknik där man lägger till en del av den tidigare uppdateringen i den nuvarande, vilket hjälper modellen att glida över små lokala minima och accelerera i riktningen mot det globala minimumet.
import numpy as np
tensor = np.array
([[1, 2, 3],
[4, 5, 6]])
Vilket av följande alternativ beskriver korrekt både tensorens rank (ndim) och shape?
A) Tensorn är en 2-dimensionell array (rank 2) med shape (2, 3)
B) Tensorn är en 1-dimensionell array (rank 1) med shape (6,)
C) Tensorn är en 2-dimensionell array (rank 2) med shape (3, 2)
D) Tensorn är en 3-dimensionell array (rank 3) med shape (1, 2, 3)
Svar: A
Förklaring: Koden skapar en 2x3-matris, vilket innebär att den är en 2-dimensionell array med shape (2, 3) och därmed har rank 2.
import numpy as np
tensor = np.array
([[[1, 2], [3, 4]],
[[5, 6], [7, 8]]])
Vilket alternativ beskriver korrekt tensorens struktur, rank och shape?
A) En 3-dimensionell array (rank 3) med shape (2, 2, 2)
B) En 2-dimensionell array (rank 2) med shape (2, 4)
C) En 3-dimensionell array (rank 3) med shape (2, 4, 1)
D) En 1-dimensionell array (rank 1) med shape (8,)
Svar: A
Förklaring: Koden skapar en array med tre dimensioner där den yttre listan innehåller 2 element, varje element är en 2x2-matris. Därför är tensorens rank 3 med shape (2, 2, 2).
import numpy as np
tensor = np.array
([1, 2, 3, 4, 5])
Hur klassificeras denna array enligt matematisk terminologi och vad är dess rank?
A) Det är en 1-dimensionell array (vektor) med rank 1
B) Det är en 0-dimensionell tensor (skalär) med rank 0
C) Det är en 2-dimensionell array (matris) med shape (5, 1) och rank 2
D) Det är en 1-dimensionell array men betraktas som en matris med rank 2
Svar: A
Förklaring: En array med en enda lista av tal är en vektor, vilket innebär att den är 1-dimensionell (rank 1).