Prov 3 AI Neurala nätverk Flashcards
Aktiveringsfunktioner
ReLU – Vanligast, släpper igenom positiva värden, sätter negativa till 0.
Sigmoid – Mjuk kurva mellan 0 och 1, används för binär klassificering.
(Sigmoidfunktion - En matematisk funktion som omvandlar kontinuerliga värden till ett intervall mellan 0 och 1.)
Softmax – Omvandlar output till sannolikheter, används vid flerklasser.
Noder
Neurala nätverk
Grundläggande beräkningsenheter i ett neuralt nätverk
Varje aktiv enhet som kan sända, ta emot eller vidareförmedla data är en nod.
Lager
Neurala nätverk
Grupper av noder organiserade i inmatnings-, dolda- och utmatningslager.
Bakåtpropagering (Backpropagation)
Algoritm som justerar vikter i ett neuralt nätverk baserat på felet.
Sekventiellt nätverk
Ett nätverk där lager ligger i ordning.
Fördelar: Enkel struktur.
Nackdelar: Begränsad flexibilitet.
Tillämpningar
Klassificering (binär, multipel) – Exempel: spamfilter, bildigenkänning.
Regression: Förutspå kontinuerliga värden.
Klassificering: T.ex. identifiering av bilder eller text.
Beräkning av träningsbara parametrar
Beror på antalet noder och lager, inklusive vikter och biasar mellan noder.