11) Umjetne neuronske mreže Flashcards

1
Q

Razlikovati izmedu simboličke i konekcionističke UI

A

Od prvih dana razvoja umjetne inteligencije (rane ‘50) postoje dva pristupa razvoju inteligentnih sustava:
I Simbolički pristup: znanje iz neke domene nastoji se obuhvatiti skupom atomičkih semantičkih objekata (simbola) i zatim manipulirati tim simbolima pomoću algoritamskih pravila
I Konektivistički pristup: temelji se na izgradnji sustava arhitekture slične arhitekturi mozga koji, umjesto da ga se programira, uči samostalno na temelju iskustva
Simbolički pristup je dobar u mnogim područjima (osobito isplativ postao je razvojem ekspertnih sustava), ali nije ispunio rana ekstravagantna obećanja.
Neuspjeh leži u pogrešnoj pretpostavci da je svako znanje moguće formalizirati i da je mozak stroj koji podatke obrađuje formalnim pravilima.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Objasniti osnovne koncepte UNM (UNM, unaprijedna i unaprijedna slojevita UNM)

A

Umjetna neuronska mreža je skup mđusobno povezanih jednostavnih procesnih elemenata (neurona) čija se funkcionalnost temelji na biološkom neuronu i koji služe distribuiranoj paralelnoj obradi podataka. Dvije faze rada s ANN:
1 Faza učenja (treniranja) i
2 Faza obrade podataka (iskorištavanja, eksploatacije).
Učenje je iterativan postupak predo£avanja ulaznih primjera (uzoraka, iskustva) i eventualno o£ekivanog izlaza pri £emu dolazi do postupnog prilagođavanja težina veza između neurona.
Jedno predočavanje svih uzoraka naziva se epohom
Razlikujemo:
1 Pojedinačno učenje (engl. on-line): učenje se događa nakon svakog predočenog uzorka
2 Učenje s minigrupama (engl. mini-batches): učenje se događa nakon više predočenih uzoraka
3 Grupno učenje (engl. batch): učenje se događa tek nakon svih predočenih uzoraka
Znanje o izlazu kao funkciji ulaza pohranjeno je implicitno
u težinama veza neurona

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Skicirati, objasniti i formalno definirati McCulloch-Pittsov model umjetnog neurona

A

TLU Perceptron (Threshold Logic Unit). Vrijednost sa svakog ulaza xi množi se osjetljivošću tog ulaza wi i akumulira u tijelu. Ukupnoj sumi dodaje se pomak w0 (još se označava i b od engl. bias). Time je definirana akumulirana vrijednost net = suma od 1 do n wi*xi + w0.
Ta se vrijednost propu²ta kroz prijenosnu funkciju čime nastaje izlazna vrijednost: o = step(net)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Navesti i definirati različite prijenosne funkcije

A

Često korištene prijenosne funkcije su:
I Identitet (ADALINE-neuron) - propušta ono što je na ulazu
I Funkcija skoka (TLU-perceptron) 0 ili 1
I Sigmoidalna funkcija (sigmoidalni neuron) = 1/1+e^(-net)
I Tangens hiperbolni (2/1+e^(-2net)) - 1
I Zglobnica (Rectied Linear Unit, ReLU) max(0, net)
I Propusna zglobnica (Leaky Rectied Linear Unit, LReLU) net ako veće jednako od 0, alfa * net inače

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Objasniti TLU-perceptron

A

model umjetnog neurona omogu¢ava da se akumulirana
vrijednost propusti kroz neku prijenosnu funkciju f.
Objasniti kako ide kroz njega i kako je spojen s drugima.
TLU-perceptron ima linearnu decizijsku
granicu. Takvim neuronom ne možemo riješiti
problem klasifkacije linearno-nerazdvojivih razreda. Da bismo pove’ali ekspresivnost mreže i omogućili joj modeliranje nelinearnih odnosa, korišteni neuroni moraju imati prijenosne funkcije koje su nelinearne.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Definirati i objasniti Rosenblattov algoritam učenja perceptrona

A

Mijenjanjem jačina neuron uči.
Ciklički prolazi kroz svih N uzoraka za učenje, jedan po jedan.
Klasifciraj trenutni uzorak.
Ako se klasifcira korektno, ne mijenjaj težine i
ako je to N-ti uzastopni uzorak klasifciran korektno, prekini učenje,
inače prijeđi na sljedeći uzorak.
Ako se ne klasifcira korektno, korigiraj težine perceptrona prema sljedećem izrazu:
wi(k + 1) ← wi(k) + η · (t − o) · xi
Parametar η (eta) naziva se stopa učenja
I To je pozitivan broj malog iznosa (primjerice, između 0.001 i 0.5) koji regulira u kojoj će se mjeri ažurirati trenutne vrijednosti težina
I Ako je η premali, postupak učenja će napredovati vrlo sporo
I Ako je η preveliki, postupak može divergirati

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Primijeniti Rosenblattov algoritam učenja perceptrona na dani skup podataka

A

Tablica: epoha (x1, x2, y) net faktor o
korekcija-da/ne?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Objasniti potrebu za nelinearnim prijenosnim funkcijama

A

Identiteta tj izlaz iz neurona može modelirati samo linearne funkcije između -1 i 1, pa nam, ako želimo modelirati nelinearne funkcije ili trebamo drugačiji izlaz koristimo prijenosne funkcije.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Objasniti notaciju za strukturu unaprijedne slojevite neuronske mreže

A

Slojevi međusobno povezanih neurona - ulazni, skriveni i izlazni slojevi. U svakom sloju je n neurona, u svaki ulaze pragovi i težine

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Objasniti problem dodjele odgovornosti i kako algoritam BP rješava taj problem

A

Postupak u£enja neuronskih mreºa koji se temelji na u£inkovitom izra£unu
svih parcijalnih derivacija i njihovoj primjeni na odreživanje iznosa kojim
korigiramo svaku od teºina zove se Postupak propagacije pogre²ke unatrag
(engl. Error Backpropagation)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Definirati izraze za pogreške i ažuriranje težina algoritma BP

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Primijeniti algoritam BP na danu UMN i jedan primjer za učenje

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly