Teorija Flashcards

1
Q

Slabosti preiskovanja v globino v primerjavi s preiskovanjem v širino

A

Lahko zaide v neskončne veje in ne najde rešitve. Ni optimalno, saj ne zagotavlja najkrajše poti do rešitve.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Prednost preiskovanja v globino v primerjavi s širinskim preiskovanjem

A

Manjša prostorska zahtevnost, saj hrani le pot do trenutnega vozlišča.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Podobnosti med algoritmom širinskega preiskovanja in iterativnim poglabljanjem

A

Oba algoritma sta popolna in zagotavljata, da bosta našla rešitev, če ta obstaja.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Razlike med algoritmom širinskega preiskovanja in iterativnim poglabljanjem

A

Širinsko preiskovanje uporablja vrsto in hkrati razišče vsa vozlišča na isti globini. Iterativno poglabljanje kombinira širinsko in globinsko preiskovanje, ponavlja globinsko preiskovanje z vedno večjo dovoljeno globino.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Definicija optimistične hevristične funkcije h v algoritmu A*

A

Hevristična funkcija h je optimistična, če nikoli ne preceni dejanskih stroškov poti do cilja (h(n) ≤ h*(n)).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Zakaj smo zainteresirani za optimistične hevristične funkcije h v algoritmu A*

A

Optimistične funkcije zagotavljajo, da je A* popoln in optimalen, saj vedno najde najkrajšo pot.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Kaj pomeni pretirano prilagajanje (angl. overfitting) v strojnem učenju

A

Pretirano prilagajanje pomeni, da model preveč natančno sledi učnim podatkom, vključno s šumom in nepomembnimi vzorci.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Kaj so nezaželene posledice pretiranega prilagajanja

A

Model ima slabo generalizacijo na novih podatkih, kar vodi do slabše napovedne točnosti.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Kako se manifestirajo težave pri učenju odločitvenih dreves iz šumnih podatkov

A

Odločitvena drevesa se lahko naučijo šumnih vzorcev, kar vodi do pretiranega prilagajanja in slabe napovedne točnosti.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Kaj je osnovna ideja pri učenju dreves iz šumnih podatkov

A

Uporaba metod za obrezovanje dreves in tehnike, kot so omejitev globine drevesa, da se zmanjšajo vplivi šuma.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Na kaj se nanaša beseda »kratkovidnost« (angl. myopy) v gradnji odločitvenih dreves

A

Kratkovidnost pomeni, da odločitvena drevesa sprejemajo odločitve na podlagi lokalno optimalnih kriterijev, ki niso nujno globalno optimalni.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Za kaj se uporabljata metoda »prečno preverjanje« (angl. cross validation) in metoda »leave-one-out« v strojnem učenju

A

Prečno preverjanje in leave-one-out metoda se uporabljata za ocenjevanje napovedne točnosti modelov.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Postopek prečnega preverjanja (k-fold cross validation)

A

Podatki se razdelijo na k podmnožic, model se trenira k-krat, vsakič z drugo podmnožico kot testno.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Postopek leave-one-out

A

Posebna oblika prečnega preverjanja, kjer je k enako številu podatkovnih točk, kar pomeni, da se vsakič uporabi ena podatkovna točka kot testna.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Kaj pomeni parameter k v metodi prečnega preverjanja

A

Parameter k določa število podmnožic, v katere se razdelijo podatki za prečno preverjanje.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Bayesova formula za izračun pogojne verjetnosti P(A|B)

A

P(A|B) = \frac{P(B|A)P(A)}{P(B)}

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Bayesova formula za izračun P(A|BC)

A

P(A|BC) = \frac{P(C|A)P(B|A)P(A)}{P(B)P(C)}

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Naivna Bayesova formula za izračun P(A|BC)

A

P(A|BC) \approx P(A) \cdot P(B|A) \cdot P(C|A)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

V čem je naivna Bayesova formula naivna

A

Predpostavlja neodvisnost med atributi, kar pogosto ni resnično.

20
Q

Prednost naivne Bayesove formule

A

Preprosta in učinkovita za računanje ter pogosto daje dobre rezultate kljub poenostavitvi.

21
Q

Kaj pomeni “optimistična hevristična funkcija”

A

Hevristična funkcija je optimistična, če je njena ocena stroškov do cilja manjša ali enaka dejanskim stroškom.

22
Q

Zakaj smo pogosto zainteresirani za optimistične hevristične funkcije

A

Takšne funkcije zagotavljajo optimalnost in učinkovitost algoritmov, kot je A*.

23
Q

Katera hevristična funkcija deluje bolje v A* algoritmu, če je h1(N) < h2(N)

A

A* bo deloval bolje s hevristiko h2, ker boljša ocena (bližje dejanskim stroškom) vodi do manj preiskovanih vozlišč in hitrejšega dosega cilja.

24
Q

Kolikokrat več časa bo program potreboval za iskanje druge rešitve, če ima uniformno vejanje b = 5, prvo rešitev na globini 9 in drugo na globini 12

A

Razmerje T2:T1 je približno enako b^{12-9} = 5^3 = 125. Torej bo program potreboval približno 125-krat več časa.

25
Q

Oceni na grobo, koliko je vejanje b, če program najde prvo rešitev v 3 sek., drugo pa po 4 minutah, ki je za 4 korake daljša

A

Če je razlika v globini 4 korake in traja 4 minute (240 sekund) po prvih 3 sekundah, razmerje časa je 240/3 = 80. Torej, b^4 \approx 80, kar daje b \approx 3.

26
Q

Prostorska in časovna zahtevnost algoritmov preiskovanja v globino, v širino in iterativnega poglabljanja

A

Globinsko preiskovanje: Prostorska: O(d), Časovna: O(b^d). Širinsko preiskovanje: Prostorska: O(b^d), Časovna: O(b^d). Iterativno poglabljanje: Prostorska: O(d), Časovna: O(b^d).

27
Q

Prednosti in pomanjkljivosti globinskega preiskovanja

A

Prednosti: Nizka prostorska zahtevnost. Pomanjkljivosti: Lahko ne najde rešitve, če gre v neskončno globino.

28
Q

Prednosti in pomanjkljivosti širinskega preiskovanja

A

Prednosti: Zagotavlja najkrajšo pot, če obstaja rešitev. Pomanjkljivosti: Visoka prostorska zahtevnost.

29
Q

Prednosti in pomanjkljivosti iterativnega poglabljanja

A

Prednosti: Kombinira prednosti obeh, nizka prostorska zahtevnost in zagotavlja najkrajšo pot. Pomanjkljivosti: Višja časovna zahtevnost zaradi ponovnega iskanja.

30
Q

Ali je manhattanska razdalja optimistična hevristika za igre 8 ali 15 kvadratov

A

Da, manhattanska razdalja je optimistična hevristika, ker nikoli ne preceni dejanskih stroškov premikov ploščic.

31
Q

Relativni informacijski dobitek atributa

A

Relativni informacijski dobitek upošteva razmerje med informacijskim dobitkom in entropijo atributa, kar omogoča primerjavo atributov z različnimi razponi vrednosti.

32
Q

Kaj je entropija?

A

Entropija je mera negotovosti ali neurejenosti v podatkih, ki kvantificira povprečno količino informacij potrebnih za opisovanje podatkovnih vrednosti.

33
Q

Formula za izračun entropije

A

H(X) = -\sum_{i=1}^n P(x_i) \log P(x_i)

34
Q

Kaj je informacijski dobitek atributa

A

Informacijski dobitek je mera zmanjšanja entropije, ki pove, koliko dodatnih informacij določen atribut prinese za razločevanje med različnimi razredi v podatkovnem naboru.

35
Q

Kaj je pristranskost (bias) v strojnem učenju

A

Pristranost v strojnem učenju se nanaša na sistematična odstopanja, kjer model favorizira določene napovedi zaradi predpostavk, vgrajenih v model ali podatke.

36
Q

Kaj je jezikovna pristranskost (language bias)

A

Jezikovna pristranost se nanaša na pristranskost, ki izhaja iz predpostavk, povezanih z obliko ali strukturo jezika, uporabljeno za opis hipotez ali modelov, kar lahko omeji izražanje določenih rešitev.

37
Q

Pomen angleške besede »overfitting« v kontekstu strojnega učenja

A

Pretirano prilagajanje: Model se preveč prilagodi učnim podatkom in izgubi sposobnost generalizacije na nove podatke.

38
Q

Neugodne posledice šuma v učnih podatkih pri učenju odločitvenih dreves

A

Model se lahko nauči napačnih vzorcev, kar vodi do pretiranega prilagajanja in slabe napovedne točnosti.

39
Q

Metoda ocenjevanja klasifikacijske točnosti v algoritmih za rezanje odločitvenih dreves

A

Prečno preverjanje: Podatke razdelimo na več podmnožic, treniramo model na vsaki podmnožici in ocenimo točnost na preostalih.

40
Q

Postopek prečnega preverjanja (k-fold cross validation)

A

Podatke razdelimo na k delov, model treniramo k-krat, pri čemer vsakič uporabimo drug del za testiranje in ostale za treniranje.

41
Q

Postopek leave-one-out

A

Posebna oblika prečnega preverjanja, kjer je k enako številu podatkovnih točk, vsakič pustimo eno točko za testiranje in ostale za treniranje. Uporaba leave-one-out je smiselna pri majhnih podatkovnih množicah za maksimalno izkoriščanje razpoložljivih podatkov.

42
Q

Bayesova formula za verjetnost razreda R pri vrednostih atributov A1, A2, A3

A

P(R|A1=1, A2=2, A3=3) = \frac{P(A1=1, A2=2, A3=3|R)P(R)}{P(A1=1, A2=2, A3=3)}

43
Q

Razlika med Bayesovim in naivnim Bayesovim klasifikatorjem

A

Bayesov klasifikator upošteva vse odvisnosti med atributi, medtem ko naivni Bayesov predpostavlja njihovo neodvisnost.

44
Q

Naivni Bayesov klasifikator za verjetnost razreda R pri vrednostih atributov A1, A2, A3

A

P(R|A1=1, A2=2, A3=3) \approx P(R) \cdot P(A1=1|R) \cdot P(A2=2|R) \cdot P(A3=3|R)

45
Q

Primerjava Bayesovega in naivnega Bayesovega klasifikatorja

A

Bayesov klasifikator je natančnejši, a bolj zapleten in zahteva več podatkov. Naivni Bayesov je preprostejši in hitrejši, vendar temelji na močni predpostavki neodvisnosti atributov. Bayesov klasifikator je bolj zanesljiv, če so podatki zadostni in predpostavke držijo, medtem ko je naivni Bayesov bolj robusten pri omejenih podatkih.