Klasifikacija ansamblom metoda Flashcards

1
Q

Osnovna ideja ansamblom metoda

A

ne postoji algoritam koji se najbolje ponasa u svim situacijama,kombinovanjem skupa metoda koje resavaju isti(originalni problem)
Cilj-dobijanje boljeg globalnog modela
obezbedjuje vecu preciznost i pouzdanost procene u odnosu na svaki pojedinacni model

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Ansambl metoda

A

skup metoda koje zajedno nastupaju da bi se dobio bolji rezultat

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Condorcet teorema

A

Neka grupa ljudi nezavisno jedan od drugog bira izmedju 2 mogucnosti od kojih je samo jedna ispravna,i neka je p verovatnoca da su izabrali ispravnu mogucnost.njihovi glasovi se kombinuju po pravilu vecine,i neka M oznacava verovatnocu da je vecina napravila korektan izbor.Ako je p > 0.5 tada M—>1 ako broj glasanja tezi beskonacnosti

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

posledica Condorcet teoreme

A

Gomila je pametnija od pojedinca pod relativno slabim uslovima.
Nedostaci: binarna klasifikacija + nezavisnost

koristimo mnogo slabih klasifikatora umesto jednog jakog jer su laksi za konstukciju u ansamblom modelu

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Slabi i jaki klasifikatori

A

Jaki klasifikatori: greska klasifikacije moze da bude proizvoljno mala

Slabi klasifikatori: klasifikator koji je nesto bolji od obicnog slucajnog nagadjanja

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Metode za konstrukciju

A

skup za trening,skup ulaznih atributa,oznaka klasa,menjanjem algoritma klasifikacije

Ansambl metoda bolje radi sa nestabilnim klasifikatorima,tj onim koji su osetljivi na neznatne promene u skupu za trening

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Promena skupa za trening

A

1.Формира се више скупова за тренинг избором почетног скупа податка на основу неког критериjума.
2.Дистрибуциjа и избор елемената може да се мења при сваком избору
3.Класификатор се формира применом (истог) алгоритма класификациjе на сваки од скупова за тренинг.
Представници: алгоритми са додатним поjачавањем (енг.boosting) и паковањем (енг. bagging)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Промена скупа улазних атрибута

A

За сваки скуп података за тренинг бира се подскуп улазног скупа атрибута.
Избор може бити случаjан, или на основу датих директива
Показано jе да приступ ради jако добро у случаjу да
улазни скуп садржи редундантне податке.
Представници: насумична шума (енг. Random forest)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Промена скупа ознака класа

A

Користи се када jе скуп класа довољно велики
Тренинг скуп се трансформише у бинарни проблем (0/1)
случаjним груписањем класа у два дисjунктна скупа
Узастопним груписањима постиже се ефекат ансамбла;
при тестирању ако класификатор предвиди класу 0, тада
сви класификатори у његовоj групи добиjаjу jедна глас и
обратно.
Класа коjа добиjе наjвише гласова се додељуjе тест
примеру
Пример: кодирање излаза са отклањањем грешака

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Мењење алгоритма за класификациjу

A

Неки класификацион алгоритми даjу различите моделе у
примени на исте податке

На пример, ансамбл метода са дрветима одлучивања
може да се конструише тако што се укључи случаjност у
процедуру раста дрвета

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Паковање

A

Паковање (Bagging, Bootstrap AGGregatING) jе техника коjа формира податке за тест узастопним узорковањем података из почетног скупа у складу са унформном дистрибуциjом вероватноћа

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Паковање
(алгоритам)

A

Neka je D skup ulaznih podataka i
k broj inicijalnih skupova
for i =1 to k do
formiraj inicijalni uzorak Di velicine N
Trenirati osnovni klasifikator Ci na skupu Di
end for
C *( x )= klasa koja je dobila najveci broj glasova

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Поjачавање

A

Поjачавање (Boosting) jе техника адаптивне промене
дистрибуциjе тренинг података у зависности од претходних
грешака класификациjе

Инициjално, сваком од N слогова се додели jеднака тежина
Тежина се мења на краjу сваког циклуса - тежина слогова коjи
су погрешно класификовани се повећава, а тачних смањуjе
Финални класификатор комбинуjе гласове свих класификатора
у циклусу

How well did you know this?
1
Not at all
2
3
4
5
Perfectly