Inferenčna statistika Flashcards

1
Q

Kaj nam omogoča inferenčna statistika?

A

Inferenčna statistika nam omogoča dvoje:
1. ocenjevanje parametrov; na osnovi statistik poskušamo oceniti, akkšna bo vrednost parametra v populaciji. To je lahko v obliki točkovne ali intervalne ocene (npr. poznamo aritmetično sredino v vzorcu in želimo oceniti, kakšna bo v populaciji)
2. Preizkušanje domnev (hipotez): preizkušanje, ali neke vnaprej postavljenje trdive o stanju v populaciji (npr. povezanost 2 spremenljivk, različnost 2 spremenljivk) držijo ali ne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Kaj je ideja za vzorčenjem/teorija vzorčenja?

A

Če poznamo popualcijo, lahko določimo verjetnost, da bomo iz nje potegnili vzorec s specifično statistiko. Obratno delamo pri statističnem sklepanju (izmerimo statistike v vzorcu in na osnovi tega napovedujemo in preizkušamo domneve)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Kaj je vzorčenje? Kakšne opredelitve zahteva?

A

Vzorčenje je postopek izbora enot v vzorec. Postopek zahteva opredelitev:
* populacije (in morebitno delne populacije)
* enote vzorčenja (lahko gre za posameznika, skupine ljudi, organizacije, časovne točke, …)
* načine vzorčenja enot
* potrebne velikosti vzorca, da bodo ugotovitve reprezentativne

Ločitev med manjšimi in večjimi vzorci je bila včaish pomembnejša kot danes, ker se nekateri testi v velikih vzorcih obnašajo bolj predvidljivo, je bilo možno nekatere statistične formule poenostaviti, kar je omogočilo hitrejše ročno računanje. Pomembno je, da ločimo med odvisnimi in neodvisnimi vzorci. O neodvisnih vzorcih govorimo, kadar med seboj primerjamo dve ali več različnih skupin.
* Pri neodvisnih se udeleženci iz enega vzorca ne pojavljajo v drugih vzrocih in med seboj niso povezani (npr. šestošolci vs. osmošolci).
* Odvisni vzorci pa so takrat, kadar med seboj npr. primerjamo isti vzorec skozi čas, kadar so osebe povezane (starš-otrok)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Naštej in opiši načine verjetnostnega vzorčenja

A

Verjetnostno vzorčenje je vsako vzročenje, ki vsebuje slučajen ali psevdo-slučajen izbor. Prednost tega je kontrola sistematičnih motečih dejavnikov; nepristranskost.
* Slučajno vzorčenje: naključno izberemo enote iz velike populacije. Slabosti so težja izvedljivost pri veliki populaciji, reprezentativnost ni zagotovljena, …Kljub redki uporabi v praksi je slučajno vzorčenje predpostavka večine standardnih statističnih enot (pri ostalih rabimo prilagojeno analizo!)
* Stratificirano vzorčenje v svoji strukturi upošteva raznolikost enot v populaciji, ki je običajno heterogena. Pri stratificiranem vzorčenju heterogeno populacijo najprej razdelimo na homogene podskupine, nato pa tvorimo enostavne slučajne ali sistematične vzorce znotraj skupin. Stratumi so opredeljeni običajno z nekimi relevnatnimi, neodvisnimi spremenljivkami (npr. regija bivanja, starostna skupina, izobrazba, …)
* Sistematično vzorčenje poteka tako, da vnaprej določimo ‘korak’ po katerem bomo vzorčili. Iz urejenega seznama enot nato na naključnem mestu začnemo izbirati enote v razmaku koraka. Če je korak 5, potem izberemo vsako peto naslednjo enoto, dokler ne dosežemo želene velikosti
* Vzorčenje skupin, klastrov poteka tako, da skupine vnaprej določino glede na lastnosti neke populacije. Skupine so lahko tudi nekateri stratumi. Priemri skupin so lahko denimo mestna okrožja, fakultete, izdelki nekega tipa, …nato naključno izberemo skupino, naš vzorec pa predstavljajo vsi člani te skupine
* večstopenjsko vzorčenje: podobno vzorčenju skupin, le da iz izbranih skupin izbiramo le nekatere enote; reicmo iz izbranih šol določene oddelke ali učitelje, izmed jogurtov pakirane v lončkih, gospodinjstva v pritličju okrožji. V tem primeru govorimo o dvo ali več stopenjskemu vzorčenju, saj iz osnovnih skupin (okrožja) tvorimo še podskupine (gospodinjstva v pritličju). Zahteva večnivojsko modeliranje!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Opiši in naštej načine ne-verjetnostnega vzorčenja

A
  • Priložnostno vzorčenje v vzorec vključi tiste enote, ki so navzoče ob priložnosti, ki se izvaja raziskava (npr. avtomobili na izbrani cesti, mimoidoči na ulici, obiskovalci spletne strani, …). Večina običajnega anketiranja se izvede na priložnostnih vzorcih. Zaradi zelo subjektivnega načina izbiranja enot so taki vzorci manj primerni za sklepanje o parametrih saj je vprašljivo, ali je izbor enot morda povezan z lastnostjo, ki jo proučujemo. Priložnostni vzorci so lahko ustrezn pri preučevanju bolj splošnih značilnosti populacije in služijo kot izhodišča za nadaljno raziskovanje.
  • Namensko vzorčenje pomeni zbiranje udeležencev glede na določene lastnosti kot npr. vzorčenje pogostih primerov/ekstremnih primerov/ekspertov/kvotni vzorec (razdelimo populacijo na homogene skupine in potem izbiramo udeležence znotraj skupin, da dosežemo enake proporce kot se pojavljajo v populaciji)/princip snežne kepe (preizkušance prosimo, da vabilo posredujejo znancem).
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Kaj je osnovna predpostavka neodvisnosti vzorčenja?

A

Neodvisnost opazovanj je zelo pogosto rabljen pogoj pri linearni regresiji in različnih statističnih testih, ki jih bomo podrobneje spoznali v nadaljevanju. Predpostavka zahteva, da mora biti vsak udeleženec vzorčno neodvisen od drugih (izbor ene enote ne vpliva na izbor drugih enot), Kršitev te predpostavke povzroči neveljavnost testov statistične značilnosti. Spodaj je navedenih nekaj običajnih primerov merskih situacij, ki vodijo v kršitev te predpostavke:
* V neki raziskavi smo vse udeležence večkrat izmerili na obravnavanih spremenljivkah in vse meritve obravnavali kot
neodvisne oz. kot zbrane na povsem različnih osebah. Npr. zanimala nas je korelacija med enostavnimi (RČE) in
izbirnimi (RČI) reakcijskimi časi. Meritve smo izvedli na 50 udeležencih, vendar smo pri vseh zbrali 10 meritev RČE in
RČI in te ponovljene meritve obravnavali, kot da bi jih pridobili na neodvisnih/drugih osebah. Podatki znotraj osebe
med seboj niso neodvisni. Ustrezen postopek bi vključeval izračun povprečnih RČE in RČI znotraj oseb in nato vnos teh
povprečnih vrednosti v podatkovno bazo (vsak udeleženec bi v bazo prispeval po eno vrednost na spremenljivko).
* Med merjenjem znanja dovolimo/spregledamo “sodelovanje” med nekaterimi učenci. Čeprav smo na vsaki osebi
izvedli le eno meritev, dosežki teh učencev med seboj ne bodo neodvisni.
* Preizkušance vzorčimo iz različnih enot, kot so npr. šole, podjetja, študijski programi ipd. (takšnemu vzorčenju rečemo
gnezdeno vzorčenje). Primer: v neki raziskavi smo zbrali po 30 študentov iz treh študijskih programov. Tako zbranih
podatkov ne moremo obravnavati kot neodvisnih, saj so si študenti znotraj določenega programa po mnogih
spremenljivkah med seboj bolj podobni, kot so si podobni s študenti iz drugih programov. Za razrešitev tega problema
uporabimo bodisi hierarhično linearno modeliranje ali pa podatke znotraj posameznih enot povprečimo in to
povprečno vrednost znotraj enote obravnavamo kot podatek “ene osebe”.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Kaj je porazdelitev vzorčnih ocen? Opiši in razloži

A

Zamislimo si, da iz populacije naključno izbiramo različne vzorce velikosti n (vsi enako veliki). Nato za vsak vzorec izračunamo statistiko (npr. M za neko spremenljivko). Ker so vzorci med seboj različni, bodo različne tudi statistike (nekje bo M višja, drugje nižja). Če bomo izračunali statistike za veliko število vzorcev, lahko oblikujemo porazdelitev statistik oziroma porazdelitev vzorčnih ocen (npr. porazdelitev aritmetičnih sredin v različnih vzorcih znotraj populacije). Porazdelitev vzorčnih ocen je porazdelitev
statistike v neskončnem številu vzorcev.
Katere porazdelitve katerih ocen nas še posebej zanimajo? Pogosto so to porazdelitve opisnih
statistik vzorca (npr. M, VAR) ali pa drugih izrazov (npr. t-vrednost ipd.).
Vsako porazdelitev vzorčnih ocen lahko opišemo z dvema vrednostma:
* μstatistike : povprečje vzorčnih ocen oziroma statistik v populaciji (ne smemo zamešati z vrednostjo parametra!)
* σstatistike = SEstatistike :standardni odklon vzorčnih ocen/statistik → imenujemo tudi standardna napaka (več v nadaljevanju)

**Standardna napaka **nam poda informacijo o razpršenosti vzorčnih ocen. Manjša ko je standardna napaka, manj se vzorci ločijo
med sabo (kar pomeni, da lahko izbranemu vzorcu bolj zaupamo).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Kaj je standardna napaka v inferenčni statistiki?

A

Standardna napaka (SEstatistike) je opredeljena kot standardni odklon vzorčnih ocen. Pove nam, v kolikšni meri se med seboj
razlikujejo ocene (statistike) med vzorci.
Standardna napaka se za različne statistike izračuna po različnih formulah:
𝑺𝒕𝒂𝒏𝒅𝒂𝒓𝒅𝒏𝒂 𝒏𝒂𝒑𝒂𝒌𝒂 𝒂𝒓𝒊𝒕𝒎𝒆𝒕𝒊č𝒏𝒆 𝒔𝒓𝒆𝒅𝒊𝒏𝒆: 𝑆𝐸𝑀 =
𝑆𝐷
√𝑛
𝑺𝒕𝒂𝒏𝒅𝒂𝒓𝒅𝒏𝒂 𝒏𝒂𝒑𝒂𝒌𝒂 𝒅𝒆𝒍𝒆ž𝒂: 𝑆𝐸𝑝 = √
𝑝(1 − 𝑝)
𝑛
𝑺𝒕𝒂𝒏𝒅𝒂𝒓𝒅𝒏𝒂 𝒏𝒂𝒑𝒂𝒌𝒂 𝒔𝒕𝒂𝒏𝒅𝒂𝒓𝒅𝒏𝒆𝒈𝒂 𝒐𝒅𝒌𝒍𝒐𝒏𝒂: 𝑆𝐸𝑆𝐷 =
𝑆𝐷
√2𝑛
𝑺𝒕𝒂𝒏𝒅𝒂𝒓𝒅𝒏𝒂 𝒏𝒂𝒑𝒂𝒌𝒂 𝒓𝒂𝒛𝒍𝒊𝒌𝒆 𝒂𝒓𝒊𝒕𝒎𝒆𝒕𝒊č𝒏𝒊𝒉 𝒔𝒓𝒆𝒅𝒊𝒏: 𝑆𝐸𝑀1−𝑀2 = √𝑆𝐸𝑀1
2 + 𝑆𝐸𝑀2
2
(𝑧𝑎 𝑒𝑛𝑎𝑘𝑒 𝑛

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Kaj je centralni limitni izrek?

A

Za katerokoli populacijo s sredino μ in standardno deviacijo σ velja, da se z večanjem vzorca (n gre proti neskončnosti)
porazdelitev vzorčnih sredin približuje normalni porazdelitvi s sredino μ in varianco σ2/n.

Centralni limitni izrek velja, ne glede na to, kakšna je porazdelitev spremenljivke v populaciji (tudi če ni normalna), dokler imamo dovolj velike vzorce (vsaj 30 udeležencev). V majhnih vzorcih pa je porazdelitev vzorčnih ocen bolj odvisna od populacijske spremenljivke. Obstajajo pa tudi statistike, ki zaradi svoje narave ne sledijo centralnemu limitnemu izreku. Primera sta npr.
varianca, ki je asimetrična, saj ne more biti manjša od 0, in koeficient korelacije, ki je asimetričen, ker lahko zavzema vrednosti med -1 in 1. Centralni limitni izrek nam pove dvoje:
* večji vzorec ko imamo, bolj bo porazdelitev vzorčnih ocen spominjala na normalno porazdelitev,
* večji vzorec ko imamo, bolj se bo μM vzorcev približevala μ populacije, razpršenost oziroma standardna napaka pa bo
manjša.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Katera dva pristopa uporabljamo a ocenjevanje vrednosti parametra v populaciji?

A
  • **frekvenčni pristop: **parameter je neznana fiksna vrednost (če bi izmerili celotno populacijo, bi lahko to količino natančno določili)
  • Bayesovski pristop: parameter je slučajna spremenljivka (ni nekaj, kar bi bilo fiksno).

Pravilo oz. formula, ki jo uporabljamo imenujemo cenilka. Cenilka je torej postopek, po katerem iz izbranega vzorca izračunamo oceno parametra. Vrednost cenilke (vrednost, ki jo dobimo z izračunom) je torej ocena. Oceno lahko podamo točkovno (ena sama, najboljša vrednost) ali intervalno (razpon vrednosti, ki jih štejemo kot možne vrednosti parametra.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Kakšne lastnosti so zaželjene pri cenilkah (formula za ocenjevanje oz. izračun parametra populacije)

A
  • nepristranskost: ocena ne podcenjuje in ne precenjuje dejanske vrednosti parametra
  • učinkovitost: če velikost vzorca narašča, se bo tudi ocena približevala vrednosti parametra
  • zadostnost: cenilka izkoristi vso informacijo, ki je na voljo
  • robustnost: majhen vpliv osamelcev in/ali kršitve predpostavk (majhna sprememba v podatkih povzroči majhno spremembo v vrednosti statistike).
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Kako sta vrednost vzročne statistike in ocena parametra povezani?

A

Pri večini statistik, ki smo jih obravnavali, je vrednost vzročne statistike tudi ocena parametra (M je cenilka μ, p je cenilka
π, r je cenilka ρ in tako naprej). Obstajajo tudi izjeme npr. varianca in standardni odklon.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Kaj je interval zaupanja?

A

Interval zaupanja je območje, ki z določeno verjetnostjo vsebuje nek populacijski parameter.
Primer:
n=100. Vemo, da M vzorca ne bo nujno enaka M populacije, zato smo za vsak slučaj izračunali interval zaupanja, na katerem predpostavljamo, da se nahaja M populacije. Ker smo uporabili 95% interval zaupanja, predpostavljamo, da naš interval v 95% vzorcev vsebuje vrednost parametra. Intervale zaupanja smo nato primerjali z dejansko aritmetično sredino populacije (μ=50). Vidimo lahko, da je bila vrednost parametra zunaj intervala zaupanja le v 1 izmed 20 primerov.
Pri 95% intervalu pričakujemo, da bo v 95% vzorcev interval zaupanja vseboval dejansko vrednost parametra

Pazi! Napačna interpretacije je, da obstjaa 95% verjetnost, da bo populacijski parameter padel v interval zaupanja. Populacijski parameter je namreč konstanta, ki se ne spreminja. Vejretnost, da parameter pade na interval zaupanja je torej vedno 0 ali 1.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Kaj označujeta meji intervala zaupanja?

A

To sta vrednosti, ki to območje omejujeta. Sta slučajni spremenljivki (torej, pri vsakem vzrocu imata drugo vrednost). Pri intervalu zaupanja je ključna verjetnost pri kateri interval vsebuje parameter, kar imenujemo tudi zaupanje.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Kaj je raven tveganja?

A

Zaupanju nasprotna je raven tveganja ali stopnja značilnosti (označimo s simbolom α), ki označuje verjetnost, pri kateri interval ne vsebuje parametra. Stopnja značilnsoit ni nekaj, kar bi izračunali temveč jo določimo vnaprej. Standardne vrednosti, ki jih uporabljamo za verjetnost α so 0,05; 0,01 ali 0,001. Standardne vrednsoti za zaupanje (izračunamo po formuli 1-α) torej so: 9,95; 0,99 oz. 0,999. Običajno izražamo zaupanje v odstotkih, govorimo o 95% intervalu zaupanja.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Na katera dva načina lahko izračunamo interval zaupanja? Kaj je predpogoj vsake? Kdaj je primerna ena ali druga metoda?

A

Izračunamo ga lahko na dva načina. Predpostavka obeh postopkov je, da je vzorec reprezentativen.
* analitiično ocenjevanje intervala zaupanja: predpogoj za analitično ocenjevanje je, da poznamo obliko porazdelitve vzorčnih ocen, saj lahko ta postopek uporabimo le v primeru, ko je porazdelitev vzorčnih ocen simetrična. Kadar je porazdelitev asimetrična, moramo uporabiti postopek prevzročenja.
* prevzročenje (zankanje, bootstrap): to nam pride prav, kadar želimo izračunati interval zaupanja za statistike, pri katerih porazdelitev vzorčnih ocen ni simetrična. Tipični primeri so varianca, delež, korelacija. Pri prevzročenju iz osnovnega vzorca generiramo več novih vzorcev in v vskaem izračunamo želeno statistiko. Interval zaupanja določimo na osnovi porazdelitve spremenljivke v novo generiranih vzorcih.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Opiši postopek analitičnega ocenjevanja intervala zaupanja

A

Analitično ocenjevanje poteka po naslednjih korakih:
1. Preverimo, ali je porazdelitev vzorčnih ocen simetrična. To lahko predpostavimo če:
a) imamo dovolj velik vzoerec, da velja centralni limitni izrek (30+ udeležencev) in/ali,
b) je porazdelitev spremenljivke normalna
2. Določimo vrsto statistike za katero želimo izračunati interval zaupanja (npr. M, varianca, strukturni delež). Glede na vrsto statistike predpostavimo, po kateri porazdelitvi se bodo porazdeljevale vzročne ocene (pri M in deležih bo to t-porazdelitev, pri varianci in SD pa Hi-kvadrat porazdelitev)
3. Izberemo verjetnost oz. stopnjo značilnosti (α=0,05/0,01/0,001)
4. Izračunamo meji intervala

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Natančno opiši analitično ocenjevanje intervala zaupanja (kaj konkretno računaš)

A

Podrobneje analitično ocenjevanje intervala zaupanja poteka po korakih:
1. Izberemo verjetnost oziroma stopnjo značilnosti (α = 0,05; 0,01 ali 0,001).
2. Izračunamo standardno napako (SE), tako da delimo standardni odklon s korenom numerusa.
3. V naslednjem koraku poiščemo kritično vrednost. Najprej po formuli (p=1-α/2) izračunamo p-vrednost. Nato po formuli
(df=n-1) izračunamo stopinje prostosti. V **t-tabeli
poiščemo kritično vrednost, ki ustreza stopinjam prostosti in pvrednosti.
4. Izračunamo standardni odmik, tako da zmnožimo kritično vrednost in standardno napako.
5. Izračunamo
meji intervala, tako da izhodiščni statistiki prištejemo ali odštejemo standardni odmik.
6. Zapišemo interval v obliki:
IZ = [sp. meja; zg. meja]**

PRIMER: Imamo vzorec 400 udeležencev, ki so dosegli povprečni rezultat M = 40, s = 8. Zaradi velikega vzorca oblika porazdelitve
vzorčnih ocen (skoraj) ni pomembna, zato želimo analitično oceniti 95 % IZ za aritmetično sredino.
Za 95 % interval bo stopnja značilnosti α = 0,05.
Izračunamo **standardno napako: **
SEm = SD / √n = 8 / √400 = 8 / 20 = 0,4
Za vrednosti p in df v t-tabeli poiščemo kritično vrednost.
p = 1 – (α/2) = 1 – (0,025) = 0,975
df = n – 1 = 399
t(399)0,975 = 1,990
Zapišemo interval zaupanja:
IZ = M ± t(df)m * SEM = 40 ± 1,99 * 0,4 = [39,20; 40,80]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Opiši postopek za intervalno oceno strukturnega deleža dvojiške spremenljivke

A

Ni idealnega postopka, saj ej delež diskreten (Zaseda lahko le določene vrednosti) in odvisen od velikosti vzorca (npr. če je N=10, ne bo nikoli možen delež 0,25 ampak samo 0,2 ali 0,3). Strukturni delež je povprečje dvojiške spremenljivke, zato lahko včasih uporabimo postopek za M:
𝐼𝑍 = 𝑝 ±𝑡𝑛−1⋅ 𝑆𝐸𝑝 ; 𝑆𝐸𝑝 = √𝑝 ⋅ (1 − 𝑝)/𝑛
; 𝑝 ⋅ (1 − 𝑝) = 𝑑𝑒𝑙𝑒ž 𝑒𝑛𝑒 ⋅ 𝑑𝑒𝑙𝑒ž 𝑑𝑟𝑢𝑔𝑒 𝑘𝑎𝑡𝑒𝑔𝑜𝑟𝑖𝑗𝑒

V programu R lahko uporabimo dve boljši alternativi zgornjemu postopku:
Wilsonov postopek (popravljen postopek za normalno PVO)(PVO- porazdelitev vzorčnih ocen)
Clopper-Preasonov postopek (temelji na binomski porazdelitvi; konzervativen)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Kdaj je PVO (porazdelitev vzorčnih ocen) sturkturnih deležev simetrična?

A

Samo, če je vzorec velik in delež ni blizu 0 ali 1.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Kako na porazdelitev vpliva dejstvo, da varianca ne more biti manjša od 0?

A

Ker varianca ne more biti manjša od nič, je v zgornjem delu porazdelitve variranje bolj verjetno kot variranje v spodnjem. Porazdelitev vzorčnih ocen (POV) je zato nekoliko desno simetrična

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Kako se razdeljujejo vzročne ocene variance in standardnega odklona?

A

Vzorčne ocene variance in standardnega odklona se porazdeljujejo po Hi-kvadrat porazdelitvi.

23
Q

Kako poteka ocenjevanje intervala zaupanja s prevzročenjem/zankanjem?

A

Prevzročenje je alternativni postopek, ki ga uporabimo v primerih, ko porazdelitev ni simetrična. Pri prevzorčenju iz osnovnega vzorca generiramo več novih in določimo interval zaupanja na osnovi porazdelitve sprmeenljivke v novo generiranih vzorcih. Postopek poteka tako:
1. Začnemo z generiranjem prvega novega vzorca. Iz osnovnega vzorca naključno izberemo vrednost, ki predstavlja prvega udeleženca v novem vzrocu. Vrednost ‘‘vrnemo’’ v osnovni vzorec. Nato iz osnovnega vzroca (ki ima enako število vrednosti kot na začetku) ponovno izberemo vrednost, ki predstavlja drugega udeleženca in jo ‘‘vrnemo’’.
2. Postopek ponavljamo, dokler ni v novem vzorcu enako število udeležencev kot v osnovnem vzorcu. Ker smo vrednosti ‘‘vračali’’ v osnovni vzorec, se lahko kateri izmed udeležencev v novem vzorcu ponovi tudi večkrat.
3. Na enak način generiramo veliko število vzrocev (npr. 10 000)
4. V vsakem izmed vzrocev izračunamo želeno statistiko oz. vzročno oceno (statistiko, za katero želimo izračunati interval zaupanja npr. M, varianca, strukturni delež. Prikažemo porazdelitev vzročnih ocen.
5. Meje intervala zaupanja razbere iz poradletive. Po 95% intervalu bosta to 2,5-ti in 97,5-ti percentil oziroma P(2,5) in P(97,5). Za točnejši izračun lahko uporabimo popravek za pristranskost in asimetričnost porazdelitve vzorčnih cen (bias corrected& accelerated)

PRIMER: Imamo podatke za 10 udeležencev na nekem testu. Udeleženci so v povprečju dosegli rezultat 3 (M=3,0), mi pa želimo
s prevzorčenjem izračunati interval zaupanja ta aritmetično sredino. Najprej po zgornjem postopku generiramo še 10 drugih
vzorcev z enakim numerusom (n = 10). Ker smo nove vzorce generirali z vračanjem, se lahko udeleženci v posameznem vzorcu
pojavijo večkrat (v osnovnem vzorcu se rezultat 1 pojavi dvakrat, v prvem novem v vzorcu pa trikrat, torej se je eden izmed
udeležencev ponovil). Za vsak vzorec izračunamo aritmetično sredino.
Postopek ponovimo 10 000 krat. Dobljeno porazdelitev aritmetičnih sredin novih
vzorcev lahko prikažemo s histogramom. Vidimo, da se je povprečje rezultatov v
večini vzorcev gibalo med 2,5 in 3,5.
Želimo 95 % interval zaupanja, zato iz vzorčne porazdelitve razberemo P(2,5) in
P(97,5).
P(2,5) = 2,3
P(97,5) = 3,7
Prevzorčeni interval zaupanja torej znaša IZ: [2,3; 3,7]. V 95 % vseh vzorcev je
aritmetična sredina na tem intervalu.
Za primerjavo: analitični interval zaupanja na enakih podatkih bi znašal IZ: [2,2; 3,8]

24
Q

Kaj je raziskovalna domneva?

A

Raziskovalna domneva oz. hipoteza je še nedokazana trditev, ki jo želimo potrditi ali zavrniti z raziskovalnim delom. Statističan domneva (hipoteza) je še nedokazana trditev o lastnosti slučajne spremenljivke. Vedno se nanaša na stanje v populaciji. Trditev se lahko nanaša na vrednost nekega parametra (npr. spremenljivka ima povprečje X), pogosteje pa se nanaša na odnos med dvema spremenljivkama. Ko govorimo o odnosu mislimo predvsem na povezanost (trditev, da sta dve spremenljivki med seboj povezani) in na različnost (trditev, da si dve spremenljivki razlikujeta v določenem parametru).

25
Q

Na osnovi česa postavimo hipotezo?

A
  • Na osnovi raziskovalnega problema
  • Predpostavk posameznih statističnih metod (normalnost, homogenost varianc)
26
Q

Kaj je ničelna hipoteza in kaj predpostavlja?

A

Ničelna hipoteza je ena izmed konvencij zapisov hipotez. Ničelna hipoteza (H0) vedno predpostavlja, da povezanost, razlika, sprememba ali učinek ne obstaja; torej so vsi odnosi, ki jih bomo (morebiti) izmerili posledica naklučja. Ničelne hipoteze ne moremo nikoli potrditi ali dokazati, saj naša nezmožnost, da potrdimo obstoj nekega odnosa, še ne pomeni, da ta odnos v resnici ne obstjaa. Lahko zgolj rečemo, da ničelne hipoteze ne zavračamo (v žargonu tudi, da so podatki skladni s H0). Zavrnitev H’ je tako močnejša kot ne-zavrnitev. Na začetku vedno predpostavimo, da velja H0 vendar jo želimo navadno zavreči ali sprejeti alternativno hipotezo.
o. Primeri: μx = 50 (ali μx - 50 = 0), μ2 – μ1 = 0; VAR1 / VAR2 = 1; ρ = 0; X ∼ N …

27
Q

Kaj je alternativna hipoteza/domneva?

A

Alternativna domneva dopolnjuje ničelno domnevo, je njeno nasprotje. Alternativna hipoteza navadno predpostavlja, da obstaja neka povezanost, razlika, sprememba ali učinek, ki ni zgolj posledica naklučja oz. napake vzorčenja.
Primeri: μx ≠ 50 (lahko pa tudi: μx > 50, μx < 50); μ2 – μ1 ≠ 0; VAR1 / VAR2 ≠ 1 ; ρ ≠ 0; X ≁ N …

28
Q

Kaj je testna statistika? Kako jo interpretiramo?

A

Testna statistika je izračun, katerega vrednost se pri H0 porazdeljue po znani porazdelitvi. Pove nam, v kolikšni meri stanje v vzorcu odstopa od ničelne hipoteze (ki vedno pravi, da neka povezanost, razlika ali učinek ne obstaja. Pomaga nam pri odločitvi, ali ej odstopanje od ničelne hipoteze (glede na značilnosti vzorca) dovolj veliko, da lahko ničelno hipotezo zavrnemo in sprejmemo alternativno hipotezo (temu pravimo interpretacija testne statistike).
Testno statistiko
lahko interpretiramo s pomočjo p-vrednosti ali kritične vrednosti (obe pa sta odvisni od ravni tveganja).

29
Q

Kaj nam raven tveganja pove pri preizkušanju domnev?

A

Raven tveganja pri preizkušanju domnev nam pove verjetnost, da zmotno zavrnemo pravilno H0 (torej bomo trdili, da obstaja neka povezanost, razlika ali učinek, čeprav ta v resnici ne obstaja). Navadno znaša 5%, lahko pa tudi 10% , 1% ali 0,1%.

30
Q

Kaj je p-vrednost?

A

P-vrednsot nam pove, v kolikšnem deležu primerov (vzorcev) bi dobili vsaj takšno vrednost testne statistike, kot smo jo izmerili na našem vzrocu, če bi veljala ničelna hipoteza. Pove nam, v kolikšnem deležu vzorcev bi slučajni dejavniki prispevali k temu, da bi izmerili tolikšno odstopanje kot smo ga izmerili na našem vzorcu. Če želimo zavrniti ničelno hipotezo, mora biti ta delež manjši od ravni tveganja α, ki smo jo določili pred začetkom raziskave.

31
Q

Česa nam p-vrednost ne pove?

A

Česa nam p vrednost ne pove:
* verjetnosti, da smo naredili napačen zaključek (to nam pove raven tveganja),
* verjetnosti, da bi pri ponovitvi dobili enak rezultat,
* verjetnosti, da je odstopanje v populaciji enako / večje od vzorčnega.

32
Q

Kaj je kritična vrednost?

A

Kritična vrednost je najvišja in/ali najnižja vrednost v porazdelitvi, za katero še velja, da je odstopanje od ničelne hipoteze pri izbrani ravni tveganja premajhno, da bi lahko ničelno hipotezo zavrnili (verjetnost, da je odstopanje posledica naključja ali napake vzorčenja je prevelika). Če želimo torej zavrniti ničelno hipotezo, mora biti vrednost testne statistike večja od kritične vrednosti.

33
Q

Statistični testi nam vrnejo enega izmed dveh rezultatov (kar se tiče domnev). Kaj sta ti dve možnosti?

A
  • Podatki so skladni z ničelno hipotezo, oziroma je odstopanje od ničelne hipoteze tako majhno, da bi ga lahko pripisali naključju. To pomeni, da ne moremo zavrniti ničelne hipoteze (»ne vemo« ali so odnosi v vzorcu zgolj posledica naključja ali dejanskih odnosov v populaciji).
  • Podatki od H0 odstopajo v tolikšni meri, da bi bilo malo verjetno, da je odstopanje zgolj posledica naključja/napake vzorčenja (to bi se zgodilo zelo redko, le v majhnem % primerov). To pomeni, da zavrnemo ničelno hipotezo in sprejmemo alternativno hipotezo (pridobljeni podatki z določeno mero gotovosti kažejo na to, da v populaciji obstaja nek pojav ali odnos). Rečemo tudi, da je nek pojav ali odnos statistično značilen (izogibamo se izrazu statistično pomemben, saj statistična značilnost še ne pomeni praktične pomembnosti). Pomembno: Ničelne hipoteze ne moremo nikoli zavreči s popolno gotovostjo, temveč le pri izbrani ravni tveganja.
34
Q

Od česa je odvisna izbira statističnega testa?

A

Za ustreznost rezultatov je pomembna izbira ustreznega statističnega testa. Izbira testa je odvisna od:
* vrste statistike,
* nivoja merjenja,
* normalnosti porazdelitve,
* enakosti varianc,
* odvisnih / neodvisnih vzorcev,
* majhnih / velikih vzorcev,
* vrednosti ničelne hipoteze,
* nivoja tveganja,
* enosmernega / dvosmernega testiranja.

35
Q

Kaj moramo storiti preden zbiramo podatke v postopku preizkušanja domnev?

A

Pred zbiranjem podatkov (med načrtovanjem raziskave):
1. Postavimo H0 in H1. Predpostavimo, da velja H0.
2. Določimo raven tveganja α.
3. Izberemo statistični test oziroma testno statistiko (upoštevamo zgoraj opisane dejavnike izbire).
4. Ocenimo moč testa in potrebno velikost vzorca

36
Q

Kaj moramo storiti med zbiranjem podatkov v postopku preizkušanja domnev?

A
  1. V vzorcu (s pomočjo enačbe ali računalniškega programa) izračunamo testno statistiko.

6.** Vzorčno vrednost testne statistike primerjamo z njeno porazdelitvijo**, ki jo najdemo v statistični tabeli (ali pa nam jo izračuna program). Če bi bili podatki iz vzorca povsem skladni z ničelno hipotezo (torej ne bi izkazovali nobene
povezanosti, razlike, učinka), bi bila vrednost testne statistike enaka mediani (50. percentilu). Vsako odstopanje testne statistike od mediane (v levo ali desno) odraža odstopanje stanja v vzorcu od ničelne hipoteze. Zanima nas, ali je odstopanje od ničelne hipoteze tolikšno, da obstaja le majhna verjetnost, da bi bilo to odstopanje zgolj posledica naključja (ali napake vzorčenja).

  1. Odstopanje testne statistike od ničelne hipoteze lahko ovrednotimo na dva načina.
    a.** Interpretiramo p-vrednost.** Če je p-vrednost *večja *od kritične vrednosti (ponavadi α = 0,05), ničelne hipoteze ne moremo zavrniti. Če je p-vrednost manjša od kritične vrednosti, zavrnemo ničelno hipotezo in sprejmemo alternativno hipotezo.
    b. Vrednost testne statistike primerjamo s kritično vrednostjo. Če je testna statistika manjša od kritične vrednosti, ničelne hipoteze ne moremo zavrniti. Če je testna statistika večja od kritične vrednosti, zavrnemo ničelno hipotezo in sprejmemo alternativno hipotezo
37
Q

Opiši primer uporabe t-testa v neki raziskavi

A

Zanima nas, ali se starejši učenci pri neki nalogi razlikujejo od mlajših učencev. Ničelna hipoteza pravi, da razlike ni, alternativna hipoteza pa pravi, da razlika obstaja. Izbrali smo raven tveganja α = 0,05. Odločili smo se, da bomo za preverjanje hipotez uporabili t-test.
T-test je vrnil rezultata t = 1,86. Testna statistika nam pove v kolikšni meri stanje v vzorcu odstopa od ničelne hipoteze. Če želimo interpretirati testno statistiko, jo moramo primerjati s porazdelitvijo, po kateri se porazdeljuje.
Iz t-porazdelitve razberemo, da je p-vrednost za vrednost statistike p = 0,069, kritična vrednost za izbrano raven tveganja pa je 2,01.
P-vrednost nam pove verjetnost, da dobimo vsaj izmerjeno vrednost testne statistike (t = 1,86), če velja ničelna hipoteza. Če torej predpostavimo da se starejši učenci v resnici ne razlikujejo od mlajših, bomo (zaradi slučajnih dejavnikov) v takšno odstopanje od H0 dobili v 6,9 %. Ta delež primerov je večji od polovice ravni tveganja, ki smo jo izbrali na začetku raziskave (2,5 % za dvosmerno testiranje), zato ničelne hipoteze ne moremo zavrniti. Kritična vrednost je najvišja in/ali najnižja vrednost v porazdelitvi, za katero še velja, da je odstopanje od ničelne hipoteze pri
izbrani ravni tveganja premajhno, da bi lahko ničelno hipotezo zavrnili. Vrednost t = 1,86 je nižja od kritične vrednosti, zato ničelne hipoteze ne moremo zavrniti.

38
Q

Alternativno hipotezo je mogoče postaviti na dva načina, usmerjeno in neusmerjeno. Opiši usmerjeno hipotezo (kdaj jo uporabimo, kakšno testiranje uporabljamo, primer)

A

Uporabimo jo takrat, kadar lahko na osnovi teorije ali preteklih raziskav napovemo, v katero smer
bo usmerjeno odstopanje od ničelne hipoteze (oziroma je relevantna le ena usmerjenost). V primeru usmerjene hipoteze uporabimo enostransko testiranje, s katerim preverimo le odstopanje bodisi v pozitivni bodisi v negativni smeri.
Primer: Zanima nas, ali so devetošolci boljši v bralnem razumevanju od šestošolcev. H0 pravi, da bodo dosežki devetošolcev enaki ali nižji od šestošolcev. H1 pravi, da bodo dosežki devetošolcev višji (trditev postavimo na osnovi
predpostavke, da imajo bolj razvito logično mišljenje).
Primer 2: Bolnišnica bo zdravilo pričela uporabljati le, če je boljše od konkurence (ne zanima pa jih, ali je slabše). H0 pravi,
da je zdravilo slabše ali enako konkurenčnemu, H1 pa da je boljše od konkurence.

39
Q

Alternativno hipotezo je mogoče postaviti na dva načina, usmerjeno in neusmerjeno. Opiši neusmerjeno hipotezo (kdaj jo uporabimo, kakšno testiranje uporabljamo, primer)

A

Uporabimo jo takrat, kadar** nimamo dovolj znanja** (teoretske podlage), da bi napovedali, v katero smer bo usmerjeno odstopanje od ničelne hipoteze. V primeru neusmerjenih hipotez uporabimo dvostransko testiranje,
s katerim preverjamo odstopanje tako v pozitivni kot negativni smeri. Kritična regija se tako nahaja na obeh straneh vzorčne porazdelitve.
Primer: Zanima nas, ali se šestošolci razlikujejo od devetošolcev v dosežkih na NPZ. H0 pravi, da je
povprečni dosežek učencev iz 6. in 9. razreda enak. H1 pravi, da se dosežki učencev razlikujejo (nimamo razloga, da bi trdili, da bodo eni ali drugi uspešnejši).

40
Q

Opiši neusmerjeno testiranje pri preizkušanju poštenosti meta kovanca

A

Imamo dva kovanca, za katera želimo preveriti, ali sta poštena (enako verjetno je, da pade katerakoli stran). Postavimo hipotezi:
H0: /pi/cifra = 0,5 (delež padlih cifer v populaciji znaša 50 %, kovanec je pošten)
H1: /pi/cifra ≠ 0,5 (delež padlih cifer v populaciji je različen od 50 %, kovanec ni pošten)
Oba kovanca smo vrgli 100-krat. Pri kovancu A je cifra padla v 48 primerih, pri kovancu B pa je padla v 61 primerih. Vidimo, da nobeden izmed kovancev ni bil povsem pošten, vendar bi bili lahko takšni rezultati posledica naključnih dejavnikov (npr. načina, kako smo metali kovanec). Preveriti moramo, ali lahko ugotovitve posplošimo na populacijo.
Določimo raven tveganja α = 0,05. Ker ima poizkus samo dva možna izida, predpostavimo, da se rezultati porazdeljujejo po binomski porazdelitvi. Testno statistiko bomo izračunali po formuli:
𝑝(𝑘) =𝑛!/𝑘! ⋅ (𝑛 − 𝑘)!⋅ 𝑝na𝑘⋅ (1 −𝑝) na𝑛−𝑘; 𝑘 = š𝑡𝑒𝑣𝑖𝑙𝑜 𝑐𝑖𝑓𝑒𝑟
V našem primeru nam že zgornja testna statistika pove, kolikšna je verjetnost, da pade k-število cifer, če velja ničelna hipoteza (vrednost testne statistike je pravzaprav p-vrednost). Za oba kovanca izračunamo vrednost testne statistike.
Za kovanec A znaša p(48) = 0,382. Verjetnost, da bi pri poštenem kovancu cifra padla 48-krat je 38 % (kar pogosto). Gre za manjše odstopanje od H0, ki je zelo verjetno posledica naključja, zato H0 ne moremo zavrniti. Ni dokazov, da bi bil kovanec A
nepošten. Za kovanec B znaša p(61) = 0,018. Verjetnost, da bi pri poštenem kovancu cifra padla 61-krat je 1,8 % (zelo redko). Gre za veliko
odstopanje
od H0, ki je manjše od polovice ravni tveganja (ker gre za dvosmerno testiranje: p < 0,025), zato zavrnemo H0 in sprejmemo H1. Delež padlih cifer statistično značilno odstopa od 0,5 (kovanec B je statistično značilno nepošten).

41
Q

Opiši usmerjeno testiranje na primeru preizkušanja poštenosti meta kovanca

A

Prijatelj trdi, da je njegov kovanec nepošten, saj pri metu veliko pogosteje pade cifra kot mož. Postavimo hipotezi:
H0: /pi/cifra = 0,5 (delež padlih cifer v populaciji znaša 50 %, kovanec je pošten)
H1: /pi/cifra > 0,5 (delež padlih cifer v populaciji je večji 50 %)
Od 100 metov je cifra padla 59-krat. Vrednost testne statistike znaša p(59) = 0,044. Verjetnost, da bi pri poštenem kovancu cifra padla 59-krat je 4 %. Gre za veliko odstopanje od H0, ki je manjše od ravni tveganja (ker gre za enosmerno testiranje: p < 0,05), zato zavrnemo H0 in sprejmemo H1. Delež padlih cifer je statistično značilno večji od 0,05.
Vidimo lahko, da je kritična vrednost pri enosmernem testiranju (58) nekoliko nižja od kritične vrednosti pri dvosmernem
testiranju (60). Enosmerni test ima namreč nekoliko večjo statistično moč.

42
Q

Kakšni dve napaki lahko naredimo pri statističnem odločanju o nekem pojavu?

A
  • alfa napaka, napaka prve vrste
    o pojav v resnici (v populaciji) ne obstaja
    o test pokaže statistično značilnost; pod določeno stopnjo tveganja zaključimo, da pojav obstaja
  • beta napaka, napaka druge vrste
    o pojav v resnici (v populaciji) obstaja
    o s testom ne uspemo izmeriti statistične značilnosti pojava
43
Q

Kaj je moč testa? Od česa je odvisna?

A

Beta napako lahko naredimo, kadar nam ne uspe izmeriti statistične značilnosti pojava, čeprav ta pojav v resnici obstaja (sprejmemo napačno H0, namesto da sprejmemo pravilno H1). Moč testa je nasprotje B napake. Gre za zaupanje, da bomo pravilno zavrnili H0 in sprejeli H1 (da bomo s testom zaznali pojav, če ta res obstaja). Izračunamo jo tako, da od 1 odštejemo verjetnost B napake (1-B).
Moč testa je odvisna od:
* velikosti učinka: dejansko odstopanje od ničelne hipoteze v populaciji (torej kako močno sta dve skupini dejansko povezani, v kolikšni meri se razlikujeta); večji ko je učinek, lažje ga bo dokazati (večja bo moč testa)
* velikosti vzorca: pri večjih vzorcih izmerimo statistično značilnost že pri manjših odstopanjih od ničelne hipoteze; večji ko
je vzorec, večja je moč testa
* izbrane α napake
* usmerjenosti hipoteze: moč testa je večja pri enostranskem testiranju usmerjenih hipotez (hitreje izmerimo nek učinek,
vendar potrebujemo za usmerjeno hipotezo teoretične razloge)
* vrste testa: parametrični testi imajo načeloma večjo moč kot neparametrični testi (več v nadaljevanju)

44
Q

Kako lahko nadzorujemo α napake in β napake?

A

Verjetnost α napake imamo pod nadzorom, saj jo sami določimo z izbiro ravni tveganja (pri ravni tveganja α = 5% bo verjetnost α napke 5%). β napako imamo po drugi strani bistveno manj pod nadzorom, saj je močno odvisna od velikosti učinka (delno jo sicer lahko zmanjšamo z izbiro večjega vzroca in zvišanjem ravni tveganja α. α in β sta namreč povezani; manjša kot je verjetnost za alfa napako, večja je verjetnost da naredimo beta napako. Navadno določimo raven tveganja tako, da je verjetnost alfa napake manjša od verjetnosti beta napake (uporabimo stroge kriterije za zavrnitven ničelne hipoteze.

45
Q

Kako analiziramo moč testa?

A

Analizo moči testa praviloma opravimo med načrtovanjem raziskave. Odgovorimo na vprašanja:
* Kako velik vzorec potrebujem?
* Kako veliko razliko lahko dokažem?
* Kakšna bo moč testa v danih pogojih?
* Kolikšna je optimalna raven tveganja?
Moč testa ročno težko izračunamo, medtem ko je z uporabo računalnika to veliko lažje. Načeloma je zaželena vsa 80 % moč testa (torej da bomo vsaj v 80 % ne bomo “spregledali” učinka). Verjetnost napake alfa in beta naj bo odvisna tudi od posledic ene in druge (“katera je bolj škodljiva”)

46
Q

Kaj je velikost učinka?

A

Velikost učinka je standardiziana mera magnitude nekega pojava (povezave, razlike). Statistična značilnost je namreč deloma odvisna od velikosti vzroca (večji vzorec ko imamo, večja je verjetnost za statistično značilen rezultat). Veliko učinka je manj odvisna od velikosti vzroca. Večja velikost učinka nam na primer pove, da sta dve spremenljivki močno povezani ali da je med njima velika razlika.

47
Q

Kaj so značilnosti parametričnih statističnih testov?

A
  • temeljijo na predpostavkah o parametrih populacije, iz katere je bil pridobljen vzorec (npr. predpostavka o določeni obliki porazdelitve).
  • Imajo večjo moč, če veljajo predpostavke (ker izkoristijo celotno informacijo)
  • Ničelna hipoteza je lažje razumljiva, lažje jo je ubesediti
  • Testna statistika je bolj naravno povezana z velikostjo učinka
48
Q

Kaj so značilnosti neparametričnih statističnih testov?

A

Neparametrični statistični testi:
* temeljijo na predpostavkah o določeni obliki porazdelitve
* uporabljamo takrat, kadar bi bile predpostavke parametričnih testov kršene ali kadar težko ocenimo veljavnost teh predpostavk (npr. za normalnost porazdelitve potrebujemo vsaj 100 ljudi).
* nekatere teste (npr. Mann-Whitneyjev test) lahko uporabimo tudi pri ordinalni odvisni spremenljivki
* Manj občutljivi na osamelce

49
Q

Kdaj uporabimo randomizacijske preizkuse?

A

Randomizacijske preizkuse uporabljamo predvsem, ko na udeležence vpliva le eksperimentalna spremenljivka, ostale dejavnike pa kontroliramo. Vrednosti iz enega in drugega vzorca pemešamo, razdelimo n adve enako veliki skupini in izračunamo aritmetično sredino (postopek večkrat ponovimo). Nato ugotavljamo, kakšno porazdelitev razlik med sredinama lahko pričakujemo pri ničelni hipotezi (pri prejšnjih testih pridemo do te porazdelitve računsko, tu jo pa lahko določimo empirično, s preiskušanjem.

50
Q

Kako pri prevzročenju (bootstrap) izdelamo porazdelitev vzorčnih ocen?

A

Naredimo jih empirično, podobno kot pri randomizacijskih preizkusih. Gre le za drugačno vzorčenje, in sicer vzorčenje z vračanjem. Pri randomizaciji predpostavljamo, da kontroliramo vse djeavnike, pri prevzorčenju pa tega ne predpostavljamo

51
Q

Ali lahko za statistiko uporabimo tudi robustne teste?

A

Lahko. Tu preizkus izvedemo na prirezanih aritmetičnih sredinah (manjši vpliv odstopanja od normalnosti in osamelcev).

52
Q

Kako preverjamo normalnost porazdelitve?

A
  1. Vprašamo se, zakaj bi se spremenljivka v naravi porazdeljevala normalno? To lahko pričakujemo takrat, ko na spremenljivko vpliva več različnih dejavnikov, nobeden pa nanjo ne vpliva značilno (bolj kot ostali). Prileganje normalnosti porazdelitve lahko preverjamo z različnimi grafičnimi in računskimi metodami. V vsakem primeru je priporočljivo ,da kombiniramo tako grafične kot računske metode.

Preverjamo lahko z:
1. Histogramom -> unimodalno, simetrično, metikurtično
2. Box-plot -> graf je simetričnem, mediana je približno na sredini IQR, minimum in maksimum sta enako oddaljena, razmeroma malo osamelcev
3. Q-Q plot graf -> primerjamo empirične kvartile s teoretičnimi in prileganje premici r
4. P -P plot: primerjamo kumulativno porazdelitev z normalno kumulativno porazdelitvijo
5. Koeficient asimetričnosti in sploščenosti -> se nahajata v intervalu od -2 do +2 (nekateri pravijo -1 do +1)
6. Test normalnosti porazdelitve -> shapiro-wilkov (n<100), kolmogorov-smirnov (n>100), mardia test (multivariatno); Če je p>0,05 velja H0, če je p večji od 0,05 odstopa od normalne porazdelitve (ampak ima svoje omejitve, pri večjih vzorcih vrnejo statistično značilen rezultat že pri majhnih vzorcih)

53
Q

Kako preizkušamo hipotezo o variancah?

A

Predpostavka o homogenosti varianc (homoskedastičnost) parametričnih testov zahtev,a da so variance (razpršenost vrednosti okrog povprečja) v obeh vzorcih enake. Homogenost varianc preverjamo s statističnimi testi.
f-preizkus
Gre za parametrični preizkus. Izračunamo razmerje med varianco enega in drugega vzorca, ki predstavlja testno statistiko preizkusa (f-statistika). Pri podobnih variancha (velja H0), se F-statistika porazdeljuje po f-porazdelitvi. Odčitamo p-vrednost. Če je p <0,05 zavrnemo ničelno hipotezo (Variance niso homogene), če je pa p>0,05, ničelne hipoteze ne zavrnemo (variance so homogene)

Omejitve:
* primeren je samo za dva vzorca (včasih nas zanima homogenost varianc za več populacij),
* zahteva normalno porazdelitev spremenljivk.

Alternativa: Flinger-Killeenov preizkus
Gre za neparametrično alternativo F-preizkusu, ki ne zahteva normalne porazdelitve. Temelji na primerjavi absolutnih odklonov od povprečja / mediane.