Lecture 18: Bayesian ANOVA Flashcards

1
Q

hoe ziet de prior knowledge er uit bij bayesian

A

in de vorm van een probability distribution that characterizes our prior knowledge, tussen 0 and 1.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

wat gebruik je voor een proportion als prior distribution

A

een beta distribution

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

wat is het lastige aan een prior distribution

A

heel subjective

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

BF =1 betekent

A

dat beiden modellen even goed kunnen predicten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

BF>1 betekent

A

more and more evidence for one of the models

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

BF kan nooit…

A

negatief zijn (want het is een ratio)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

dus grootste verschil in doelen van frequentist en bayesian statistics (gaat over conditioning)

A
  • frequentist: the probability of the data or more extreme, given the null hypothesis
  • bayesian: the probability of different parameters given the data
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

statistical models van theta: wat is het doel?

A

we are trying to inference for the population value: what do we think are likely values for the parameter values?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

hoe heet het als een prior distribution heel scherp is gericht op een value (= sarahs model in voorbeeld)

A

een spike prior

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

wat doen we vervolgens met deze prior distribution

A

we look at: what are likely values if this model were true? how likely are the data, given the model is true?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

waar lijkt een distribution bij theta = 0.5 op?

A

op een sampling distribution if the null would be true. (=frequentist testing)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

wat is het verschil tussen freq en bayesian wat betreft de probability waar je naar kijkt

A

freq= the probability of the data, or more extreme
bayes= the probability of the data specifically

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

wat is de formule van bayesian model=

A

n! / k!(n-k)! * theta(1-theta)^n-k

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

dus als je een spiked prior kiest, vul je dit getal in als theta. maar wat als je een hele range aan values kiest voor de theta?

A

dan moet je kijken naar elke postulated value van theta tussen … en … (dus alle values die de prior distribution verwacht) en dan vervolgens kijken naar de likelihood van deze date voor elke mogelijke value. dan kijken naar het gemiddelde van al deze likelihoods, weighted by the density at each point.

=marginalizing -> marginal likelihood (=average likelihood)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

hoe kan het dat, als Betty bijv zegt dat theta <0.5, je in de marginal likelihood graph nog steeds values onder 0.5 ziet staan?

A

omdat theta = parameter, dus het gemiddelde van de populatie. in de marginal likelihood zie je alle mogelijke waardes. hoewel de probability van heads bijvoorbeeld 0.6 is, heb je nog steeds een kans om 3/10 keer heads te gooien in de gehele populatie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

statistical model =

A

A statistical model is a combination of a general statistical model (e.g., the binomial model) and a statement about a parameter value that describe a certain phenomenon. A statistical model can also be seen as a hypothesis: a specific statement about the value of the model parameters.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

wanneer heb je een binominal model

A

als je een series of chance based events hebt, met een uitkomst met 2 mogelijkheden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

wat is het uiteindelijke doel van een statistisch model, wat doen we hiermee?

A

We can use the accuracy of these predictions of the model to gauge the quality/plausibility of a model, relative to another model.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

wat is k in de formule

A

k = data die je hebt gevonden (bv 8 keer heads gooien)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

wat is n in de formule

A

n = de hoeveelheid data die je in totaal hebt verzamelt (bv 10 keer gooien)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

difference in freq vs bayesian wat betreft de samples

A

freq = large samples usually needed
bayesian = not necessarily need large samples

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

difference in freq vs bayesian wat betreft de nature of the parameters in the model

A

freq = unknown nature, but fixed
bayesian = unknown and therefore random

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

difference in freq vs bayesian wat betreft de population parameter

A

freq = one true value
bayesian = a distribution of values, reflecting uncertainty

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

difference in freq vs bayesian wat betreft: uncertainty is defined by

A

freq: the sampling distribution based on the idea of infinite repeated sampling
bayesian: a probability distribution for the population parameter

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

difference in freq vs bayesian wat betreft de estimated intervals

A

freq: confidence interval
bayesian: credibility interval

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

confidence interval interpretatie

A

over an infinity of samples taken from the population, 95% of these contain the true population value

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

credibility interval interpretatie

A

a 95% probability dat de population value is within the limits of the interval

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

bayes factor =

A

how well did model 1 predict the data / how well did model 2 predict the data

= dus de likelihood van de gevonden data. (bv likelihood van 8 keer heads gooien)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

wat is de interpretatie van BF10= 4

A

this means that the observed data are about 4 times more likely under model 1 than under model 0.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

wat is de interpretatie van BF01=0.25

A

de data zijn 0.25 keer meer likely onder model 1, dan onder model 0.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

hoe ga je van BF01 naar BF10

A

1 / Bayesfactor

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

wat als de modellen de data even goed voorspellen

A

BF=1

Generally, we want the Bayes factor to be as far away from 1 as possible, since this indicates more and more evidence in favor of one model over another.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

strong evidence for H0=

A

BF10 = 1/30 tot 1/10

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

moderate evidence for H0 =

A

BF10= 1/10 tot 1/3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

weak evidence voor H0 en H1

A

BF10= 1/3 tot BF10 = 3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

moderate evidence for H1=

A

BF10 = 3 tot 10

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

strong evidence for H1=

A

BF10= 10 tot 30

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

maar wat is belangrijk bij de interpretatie van evidence voor H1 en H0

A

niet absolute regels, geen all or nothing conclusions.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

hoe heet een model die elke waarde van theta even plausibel vind

A

uninformed model

40
Q

hoe maak je dan vervolgens vergelijkingen tussen twee modellen, gebaseerd op deze grafieken?

A

de ratio nemen van de gele staven, dus de marginal likelihood voor de gevonden data, van beiden modellen.

marginal likelihood model 1/marginal likelihood model 2

41
Q

concept of parsimony in bayesian statistics =

A

means that more specific models are being rewarded more (when predicting well) than their non-specific competitor

42
Q

wat is de meest gebruikte vergelijking van 2 modellen

A

een uninformed model vs een nulmodel (met theta = 0.5).

43
Q

transivity in bayesian statistics=

A

Since we know how much more likely the data are under Betty’s model than under Alex’ model (about 2 times), and how much more likely the data are under Alex’ model than under Sarah’s model (about 2 times), we also now know that Betty’s model is about
2x2=4 times more likely than Sarah’s model!

44
Q

The Bayes factor is a relative metric, comparing 2 models at a time
The subscript of the Bayes factor indicates which model is compared to which
More specific predictions, when accurate, are rewarded (parsimony)

A

oke

45
Q

Instead of comparing models, however, we can also …

A

look at one model, and use it to estimate the value of theta. We will see that each of the models presented above will yield different estimates, because they had different a priori (i.e., before seeing the data) beliefs about plausible values of theta

46
Q

Because we are working with a continuous range of values for theta, the difference between saying theta<0.5 and t theta <= theta is infinitely small and the two versions may be used interchangeably

A

oke

47
Q

wat is de formule voor de posterior

A

p(θ|data) = (p(data|θ) * p(θ)) / p(data)

48
Q

wat is p(data|θ)

A

likelihood

49
Q

wat is p(θ)

A

prior

50
Q

wat is p(θ|data)

A

posterior

51
Q

wat is p(data)

A

average prediction acrosss all θ’s

52
Q

wat is een andere manier om de formule te schrijven van bayesian

A

p(θ|data)= p(θ) * p(data|θ) / p(data)

53
Q

wat is de predictive updating factor

A

p(data|θ) / p(data)

54
Q

wat laat de predictive updating factor zien

A

it shows how each possible value of theta predicted the observed data, relative to all other possible values of theta.

55
Q

Belief is a funny word and we tend to associate the word with things that have seemingly little to do with science or statistics. However, we have beliefs about anything in the world – they might be quite weak, but we still have some starting point for reasoning about some phenomenon. For instance, I know very little about the number of penguins in the world, but I do know there are more than 0, probably more than 1000
, and fewer than 1.000.000.000 of them

A

oke

56
Q

hoe bereken je p(data|θ)

A

ook in de n & k formule zetten, en dan dat voor elke mogelijke waarde van θ.

bv beginnen met theta = 0,5; dat invullen.

57
Q

wat is de likelihood NIET???

A

likelihood =/= probability distribution!!!
surface area =/= 1, en dus geen probabilistic statements maken over de parameter

58
Q

de marginal likelihood is een …. value

A

singular value, dus gewoon een nummer!!

59
Q

marginal likelihood =

A

average of all the likelihoods, where the likelihood of each theta value is weighted by the prior belief placed on that value by the model

60
Q

wat vergelijk je dus bij de bayes factor, qua formule?

A

p(data|θ) van mdoel 1 vs model 2

61
Q

dus likelihood, welke formule?

A

p(data|θ)

62
Q

wat is de predictive updating factor in termen

A

likelihood / marginal likelihood

63
Q

hoe vergelijk je twee modellen onder het bayesian framework

A

compare the marginal likelihoods of each of the models: how likely are the data under model 1, and how likely are the data under model 2?

64
Q

wat is dan de bayes factor

A

the data are …. more likely under model 1 as under model 2

65
Q

hoe zie je marginal likelihood visually

A

dat is de grafiek met het gele staafje, dat is marginal likelihood! gaat echt over model comparison

66
Q

predictive updating factor=

A

likelihood of the observed data, for each value of theta. dus je stopt een theta in die formule, en dan krijg je de likelihood. dat doe je voor alle mogelijke waarden van theta, en daaruit komt dan een grafiek: de likelihood = predictive updating factor

67
Q

wat staat er op de grafiek van predictive updating factor

A

x as = θ
y as = P(data|θ).

68
Q

wat zie je bij een statistical model op de grafiek

A

x as = θ
y as = density

69
Q

wat zie je op de grafiek van likelihood

A

x as = dependent variable
y as = likelihood

70
Q

op welk level is bayesian inference:

P(θ|data)

A

op het level van de parameter

71
Q

wat is het verschil in likelihood en marginal likelihood in terms van een formule

A

likelihood is een function, gaat over alle mogelijke waarden van theta die dan een eigen likelihood krijgen.

marginal likelihood is het gemiddelde van de likelihood, dit is maar één getal!! -> how well did the values in the model predict the data on average?

72
Q

predictive updating factor interpretatie

A

how well did each value in the model predict the data, compared to the average of the other models in the data?

73
Q

als je twee modellen vergelijkt met elkaar, waar staat de bayes factor dan gelijk aan

A

aan de predictive updating factor:

p(H1|data) / p(H0|data)

74
Q

op welk level is bayesian hypothesis testing:

p(H1|dat)/p(H0|data)

A

op het level van de hypothese

75
Q

wat is het verschil tussen een prior distribution en prior odds

A

prior distribution is op θ level, en dus parameter. -> distribution

prior odds is op H1 en H0 level, en gaat dus over hypothesen. -> single value

76
Q

dus twee soorten prior

A

prior distribution: p(θ)

prior odds: p(H1)/p(H0)

77
Q

bayes factor formule

A

p(data|H1) / p(data|H0)

78
Q

bayesian t test: wat meten we?

A

de difference between groups: cohen’s d / delta. δ

= a standardized difference between groups

79
Q

wat voor distribution for bayesian t test

A

cauchy distribution

80
Q

wat zijn karaktereigenschappen van de cauchy distribution

A
  • df = 1
  • t-distribution
81
Q

why would a uniform distribution not work for bayesian t test

A

omdat delta een infinite domain heeft

82
Q

bayesian anova = extension of the t test

A

oke

83
Q

wat is P(M) in bayesian statistics

A

prior model: how likely do we deem each of the models before seeing the data?

standaard: 0.5

84
Q

wat is P(M|data)

A

posterior model probabilities, updated prior using the PUF/BF

dus dit geeft al een indicatie van welk model meer evidence heeft.

85
Q

BF10

A

compares all of the models to another model (default: all models are compared to the best model)

dus kijken naar: wat was het beste model bij P(M|data) -> de hoogste = beste model, daar wordt de rest mee vergeleken.

86
Q

waarom kan je dus een 1 zien staan bij de BF10

A

omdat het model met het beste model wordt vergeleken: als dit het model zelf is, zal de BF altijd gelijk zijn aan 1 (want hij wordt vergeleken met zichzelf)

87
Q

wat is BFm

A

dit vergelijkt een model met al de andere modellen -> marginal likelihood of one model compared to marginal likelihood of the other models

(als er maar twee modellen zijn is dit dus het verschil tussen deze twee modellen).

88
Q

wat kan je zien bij effects bij bayesian anova

A

kijken naar het verschil tussen predictor variables.

89
Q

wat is BF incl bij effects

A

laat zien hoeveel meer likely de data is onder de H1 dan onder de H0. compares groups of models to groups of models

90
Q

model averaged posterior distribution =

A

how much does the model deviate from the grant mean?

91
Q

kunnen we bij bayesian ook post hoc tests doen

A

ja, pairwise comparisons. basically bayesian pairwise t tests.

92
Q

waar kijk je dus naar bij bayesian anova tabel

A

naar BFm: how well does the model do, compared to all other models

of

BF10: compares the model to the best model

of

BFincl; laat zien hoe veel beter dit model het doet vergeleken met modellen die niet de predictor hebben

komt vaak op hetzelfde uit, omdat we vaak maar 2 modellen hebben.

93
Q

you can quantify evidence for inclusion of the null or for the H1. but you cannot quantify evidence for exclusion

A

oke

94
Q

de aanwezigheid van een interactie effect laat zien….

A

dat je eigenlijk niet alleen meer over main effects kan praten.

(daarom heeft ANCOVA ook een assumption dat er geen interactie is tussen predictor en covariate).

95
Q

hoe kan je bayesian visualiseren

A

descriptive plots: horizontal axis = dependent, separate lines = groups/independent

96
Q

wat betekent een kruizing in de lijnen van descriptive plot

A

INTERACTION EFFECT!!!!

97
Q
A