H1 Flashcards

1
Q

Quais propriedade uma função de probabilidade deve satisfazer ?

A

1) P[A] ≥ 0
2) P[Ω] = 1
3) Se A1, A2,…, são disjuntos então P UAi = ΣP(Ai)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

P[Ac] = ?

A

1- P[A]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

P [A|B] = ?

A

P(A ∩ B) / P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Quando A e B são independentes

A

p[A∩B] = P[A] * p[B]
Então
P[A|B] = P[A]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Quais propriedades uma σ-algebra deve satisfazer?

A

1) ∅ está contido em scritptF
2) Se E ∈ scriptF então seu complemento também está
3) ScriptF é fechado em união finita de conjuntos, ou seja, se E1, E2,… está contido em scriptF então UEi também está

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

O que é a Borel σ-algebra?

A

Menpr σ-algebra que contém o conjunto na forma (-∞, 0)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

O que fala a Lei da Probabilidade Total?

A

P[A] = ΣP[A | Bi] * P[Bi]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Oque fala a regra de Bayes?

A

P[A|B] = (P[B|A]P[A])/(P[B|A]P[A] + P[B|Ac]*P[Ac])

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

E[g(x)] = ?

A

Σ g(τ)*π

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

F(x) = P[X ≤ x]

A

Verdadeiro

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Quais são as propriedades de uma CDF?

A

F(x) é não decrescente
lim x-> - ∞ F(x) = 0
lim x-> ∞ F(x) = 1
F(x) is right-continuous, lim x -> x0 pela esquerda F(x) = F(x0)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

P[a ≤ x ≤ b] =…

A

F(b) - F(a)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Quais são as propriedades de uma PDF?

A

f(x) ≥ 0

∫ -infinito a infinito de f(x) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Se g é uma função crescente, g-1 é uma função contínua, então fY(y) dado que Y = g(X) é igual a

A
fY(y) = fX(g-1(y))*J(y)
J(y) = |d/dy g-1(y)|
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

WHat is Radon-Nikodym

A

If μ and v are σ-finite measures and (X, A), then there exists a measurable function f satisfying dv = f dμ or f = dv/dμ iff v is absolutely continuous with respect to μ.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

fX,Y (x,y) = ? (definição)

A

Pr( w ∈ Ω | X(w) ≤ x, Y(w) ≤ y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

fX|Y(x , y) =?

A

fX,Y (x,y) / fY(y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

If two random variables X and Y are incpendent iff…

A

There exists functions g and h such thar the joint pmf/pdf can be written as
fXY(x,y) = g(x)*h(y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

E[r(x, y)] = ?

A

Caso contínuou
∫x∫y r(x,y) * fXY(x,y) dy dx

Caso discreto
Σx Σy r(x,y) * fXY(x,y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Cov (X,Y) = ?

A

E[(x - μx)(y -μy)]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Corr(X,Y) = ?

A

Cov(x,y)/(σx*σy)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Var[X + Y] = ?

A

Var[X] + Var[Y] + 2Cov(X,Y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

E[r(x)] = ?

A

Discreto
Σr(x)*fX(x)

Continuo
∫r(x)*fX(x) dx

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

What is the kth moment?

A

μk = E(X^k)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Var(x) = ?

A

E[(X-μx)²]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Moment Generation Function

A

E[exp(t*x)]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

How to find the kth moment with the Moment Generating Function

A

μk = (∂^k y)/(∂t^k) (0)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Characteristic function

A

ϕX = E[exp(xit)]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Chebyshev’s Inequality

A

Pr(|Y-μ| ≥ k*σ) ≤ 1/k²
Ou
Pr(|X - E[X]| ≥ δ) ≤ var(X)/δ²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Convergence in probability

A

for all ϵ>0

lim n-> ∞ pr(|xn - x| > ϵ) = 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Convergence in quadratic mean

A

lim n-> ∞ E[(xn- x)²] = 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Convergence Almost surely

A

P (lim n-> ∞ xn = x) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Convergence in distribuition

A

Fn(X) -> f(X) para todo x tal que F(X-) = F(X0

F(X-) = lim xn pela direita x de F(X)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Apresente as relações de distribuição

A

Almost surely implica em probabilidade
Quadratic mean implica em probabilidade
Probbabilidade implica em distribuição

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Qual é a Lei fraca dos grandes números

A

Se Xi são iid e E[X} < infty, então n -> inft

Xbarra = 1/n ΣXi converge em quadratic mean para E{X]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Qual é a Stong Law of Large Numbers

A

Se Xi são iid e E[X] < infty, então n -> ifty

Xbarra -> E[x] almost surely

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Apresente o Teorema do Limite Central

A

Se Xi iid, with moment generating function in a neighborhood of zero, with mean and variance π and σ². Then
n^1/2 (Xbarra - π)/ σ converge em distribuição para N(0,1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Se Xn converge em distribuição para X e Yn converge em probabilidade para uma constante C, então

A

XnYn converge em distribuição para cX
Xn + Yn converge em distribuição para c + X
Xn/Yn converge em distribuição para X/c

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Se Xn converge em almost surely para X e Yn converge em almost surelypara Y, então

A

Xn + Yn cnverge almost surely para X +Y

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Se Xn converge em Quadratic mean para X e Yn converge em Quadratic mean para Y, então

A

Xn + Yn cnverge Quadratic mean para X +Y

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Se Xn converge em probabilidade para X e Yn converge em probabilidade para Y, então

A

Xn + Yn converge Probabilidade para X +Y

42
Q

Se Xn -> X em distribuição então g(Xn)?

A

g(Xn) cnverge em distribuição para g(X) se g é contínua

43
Q

Seja a sequênca de distribuição {Fn} com função característica ϕn. então temos (convergência)

A

i) Se fn -> f => ϕn (t) -> ϕ (t)

ii) Se ϕn(t) -> ϕ (t contcontínua em 0), então temos fn -> f com função característica ϕ

44
Q

Delta Method

A

Se uma sequência de variáveis aleatórias Xn satisfaz
n^(1/2) (Xn - μ) converge em distribuição para N(0, σ²)
Então para qualquer função g(.) continuamente diferenciável em uma vizinhança de μ com derivada g’(μ),
(n^1/2) (g(Xn) - g(μ)) converge em distribuição N (0, g’(μ)²*σ²)

45
Q

Cramer-Wold Device

A

Zn converge em distribuição para Z se e somente se λ^T Zn -> converge em distribuição para λ^T Z para todo λ in Rk com λ^T * λ = 1

46
Q

Continuous Mapping Theorem

A

Se Zn -> c em probabilidade quando n-> infty e h(.) é contínuo em c entao h(Zn) -> h(c) quando n -> \infty

47
Q

F(c) = P(X ≤ c) = E I(X ≤ c) = ?

A

∫ I(x ≤ x) dP^X (x)

48
Q

I [w < 1/n] |²

A

I [w < 1/n] |

49
Q

I [xi < x1] * I[xi < x2] = ?

A

i [xi < min{x1, x2}]

50
Q

Como encontrar Σ?

A

Primeiro fazer a variância (σkk), depois fazer as covariâncias (σks)

51
Q

Como podemos reescrever

Y = max{ X, c}

A

Y = X* I {X > c} + c * I {X < c}

52
Q

Apresente o Teorema de Lindeberg-Feller

A

Seja Sn = Σxi (arrays)
Se i) Xn são independentes, ii) Exi = 0 , V(Sn) = ΣV(xni) = σ², iii) ∀ϵ > 0 lim n -> ∞ ΣE(X1i² * I(|Xni| > ϵ)) = 0
Com i), 2) 3) => Sn converge em distribuição para N(0, σ²)

53
Q

Apresente a condição de Lyapunov

A

lim n->∞ 1/(σ^(2+δ)) * ΣE[|Xi|^(2+δ)] = 0

54
Q

O que é um modelo corretamente especificado?

A

Quando existe um parâmetro θ0 tal que

f(x|θ0) = f(x) -> valor real da distribuição

55
Q

O que é uma Loss Function?

A

É o custo de escolher d, enquanto o parâmetro verdadeiro é θ

56
Q

Apresenta fórmula quadrática da Loss Function

A

L(θ, d) = (θ-d)²

57
Q

O que é a Risk Function?

A

R(θ, δ) = Eθ [L(θ, δ(X))]

58
Q

Quando a função loss é quadrática, o que é a função risco?

A

Mean Squared Error (MSE)

Var(W(X)) + Viés²
Viés = (E(W(X)) - θ)

59
Q

Se E(W(X)) = θ

A

Estimador não viesado

60
Q

O que é um estimador Uniformly Minimum Variance unbiased Estimator (UMVUE)

A

Estimador não viesado com menor variância

61
Q

Apresente o Crámer-Rao Lower Bound

A

Se o modelo está bem especificado, então a variância de qualquer estimor não viesado é
V(W(X)) ≥ 1 / (-n * E[(∂^2 ln⁡(f(X;p))) / (∂p)^2 ] )

62
Q

Apresente a Desigualda De Cauchy-Schwarz

A

Cov(X,Y)² ≤ V(X)*V(Y)

63
Q

Score Function

A

(∂ln⁡(f(X;θ)) )/∂θ

64
Q

Encontre a CDF de X(n) = max{X1, …, Xn}

A

P(X(n) ≤ X) = P(X1 ≤ X, X2 ≤ X,… Xn ≤ X) = (P(X1≤X))^n = F(X)^n

65
Q

Apresente a Lei das Expectativas Iteradas

A

E[E[Y|X]] = E[Y]

66
Q

Explain why the conditional expectation Eθ[θchapéu |Xbarra] does not depend
on θ

A

Isso ocorre porque Xbarra já contém toda informação sobre de θ. Logo, θchapéu |Xbarra não depende de θ o que leva a Eθ[θchapéu |Xbarra] não depender de θ.

67
Q

Show the Likelihood equation for one random variable

A

L(θ) = fX(x; θ)

68
Q

Show the Likelihood equation for iid random variables

A

L(θ) = fX1(x; θ)fXn(x; θ) = ∏ fXi(x; θ)

69
Q

Show the Log Likelihood equation

A

L(θ) = Σ ln(fXi(x; θ))

70
Q

What is the MLE (Maximum Likelihood estimator)

A

The one that maximizes L(θ) [Log likelihood function]

71
Q

Apresente a desigualdade de Jensen

A

Se g é convexa, então

E[g(X)] ≥ g(E[X])

72
Q

Show the maximum likelihood estimator

A

θhat = argmaxθ Σln(fX(xi; θ))

73
Q

Show the properties of the Maximum Liklihood estimator

A

1) θhat converges in probability to θ*
2) n^(1/2)(θhat - θ) converges in distribution to N(0, I^-1(θ)), where
I(θ) = - E[ (∂²ln⁡(fX(x;θ))/∂θ∂θ’]

74
Q

What is a Sufficient Statistic?

A

A statitic T(X) is a sufficient statistic for a parameter θ if the distribution of X given T does not depend on θ.

75
Q

State the Factorization Lemma

A

Let fX(x;θ) be the pdf of a random variable X. A statistic T(X) is a sufficient statistic for θ iff there are functions g(t) and h(x) such that the pdf can be writtern as
fX(x; θ) = g(T(X); θ)*h(x)
for all values of θ

76
Q

What is a Type I Error ?

A

Reject H0 when it is true

77
Q

What is a Type II Error ?

A

Accept H0 when it is false

78
Q

By expanding the critical region we increase the probability of type I errors and
decrease the probability of type II errors

A

True

79
Q

Quando a hipótese é simples?

A

Se o intervalo em que H é verdadeiro é single

80
Q

Quando a hipótese é composta?

A

Quando o conjunto em que H é verdadeiro apresenta varias distribuições

81
Q

Oque é a power function?

A

Probabilidade de Rejeitar F dada que é falsa
P(H1 | F)
1-error tipo 2

82
Q

O que é o tamanho do teste?

A

Rejeitar H0 dado que H0 é verdadeiro

P(H0 | F0)

83
Q

Quando um teste é uniformemente mais forte (UMP)?

A

A power function β(θ) ≥β’(θ) para qualquer theta sobre nivel de significância α

84
Q

Apresente o Neyman-Pearson Lemma

A
Considere o teste 
H0: θ = θ0
H1: θ = θ1
CX = {x | fX(x; θ1) ≥ k · fX(x; θ0)}
for some k ≥ 0, and
α = ∫fX(x; θ0)dx. (em CX)
This test is the uniformly most powerful test of level α
85
Q

Porque o teste
H0: θ = θ0 e Ha: θ ≠ θ0
Não apresneta o teste mais forte
(No caso de uma normal)

A
Pois se μ1 > μ0 usamos o teste 
Cx = {x| xbarra > k}
Já se μ1 < μ0  usamos o teste
Cx =  {x| xbarra < k}
Pelo Lemma de Neyman Pearson esses são únicos e portanto não existe teste mais forte para 
H0: θ = θ0 e Ha: θ ≠ θ0
86
Q

O que é um teste não viesado?

A

if the power function β(θ1) ≥ β(θ0) for all θ1 ∈ Θ0c and all θ0 ∈ Θ0

87
Q

O teste
H0: θ ≥ θ0
Ha: θ < θ0
É não viesado?

A

Falso

88
Q

O teste
H0: θ = θ0 e Ha: θ ≠ θ0
É não viesado

A

Verdadeiro

89
Q

Apresente a estatística e o teste de Wald

A

H0 : θ = θ0 e H1 : θ ̸= θ0
W = N * (θml − θ0)2 * I(θml)
we reject the null hypothesis if the test statistic is larger than the critical value coming from the chi-squared distribution with one degree of
freedom

90
Q

Apresente o teste de maximum Likelihood ratio (para o caso de uma variável)

A

λ = maxθ∈Θ0 fX(x; θ) /maxθ∈Θ0c fX(x; θ)
Porém podemos reescrever
λ = fX(x; θ0)/fX(x;θmle)
Se θmle ≠ θ0

91
Q

Apresnte o teste Likelihood Ratio para N variáveis iid

A

LR = −2 * ln λ d→ χ²(1),
Onde
λ = L(x1, . . . , xN; θ0) / L(x1, . . . , xN;bθmle)

92
Q

Apresente o Lagrange multiplier ou score test

A

LM = 1/N (∑ ∂lnfX(xi; θ0)/∂θ)² / I(θ)

93
Q

Para pequenas e grandes amostras os testes de Wald, LR, Score são equivalentes

A

Falso, apenas para grandes amostras

94
Q

Apresente o Teorema de Lehman-Scheffé

A

T(x) é a estatística minima suficiente se

f(x;θ)/f(y;θ) é constante iff T(x) = T(y)

95
Q

Apesente o Teorema de Karlin-Rubin

A

Se a função f(x;θ1)/f(x;θ0) é monotonica e decrescente em x para qualquer θ1 ≥ θ0 então o Threshold test
ϕ = 1 se x >x0 e 0 se x θ0

96
Q

Qual a importância do Teorema de Kalin-Rubin para a família das exponências?

A

Garante que o teste será composto

97
Q

Apresente a propriedade de existência do Neyman-Pearson lemma

A
Se H0: θ = θ0 H1: θ = θ1 Então existe um teste ϕ e uma contante k, tais que
ϕ(x)  =  1 se  f(x; θ1) > f(x;θ0)*k
ϕ(x)  =  0 se  f(x; θ1) < f(x;θ0)*k
e
Eθ(ϕ(x) ) = α
98
Q

Apresente a propriedade de suficiência de Neyman - Pearson

A

Se um teste satisfaz as condições de existência para algum k então esse é o UMP teste ao nível de significância α

99
Q

Apresente a propriedade de necessidade de Neyman pearson

A

Se ϕ é o UMP test então esse satisfaz a estrutura da necessidade para algum k e satisfaz a esperança a menos que exista um teste de nivel signficancia < α e poder igual a 1

100
Q

Se β denota o poder do teste a um nível de significância α, então

A

β > α a menos que P0 = P1

101
Q

An unbiased estiamtor with variance eqaul to the Cramer-Rao Lower Bound exists iff…

A

The score function can be written as
∂lnf(x;θ)/∂θ = a(θ)*(W(X)-θ)
W(X) is some function. The minimum unbiased estimator then is equal to the maximum liklihood estimator W(x) = θmle

102
Q

Para N(0,1) qual o valor de E[g(x)*X]

A

E[g’(x)]