Chapitre 6 Flashcards

1
Q

E[X] =

A

Σx.p_X(x)
x

∫ x.f_X(x)dx

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Si X et Y sont des variables aléatoires et si Y = g(X) pour une certaine fonction
g : R → R, alors

E[Y ] = E[g(X)] =

A

Σg(x).p_X(x)
x

∫ g(x).f_X(x)dx

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Si X, Y et Z sont des variables aléatoires et si Z = g(X, Y ) pour une certaine fonction
g:R2 →R,alors

E[Z] = E[g(X, Y )] =

A

ΣΣ g(x,y).p_X,Y(x,y)
x

∫∫ g(x,y).f_X,Y(x,y)dxdy

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

E[aX + b] =

A

a . E[X] + b

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

E[X+Y]=

A

E[X] + E[Y]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

E[XY] =

A

E[X] . E[Y]

ssi X et Y sont des v.a. indépendantes!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

E[u(X).v(Y)] =

A

E[u(X)] . E[v(Y )]

ssi X et Y sont des v.a. indépendantes! et u, v des fonctions de R dans R

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Var[X] =

A

E[X²] − (E[X])²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Var[aX + b] =

A

a²Var[X] pour tout réels a et b

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

σ_(aX + b) =

A

|a|σX pour tout réels a et b

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

σ_(X+Y) =

A

sqrt(􏰇σ²_X+2ρ_X,Y . σ_X . σ_Y + σ_Y²)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Valeurs de ρ_(X,Y)

A

−1≤ ρ_(X,Y) ≤1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

ρ_(X,Y) = 1 ssi..

A

ρ_(X,Y) = 1 ssi Y=aX+b pour un certain a>0 et un certain b∈R

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

ρ_(X,Y) = -1 ssi..

A

ρ_(X,Y) = -1 ssi Y =aX+b pour un certain a<0 et un certain b∈R.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Cov[aX+b,cY +d]=

A

acCov[X,Y] pour tout a,b,c et d.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

ρ_(aX+b,cY +d) = ρ_(X,Y)

A

pour tout a,b,c et d avec a et c non nuls et de même signe.

17
Q

ρ_(aX+b,cY +d) = - ρ_(X,Y)

A

pour tout a,b,c et d avec a et c non nuls et de signe opposé.

18
Q

Si X et Y sont des variables aléatoires indépendantes, alors

ρ_(X,Y) =

A

ρ_(X,Y) = Cov[X,Y] =0

19
Q

Si X et Y sont des variables aléatoires indépendantes, alors

Var[X+Y]=

A

Var[X]+Var[Y]

20
Q

Si X et Y sont des variables aléatoires indépendantes, alors

σ_(X+Y) =

A

sqrt(σ²_X + σ²_Y)

21
Q

nieme moment par rapport à l’origine de la v.a. X

A

E[X^n]

22
Q

nieme moment central de la v.a. X

A

E[(X − μX )^n]

23
Q

σ² =Var[X]=

A

E[(X−μ )²]
ou
E[X²]-(E[X])²

24
Q

Écart type σ =

A

sqrt(Var[X])

25
Q

Cov[X,Y] =

A

E[(X−μ_X)(Y−μ_Y)]
ou
Cov[X, Y ] = E[XY ] − E[X] E[Y ]

26
Q

Coef. de corrélation ρ_(X,Y)

A

Cov[X,Y] / (σ_X . σ_Y)

27
Q

Interprétation de la covariance.

A

Une covariance positive nous indique que plus la variable X est grande, plus la variable Y a tendance à être grande et plus la variable X est petite, plus la variable Y a tendance à être petite. On dit alors qu’il y a une association linéaire positive entre X et Y . Avec une covariance négative, c’est l’inverse : plus la variable X est grande, plus la variable Y a tendance à être petite et plus la variable X est petite, plus la variable Y a tendance à être grande. On dit alors qu’il y a une association linéaire négative entre X et Y.

28
Q

Def de ce qu’est la covariance

A

La covariance de X et Y (on dit aussi covariance entre X et Y ) est une mesure du degré d’association linéaire entre X et Y .

29
Q

Approximation pour E[g(X)]

A

E[g(x)] ≈ g(μ_X)+ 1/2 g′′(μ_X) . σ²_X

30
Q

Approximation pour Var[g(X)]

A

Var[g(X)] ≈ 􏰊(g′( μ_X ))² .􏰋 σ²_X

31
Q

Inégalité de Markov

A

P[X ≥ a] ≤ E[X] / a pour tout a>0

32
Q

Inégalité de Chebyshev

A

P[| X - μ_X | ≥ c ] ≤ σ²_X / c²

P[μ_X−c < X < μ_X +c] ≥ 1 − (σ²_X / c²)

33
Q

Fonction génératrice des moments

A

M_X(t)= E[e^tX] =

Σ e^tX.p_X(x)
x

∫ e^tX.f_X(x) dx

34
Q

Une fonction génératrice des moments satisfait …

A

(1) M_X(0) = 1.

(2) M_X(t) > 0 pour tout t ∈ R.

35
Q

Propriétés fonction génératrice des moments

A

(1) E[X^n] = M^(n)_X(0). (nième dérivée de M_X en 0)
(2) si M_X(t) = M_Y(t) alors on a F_X(u) = F_Y(u)
(3) V_n –D–> V ssi lim M_Vn (t) = M_V (t)

36
Q

Calcul d’espérance par conditionnement

A

E[Y] = Σ E[Y | X=x].p_X(x)
x
E[Y] = ∫ E[Y | X=x].f_X(x) dx

également vrai pour P[A]

P[A] = Σ P[A | X=x].p_X(x)
x
P[A] = ∫ P[A | X=x].f_X(x) dx

37
Q

La moyenne échantillonnale x̄ et sa variance

A
E[x̄] = E[Sn/n] = E[Sn]/n = nμ/n = μ
Var[X] = Var[Sn/n] = Var[Sn]/n2 = nσ2/n2 = σ2/n.
38
Q

La loi des grands nombres

A

P

x̄ → μ.