Chapitre 6 Flashcards
E[X] =
Σx.p_X(x)
x
∫ x.f_X(x)dx
Si X et Y sont des variables aléatoires et si Y = g(X) pour une certaine fonction
g : R → R, alors
E[Y ] = E[g(X)] =
Σg(x).p_X(x)
x
∫ g(x).f_X(x)dx
Si X, Y et Z sont des variables aléatoires et si Z = g(X, Y ) pour une certaine fonction
g:R2 →R,alors
E[Z] = E[g(X, Y )] =
ΣΣ g(x,y).p_X,Y(x,y)
x
∫∫ g(x,y).f_X,Y(x,y)dxdy
E[aX + b] =
a . E[X] + b
E[X+Y]=
E[X] + E[Y]
E[XY] =
E[X] . E[Y]
ssi X et Y sont des v.a. indépendantes!
E[u(X).v(Y)] =
E[u(X)] . E[v(Y )]
ssi X et Y sont des v.a. indépendantes! et u, v des fonctions de R dans R
Var[X] =
E[X²] − (E[X])²
Var[aX + b] =
a²Var[X] pour tout réels a et b
σ_(aX + b) =
|a|σX pour tout réels a et b
σ_(X+Y) =
sqrt(σ²_X+2ρ_X,Y . σ_X . σ_Y + σ_Y²)
Valeurs de ρ_(X,Y)
−1≤ ρ_(X,Y) ≤1
ρ_(X,Y) = 1 ssi..
ρ_(X,Y) = 1 ssi Y=aX+b pour un certain a>0 et un certain b∈R
ρ_(X,Y) = -1 ssi..
ρ_(X,Y) = -1 ssi Y =aX+b pour un certain a<0 et un certain b∈R.
Cov[aX+b,cY +d]=
acCov[X,Y] pour tout a,b,c et d.
ρ_(aX+b,cY +d) = ρ_(X,Y)
pour tout a,b,c et d avec a et c non nuls et de même signe.
ρ_(aX+b,cY +d) = - ρ_(X,Y)
pour tout a,b,c et d avec a et c non nuls et de signe opposé.
Si X et Y sont des variables aléatoires indépendantes, alors
ρ_(X,Y) =
ρ_(X,Y) = Cov[X,Y] =0
Si X et Y sont des variables aléatoires indépendantes, alors
Var[X+Y]=
Var[X]+Var[Y]
Si X et Y sont des variables aléatoires indépendantes, alors
σ_(X+Y) =
sqrt(σ²_X + σ²_Y)
nieme moment par rapport à l’origine de la v.a. X
E[X^n]
nieme moment central de la v.a. X
E[(X − μX )^n]
σ² =Var[X]=
E[(X−μ )²]
ou
E[X²]-(E[X])²
Écart type σ =
sqrt(Var[X])
Cov[X,Y] =
E[(X−μ_X)(Y−μ_Y)]
ou
Cov[X, Y ] = E[XY ] − E[X] E[Y ]
Coef. de corrélation ρ_(X,Y)
Cov[X,Y] / (σ_X . σ_Y)
Interprétation de la covariance.
Une covariance positive nous indique que plus la variable X est grande, plus la variable Y a tendance à être grande et plus la variable X est petite, plus la variable Y a tendance à être petite. On dit alors qu’il y a une association linéaire positive entre X et Y . Avec une covariance négative, c’est l’inverse : plus la variable X est grande, plus la variable Y a tendance à être petite et plus la variable X est petite, plus la variable Y a tendance à être grande. On dit alors qu’il y a une association linéaire négative entre X et Y.
Def de ce qu’est la covariance
La covariance de X et Y (on dit aussi covariance entre X et Y ) est une mesure du degré d’association linéaire entre X et Y .
Approximation pour E[g(X)]
E[g(x)] ≈ g(μ_X)+ 1/2 g′′(μ_X) . σ²_X
Approximation pour Var[g(X)]
Var[g(X)] ≈ (g′( μ_X ))² . σ²_X
Inégalité de Markov
P[X ≥ a] ≤ E[X] / a pour tout a>0
Inégalité de Chebyshev
P[| X - μ_X | ≥ c ] ≤ σ²_X / c²
P[μ_X−c < X < μ_X +c] ≥ 1 − (σ²_X / c²)
Fonction génératrice des moments
M_X(t)= E[e^tX] =
Σ e^tX.p_X(x)
x
∫ e^tX.f_X(x) dx
Une fonction génératrice des moments satisfait …
(1) M_X(0) = 1.
(2) M_X(t) > 0 pour tout t ∈ R.
Propriétés fonction génératrice des moments
(1) E[X^n] = M^(n)_X(0). (nième dérivée de M_X en 0)
(2) si M_X(t) = M_Y(t) alors on a F_X(u) = F_Y(u)
(3) V_n –D–> V ssi lim M_Vn (t) = M_V (t)
Calcul d’espérance par conditionnement
E[Y] = Σ E[Y | X=x].p_X(x)
x
E[Y] = ∫ E[Y | X=x].f_X(x) dx
également vrai pour P[A]
P[A] = Σ P[A | X=x].p_X(x)
x
P[A] = ∫ P[A | X=x].f_X(x) dx
La moyenne échantillonnale x̄ et sa variance
E[x̄] = E[Sn/n] = E[Sn]/n = nμ/n = μ Var[X] = Var[Sn/n] = Var[Sn]/n2 = nσ2/n2 = σ2/n.
La loi des grands nombres
P
x̄ → μ.