Cours proba 3 Flashcards
Loi de proba Fonction Normal / de Gauss
X ~ N(µ ; ∂)
f(x) = 1 / ∂ racine (2π) x exp ( - (x-µ)^2 / 2∂^2) intergrale f(x)dx = 1 µ = esperance ∂ = ecart type ∂^2 = variance µ = mediane et mode densite symetrique (en cloche)
Fonction de repartition de X ~ N(µ ; ∂)
F(X) = P(X≤x) = integral (-∞ -> x) f(t)dt
fonction continue et monotone croissante
Standardisation
on pose Z = X - µ / ∂
E(Z) = 0
V(Z) = 1
Fonction de repartition de Z ~ N(µ ; ∂)
F(X) = P(Z ≤x-µ / ∂) = 1 - P(Z > x-µ / ∂)
P(Z > x-µ / ∂) : dispo dans le formulaire
Si X et Y discrete et independante
E(X+Y) = E(X) + E(y)
V(X+Y) = V(X) + V(Y)
X+Y ~ N(µx+µy ; ∂^2=∂x^2 + ∂y^2 )
somme n echantillons
E(Sn) = nE(X) V(Sn) = N Var(X)
Loi binomiale
P(X=x) = (n x) n^x (1-π)^n-x E(X) = nπ Var(X) = nπ (1-π)
Loi poisson
P(X=x) = exp(-lambda) lambda^x / x! E(x) = lambda Var(X) = lambda
Loi poisson et loi binom
• Si π est petit («1) et n grand, on peut approximer la une loi binomiale par une
loi de Poisson
• On prend alors la loi de Poisson ayant la même espérance λ=nπ
• En pratique on prendre π<0,01 et n supérieur ou égal à 20 (n≥20
Loi du Chi2 / 𝜒^2 (de Karl Pearson)
Soient X1, X2, …, Xk ~ N(0,1)
• Alors (X12 + X22 + …+ Xk2 ) suit une loi du 𝜒^2 à k degrés de liberté
Loi Binom et Normal
• Quand n est « grand » la loi binomiale devient symétrique
• Sa distribution peut alors être approximée par une loi Normale
d’espérance : E(X)= n π
de variance : Var(X)=n π (1-π)
• On retient que l’approximation est valide dès que
𝒏𝝅 ≥ 𝟓 ET 𝒏( 𝟏 − 𝝅) ≥ 𝟓
Loi bernouilli et Normal
Alors la loi de Sn=∑𝑖𝑖 𝑋𝑋𝑖𝑖 converge vers une loi Normale quand n tend vers l’infini
• Sn ~ N(𝜇 = n𝜋, 𝜎^2 = n𝜋(1 − 𝜋))
TCL generalisation
Quelle que soit la loi de X, la loi de Sn converge toujours vers une loi de
Gauss quand n tend vers l’infini
• 𝑆𝑛~𝒩(𝜇 = n𝐸 (X) , 𝜎^2 = n × 𝑉𝑎r(𝑋) )
• On pourra approcher une somme de variables continues par une loi Normale dès
que n ≥ 30