Probabilités Flashcards
Formule de Vandermonde
n parmi a+b = Σ (k parmi a)*(n-k parmi b)
on somme pour k allant de 0 à n
Ω un ensemble, A partie de P(Ω) (ens des parties de Ω) est une tribu (déf)
Ω ∈ A
Pour tout év a de A, l’év contraire de a est dans A
Pour toute famille (an)n d’éléments de A, ∪(an) est dans A
Remarques :
∅ ∈ A
Pour toute famille (an)n d’éléments de A, ∩(an) est dans A
Probabilité P sur (Ω, A)
P : A → [0; 1] tq P(Ω) = 1 et pour tout famille (an)n d’événements deux à deux incompatibles (i≠j => ai∩aj = ∅) on a : P(∪(an)) = Σ P(an)
Remarque :
Si Ω fini, on remplace la propriété de σ-additivité par a∩b = ∅ => P(a∪b) = P(a) + P(b)
Continuité croissante
(An)n suite d'éléments telle que pour tout n, An ⊂ An+1 Alors P(∪ An) = lim P(An)
Continuité décroissante
(An)n suite d'éléments telle que pour tout n, An ⊃ An+1 Alors P(∩ An) = lim P(An)
Sous σ-additivité
Ou inégalité de Boole
(An)n suite d’éléments de la tribu
Σ P(An) converge
Alors P(∪ An) ≤ Σ P(An) [n variant entre 0 et +∞]
Toujours valable si Σ P(An) [n variant entre 0 et +∞] = +∞
Probabilité conditionnelle de A sachant B
B non négligeable (P(B) > 0)
P(A | B) = P(A∩B) / P(B)
Formule des probabilités composées
P(∩ Aᵢ) > 0 [i variant entre 1 et n]
P(A₁∩A₂∩…∩An) = P(A₁)P(A₂ | A₁)P(A₃ | A₁∩A₂)…P(An | An-1∩…∩A₁)
(Aᵢ)ᵢ système complet d’événements (déf)
I ≠ ∅ dénombrable
∀i∈ I, Aᵢ ≠ ∅
∀(i, j)∈ I², i≠j => Ai∩Aj = ∅
∪Aᵢ = Ω
Formule des probabilités totales
(Aᵢ)ᵢ SCE et B un événement
Alors (P(Aᵢ∩B))ᵢ est sommable
De plus P(B) = Σ P(Aᵢ∩B) = Σ P(B | Aᵢ)*P(Aᵢ)
Formule de Bayes
A et B non négligeables
P(A | B) = P(B | A)*P(A) / P(B)
A et B deux événements : définition de l’indépendance
P(A∩B) = P(A)*P(B)
(Aᵢ)ᵢ famille d’événements
Les Aᵢ sont mutuellement indépendants si
∀J⊂I, J ≠ ∅ fini => P(∩Aj) = ΠP(Aj)
Si les Aᵢ sont mutuellement indépendants alors ils sont indépendants deux à deux
A et B deux événements indépendants : conséquence pour le supplémentaire
Alors le supplémentaire de A et celui de B sont indépendants
I ≠ ∅ fini ou dénombrable
(xᵢ, pᵢ)ᵢ est la loi de probabilité d’une variable aléatoire si
∀i∈ I, (xᵢ, pᵢ)∈ ℝⁿ×ℝ
∀i∈ I, pᵢ ≥ 0
Σpᵢ = 1
Loi uniforme discrète sur Ω (définition, espérance et variance)
∀ω∈Ω, P({ω}) = 1 / |Ω| (caractérise l’équiprobabilité)
Espérance : (n+1)/2
Variance : (n²-1)/12
X suit la loi de Bernoulli de paramètre p ∈ [0; 1]
X(Ω) = {0; 1} P(X = 1) = p P(X = 0) = 1-p E(X) = p V(X) = p(1-p)
X suit la loi binomiale de paramètres n∈ ℕ* et p∈ [0; 1]
X(Ω) = [|0; n|]
∀k∈ [|0; n|], P(X = k) = (k parmi n) * p^k * (1-p)^(n-k)
E(X) = np
V(X) = np(1-p)
X suit une loi géométrique de paramètre p∈ ]0; 1]
X(Ω) = ℕ*
∀k∈ ℕ, P(X = k) = p(1-p)^(k-1) (représente le rang du premier succès)
E(X) = 1 / p
V(X) = (1-p) / p²
X suit une loi de Poisson de paramètre λ∈ ℝ+
X(Ω) = ℕ
∀k∈ ℕ, P(X = k) = exp(-λ) * λ^k / k!
E(X) = λ
V(X) = λ
Loi de X à partir de la loi conjointe du couple (X, Y)
∀x∈ X(Ω), P(X = x) = Σ P(X= x, Y = y) (on somme sur y∈ Y(Ω))
Remarque : P(X= x, Y = y) = P({X=x}∩{Y=y})
X variable aléatoire à valeurs dans ℕ* est dite sans mémoire si
∀(n, s)∈ ℕ², P(X > n+s | X > n) = P(X > s)
Variables aléatoires réelles sans mémoire
<=> Variables aléatoires réelles suivant une loi géométrique
Lemme des coalitions
X₁, …, Xn variables aléatoires réelles discrètes, mutuellement indépendantes
φ: ℝ^r → ℝ et ψ: ℝ^(n-r) → ℝ
Alors Y = φ(X₁, …, Xᵣ) et Z = ψ(Xᵣ₊₁, …, Xn) sont des variables aléatoires réelles discrètes indépendantes
Cas où n = 2 :
X et Y variables aléatoires discrètes indépendantes
Alors foX et goY sont des variables aléatoires discrètes indépendantes
Somme de VAR discrètes indépendantes
Z = X +Y
∀z∈ Z(Ω), P(Z = z)
= Σ P(Y = y)P(X = z-y) (on somme sur y∈Y(Ω))
= Σ P(X = x)P(Y = z-x) (on somme sur x∈X(Ω))
Théorème de transfert
X VAR discrète
φ: ℝ → ℝ
Y = φoX
Alors Y est une VAR discrète
Y admet une espérance <=> ( φ(x)P(X=x) )x∈X(Ω) sommable
Dans ce cas E(Y) = Σ φ(x)P(X = x) (on somme sur x∈X(Ω))
4 propriétés importantes de l’espérance :
1) avec une valeur absolue
2) E(αX + Y)
3) X ≥ 0 =>
4) X et Y indépendantes
1) |E(X)| ≤ E(|X|)
2) L’espérance est linéaire
3) X ≥ 0 => E(X) ≥ 0
4) X et Y indépendantes => E(XY) = E(X)E(Y)
X = 1A
Conséquence pour l’espérance de X
E(X) = P(A)
X² d’espérance finie, conséquence pour X
X est d’espérance finie
Deux formules pour la variance de X
V(X) = E( (X-E(X))² )
= E(X²) - (E(X))²
Formule de l’écart-type
σₓ = √(V(X))
Trois propriétés de la variance
1)
2) V(X) = 0 : équivalence
3) V(aX + b)
1) V(X) ≥ 0
2) V(X) = 0 <=> P(X = cste) = 1
3) V(aX + b) = a²V(X)
X est centrée (déf + méthode pour centrer)
X est centrée si E(X) = 0
X - E(X) est centrée
X est centrée-réduite (déf + méthode pour centrer et réduire)
X est centrée-réduite si E(X) = 0 et V(X) = 1 Si V(X) > 0 alors (X - E(X)) / σX est centrée-réduite
Deux formules pour la covariance
cov(X, Y) = E(XY) - E(X)E(Y)
= E( (X - E(X))(Y - E(Y)) )
Formule du coefficient de corrélation
Si V(X) > 0 et V(Y) > 0 alors ρ(X, Y) = cov(X, Y) / (σX * σY)
Avec σX = √(V(X)) l’écart-type et cov(X, Y) = E(XY) - E(X)E(Y)
V(X + Y)
Dont le cas où X et Y sont indépendantes
V(X + Y) = V(X) + V(Y) + 2cov(X, Y)
soit si X et Y sont indépendantes :
V(X + Y) = V(X) + V(Y)
V(X₁ + … + Xn)
Dont le cas où X₁, …, Xn sont deux à deux indépendantes
V(X₁ + … + Xn) = Σ V(Xᵢ) + 2Σ cov(Xᵢ, Xᵣ)
Avec i et r variant entre 1 et n (i < r)
X : Ω → ℕ VA
Expression de la série génératrice de X
GX(t) = E(t^X) = Σ tⁿ P(X = n) [n variant de 0 à +∞]
Gx au moins continue sur [-1; 1] (convergence normale)
P(X = n) à l’aide de la série génératrice de X
P(X = n) = 1/n! * GX⁽ⁿ⁾(0)
X : Ω → ℕ admet une espérance
Équivalence en lien avec la série génératrice
<=> GX est dérivable en 1
Dans ce cas E(X) = GX’(1)
X : Ω → ℕ admet une variance
Équivalence en lien avec la série génératrice
<=> GX est deux fois dérivable en 1
Dans ce cas E(X(X-1)) = GX’‘(1)
et V(X) = GX’‘(1) + GX’(1) - ( GX’(1) )²
Série génératrice d’une VA suivant une loi uniforme
Ω = [|1; n|]
G(t) = 1/n * Σ t^k [k variant de 1 à n]
Série génératrice d’une VA suivant une loi de Bernoulli
G(t) = tp + (1-p)
Série génératrice d’une VA suivant une loi binomiale
G(t) = (tp + 1-p)ⁿ
Série génératrice d’une VA suivant une loi géométrique
G(t) = pt / ( 1 - t(1-p) )
Série génératrice d’une VA suivant une loi de Poisson
G(t) = exp(-λ) * exp(λt)
X, Y : Ω → ℕ indépendantes
Lien avec les séries génératrices
Généralisation
=> G(X+Y) = GX * GY
X₁, …, Xn mutuellement indépendantes
G(Σ Xᵢ) = ΠGXᵢ
Inégalité de Markov
X VAR discrète à valeurs positive, d’espérance finie et a > 0
P(X≥a) ≤ E(X) / a
Inégalité de Bienaymé-Tchebychev
X VAR discrète admettant un moment d’ordre 2
∀ε>0, P(|X - E(X)| ≥ ε) ≤ V(X) / ε²
Inégalité de Cauchy-Schwarz
X, Y : Ω → ℝ VAR discrètes admettant un moment d’ordre 2
Alors XY admet une espérance et
| E(XY) | ≤ √( E(X²) ) * √( E(Y²) )
Loi faible des grands nombres
(Xn)n VAR discrètes, deux à deux indépendantes, de même loi, admettant un moment d’ordre 2
Sn = Σ Xᵢ [i variant de 1 à n]
m = E(Xᵢ)
V = V(Xᵢ)
Alors : ∀ε>0, P(| Sn / n - m | ≥ ε) ≤ V / nε²
Loi binomiale et loi de Poisson
(pn)n suite de réels de [0; 1] et λ>0 tel que n*pn → λ
∀n∈ ℕ, Xn suit la loi binomiale de paramètres n et pn
Alors : ∀k∈ ℕ, P(Xn = k) → λ^k * exp(-λ) / k!
Probabilité pour un univers Ω dénombrable, muni de la tribu P(Ω)
La donnée d’une probabilité P correspond à celle d’une famille sommable (pω) de nombres positifs de somme égale à 1, via : pour tout ω∈Ω, P({ω}) = pω
Une variable aléatoire X suit une loi hypergéométrique de paramètres N, n, p, avec N, n ∈ ℕ*, p ∈ [0, 1]
Np ∈ ℕ et N ≥ n X(Ω) = {0, 1, ..., n} ∀k ∈ [|0; n|], P(X = k) = (k parmi Np)*(n-k parmi N(1-p)) / (n parmi N) E(X) = n*p V(X) = n*p*(1-p)*(N-n)/(N-1)
=> tirage sans remise (urne à 2 catégories)
Théorème de Koenig-Huygens
∀a∈ℝ, E((X-a)²) = V(X) + (E(X)-a)²
On en déduit V(X) = E(X²) - E(X)²
Convergence de la loi hypergéométrique
Lorsque N → ∞, la loi hypergéométrique H(N, n, p) converge vers la loi binomiale B(n, p). Ceci est admis dès que N est grand devant n : N ≥ 10n.
Fonction génératrice des moments
φ(t) = E(exp(tX)) = Σ exp(tx)P(X=x)
on somme sur x∈X(Ω)
φ(t) = Σ mᵢtⁱ/i!
où mᵢ est le moment d’ordre i
X admet un moment d’ordre k
Soit une variable aléatoire X, soit k ∈ ℕ*. On dit que X admet un moment d’ordre k si X^k est intégrable. Le moment d’ordre k est défini par E(X^k)
Espérance de X conditionné par Y
φ(Y) = E(X|Y) est une variable aléatoire définie par φ(y) = E(X|Y=y) = Σx*P(X=x|Y=y) E(E(X|Y)) = E(X)
Fonction de répartition d’une VA continue X
Fₓ(x) = P(X≤x)
Densité de probabilité fₓ
Fₓ est continue et admet une dérivée notée fₓ, on dit que X est absolument continue de densité de probabilité fₓ
Fₓ(x) = ∫fₓ(t)dt
intégrale entre -∞ et x
Propriété de la densité de probabilité
Elle est positive en tout point
Son intégrale sur ℝ vaut 1
Réciproquement, pour qu’une fonction f soit une densité de probabilité, il faut et il suffit que f soit positive et d’intégrale sur ℝ égale à 1.
Loi uniforme continue (densité de probabilité, espérance, variance)
fₓ(x) = 1/(b-a) * 1|(x)
où 1|(x) = 1 si x∈[a,b]
E(X) = (a+b)/2
V(X) = (b-a)²/12
Loi exponentielle (densité de probabilité, espérance, variance)
fₓ(x) = λexp(-λx)1|(x)
où 1|(x) = 1 si x∈ℝ+
E(X) = 1/λ
V(X) = 1/λ²
Loi normale
fₓ(x) = 1/√(2πσ²) * exp(-(x-m)²/2σ²) E(X) = m V(X) = σ²
Calcul de l’espérance (ou moment d’ordre 1)
Cas discret : E(X) = Σx*P(X=x)
Cas continu : E(X) = ∫t*fₓ(t)dt [intégrale sur ℝ]
Coefficient de variation
cvₓ = σₓ / E(X)
Loi Weibull
fₓ(t) = αλ^αt^(α-1)*exp(-(λt)^α) pour t > 0
0 sinon
E(X) = Γ(1+1/α) / λ
V(X) = ( Γ(1+2/α) - Γ²(1+1/α) ) / λ²
Rappel : Γ(a) = ∫x^(a-1) * exp(-x) dx [intégrale de 0 à +∞]