Probabilités Flashcards
Formule de Vandermonde
n parmi a+b = Σ (k parmi a)*(n-k parmi b)
on somme pour k allant de 0 à n
Ω un ensemble, A partie de P(Ω) (ens des parties de Ω) est une tribu (déf)
Ω ∈ A
Pour tout év a de A, l’év contraire de a est dans A
Pour toute famille (an)n d’éléments de A, ∪(an) est dans A
Remarques :
∅ ∈ A
Pour toute famille (an)n d’éléments de A, ∩(an) est dans A
Probabilité P sur (Ω, A)
P : A → [0; 1] tq P(Ω) = 1 et pour tout famille (an)n d’événements deux à deux incompatibles (i≠j => ai∩aj = ∅) on a : P(∪(an)) = Σ P(an)
Remarque :
Si Ω fini, on remplace la propriété de σ-additivité par a∩b = ∅ => P(a∪b) = P(a) + P(b)
Continuité croissante
(An)n suite d'éléments telle que pour tout n, An ⊂ An+1 Alors P(∪ An) = lim P(An)
Continuité décroissante
(An)n suite d'éléments telle que pour tout n, An ⊃ An+1 Alors P(∩ An) = lim P(An)
Sous σ-additivité
Ou inégalité de Boole
(An)n suite d’éléments de la tribu
Σ P(An) converge
Alors P(∪ An) ≤ Σ P(An) [n variant entre 0 et +∞]
Toujours valable si Σ P(An) [n variant entre 0 et +∞] = +∞
Probabilité conditionnelle de A sachant B
B non négligeable (P(B) > 0)
P(A | B) = P(A∩B) / P(B)
Formule des probabilités composées
P(∩ Aᵢ) > 0 [i variant entre 1 et n]
P(A₁∩A₂∩…∩An) = P(A₁)P(A₂ | A₁)P(A₃ | A₁∩A₂)…P(An | An-1∩…∩A₁)
(Aᵢ)ᵢ système complet d’événements (déf)
I ≠ ∅ dénombrable
∀i∈ I, Aᵢ ≠ ∅
∀(i, j)∈ I², i≠j => Ai∩Aj = ∅
∪Aᵢ = Ω
Formule des probabilités totales
(Aᵢ)ᵢ SCE et B un événement
Alors (P(Aᵢ∩B))ᵢ est sommable
De plus P(B) = Σ P(Aᵢ∩B) = Σ P(B | Aᵢ)*P(Aᵢ)
Formule de Bayes
A et B non négligeables
P(A | B) = P(B | A)*P(A) / P(B)
A et B deux événements : définition de l’indépendance
P(A∩B) = P(A)*P(B)
(Aᵢ)ᵢ famille d’événements
Les Aᵢ sont mutuellement indépendants si
∀J⊂I, J ≠ ∅ fini => P(∩Aj) = ΠP(Aj)
Si les Aᵢ sont mutuellement indépendants alors ils sont indépendants deux à deux
A et B deux événements indépendants : conséquence pour le supplémentaire
Alors le supplémentaire de A et celui de B sont indépendants
I ≠ ∅ fini ou dénombrable
(xᵢ, pᵢ)ᵢ est la loi de probabilité d’une variable aléatoire si
∀i∈ I, (xᵢ, pᵢ)∈ ℝⁿ×ℝ
∀i∈ I, pᵢ ≥ 0
Σpᵢ = 1
Loi uniforme discrète sur Ω (définition, espérance et variance)
∀ω∈Ω, P({ω}) = 1 / |Ω| (caractérise l’équiprobabilité)
Espérance : (n+1)/2
Variance : (n²-1)/12
X suit la loi de Bernoulli de paramètre p ∈ [0; 1]
X(Ω) = {0; 1} P(X = 1) = p P(X = 0) = 1-p E(X) = p V(X) = p(1-p)
X suit la loi binomiale de paramètres n∈ ℕ* et p∈ [0; 1]
X(Ω) = [|0; n|]
∀k∈ [|0; n|], P(X = k) = (k parmi n) * p^k * (1-p)^(n-k)
E(X) = np
V(X) = np(1-p)
X suit une loi géométrique de paramètre p∈ ]0; 1]
X(Ω) = ℕ*
∀k∈ ℕ, P(X = k) = p(1-p)^(k-1) (représente le rang du premier succès)
E(X) = 1 / p
V(X) = (1-p) / p²
X suit une loi de Poisson de paramètre λ∈ ℝ+
X(Ω) = ℕ
∀k∈ ℕ, P(X = k) = exp(-λ) * λ^k / k!
E(X) = λ
V(X) = λ
Loi de X à partir de la loi conjointe du couple (X, Y)
∀x∈ X(Ω), P(X = x) = Σ P(X= x, Y = y) (on somme sur y∈ Y(Ω))
Remarque : P(X= x, Y = y) = P({X=x}∩{Y=y})
X variable aléatoire à valeurs dans ℕ* est dite sans mémoire si
∀(n, s)∈ ℕ², P(X > n+s | X > n) = P(X > s)
Variables aléatoires réelles sans mémoire
<=> Variables aléatoires réelles suivant une loi géométrique
Lemme des coalitions
X₁, …, Xn variables aléatoires réelles discrètes, mutuellement indépendantes
φ: ℝ^r → ℝ et ψ: ℝ^(n-r) → ℝ
Alors Y = φ(X₁, …, Xᵣ) et Z = ψ(Xᵣ₊₁, …, Xn) sont des variables aléatoires réelles discrètes indépendantes
Cas où n = 2 :
X et Y variables aléatoires discrètes indépendantes
Alors foX et goY sont des variables aléatoires discrètes indépendantes
Somme de VAR discrètes indépendantes
Z = X +Y
∀z∈ Z(Ω), P(Z = z)
= Σ P(Y = y)P(X = z-y) (on somme sur y∈Y(Ω))
= Σ P(X = x)P(Y = z-x) (on somme sur x∈X(Ω))
Théorème de transfert
X VAR discrète
φ: ℝ → ℝ
Y = φoX
Alors Y est une VAR discrète
Y admet une espérance <=> ( φ(x)P(X=x) )x∈X(Ω) sommable
Dans ce cas E(Y) = Σ φ(x)P(X = x) (on somme sur x∈X(Ω))
4 propriétés importantes de l’espérance :
1) avec une valeur absolue
2) E(αX + Y)
3) X ≥ 0 =>
4) X et Y indépendantes
1) |E(X)| ≤ E(|X|)
2) L’espérance est linéaire
3) X ≥ 0 => E(X) ≥ 0
4) X et Y indépendantes => E(XY) = E(X)E(Y)