Chapitre 3 - Probabilité conditionnelle et indépendance Flashcards
Définition de probabilité conditionnelle
P[A|B] = P[A ∩ B] / P[B]
avec P[B] > 0
P[∅|B] =
P[∅|B] = 0
P[Ω|B] =
P[Ω|B] = 1.
A1,A2,,,,,An sont des évènements mutuellement exclusifs, alors
P[ ∪ Ai | B] =
Σ P[Ai | B]
(inverse)
P[A | B] =
1 − P[Aᶜ | B]
P[ C∪D | B ]=
P[ C∪D | B ]=P[ C| B]+P[ D| B]−P[ C∩D | B]
C ⊂ D ⇒
C ⊂ D ⇒ P[ C | B ] ≤ P[ D | B ]
P[A ∩ B] =
P[B] P[A|B]
et aussi
P[A] P[B|A]
La règle de multiplication
P[ E1 ∩ ··· ∩ En] =
P[ E1 ∩ ··· ∩ En] = P[E1]P[ E2 | E1 ]P[E3 | E1∩E2] ··· P[ En | E1∩···∩En−1 ]
La loi des probabilités totales : Si E1, E2, …, En, des évènements mutuellement exclusifs et exhaustifs, alors, pour tout évènements A on a
P[A] =
n
P[A] = Σ P[ A | Ej ]P[ Ej ]
j=1
Le théorème de Bayes : Soient E1, E2, …, En, des évènements mutuellement exclusifs et exhaustifs. Soit A, un évènement tel que P[A] > 0. Alors, pour tout i ∈ {1, 2, …, n},
P[ Ei | A ] =
Σ P[ A | Ej ]P[ Ej ]
Définition provisoire d’indépendance de deux évènements : Soient A et B, des évènements tels que P[A] > 0 et P[B] > 0. On dit que A et B sont indépendants si on a
P[A|B] =
et
P[B|A] =
P[A|B] = A
et
P[B|A] = B
Définition d’indépendance de deux évènements : Les évènements A et B sont dits indépendants si on a
P[A ∩ B]
P[A ∩ B] = P[A] x P[B]
Principe de préservation de l’indépendance
2 évènements A et B issus d’évènements indépendants par des opérations ensemblistes usuelles (union, intersection, complément) , sont indépendants.
ex Si A et B sont indépendants, alors Aᶜ et B sont indépendants
Fiabilité d’un réseau série
On multiplie les probabilités de chaque composants entre elles. (Car leur fiabilité est indépendante de celle des autres).
n
Π pk
k=1
(Avec pk la fiabilité du ke composants)