Probabilités Flashcards

1
Q

Formule de Vandermonde

A

n parmi a+b = Σ (k parmi a)*(n-k parmi b)

on somme pour k allant de 0 à n

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Ω un ensemble, A partie de P(Ω) (ens des parties de Ω) est une tribu (déf)

A

Ω ∈ A
Pour tout év a de A, l’év contraire de a est dans A
Pour toute famille (an)n d’éléments de A, ∪(an) est dans A
Remarques :
∅ ∈ A
Pour toute famille (an)n d’éléments de A, ∩(an) est dans A

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Probabilité P sur (Ω, A)

A

P : A → [0; 1] tq P(Ω) = 1 et pour tout famille (an)n d’événements deux à deux incompatibles (i≠j => ai∩aj = ∅) on a : P(∪(an)) = Σ P(an)
Remarque :
Si Ω fini, on remplace la propriété de σ-additivité par a∩b = ∅ => P(a∪b) = P(a) + P(b)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Continuité croissante

A
(An)n suite d'éléments telle que pour tout n, An ⊂ An+1
Alors P(∪ An) = lim P(An)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Continuité décroissante

A
(An)n suite d'éléments telle que pour tout n, An ⊃ An+1
Alors P(∩ An) = lim P(An)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Sous σ-additivité

Ou inégalité de Boole

A

(An)n suite d’éléments de la tribu
Σ P(An) converge
Alors P(∪ An) ≤ Σ P(An) [n variant entre 0 et +∞]
Toujours valable si Σ P(An) [n variant entre 0 et +∞] = +∞

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Probabilité conditionnelle de A sachant B

A

B non négligeable (P(B) > 0)

P(A | B) = P(A∩B) / P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Formule des probabilités composées

A

P(∩ Aᵢ) > 0 [i variant entre 1 et n]

P(A₁∩A₂∩…∩An) = P(A₁)P(A₂ | A₁)P(A₃ | A₁∩A₂)P(An | An-1∩…∩A₁)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

(Aᵢ)ᵢ système complet d’événements (déf)

A

I ≠ ∅ dénombrable
∀i∈ I, Aᵢ ≠ ∅
∀(i, j)∈ I², i≠j => Ai∩Aj = ∅
∪Aᵢ = Ω

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Formule des probabilités totales

A

(Aᵢ)ᵢ SCE et B un événement
Alors (P(Aᵢ∩B))ᵢ est sommable
De plus P(B) = Σ P(Aᵢ∩B) = Σ P(B | Aᵢ)*P(Aᵢ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Formule de Bayes

A

A et B non négligeables

P(A | B) = P(B | A)*P(A) / P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

A et B deux événements : définition de l’indépendance

A

P(A∩B) = P(A)*P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

(Aᵢ)ᵢ famille d’événements

Les Aᵢ sont mutuellement indépendants si

A

∀J⊂I, J ≠ ∅ fini => P(∩Aj) = ΠP(Aj)

Si les Aᵢ sont mutuellement indépendants alors ils sont indépendants deux à deux

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

A et B deux événements indépendants : conséquence pour le supplémentaire

A

Alors le supplémentaire de A et celui de B sont indépendants

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

I ≠ ∅ fini ou dénombrable

(xᵢ, pᵢ)ᵢ est la loi de probabilité d’une variable aléatoire si

A

∀i∈ I, (xᵢ, pᵢ)∈ ℝⁿ×ℝ
∀i∈ I, pᵢ ≥ 0
Σpᵢ = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Loi uniforme discrète sur Ω (définition, espérance et variance)

A

∀ω∈Ω, P({ω}) = 1 / |Ω| (caractérise l’équiprobabilité)
Espérance : (n+1)/2
Variance : (n²-1)/12

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

X suit la loi de Bernoulli de paramètre p ∈ [0; 1]

A
X(Ω) = {0; 1}
P(X = 1) = p
P(X = 0) = 1-p
E(X) = p
V(X) = p(1-p)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

X suit la loi binomiale de paramètres n∈ ℕ* et p∈ [0; 1]

A

X(Ω) = [|0; n|]
∀k∈ [|0; n|], P(X = k) = (k parmi n) * p^k * (1-p)^(n-k)
E(X) = np
V(X) = np(1-p)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

X suit une loi géométrique de paramètre p∈ ]0; 1]

A

X(Ω) = ℕ*
∀k∈ ℕ, P(X = k) = p(1-p)^(k-1) (représente le rang du premier succès)
E(X) = 1 / p
V(X) = (1-p) / p²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

X suit une loi de Poisson de paramètre λ∈ ℝ+

A

X(Ω) = ℕ
∀k∈ ℕ, P(X = k) = exp(-λ) * λ^k / k!
E(X) = λ
V(X) = λ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Loi de X à partir de la loi conjointe du couple (X, Y)

A

∀x∈ X(Ω), P(X = x) = Σ P(X= x, Y = y) (on somme sur y∈ Y(Ω))

Remarque : P(X= x, Y = y) = P({X=x}∩{Y=y})

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

X variable aléatoire à valeurs dans ℕ* est dite sans mémoire si

A

∀(n, s)∈ ℕ², P(X > n+s | X > n) = P(X > s)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Variables aléatoires réelles sans mémoire

A

<=> Variables aléatoires réelles suivant une loi géométrique

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Lemme des coalitions

A

X₁, …, Xn variables aléatoires réelles discrètes, mutuellement indépendantes
φ: ℝ^r → ℝ et ψ: ℝ^(n-r) → ℝ
Alors Y = φ(X₁, …, Xᵣ) et Z = ψ(Xᵣ₊₁, …, Xn) sont des variables aléatoires réelles discrètes indépendantes
Cas où n = 2 :
X et Y variables aléatoires discrètes indépendantes
Alors foX et goY sont des variables aléatoires discrètes indépendantes

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Somme de VAR discrètes indépendantes

A

Z = X +Y
∀z∈ Z(Ω), P(Z = z)
= Σ P(Y = y)P(X = z-y) (on somme sur y∈Y(Ω))
= Σ P(X = x)P(Y = z-x) (on somme sur x∈X(Ω))

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Théorème de transfert

A

X VAR discrète
φ: ℝ → ℝ
Y = φoX
Alors Y est une VAR discrète
Y admet une espérance <=> ( φ(x)P(X=x) )x∈X(Ω) sommable
Dans ce cas E(Y) = Σ φ(x)P(X = x) (on somme sur x∈X(Ω))

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

4 propriétés importantes de l’espérance :

1) avec une valeur absolue
2) E(αX + Y)
3) X ≥ 0 =>
4) X et Y indépendantes

A

1) |E(X)| ≤ E(|X|)
2) L’espérance est linéaire
3) X ≥ 0 => E(X) ≥ 0
4) X et Y indépendantes => E(XY) = E(X)E(Y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

X = 1A

Conséquence pour l’espérance de X

A

E(X) = P(A)

29
Q

X² d’espérance finie, conséquence pour X

A

X est d’espérance finie

30
Q

Deux formules pour la variance de X

A

V(X) = E( (X-E(X))² )

= E(X²) - (E(X))²

31
Q

Formule de l’écart-type

A

σₓ = √(V(X))

32
Q

Trois propriétés de la variance
1)
2) V(X) = 0 : équivalence
3) V(aX + b)

A

1) V(X) ≥ 0
2) V(X) = 0 <=> P(X = cste) = 1
3) V(aX + b) = a²V(X)

33
Q

X est centrée (déf + méthode pour centrer)

A

X est centrée si E(X) = 0

X - E(X) est centrée

34
Q

X est centrée-réduite (déf + méthode pour centrer et réduire)

A
X est centrée-réduite si E(X) = 0 et V(X) = 1
Si V(X) > 0 alors (X - E(X)) / σX  est centrée-réduite
35
Q

Deux formules pour la covariance

A

cov(X, Y) = E(XY) - E(X)E(Y)

= E( (X - E(X))(Y - E(Y)) )

36
Q

Formule du coefficient de corrélation

A
Si V(X) > 0 et V(Y) > 0 alors 
ρ(X, Y) = cov(X, Y) / (σX * σY)

Avec σX = √(V(X)) l’écart-type et cov(X, Y) = E(XY) - E(X)E(Y)

37
Q

V(X + Y)

Dont le cas où X et Y sont indépendantes

A

V(X + Y) = V(X) + V(Y) + 2cov(X, Y)
soit si X et Y sont indépendantes :
V(X + Y) = V(X) + V(Y)

38
Q

V(X₁ + … + Xn)

Dont le cas où X₁, …, Xn sont deux à deux indépendantes

A

V(X₁ + … + Xn) = Σ V(Xᵢ) + 2Σ cov(Xᵢ, Xᵣ)

Avec i et r variant entre 1 et n (i < r)

39
Q

X : Ω → ℕ VA

Expression de la série génératrice de X

A

GX(t) = E(t^X) = Σ tⁿ P(X = n) [n variant de 0 à +∞]

Gx au moins continue sur [-1; 1] (convergence normale)

40
Q

P(X = n) à l’aide de la série génératrice de X

A

P(X = n) = 1/n! * GX⁽ⁿ⁾(0)

41
Q

X : Ω → ℕ admet une espérance

Équivalence en lien avec la série génératrice

A

<=> GX est dérivable en 1

Dans ce cas E(X) = GX’(1)

42
Q

X : Ω → ℕ admet une variance

Équivalence en lien avec la série génératrice

A

<=> GX est deux fois dérivable en 1
Dans ce cas E(X(X-1)) = GX’‘(1)
et V(X) = GX’‘(1) + GX’(1) - ( GX’(1) )²

43
Q

Série génératrice d’une VA suivant une loi uniforme

Ω = [|1; n|]

A

G(t) = 1/n * Σ t^k [k variant de 1 à n]

44
Q

Série génératrice d’une VA suivant une loi de Bernoulli

A

G(t) = tp + (1-p)

45
Q

Série génératrice d’une VA suivant une loi binomiale

A

G(t) = (tp + 1-p)ⁿ

46
Q

Série génératrice d’une VA suivant une loi géométrique

A

G(t) = pt / ( 1 - t(1-p) )

47
Q

Série génératrice d’une VA suivant une loi de Poisson

A

G(t) = exp(-λ) * exp(λt)

48
Q

X, Y : Ω → ℕ indépendantes
Lien avec les séries génératrices
Généralisation

A

=> G(X+Y) = GX * GY
X₁, …, Xn mutuellement indépendantes
G(Σ Xᵢ) = ΠGXᵢ

49
Q

Inégalité de Markov

A

X VAR discrète à valeurs positive, d’espérance finie et a > 0
P(X≥a) ≤ E(X) / a

50
Q

Inégalité de Bienaymé-Tchebychev

A

X VAR discrète admettant un moment d’ordre 2

∀ε>0, P(|X - E(X)| ≥ ε) ≤ V(X) / ε²

51
Q

Inégalité de Cauchy-Schwarz

A

X, Y : Ω → ℝ VAR discrètes admettant un moment d’ordre 2
Alors XY admet une espérance et
| E(XY) | ≤ √( E(X²) ) * √( E(Y²) )

52
Q

Loi faible des grands nombres

A

(Xn)n VAR discrètes, deux à deux indépendantes, de même loi, admettant un moment d’ordre 2
Sn = Σ Xᵢ [i variant de 1 à n]
m = E(Xᵢ)
V = V(Xᵢ)
Alors : ∀ε>0, P(| Sn / n - m | ≥ ε) ≤ V / nε²

53
Q

Loi binomiale et loi de Poisson

A

(pn)n suite de réels de [0; 1] et λ>0 tel que n*pn → λ
∀n∈ ℕ, Xn suit la loi binomiale de paramètres n et pn
Alors : ∀k∈ ℕ, P(Xn = k) → λ^k * exp(-λ) / k!

54
Q

Probabilité pour un univers Ω dénombrable, muni de la tribu P(Ω)

A

La donnée d’une probabilité P correspond à celle d’une famille sommable (pω) de nombres positifs de somme égale à 1, via : pour tout ω∈Ω, P({ω}) = pω

55
Q

Une variable aléatoire X suit une loi hypergéométrique de paramètres N, n, p, avec N, n ∈ ℕ*, p ∈ [0, 1]

A
Np ∈ ℕ et N ≥ n
X(Ω) = {0, 1, ..., n}
∀k ∈ [|0; n|], P(X = k) = (k parmi Np)*(n-k parmi N(1-p)) / (n parmi N)
E(X) = n*p
V(X) = n*p*(1-p)*(N-n)/(N-1)

=> tirage sans remise (urne à 2 catégories)

56
Q

Théorème de Koenig-Huygens

A

∀a∈ℝ, E((X-a)²) = V(X) + (E(X)-a)²

On en déduit V(X) = E(X²) - E(X)²

57
Q

Convergence de la loi hypergéométrique

A

Lorsque N → ∞, la loi hypergéométrique H(N, n, p) converge vers la loi binomiale B(n, p). Ceci est admis dès que N est grand devant n : N ≥ 10n.

58
Q

Fonction génératrice des moments

A

φ(t) = E(exp(tX)) = Σ exp(tx)P(X=x)
on somme sur x∈X(Ω)
φ(t) = Σ mᵢ
tⁱ/i!
où mᵢ est le moment d’ordre i

59
Q

X admet un moment d’ordre k

A

Soit une variable aléatoire X, soit k ∈ ℕ*. On dit que X admet un moment d’ordre k si X^k est intégrable. Le moment d’ordre k est défini par E(X^k)

60
Q

Espérance de X conditionné par Y

A
φ(Y) = E(X|Y) est une variable aléatoire définie par
φ(y) = E(X|Y=y) = Σx*P(X=x|Y=y)
E(E(X|Y)) = E(X)
61
Q

Fonction de répartition d’une VA continue X

A

Fₓ(x) = P(X≤x)

62
Q

Densité de probabilité fₓ

A

Fₓ est continue et admet une dérivée notée fₓ, on dit que X est absolument continue de densité de probabilité fₓ
Fₓ(x) = ∫fₓ(t)dt
intégrale entre -∞ et x

63
Q

Propriété de la densité de probabilité

A

Elle est positive en tout point
Son intégrale sur ℝ vaut 1
Réciproquement, pour qu’une fonction f soit une densité de probabilité, il faut et il suffit que f soit positive et d’intégrale sur ℝ égale à 1.

64
Q

Loi uniforme continue (densité de probabilité, espérance, variance)

A

fₓ(x) = 1/(b-a) * 1|(x)
où 1|(x) = 1 si x∈[a,b]
E(X) = (a+b)/2
V(X) = (b-a)²/12

65
Q

Loi exponentielle (densité de probabilité, espérance, variance)

A

fₓ(x) = λexp(-λx)1|(x)
où 1|(x) = 1 si x∈ℝ+
E(X) = 1/λ
V(X) = 1/λ²

66
Q

Loi normale

A
fₓ(x) = 1/√(2πσ²) * exp(-(x-m)²/2σ²)
E(X) = m
V(X) = σ²
67
Q

Calcul de l’espérance (ou moment d’ordre 1)

A

Cas discret : E(X) = Σx*P(X=x)

Cas continu : E(X) = ∫t*fₓ(t)dt [intégrale sur ℝ]

68
Q

Coefficient de variation

A

cvₓ = σₓ / E(X)

69
Q

Loi Weibull

A

fₓ(t) = αλ^αt^(α-1)*exp(-(λt)^α) pour t > 0
0 sinon
E(X) = Γ(1+1/α) / λ
V(X) = ( Γ(1+2/α) - Γ²(1+1/α) ) / λ²

Rappel : Γ(a) = ∫x^(a-1) * exp(-x) dx [intégrale de 0 à +∞]