EDHEC (Proba) Flashcards
Espérance de X
E(X) =Σ(k∈X(Ω)) k*P(X = k)
E(aX + b)
aE(X) + b
Théorème de transfert
Pour toute fonction f, E(f(X)) =Σ(k∈X(Ω)) f(k)*P(X = k)
Formule de Koenig-Huygens
V (X) = E(X²) − (E(X))²
∀a, b ∈ IR, V(aX + b) =
a²*V (X).
Loi uniforme
U(n)
P(X = k) = 1/n ; 1≤ k≤ n
E(X)=(n+1)/2
V(X)=(n²-1)/12
Loi géométrique
G(p)
P(X = k) = p(1-p)^(k-1) k€N*
E(X)=1/p
V(X)=(1-p)/p²
Loi de poisson
P(λ)
P(X=k)=(λ^(k)*exp(- λ))/k! k∈ℕ
E(X)=V(X)=λ
Loi binomiale
B(n,p)
P(X = k)=(k parmi n)p^(k)(1-p)^(n-k) ; 0≤ k≤ n
E(X)=np
V(x)=np(1-p)
Loi hypergéométrique
H(n,p,N)
P(X=k)=[(k parmi Np)*(n-k parmi N(1-p)]/(n parmi N)
E(X)=np
V(x)=[np(1 − p)(N − n)]/(N − 1)
Bernouilli
B(1,p) P(X=x)=p si x=1 P(X=x)=1-p si x=0 Espérance p Variance pq
Loi uniforme (densité)
Densité : Sur [a,b]
f(x)=1/(b-a) pour a≤x≤b
0 sinon
FR :
FX(x)=0 pour x<a
FX(x)=[(x-a)/(b-a)] pour a≤x≤b
FX(x)=1 si x≥b
E(X)=(a+b)/2
V(X)=(b-a)²/12
Inégalité de Markov
Pour tout a>0, P(X≥a) ≤ E(X)/a (Si l’esperence existe)
Inégalité de Bienaymé-Tchebychev
Pour tout ε>0, P( | X-E(X) | ≥ ε) ≤ V(X)/ε² (Si la variance existe)
P(A/B) =
P(A⋂B)/P(B)
Formule de Bayes
P(A/B)=[P(B/A)*P(A)]/P(B)
Formule des Probabilités totales :
Fini : Soit (A1…..An) un système complet d’évènements,
Alors pour tout évènements B,
P(B)=∑(i=1..n)P(B⋂Ai)=∑(i=1..n)P(B/Ai)P(Ai)
Infini Soit (Ai)i un système complet d’évènements,
Alors pour tout évènement B,
P(B)=∑(i=1..∞)P(B⋂Ai)=∑(i=1..∞)P(B/Ai)P(Ai)
Evènements indépendants
Deux évènements A et B sont indépendants si P(A⋂B)=P(A)*P(B)
Evènements 2 à 2 indépendants
Les évènements (A1…An) sont dits 2 à 2 indépendants si pt i≠j P(Ai⋂Aj)=P(Ai)P(Aj)
Evènements mutuellement indépendants
Les évènements (A1….An) sont dits mutuellement indépendants si pt I ⊂ {1…n}
P(⋂(i€I)Ai)=∏(i€I)P(Ai)
Evènements incompatibles
A et B sont incompatibles si P(A⋂B)=0
Dans ce cas P(AUB)=P(A)+P(B)
(Sinon P(AUB)=P(A)+P(B) -P(A⋂B) )
Loi conjointe
Loi conjointe du couple (X1,X2) :
P(X1=xi,X2=yj) xi€X1(Ω) et yj€X2(Ω) (on rpz sous forme de tableau)
Loi marginale
Loi marginale de X1 :
P(X1=xi)=∑(yj€X2(Ω) )P(X1=xi,X2=yj)
id m m pour X2
A partir de la loi conjointe, on peut toujours trouver la loi marginale (somme des lignes/colonnes dans le tableau), pas l’inverse
Variables indépendantes, fonctions
(X1,X2) sont dites indépendantes si pt (xi,yj) € X1(Ω) x X2(Ω)
P(X1=xi,X2=yj)=P(X1=xi)P(X2=yj)
Si X1 et X2 sont indé, alors f(X1) et f(X2) aussi
Soit Z = g(X, Y ) une v.a.r, son espérance est définie par :
∑(x€X(Ω),y€Y(Ω) )g(x,y)P(X=x,Y=y)
Covariance existence, définition, 3 propriétés
Si V(X) et V(Y) existent alors Cov(X,Y) existe et
Cov(X,Y)=E(XY)-E(X)E(Y)
1) Cov(X,Y)=Cov(Y,X)
2) Cov(X1+ aX2,Y)=Cov(X1,Y)+aCov(X2,Y)
3) Cov(X,X)=V(X)
Coefficient de corrélation linéaire
ρ(X,Y)=Cov(X,Y)/(σ(X)σ(Y))
(s’il vaut 1 corrélation positive parfaite, -1 négative parfaite)
|ρ(X,Y)|=1 ∃a,b tq V(aX+bY)=0
Variance d’une somme pour plusieurs variables
V(X+Y)=V(X)+V(Y)+2Cov(X,Y)
V(X1+…+Xn)=∑(k=1..n)V(Xk) + 2*∑(1≤i≤j≤n)Cov(Xi,Xj)
Si (X1…Xn) sont 2à2 indépendantes V(X1+X2+…+Xn)=∑(k=1..n)V(Xk)
Espérance d’un produit de variables aléatoires independantes
E(X1X2…Xn)=E(X1)…*E(Xn)
n “v.a.r” suivant une loi Binomiale
Si X et Y sont deux VAR ind´ependantes suivant des lois binomiales de paramètres respectifs (n, p)
et (m, p) alors X + Y suit une loi binomiale de paramètre (n + m, p).
Si X1, · · · , Xk sont k VAR mutuellement indépendantes suivant des lois binomiales de paramètres
respectifs (n1, p), · · · ,(nk, p) alors la variable al´eatoire X1+· · ·+Xk suit une loi binomiale de paramètre (∑(i=1..k)ni,p)
n “v.a.r” suivant une loi de Poisson
Si X et Y sont deux VAR indépendantes suivant des lois de Poisson de paramètres respectifs λ et
µ alors X + Y suit une loi de Poisson de paramètre λ + µ.
Si X1,…,Xk sont k VAR MUTUELLEMENT INDEPENDANTES suivant des lois de Poisson de paramètres
respectifs λ1,….,λk alors la variable aléatoire X1+·…+Xk suit une loi de Poisson de paramètre Xk= λ1+… +λk
Définition d’une densité
On dit que la v.a.r X admet une densite f lorsque sa fonction de répartition peut s’écrire sous la forme ∀x€ |R FX(x)=P(X≤x)=∫(-∞..x)f(t)dt
Où f est une fonction à valeurs réelles positives ou nulles, ayant un nombre fini de points de discontinuité et tq ∫(-∞..+∞)f(t)dt=1
Une fonction réelle f est une densité de probabilité ssi
f est continue sur |R sauf eventuellement en un nombre fini de points
Pt x€|R f(x)≥0
∫(-∞..+∞)f(t)dt=1
Propriétés de la fonction de répartition
FX est croissante sur |R
FX est continue à droite en tout point
FX est C1 sauf en un nombre fini de points
lim(x-> -∞)FX(x)=0 et lim(x->+∞)FX(x)=1
Réciproquement une fonction vérifiant les propriétés précédentes est la fonction de répartition d’une certaine variable aléatoire.
Pour a<X≤b)=FX(b)-FX(a)=∫(a..b)f(t)dt
Espérance (densité),
théorème du transfert
Si elle existe :
E(X)= ∫(-∞..+∞) t *f(t)dt
E(X²)= ∫(-∞..+∞) t²*f(t)dt
Th du transfert :
X v.a.r de densité f, Y=φ(X)
E(Y)=E(φ(X))= ∫(-∞..+∞)φ(t)*f(t)dt
var centrée/réduite
Centrée : E(X)=0
Réduite σ(X)=1
X* ?
Si X admet un écart type non nul et une espérance,
X=(X-E(x) )/σ(X) est appelée var centrée réduite associée à X
(E(X)=0 et σ(X*)=1)
Loi Normale (ou de Laplace Gauss)
N(μ,σ) Densité : f(x)=[1/(σ√(2π) )]exp[-(x-μ)²/(2σ²)] E(X)=μ V(X)=σ²
Propriétés de Φ
Soit X une v.a.r suivant la loi normale centrée réduite N(0,1) et Φ sa fonction de répartition P(a≤X≤b)=Φ(b)-Φ(a) Φ(-X)=1-Φ(X) Φ(0)=1/2 P(|X|≤x)=2Φ(x)-1 (SF)
Montrer que U admet une densité et déterminer une densité de U (sachant qu’on SAIT que G est la fonction de répartition de U)
Soit G la fonction de répartition de U, Si G est continue, C1 sauf en un nombre fini de points, Alors U admet une densité Et f(x)=F(x)'
P(a≤X≤b) =
=∫(a..b)f(t)dt
P(X=a) (densite)
0
P(X≥a)=
P(X>a)=1-F(a)= ∫(a..+∞)f(t)dt
Convergence en Probabilité
On dit que Xn converge vers X en probabilité si pt
ε>0, lim(n->∞)P(|Xn-X|≥ε)=0
Convergence en probabilité => Convergence en loi
Convergence en Loi
Soient F1, F2, … la suite des fonctions de répartition associées aux variables aléatoires réelles X1, X2, …, et F la fonction de répartition de la variable aléatoire réelle X. Autrement dit, Fn est définie par Fn(x)=P(Xn ≤ x), et F par F(x)=P(X ≤ x).
La suite Xn converge vers X en loi si
lim(n->+∞) Fn(a) = F(a), pour tout réel a où F est continue.
Caractérisation convegence en loi pour des va à valeurs dans N
Soient (Xn)n€N une suite de VAR discrètes et X une VAR discrète prenant des valeurs entières
Alors (Xn)n€N converge en loi vers X ssi :
pt k€N,
lim(n->∞)P(Xn = k) = P(X = k)
Loi faible des grands nombres
Soit (Xn)n une suite de v.a.r de même espérance μ de même variance σ², indépendantes
Alors Yn = (1/n)*∑(k=1..n)Xk converge en probabilité vers la variable certaine égale à μ
i.e pt ε>0 lim(n->∞)P(|Yn-μ|≥ε)=0
cvg Binomiale Poisson
B(n,λ/n)->(en loi)P(λ)
cvg Binomiale Normale
Si Sn suit B(n,p)
Alors Sn*=(Sn-np)/rac(np(1-p)) converge en loi vers N(0,1)
cvg Poisson Normale
Si Sn suit P(nα) alors Sn*=(Sn-nα)/rac(nα) converge en loi vers N(0,1)
Th de la limite centrée
Soit X1 X2 …une suite de var indépendantes, chacune d’espérance μ et d’écart type σ (si ils existent et σ≠0 )
Soit Sn=X1+X2+…+Xn, alors E(Sn)=nμ et σ(Sn)=σrac(n)
Alors Sn*=(Sn-nμ)/σrac(n) converge en loi vers N(0,1)
Ainsi : si Φ est la fonction de répartition de N(0,1), lim(n->+∞)P(Zn≤z)=Φ(z)
Biais, estimateur sans biais
bTn(θ)=E(Tn-θ)=E(Tn)-θ
Tn est un estimateur sans biais de θ si bTn(θ)=0 E(Tn)=θ
Risque quadratique
Si l’estimateur Tn possède une variance rTn(θ)=E((Tn-θ)²)
=b²+V(Tn)
Estimateur convergent
On dit qu’une suite (Tn)n d’estimateurs de θ est convergente si pour tout θ, (Tn)n converge en probabilité vers θ
Intervalle de confiance
Soit X1…Xn un n-échantillon,
Soit α€]0;1[ Un Vn deux estimateurs de θ
On dit que [Un,Vn] est un intervalle de confiance de θ au niveau de confiance (1-α) ou au risque α si pour tout θ
P(Un≤θ≤Vn)≥1-α
Formule de Pascal
(k parmi n)=(k-1 parmi n-1)+(k parmi n-1)
Loi exp (densité)
E(λ) Paramètre λ > 0 Densité f(x)=λexp(-λx) si x≥0 0 si x<0 Fonction de rep 1-exp(-λx) si x≥0 0 sinon E(X)=1/λ V(X)=1/λ²
produit de convolution
(f*g)(t)= ∫(-∞..+∞)f(x-t)g(t)dt= ∫(-∞..+∞)f(t)g(x-t)dt
Si on a la fonction de répartition et on doit montrer que va a densité
Dire que lim-inf=0
Lim+inf=1
Mq fr continue
Mq fr c1 sauf en un nb fini de point
Alors va a densite et on dérive la fr pour avoir une densité