EDHEC (Proba) Flashcards

1
Q

Espérance de X

A

E(X) =Σ(k∈X(Ω)) k*P(X = k)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

E(aX + b)

A

aE(X) + b

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Théorème de transfert

A

Pour toute fonction f, E(f(X)) =Σ(k∈X(Ω)) f(k)*P(X = k)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Formule de Koenig-Huygens

A

V (X) = E(X²) − (E(X))²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

∀a, b ∈ IR, V(aX + b) =

A

a²*V (X).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Loi uniforme

A

U(n)
P(X = k) = 1/n ; 1≤ k≤ n
E(X)=(n+1)/2
V(X)=(n²-1)/12

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Loi géométrique

A

G(p)
P(X = k) = p(1-p)^(k-1) k€N*
E(X)=1/p
V(X)=(1-p)/p²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Loi de poisson

A

P(λ)
P(X=k)=(λ^(k)*exp(- λ))/k! k∈ℕ
E(X)=V(X)=λ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Loi binomiale

A

B(n,p)
P(X = k)=(k parmi n)p^(k)(1-p)^(n-k) ; 0≤ k≤ n
E(X)=np
V(x)=np(1-p)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Loi hypergéométrique

A

H(n,p,N)
P(X=k)=[(k parmi Np)*(n-k parmi N(1-p)]/(n parmi N)
E(X)=np
V(x)=[np(1 − p)(N − n)]/(N − 1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Bernouilli

A
B(1,p)
P(X=x)=p si x=1
P(X=x)=1-p si x=0
Espérance p
Variance pq
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Loi uniforme (densité)

A

Densité : Sur [a,b]
f(x)=1/(b-a) pour a≤x≤b
0 sinon

FR :
FX(x)=0 pour x<a
FX(x)=[(x-a)/(b-a)] pour a≤x≤b
FX(x)=1 si x≥b

E(X)=(a+b)/2
V(X)=(b-a)²/12

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Inégalité de Markov

A

Pour tout a>0, P(X≥a) ≤ E(X)/a (Si l’esperence existe)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Inégalité de Bienaymé-Tchebychev

A

Pour tout ε>0, P( | X-E(X) | ≥ ε) ≤ V(X)/ε² (Si la variance existe)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

P(A/B) =

A

P(A⋂B)/P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Formule de Bayes

A

P(A/B)=[P(B/A)*P(A)]/P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Formule des Probabilités totales :

A

Fini : Soit (A1…..An) un système complet d’évènements,
Alors pour tout évènements B,
P(B)=∑(i=1..n)P(B⋂Ai)=∑(i=1..n)P(B/Ai)P(Ai)
Infini Soit (Ai)i un système complet d’évènements,
Alors pour tout évènement B,
P(B)=∑(i=1..∞)P(B⋂Ai)=∑(i=1..∞)P(B/Ai)
P(Ai)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Evènements indépendants

A

Deux évènements A et B sont indépendants si P(A⋂B)=P(A)*P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Evènements 2 à 2 indépendants

A

Les évènements (A1…An) sont dits 2 à 2 indépendants si pt i≠j P(Ai⋂Aj)=P(Ai)P(Aj)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Evènements mutuellement indépendants

A

Les évènements (A1….An) sont dits mutuellement indépendants si pt I ⊂ {1…n}
P(⋂(i€I)Ai)=∏(i€I)P(Ai)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Evènements incompatibles

A

A et B sont incompatibles si P(A⋂B)=0
Dans ce cas P(AUB)=P(A)+P(B)
(Sinon P(AUB)=P(A)+P(B) -P(A⋂B) )

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Loi conjointe

A

Loi conjointe du couple (X1,X2) :

P(X1=xi,X2=yj) xi€X1(Ω) et yj€X2(Ω) (on rpz sous forme de tableau)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Loi marginale

A

Loi marginale de X1 :
P(X1=xi)=∑(yj€X2(Ω) )P(X1=xi,X2=yj)
id m m pour X2
A partir de la loi conjointe, on peut toujours trouver la loi marginale (somme des lignes/colonnes dans le tableau), pas l’inverse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Variables indépendantes, fonctions

A

(X1,X2) sont dites indépendantes si pt (xi,yj) € X1(Ω) x X2(Ω)
P(X1=xi,X2=yj)=P(X1=xi)P(X2=yj)
Si X1 et X2 sont indé, alors f(X1) et f(X2) aussi

25
Soit Z = g(X, Y ) une v.a.r, son espérance est définie par :
∑(x€X(Ω),y€Y(Ω) )g(x,y)P(X=x,Y=y)
26
Covariance existence, définition, 3 propriétés
Si V(X) et V(Y) existent alors Cov(X,Y) existe et Cov(X,Y)=E(XY)-E(X)E(Y) 1) Cov(X,Y)=Cov(Y,X) 2) Cov(X1+ aX2,Y)=Cov(X1,Y)+aCov(X2,Y) 3) Cov(X,X)=V(X)
27
Coefficient de corrélation linéaire
ρ(X,Y)=Cov(X,Y)/(σ(X)σ(Y)) (s'il vaut 1 corrélation positive parfaite, -1 négative parfaite) |ρ(X,Y)|=1 ∃a,b tq V(aX+bY)=0
28
Variance d'une somme pour plusieurs variables
V(X+Y)=V(X)+V(Y)+2Cov(X,Y) V(X1+...+Xn)=∑(k=1..n)V(Xk) + 2*∑(1≤i≤j≤n)Cov(Xi,Xj) Si (X1...Xn) sont 2à2 indépendantes V(X1+X2+...+Xn)=∑(k=1..n)V(Xk)
29
Espérance d'un produit de variables aléatoires independantes
E(X1*X2*...*Xn)=E(X1)*...*E(Xn)
30
n "v.a.r" suivant une loi Binomiale
Si X et Y sont deux VAR ind´ependantes suivant des lois binomiales de paramètres respectifs (n, p) et (m, p) alors X + Y suit une loi binomiale de paramètre (n + m, p). Si X1, · · · , Xk sont k VAR mutuellement indépendantes suivant des lois binomiales de paramètres respectifs (n1, p), · · · ,(nk, p) alors la variable al´eatoire X1+· · ·+Xk suit une loi binomiale de paramètre (∑(i=1..k)ni,p)
31
n "v.a.r" suivant une loi de Poisson
Si X et Y sont deux VAR indépendantes suivant des lois de Poisson de paramètres respectifs λ et µ alors X + Y suit une loi de Poisson de paramètre λ + µ. Si X1,...,Xk sont k VAR MUTUELLEMENT INDEPENDANTES suivant des lois de Poisson de paramètres respectifs λ1,....,λk alors la variable aléatoire X1+·...+Xk suit une loi de Poisson de paramètre Xk= λ1+... +λk
32
Définition d'une densité
On dit que la v.a.r X admet une densite f lorsque sa fonction de répartition peut s'écrire sous la forme ∀x€ |R FX(x)=P(X≤x)=∫(-∞..x)f(t)dt Où f est une fonction à valeurs réelles positives ou nulles, ayant un nombre fini de points de discontinuité et tq ∫(-∞..+∞)f(t)dt=1
33
Une fonction réelle f est une densité de probabilité ssi
f est continue sur |R sauf eventuellement en un nombre fini de points Pt x€|R f(x)≥0 ∫(-∞..+∞)f(t)dt=1
34
Propriétés de la fonction de répartition
FX est croissante sur |R FX est continue à droite en tout point FX est C1 sauf en un nombre fini de points lim(x-> -∞)FX(x)=0 et lim(x->+∞)FX(x)=1 Réciproquement une fonction vérifiant les propriétés précédentes est la fonction de répartition d'une certaine variable aléatoire. Pour a
35
Espérance (densité), | théorème du transfert
Si elle existe : E(X)= ∫(-∞..+∞) t *f(t)dt E(X²)= ∫(-∞..+∞) t²*f(t)dt Th du transfert : X v.a.r de densité f, Y=φ(X) E(Y)=E(φ(X))= ∫(-∞..+∞)φ(t)*f(t)dt
36
var centrée/réduite
Centrée : E(X)=0 | Réduite σ(X)=1
37
X* ?
Si X admet un écart type non nul et une espérance, X*=(X-E(x) )/σ(X) est appelée var centrée réduite associée à X (E(X*)=0 et σ(X*)=1)
38
Loi Normale (ou de Laplace Gauss)
``` N(μ,σ) Densité : f(x)=[1/(σ√(2π) )]exp[-(x-μ)²/(2σ²)] E(X)=μ V(X)=σ² ```
39
Propriétés de Φ
``` Soit X une v.a.r suivant la loi normale centrée réduite N(0,1) et Φ sa fonction de répartition P(a≤X≤b)=Φ(b)-Φ(a) Φ(-X)=1-Φ(X) Φ(0)=1/2 P(|X|≤x)=2Φ(x)-1 (SF) ```
40
Montrer que U admet une densité et déterminer une densité de U (sachant qu'on SAIT que G est la fonction de répartition de U)
``` Soit G la fonction de répartition de U, Si G est continue, C1 sauf en un nombre fini de points, Alors U admet une densité Et f(x)=F(x)' ```
41
P(a≤X≤b) =
=∫(a..b)f(t)dt
42
P(X=a) (densite)
0
43
P(X≥a)=
P(X>a)=1-F(a)= ∫(a..+∞)f(t)dt
44
Convergence en Probabilité
On dit que Xn converge vers X en probabilité si pt ε>0, lim(n->∞)P(|Xn-X|≥ε)=0 Convergence en probabilité => Convergence en loi
45
Convergence en Loi
Soient F1, F2, ... la suite des fonctions de répartition associées aux variables aléatoires réelles X1, X2, ..., et F la fonction de répartition de la variable aléatoire réelle X. Autrement dit, Fn est définie par Fn(x)=P(Xn ≤ x), et F par F(x)=P(X ≤ x). La suite Xn converge vers X en loi si lim(n->+∞) Fn(a) = F(a), pour tout réel a où F est continue.
46
Caractérisation convegence en loi pour des va à valeurs dans N
Soient (Xn)n€N une suite de VAR discrètes et X une VAR discrète prenant des valeurs entières Alors (Xn)n€N converge en loi vers X ssi : pt k€N, lim(n->∞)P(Xn = k) = P(X = k)
47
Loi faible des grands nombres
Soit (Xn)n une suite de v.a.r de même espérance μ de même variance σ², indépendantes Alors Yn = (1/n)*∑(k=1..n)Xk converge en probabilité vers la variable certaine égale à μ i.e pt ε>0 lim(n->∞)P(|Yn-μ|≥ε)=0
48
cvg Binomiale Poisson
B(n,λ/n)->(en loi)P(λ)
49
cvg Binomiale Normale
Si Sn suit B(n,p) | Alors Sn*=(Sn-np)/rac(np(1-p)) converge en loi vers N(0,1)
50
cvg Poisson Normale
Si Sn suit P(nα) alors Sn*=(Sn-nα)/rac(nα) converge en loi vers N(0,1)
51
Th de la limite centrée
Soit X1 X2 ...une suite de var indépendantes, chacune d'espérance μ et d'écart type σ (si ils existent et σ≠0 ) Soit Sn=X1+X2+...+Xn, alors E(Sn)=nμ et σ(Sn)=σrac(n) Alors Sn*=(Sn-nμ)/σrac(n) converge en loi vers N(0,1) Ainsi : si Φ est la fonction de répartition de N(0,1), lim(n->+∞)P(Zn≤z)=Φ(z)
52
Biais, estimateur sans biais
bTn(θ)=E(Tn-θ)=E(Tn)-θ | Tn est un estimateur sans biais de θ si bTn(θ)=0 E(Tn)=θ
53
Risque quadratique
Si l'estimateur Tn possède une variance rTn(θ)=E((Tn-θ)²) | =b²+V(Tn)
54
Estimateur convergent
On dit qu'une suite (Tn)n d'estimateurs de θ est convergente si pour tout θ, (Tn)n converge en probabilité vers θ
55
Intervalle de confiance
Soit X1...Xn un n-échantillon, Soit α€]0;1[ Un Vn deux estimateurs de θ On dit que [Un,Vn] est un intervalle de confiance de θ au niveau de confiance (1-α) ou au risque α si pour tout θ P(Un≤θ≤Vn)≥1-α
56
Formule de Pascal
(k parmi n)=(k-1 parmi n-1)+(k parmi n-1)
57
Loi exp (densité)
``` E(λ) Paramètre λ > 0 Densité f(x)=λexp(-λx) si x≥0 0 si x<0 Fonction de rep 1-exp(-λx) si x≥0 0 sinon E(X)=1/λ V(X)=1/λ² ```
58
produit de convolution
(f*g)(t)= ∫(-∞..+∞)f(x-t)g(t)dt= ∫(-∞..+∞)f(t)g(x-t)dt
59
Si on a la fonction de répartition et on doit montrer que va a densité
Dire que lim-inf=0 Lim+inf=1 Mq fr continue Mq fr c1 sauf en un nb fini de point Alors va a densite et on dérive la fr pour avoir une densité