EDHEC (Proba) Flashcards

1
Q

Espérance de X

A

E(X) =Σ(k∈X(Ω)) k*P(X = k)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

E(aX + b)

A

aE(X) + b

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Théorème de transfert

A

Pour toute fonction f, E(f(X)) =Σ(k∈X(Ω)) f(k)*P(X = k)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Formule de Koenig-Huygens

A

V (X) = E(X²) − (E(X))²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

∀a, b ∈ IR, V(aX + b) =

A

a²*V (X).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Loi uniforme

A

U(n)
P(X = k) = 1/n ; 1≤ k≤ n
E(X)=(n+1)/2
V(X)=(n²-1)/12

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Loi géométrique

A

G(p)
P(X = k) = p(1-p)^(k-1) k€N*
E(X)=1/p
V(X)=(1-p)/p²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Loi de poisson

A

P(λ)
P(X=k)=(λ^(k)*exp(- λ))/k! k∈ℕ
E(X)=V(X)=λ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Loi binomiale

A

B(n,p)
P(X = k)=(k parmi n)p^(k)(1-p)^(n-k) ; 0≤ k≤ n
E(X)=np
V(x)=np(1-p)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Loi hypergéométrique

A

H(n,p,N)
P(X=k)=[(k parmi Np)*(n-k parmi N(1-p)]/(n parmi N)
E(X)=np
V(x)=[np(1 − p)(N − n)]/(N − 1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Bernouilli

A
B(1,p)
P(X=x)=p si x=1
P(X=x)=1-p si x=0
Espérance p
Variance pq
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Loi uniforme (densité)

A

Densité : Sur [a,b]
f(x)=1/(b-a) pour a≤x≤b
0 sinon

FR :
FX(x)=0 pour x<a
FX(x)=[(x-a)/(b-a)] pour a≤x≤b
FX(x)=1 si x≥b

E(X)=(a+b)/2
V(X)=(b-a)²/12

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Inégalité de Markov

A

Pour tout a>0, P(X≥a) ≤ E(X)/a (Si l’esperence existe)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Inégalité de Bienaymé-Tchebychev

A

Pour tout ε>0, P( | X-E(X) | ≥ ε) ≤ V(X)/ε² (Si la variance existe)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

P(A/B) =

A

P(A⋂B)/P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Formule de Bayes

A

P(A/B)=[P(B/A)*P(A)]/P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Formule des Probabilités totales :

A

Fini : Soit (A1…..An) un système complet d’évènements,
Alors pour tout évènements B,
P(B)=∑(i=1..n)P(B⋂Ai)=∑(i=1..n)P(B/Ai)P(Ai)
Infini Soit (Ai)i un système complet d’évènements,
Alors pour tout évènement B,
P(B)=∑(i=1..∞)P(B⋂Ai)=∑(i=1..∞)P(B/Ai)
P(Ai)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Evènements indépendants

A

Deux évènements A et B sont indépendants si P(A⋂B)=P(A)*P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Evènements 2 à 2 indépendants

A

Les évènements (A1…An) sont dits 2 à 2 indépendants si pt i≠j P(Ai⋂Aj)=P(Ai)P(Aj)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Evènements mutuellement indépendants

A

Les évènements (A1….An) sont dits mutuellement indépendants si pt I ⊂ {1…n}
P(⋂(i€I)Ai)=∏(i€I)P(Ai)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Evènements incompatibles

A

A et B sont incompatibles si P(A⋂B)=0
Dans ce cas P(AUB)=P(A)+P(B)
(Sinon P(AUB)=P(A)+P(B) -P(A⋂B) )

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Loi conjointe

A

Loi conjointe du couple (X1,X2) :

P(X1=xi,X2=yj) xi€X1(Ω) et yj€X2(Ω) (on rpz sous forme de tableau)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Loi marginale

A

Loi marginale de X1 :
P(X1=xi)=∑(yj€X2(Ω) )P(X1=xi,X2=yj)
id m m pour X2
A partir de la loi conjointe, on peut toujours trouver la loi marginale (somme des lignes/colonnes dans le tableau), pas l’inverse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Variables indépendantes, fonctions

A

(X1,X2) sont dites indépendantes si pt (xi,yj) € X1(Ω) x X2(Ω)
P(X1=xi,X2=yj)=P(X1=xi)P(X2=yj)
Si X1 et X2 sont indé, alors f(X1) et f(X2) aussi

25
Q

Soit Z = g(X, Y ) une v.a.r, son espérance est définie par :

A

∑(x€X(Ω),y€Y(Ω) )g(x,y)P(X=x,Y=y)

26
Q

Covariance existence, définition, 3 propriétés

A

Si V(X) et V(Y) existent alors Cov(X,Y) existe et

Cov(X,Y)=E(XY)-E(X)E(Y)

1) Cov(X,Y)=Cov(Y,X)
2) Cov(X1+ aX2,Y)=Cov(X1,Y)+aCov(X2,Y)
3) Cov(X,X)=V(X)

27
Q

Coefficient de corrélation linéaire

A

ρ(X,Y)=Cov(X,Y)/(σ(X)σ(Y))
(s’il vaut 1 corrélation positive parfaite, -1 négative parfaite)
|ρ(X,Y)|=1 ∃a,b tq V(aX+bY)=0

28
Q

Variance d’une somme pour plusieurs variables

A

V(X+Y)=V(X)+V(Y)+2Cov(X,Y)
V(X1+…+Xn)=∑(k=1..n)V(Xk) + 2*∑(1≤i≤j≤n)Cov(Xi,Xj)
Si (X1…Xn) sont 2à2 indépendantes V(X1+X2+…+Xn)=∑(k=1..n)V(Xk)

29
Q

Espérance d’un produit de variables aléatoires independantes

A

E(X1X2Xn)=E(X1)…*E(Xn)

30
Q

n “v.a.r” suivant une loi Binomiale

A

Si X et Y sont deux VAR ind´ependantes suivant des lois binomiales de paramètres respectifs (n, p)
et (m, p) alors X + Y suit une loi binomiale de paramètre (n + m, p).

Si X1, · · · , Xk sont k VAR mutuellement indépendantes suivant des lois binomiales de paramètres
respectifs (n1, p), · · · ,(nk, p) alors la variable al´eatoire X1+· · ·+Xk suit une loi binomiale de paramètre (∑(i=1..k)ni,p)

31
Q

n “v.a.r” suivant une loi de Poisson

A

Si X et Y sont deux VAR indépendantes suivant des lois de Poisson de paramètres respectifs λ et
µ alors X + Y suit une loi de Poisson de paramètre λ + µ.

Si X1,…,Xk sont k VAR MUTUELLEMENT INDEPENDANTES suivant des lois de Poisson de paramètres
respectifs λ1,….,λk alors la variable aléatoire X1+·…+Xk suit une loi de Poisson de paramètre Xk= λ1+… +λk

32
Q

Définition d’une densité

A

On dit que la v.a.r X admet une densite f lorsque sa fonction de répartition peut s’écrire sous la forme ∀x€ |R FX(x)=P(X≤x)=∫(-∞..x)f(t)dt
Où f est une fonction à valeurs réelles positives ou nulles, ayant un nombre fini de points de discontinuité et tq ∫(-∞..+∞)f(t)dt=1

33
Q

Une fonction réelle f est une densité de probabilité ssi

A

f est continue sur |R sauf eventuellement en un nombre fini de points
Pt x€|R f(x)≥0
∫(-∞..+∞)f(t)dt=1

34
Q

Propriétés de la fonction de répartition

A

FX est croissante sur |R
FX est continue à droite en tout point
FX est C1 sauf en un nombre fini de points
lim(x-> -∞)FX(x)=0 et lim(x->+∞)FX(x)=1

Réciproquement une fonction vérifiant les propriétés précédentes est la fonction de répartition d’une certaine variable aléatoire.

Pour a<X≤b)=FX(b)-FX(a)=∫(a..b)f(t)dt

35
Q

Espérance (densité),

théorème du transfert

A

Si elle existe :
E(X)= ∫(-∞..+∞) t *f(t)dt

E(X²)= ∫(-∞..+∞) t²*f(t)dt

Th du transfert :
X v.a.r de densité f, Y=φ(X)
E(Y)=E(φ(X))= ∫(-∞..+∞)φ(t)*f(t)dt

36
Q

var centrée/réduite

A

Centrée : E(X)=0

Réduite σ(X)=1

37
Q

X* ?

A

Si X admet un écart type non nul et une espérance,
X=(X-E(x) )/σ(X) est appelée var centrée réduite associée à X
(E(X
)=0 et σ(X*)=1)

38
Q

Loi Normale (ou de Laplace Gauss)

A
N(μ,σ)
Densité :
f(x)=[1/(σ√(2π) )]exp[-(x-μ)²/(2σ²)]
E(X)=μ
V(X)=σ²
39
Q

Propriétés de Φ

A
Soit X une v.a.r suivant la loi normale centrée réduite N(0,1) et Φ sa fonction de répartition
P(a≤X≤b)=Φ(b)-Φ(a)
Φ(-X)=1-Φ(X)
Φ(0)=1/2
P(|X|≤x)=2Φ(x)-1 (SF)
40
Q

Montrer que U admet une densité et déterminer une densité de U (sachant qu’on SAIT que G est la fonction de répartition de U)

A
Soit G la fonction de répartition de U,
Si G est continue,
C1 sauf en un nombre fini de points,
Alors U admet une densité
Et f(x)=F(x)'
41
Q

P(a≤X≤b) =

A

=∫(a..b)f(t)dt

42
Q

P(X=a) (densite)

A

0

43
Q

P(X≥a)=

A

P(X>a)=1-F(a)= ∫(a..+∞)f(t)dt

44
Q

Convergence en Probabilité

A

On dit que Xn converge vers X en probabilité si pt
ε>0, lim(n->∞)P(|Xn-X|≥ε)=0
Convergence en probabilité => Convergence en loi

45
Q

Convergence en Loi

A

Soient F1, F2, … la suite des fonctions de répartition associées aux variables aléatoires réelles X1, X2, …, et F la fonction de répartition de la variable aléatoire réelle X. Autrement dit, Fn est définie par Fn(x)=P(Xn ≤ x), et F par F(x)=P(X ≤ x).
La suite Xn converge vers X en loi si
lim(n->+∞) Fn(a) = F(a), pour tout réel a où F est continue.

46
Q

Caractérisation convegence en loi pour des va à valeurs dans N

A

Soient (Xn)n€N une suite de VAR discrètes et X une VAR discrète prenant des valeurs entières
Alors (Xn)n€N converge en loi vers X ssi :
pt k€N,
lim(n->∞)P(Xn = k) = P(X = k)

47
Q

Loi faible des grands nombres

A

Soit (Xn)n une suite de v.a.r de même espérance μ de même variance σ², indépendantes
Alors Yn = (1/n)*∑(k=1..n)Xk converge en probabilité vers la variable certaine égale à μ
i.e pt ε>0 lim(n->∞)P(|Yn-μ|≥ε)=0

48
Q

cvg Binomiale Poisson

A

B(n,λ/n)->(en loi)P(λ)

49
Q

cvg Binomiale Normale

A

Si Sn suit B(n,p)

Alors Sn*=(Sn-np)/rac(np(1-p)) converge en loi vers N(0,1)

50
Q

cvg Poisson Normale

A

Si Sn suit P(nα) alors Sn*=(Sn-nα)/rac(nα) converge en loi vers N(0,1)

51
Q

Th de la limite centrée

A

Soit X1 X2 …une suite de var indépendantes, chacune d’espérance μ et d’écart type σ (si ils existent et σ≠0 )
Soit Sn=X1+X2+…+Xn, alors E(Sn)=nμ et σ(Sn)=σrac(n)
Alors Sn*=(Sn-nμ)/σrac(n) converge en loi vers N(0,1)

Ainsi : si Φ est la fonction de répartition de N(0,1), lim(n->+∞)P(Zn≤z)=Φ(z)

52
Q

Biais, estimateur sans biais

A

bTn(θ)=E(Tn-θ)=E(Tn)-θ

Tn est un estimateur sans biais de θ si bTn(θ)=0 E(Tn)=θ

53
Q

Risque quadratique

A

Si l’estimateur Tn possède une variance rTn(θ)=E((Tn-θ)²)

=b²+V(Tn)

54
Q

Estimateur convergent

A

On dit qu’une suite (Tn)n d’estimateurs de θ est convergente si pour tout θ, (Tn)n converge en probabilité vers θ

55
Q

Intervalle de confiance

A

Soit X1…Xn un n-échantillon,
Soit α€]0;1[ Un Vn deux estimateurs de θ
On dit que [Un,Vn] est un intervalle de confiance de θ au niveau de confiance (1-α) ou au risque α si pour tout θ
P(Un≤θ≤Vn)≥1-α

56
Q

Formule de Pascal

A

(k parmi n)=(k-1 parmi n-1)+(k parmi n-1)

57
Q

Loi exp (densité)

A
E(λ) Paramètre λ > 0
Densité 
f(x)=λexp(-λx) si x≥0
0 si x<0
Fonction de rep 1-exp(-λx) si x≥0 0 sinon
E(X)=1/λ
V(X)=1/λ²
58
Q

produit de convolution

A

(f*g)(t)= ∫(-∞..+∞)f(x-t)g(t)dt= ∫(-∞..+∞)f(t)g(x-t)dt

59
Q

Si on a la fonction de répartition et on doit montrer que va a densité

A

Dire que lim-inf=0
Lim+inf=1
Mq fr continue
Mq fr c1 sauf en un nb fini de point

Alors va a densite et on dérive la fr pour avoir une densité