Proba đđđ€đ€đŒ Flashcards
Definition - Ă©venement
Un evenement est une propriĂ©tĂ© portant sur le resultat dâune experience aleatoire
Definition - Evenement élémentaire
On appelle eenement elementaire tt singleton inclu dans âïž
Definition - evenement contraire, conjonction, disjonction
Si A est un evenement, son evenement contraire est son complementaire. On le notera _A et on ne nommera ânon Aâ. Si A et B sont deux evenements, on def les elements âA et Bâ et âA ou Bâ correspondant respectivement a AInterB et AUB
Lâevenemet impossible
Lâensemble vide
Definition - Evenement incombatible
Deux evenements sont incompatibles sâils sont disjoints
Définition - Probabilité
Une probabilitr sur un univers fini âïž est une application P de P(âïž) dans [0,1] telle que P(âïž)=1 et pour toutes parties disjointes A et B
P(AUB)=P(A)+P(B)
On dit alors que le couple (âïž,P) est un univers probabilisĂ© fini
Propriétés des probabilités
1/ pt evenement A, P(_A)=1-P(A)
2/ pt A1,âŠ,An deux a deux incompatibles : P(UAi)=som(1,n)P(Ai)
3/ pt A et B : P(AUB)=P(A)+P(B)-P(AInterB)
4/ P est une application croisdante (Pour lâordre dâinclusion dans P(âïž) et lâordre usuel dans [0,1] ie pt A,B: ACB implique P(A) inf P(B)
5/ P(Ă)=0
Definition - Systeme complet dâevenement
On appelle systeme complet dâevenements tt ensemble dâevenements deux a deux incompatibles dont la reunion est egale a âïž
Formule des probabilités totales
Soit A1,âŠ,An un systeme complet dâevenements, pt evenement B : P(B) = som(1,n) P(BInterAi)
Probabilité uniforme
On appelle proba uniforme sur âïž la proba telle que tout evenement elementaire ait une proba de 1/card(âïž)
Donc si P est la proba uniforme et A un evenement, on a P(A)=card(A)/card(âïž)
Definition - Probabilité conditionnelles
Soit A et B deux evenements. On suppose aue P(B) sup 0, (on dira que lâon peut conditionner par B). On appelle probabilitĂ© (conditionnelle) de A sachant B et onnote PB(A) ou P(A|B) le reel P(AinterB)/P(B)
On ne confondra pas
La probabilité que A se realise sachant que B est realisé et la probabilité que les evenements A et B se realisent
Formule des probabilités composées
Soit A1,âŠ,An des evenements tq P(A1interâŠinterAn-1)diff 0
On a P(A1interâŠinterAn)=P(A1)P(A2|A1)P(A3|A1interA2)âŠP(An|A1interâŠinterAn-1)
Premiere formule de Bayes
Si A et B sont deux evenements tq P(A) sup 0 et P(B) sup 0 alors
P(A|B)=P(B|A)P(A)/P(B)
Cette formule est interessente dans la mesure ou elle permet de âremonter le tempsâ
Seconde formule de Bayes
Si (Ai) est un systeme complet dâevenements de probabilitĂ©s non nulles et si B est un evenement de probabilitĂ© non nulle, alors
P(Aj|B)=P(BinterAj)P(Aj)/som(1,n)P(BinterAi)P(Ai)
Definition - couple dâevenements independants
Soit (A,B) un couple dâevenements. On dit que (A,B) est un couple dâevenements independants (ou que A et B) sont independants si P(AinterB)=P(A)P(B)
Independance de deux evenements
- A et B sont independants ssi _A et B sont independants
- il nây a donc pas de lien entre independance et incompatibilitĂ©. Cependant deux evenements incompatibles sont independants ssi lâun (au moins) est de probabilitĂ© nulle
- Si par exemple P(B)diff0 alrs lâindependance de A et B equivaut a ce que P(A|B)=P(A) cela signifie que la realisation (ou non) de de B nâinflue en rien sur celle de A
Definition - Independance de n evenements
Soit (A1,âŠ,An) une famille de n evenements. On dit que (A1,âŠ,An) est une famille dâevenements (mutuellement) independants (ou que les evenements A1,âŠ,An) sont (mutuellement) independants si pour toute partie I de [|1,n|] P(Inter iâŹI Ai) = prod (iâŹI) P(Ai)
Pb si il existe j tq P(Aj)=0 dâou les parties
Definition - Variable aleatoire discrĂšte
Etant donnés un ensemble E un un espace probabilisé (Oméga,A,P), une variable aléatoire discrÚte (en abréré v.a ou v.a.d) définit sur Oméga est une application X de Oméga dans E telle que :
-X(Oméga) soit fini ou dénombrable
-Pour tout x de X(OmĂ©ga), X-1({x}) appartient a A. LâĂ©vĂ©nement X-1({x}) sera notĂ© (X=x)
Lorsque E = R on dit que la variable aléatoire est réel
On a : (X=x)=X-1({x})={w de Oméga, X(w)=x}
X confĂšre naturellement a E une structure dâespace probabilisĂ©
Definition - Support et atome
On appelle support de X son image X(âïž). Les evenements x du support tels que P(X=x)sup0 dont appelĂ©s atomes de la variable aleatoire X
Definition - Loi dâune variable aleatoire
Pour tout x de X(Oméga) notons : px = P(X-1({x}))=P({wdeOméga, X(w)=x}) La famille (px)xdeX(Oméga) définit une probabilité Px sur X(Oméga) appelé loi de la variable aléatoire X. On dit que X suit la loi de Px. En fait, on étend sans difficulté cette proba sur (E,P(E)) en posant pour toute partie A de E. Px(A)=P({w de Oméga, X(w) appartient a A}) = Px(AnW(Oméga)) on notera X~Y lorsque X et Y suivent la meme loi, et X~L lorsque X suit L
Rq sur Px
Lâapplication Px (qui est une proba sur X(âïž) ou meme sur E) est determinĂ©r par la donnĂ©e des P(X=x) ou x est ds X(âïž) (qui forme un SCE)
Recuproquement pour tte donnĂ©e dâun ensemble fini {x1,âŠ,xn} de cardinal n et de reels {p1,âŠ,pn} positifs ou nuls de somme 1 il existe une variable aleatoire de support {x1,âŠ,xn} et de loi donnĂ©e par P(X=xi) = pi pour i de [|1,n|]
Definition- image dâune variable aleatoire par une fonction
Etant donné une fonction f:E dans F , foX est une variable aleatoire a valeurs dans F notée f(X)
Dans ce contexte, la loi associé a f(X) est Pf(X) : P(F) dans [0,1] qui a A associe P(X⏠f^-1 (A))
Definition - Loi uniforme
On dit que X suit une loi uniforme sur un ensemble fini {x1,âŠ,xn} de card n di Px(xk) = 1/n pt k
Definition - loi de Bernouilli
On dit que X suit la loi de Bernouilli de parametre p ⏠[0,1] si elle est de support {0,1}, que P(X=1)=p et P(X=0)=1-p cette loi est notée B(p)
Definition - Loi binomiale
On dit que X suit la loi binomiale de parametre n de N* et p de [0,1] si son support est [|0,n|] et si pt k de [|0,n|] P(X=k)=(k parmi n) p^k (1-p)^n-k
O note B(p,n) cette loi
Definition - Loi conjointe, loi marginales de (X,Y)
On appelle loi conjointe de (X,Y) et on note P(x,y) lâapplication donnĂ© par :
Pt(x,y) de ExF Px,y(x,y)=P(X=x et Y=y)
Px et Py dont appelés lois marginales de (X,Y)
La loi marginale de X est obtenue en sommant les colonne (ou les lignes) du tableau des lois marginales.
(Loi marginales ne donnent pas les loi conjointes car on a m+n Ă©quations pour mn inconnues)
Definition - loi conditionnelle de Y sachant (X=x)
Soit x de X(âïž) on suppose P(X=x) sup 0. On appelle loi conditionnelle de Y sachant X=x lâapplication donnĂ©e par P(Y=y|X=x) = P(X=x et Y=y)/P(X=x) = P(X,Y)(x,y)/PX(x)
Definition - Couple de variables aléatoires indépendantes
On dit que les variables X et Y sont independantes si pour tout (x,y) de X(â)xY(ïžâïž)
P((X,Y)=(x,y)) = P(X=x)P(Y=y)
Definition - variables aleatoires mutuellement indépendantes
On dit que les variables aleatoires X1,âŠ,Xn sont mutuellement independantes si pour tout (xi) ⏠X1(âïž)xâŠxXn(âïž) on a :
P(X1=x1, ⊠, Xn=xn) = prod (1,n)P(Xi=xi)
On dit que les va Xi ou i de I sont mutuellement indépendantes si pour toute partie finie F de I, les va Xi, ideF, le sont.
Dans le cas ou toutes ces variables aleatoires soit en outre de meme loi, on dira que ce sont des variables aleatoires independantes identiquement distribuées
Variable mutuellement independantes
Si X1,âŠ,Xn sont des VAMI alors pt (A1,âŠ,An) de prod (1,n)P(Xi(âïž)) les evenemets (XiâŹAi) sont mutuellements independants
Fonctions de variables independantes
Si X et Y sont independant, alors les variables aleatoires f(X) et g(Y) le sont aussi
Definition - Univers
Lâendemble des issues, resultats possibles, realisation, dâune experience aleatoire est appelĂ© univers
Definition - Esperance
On appelle esperance (ou moyenne) de X et on note E(X) le reel E(X) = som(1,n)xiP(X=xi) la variable aleatoire X est dite centrée si son esperance est nulle
En fait, lâesperance ne depend que de la loi que X suit, on aurait pu parler dâesperance dâune loi mais ca nâest pas ce que lâusage a retenu.
E(X) sâinterprete comme la moyenne des valeurs prises par X pondĂ©rĂ©es par leurs probabilitĂ©s dâapparition. Dans le cad dâune variable aleatoire equidistribuĂ©, la moyenne quâon connait
PropriĂ©tĂ© de lâesperance
1/ linearitĂ©, lâesperance est une forme lineaire et lâensemble L1(OmĂ©ga,R) des va admettant une espĂ©rance est un R espace vectoriel.
2/ positivité : si X sup 0 alors E(X) sup 0
3/croissance : lâesperence est une fonction croissante ie si X inf Y alors E(X) inf E(Y)
4/ |E(X)| inf E(|X|)
5) si |Z| inf X alors Z est dâespĂ©rance finie
Formule de transfert
soit X une variable aleatoire definie sur âïž a valeurs dans E. Et f une fonction definie sur X(âïž) a valeurs dans R. On a alors E(f(X)) = som (xâŹâïž) f(x)P(X=x)
Inegalité de Markov
Pour tt epsilon sup 0
On a P(|X|supepsilon) inf E(|X|)/epsilon
Esperance dâun produit de VA independantes
On suppose ici que X et Y sont independantes, on a alors :
E(XY)=E(X)E(Y)
Definition - Moment dâune VAR
Pt k de N. Si X^k admet une espĂ©rance finie, alors on appelle moment dâordre k de X le reel E(X^k)
Definition -Variance , ecart-type
Lorsque X admet un moment dâordre 2, on appelle variance de X et on note V(X) le reel positif E((X-E(X))^2) on appelle ecart type de X et on note sigma(X) le reel positif (V(X))^1/2 on dit que X est reduite si elle est de variance 1
La variance est un indicateur de dispersion, et E et V nâont pas la meme dimension, si X en m, alors E en m et V en mÂČ
Formule pour la variance
1/ formule de Koenig V(X)=E(X^2) - E(X)^2
2/ pt reels a et b, V(aX+b) = a^2V(X)
Definition - VA centrée reduite associée a une VA
On suppose que sigma (X) sup 0 et que X admet un moment dâordre 2. La variable aleatoire (X-E(X))/sigma(X) est alors appelĂ© variable aleatoire centrĂ©e reduite associĂ© a X
Inegalité de Bienaymé-Tchebychev
Soit epsilon sup 0, on a P((|X-E(X)|) sup epsilon) inf V(X)/epsilon^2
Definition - Covariance
On appelle covariance fe X et de Y et onnote Cov (X,Y) le scalaire E((X-E(X))(Y-E(Y))
Cov(X,X)=V(X)
Formule de covariance
On a Cov(X,Y)=E(XY)-E(X)E(Y)
Variance dâune somme
1/V(X+Y)=V(X)+V(Y)+2cov(X,Y)
2/ en particulier si X et Y sont independantes V(X+Y)=V(X)+V(Y)
Dans le cas particulier ou X est une va réelle, pour tout réelle x, nous noterons respectivement (X sup x), (X inf stricte x) etc ..
(Xsupx) est noté X-1([x;+8[) ie {w de Oméga tq X(w) sup x}
(X inf stricte x) est noté X-1(]-8;x[) ie {w de Oméga tq X(w inf stricte x}
Deux va de meme loi ne sons pas tjrs Ă©gales
Si on modĂ©lise le lancer de deux dĂ©s Ă©quilibrĂ©s en travaillant sur OmĂ©ga = [|1;6|]ÂČ par des va X : OmĂ©ga dans [|1;6|] et Y:OmĂ©ga dans [|1;6|] alors ces deux va suivent la meme loi mais ne sont pas Ă©gale.
(X=1) sera diff de (Y=1), ils auront en commun uniquement (1,1)
La donnée pertinente consiste en la donnée conjointe de
1) Lâensemble des valeurs prisent par X
2) Pour chacunes de ces valeurs x, de la mesure de lâensemble de ses antĂ©cĂ©dents, autrement dit de P(X=x)
On utilisera sans trop de considération théorique les notation
X+Y ( si un addition est def dans E), XY (si la multiplication est def dans E) f(X) ou f est une fonction de source E. et mĂȘme X=Y
Dâailleurs, (X=Y)={w de Omega tq X(w)=Y(w)}
Dans quel cas les lois marginales permettent de retrouver les lois conjointes ?
Equivalence a propos de lâindĂ©pendance de deux vars
Dans le cas ou X et Y sont indépendantes.
X et Y sont indépendantes ssi pt A,B appartenant a P(E)xP(F), P((X,Y) appartient a AxB) = P(XappartientA)P(YappartientB)
Lorsque X et Y sont a valeurs dans des ensembles finis, X et Y sont indépendants ssi la matrice des loi conjointes est de rg 1.
ThĂ©orĂšme dâexistence dâespace probabilisĂ©
Soitn pour n de N, une probabilité Ln, sur un ensemble Epsilonn. Il existe alors un espace probabilisé (Oméga, A, P) et une suite (Xn)ndeN de va mutuellement indépendantes tq pour tout ndeN, Xn aille de Oméga dans Epsilonn et suive la loi Ln.
Loi hypergéométrique : supposons avoir N boules dans une urne, m blanches et N-m noires.
On considÚre la va X donnant le nombre de boules blanches tirées aprÚs n tirages sans remise, ou n est fixé (et n inf N). pt k de [|0,n|] P(X=k) =
Par un dénombrement, P(X=k)= [k parmi m) (n-k parmi N-m)] / (n parmi N)
cette loi est la loi hypergéométrique de paramÚtre p=m/N
Définition - Loi géométrique
Soit p dans ]0;1[. On dit que X de Oméga dans N* suit une loi géo de paramÚtre p notée G(p) si pt k de N*, P(X=k)=(1-p)^k-1 p
Câest la loi qui donne le rang du premier succes dans une suite dâĂ©preuves de bernouilli mutuellement indĂ©pendantes de paramĂštre p.
šProposition - Caractérisation des loi géométriques comme lois sans mémoire.
Une va a valeurs dans N* est sans mémoire ie vérifie :
pt (k,n) de N*ÂČ, P(X sup st (n+k) | X sup st n) = P(X sup st k)
ssi elle suit une loi géométrique
DĂ©finition de la loi de Poisson
Soit @ dans R+*, on dit que X de Oméga dans N sui la loi de poisson de paramÚtre @ noté P(@) si pour tout n de N, P(X=n)= exp (-@) @^n/n!
Proposition : Approximation de la loi de binomiale par la loi de Poisson
Si, pour tout n, Xn ~ B(n,pn) et si (n pn) converge vers @ sup st 0 alors : pt k de N, P(Xn=k) tend(n,8) exp(-@)@^k/k!
Interprétation de la loi de poisson comme la loi des événements rares
EN fait, la loi de Poisson fournit une bonne modĂ©lisation du nombre dâĂ©vĂ©nements rares : nombre dâaccidents sur une portion de route, nombre dâerreurs typographique dans une page, etc.. En effet, supposons quâon Ă©tudie un phĂ©nomĂšne dont vĂ©rifiant :
1) Les observations dans des intervalles disjoints sont indépendantes.
2) La loi du nombre dâobservations dans un intervalle de temps donnĂ©e dĂ©pend de la durĂ©e de cet intervalle
3) Lorsque la durĂ©e de lâintervalle dâobservation tend vers 0, la probabilitĂ© dâobserver 2 fois au moins le phĂ©nomĂšne est nĂ©gligeable devant celle dâen observer exactement 1.
On peut alrs montrer que le nbr dâobservations ds un intervalle de tps donnĂ© suit une Loi de Poisson
DĂ©finition - EspĂ©rance dâune va rĂ©elle positive
Si X est une variable alĂ©atoire Ă valeurs dans R+, lâespĂ©rance de C est la somme ds [0;+8[ de la famille (xP(X=x))xdeX(OmĂ©ga). On la note E(X) de sorte que :
E(X)= som(xdeX(Oméga) xP(X=x)
On dira que X admet une espérance finie si E(X) inf stricte +8
DĂ©finition - Variable alĂ©atoire dâespĂ©rance finie
Si X est une var, on dira que X est dâespĂ©rance finie, ou que X admet une espĂ©rance (finie) si la famille (xP(X=x))xdeX(OmĂ©ga) est sommable. Ds ce cas la somme de cette familles est lâespĂ©rance de X notĂ©e E(X)
La va X est centrée si son espérance est nulle.
En fait, lâespĂ©rance de X ne dĂ©pend que de la loi que X suit
Exemple : espérance classique
SI X ~ B(p) alors E(X) = p
Si X~ B(n,p) alors E(X)=np
Si X~ G(p) alors E(x)=1/p
Si X~P(@) alors E(X)=@
Proposition - Va admettant un moment dâordre 2
Lâensemble L2(OmĂ©ga,R) des var dĂ©finies sur OmĂ©ga admettant un moment dâordre 2 est un R espace vectoriel/
Proposition - Moment dâordre 2 et espĂ©rance
Si une variable alĂ©atoire X admet un moment dâordre 2, elle est dâespĂ©rance finie.
Variances classiques
Si X~B(p) alors V(x) = p(1-p)
Si X~B(n,p) alors V(X)=np(1-p)
Si X~G(p) alors V(X)=(1-p)/pÂČ
Si X~P(@) alros V(X)=@
Proposition - Inégalité de Cauchy-Schwartz probabiliste
Si X et Y admettent chacune un moment dâordre 2, alors XY est dâespĂ©rance finie et E(XY)ÂČinf E(XÂČ)E(YÂČ)
ThéorÚme : Loi faible des grands nombres
Si (Xn) nsup 0 est une suite de variables alĂ©atoires deux a deux indĂ©pendantes de mĂȘme loi et admettant un moment dâordre 2, alors si Sn=som(1,n)Xk et m = E(X1) on a P(|Sn/n-m| sup epsilon ) tend (n,8) 0
Vous devez savoir retrouver pour epsilon sup 0, lâinĂ©galitĂ© :
P( | Sn/n - m| sup epsilon) inf sigmaÂČ/nepsilonÂČ ou sigma est lâĂ©cart type commune des Xk
Définition - Fonction génératrice
On appelle fonction génératrice de X et on note Gx la fonction donnée par : Gx(t) = def= E(t^X)=som(0,8)P(X=n)t^n
Remarque a propos de la fonction génératrice
On remarque que Gx est définie en 1 et que GX(1)=1
La série entiÚre définissant Gx est de rayon supérieur ou égale a 1 et converge normalement sur le disque unité fermé
Que dire de p(A) si A B et C trois événements équiprobables vérifient P(AnBnC)=0 ?
P(AnBnC)=0 donc P(_AU_BU_C)=1 inf p(_A)+P(_B)+P(_C) =3P(_A) donc P(_A) sup 1/3 et P(A)inf 2/3
Proposition - Fonction gĂ©nĂ©ratrice dâune somme finie de v.a.i a valeurs naturelles
Si (Xi)ide[|1,n|] est une famille de v.a.i a valeurs dans N.
alors G X1+âŠ+Xn = GX1âŠGXn
Proposition - Utilisation de la fonction génératrice dans le cas de RCV plus grand que 1
On suppose que le rayon de convergence de somP(X=n)t^n est strictement plus grand que 1.
La variable aléatoire X admet alors un moment à tout ordre, et pour tout k de N.
E(X(X-1)âŠ(X-(k-1))) = GX^(k)(1)
Proposition - Moment dâordre 1 et 2
(1) La variable alĂ©atoire X est dâespĂ©rance finie ssi GX est dĂ©rivable en 1. On a alors E(X)=GXâ(1)
(2) La variable alĂ©atoire X admet un second moment ssi GX est deux fois dĂ©rivable en 1. On a alors E(X(X-1))=GXââ(1)
Si GX est deux fois dérivable en 1
ALors X admet une variance et V(X) = GXââ(1) + GXâ(1) - GXâ(1)ÂČ
Vous devez officiellement savoir retrouver cette expression de la variance, mais il serait nuisible de lâapprendre par cĆur : elle se retrouve immĂ©diatement a partir de la proposition prĂ©cĂ©dente.
Exemple : Fonction génératrice
Remarque
Si X~B(p) alors GX(t) = (pt+q)
Si X~B(n,p) alors GX(t) = (pt+q)^n
Si X~G(p) alors GX(t)= pt/(1-qt)
Si X~P(@) alors GX(t)=exp (@(t-1))
On peut remarquer que ds tous ces cas classiques, le RC est strictement plus grand que 1, donc que la proposition 2.b suffit pour faire le lien entre les moments de X et sa fonction génératrice.