cap 4 probabilita Flashcards
funzione di distribuzione cumulativa
cdf = FX(x) = P (X <= x)
percentile
P(X<= xi%) = i%
funzione di densita’ di probabilita’
pdf, SOLO PER V.A. CONTINUE
fX(x) = d/dx Fx(x)
funzione di massa di probabilita’
pmf, SOLO PER V.A. DISCRETE
Pi = P(X = xi)
funzione di una V.A.
sia g(x) una funzione reale di variabile reale
allora g(X) e’ una variabile aleatoria
FY(y) = P(Y <= y) = P(g(X) <= y)
fY(y) = sum(i)( fX(xi)/ abs(g’(xi)), dove xi sono le soluzioni a g(x) = Y
valor medio statistico
IE[X] = int(-inf, +inf) x fX(x) CONTINUO
IE[X] = sum(-inf, +inf) xi P(X = xi) discreto
varianza
sigmaquadro= var(X) = IE[(X-IE[X])
^2] = IE [X ^2] - IE ^2 [X]
devianzione standard
radice quadrata della varianza
V.A. di bernoulli
X o successo o insuccesso
pmf : P(X= 1) = p, P(X =0) = q
IE[X] = p
var(X) = qp
V.A. binomiale
X valuta il numero di successi su n esperimenti di Bernoulli
P(X = k) = (n) p ^k q ^ n- k, con o <= n <= k
………………(k)
IE[X] = sum(k = 0, n) kp(X = k) = np
var(X) = npq
V.A. poisson
gaussiana discreto ediscion
P(X = k) = e^-a a^k / k!, a > 0, k >= 0
IE[X] = a
var(X) = a
definizione di variabile aleatoria
è una mappa dallo spazio degli eventi a R che fa corrispondere ad ogni evento omega un numero reale R
proprietà cdf (sono 6)
- 0 <= FX(x) <= 1
- e’ crescente
- tende a 1 se x tende a infinito e tende a 0 se x tende a meno infinito
- e’ continua a destra, cioe lim(epsilon -> 0+) FX(x + epsilon) = FX(x)
- FX(b) - FX(a) = P(a <= x <= b)
- FX(a) - FX(a-) = P(a = x)
proprieta’ pdf (sono 5)
- fX(x) >= 0 sempre, visto che cdf e sempre crescente
- int(- inf, +inf) (fX(x)) = 1
- int (a,b) (fX(x)dx) = P(a <= X <= b)
- in generale int(D)(fX(x)dx) = P(X appartiene a D
5 int (- inf, x)(fudu)= FX(x)
proprieta’ valor medio (sono 3)
- IE[c] = c
- linearita’
- IE[g(x)] = int(-inf+inf)(g(x)fX(x)dx)
proprieta’ varianza(sono 4)
1.var (cX) = c^2 var(X)
2. var(c) = 0
3.var(c+ X) = var X
4. var X+Y = var X + var Y - 2cov XY
funzione di correlazione
corr(X,Y) = IE[XY]
funzione di covarianza
cov(X,Y) = IE[XY] - IE[X]IE[Y] = IE[(X- IE[X])(Y-IE[Y])]
coefficiente di correlazione
rhoXY = cov(X,Y) / devstanX devstanY =( IE[XY] - IE[X]IE[Y] ) /sigmaX sigmaY
proprieta coefficiente di correlazione
- a causa della disuguaglianza di scwharz, abs(rho) <= 1
- se uguale a 1 i due valori sanno nel piano xy su una retta, ovvero c e corrispondenza lineare tra i due e sapendone uno posso sapere l altro
3 se rho > 0 allora sono concordi, cioe se X > IE[X] anche Y > IE[Y]
4 se minore di zero sono discordi - se rho = 0 sono incorrelati, non c e nessun trend
- due v.a. indipendenti sono per forza incorrelate, non per forza il contrario (apparte per gaussiane)
Somma di v.a.
come calcolare FZ(z) e fZ(z)
dimostrare con calcoli
guarda quaderno / foto che non c ho boglia
Distribuzioni congiunte
scrivere cdf e pdf/ pmf
cdf FXY(x,y) = P(X <= x, Y <= y)
se discrete pmf PXY(x, y) = P(X = xi, Y = yi)
se continue pdf fXY(x, y) = d^2/dxdy FX,Y(x,y)
proprieta’ pdf congiunta
son 5
- int (-inf, +inf) (int (-inf, +inf)( fX,Y(x,y) dx)dy = 1
- int (-inf, x) ((int (-inf, y) (fX,Y(u,v) du)dv = FX,Y(x,y)
- P(x< X < x + dx, y < Y < y+ dx) = fX,Y(x,y)
- P(x,y appartengono a d ) = int (D) fX,Y(x,y)dxdy
- MARGINALIZZAZIONE fX(x) = int (-inf, +inf) ( fX,Y(x,y) dy ) e viceversa daje
VA congiuntamente gaussiane
2 proprieta va congiuntamente gaussiane e conseguenza
disuguaglianza di markov e dimostrazione
disuguaglianza di chebyshev e dimostrazione
legge dei grandi numeri
V.A. uniforme
come si definisce X tilde (a,b)
fX(x) 1/ b-a
FX(x) x -a / b-a
IE[X] = a + b / 2
var(X) = (b - a ) ^ 2 / 12
V.A. esponenziale
fX(x) = 1/mu e ^ - x / mu
FX(x) = 1 - e ^ - x / mu
IE[X] = mu
var (X) = mu ^ 2
V.A. gaussiana
fX(X) = 1 / (sqr(2 pi) sigma )e ^ (x - mu) ^ 2) / 2 (sigma ^2)
IE[X] = mu
var(x) = sigma ^2
erf(X) = 2 / sqr(pi) int (0, x) ( e ^ - t^2) dt
erfc(x) 1 - erf(X)
Fx(x) = 1/2 - 1/2 erf(x- mu/sigma sqr(2))
= 1 - 1/2 erfc() = 1/2 erf()
spazio di probabilità
(Omega, S , P())
assiomi di kolmogorov
- P(S) = 1 (assioma di normalizzazione)
- P(S) >= 0 (assioma di non neegatività)
- siano E1, …,En UNA QUALUNQUE SUCCESSIONE DI EVENTI DISGIUNTI ( cioe tali che Ei intersecato En = insieme nullo per ogni i != n) allora p(E1 U E2 U …) = sum (i = 1,n) p(Ei) (assioma di numerabile additività)
definizioni possibili
definizione relativa
P(E) = lim n -> + inf (n E / n)
dove n è il numero di esperimeniti realizzati e n E è il numero di esperimenti che verificano l evento E
definizione classica ( vale solo per eventi equiprobabili)
P(E) = NE/N
dove ne e il numero di eventi che verificano l evento e N è il numero di eventi possibili
proprietà delle probabilità (sono 4)
1 P(E) + p(Ec) = 1
2. P(A U B) = P(A) + P(B) - P ( A ⋂ B)
3. P(0) = 0
4 se E sottoinsieme di E2 allora p E <= p(E2)
probabilità condizionata e formula di bayes
P(E1/ E2) = P(E1 ⋂ E2)/ P(E2)
P(E2/ E1) = P(E1/E2) P(E2) / P(E1)
eventi statisticamente indipendenti e conseguenze
P(E1/ E2) = P (E1)
P(E1 ⋂ E2) = P(E1) P(E2)
teorema della probabilità totale e teorema di bayes
se ho una partizione dello spazio degli eventi in insiemi disgiunti e ho A che ne interseca alcuni allora
P(A) = sum(i) (P(A/Di) P(Di)
teorema di bayes
P(Di/A) = P(A / Di) (P(Di)/ sum(i) P(A / Di) P(Di)
funzione carataristica, proprietà e dimo
Φ(ω) = IE[e^jxω] = int(-inf, +inf) (e^jxω) fx(x)
1. (d/dω)^n (Φ(ω)), con ω= 0 è uguale a j^n IE[x^n]
2. X = X1 + X2 +______+ Xn variabili indipendenti => Φx(ω) = produttoria da 1 a n Φxi(ω)
dimo guarda sul quad
definizione di campo
chiususra rispetto al complemento
chiusura rispetto all unione
chiusura rispetto all unione numerabile