Analisi Dei Segnali Flashcards
Cos’è un segnale ?
Grandezza che varia nel tempo e/o nello spazio e che porta un’informazione.
È generato da una sorgente a cui è accoppiato un trasduttore che converte la grandezza in esame in un segnale elettrico
Come si trasmette un segnale?
Il segnale è prodotto da una sorgente, viene convertito in segnale elettrico da un trasduttore e successivamente trasmesso.
Un altro trasduttore riceverà il segnale elettrico riconvertendolo nella sua forma originale.
Classificazione segnali
•In base al TEMPO (variabile indipendente)
-a tempo continuo —> variabile indipendente assume valori appartenenti a un intervallo dell’asse reale
-a tempo discreto—> variabile indipendente assume solo valori discreti. Negli intervalli tra in diversi valori discreti il segnale NON è definito
•in base all’AMPIEZZA (variabile dipendente)
-ad ampiezze continue —> la variabile dipendente assume valori nell’intervallo reale
-ad ampiezze discrete —> la variabile dipendente assume valori discreti
Come sono nativamente i segnali?
Sono continui in tempo e ampiezza, vengono convertiti in discreti dal CONVERTITORE ANALOGICO/DIGITALE
Grandezze che appartengono ai segnali a tempo continuo
Energia e potenza media
Spazio campione
Insieme dei risultati possibili di un esperimento casuale.
Può essere finito,infinito numerabile o continuo
A C omega
Sottoinsieme proprio di omega
Contiene elementi che non appartengono ad A
A C_ omega (c sottolineato)
Sottoinsieme improprio di omega
A=omega-A
Sottoinsieme complementare di A che contiene tutti gli elementi di omega che non appartengono ad A
A U B
Unione di insiemi che contiene elementi che appartengono ad A, a B o a entrambi
A u( al contrario) B
Intersezione di A e B
Contiene elementi che appartengono sia ad A che a B
Omega1 x omega2
Prodotto cartesiano di omega1 e omega2
È costituito dalle coppie ordinate (a,b) tale che a€omega1 e b€omega2
Teoria probabilità:
Sottoinsieme A dello spazio campione omega si dice?
Evento
Detto anche EVENTO COMPLESSO
Teoria probabilità:
I singoli elementi dello spazio campione sono anch’essi eventi?
Si, vengono spesso detti EVENTI SEMPLICI
Teoria probabilità
Evento A=o| (fi)
come si chiama?
Evento impossibile
Teoria probabilità
Evento A=omega
come si chiama?
Evento certo
Teoria probabilità
Evento A U B
Cosa significa?
Si verifica A oppure B oppure entrambi
Teoria probabilità
Evento A u(al contrario) B
Cosa significa?
Si verificano contemporaneamente A e B
Teoria probabilità
Evento A u(al contrario) B = o| (fi)
Come si chiama?
Cosa significa?
A e B Vengono detti MUTUAMENTE ESCLUSIVI
Non possono capitare contemporaneamente
Cosa chiamiamo probabilità?
Un numero compreso tra 0 e 1 che associamo ad ogni evento semplice di omega
Definizione classica di probabilità
Numero di esisti favorevoli diviso esiti totali dell’esperimento
Cosa sono le frequenze statistiche?
P^{i}=ni/N
con a<=i<=b
ove [a,b]€numeri naturali
N=numero misure
ni=numero di volte in cui esce i
Abbiamo che:
0<= P^{i}<=1 Per ogni i
Inoltre la somma di tutti P^{i}=1
Teorema della probabilità totale
P{B}=sommatoria da i=1 ad N P{B|Ai}P{Ai}
P{Ai}=probabilità a priori
P{B|Ai}=probabilità a posteriori
Ai=eventi che possono essere:
ESAUSTIVI
MUTUAMENTE ESAUSTIVI
Corollario per girare il condizionamento
P{Ai|B}= (P{B|Ai}P{Ai})/(sommatoria da i=1 a N P{B|Ai}P{Ai})
Formula di Bayes (probabilità)
P{A,B}=P{A|B}P{B}=P{B|A}P{A}
Definizione di indipendenza statistica
P{A|B}=P{A}
P{B|A}=P{B}
Con A e B eventi statisticamente indipendenti
Come capire se due eventi A e B sono statisticamente indipendenti ?
Stimare P{A}
Stimare P{A|B}
Se P{A|B}=P{A} —> indipendenti
Se P{A|B}>P{A} —> B facilita insorgere di A
Se P{A|B}<P{A} —> B ostacola insorgere di A
Cosa è la variabile casuale(o aleatoria)?
Esperimento casuale i cui possibili risultati sono numeri
Spezio campione è su una RETTA
~la indico con il MAIUSCOLO
Cosa è una variabile casuale discreta?
I valori possibili sono in numero finito o infinito numerabile
~i valori sono indicati in minuscolo
Cosa è una variabile casuale continua?
I valori possibili sono numeri reali
~i valori sono indicati in minuscolo
cosa è la distribuzione di massa?
pX(xi)=P{X=xi}
•Omega={xi} —> spazio campione che rappresenta tutti i possibili valori assunti da X
•pX(xi) —> probabilità che X assuma il valore xi
Rappresentabile con un grafico: ascisse xi e ordinate pX(xi)
Si ha che 0<=pX(xi)<=1 e
sommatoria da k=1 a N pX(xk)=1
Frequenza statistica come probabilità:
P{i}=ni/N Per ogni i e N sufficientemente grande
Se riporti le funzioni statistiche in un grafico in funzione di N al crescere di questo N le funzioni tendono a convergere
Cosa è il valore atteso (o media statistica)?
Indicato come muX
uX= E{X}=sommatoria da i=1 a N xipX(xi)
In generale la media statistica non coincide con nessuno dei valori assunti da X
La media statistica è quella aritmetica coincidono solo se gli eventi sono EQUIPOLLENTI. Evitare “valor medio” quando parli di ux
Definizione assiomatica della probabilità:
Enuncia gli assiomi della probabilità
Assioma 1:
La probabilità P{A} di un evento A è sempre maggiore o uguale a 0
P{A}>=0
Assioma 2:
La probabilità di un evento certo è 1
P{omega=spazio campione}=1
Assioma 3:
Se A e B sono due eventi mutamente esclusivi (A u al contrario B= fi) allora P{A U B}= P{A} + P{B}
fi=insieme vuoto
•La probabilità assume valori compresi tra 0 e 1
•La probabilità dell’Unione di due eventi ero sei alla somma delle probabilità se è solo se i due eventi sono mutuamente esclusivi
Qual è la probabilità di un evento impossibile?
Corollario: la probabilità dell’evento impossibile è ZERO
Infatti dato un generico evento A:
A= A U fi e A u al contrario fi=fi
per cui:
P{A}=P{A U fi}=P{A}+P{fi}
e conseguentemente:
P{fi}=0
Momento di ordine k
(uX)^(k)=E{X^k}=sommatoria da i=1 a N (xi)^k pX(xi)
Momento di ordine 2 = valore quadratico medio
(uX)^(2)=E{X^2}=sommatoria da i=1 a N (xi)^2 pX(xi)
Per definizione è un numero reale positivo
È tanto più elevato quanto più i valori di X sono lontani dallo 0
Varianza (sigma^(2)X)
Sigma^(2)X= E{(X-muX)^2}=E{X^2}-mu^(2)X
Corrisponde al valore quadratico medio della variabile causale Y=Z-muX
(La variabile Y ha valore atteso nullo)
La varianza sigma^(2)X è un numero positivo
La distribuzione di massa di Y è uguale a quella di X ma traslata verso sinistra di una quantità pari a muX
Probabilità dell’intersezione P{A u al contrario B}
È la probabilità che due eventi si verifichino contemporaneamente e si dice PROBABILITÀ CONGIUNTA
scrittura breve P{A,B} (= P{A u al contrario B} )
Vale proprietà commutativa:
P{A,B}=P{B,A}
Se A intersecato B=fi(insieme vuoto) —> P{A,B}=0
Eventi mutuamente esclusivi
Eventi che non possono mai capitare contemporaneamente
La loro probabilità congiunta è nulla
P(A,B) = P(A u al contrario B)=0
Eventi statisticamente indipendenti
P{A,B}=P{A}P{B}
Il verificarsi di un evento non condiziona il verificarsi dell’altro
Tutti gli eventi semplici appartenenti allo spazio campione sono EQUIPROBABILI con P=(numero eventi favorevoli)/(numero eventi totali)
L’intersezione di A con B deve essere diversa da fi(insieme vuoto)!!!
Se fosse uguale a fi si avrebbe:
P{A,B}=P{fi}=0 diverso da P{A}P{B} e gli eventi non sarebbero statisticamente indipendenti
•due eventi statisticamente indipendenti NON POSSONO ESSERE MUTUAMENTE ESCLUSIVI
Probabilità condizionata
P={A|B} (probabilità di A condizionata da B)
P{A} e P{B} = probabilità marginali
Deviazione standard sigmaX
È la radice quadrata positiva della varianza sigma^(2)X
Misura quanto la distribuzione di massa è sparpagliata attorno al valore medio
Se la deviazione standard ha valori bassi —> X assume valori prossimi al valore medio che quindi dà informazioni molto utili per determinare i valori che la variabile può assumere
Se la deviazione standard ha valori alti —> X assume anche valori molto lontani dal valore medio che quindi non dà informazioni utili sui valori che la variabile può assumere
Distribuzione cumulativa
FX(x)=P{ X <= x}
Assume valori tra 0 e 1
È una funzione a gradini continua da destra
L’altezza del gradino è pari alla probabilità che la variabile casuale assuma il valore corrispondente all’ascissa X=xk
Distribuzione cumulativa:
Calcolare la probabilità che X sia compresa tra xi(escluso) e xs(incluso)
P{xi < X <= xs}=P{X<=xs}-P{X<=xi}=FX(xs)-FX(xi)
Variabili casuali continue X
Variabili casuali il cui spazio campione è l’asse reale.
Hanno una probabilità infinitesima ( P{X=x}=0) di accadere perché hanno un infinito non numerabile di possibili risultati x.
Perciò definisco la DISTRIBUZIONE CUMULATIVA: FX(x)=P{X<=x} Che ha valori compresi tra 0 e 1 ed è una funzione non decrescente (non è una funziona a gradini)
Non posso definire una distribuzione di massa, ma posso calcolare la probabilità che il risultato cada in un certo intervallo
Densità di probabilità (ddp)
fX(x)=lim per Delta—>0 di (P{x<X<=x+Delta})/delta =
= lim per Delta—>0 di (FX(x+delta)-Fx(x))/delta =
= dFX(x) in dx
È una funzione positiva o nulla
Tende a zero per x—>+-inf
Il suo integrale tra -+inf =1
Distribuzione cumulativa nella variabili continue
FX(x)=P{X<=x} Che ha valori compresi tra 0 e 1 ed è una funzione non decrescente (non è una funziona a gradini)
è la PRIMITIVA DELLA DENSITÀ DI PROBABILITÀ:
FX(x)=int(tra -inf e x) di fX(u)du
•Questo integrale fornisce la probabilità che la variabile casuale X sia compresa tra a e b
Quindi: FX(b)-FX(a)=P{a<X<=b}
•obv se a=b —> P{X=a}=0
Corollario: int(tra -+inf) di fX(u)du=FX(inf)-FX(-inf)=1-0=1
Densità di probabilità GAUSSIANE (o normali) X=N(mu,sigma)
fX(x)=[1/sqrt(2pisigma^2)]e*[-(x-mu)^2]/[(2sigma)^2]
Ove mu=valore atteso
Sigma=deviazione standard
La ddp gaussiana è completamente definita noti mu e sigma
Se mu=0 —> ddp gaussiana è centrata nell’origine (simmetrica rispetto a x=0)
La ddp gaussiana e basata sull’INTEGRALE DI GAUSS:
Int(-+inf) di e^(-x^2) dx= sqrt(pi)
O
Int tra 0 e inf di e^(-x^2) dx= [sqrt(pi)]/2
L’area sottesa all’integrale di Gauss tra -+ inf vale 1
Funzione errore di gauss
Sono integrali definiti:
er f(x)=[1/sqrt(pi)]int(-+x) di e^(-t^2) dt= [2/sqrt(pi)] int(tra 0 e x) di e^(-t^2) dt
•er f(0)=0
•Lim per x—>0 di er f(x)=1
Funzione errore complementare dell’errore di Gauss
er fc(x)= 1- er f(x)= [2/sqrt(pi)]* int(tra 0 e x) di e^(-t^2) dt
Densità di probabilità esponenziale unilatera
fX(x)= betae^(-betax) con beta>0
Densità di probabilità esponenziale bilatera (o laplasciana)
fX(x)= (beta/2)*e^(-beta|x|) con beta>0
Densità di probabilità uniforme U(a,b)
fX(x)= {0 per x<= a e per x>=b
{1/(b-a) per x€[a,b]