Analisi Dei Segnali Flashcards

1
Q

Cos’è un segnale ?

A

Grandezza che varia nel tempo e/o nello spazio e che porta un’informazione.
È generato da una sorgente a cui è accoppiato un trasduttore che converte la grandezza in esame in un segnale elettrico

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Come si trasmette un segnale?

A

Il segnale è prodotto da una sorgente, viene convertito in segnale elettrico da un trasduttore e successivamente trasmesso.
Un altro trasduttore riceverà il segnale elettrico riconvertendolo nella sua forma originale.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Classificazione segnali

A

•In base al TEMPO (variabile indipendente)
-a tempo continuo —> variabile indipendente assume valori appartenenti a un intervallo dell’asse reale

-a tempo discreto—> variabile indipendente assume solo valori discreti. Negli intervalli tra in diversi valori discreti il segnale NON è definito

•in base all’AMPIEZZA (variabile dipendente)
-ad ampiezze continue —> la variabile dipendente assume valori nell’intervallo reale

-ad ampiezze discrete —> la variabile dipendente assume valori discreti

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Come sono nativamente i segnali?

A

Sono continui in tempo e ampiezza, vengono convertiti in discreti dal CONVERTITORE ANALOGICO/DIGITALE

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Grandezze che appartengono ai segnali a tempo continuo

A

Energia e potenza media

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Spazio campione

A

Insieme dei risultati possibili di un esperimento casuale.

Può essere finito,infinito numerabile o continuo

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

A C omega

A

Sottoinsieme proprio di omega
Contiene elementi che non appartengono ad A

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

A C_ omega (c sottolineato)

A

Sottoinsieme improprio di omega

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

A=omega-A

A

Sottoinsieme complementare di A che contiene tutti gli elementi di omega che non appartengono ad A

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

A U B

A

Unione di insiemi che contiene elementi che appartengono ad A, a B o a entrambi

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

A u( al contrario) B

A

Intersezione di A e B
Contiene elementi che appartengono sia ad A che a B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Omega1 x omega2

A

Prodotto cartesiano di omega1 e omega2
È costituito dalle coppie ordinate (a,b) tale che a€omega1 e b€omega2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Teoria probabilità:
Sottoinsieme A dello spazio campione omega si dice?

A

Evento
Detto anche EVENTO COMPLESSO

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Teoria probabilità:
I singoli elementi dello spazio campione sono anch’essi eventi?

A

Si, vengono spesso detti EVENTI SEMPLICI

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Teoria probabilità
Evento A=o| (fi)
come si chiama?

A

Evento impossibile

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Teoria probabilità
Evento A=omega
come si chiama?

A

Evento certo

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Teoria probabilità
Evento A U B
Cosa significa?

A

Si verifica A oppure B oppure entrambi

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Teoria probabilità
Evento A u(al contrario) B
Cosa significa?

A

Si verificano contemporaneamente A e B

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Teoria probabilità
Evento A u(al contrario) B = o| (fi)
Come si chiama?
Cosa significa?

A

A e B Vengono detti MUTUAMENTE ESCLUSIVI
Non possono capitare contemporaneamente

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Cosa chiamiamo probabilità?

A

Un numero compreso tra 0 e 1 che associamo ad ogni evento semplice di omega

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Definizione classica di probabilità

A

Numero di esisti favorevoli diviso esiti totali dell’esperimento

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Cosa sono le frequenze statistiche?

A

P^{i}=ni/N

con a<=i<=b
ove [a,b]€numeri naturali
N=numero misure
ni=numero di volte in cui esce i

Abbiamo che:
0<= P^{i}<=1 Per ogni i

Inoltre la somma di tutti P^{i}=1

23
Q

Teorema della probabilità totale

A

P{B}=sommatoria da i=1 ad N P{B|Ai}P{Ai}

P{Ai}=probabilità a priori
P{B|Ai}=probabilità a posteriori

Ai=eventi che possono essere:
ESAUSTIVI
MUTUAMENTE ESAUSTIVI

24
Q

Corollario per girare il condizionamento

A

P{Ai|B}= (P{B|Ai}P{Ai})/(sommatoria da i=1 a N P{B|Ai}P{Ai})

25
Formula di Bayes (probabilità)
P{A,B}=P{A|B}P{B}=P{B|A}P{A}
26
Definizione di indipendenza statistica
P{A|B}=P{A} P{B|A}=P{B} Con A e B eventi statisticamente indipendenti
27
Come capire se due eventi A e B sono statisticamente indipendenti ?
Stimare P{A} Stimare P{A|B} Se P{A|B}=P{A} —> indipendenti Se P{A|B}>P{A} —> B facilita insorgere di A Se P{A|B} B ostacola insorgere di A
28
Cosa è la variabile casuale(o aleatoria)?
Esperimento casuale i cui possibili risultati sono numeri Spezio campione è su una RETTA ~la indico con il MAIUSCOLO
29
Cosa è una variabile casuale discreta?
I valori possibili sono in numero finito o infinito numerabile ~i valori sono indicati in minuscolo
30
Cosa è una variabile casuale continua?
I valori possibili sono numeri reali ~i valori sono indicati in minuscolo
31
cosa è la distribuzione di massa?
pX(xi)=P{X=xi} •Omega={xi} —> spazio campione che rappresenta tutti i possibili valori assunti da X •pX(xi) —> probabilità che X assuma il valore xi Rappresentabile con un grafico: ascisse xi e ordinate pX(xi) Si ha che 0<=pX(xi)<=1 e _sommatoria da k=1 a N_ pX(xk)=1
32
Frequenza statistica come probabilità:
P{i}=ni/N Per ogni i e N sufficientemente grande Se riporti le funzioni statistiche in un grafico in funzione di N al crescere di questo N le funzioni tendono a convergere
33
Cosa è il valore atteso (o media statistica)? Indicato come muX
uX= E{X}=_sommatoria da i=1 a N_ xipX(xi) In generale la media statistica non coincide con nessuno dei valori assunti da X La media statistica è quella aritmetica coincidono solo se gli eventi sono EQUIPOLLENTI. Evitare “valor medio” quando parli di ux
34
Definizione assiomatica della probabilità: Enuncia gli assiomi della probabilità
Assioma 1: La probabilità P{A} di un evento A è sempre maggiore o uguale a 0 P{A}>=0 Assioma 2: La probabilità di un evento certo è 1 P{omega=spazio campione}=1 Assioma 3: Se A e B sono due eventi mutamente esclusivi (A u al contrario B= fi) allora P{A U B}= P{A} + P{B} fi=insieme vuoto •La probabilità assume valori compresi tra 0 e 1 •La probabilità dell’Unione di due eventi ero sei alla somma delle probabilità se è solo se i due eventi sono mutuamente esclusivi
35
Qual è la probabilità di un evento impossibile?
Corollario: la probabilità dell’evento impossibile è ZERO Infatti dato un generico evento A: A= A U fi e A u al contrario fi=fi per cui: P{A}=P{A U fi}=P{A}+P{fi} e conseguentemente: P{fi}=0
36
Momento di ordine k
(uX)^(k)=E{X^k}=_sommatoria da i=1 a N_ (xi)^k pX(xi)
37
Momento di ordine 2 = valore quadratico medio
(uX)^(2)=E{X^2}=_sommatoria da i=1 a N_ (xi)^2 pX(xi) Per definizione è un numero reale positivo È tanto più elevato quanto più i valori di X sono lontani dallo 0
38
Varianza (sigma^(2)X)
Sigma^(2)X= E{(X-muX)^2}=E{X^2}-mu^(2)X Corrisponde al valore quadratico medio della variabile causale Y=Z-muX (La variabile Y ha valore atteso nullo) La varianza sigma^(2)X è un numero positivo La distribuzione di massa di Y è uguale a quella di X ma traslata verso sinistra di una quantità pari a muX
39
Probabilità dell’intersezione P{A u al contrario B}
È la probabilità che due eventi si verifichino contemporaneamente e si dice PROBABILITÀ CONGIUNTA scrittura breve P{A,B} (= P{A u al contrario B} ) Vale proprietà commutativa: P{A,B}=P{B,A} Se A intersecato B=fi(insieme vuoto) —> P{A,B}=0
40
Eventi mutuamente esclusivi
Eventi che non possono mai capitare contemporaneamente La loro probabilità congiunta è nulla P(A,B) = P(A u al contrario B)=0
41
Eventi statisticamente indipendenti
P{A,B}=P{A}P{B} Il verificarsi di un evento non condiziona il verificarsi dell’altro Tutti gli eventi semplici appartenenti allo spazio campione sono EQUIPROBABILI con P=(numero eventi favorevoli)/(numero eventi totali) L’intersezione di A con B deve essere diversa da fi(insieme vuoto)!!! Se fosse uguale a fi si avrebbe: P{A,B}=P{fi}=0 diverso da P{A}P{B} e gli eventi non sarebbero statisticamente indipendenti •due eventi statisticamente indipendenti NON POSSONO ESSERE MUTUAMENTE ESCLUSIVI
42
Probabilità condizionata
P={A|B} (probabilità di A condizionata da B) P{A} e P{B} = probabilità marginali
43
Deviazione standard sigmaX
È la radice quadrata positiva della varianza sigma^(2)X Misura quanto la distribuzione di massa è sparpagliata attorno al valore medio Se la deviazione standard ha valori bassi —> X assume valori prossimi al valore medio che quindi dà informazioni molto utili per determinare i valori che la variabile può assumere Se la deviazione standard ha valori alti —> X assume anche valori molto lontani dal valore medio che quindi non dà informazioni utili sui valori che la variabile può assumere
44
Distribuzione cumulativa
FX(x)=P{ X <= x} Assume valori tra 0 e 1 È una funzione a gradini continua da destra L’altezza del gradino è pari alla probabilità che la variabile casuale assuma il valore corrispondente all’ascissa X=xk
45
Distribuzione cumulativa: Calcolare la probabilità che X sia compresa tra xi(escluso) e xs(incluso)
P{xi < X <= xs}=P{X<=xs}-P{X<=xi}=FX(xs)-FX(xi)
46
Variabili casuali continue X
Variabili casuali il cui spazio campione è l’asse reale. Hanno una probabilità infinitesima ( P{X=x}=0) di accadere perché hanno un infinito non numerabile di possibili risultati x. Perciò definisco la DISTRIBUZIONE CUMULATIVA: FX(x)=P{X<=x} Che ha valori compresi tra 0 e 1 ed è una funzione non decrescente (non è una funziona a gradini) Non posso definire una distribuzione di massa, ma posso calcolare la probabilità che il risultato cada in un certo intervallo
47
Densità di probabilità (ddp)
fX(x)=lim per Delta—>0 di (P{x0 di (FX(x+delta)-Fx(x))/delta = = dFX(x) in dx È una funzione positiva o nulla Tende a zero per x—>+-inf Il suo integrale tra -+inf =1
48
Distribuzione cumulativa nella variabili continue
FX(x)=P{X<=x} Che ha valori compresi tra 0 e 1 ed è una funzione non decrescente (non è una funziona a gradini) è la PRIMITIVA DELLA DENSITÀ DI PROBABILITÀ: FX(x)=int(tra -inf e x) di fX(u)du •Questo integrale fornisce la probabilità che la variabile casuale X sia compresa tra a e b Quindi: FX(b)-FX(a)=P{a P{X=a}=0 Corollario: int(tra -+inf) di fX(u)du=FX(inf)-FX(-inf)=1-0=1
49
Densità di probabilità GAUSSIANE (o normali) X=N(mu,sigma)
fX(x)=[1/sqrt(2pi*sigma^2)]*e*[-(x-mu)^2]/[(2sigma)^2] Ove mu=valore atteso Sigma=deviazione standard La ddp gaussiana è completamente definita noti mu e sigma Se mu=0 —> ddp gaussiana è centrata nell’origine (simmetrica rispetto a x=0) La ddp gaussiana e basata sull’INTEGRALE DI GAUSS: Int(-+inf) di e^(-x^2) dx= sqrt(pi) O Int tra 0 e inf di e^(-x^2) dx= [sqrt(pi)]/2 L’area sottesa all’integrale di Gauss tra -+ inf vale 1
50
Funzione errore di gauss
Sono integrali definiti: er f(x)=[1/sqrt(pi)]*int(-+x) di e^(-t^2) dt= [2/sqrt(pi)]* int(tra 0 e x) di e^(-t^2) dt •er f(0)=0 •Lim per x—>0 di er f(x)=1
51
Funzione errore complementare dell’errore di Gauss
er fc(x)= 1- er f(x)= [2/sqrt(pi)]* int(tra 0 e x) di e^(-t^2) dt
52
Densità di probabilità esponenziale unilatera
fX(x)= beta*e^(-beta*x) con beta>0
53
Densità di probabilità esponenziale bilatera (o laplasciana)
fX(x)= (beta/2)*e^(-beta|x|) con beta>0
54
Densità di probabilità uniforme U(a,b)
fX(x)= {0 per x<= a e per x>=b {1/(b-a) per x€[a,b]