CM1.2 Flashcards
1
Q
que vaut b
A
nb d’états
2
Q
Qu’est ce que pi
A
Probabilité de chaque états
3
Q
Formule de l’entropie (cas général)
A
I= -n somme (pilog2 pi)
4
Q
Formule de l’entropie (équiprobabilite)
A
pi=1/b donc I= n*log2(b)
5
Q
Quel message transport le plus d’info
A
Le message à symboles équiprobables
6
Q
Que signifie H
A
Entropie moyenne
7
Q
Formule de l’entropie moyenne
A
H= I/n= -somme (pilog2 pi)
8
Q
Formule de l’entropie moyenne (si équiprobabilite)
A
H= log2(b)
9
Q
Formule du débit informationnel
A
C= I/ teta
En sh/s
10
Q
Entropie moyenne de l’alphabet
A
1 Sh/symbole
11
Q
Qu’est ce que B
A
Fréquence max utile
12
Q
Formule de Hartley- Shannon-Tuller
A
C= B* log2(1+S/N)
13
Q
Formule de HST pour [S/n]
A
C=1/3B[S/N]
14
Q
Unité de [S/N]
A
Db
15
Q
Unité de
A