TNI Flashcards
Lois de Parkinson
1) Les volumes de données augmentent toujours
jusqu’à remplir l’espace de stockage disponible.
2) Le trafic réseau augmente jusqu’à occuper la largeur de bande passante disponible
Loi de Moore
L’espace de stockage et la capacité de traitement des données stockées doublent tous les 18 mois.
Conséquence des lois de Parkinson et de Moore
D’ici à la fin du 21e siècle, chaque personne sur Terre disposera d’un téraoctet de données stockées.
Modèle de communication de Shannon et Weaver
1) La source énonce un message
2) L’émetteur transforme le message en signal
3) Le canal achemine le signal (un bruit peut apparaître)
4) Le récepteur reçoit le signal et reconstitue un message
5) Le destinataire reçoit le message
Les deux types de compression et leur principale particularité
=> Compression sans perte : données préservées
=> Compression avec perte : données dégradées
Exemples avec une contrainte de temps réel
=> Téléphone, vidéo (la compression et la décompression doivent être rapides)
Exemples avec une contrainte de temps différé
=> Stockage sur disque (la compression peut être lente mais pas la décompression)
=> Imagerie satellitaire ou embarquée (la décompression peut être lente mais pas la compression)
Performances d’un système de compression avec perte
- taux de compression (débit initial / débit après compression)
- qualité du signal comprimé (critère subjectif : visuel / critère objectif : SNR)
- Complexité du système
Définition d’une source :
- discrète
- sans mémoire
- avec mémoire
Rappels :
1) une source <=> système pouvant prendre plusieurs états
2) pour transmettre un message, la source utilise un langage
- discrète : alphabet discret (cas du numérique)
- sans mémoire : états indépendants
- avec mémoire : états dépendants entre eux
Probabilité d’apparition du niveau de gris x
pₓ(x) = nb_pixels_égaux_à_x / nb_total_de_pixels
Fonction de densité pour une loi uniforme
fₓ(x) = 1 / (b-a)
avec x ∊ [a, b]
Fonction de densité pour une loi gaussienne
fₓ(x) = exp(-(x-μ)² / 2σ²) / sqrt(2πσ²)
Fonction de densité pour une loi laplacienne
fₓ(x) = exp(- √2 * |x-μ| / σ) / (√2 * σ)
Entropie de Shannon
Quantité d’information moyenne minimale contenue dans une source. Elle s’exprime en bits/échantillon ou en bits/pixel
Entropie d’ordre 0
Pour une source S indépendante prenant ses valeurs dans un ensemble de K symboles, de probabilité d’apparition pk (k∈{1,…,K})
H(S) = -∑pk*ln(pk) bits/pixel
(on somme sur k de 1 à K)
Entropie conjointe
Les échantillons sont des groupes de pixels (permet de prendre en compte la corrélation entre pixels)
Entropie conditionnelle
Les échantillons sont des pixels ou des groupes de pixels (permet de prendre en compte le passé)
Quantité d’information après codage
< entropie pour le codage avec perte
≥ entropie pour le codage sans perte
Distorsion moyenne
D = (1 / MN) * ∑∑(i(m,n)-î(m,n))²
Première somme : m∈[| 0, M-1 |]
Deuxième somme : n∈[| 0, N-1 |]
i : pixel original
î : pixel compressé
SNR
SNR = 10log( ( ∑∑i²(m,n) ) / (MN*D) )
s’exprime en dB
PSNR
PSNR = 10*log( (2ⁿ-1)² / D )
(s’exprime en dB)
où n est le nombre de bits
Exemple de limite pour l’évaluation de la qualité avec le PSNR
Un bruitage dans une région de l’image (rendant méconnaissable cette zone) peut produire le même PSNR qu’un bruitage sur toute l’image
Exemple de limite pour l’évaluation de la qualité
Les outils classiques d’évaluation de la qualité laissent penser qu’une image est fortement bruitée si elle a seulement subi une rotation. Pourtant, son contenu est inchangé.
Chaîne de compression
Signal => Mise en forme (transformée) => Quantification + indexation (perte d’informations) => Codage entropique => Adaptation au canal => Décodage au canal => Décodage entropique => Désindexation => Transformée inverse => Signal restitué