Crypto1 Flashcards
Qu’est-ce que l’information?
Valeur instantanée d’une variable aléatoire qui est transmise vers un récepteur à travers un canal de communication
Quel est la mesure du manque d’information obtenue par l’obersavation d’une variable aléatoire?
l’entropie( généralement en bits)
Qu’est-ce que la théorie de l’information?
On représente la variable aléatoire et son observation directe comme une SOURCE d’information
(équivalent à une boîte noire qui qui produit de façon aléatoire une série de bits représentant la valeur de la variable aléatoire)
Quelles sont les caractéristiques de la source d’information?
- Elle produit de l’information pure, sous forme abstraite
- Elle ne s’adapte pas au canal de transmission ( le codage oui)
- Ne peut pas être interprétée par un récepteur
À quoi sert le codage?
Avoir une représentation physique des données pour pouvoir les transportées et les interprétés ( s’adapte au canal de transmission, permer au récepteur de décoder l’information, et le convertir en forme intelligible)
PAS DU CHIFFREMENT
permet la compression
Quel est le lien entre le théorème de shannon et le codage?
Permet de calculer la compression maximal sans perte d’information
Quel est le modèle de base de Shannon?
Alice [Source] -> Codeur(Irène) –> Canal –> décodeur -> [récepteur] Bob
Qu’est-ce que la source du modèle de shannon?
- Produit des symboles d’un alphabet sigma, fonction “sur demande” ( un bouton)
Qu’est-ce que le codage du modèle de shannon?
Regroupe et transforme les symboles de la source dans un format pouvant être transmis ou sauvegardé
Qu’est-ce que le canal du modèle de shannon?
Moyen par lequel l’information est voyagé
Peut introduire du bruit, transmission peuvent être interceptés
Qu’est-ce que le décodage du modèle de shannon?
Permet de reconstruire le message original (déquence des symboles de source)
Qu’est-ce que l’alphabet d’une source d’information?
Ensemble discret fini Sigma = sigma1, sigma2, sigma{m}, symboles capable d’émettre
- la taille de sigma = |sigma| = M
Qu’est-ce que le contrôle d’une source d’information?
un “bouton” qui permet d’obtenir un symbole à la fois
Qu’est-ce que le principe de la boìte noire?
On ne peut rien savoir sur le contenue ou le fonctionnement de la source, autre que le bouton et un petit nombre d’observation(sauf pe alice, mais pas eve, ni irène ni Bob)
Pourquoi l’abstraction de la boite noire de la source d’information?
- Permet de discuter de l’efficacité du codage
- Permet d’analyser correctement la résistance à certaines menaces
Qu’est-ce qu’une source par bloc?
source S^b représente la source obtenue en encapsulant S par une boîte qui mets b symboles de S dans un tampon, avant de les sortir à l’extérieur
alphabet est maintenant sigma^b
Qu’est-ce qu’une source par échantillonage?
source S^{1/b} = boite qui émet seulement le 1er symbole de chaque b symboles sortie de S
l’alphabet reste sigma
Quel est l’interprétation déterministe d’une source?
La boìte noire connait à l’avance toute les séquence de symboles
Quel est l’interprétation probabiliste d’une source?
La boite choisit les symboles au fur et à mesure selon une distribution de probabilité
Quel sont les deux modèles de processus probabiliste d’une source?
Processus markovien( sans mémoire) - Processus non-morkovien (les probabilités de symboles peuvent dépendre des symboles antérieur sortis de la source)
Qu’est-ce que la translittération?
traduire les symboles de source vers un autre “alphabet” (codage)
Quel est le premier théorème de shannon? (codage)
- l’efficacité maximum d’un code compresseur est environ égale à H(s)
- Il existe un code compresseur (sans errur) avec l’efficacité H(s) + 1
Quel est la définition de l’entropie de Shannon?
H(S) = sommation pi log2(1/pi)