21 nov 2012 · Codage source : compression des données pour une meilleure efficacité ▫ Codage Corriger les erreurs : FEC (Forward Error Correction) protocoles de Exercice: construire le tableau de décodage standard ▫ Exercice:
Previous PDF | Next PDF |
[PDF] correction - Formations en Informatique de Lille
Veuillez indiquer le numéro de votre groupe de TD sur la copie qu'il est inutile de C'est impossible car la longueur moyenne d'un codage c sur une source S est Corrigé L est un code car il s'agit d'un langage préfixe En effet, ∀u, v ∈ L,
[PDF] THEORIE DE LINFORMATION CORRIGES - E-Eisti
TD 1 Corrigé Modélisation mathématique d'une source d'information Remarque : on verra au chapitre 3 (Codage de source) avec l'inégalité de Kraft, qu'un
[PDF] Série dexercices 2 : code de Huffman Problème 1 Problème 2
(e) Calculer l'efficacité de ce code Problème 2 Soit une source qui génère des lettres de l'alphabet A= {a1, a2,a3,
[PDF] Examen C++ - CREATIS
I - Exercice codage de source (25 minutes) Une source binaire génère les symboles s1 et s2 avec les probabilité p(s1)=0,9 et Code corrigé : 11 10 01 00
[PDF] MSY06 : Théorie de lInformation TD n◦2 : Codage de source
TD n◦2 : Codage de source Exercice 1 : Compression des images En considérant que chaque pixel est codé sur un octet, quelle place occupe l' imagette
[PDF] Cours/TD 3 Codage Huffman
`A chaque étape la somme des poids restera égale `a 1 L'algorithme de Huffman produit un code binaire préfixe optimal Exemple Considérons une source discr`
[PDF] Cours/TD 5 Codage Shannon Codage arithmétique : Elias
5 1 De l'algorithme de Fano et Shannon au codage Soit une source discr`ete sans mémoire codée avec des mots code avec de longueurs li li code 1 0 2 10
[PDF] TD 1 ∑ - Raphaël Fournier-Sniehotta
TD 1 TECHNIQUES DE CODAGE ET DE COMPRESSION 1 LANGAGE / CODAGE / +1 2 3 1 Donner un code de Shannon binaire pour la source ci- dessus
[PDF] Codage canal - FR
21 nov 2012 · Codage source : compression des données pour une meilleure efficacité ▫ Codage Corriger les erreurs : FEC (Forward Error Correction) protocoles de Exercice: construire le tableau de décodage standard ▫ Exercice:
[PDF] Corrigés exercices codes correcteurs - LIRMM
Le code par parité impaire n'est pas linéaire, sa capacité de détection est de 1 bit , pour tout n Exercice 4: a: toute erreur sur un nombre impair de bit Pas de
[PDF] virgule fixe et virgule flottant pdf
[PDF] virgule fixe exercices corrigés
[PDF] exercice corrigé codage virgule fixe
[PDF] virgule flottant ieee 754
[PDF] conversion des nombres avec virgule en binaire
[PDF] virgule fixe et virgule flottant
[PDF] nombre flottant binaire
[PDF] codage et décodage définition
[PDF] définition décodage
[PDF] encodage décodage définition
[PDF] codage et décodage de l'information
[PDF] encodage décodage lecture
[PDF] encodage décodage lecture définition
[PDF] encodage definition
21/11/2012 Théorie de l'information - Codage 1 Système de communications
(TNT, 3G, WIFI,...)Source : parole, musique, images, vidéo
Canal : radio, cable, fibre optique, CD
Modulateur / Démodulateur (FC1) : adaptation données numériques canal Codage source : compression des données pour une meilleure efficacité Codage canal : protection des données pour une meilleure fiabilité Codage sourceDécodage
Source
source utilisateur Codage canalCanal Décodage
canal bruit EmetteurModulateur
Récepteur
Démodulateur
21/11/2012 Théorie de l'information - Codage 2
Théorie de l"information et codage
I) Codage de source:
Généralités
Codage entropique (sans pertes)
II) Codage canal
Généralités
Information mutuelle - capacité - Théorème du codage canalCodes en blocs - codage de Hamming
Codes convolutifs - algorithme de Viterbi
21/11/2012 Théorie de l'information - Codage 3
Codage de source - Généralités
Objectif principal
Meilleure efficacité possible: minimiser le débit binaire à transmettreDeux classes d'approches
Pour les sources continues (voix, images, musique) : codage avec pertes car il est nécessaire de quantifier les données. Dans ce cas il y a un second objectif qui est de minimiser la distorsion entre les données originales de la source et les données reconstruites pour l'utilisateurCompromis débit/distorsion
Idées :
Minimiser la distorsion pour les données les plus probables (quantification optimale) Opérer des transformations préalables pour ne quantifier que les données innovantes» (non prédictibles) ou quantifier avec plus de précision les données les plus " perceptibles » (basses fréquences) Pour les sources discrètes (texte, données déjà quantifiées) : codage sans pertes (distorsion nulle) qui s'appuie sur la notion d'entropie (information moyenne) de la source (codage entropique) Idée : moins de bits à transmettre pour les données les plus probablesC'est l'idée du MORSE: E : . Y : -.--
distorsion débit21/11/2012 Théorie de l'information - Codage 4
Codage entropique
Exemple
Information - Entropie
Code préfixe - Inégalité de Kraft
Théorème du codage de source
Code de Huffman
Source étendue
Codage arithmétique
21/11/2012 Théorie de l'information - Codage 5
Exemple
On considère une source X à valeurs dans {Rouge, Vert, Bleu, Jaune} de loi 1 {1/4, 1/4, 1/4, 1/4} ou loi 2 {0.4,0.3, 0.2, 0.1}Code A:R 00 Code B: R 0 Code C: R 0
V 01 V 10 V 1
B 10 B 110 B 10
J 11 J 111 J 01
Le code C n'est pas décodable: 0110 RVVR ou RVB ou JB...Longueur moyenne des autres codes
pour le Code A, on trouve l moy = 2 dans les deux cas (loi 1 ou 2) pour le Code B : avec la Loi 1 : l moy =(1+2+3+3) /4 = 2.25 avec la Loi 2 : l moy = 1*0.4+2*0.3+3*0.2+3*0.1= 1.8Le meilleur code dépend de la loi de la source
Peut on trouver un code meilleur que B pour la source X de loi 2?21/11/2012 Théorie de l'information - Codage 6
Notion d"information
La quantité d'information obtenue lorsque l'évenement X = x se réalise est liée à l'incertitude sur cet évènement: si un évènement est certain, sa réalisation ne nous apporte aucune information, si un évènement est impossible, sa réalisation apporte une information infinie. I(x) = f(p(x)) avec f fonction positive et décroissanteL'information apportée par deux évènements indépendants doit être la somme des informations liées à chacun des évènements.
I(x,y)= f(p(x,y)) = f(p(x)p(y)) = f(p(x)) +f(p(y))I(x) = log
b (1/p(x)) base b arbitraireI(x) = log
2 (1/p(x)) : information en bit (binary unit) Un bit représente la quantité d'information fournie par le choix d'une alternative parmi deux équiprobables.La théorie de l'information, dont on reparlera pour le codage canal est basée sur les travaux de C. Shannon dont l'article de référence est:
"A mathematical theory of communications" paru dans en 194821/11/2012 Théorie de l'information - Codage 7
Information moyenne - Entropie
On considère une source discrète X à valeurs dansA = {a
1 ,a 2 ,...,a M } de loi {p 1 ,p 2 ,...,p M } . L'entropie de cette source, notée H(X), est l'information moyenne: H(X)= i=1:M p i log 2 (1/p iPropriétés:
L'entropie est maximale si les évènements X=a i sont équiprobables.H(X) log
2 (M) L'entropie est minimale (et nulle) si l'un des évènements X=a i est certain Exemple : pour 2 symboles de probabilités p et 1-p21/11/2012 Théorie de l'information - Codage 8
Retour au Codage
On considère une Source discrète X (sans mémoire) à valeurs dans A={a 1 ,a 2 ,...a M } de loi {p 1 ,p 2 ,...,p MLe codage pour cette source consiste à définir des mots de code binaires pour chacun des symboles possibles.
a i c i =(b i,1 ,...,b i,li ) : mot de code de longueur l i associé au symbole a i