[PDF] [PDF] Examen C++ - CREATIS

I - Exercice codage de source (25 minutes) Une source binaire génère les symboles s1 et s2 avec les probabilité p(s1)=0,9 et Code corrigé : 11 10 01 00



Previous PDF Next PDF





[PDF] correction - Formations en Informatique de Lille

Veuillez indiquer le numéro de votre groupe de TD sur la copie qu'il est inutile de C'est impossible car la longueur moyenne d'un codage c sur une source S est Corrigé L est un code car il s'agit d'un langage préfixe En effet, ∀u, v ∈ L, 



[PDF] THEORIE DE LINFORMATION CORRIGES - E-Eisti

TD 1 Corrigé Modélisation mathématique d'une source d'information Remarque : on verra au chapitre 3 (Codage de source) avec l'inégalité de Kraft, qu'un 



[PDF] Série dexercices 2 : code de Huffman Problème 1 Problème 2

(e) Calculer l'efficacité de ce code Problème 2 Soit une source qui génère des lettres de l'alphabet A= {a1, a2,a3, 



[PDF] Examen C++ - CREATIS

I - Exercice codage de source (25 minutes) Une source binaire génère les symboles s1 et s2 avec les probabilité p(s1)=0,9 et Code corrigé : 11 10 01 00



[PDF] MSY06 : Théorie de lInformation TD n◦2 : Codage de source

TD n◦2 : Codage de source Exercice 1 : Compression des images En considérant que chaque pixel est codé sur un octet, quelle place occupe l' imagette 



[PDF] Cours/TD 3 Codage Huffman

`A chaque étape la somme des poids restera égale `a 1 L'algorithme de Huffman produit un code binaire préfixe optimal Exemple Considérons une source discr`  



[PDF] Cours/TD 5 Codage Shannon Codage arithmétique : Elias

5 1 De l'algorithme de Fano et Shannon au codage Soit une source discr`ete sans mémoire codée avec des mots code avec de longueurs li li code 1 0 2 10



[PDF] TD 1 ∑ - Raphaël Fournier-Sniehotta

TD 1 TECHNIQUES DE CODAGE ET DE COMPRESSION 1 LANGAGE / CODAGE / +1 2 3 1 Donner un code de Shannon binaire pour la source ci- dessus



[PDF] Codage canal - FR

21 nov 2012 · Codage source : compression des données pour une meilleure efficacité ▫ Codage Corriger les erreurs : FEC (Forward Error Correction) protocoles de Exercice: construire le tableau de décodage standard ▫ Exercice: 



[PDF] Corrigés exercices codes correcteurs - LIRMM

Le code par parité impaire n'est pas linéaire, sa capacité de détection est de 1 bit , pour tout n Exercice 4: a: toute erreur sur un nombre impair de bit Pas de 

[PDF] combien d'information sont représentées par 15 bits

[PDF] virgule fixe et virgule flottant pdf

[PDF] virgule fixe exercices corrigés

[PDF] exercice corrigé codage virgule fixe

[PDF] virgule flottant ieee 754

[PDF] conversion des nombres avec virgule en binaire

[PDF] virgule fixe et virgule flottant

[PDF] nombre flottant binaire

[PDF] codage et décodage définition

[PDF] définition décodage

[PDF] encodage décodage définition

[PDF] codage et décodage de l'information

[PDF] encodage décodage lecture

[PDF] encodage décodage lecture définition

[PDF] encodage definition

Examen Théorie de l'Information

Documents autorisés, durée 1 heure

Correction Correction Correction Correction Correction Correction

I - Exercice codage de source (25 minutes)

Une source binaire génère les symboles s

1 et s 2 avec les probabilité p(s 1 )=0,9 et p(s 2 )=0,1.

Les deux symboles sont indépendants.

a) Calculer l'entropie de cette source binaire.

H(S) = 0,469 bit/symbole

b) Calculer l'entropie de la source étendue, constituée de n=3 symboles de la source binaire. H(S 3 )=3.H(S)=1,4 bit/symbole c) Donner la probabilité de chacun des symboles de la source étendue.

Cf tableau reponse d)

d) On code la source étendue par un codage binaire de Huffman. Donner le code obtenu pour chaque symbole de la source étendue.

Symboles

S k

Probabilités

p(S k

Longueurs des mots-

code l k

Mots-code

c k S 1 = s 1 s 1 s 1

0,729 1 0

S 2 = s 1 s 1 s 2

0,081 3 100

S 3 = s 1 s 2 s 1

0,081 3 101

S 4 = s 2 s 1 s1

0,081 3 110

S 5 = s 2 s 2 s 1

0,009 5 11100

S 6 = s 2 s 1 s 2 0,009

5 11101

S 7 = s 1 s 2 s 2

0,009 5 11110

S 8 = s 2 s 2 s 2

0,001 5 11111

e) Calculer l'efficacité 1 du code de la source binaire initiale, l'efficacité 2 du code de la source étendue et l'efficacité 3 du code de la source codée. Conclusion ? 1 = 0,469 ; 2 1 ; 3 =0,875 le regroupement de n symboles n'augmente par l'efficacité le codage d'un regroupement de symboles augmente l'efficacité, ici optimal mais non optimal obsolu.

II - Exercice codage de canal (35 minutes)

Une source binaire d'entropie maximale est codée par le codeur convolutif récursif systématique suivant : e n-1 e n-2 x ne n y 1,n y 2,n Figure 1 : codeur convolutif récursif systématique a) Etablir les équations logiques de y 1,n , y 2,n et e n y 1,n = x n y 2,n = x n e n-1 e n-2 e n = x n e n-1 b) Faire le diagramme d'état du codeur. Préciser les notations utilisées ! 00 01 11 10 00 00 11 1101
01 10 10 y 1,n / y 2,n e n-1 / e n-2 x n = 0 x n = 1 c) Donner les séquences x n ayant générés les messages suivant : " 00 11 01 11 » et " 10 10 01 00 ». Remarque ?

00 11 01 11 OK 0 1 0 1 même code malgré les deux possibilités !!

10 10 01 00 OK 1 1 0 0 même code malgré les deux possibilités !!

Les deux sorties d'un état ont entre elles une Dmin = 2 !!! Symétrie du diagramme : 2 etats sont bouclants sur 00 (etat 00 et 11)

Initialisation en 00 ou 11 sans importance.

d) Déduire des questions précédentes la distance de Hamming minimum entre deux mots-code de ce codeur (attention il y a deux états bouclant sur 00...). Dmin = 3 = D( 00 00 00 00 00..., 11 01 00 00 00 ...) e) Vérifier que le message suivant " 11 11 01 00 » ne provient pas du codeur. Corriger et décoder ce message (état initial du codeur " 00 »).

11 11 01 00 pas ok car deux " 11 » successifs !

Dmin = 3 donc une erreur corrigeable

Deux solutions : directement via le diagramme (20 secondes) ou Viterbi (10 min).

Code corrigé : 11 10 01 00

Décodage : 1 1 0 0

f) Après le codage de i symboles x n de la source, il faut ajouter un seul symbole de vidage (0). Donner le taux d'émission du codeur pour i=1 et i=. )1(2 i i iR, R(1) = 1/4 ; R()=1/2.quotesdbs_dbs5.pdfusesText_9