TD n◦2 : Codage de source Exercice 1 : Compression des images En considérant que chaque pixel est codé sur un octet, quelle place occupe l' imagette
Previous PDF | Next PDF |
[PDF] correction - Formations en Informatique de Lille
Veuillez indiquer le numéro de votre groupe de TD sur la copie qu'il est inutile de C'est impossible car la longueur moyenne d'un codage c sur une source S est Corrigé L est un code car il s'agit d'un langage préfixe En effet, ∀u, v ∈ L,
[PDF] THEORIE DE LINFORMATION CORRIGES - E-Eisti
TD 1 Corrigé Modélisation mathématique d'une source d'information Remarque : on verra au chapitre 3 (Codage de source) avec l'inégalité de Kraft, qu'un
[PDF] Série dexercices 2 : code de Huffman Problème 1 Problème 2
(e) Calculer l'efficacité de ce code Problème 2 Soit une source qui génère des lettres de l'alphabet A= {a1, a2,a3,
[PDF] Examen C++ - CREATIS
I - Exercice codage de source (25 minutes) Une source binaire génère les symboles s1 et s2 avec les probabilité p(s1)=0,9 et Code corrigé : 11 10 01 00
[PDF] MSY06 : Théorie de lInformation TD n◦2 : Codage de source
TD n◦2 : Codage de source Exercice 1 : Compression des images En considérant que chaque pixel est codé sur un octet, quelle place occupe l' imagette
[PDF] Cours/TD 3 Codage Huffman
`A chaque étape la somme des poids restera égale `a 1 L'algorithme de Huffman produit un code binaire préfixe optimal Exemple Considérons une source discr`
[PDF] Cours/TD 5 Codage Shannon Codage arithmétique : Elias
5 1 De l'algorithme de Fano et Shannon au codage Soit une source discr`ete sans mémoire codée avec des mots code avec de longueurs li li code 1 0 2 10
[PDF] TD 1 ∑ - Raphaël Fournier-Sniehotta
TD 1 TECHNIQUES DE CODAGE ET DE COMPRESSION 1 LANGAGE / CODAGE / +1 2 3 1 Donner un code de Shannon binaire pour la source ci- dessus
[PDF] Codage canal - FR
21 nov 2012 · Codage source : compression des données pour une meilleure efficacité ▫ Codage Corriger les erreurs : FEC (Forward Error Correction) protocoles de Exercice: construire le tableau de décodage standard ▫ Exercice:
[PDF] Corrigés exercices codes correcteurs - LIRMM
Le code par parité impaire n'est pas linéaire, sa capacité de détection est de 1 bit , pour tout n Exercice 4: a: toute erreur sur un nombre impair de bit Pas de
[PDF] virgule fixe et virgule flottant pdf
[PDF] virgule fixe exercices corrigés
[PDF] exercice corrigé codage virgule fixe
[PDF] virgule flottant ieee 754
[PDF] conversion des nombres avec virgule en binaire
[PDF] virgule fixe et virgule flottant
[PDF] nombre flottant binaire
[PDF] codage et décodage définition
[PDF] définition décodage
[PDF] encodage décodage définition
[PDF] codage et décodage de l'information
[PDF] encodage décodage lecture
[PDF] encodage décodage lecture définition
[PDF] encodage definition
Théorie de l"Information
Année 2017 - 2018
L1 Semestre 2TD 2 : Information selon Shannon et codage optimal1 Inégalité de Kraft (suite)
Exercice 1
1.Utilisez l"inégalité de Kraft p ourmon trerqu"il est p ossiblede construire u nco depréfixe binaire
pour les caractèresa:::favec les longueurs de code suivants :caractèreabcdef longueur234243 2. Construisez effe ctivementun arbre de co dagep ourcet exemple. 3. V ousconstatez qu"un co den"est pas utilis é.Lequel ? 4.Évidemmen t,une telle situation est em bêtantesurtout p ourle déco dagede mess ages(certains
messages ne peuvent pas être décodés). Montrez que tout alphabet fini avec au moins deux ca-
ractèresA1peut être codé par un code préfixe binaire, donc par une fonctionc:A1! f0;1g+,de telle manière qu"il n"y ait pas de codes non utilisés. (Bien sûr, ceci n"est pas possible pour
n"importe quelles contraintes sur les longueurs des codes.) Donnez un tel code pour les caractères
a:::f. 5. Mon trezque ceci n"est pas toujours p ossiblesi on utilise un co deternaire (donc un arbre d e décodage ou chaque noeud est une feuille ou a exactement trois successeurs).2 Entropie et longueur de codes
Exercice 2Dans cet exercice, nous nous intéressons à un codage des caractèresa;b;c;dpar des séquences
de nombres binaires, et du temps de transmission d"un texteTde 100 caractères sur le canalCqui peut
transmettre 20 bit/sec, donc 20 chiffres binaires par seconde. 1.Supp osonsque l"o ccurrencedes caractères est équiprobable, et que les caractères a;:::dsont codés
par00;:::11respectivement. Combien de temps faut-il pour communiquer le texte sur le canalC? 2.Supp osonsmain tenantun esource d"information Sdont la probabilité des caractères est indiquée
dans ce tableau :caractèreabcd probabilité0.50.20.20.1 et que nous continuons à coder les caractères comme dans ( 1 ). Quelle est l"espérance de la taille du code du texteT, et, en moyenne, son temps de transmission surC? 3. Nous essa yonsd"optimiser et nous prop osonsle co desuiv ant: caractèreabcd code0101101110 Vérifiez bien qu"il s"agit d"un code préfixe! Pour la distribution de probabilité de ( 2 ), nous posons de nouveau la question de la taille moyenne deTet du temps de transmission surC. 4.Calculez l"en tropiede la source Sde (2) pour obtenir une borne inférieure du temps de transmission
deTsurC. 5.Il s"a vèreque le co dede (
3 ) n"est pas encore optimal. Utilisez l"algorithme de Huffman pour calculer un code optimal. Comparez avec l"entropie.Théorie de l"Information 2017 - 2018 1 TD 2
Exercice 3Une source d"information émet les caractèresa,b,c,dselon la distribution de probabilité
suivante :abcd0.40.20.30.1
1. Quelle est l"en tropiede cette source d"information ? 2. Construisez l"arbre de Huffman et attribue zun co debinaire optimal à c hacundes caractères a,b,c,d. Calculez la taille moyenne du code, et comparez-la à l"entropie. 3.Un collègue v ousdit qu"il arriv eà co derun texte de 24 caractères a vec18 bits. V ouslui dites qu"il
se trompe. Quelle est votre justification? 4. V otrecollègue v ousprésen teun exemple : aaaaaaaaccccccccbbbbddddcodé par00111.10111.0111.1111. Son idée : Coder les caractèresa...dpar00...11, suivi du nombre
n1codé en binaire, pournoccurrences consécutives du caractère. Par exemple, ceci donne0111 pour la séquence de 4b. Où est le malentendu?Exercice 4Les deux parties du théorème de Shannon donnent des bornes (inférieure et supérieure) pour
un code optimal, en fonction de l"entropie de la source d"information que le code est censé coder. Cet
exercice a pour but d"explorer ce rapport plus en détail. 1.Une source émet les caractères a,b,c,d,eselon la distribution de probabilité suivante :abcde
1 2141
81
161
16 Construisez l"arbre de Huffman, calculez la taille moyenne du code et comparez avec l"entropie.
Constat?
2.V ousobserv ezque toutes les p robabilitésde l"exemple précédan ton tla forme 2k. A quelle pro-
fondeur de l"arbre de codage se trouve un caractère dont la probabilité est2k? 3. F aitesde même p ourla distribution suiv ante: abcde 1 3141
52
151
12 4.
Nous généralisons l"observ ationdu p oint(
1 ) : Supposons qu"une source d"information émet lescaractèresc1:::cnavec des probabilités associéesp1:::pnqui sont toutes des puissances négatives
de 2, donc de la formepi= 2kiet telles quePn i=ipi= 1. Alors, la taille moyenne du code construit par l"algorithme de Huffman est égale à l"entropie de la source. Pour cela, nous montrons les invariants suivants de l"algorithme de Huffman pour l"ensembleA=fa1:::atgdes arbres qu"il manipule :
(a) A tout instan t,tout arbre de l"ens embleAa une racine avec une valeur qui est de la forme 2 k. (b) T antqu"il existen tencore deux arbres dans l"ensem bleA, il existent au moins deux arbres dansAdont la probabilité est minimale.
(c)A tout instan t,l"en tropiede la source est égale à lc(a1) +:::lc(at), où, pour un arbreaavec
racine2k, nous définissonslc(a) =lnm+k(cpf(a)), etcpfest défini comme sur les transparents du cours etlnm+k(E) =P (m;p)2Ep(jmj+k). Assurez-vous que ces propriétés tiennent pour l"exemple du point ( 1 ). Démontrez ensuite qu"ils"agit d"un invariant, à savoir, que les propriétés sont satisfaites au début de l"algorithme; qu"elles
sont préservées par chaque itération; et qu"à la fin, l"invariant implique la proposition (égalité de
la taille moyenne et de l"entropie). 5.En applican tun raisonnemen tsimilaire au p oint(
4 ), vous pouvez généraliser ( 3 ) et montrer que sideux caractères ont des probabilités qui ne sont pas des puissances négatives de 2, alors l"algorithme
de Huffman construit un arbre dont la longueur moyenne est strictement supérieure à l"entropie.