Deuxième partie - cours, examens
Code secret de Jules César – Chiffrement par substitution une lettre en remplace une autre – Exemple très simple de cryptographie conventionnelle : Algorithme : décalage des lettres de l’alphabet Clé : nombre de lettre de décalage – Si on utilise 3 comme valeur de la clé la lettre A est remplacé par D, B par E, C par F etc :
SUJET + CORRIGE - Université de Bordeaux
solution au probl eme de la s election Dans cet exercice, nous allons adapter des algorithmes de tri vus en cours a n d’obtenir des algorithmes de rang plus e caces que le pr ec edent Dans toute la suite de l’exercice, vous pourrez utiliser la fonction classique Echange(T,i,j) qui echange les valeurs du tableau T indic ees par i et j
Plan de cours IFT585 – automne 2007
qualité du français Des consignes supplémentaires ou des modifications pourront être communiquées au cours du trimestre La durée des examens est de trois heures – aucune documentation n’est permise et l’usage de la calculatrice est interdit
Cryptographie : outils mathématiques
La plupart des primitives de chiffrement s’appliquent à des nombresentiers (chiffrements arithmétiques) ou à des blocs de bits (opérations booléennes) Les données qu’on chiffre sont des fichiers qui en général ont des structures liées à des représentationssous forme d’octets(textes par exemple)
Analyse combinatoire et probabilités - Exercices et corrigés
du cours de Joe Blitzstein "Statistic 110 : Probability" de l’université de Harvard et d’autres de "Physique statistique stat-340" de André-Marie Trembley, Université de Sherbrooke Les exercices précédés d’un M dans la table des matières sont des exercices donnés en classe de maturité des gymnases suisses romands durant ces
Probabilités pour la théorie de linformation
—Une autre utilité des probabilités intervient dans les opérations de chiffrement Supposons que nous voulions transmettre une suite de n bits Si nous lui su-perposons une autre suite — la clé de chiffrement — de n bits aléatoires (par addition bit par bit modulo 2), la suite ainsi obtenue devient une suite pure-ment aléatoire
Syllabus ESSI1 - Agence nationale de la sécurité des
L’objectif des cours suivants est d’aborder les grandes familles de primitives et de mécanismes cryptographiques qui existent actuellement Ces sessions se présentent sous la forme de cours théoriques de 3h ainsi que de séances d’exercices de 3h également, permettant de mettre en application les concepts vus en cours
Systèmes d’exploitation INF3600 Exercices + Corrigés Gestion
l’ordonnanceur utilise l'algorithme du tourniquet, avec un quantum de 5 Le temps de commutation est égal à 0 Donnez, dans ce cas, les temps de séjour des processus A, B, C et D 3) Les trois processus utilisent le même périphérique d'E/S dont la file d'attente est gérée premier arrivée premier servi L’ordonnanceur du
Commerce International Exercices Et Cas Corrigã S By Barelier
BASE NATIONALE DES SUJETS D EXAMENS DE L ENSEIGNEMENT Abc Dalf N C1 C2 NE 2018 L Livret CDA pl BTS tertiaires 2017 le sujet et le corrig de l preuve Cas de merce international Exercices et cas Annales Corrig©es 1 Directive Union europenne Exercices et corrig u00e9s Pr u00e9visions pdf Kartable cours en ligne et exercices pour le collge
[PDF] algorithme de dichotomie algobox PDF Cours,Exercices ,Examens
[PDF] algorithme de dichotomie en seconde PDF Cours,Exercices ,Examens
[PDF] algorithme de dichotomie premiere s PDF Cours,Exercices ,Examens
[PDF] algorithme de dichotomie scilab PDF Cours,Exercices ,Examens
[PDF] algorithme de dichotomie seconde PDF Cours,Exercices ,Examens
[PDF] algorithme de dichotomie terminale s PDF Cours,Exercices ,Examens
[PDF] Algorithme de dichotomie, encadrement d'amplitude & #945; 1ère Mathématiques
[PDF] algorithme de dijkstra PDF Cours,Exercices ,Examens
[PDF] algorithme de dijkstra exercice corrigé PDF Cours,Exercices ,Examens
[PDF] algorithme de ford plus long chemin PDF Cours,Exercices ,Examens
[PDF] Algorithme de héron Terminale Mathématiques
[PDF] Algorithme de loi continue / densite Terminale Mathématiques
[PDF] Algorithme de mathématiques 2nde Mathématiques
[PDF] Algorithme de maths 1ère Mathématiques
UFR MathématiquesProbabilités et statistiquepour la théorie de l"information
Notes de cours
Dimitri Petritis
Rennes
Septembre 2019Master de cryptographie
Dimitri Petritis
Institut de recherche mathématique de Rennes
Université de Rennes 1 et CNRS (UMR6625)
Campus de Beaulieu
35042 Rennes Cedex
FranceMathematics subject classification (2010): 60-01 94-01 c2012 - 2019 D. Petritis
Table des matières
1 Aléa et information
11.1 Rôle de l"aléa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 Probabilités et intuition aléatoire . . . . . . . . . . . . . . . . . . . . . . .
31.3 Esquisse du problème d"estimation statistique . . . . . . . . . . . . . . .
31.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 I Théorie des probabilités; statistique mathématique 72 Théorie élémentaire des probabilités
92.1 Espace de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
92.1.1 Espace des épreuves, espace des événements . . . . . . . . . . . .
92.1.2 Probabilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
112.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
152.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
173 Probabilité conditionnelle et indépendance
213.1 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
213.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
243.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
264 Espérance, variance; théorèmes des grands nombres
294.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
294.1.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
294.1.2 Cas continu (à densité) . . . . . . . . . . . . . . . . . . . . . . . . .
304.2 Variance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
314.3 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
324.4 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
324.5 Théorèmes des grands nombres . . . . . . . . . . . . . . . . . . . . . . . .
344.6 Théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . .
374.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
395 Chaînes de Markov sur des espaces d"états dénombrables
435.1 Probabilités de transition, matrices stochastiques . . . . . . . . . . . . . .
435.2 Temps d"arrêt. Propriété forte de Markov . . . . . . . . . . . . . . . . . .
455.3 Classification des états. Recurrence, transience . . . . . . . . . . . . . . .
465.4 Probabilité limite, probabilité invariante (stationnaire) . . . . . . . . . . .
495.5 Stationnarité, réversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . .
515.6 Théorème des grands nombres pour les chaînes de Markov . . . . . . . .
54iii
TABLE DES MATIÈRES TABLE DES MATIÈRES
5.7 Exemples d"applications algorithmiques . . . . . . . . . . . . . . . . . . .
565.7.1 Classification de pages internet; algorithme PageRank . . . . . .
565.7.2 Algorithme de Metropolis . . . . . . . . . . . . . . . . . . . . . . .
575.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
586 Notions de statistique
636.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
636.2 Estimation paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
656.2.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . .
656.2.2 Estimation d"intervalles de confiance . . . . . . . . . . . . . . . .
666.2.3 Tests d"hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . .
676.3 Estimation non paramétrique . . . . . . . . . . . . . . . . . . . . . . . . .
696.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69II Théorie de l"information
717 Quantification de l"information
737.1 Postulats d"une quantité d"incertitude, entropie . . . . . . . . . . . . . . .
737.2 Trois interprétations de l"entropie . . . . . . . . . . . . . . . . . . . . . . .
787.2.1Hest une espérance (qui nous fait vieillir!) . . . . . . . . . . . . .78
la valeur que prend une variable aléatoire . . . . . . . . . . . . . . 787.2.3Hest le rapport des logarithmes du volume des configurations
typiques sur celui de toutes les configurations . . . . . . . . . . . 807.3 Propriétés de la fonction entropie, entropie relative . . . . . . . . . . . .
847.4 Entropie des évolutions markoviennes . . . . . . . . . . . . . . . . . . . .
857.5 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . .
867.5.1 Entropie conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . .
867.5.2 Entropie conditionnelle . . . . . . . . . . . . . . . . . . . . . . . .
877.5.3 Information mutuelle . . . . . . . . . . . . . . . . . . . . . . . . .
887.6 Registres de stockage de l"information . . . . . . . . . . . . . . . . . . . .
897.6.1 Propriétés des registres . . . . . . . . . . . . . . . . . . . . . . . .
897.6.2 Deuxième loi de la thermodynamique, principe de Landauer . .
917.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
938 Sources et leur codage
978.1 Sources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
978.2 Codes uniquement décodables . . . . . . . . . . . . . . . . . . . . . . . .
988.3 Théorème de Shannon sur le codage sans bruit . . . . . . . . . . . . . . .
1018.3.1 Inégalité de Kraft . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1018.3.2 Codes optimaux . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1038.3.3 Algorithme de Huffman pour la construction de codes optimaux
1068.3.4 Examen critique du code de Huffman . . . . . . . . . . . . . . . .
1088.4 Autres types de codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1098.4.1 Le code arithmétique de Shannon-Fano-Elias . . . . . . . . . . . .
1098.4.2 Codage universel et algorithme de Lempel-Ziv . . . . . . . . . . .
1128.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
115/Users/dp/a/ens/ptin.tex
2019-10-1818:08:44.iv
TABLE DES MATIÈRES TABLE DES MATIÈRES
9 Canaux bruités sans mémoire
1199.1 Modélisation markovienne . . . . . . . . . . . . . . . . . . . . . . . . . . .
1199.2 Classification des canaux . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1209.2.1 Canaux sans perte . . . . . . . . . . . . . . . . . . . . . . . . . . .
1209.2.2 Canaux déterministes . . . . . . . . . . . . . . . . . . . . . . . . .
1219.2.3 Canaux sans bruit . . . . . . . . . . . . . . . . . . . . . . . . . . .
1229.2.4 Canaux inutiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1229.2.5 Canaux symétriques . . . . . . . . . . . . . . . . . . . . . . . . . .
1229.3 Capacité du canal, propriétés de la capacité . . . . . . . . . . . . . . . . .
1239.4 Un exemple illustratif simple . . . . . . . . . . . . . . . . . . . . . . . . .
1249.5 Le théorème fondamental de la transmission . . . . . . . . . . . . . . . .
1259.5.1 Codage du canal bruité . . . . . . . . . . . . . . . . . . . . . . . .
1259.5.2 Probabilité d"erreur de transmission . . . . . . . . . . . . . . . . .
1279.5.3 Le théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1289.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13010 Chiffrement
13310.1 Sécurité des communications . . . . . . . . . . . . . . . . . . . . . . . . .
13310.1.1 Le chiffrement comme code . . . . . . . . . . . . . . . . . . . . . .
13310.1.2 Les niveaux de sécurité . . . . . . . . . . . . . . . . . . . . . . . .
13410.2 Code de Vernam(one-time pad). . . . . . . . . . . . . . . . . . . . . . . .136
10.3 Authentification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13910.3.1 Illustration du problème et notation . . . . . . . . . . . . . . . . .
13910.3.2 Minoration de la probabilité de fraude . . . . . . . . . . . . . . . .
14010.4 Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14110.5 Qu"est-ce la cryptographie post-quantique? . . . . . . . . . . . . . . . . .
14110.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14211 Codes correcteurs d"erreur
14311.1 La borne de Hamming . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14411.2 Codage par test de parité . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14411.3 Bornes bilatères de l"abilité de correction pour codes par test de parité .
14411.4 Bornes pour codes binaires généraux . . . . . . . . . . . . . . . . . . . . .
14411.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
144Références
146Index150
/Users/dp/a/ens/ptin.tex2019-10-1818:08:44.v
TABLE DES MATIÈRES TABLE DES MATIÈRES
/Users/dp/a/ens/ptin.tex2019-10-1818:08:44.vi
1Aléa et information
Des nos jours, le codage, le stockage, la transmission, le traitement, l"extraction et le chiffrement de l"information se font de manière algorithmique sur des messages numé- riques que nous pouvons toujours considérer comme des suites de bits. On peut donc légitimement s"interroger qu"ont à faire les probabilités et la statistique - branchesmathématiques étudiant le caractère aléatoire des phénomènes - dans cet univers al-
gorithmique.1.1 Rôle de l"aléa
De manière générale, il y a plusieurs phénomènes purement déterministes qui pré-
sentent une indétermination aléatoire. Par exemple le lancer d"une pièce est une ex-périence déterministe, l"aléa résulte de l"imprécision dans la définition de la condi-
tion initiale. Un système dynamique chaotique est un objet purement déterministe; le comportement aléatoire est dû à l"imprécision avec laquelle on peut représenter des fonctions très irrégulières. La mesure d"une grandeur est un processus déterministe; l"aléa dans l"estimation de la valeur et la probabilité que l"on attache à cette estimation (intervalle de confiance) est dû à l"imprécision inhérente à toute mesure physique. de la vie de l"information, tantôt de manière fondamentale pour définir la notion même d"information, tantôt comme modélisation d"une nuisance externe ou d"une richesse algorithmique, tantôt comme outil de chiffrement; la statistique intervient tantôt de manière fondamentale pour définir la notion d"extraction d"information, tantôt comme outil d"estimation, tantôt comme outil de quantification de la confiance que nous atta- chons à nos prévisions. En guise de motivation, quelques exemples de l"utilité de probabilités et de la sta- tistique en théorie de l"information sont donnés ci-dessous : Quelle est la quantité d"informationcontenue dans une suite de bits? Pour ré- pondre à cette question, considérons le bit codant le résultat d"une expérience de pile (0) ou face (1) provenant du lancer d"une pièce honnête. L"incertitude avant que le résultat de l"expérience nous soit révélé est totale (100%). Après 11.1. Rôle de l"aléaAléa et informationque le résultat nous soit révélé, l"incertitude est nulle. L"information contenue
dans le bit correspondant au résultat du lancer d"une pièce honnête est égale à la réduction de l"incertitude après révélation du résultat. Nous verrons au cha- pitre 7 que pour une pièce arbitrair e,donnant face avec pr obabilitép2[0,1], l"information contenue dans le bit codant le résultat du lancer est la quantitéH(p) =plog2p(1p)log2(1p)2[0,1],(avec 0log20=0),
connue sous le nom d"entropieouquantité d"information[53,32 ]. Remarquer queH(1/2) =1. Même si la suite de bits es tconstr uitede manièr etotalement déterministe (cor - respondant au casp=0,1 dans l"exemple ci-dessus), pour être utilisée, elle doit être stockée dans un vecteur physique (laser, courant électrique, signal hertzien, molécule d"ADN) et propagée à travers un canal physique (fibre optique, câble, atmosphère, cellule). Le canal introduitnécessairementdu bruit de sorte que la suite des bits reçus est toujours une suite aléatoire. Nous verrons dans le cha- pitre 9 que si le bruit du canalest un bruit symétrique, i.e. P(bit transmis=1jbit émis=0) =P(bit transmis=0jbit émis=1) =p2[0,1], alorslacapacitéducanalestC(p) =1H(p)[54].Onremarquequesip=1/2, le canal symétrique correspondant est totalement inutile car il ne peut trans- mettre aucune information! Une autr eutili tédes pr obabilitésintervient dans les opérations de chiffrement. Supposons que nous voulions transmettre une suite denbits. Si nous lui su- perposons une autre suite - la clé de chiffrement - denbits aléatoires (par addition bit par bit modulo 2), la suite ainsi obtenue devient une suite pure- ment aléatoire. Gilbert Vernam a déposé en 1919 le brevetUS1310719
qui pr o- posa une réalisation physique de ce chiffrement. Il a été démontré par Shannon durant la 2e guerre mondiale (et publié ultérieurement [ 54]) que le chiffrement de Vernam, pourvu que la suite de chiffrement soit utilisée une seule fois, est inviolable. La fonction entropie est de nouveau présente dans les estimations utilisées par Shannon pour montrer ce résultat (cf. chapitre 10 Les codes correcteurs d"erreurpermettent de détecter et/ou corriger certaines erreurs de transmission. Cependant, l"utilisation d"un code correcteur dégrade nécessairement le taux de transmission d"un message car des ressources sont mobilisées pour transmettre les bits supplémentaires qui servent à la détec- tion/correcion des erreurs. Nous verrons au chapitre 11 qu" il existe une fr on- tière dans le plan probabilité d"erreur résiduelle / taux de transmission, appelée frontière de Shannon, au delà de laquelle il n"est pas possible de transmettre de message. La forme de cette frontière est encore déterminée par la fonction d"en- tropie [ 20 21
Cette liste d"exemples d"utilisation des probabilités en théorie de l"information est loin d"être exhaustive. Plusieurs autres aspects de la théorie (codage de la source, codage du canal, reconstitution du message, etc.) nécessitent l"utilisation de méthodes proba- bilistes. Quant à l"utilité de la statistique, elle est vaste. Mentionons ici seulement les aspects inférentiels, c"est-à-dire comment à partir d"un nombre fini d"observations (ou de me- sures) pouvons-nous inférer (déterminer, prédire) les valeurs des grandeurs observées et comment déterminer des intervalles de confiance pour nos prédictions. /Users/dp/a/ens/ptin-intro.tex
2019-08-0914:52:34.2
Aléa et information1.2. Probabilités et intuition aléatoire1.2 Probabilités et intuition aléatoire
Lorsque nous lançons une pièce honnête, il est intuitivement clair que nous nousattendons à obtenir pile avec "probabilité» 50% et face avec la même probabilité et ceci
malgré le fait que le lancer de la pièce est une opération purement déterministe, régie
par les équations de la mécanique newtonienne. L"aléa ne traduit que la connaissance incomplète de la condition initiale et des caractéristiques mécaniques de l"usinage de la pièce. Dans la phrase précédente, nous n"avons pas définie le terme " probabilité ». La si- gnification intuitive que nous donnons est que si nous répétons l"expérienceNfois (ou que nous faisons l"expérience en lançant simultanémentNpièces identiques) et nous notonsN(F)le nombre de fois que nous obtenons " face », le rapportPN(F) =N(F)N tend versP(F) =1/2 lorsqueN!¥. Nous assignons alors le nombreP(F)à la " probabilité d"obtenir face ». Dans cette approche, la notion de probabilité est alorsidentifiée à la notion de la limite de la fréquence relative de réalisation de l"événement
F="obtenir face»=ffaceg,Fétant considéré comme partie d"un ensemble univer- selW=fpile,facegde tous les résultats possibles de l"expérience qui consiste à lancer une pièce.La formulation axiomatique [
33] de lathéorie des probabilitésintroduit la notion d"espace probabilisé comme étant le couple
1(W,P)oùWest un ensemble universel
de tous les résultats possibles d"une expérience etPune fonction qui à chaque partie FWassocie un nombreP(F)2[0,1], sa probabilité. L"interprétation fréquentielle devient alors un théorème de la théorie des probabilités, connu sous le nom deloi des grands nombres(cf. chapitre4 ).1.3 Esquisse du problème d"estimation statistique
Il n"est pas aisé de donner une description des problématiques et des méthodes de la statistique mathématique sans une exposition préalable de la théorie des probabi- lités. C"est pourquoi dans ce chapitre introductif, nous nous limitons à présenter un exemple concret. Supposons que nous disposions d"une pièce qui donne " face » avec une probabi- litéqfixe mais inconnue. Nous voulons estimer cette valeur en effectuant une expé- rience avec cette pièce. Par exemple, on peut la lancerNfois (Nestnécessairement fini pour que l"expérience soit physiquement réalisable), on noteXn2 f0,1gle résultat de chaque lancer et on calcule q N=1N Nå n=11 f0g(Xn). On verra queqNest unestimateur asymptotiquedeqdans le sens que limN!¥qN=q (la limite a lieu dans un certain sens qui sera précisé dans ce cours) et que pour uncertain seuil de confiancec, on peut trouver unintervalle de confiance2IN= [qN1. Nous verrons dans le chapitre2 que cette constr uctionn"est pas possible si Wn"est pas dé-
nombrable; la construction de la fonctionPn"est en général possible que sur une famille spécifique
F P(W), appeléetribu. Le choix deF=P(W)n"est possible que dans le cas dénombrable; dans lecas non-dénombrable, les tribusFutilessont beaucoup plus petites queP(W)(cf. théorème2.1.13 ). Un
espace probabilisé sera donc la donnée du triplet(W,F,P)et non du couple(W,P).2. Cet intervalle est aléatoire.
/Users/dp/a/ens/ptin-intro.tex2019-08-0914:52:34.3
1.4. ExercicesAléa et informationa
N,qN+aN]tel que la probabilité pour que la vraie valeur (déterministe)qappartienne dansINdépasse le seuilc, c"est-à-direP(q2IN)c.1.4 Exercices
Le premier exercice est purement combinatoire; nous introduisons les 4 types delaissons de côté les questions de définition de la notion de probabilité en nous limitant
à la définition empirique (fréquentielle) des probabilités exposée plus haut. Dans ce contexte, les probabilités de ces exercices se calculent comme des rapports de cardi- naux.