1 / 27

I CRYPTOLOGIE traditionnelle

I CRYPTOLOGIE traditionnelle. Sommaire. Les fondements p. 9 Confusion & Diffusion p. 21 Cryptages composés p. 39. I. 1 Les fondements. Sommaire. Modèle Entropies Confidentialité parfaite Distance d’unicité. 1. Modèle. Cryptanalyse. active. passive. x. x. y. E k.

ocean
Télécharger la présentation

I CRYPTOLOGIE traditionnelle

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. ICRYPTOLOGIEtraditionnelle

  2. Sommaire • Les fondements p. 9 • Confusion & Diffusion p. 21 • Cryptages composés p. 39

  3. I. 1Les fondements

  4. Sommaire • Modèle • Entropies • Confidentialité parfaite • Distance d’unicité

  5. 1. Modèle Cryptanalyse active passive x x y Ek Dk’ texte en clair (en)cryptage clé k texte en clair décryptage clé k’ Cryptogramme Cryptographie Gestion des clés

  6. Système cryptographique • <P, C, K ; E, D> • P, C, K ensembles finis • E : P x K  C • D : C x K  P • Notations • x  P y  C k, k’  K • y = E (x,k) x = D (y,k’) • k’ = f(k) k = f-1(k’) f bijective

  7. y = E (x,k)x = D (y,k’) • k’ = f(k) • k = f-1(k’) C K k’ y k Propriétés - D (E(x,k),k’) = x - E(x1,k1) = E(x2,k2)  (k1=k2 x1=x2) P x

  8. Propriétés • pour E et D connus • y est déterminé par x et k • x est déterminé par y et k’ en général k est indépendant de x on souhaite que y soit indépendant de x

  9. 2. Entropies • Entropies brutes • H(P) entropie de P • H(C) entropie de C • H(K) entropie de K • Entropies conditionnelles • H(C/K,P) = 0 C déterminé par P et K • H(P/K,C) = 0 P déterminé par C et K • H(K,P) = H(K) + H(P) K et P indépendants

  10. Propriétés H(K/C) = H(K) + H(P) - H(C) • Preuve Rappel H(X,Y) = H(Y,X) = H(Y/X) + H(X) H(K,P,C) = H(C/K,P) + H(K,P) = H(K) + H(P) H(K,P,C) = H(P/K,C) + H(K,C) = H(K,C) H(K/C) = H(K,C) - H(C) = H(K) + H(P) - H(C)

  11. 3. Confidentialité parfaite • <P, C, K ; E, D > confidentialité parfaite : P et C indépendants : H(P/C) = H(P) : xP yC p(x/y) = p(x) • C(k) = {E(x,k), xP} ensemble des textes cryptés avec k

  12. Confidentialité parfaite  x  P  y  C p(x/y) = p(x)   x  P  y  C p(y/x) = p(y)

  13. Théorème 1 • <P, C, K ; E, D > assure une confidentialité parfaite  H(K) ≥ H(P) • Preuve H(P/C) = H(P,C) - H(C) H(P,C) = H(K,P,C) - H(K/P,C) H(P/C) ≤ H(K,P,C) - H(C) = H(P,K,C) - H(C) = H(P/K,C) + H(K,C) - H(C) = H(K,C) - H(C) = H(K/C) ≤ H(K) H(P/C) = H(P) hypothèse de confidentialité parfaite H(P) ≤ H(K)

  14. Théorème 2 • <P, C, K ; E, D > assure une confidentialité parfaite  |K| ≥ |C| • Preuve  y  C p(y) > 0 sinon on retire y de C confidentialité parfaite   x  P  y  C p(y/x) = p(y) > 0  à tout message en clair on peut faire correspondre tout cryptogramme possible  x  P  y  C  k  K y = E (x,k)

  15.  x  P  y1, y2  C  k1, k2  K y1 = E (x, k1) y2 = E (x, k2) y1 ≠ y2  k1 ≠ k2 E est une fonction  pour chaque texte en clair x, tous les cryptogrammes y doivent être différents, donc toutes les clefs doivent être distinctes  il est possible que y = E(x, k1) = E(x, k2) k1 ≠ k2  un même texte en clair peut être crypté avec 2 clefs différentes et donner le même cryptogramme  il doit y avoir au moins autant de clefs que de cryptogrammes  |K| ≥ |C| C Q F D

  16. Théorème 3 • <P, C, K ; E, D > |K|=|C|=|P| assure une confidentialité parfaite  • k n’est utilisée qu’une seule fois • kK p(k) = 1/|K| • xP, yC,  k unique, Ek(x) = y • Preuve …

  17. Hypothèse : confidentialité parfaite |C| = | {E (x,k) | x  P k  K } | ≤ |K| • il existe au moins une clef k qui crypte un x en un y |C| = |K|  | {E (x,k) | x  P k  K } | = |K| • Il y a autant de clefs que de cryptogrammes • Il n’existe qu’une seule clef k qui crypte un x en un y Soit |K| = n , P = { xi | 1 ≤ i ≤ n } , y  C et ki | E (xi, ki) = y  On appelle ki la clef qui crypte xi en y

  18. confidentialité parfaite • toutes les clefs de cryptage ont la même probabilité • p (ki) = 1 / |K| C Q F D

  19. Réciproque une seule clef k utilisée avec la probabilité 1 / |K| C Q F D

  20. 4. Distance d’unicité • Entropie d’un langage • P vocabulaire • L  P* langage sur P • Exemple langue anglaise • H(P2)  3,9 bits • H(L)  1,25 bits

  21. Redondance d’un langage • Exemple L = langue anglaise • V = {a, b, … z} |P| = 26 • H(L)  1,25 bits • R(L) = 1 - 1,25/log226  1 - 1,25/5  0,75 • Expérience de Claude Shannon • Compréhension d’un texte en retirant aléatoirement 75% des lettres !

  22. Distance d’unicité • Théorème de Shannon U est la plus petite valeur de n, nombre de lettres de yC, telle que la clef k pour laquelle il existe x P, y = E(x,k) soit unique

  23. Preuve K (y) : ensemble des clefs k décryptant y sur un texte x de longueur n |K(y)| - 1 : nombre de clefs « parasites » Sn : nombre moyen de clefs parasites propriété de tout système cryptographique définition de la redondance si n suffisamment grand |C| = |P|

  24. équivoque sur K sachant Cn propriété de l’équivoque inégalité de Jensen propriété de Sn établi précédemment  nombre moyen de clefs parasites quand les clefs sont équiprobables

  25. n0 est la plus petite valeur de n telle que Le nombre moyen de clefs parasites est nul dans le cas où les clefs sont équiprobables Exemple cryptage d’un mot en langue anglaise par substitution mono-alphabétique en supposant toutes les clefs équiprobables |P| = 26 |K| = 26! R(L) = 0,75U = log226! / 0,75 . 4,7  25 Pour un cryptogramme de 25 lettres, en moyenne, un seul cryptage est possible

More Related