270 likes | 381 Vues
I CRYPTOLOGIE traditionnelle. Sommaire. Les fondements p. 9 Confusion & Diffusion p. 21 Cryptages composés p. 39. I. 1 Les fondements. Sommaire. Modèle Entropies Confidentialité parfaite Distance d’unicité. 1. Modèle. Cryptanalyse. active. passive. x. x. y. E k.
E N D
Sommaire • Les fondements p. 9 • Confusion & Diffusion p. 21 • Cryptages composés p. 39
Sommaire • Modèle • Entropies • Confidentialité parfaite • Distance d’unicité
1. Modèle Cryptanalyse active passive x x y Ek Dk’ texte en clair (en)cryptage clé k texte en clair décryptage clé k’ Cryptogramme Cryptographie Gestion des clés
Système cryptographique • <P, C, K ; E, D> • P, C, K ensembles finis • E : P x K C • D : C x K P • Notations • x P y C k, k’ K • y = E (x,k) x = D (y,k’) • k’ = f(k) k = f-1(k’) f bijective
y = E (x,k)x = D (y,k’) • k’ = f(k) • k = f-1(k’) C K k’ y k Propriétés - D (E(x,k),k’) = x - E(x1,k1) = E(x2,k2) (k1=k2 x1=x2) P x
Propriétés • pour E et D connus • y est déterminé par x et k • x est déterminé par y et k’ en général k est indépendant de x on souhaite que y soit indépendant de x
2. Entropies • Entropies brutes • H(P) entropie de P • H(C) entropie de C • H(K) entropie de K • Entropies conditionnelles • H(C/K,P) = 0 C déterminé par P et K • H(P/K,C) = 0 P déterminé par C et K • H(K,P) = H(K) + H(P) K et P indépendants
Propriétés H(K/C) = H(K) + H(P) - H(C) • Preuve Rappel H(X,Y) = H(Y,X) = H(Y/X) + H(X) H(K,P,C) = H(C/K,P) + H(K,P) = H(K) + H(P) H(K,P,C) = H(P/K,C) + H(K,C) = H(K,C) H(K/C) = H(K,C) - H(C) = H(K) + H(P) - H(C)
3. Confidentialité parfaite • <P, C, K ; E, D > confidentialité parfaite : P et C indépendants : H(P/C) = H(P) : xP yC p(x/y) = p(x) • C(k) = {E(x,k), xP} ensemble des textes cryptés avec k
Confidentialité parfaite x P y C p(x/y) = p(x) x P y C p(y/x) = p(y)
Théorème 1 • <P, C, K ; E, D > assure une confidentialité parfaite H(K) ≥ H(P) • Preuve H(P/C) = H(P,C) - H(C) H(P,C) = H(K,P,C) - H(K/P,C) H(P/C) ≤ H(K,P,C) - H(C) = H(P,K,C) - H(C) = H(P/K,C) + H(K,C) - H(C) = H(K,C) - H(C) = H(K/C) ≤ H(K) H(P/C) = H(P) hypothèse de confidentialité parfaite H(P) ≤ H(K)
Théorème 2 • <P, C, K ; E, D > assure une confidentialité parfaite |K| ≥ |C| • Preuve y C p(y) > 0 sinon on retire y de C confidentialité parfaite x P y C p(y/x) = p(y) > 0 à tout message en clair on peut faire correspondre tout cryptogramme possible x P y C k K y = E (x,k)
x P y1, y2 C k1, k2 K y1 = E (x, k1) y2 = E (x, k2) y1 ≠ y2 k1 ≠ k2 E est une fonction pour chaque texte en clair x, tous les cryptogrammes y doivent être différents, donc toutes les clefs doivent être distinctes il est possible que y = E(x, k1) = E(x, k2) k1 ≠ k2 un même texte en clair peut être crypté avec 2 clefs différentes et donner le même cryptogramme il doit y avoir au moins autant de clefs que de cryptogrammes |K| ≥ |C| C Q F D
Théorème 3 • <P, C, K ; E, D > |K|=|C|=|P| assure une confidentialité parfaite • k n’est utilisée qu’une seule fois • kK p(k) = 1/|K| • xP, yC, k unique, Ek(x) = y • Preuve …
Hypothèse : confidentialité parfaite |C| = | {E (x,k) | x P k K } | ≤ |K| • il existe au moins une clef k qui crypte un x en un y |C| = |K| | {E (x,k) | x P k K } | = |K| • Il y a autant de clefs que de cryptogrammes • Il n’existe qu’une seule clef k qui crypte un x en un y Soit |K| = n , P = { xi | 1 ≤ i ≤ n } , y C et ki | E (xi, ki) = y On appelle ki la clef qui crypte xi en y
confidentialité parfaite • toutes les clefs de cryptage ont la même probabilité • p (ki) = 1 / |K| C Q F D
Réciproque une seule clef k utilisée avec la probabilité 1 / |K| C Q F D
4. Distance d’unicité • Entropie d’un langage • P vocabulaire • L P* langage sur P • Exemple langue anglaise • H(P2) 3,9 bits • H(L) 1,25 bits
Redondance d’un langage • Exemple L = langue anglaise • V = {a, b, … z} |P| = 26 • H(L) 1,25 bits • R(L) = 1 - 1,25/log226 1 - 1,25/5 0,75 • Expérience de Claude Shannon • Compréhension d’un texte en retirant aléatoirement 75% des lettres !
Distance d’unicité • Théorème de Shannon U est la plus petite valeur de n, nombre de lettres de yC, telle que la clef k pour laquelle il existe x P, y = E(x,k) soit unique
Preuve K (y) : ensemble des clefs k décryptant y sur un texte x de longueur n |K(y)| - 1 : nombre de clefs « parasites » Sn : nombre moyen de clefs parasites propriété de tout système cryptographique définition de la redondance si n suffisamment grand |C| = |P|
équivoque sur K sachant Cn propriété de l’équivoque inégalité de Jensen propriété de Sn établi précédemment nombre moyen de clefs parasites quand les clefs sont équiprobables
n0 est la plus petite valeur de n telle que Le nombre moyen de clefs parasites est nul dans le cas où les clefs sont équiprobables Exemple cryptage d’un mot en langue anglaise par substitution mono-alphabétique en supposant toutes les clefs équiprobables |P| = 26 |K| = 26! R(L) = 0,75U = log226! / 0,75 . 4,7 25 Pour un cryptogramme de 25 lettres, en moyenne, un seul cryptage est possible