1 / 72

Transmissions Numériques

Transmissions Numériques. Plan. 1. Un exemple de système de télécommunication évolué 2. Théorie de l’information 3. Codage correcteur d’erreurs 4. Les modulations numériques 5. Techniques avancées. 1. La mission Cassini-Huygens. 1. La mission Cassini-Huygens.

yves
Télécharger la présentation

Transmissions Numériques

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Transmissions Numériques

  2. Plan • 1. Un exemple de système de télécommunication évolué • 2. Théorie de l’information • 3. Codage correcteur d’erreurs • 4. Les modulations numériques • 5. Techniques avancées

  3. 1. La mission Cassini-Huygens

  4. 1. La mission Cassini-Huygens • Question : quelles doivent être les caractéristiques d’un système de télécommunication numérique pour permettre la réception d’images sans erreurs depuis un point situé à 1,25milliards de kms de la terre ?

  5. 1. La mission Cassini-Huygens • Le sous-système de télécommunication de la sonde :

  6. 1. La mission Cassini-Huygens • Le sous-système de télécommunication de la sonde : • Trois antennes : deux LGA et une HGA de 4m de diamètre avec G = 48dB • Emission et réception en bande X (8,4GHz/E et 7.2GHz/R). Puissance d’émission = 20W ! • Débit en réception : 1kbits/s. Débit en émission variable de 14,22 à 165,9kbits/s • Les données recueillies sont enregistrées à raison de 15h/jours puis transmises pendant 9h/jour. La station DSN de Goldstone reçoit ainsi 1Go/jour sur une antenne de 34m ou jusqu’à 4Go/jour sur une antenne de 70m.

  7. 1. La mission Cassini-Huygens • Exercice : • Quelle est la densité de puissance rayonnée au niveau de la Terre ? • Calculer l’affaiblissement de la liaison : • L’antenne de réception possède un gain Gr = 74dB, son facteur de gain est de fgr = 0,66. En déduire le diamètre de l’antenne.

  8. 1. La mission Cassini-Huygens • Un réseau de « grandes oreilles » : le Deep Space Network (DSN) :

  9. 1. La mission Cassini-Huygens

  10. 1. La mission Cassini-Huygens • Exercice : déterminer le rapport signal sur bruit d’une transmission de la sonde Cassini. G/T = 62dB, rb =100kbits/s, Lo = 1,6dB, k =1,38e-23. CCE ? les liens intéressants http://telecom.esa.int/wbts/wbts/cws/menus/home/index.htm# http://deepspace.jpl.nasa.gov/dsndocs/810-005/stationdata.cfm http://saturn.jpl.nasa.gov/home/index.cfm

  11. 2. Théorie de l’information • Les bases sont posées par C. Shannon en 1948 « A Mathematical Theory of Communication » :

  12. 2. Théorie de l’information • Définition de l’information : • L’information envoyée par une source numérique X lorsque le jième message est transmis est : • Définition de l’entropie ou information mutuelle moyenne : H(X) s’exprime en bits (binary units)

  13. 2. Théorie de l’information • Comment s'assurer de l'efficacité de la représentation des données émises par une source ? • Longueur moyenne d’un code : • Le premier théorème de Shannon : La longueur moyenne d'un code quelque soit le procédé d'encodage de source possède la limite suivante :

  14. 2. Théorie de l’information • On peut alors définir le critère d'efficacité suivant : • Il existe plusieurs procédés permettant de s’approcher de la limite théorique : Huffmann, Lempel-Ziv… • Le 2ème théorème de Shannon : codage de canal : • Soit une source X d’entropie H(X) qui émet des symboles chaque Ts secondes sur un canal de transmission de capacité C utilisé chaque Tc secondes. • Si :

  15. 2. Théorie de l’information • Il existe une possibilité de codage pour laquelle les données de la source peuvent être transmises sur le canal et reconstituées avec une très faible probabilité d'erreur. Le paramètre C/Tc est appelé le débit critique. • Rem : Ce théorème ne donne pas d'indication pour construire le code idéal ni de résultat précis quant à la probabilité d'erreur. • 3ème théorème de Shannon : capacité d’un canal BBAG de bande passante limitée B :

  16. 2. Théorie de l’information

  17. 2. Théorie de l’information • Exercice : Une image de télévision noir et blanc est constituée de 3.105 pixels, chacun de ces pixels peuvent prendre un niveau de luminosité parmi 10 avec la même probabilité. On suppose que le rythme de transmission est de 30 images par secondes et que SNR = 30dB. Déterminer la BP requise pour la transmission de ce signal. • H(X) = log2(10) = 3,32bits • RB = H(X).30.3.105 = 29,9Mbits/s • B = RB/log2(1001)  3MHz

  18. 3.CCE • Gain de codage :

  19. 3.CCE 1970 1950 1960 • Historique des CCE Shannon’s Paper 1948 Hamming defines basic binary codes Gallager’s Thesis On LDPCs Berlekamp and Massey rediscover Euclid’s polynomial technique and enable practical algebraic decoding BCH codes Proposed Viterbi’s Paper On Decoding Convolutional Codes Reed and Solomon define ECC Technique Forney suggests concatenated codes

  20. 3.CCE • Historique des CCE (suite) 2000 1980 1990 LDPC beats Turbo Codes For DVB-S2 Standard - 2003 RS codes appear in CD players Berrou’s Turbo Code Paper - 1993 Renewed interest in LDPCs due to TC Research Turbo Codes Adopted into Standards (DVB-RCS, 3GPP, etc.) TCM Heavily Adopted into Standards

  21. 3.CCE • On peut classer les CCE en fonction de leur structure. On a deux grandes familles : • Les codes en blocs linéaires : • Définition (Code en blocs) : Un code en blocs de taille M et de longueur n, défini sur un alphabet de q symboles, est un ensemble de M séquences q-aires de longueur n appelées mots de code. Si q=2, les symboles sont des bits. Généralement, M=qk, k étant un entier. Le code sera désigné par la paire (n,k). Chaque séquence de k symboles d'information est codée en un mot de code constitué de n symboles. k est appelé dimension du code. Un code en blocs associe donc aux k symboles d'information un mot de code de n symboles.

  22. 3.CCE • Définition : (Rendement) : Le rendement R d’un code en blocs (n,k) est : • La théorie de l'information indique que les très longs codes en blocs sont les plus puissants. De tels codes sont difficiles à chercher théoriquement et nécessitent des circuits compliqués pour réaliser les opérations de codage etde décodage. • Les codes en blocs sont caractérisés par trois paramètres : leur longueur n, leur dimension k et leur distance minimale dmin La distance minimale mesure la différence entre les deux mots de code les plus similaires.

  23. 3.CCE • Définition (Distance de Hamming) : Soient x et y deux séquences q-aires de longueur n. La distance de Hamming entre x et y, notée dH(x,y), est le nombre de symboles différents entre les deux séquences. • Exemple : Considérons deux séquences binaires x=10101 et y=01100. La distance de Hamming dH(x,y) est égale à 3. • Définition (Distance minimale) : Soit C={ci,i=1,…,M} un code en bloc. La distance minimaledmindu code C est la distance de Hamming entre les deux mots de code les plus proches :

  24. 3.CCE • Définition (Capacité de correction) : La capacité de correction d’un code en blocs est donnée par : • Un code en blocs linéaire est facilement décrit par sa matrice génératrice G. Ainsi la méthode de codage s’écrit-elle : c=i.G • Tout code en blocs admet une matrice de test de parité telle que : G.HT=0 • Définition (code systématique) : Un code systématique est un code dans lequel un mot de n symboles contient les k symboles d'information non modifiés. Les n-k symboles restant sont appelés symboles de parité. G est équivalente à une matrice de la forme :

  25. 3.CCE • Exemple : code de Hamming (7,4) : • Quels sont les mots du code ? Ce code est-il systématique ? • Donner dmin et en déduire la capacité de correction de ce code • Calculer H • Soit r =(1001001) un mot reçu. Montrer qu’il contient une erreur et que le récepteur peut la localiser et la corriger.

  26. 3.CCE • Les codes en blocs performants : • BCH : Bose, Chaudhuri, Hocquenghem • Reed-Muller • Reed-Solomon (GF2^N) : lecteurs de CD/DVD, Cassini (255,223)

  27. 3.CCE • Les codes convolutifs : ils forment une classe extrêmement souple et efficace de CCE. Ce sont les codes les plus utilisés dans les systèmes de télécommunications fixes et mobiles. Contrairement aux codes en blocs chaque mot du code dépend du message à l’instant t mais aussi des messages précédents  longueur de contrainte . • Exemple d’encodeur (2,1,2) :

  28. 3.CCE • Définition (longueur de contrainte) : La longueur de contrainte d’un code convolutif est égale au nombre d’éléments retard de son encodeur. =2 dans l’exemple précédent. • Un code convolutif peut être décrit soit par sa matrice génératrice G, soit par sa matrice de test de parité H. La représentation de ces matrices se fait soit en utilisant la transformée en D, soit en par des nombres en base 8. Elle permet la construction de l’encodeur. • Définition (Transformée en D) : Une séquence de bits, {am} peut être représentée par sa transformée en D :

  29. 3.CCE • Exemple : • Déterminer G pour le codeur de l’exemple précédent • Encoder la séquence suivante : u = (1 0 0 1 1) en utilisant la transformée en D. • Mettre G sous forme systématique et en déduire une nouvelle représentation de l’encodeur. • Tables de codes : La détermination de « bons » codes convolutifs à fait l’objet de nombreuses recherches et le concepteur a à sa disposition des tables de codes.

  30. 3.CCE Codes de rendement ½ de distance libre maximale • Exemple : Construire l’encodeur associé au code (2,1,3) de la table.

  31. 3.CCE • Définition : (distance libre) : La distance libre dfree d’un code convolutif est égale à la plus petite distance de Hamming qui existe entre deux séquences qui divergent puis convergent de nouveau : où v’ et v’’ sont les mots du code correspondant aux séquences u’ et u’’. C’est cette distance qui affecte les performances asymptotiques d’un code.

  32. 3.CCE • Représentations graphiques de l’encodeur convolutif : • Le graphe d’état :

  33. 3.CCE • Représentations graphiques de l’encodeur convolutif : • Le treillis : • Exemple : A l’aide de Matlab, afficher le treillis du code (2,1,3) de l’exemple précédent. Retrouver les résultats de l’exemple de la diapo 25

  34. 3.CCE • Décodage selon le critère du maximum de vraisemblance : l’algorithme de Viterbi : A partir du trellis du code convolutif, on réalise les étapes suivantes : • On démarre le treillis à l’état 0, • On calcule le métrique de branche k de toutes les branches et pour chaque état du treillis , • Pour chaque branche, on additionne le métrique de branche k au métrique d’état précédent ce qui donne le métrique cumulé, • Pour chaque état, on sélectionne le chemin qui possède le métrique cumulé le plus faible (appelé survivant) et on élimine les autres chemins. En cas d’égalité, on tire au sort le survivant, • On revient à l’étape 2 jusqu’à la fin de la séquence à décoder. • A la fin du treillis, on sélectionne la branche de plus faible métrique et on remonte le treillis en passant par le chemin de plus faible métrique ; chaque branche traversée donne la valeur des bits d’information (1 bit dans le cas de l’exemple).

  35. 3.CCE • Exemple : Pour illustrer simplement les capacités de correction des erreurs de l’algorithme nous décodons la séquence v = [10 10 11 11 01] qui contient une erreur en position 1 :

  36. 3.CCE • Techniques d’implémentation : • Profondeur du treillis p  6 • Décision dure/décision souple :

  37. 3.CCE • Performances des codes convolutifs : • Influence de la longueur de contrainte :

  38. 3.CCE • Performances des codes convolutifs : influence du rendement : • Et si on revenait à CASSINI ?

  39. 3.CCE • Les CCE approchant la capacité de Shannon :

  40. Systematic Output Input Encoder #1 puncturing MUX Parity Output Interleaver Encoder #2 3.CCE • Les Turbo-Codes : 1993 Berrou, Glavieux • Turbo codeur : • Codeurs de type RSC, Entrelaceur pseudo-aléatoire • Décodeur MAP trop complexe  décodage itératif

  41. 3.CCE • Turbo-Codes (suite) : • Décodeur itératif : Deinterleaver EI EI APR Interleaver APR Decoder #1 Decoder #2 systematic data hard bit decisions parity data APP APP DeMUX Interleaver

  42. 3.CCE • Turbo-Codes (suite) : • Performances :

  43. 3.CCE • Les LDPC (Low Density Parity-check Codes) : • Gallager 1962, redécouverts par McKay en 1996. • Codes en blocs, matrice G creuse, décodage itératif • Bonnes performances pour blocs courts • Très proches de la capacité de Shannon pour blocs longs : Chung, et al, “On the design of low-density parity-check codes within 0.0045dB of the Shannon limit”, IEEE Comm. Lett., Feb. 2001 • Complexité au niveau encodeur • Bonne alternative aux TC : adoptés dans les normes DVB-S2 et 802.11n D2

  44. 4. Les modulations numériques • Quand il s'agit de transmettre des données numériques sur un canal passe-bande, il est nécessaire de moduler les données autour d'une porteuse. Il existe quatre techniques principales de modulation numérique selon que le message fait varier l'amplitude, la phase ou la fréquence de la porteuse. Ces techniques sont : • ASK (Amplitude Shift Keying) : modulation d’amplitude • FSK (Frequency Shift Keying) : modulation de fréquence • PSK (Phase Shift Keying) : modulation de phase • QAM (Quadrature Amplitude modulation) : modulation d’amplitude sur deux porteuses en quadrature. • Dans tous les cas, le principe consiste à utiliser des symboles binaires pour modifier les caractéristiques d’une ou plusieurs porteuses.

  45. 4. Les modulations numériques • L’exemple de la modulation QPSK : • Dans ce cas, la phase de la porteuse prend 4 valeurs différentes correspondant au « transport » de deux bits par symbole. Chaque signal de durée Ts s’écrit : • Es est l’énergie du symbole et fc = nc/Ts est la fréquence de la porteuse. • La durée d’un symbole est égale à Ts = Tb.log2(4)=2.Tb. • Exercice : • Montrer que le signal QPSK peut s’écrire sous la forme suivante :

  46. 4. Les modulations numériques • Exercice (suite) : • En déduire la structure du modulateur QPSK. • Représenter sur un graphique à deux dimensions les 4 vecteurs suivants : • Cette représentation graphique s’appelle une constellation. • Montrer que les 4 points s’inscrivent sur un cercle de rayon • Calculer la distance Euclidienne entre les points de la constellation. En déduire la distance Euclidienne minimale entre les points de cette constellation. • Démo MATLAB sur QPSK

  47. 4. Les modulations numériques • Quelques exemples de constellations :

  48. 4. Les modulations numériques • Critères de performance : • Probabilité d’Erreur et Taux d’erreur binaire sur canal à BBAG  Etude du cas de la modulation BPSK : • Le récepteur reçoit :

  49. 4. Les modulations numériques • n représente un bruit blanc de moyenne nulle et de Densité Spectrale de Puissance N0/2 W/Hz. Le seuil de décision du récepteur est fixé à 0. Les densités de probabilités exprimant l’envoi respectivement d’un 1 (s1) ou d’un 0 (s2) s’écrivent :

  50. 4. Les modulations numériques • Supposons l’émission de s2 (0), la probabilité d’erreur est simplement la probabilité que r > 0 : • erfc(u) représente la fonction d’erreur complémentaire :

More Related