Thésaurus:théorie de l’information/français

Cette page contient un recueil de vocabulaire en français autour du thème « théorie de l’information ». Ce recueil, appelé thésaurus, ne traite pas du mot lui-même, mais tente de fournir une liste de mots associés au thème dont vous pourriez avoir besoin et qui pourraient vous échapper.

Concepts fondamentaux

Mesures et quantités

  • entropie (de Shannon) ; entropie conditionnelle
  • entropie conjointe ; entropie croisée
  • entropie différentielle ; taux d'information
  • information mutuelle ; divergence de Kullback-Leibler
  • divergence de Jensen-Shannon ; capacité de canal

Principes, théorèmes et inégalités

  • théorème du codage de source ; théorème du codage de canal
  • limite de Shannon ; principe du traitement des données
  • inégalité de Kraft-McMillan ; borne de Fano

Modèles de sources

Modèles de canaux

  • canal discret sans mémoire ; canal binaire symétrique
  • canal d’effacement binaire ; bruit blanc gaussien additif

Codage de source (compression)

  • codage de Huffman ; codage arithmétique
  • Lempel-Ziv ; codage d’Elias ; codage de Golomb
  • compression sans perte ; compression avec perte ; quantification

Codage de canal (correction d’erreurs)

  • mot de code ; distance de Hamming
  • codes linéaires ; codes à blocs ; codes convolutifs
  • code LDPC ; turbo-code

Décision / estimation

Liens et domaines connexes