Thésaurus:théorie de l’information/français
Cette page contient un recueil de vocabulaire en français autour du thème « théorie de l’information ». Ce recueil, appelé thésaurus, ne traite pas du mot lui-même, mais tente de fournir une liste de mots associés au thème dont vous pourriez avoir besoin et qui pourraient vous échapper.
Concepts fondamentaux
- information ; message ; source d'information ; canal de communication
- alphabet ; symbole ; mot
- bruit ; redondance
Mesures et quantités
- entropie (de Shannon) ; entropie conditionnelle
- entropie conjointe ; entropie croisée
- entropie différentielle ; taux d'information
- information mutuelle ; divergence de Kullback-Leibler
- divergence de Jensen-Shannon ; capacité de canal
Principes, théorèmes et inégalités
- théorème du codage de source ; théorème du codage de canal
- limite de Shannon ; principe du traitement des données
- inégalité de Kraft-McMillan ; borne de Fano
Modèles de sources
- source discrète ; source stationnaire
- source ergodique ; chaîne de Markov
Modèles de canaux
- canal discret sans mémoire ; canal binaire symétrique
- canal d’effacement binaire ; bruit blanc gaussien additif
Codage de source (compression)
- codage de Huffman ; codage arithmétique
- Lempel-Ziv ; codage d’Elias ; codage de Golomb
- compression sans perte ; compression avec perte ; quantification
Codage de canal (correction d’erreurs)
- mot de code ; distance de Hamming
- codes linéaires ; codes à blocs ; codes convolutifs
- code LDPC ; turbo-code
Décision / estimation
- vraisemblance ; maximum de vraisemblance
- maximum a posteriori ; décodage ; détection
Liens et domaines connexes
- théorie des codes ; cryptographie
- compression de données ; statistiques
- télécommunications ; apprentissage automatique