La teoría de la información estudia la probabilidad de sucesos inciertos y cuantifica numéricamente la información contenida en un conocimiento dado las probabilidades de los posibles resultados. Claude Shannon inició esta teoría en 1948 para analizar la transmisión de información a través de canales. La teoría examina conceptos como la entropía, la capacidad de canales, la compresión de datos y la detección y corrección de errores.