La entropía mide el desorden de un sistema físico o químico y su proximidad al equilibrio térmico, pudiendo ser entendida como el grado de "desorden" en un sistema. Se define también como la segunda ley de la termodinámica. En teoría de la información, la entropía de un mensaje es igual a su cantidad de información media, calculándose mediante la fórmula H=log2N, donde N es el número de mensajes posibles en el conjunto.