1. Oficina de Prensa Virtual de Caixa Galicia
Medir la información
@ Angel García Fuentes, 2002
Permítanme dos o tres artículos quizá demasiado especializados, pero con el
firme propósito de escribirlos de la forma más sencilla y asequible posible. Los
artículos nacieron como notas garabateadas al margen de las ponencias y
respuestas a preguntas que me formularon en foros de Comunicación
Empresarial oyentes cuya formación provenía de áreas ajenas a las que han
incubado algunos de los conceptos que veremos más adelante, y que sin
embargo sustentan muchas de las tareas diarias de esos directivos y
profesionales de la empresa, en su mayoría especialistas en informática o en
recursos humanos.
Poco a poco veremos la utilidad de estas teorías, aunque partamos, adrede,
desde su aspecto más árido: el uso de las matemáticas. En algún caso, haré
propuestas puramente personales, y que no se verán respaldadas en trabajos
que yo conozca, al menos.
Comenzaré preguntando si se puede medir la información. Si esta pregunta
tuviera que contestarla un informático o un ingeniero, no tendría duda alguna
antes de responder afirmativamente. Sin embargo, cuando la pregunta viene
formulada desde el área de la comunicación empresarial, las dudas se
agrandan hasta los límites de la confianza en el conocimiento puro.
De hecho, es raro el especialista en ciencias sociales o humanas que afirmaría
que sí rotundamente. Y, sin embargo, el principio que regiría esa posibilidad de
medición sería el mismo en todos los casos.
La información se puede medir. Pero los avances que se han hecho en este
terreno se encuentran en las áreas ligadas a la ingeniería y a la cibernética.
Las aplicaciones de sus principios a las ciencias sociales han sido escasas, y a
las ciencias humanas prácticamente nulas.
El primer problema que se nos plantearía en el caso de intentar medir la
información en una disciplina humanística sería el de definir cuál es la “unidad
básica de información”. Para medidas de longitud, usamos el metro; para
pesos, el gramo. En la mayoría de los estudios se utiliza el bit (que veremos
más adelante) para medir la información, por ser fácilmente comprensible y
extrapolable a los sistemas cibernéticos o a los modelos matemáticos. Sin
embargo, causa desorientación al llevarlo a otros campos, muchas veces
porque quien pretende utilizarlo lo hace desde una óptica extraña a quien es el
público destinatario típico de las ciencias humanas.
Permítanme intentarlo.
La cibernética nos enseñó que si yo voy a visitar a un amigo que vive en un
chalet en las afueras, el foco de luz que existe sobre la puerta de entrada
2. Oficina de Prensa Virtual de Caixa Galicia
podría estar encendido ó apagado (haciendo caso omiso de otras variables a
considerar, como puede ser la hora del día, por ejemplo). Esto significa que el
foco me puede transmitir dos posibles mensajes.
Para un cibernético este ejemplo sería equiparable al de lanzar una moneda al
aire, cuyos resultados posibles serían cara y cruz. En la realidad cotidiana, me
dirán, ambos casos son mentira, puesto que siempre existe una opción que se
suele omitir. En el caso del foco, sería la de “averiada”, que no es igual a
“encendida” y que no es igual a “apagada”. En el caso de la moneda existiría la
opción “de canto”, distinta de “cara” y de “cruz”. Esta tercera opción es en sí
misma un mensaje de imprevisibilidad cercana al máximo, cuya probabilidad es
incluso despreciable, pero que en la práctica diaria hace que las opciones
“encendido” y “apagado” y “cara” y “cruz” no sean equiprobables, sino que la
probabilidad de que el foco esté apagado, por ejemplo, es ligeramente mayor
que la de que esté encendido”, puesto que habría que considerar el porcentaje
de “apagado por avería” como a sumar al de “apagado”.
Pero evitemos estos considerandos. Podemos pensar, pues, que “contar
mensajes” es una forma de medir información, al menos para sistemas simples
como éste.
Si acordamos que ambos mensajes (encendido y apagado) son igualmente
probables, diremos que el sistema “foco” tiene dos mensajes posibles (n) en su
repertorio (N), y que a mí me dirá un mensaje o información cada vez que me
detenga ante la puerta del chalet de mi amigo. Es decir, N (número de
mensajes) es igual a 2, y la I (información) es igual a 1.
Pensemos ahora que hubiera dos focos independientes en el chalet. Estos
podrían estar en una de cuatro combinaciones diferentes, desde el apagado-
apagado hasta el encendido-encendido. Es decir, N = 4 = 22, que me darían
información que valoraría en 2 (I = 2). Y así sucesivamente, N = 2x siendo x el
número de focos, y la I = x. En este caso, 2 sería la base de medida de la
información, los dos posibles mensajes del repertorio del sistema “foco” (n).
A continuación, la cibernética generaliza el concepto y nos dice que
manejemos logaritmos de base dos a efectos de contar con una unidad básica
de información asequible. Así, el bit sería el logaritmo en base dos de 2, que es
1. La base, como hemos visto, es el número posible de alternativas de señal o
información (n) que tiene el sistema (encendido – apagado).
I = Logn N, puesto que n1 = N, por definición de logaritmo, que es el número al
que elevar la base para conseguir N.
En el ejemplo,
- Un foco: n = 2, N = 2, I = 1. Esto es, I = log2 2
- Dos focos: n = 2, N = 4, I = 2. Esto es, I = log2 4
Sin embargo, las señales no son equiprobables, como hemos visto. Yo si voy
siendo día a casa de mi amigo, es más probable que el foco esté apagado a
3. Oficina de Prensa Virtual de Caixa Galicia
que esté encendido. Para mí, la máxima información que me puede dar el foco
es el log2 2, es decir, 1, si ambos mensajes fueran igualmente probables. En la
práctica, yo “espero” que esté apagado, y si realmente lo está, apenas me
proporciona información alguna, puesto que la información es también una
medida de la imprevisibilidad del mensaje.
Aparece aquí un concepto nuevo que manejaremos más adelante, y que está
ligado a la probabilidad del mensaje. Para mí es más “imprevisible” que el foco
esté encendido siendo de día. Es decir, no basta con que cuente mensajes; si
fuera así, simplemente podría establecer como unidad básica de información
las palabras, y decir que cada palabra es una unidad, y para medir un mensaje
contaría palabras. La máxima información, en este supuesto, me la daría el
texto que contiene más palabras, lo cual es una simpleza absurda, puesto que
la información la proporciona no lo que yo sé, sino lo que no sé. No me da más
información la definición de logaritmo cuando la sé que cuando no la sé, y si
me limitara a contar palabras, me daría siempre la misma.
Es decir, no puedo tomar el valor encendido como igual al valor apagado, y su
suma igual a dos. Debo utilizar probabilidades, porque así puedo establecer
diferencias entre los valores de cada n al mismo tiempo que me permite validar
esa unidad básica de información en el caso de considerar otras variables,
como podría ser, por ejemplo, el distinto tipo de públicos receptores del
mensaje. Así, para un matemático, el concepto “logaritmo” no tiene el mismo
valor informativo que para un historiador. De esta forma, pues, podría decir que
el valor “apagado” tiene una probabilidad de 0,9 (90%), el valor “encendido”, de
0,1 (10%).
Cuando se introduce este concepto de probabilidad, la I = log2 N se convierte
en I (apagado) = 0,9 log2 0,9 e I (encendido) = 0,1 log2 0,1. Es decir, en
términos coloquiales, la información de la luz encendida es más alta que la de
luz apagada (para los técnicos, se considera el valor absoluto para evitar
números negativos que no es el momento de explicar), y en el conjunto del
sistema, la información total sería de 0,476 (47’6%), es decir, acertaríamos con
un 52,4% de probabilidad el estado de la luz, o en otras palabras,
conoceríamos el contenido de la información y el mensaje no nos aportaría
nada nuevo a nuestro conocimiento.
En el siguiente capítulo veremos cómo utilizaremos este concepto para medir
nuestra obra cumbre de la literatura, El Quijote.