Medir la información

5.957 visualizaciones

Publicado el

Explicación de la aplicación de la teoría matemática de la información. Completar con lecturas sobre J. Singh.

Publicado en: Educación, Tecnología
0 comentarios
0 recomendaciones
Estadísticas
Notas
  • Sé el primero en comentar

  • Sé el primero en recomendar esto

Sin descargas
Visualizaciones
Visualizaciones totales
5.957
En SlideShare
0
De insertados
0
Número de insertados
7
Acciones
Compartido
0
Descargas
0
Comentarios
0
Recomendaciones
0
Insertados 0
No insertados

No hay notas en la diapositiva.

Medir la información

  1. 1. Oficina de Prensa Virtual de Caixa Galicia Medir la información @ Angel García Fuentes, 2002 Permítanme dos o tres artículos quizá demasiado especializados, pero con el firme propósito de escribirlos de la forma más sencilla y asequible posible. Los artículos nacieron como notas garabateadas al margen de las ponencias y respuestas a preguntas que me formularon en foros de Comunicación Empresarial oyentes cuya formación provenía de áreas ajenas a las que han incubado algunos de los conceptos que veremos más adelante, y que sin embargo sustentan muchas de las tareas diarias de esos directivos y profesionales de la empresa, en su mayoría especialistas en informática o en recursos humanos. Poco a poco veremos la utilidad de estas teorías, aunque partamos, adrede, desde su aspecto más árido: el uso de las matemáticas. En algún caso, haré propuestas puramente personales, y que no se verán respaldadas en trabajos que yo conozca, al menos. Comenzaré preguntando si se puede medir la información. Si esta pregunta tuviera que contestarla un informático o un ingeniero, no tendría duda alguna antes de responder afirmativamente. Sin embargo, cuando la pregunta viene formulada desde el área de la comunicación empresarial, las dudas se agrandan hasta los límites de la confianza en el conocimiento puro. De hecho, es raro el especialista en ciencias sociales o humanas que afirmaría que sí rotundamente. Y, sin embargo, el principio que regiría esa posibilidad de medición sería el mismo en todos los casos. La información se puede medir. Pero los avances que se han hecho en este terreno se encuentran en las áreas ligadas a la ingeniería y a la cibernética. Las aplicaciones de sus principios a las ciencias sociales han sido escasas, y a las ciencias humanas prácticamente nulas. El primer problema que se nos plantearía en el caso de intentar medir la información en una disciplina humanística sería el de definir cuál es la “unidad básica de información”. Para medidas de longitud, usamos el metro; para pesos, el gramo. En la mayoría de los estudios se utiliza el bit (que veremos más adelante) para medir la información, por ser fácilmente comprensible y extrapolable a los sistemas cibernéticos o a los modelos matemáticos. Sin embargo, causa desorientación al llevarlo a otros campos, muchas veces porque quien pretende utilizarlo lo hace desde una óptica extraña a quien es el público destinatario típico de las ciencias humanas. Permítanme intentarlo. La cibernética nos enseñó que si yo voy a visitar a un amigo que vive en un chalet en las afueras, el foco de luz que existe sobre la puerta de entrada
  2. 2. Oficina de Prensa Virtual de Caixa Galicia podría estar encendido ó apagado (haciendo caso omiso de otras variables a considerar, como puede ser la hora del día, por ejemplo). Esto significa que el foco me puede transmitir dos posibles mensajes. Para un cibernético este ejemplo sería equiparable al de lanzar una moneda al aire, cuyos resultados posibles serían cara y cruz. En la realidad cotidiana, me dirán, ambos casos son mentira, puesto que siempre existe una opción que se suele omitir. En el caso del foco, sería la de “averiada”, que no es igual a “encendida” y que no es igual a “apagada”. En el caso de la moneda existiría la opción “de canto”, distinta de “cara” y de “cruz”. Esta tercera opción es en sí misma un mensaje de imprevisibilidad cercana al máximo, cuya probabilidad es incluso despreciable, pero que en la práctica diaria hace que las opciones “encendido” y “apagado” y “cara” y “cruz” no sean equiprobables, sino que la probabilidad de que el foco esté apagado, por ejemplo, es ligeramente mayor que la de que esté encendido”, puesto que habría que considerar el porcentaje de “apagado por avería” como a sumar al de “apagado”. Pero evitemos estos considerandos. Podemos pensar, pues, que “contar mensajes” es una forma de medir información, al menos para sistemas simples como éste. Si acordamos que ambos mensajes (encendido y apagado) son igualmente probables, diremos que el sistema “foco” tiene dos mensajes posibles (n) en su repertorio (N), y que a mí me dirá un mensaje o información cada vez que me detenga ante la puerta del chalet de mi amigo. Es decir, N (número de mensajes) es igual a 2, y la I (información) es igual a 1. Pensemos ahora que hubiera dos focos independientes en el chalet. Estos podrían estar en una de cuatro combinaciones diferentes, desde el apagado- apagado hasta el encendido-encendido. Es decir, N = 4 = 22, que me darían información que valoraría en 2 (I = 2). Y así sucesivamente, N = 2x siendo x el número de focos, y la I = x. En este caso, 2 sería la base de medida de la información, los dos posibles mensajes del repertorio del sistema “foco” (n). A continuación, la cibernética generaliza el concepto y nos dice que manejemos logaritmos de base dos a efectos de contar con una unidad básica de información asequible. Así, el bit sería el logaritmo en base dos de 2, que es 1. La base, como hemos visto, es el número posible de alternativas de señal o información (n) que tiene el sistema (encendido – apagado). I = Logn N, puesto que n1 = N, por definición de logaritmo, que es el número al que elevar la base para conseguir N. En el ejemplo, - Un foco: n = 2, N = 2, I = 1. Esto es, I = log2 2 - Dos focos: n = 2, N = 4, I = 2. Esto es, I = log2 4 Sin embargo, las señales no son equiprobables, como hemos visto. Yo si voy siendo día a casa de mi amigo, es más probable que el foco esté apagado a
  3. 3. Oficina de Prensa Virtual de Caixa Galicia que esté encendido. Para mí, la máxima información que me puede dar el foco es el log2 2, es decir, 1, si ambos mensajes fueran igualmente probables. En la práctica, yo “espero” que esté apagado, y si realmente lo está, apenas me proporciona información alguna, puesto que la información es también una medida de la imprevisibilidad del mensaje. Aparece aquí un concepto nuevo que manejaremos más adelante, y que está ligado a la probabilidad del mensaje. Para mí es más “imprevisible” que el foco esté encendido siendo de día. Es decir, no basta con que cuente mensajes; si fuera así, simplemente podría establecer como unidad básica de información las palabras, y decir que cada palabra es una unidad, y para medir un mensaje contaría palabras. La máxima información, en este supuesto, me la daría el texto que contiene más palabras, lo cual es una simpleza absurda, puesto que la información la proporciona no lo que yo sé, sino lo que no sé. No me da más información la definición de logaritmo cuando la sé que cuando no la sé, y si me limitara a contar palabras, me daría siempre la misma. Es decir, no puedo tomar el valor encendido como igual al valor apagado, y su suma igual a dos. Debo utilizar probabilidades, porque así puedo establecer diferencias entre los valores de cada n al mismo tiempo que me permite validar esa unidad básica de información en el caso de considerar otras variables, como podría ser, por ejemplo, el distinto tipo de públicos receptores del mensaje. Así, para un matemático, el concepto “logaritmo” no tiene el mismo valor informativo que para un historiador. De esta forma, pues, podría decir que el valor “apagado” tiene una probabilidad de 0,9 (90%), el valor “encendido”, de 0,1 (10%). Cuando se introduce este concepto de probabilidad, la I = log2 N se convierte en I (apagado) = 0,9 log2 0,9 e I (encendido) = 0,1 log2 0,1. Es decir, en términos coloquiales, la información de la luz encendida es más alta que la de luz apagada (para los técnicos, se considera el valor absoluto para evitar números negativos que no es el momento de explicar), y en el conjunto del sistema, la información total sería de 0,476 (47’6%), es decir, acertaríamos con un 52,4% de probabilidad el estado de la luz, o en otras palabras, conoceríamos el contenido de la información y el mensaje no nos aportaría nada nuevo a nuestro conocimiento. En el siguiente capítulo veremos cómo utilizaremos este concepto para medir nuestra obra cumbre de la literatura, El Quijote.

×