Sistemas por doquier

los elementos de un sistema co-operan procesando información. Como todo el mundo maneja su propio concepto de información,
sería aconsejable objetivarlo desde una perspectiva científica. Los conceptos que el físico Claude Shannon expone en su Teoría de la
Información parecen extraños e incompletos. Al fin y al cabo, ¿qué significa que la entropía es una medida de la cantidad de
información? Pero Shannon estaba muy bien inspirado y mejor asesorado: "¿Por qué no la llamas entropía? (...) Nadie sabe lo que es la
entropía realmente, así que en cualquier discusión estarás siempre en una posición de ventaja" le sugirió John von Neumann allá por
1948.

De este modo se vinculó la información con la energía y el desorden. Y, en paradójica consecuencia, la definición de la información
perdió sentido. La confusión terminológica resultará menos sorprendente si reparamos en que Shannon trabajaba para la Bell, una
gran compañía telefónica más preocupada por abaratar el cómo que en considerar el qué.

Hay otras definiciones de información, algunas claramente supersticiosas, como la que sostiene que información es lo que el público
demanda vigorosamente porque tiene derecho a conocer todo cuanto acontece.

Desde un punto de vista cibernético, la información se corresponde con los cambios de entropía, es decir, con la dinámica de los
flujos y transformaciones de energía. Claro que la entropía sigue su propio curso, por eso Clarke la describió como "la flecha del
tiempo". Pero, aún siendo previsible en términos generales y en cierta medida, la entropía también deja lugar a grandes dosis de
incertidumbre.

A medida que aumenta el número de elementos de un sistema, aumenta su complejidad disminuyendo su predecibilidad. La
incertidumbre y el caos introducen variaciones en la trayectoria de la flecha. Estas variaciones caracterizan los sistemas al determinar
una proporción entre la señal, o información útil, y el ruido, o información perdida. Esta proporción disminuye con el tiempo, de
manera que el ruido finalmente prevalece, pero la velocidad y forma en que sucede también caracteriza al sistema. De hecho, puede
definirse la entropía como esa tendencia de la información a convertirse en ruido con el transcurso del tiempo.

La información se produce en un nivel físico de manera pasiva. Esto significa que para explicarla bastan las leyes de la física, la
química y disciplinas afines. Información de esta naturaleza posibilita el conocimiento de lo más remoto tanto en el espacio como en
el tiempo.

Pero hay muchos sistemas cuyas funciones no son pasivas. Son sistemas que se auto producen y reproducen, sistemas que consiguen
suspender y hasta invertir la entropía en una región del espacio durante un lapso de tiempo. Estos sistemas despliegan el nivel
biológico de los sistemas de información que se caracteriza, no por la entropía negativa, sino por el hecho de que los procesos de
información dependen estrictamente de la naturaleza de los elementos que lo componen. Efectivamente, resulta tan difícil separar lo
biológico de las moléculas bioquímicas como imaginar algo vivo hecho de metal.

Existe un tercer nivel operativo en los sistemas de información, y es aquél en que las operaciones que se realizan son, o pueden ser,
independientes del soporte o sustrato. Este nivel, que llamaremos simbólico, es característico del ser humano porque, que sepamos
por ahora, los únicos sistemas que se despliegan en este nivel son artificiales.

Llegados a este punto, vamos a recapitular las características del punto de vista cibernético:


•            Todo cuanto existe puede ser considerado como un sistema.
•            Un sistema es un conjunto de elementos relacionados estructural y operativamente.

•            Estructuralmente pueden distinguirse las secciones de entrada, proceso y salida.

•            Operativamente la función de un sistema es procesar información.

•            La información se produce con los cambios de entropía, que es la tendencia al desorden o a la disipación de energía.

•            Los sistemas interactúan entre sí tanto vertical como transversalmente.

•            Los sistemas pueden operar en al menos uno de los tres siguientes niveles:

        •               Físico

        •               Biológico

        •               Simbólico

Sistemas por doquier

  • 1.
    Sistemas por doquier loselementos de un sistema co-operan procesando información. Como todo el mundo maneja su propio concepto de información, sería aconsejable objetivarlo desde una perspectiva científica. Los conceptos que el físico Claude Shannon expone en su Teoría de la Información parecen extraños e incompletos. Al fin y al cabo, ¿qué significa que la entropía es una medida de la cantidad de información? Pero Shannon estaba muy bien inspirado y mejor asesorado: "¿Por qué no la llamas entropía? (...) Nadie sabe lo que es la entropía realmente, así que en cualquier discusión estarás siempre en una posición de ventaja" le sugirió John von Neumann allá por 1948. De este modo se vinculó la información con la energía y el desorden. Y, en paradójica consecuencia, la definición de la información perdió sentido. La confusión terminológica resultará menos sorprendente si reparamos en que Shannon trabajaba para la Bell, una gran compañía telefónica más preocupada por abaratar el cómo que en considerar el qué. Hay otras definiciones de información, algunas claramente supersticiosas, como la que sostiene que información es lo que el público demanda vigorosamente porque tiene derecho a conocer todo cuanto acontece. Desde un punto de vista cibernético, la información se corresponde con los cambios de entropía, es decir, con la dinámica de los flujos y transformaciones de energía. Claro que la entropía sigue su propio curso, por eso Clarke la describió como "la flecha del tiempo". Pero, aún siendo previsible en términos generales y en cierta medida, la entropía también deja lugar a grandes dosis de incertidumbre. A medida que aumenta el número de elementos de un sistema, aumenta su complejidad disminuyendo su predecibilidad. La incertidumbre y el caos introducen variaciones en la trayectoria de la flecha. Estas variaciones caracterizan los sistemas al determinar una proporción entre la señal, o información útil, y el ruido, o información perdida. Esta proporción disminuye con el tiempo, de manera que el ruido finalmente prevalece, pero la velocidad y forma en que sucede también caracteriza al sistema. De hecho, puede definirse la entropía como esa tendencia de la información a convertirse en ruido con el transcurso del tiempo. La información se produce en un nivel físico de manera pasiva. Esto significa que para explicarla bastan las leyes de la física, la química y disciplinas afines. Información de esta naturaleza posibilita el conocimiento de lo más remoto tanto en el espacio como en el tiempo. Pero hay muchos sistemas cuyas funciones no son pasivas. Son sistemas que se auto producen y reproducen, sistemas que consiguen suspender y hasta invertir la entropía en una región del espacio durante un lapso de tiempo. Estos sistemas despliegan el nivel biológico de los sistemas de información que se caracteriza, no por la entropía negativa, sino por el hecho de que los procesos de información dependen estrictamente de la naturaleza de los elementos que lo componen. Efectivamente, resulta tan difícil separar lo biológico de las moléculas bioquímicas como imaginar algo vivo hecho de metal. Existe un tercer nivel operativo en los sistemas de información, y es aquél en que las operaciones que se realizan son, o pueden ser, independientes del soporte o sustrato. Este nivel, que llamaremos simbólico, es característico del ser humano porque, que sepamos por ahora, los únicos sistemas que se despliegan en este nivel son artificiales. Llegados a este punto, vamos a recapitular las características del punto de vista cibernético: • Todo cuanto existe puede ser considerado como un sistema. • Un sistema es un conjunto de elementos relacionados estructural y operativamente. • Estructuralmente pueden distinguirse las secciones de entrada, proceso y salida. • Operativamente la función de un sistema es procesar información. • La información se produce con los cambios de entropía, que es la tendencia al desorden o a la disipación de energía. • Los sistemas interactúan entre sí tanto vertical como transversalmente. • Los sistemas pueden operar en al menos uno de los tres siguientes niveles: • Físico • Biológico • Simbólico