Este documento resume un seminario sobre teoría de sistemas auto-organizados. Trata conceptos como auto-organización, complejidad, divergencia y convergencia, entropía, individualidad local, información y retroalimentación. Explica que la auto-organización surge de las interacciones locales entre componentes inicialmente desordenados, dando lugar a orden global. También analiza la complejidad de sistemas compuestos por partes interrelacionadas cuyo conjunto exhibe propiedades emergentes.
Seminario sobre la teoría de los sistemas autoorganizados. Sesión 2016 11-4
1. Seminario: Profundización en la teoría de los
Sistemas auto-organizados
Sesión: 4-11-2016
1.- Auto-organización
2.- Complejidad
3.- Divergencia y convergencia
4.- Entropía
5.- Individual y local : ¿esencia o proceso?
6.- La Información
7.- Retro-alimentaciones
2. 1.- Auto-organización
La autoorganización es un proceso en el que alguna forma global de
orden o coordinación surge de las interacciones locales entre los
componentes de un sistema inicialmente desordenado.
El término "autoorganización" fue introducido por vez primera por
Immanuel Kant en la Crítica del juicio y recuperada en 1947 por parte del
psiquiatra e ingeniero W. Ross Ashby.
El concepto de "autoorganización" fue adoptado por todos aquellos
asociados a la Teoría de Sistemas en la década de 1960, pero no se convirtió
en un concepto científico común hasta su adopción por parte de los físicos y,
en general, de los investigadores de los sistemas complejos en las décadas de
los setenta y ochenta.
Hipótesis nº 1 :
Este proceso es espontáneo: no está dirigido ni controlado por ningún
agente o subsistema dentro o fuera del sistema. El proceso es generalmente
desencadenado por fluctuaciones aleatorias que son amplificadas por retro-
alimentación positiva. La organización emerge.
Consecuencia :
La organización resultante está completamente descentralizada o
distribuida sobre todos los componentes del sistema; esta organización resulta
típicamente muy robusta, capaz de sobrevivir y auto-reparar daños o
perturbaciones sustanciales. Ejemplos comunes son: la cristalización, la
emergencia de patrones de convección en un fluido, osciladores químicos,
enjambres de grupos de animales y el modo en que la red neuronal aprende a
reconocer patrones complejos.
Los antiguos atomistas creyeron ya que, dadas unas condiciones
espaciales y temporales suficientes, la autoorganización de la materia había
aparecido como un producto natural necesario.
Hipótesis nº 2 :
El « diseño inteligente » (DI) es la postura que defiende que «ciertas
características del universo y de los seres vivos se explican mejor por un
proceso « inteligente », no por un proceso no dirigido, aleatorio, como la
selección natural».
El término "complejidad irreducible" fue introducido por el bioquímico
Michael Behe en su libro Darwin's Black Box (La caja negra de Darwin, 1996).
Behe lo define así : "un sistema que se compone de varias partes
complementarias que interaccionan para contribuir a la función básica, y donde
la eliminación de cualquiera de las partes hace que el sistema deje de
funcionar eficazmente".
Behe usa la analogía de una ratonera para ilustrar este concepto. Una
3. ratonera se compone de varias piezas que interaccionan -la base, la barra, el
resorte y el percutor-, todo lo cual debe estar en su lugar para la ratonera
funcione. La eliminación de cualquier pieza destruye la función de la ratonera.
Consecuencia :
El argumento de la complejidad irreducible asume que las partes
necesarias de un sistema siempre han sido necesarias y, por tanto, no podrían
haber sido añadidas secuencialmente.
2.- Complejidad
Complejidad es la cualidad de lo que está compuesto de diversos
elementos interrelacionados. Se refiere a un sistema complejo, que es un
sistema compuesto de partes interrelacionadas que como un conjunto exhiben
propiedades y comportamientos no evidentes (?) a partir de la suma de las
partes individuales.
En una primera aproximación, puede decirse que los sistemas complejos
en realidad son todos los sistemas, pues la complejidad es la regla y la
simplicidad la excepción.
Es posible modelizar la complejidad en términos de redundancia
funcional, o bien en términos de redundancia estructural.
La redundancia funcional caracteriza la « complejidad» así como la
condición de auto-organización (Henry Atlan).
La redundancia estructural caracteriza la « complicación».
El pensamiento complejo requiere de una visión holística e integrada que
vislumbre las distintas perspectivas de un objeto o situación. (Wikipedia).
4. Sistema complejo
Un sistema complejo está compuesto por varias partes interconectadas
o entrelazadas cuyos vínculos crean información adicional no visible antes
por el observador. Como resultado de las interacciones entre elementos,
surgen propiedades nuevas que no pueden explicarse a partir de las
propiedades de los elementos aislados. Dichas propiedades se denominan
propiedades emergentes.
En contraposición, un sistema «complicado» también está formado por
varias partes pero las relaciones entre éstas no añaden información
adicional. Nos basta con saber cómo funciona cada una de ellas para
entender el sistema. (Wikipedia).
3.- Divergencia, convergencia y dialéctica
La divergencia de un campo vectorial mide la diferencia entre el flujo
saliente y el flujo entrante de un campo vectorial sobre la superficie que rodea a
un volumen de control, por tanto, si el campo tiene "fuentes" la divergencia será
positiva, y si tiene "sumideros", la divergencia será negativa.
Una divergencia negativa puede ser nombrada convergencia.
En matemáticas, una serie (suma de los términos de una secuencia de
números), resulta convergente si la sucesión de sumas parciales tiene un límite
en el espacio considerado. De otro modo, constituiría lo que se denomina serie
divergente.
Dialéctica:
El término adquiere un significado no circunscripto al ámbito de la
retórica (literalmente, antes: técnica de la conversación), gracias,
fundamentalmente, a los escritos del filósofo alemán G.W.F. Hegel.
Hegel concibe la realidad como formada por opuestos que, en el
conflicto inevitable que surge, engendran nuevos conceptos.
5. La dialéctica se basa en la fundamentación de que una idea (tesis),
generalmente histórica, social o filosófica, al ser desarrollada en detalle abre
aspectos diversos que entre sí, pueden entrar en oposición (antítesis), pero
finalmente surge una manera de re-concebirla conciliando aspectos
aparentemente contradictorios (síntesis).
Si bien Hegel nunca usó los términos tesis, antítesis y síntesis,
diversos analistas posteriores popularizaron esta terminología (debida a H. M.
Chalybäus) para analizar el desarrollo de la dialéctica hegeliana de una idea o
tesis.
4.- Entropía
En termodinámica, la entropía (simbolizada como S) es una magnitud
física que (para un sistema termodinámico en equilibrio) mide el número de
microestados en relación con el macroestado de equilibrio. También se puede
decir que mide el grado de organización del sistema.
La entropía describe lo irreversible de los sistemas termodinámicos.
Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la
década de 1850 y Ludwig Boltzmann, quien encontró en 1877 la manera de
expresar matemáticamente este concepto, desde el punto de vista de la
probabilidad.
Por ejemplo, si se ponen en contacto dos trozos de metal con distinta
temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el trozo
frío se calentará, finalizando en equilibrio térmico.
Se dice que un sistema altamente distribuido al azar tiene alta entropía.
Coloquialmente, suele considerarse que la entropía es
a) el desorden de un sistema, es decir:
b) su grado de homogeneidad.
1) Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá
a romperse y a esparcirse, mientras que jamás será posible que, lanzando
trozos de cristal, se construya un vaso por sí solo.
6. 2) Otro ejemplo doméstico: imagínense dos envases de un litro de capacidad
que contienen, respectivamente, pintura blanca y pintura negra; se mezclan
hasta que se obtienen dos litros de pintura gris, que no podrán reconvertirse
por sí solos en un litro de pintura blanca y otro de pintura negra; la entropía del
conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de
ambos recipientes son sensiblemente iguales (sistema homogéneo).
Pero: DESORDEN Y HOMOGENEIDAD NO SON LO MISMO.
El astrofísico Alan Lightman reconoció que a los científicos “les parece
misterioso el hecho de que el universo fuera creado con este elevado grado de
orden”. Agregó que “cualquier teoría cosmológica viable debería explicar en
última instancia esta contradicción de la entropía”, es decir, que el universo
no se halle ahora en estado caótico.
Concepto de entropía negativa
El concepto de “entropía negativa” fue introducido por Erwin Schrödinger
(físico teórico, y uno de los padres de la mecánica cuántica) en su libro de
ciencia popular, What is life?, publicado en 1943. Más tarde, Léon Brillouin
cambió la palabra por "neguentropía", para expresarla en una forma mucho
más “positiva”, diciendo que un sistema vivo importa neguentropía y la
almacena.
La organización como sistema (abierto) está constituido por los
elementos básicos de este (entradas, medio, salidas y retroalimentación) y es
en las entradas donde la información juega un papel clave como medio
regulador, neguentrópico, ya que a través de ella se puede disminuir la
cantidad de incertidumbre (entropía).
Se puede considerar a la información como elemento generador de orden
y como herramienta fundamental para la toma de decisiones en la organización
o en cualquier sistema en el que se presenten situaciones de elección con
múltiples alternativas.
5.- Individual y local : ¿esencia o proceso?
Unidad y pluralidad en lo individual
La «individualidad» y lo «individual» es la noción abstracta de una
identidad que se conoce como sujeto de sus predicados:
- bien como atributos esenciales
- o modos de una sustancia. (lógica de Port Royal)
El principio de individualización : sólo un aspecto formal
Para Duns Scoto la noción de individuo requiere dos principios
diferenciados: su naturaleza común como especie, y su entidad individuante
entre las cuales no hay distinción real sino únicamente formal.
7. Individuación: un proceso
Principio de individuación o proceso de individuación es definido
desde la psicología analítica de Carl Gustav Jung como «aquel proceso que
engendra un individuo psicológico, es decir, una unidad aparte, indivisible, un
Todo».
Resulta interesante reseñar cómo Jung establece una interconexión
entre individuo e infinitud:
El sentimiento de lo infinito sólo lo alcanzo, sin embargo, cuando
estoy limitado al máximo. La mayor limitación del hombre es la
persona; se manifiesta en la vivencia «¡yo no soy más que esto!».
Solo la consciencia de mi estrecha limitación en la persona me une a
la infinitud del inconsciente. En esta consciencia me siento a la vez
limitado y eterno, como el Uno y el Otro. Al saberme único en mi
combinación personal, es decir, limitado, tengo la posibilidad de
tomar consciencia también de lo infinito. Pero sólo así.
C. G. Jung. Recuerdos, sueños, pensamientos. Página 381. Seix Barral.
Los Tres Mundos. Barcelona. 2005
Principio de localidad: la información no puede viajar más rápido que
la luz
En física, el principio de localidad establece que dos objetos
suficientemente alejados uno de otro no pueden influirse mútuamente de
manera instantánea, de manera que dado un corto intervalo de tiempo
cada objeto sólo puede ser influido por su entorno inmediato o entorno
local.
Realismo Local : el enfoque de Einstein
El realismo local es la combinación del principio de localidad con la
suposición realista de que todos los objetos deben tener valores
objetivamente existentes para cada medida posible antes de que se llevan
a cabo estas mediciones. A Einstein le gustaba decir que la luna está allí,
incluso cuando nadie la está mirando.
El realismo local es una característica importante de la mecánica clásica,
de la relatividad general, y de la electrodinámica, pero la mecánica cuántica
rechaza en gran medida este principio debido a la teoría de entrelazamiento
cuántico, una interpretación rechazada por Einstein en la paradoja EPR, pero
posteriormente demostrada por las desigualdades de Bell.
6.- La información
La información es un conjunto organizado de datos procesados.
Estos datos constituyen un mensaje que cambia el estado de
conocimiento del sujeto o del sistema que recibe dicho mensaje. Existen
diversos enfoques para el estudio de la información:
En biología, la información se considera como estímulo sensorial que
afecta al comportamiento de los individuos.
8. En computación y teoría de la información, como una medida de la
complejidad de un conjunto de datos.
En comunicación social y periodismo, como un conjunto de mensajes
intercambiados por individuos de una sociedad con fines organizativos
concretos.
Para Gilles Deleuze, la información social es un sistema de control,
en tanto que es la propagación de consignas que deberíamos creer o hacer
que creemos. En tal sentido, la información es un conjunto organizado de datos
capaz de cambiar el estado de conocimiento en el sentido de las consignas
transmitidas.
Teoría de la información
El enfoque de la teoría de la información analiza la estructura
matemática y estadística de los mensajes, con independencia de su significado
u otros aspectos semánticos. Los aspectos en los que se interesa la teoría de
la información son la capacidad de transmisión de los canales, la compresión
de datos o la detección y corrección de errores.
Una forma de caracterizar nuestro estado de conocimiento del mundo,
es a través de las probabilidades. Si sabemos que en el futuro pueden
suceder n cosas diferentes A 1 , … , A n, cada una con probabilidad p 1 , … , p
n, ese conjunto de probabilidades constituyen nuestro conocimiento del
mundo, una información debería reducir nuestra incertidumbre, variando las
probabilidades a p' 1 , … , p' n .
Si el segundo estado tiene menos incertidumbre es porque algunas
cosas se han hecho más probables frente a otras alternativas que se han
hecho menos probables.
Una forma de "medir la información" asociada a un mensaje o hecho
observado es calcular como algunas probabilidades han crecido. Una medida
conveniente de calcular la "concentración" de la certeza en algunas alternativas
es la entropía estadística.
Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos
proponen adivinar la segunda letra de una palabra del español. Nos dicen que
en la segunda posición podría aparecer cualquier letra del alfabeto. Por tanto la
incertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de
cada letra
Sin embargo, si nos dan como pista que "la primera letra es una Z",
entonces en segunda posición sólo puede aparecer A, O, U (aunque existen un
puñado de casos excepcionales de E e I) y por tanto con esa información se
reduce mucha la incertidumbre.
7.- Retroalimentaciones
Retro-alimentación positiva (hacia un gran cambio)
La retro-alimentación positiva es uno de los mecanismos de retro-
alimentación por el cual los efectos o salidas de un sistema causan efectos
9. acumulativos a la entrada, en contraste con la retro-alimentación negativa
donde la salida causa efectos sustractivos a la entrada.
Contrariamente a lo que se puede creer, la retro-alimentación positiva,
no siempre es deseable, ya que el adjetivo positivo se refiere al mecanismo de
funcionamiento, no al resultado. En la retro-alimentación es la que define el
equilibrio que pueden darse. Por ejemplo con la retro-alimentación positiva,
difícilmente se logran puntos de equilibrio estable. Es posible identificar la retro-
alimentación positiva en sistemas de la naturaleza como el clima, la biosfera,
como también en sistemas creados por la humanidad como la economía, la
sociedad y los circuitos electrónicos.
El resultado de una retro-alimentación positiva es una amplificación
creciente que hace de una pequeña perturbación un gran cambio en el estado
del sistema. La amplificación crece de manera exponencial en sistemas de
retro-alimentación de primer orden o de manera hiperbólica en los de segundo
orden. (Wikipedia).
Retroalimentación en la cual una parte de la salida del circuito, o
dispositivo, se retroalimenta en fase con la entrada de modo que aumenta la
amplificación. (Real Academia de Ingeniería).
Retro-alimentación negativa (equilibrio dinámico)
Retro-alimentación negativa (frecuentemente abreviado como NFB, del
inglés Negative Feedback ) es un tipo de retro-alimentación en el cual el
sistema responde en una dirección opuesta a la señal.
El mecanismo consiste en retro-alimentar sobre alguna entrada del
sistema una acción o propiedad física (fuerza, voltaje, etc.) proporcional a la
salida o resultado del sistema, de forma que se invierte la dirección del cambio
de la salida. Esto tiende a estabilizar la salida, procurando que se mantenga en
condiciones constantes.
Esto da lugar a menudo a equilibrios (en sistemas físicos) o a
homeostasis (en sistemas biológicos) en los cuales el sistema tiende a volver a
su punto de inicio automáticamente.
Ejemplos del uso de la retro-alimentación negativa para controlar
sistemas son: control de temperatura mediante termostato, lazos de
seguimiento de fase, la regulación hormonal o la regulación de temperatura en
animales de sangre caliente. (Wikipedia).
Proceso de retro-alimentación en el cual la actuación depende de la
diferencia entre el valor deseado para la señal controlada y el que realmente
tiene. (Real Academia de Ingeniería).
10. Homeostasis
La homeostasis (del griego ὅμος homos ‘similar’, y στάσις stásis ‘estado,
estabilidad’) es una propiedad de los organismos vivos que consiste en su
capacidad de mantener una condición interna estable compensando los
cambios en su entorno mediante el intercambio regulado de materia y energía
con el exterior (metabolismo). Se trata de una forma de equilibrio dinámico que
se hace posible gracias a una red de sistemas de control realimentados que
constituyen los mecanismos de autorregulación de los seres vivos. Ejemplos de
homeostasis son la y el balance entre acidez y alcalinidad (pH). (Wikipedia).