3. 2. LAS CIENCIAS DE LA COMPLEJIDAD
El propósito de este libro, tal y como
comentábamos en el capítulo anterior, es ayudar a
solucionar problemas, y esto implica en la mayoría de los
casos realizar alguna acción en el entorno que estamos
analizando. Los entornos económicos, medioambientales y
sociales presentan la característica de ser poco definidos o
complejos y por ello podemos utilizar la Teoría General de
Sistemas, la cual se enmarca dentro de las Ciencias de la
Complejidad.
Como desarrollos prácticos de esta teoría tenemos
el System Thinking o Pensamiento Sistémico como
forma de estructurar nuestro conocimiento del sistema, el
System Dynamics o Dinámica de Sistemas para
formalizar en un modelo de simulación nuestra percepción
de la realidad y simular el impacto de diferentes
alternativas, y el Dynamic Management o Gestión
Dinámica como forma de seleccionar las acciones más
eficientes de modificar el sistema.
2.1. Antecedentes históricos
En este capítulo se expone la génesis y los aspectos
más relevantes de las Ciencias de la Complejidad. Estas
tienen una gestación relativamente reciente ya que se
atribuyen sus orígenes a la década de los 80. Podemos
hallar algunas de sus raíces en lo más antiguo de nuestra
civilización, la antigua Grecia, para continuar con la
Francia de la Ilustración, y llegar en un vertiginoso salto
hasta en siglo XX en los Estados Unidos y Europa.
Así pues es posible iniciar el viaje histórico de la
mano de Aristóteles que en su “ Metafísica” nos ofrece
muchas e interesantes ideas sobre la complejidad y la
posible existencia de una ciencia que se ocupe de ella,
cuando considera que:
sysware 37
4. “Aquí no sucede lo que con la línea, cuyas
divisiones no acaban; el pensamiento tiene
necesidad de puntos de parada” .
Y más adelante en su explicación de la ciencia más
adecuada para abordarla, al exponer que:
“Ninguno de los que se ocupan de las ciencias
parciales, ni el geómetra, ni el aritmético intenta
demostrar ni la verdad ni la falsedad de los
axiomas. Los físicos son los únicos que han
pretendido abrazar en una sola ciencia toda la
naturaleza” .
También podemos hallar algunas referencias en
Platón, donde la idea de complejidad está vinculada a su
concepción del mundo como un todo, con un orden,
organización y estructura donde todas las partes se hallan
en armonía con las demás.
Por último este mundo armónico se trasforma en un
mundo en movimiento de nuevo de la mano de
Aristóteles, cuando indica que:
“ la totalidad del cuerpo esta ahora en este orden
Si
y más tarde en otra, y si forma parte de una
totalidad, entonces no será el mundo el que se
genere y se destruya, sino solamente la disposición
de sus partes” .
Dejamos la antigua Grecia y tomamos el “ Discours
de la Méthode” del filósofo francés René Descartes que
para abordar la complejidad nos propone la necesidad de
segmentar el problema en tantos elementos como sea
posible, aplicando en definitiva un enfoque reduccionista.
Con ello se pretende abordar la complejidad reduciéndola
a un conjunto de elementos y procesos tan simples como
sea posible.
Como concreción del enfoque reduccionista aparece
el método analítico cuyo principio fundamental es “ todo
El
es igual a la suma de las partes”.
Este enfoque ha propiciado la fragmentación de las
ciencias en ámbitos cada vez más especializados y
aislados. Sus resultados han sido excelentes en el diseño
de máquinas, y por lo tanto podemos considerarlo como
uno de los pilares del progreso de los últimos siglos. Estos
éxitos se han logrado en el diseño de máquinas, que son
sistemas que podemos estudiar prácticamente aislados
38 sysware
5. del entorno exterior y con un número de elementos o
partes y procesos muy limitado, y en esencia fáciles de
medir y analizar.
El estudio de los seres vivos, las complejas
sociedades actuales, los conflictos entre desarrollo y
medio ambiente, requieren un enfoque sin duda muy
diferente, que sea capaz de abordar las múltiples
relaciones que existen entre los elementos y la diversidad
de procesos que se generan.
Seguimos con otro francés, ya en el siglo pasado, a
quien se considera como precursor de los postulados del
caos. Henry Pioncaré, fundador de la topología algebraica,
escribió:
“Pequeñas diferencias en las condiciones iniciales
engendran otras muy grandes en las situaciones
resultantes, y el mínimo error en identificar las
primeras ocasionaría un enorme error en identificar
las últimas”.
Abandonamos la Francia de Poincaré y nos
detenemos en la Alemania de su contemporáneo George
Cantor con su Teoría de Conjuntos de 1885. Esta teoría
fue consolidada por el inglés George Boole, y nació tras
los trabajos de Cantor de las series trigonométricas. La
primera referencia sobre ella aparece en un artículo de la
revista Crelle donde Cantor consideraba dos clases
diferentes de infinitos (hasta entonces se consideraba que
todos los infinitos tenían el mismo tamaño), los que se
tienen una correspondencia de uno a uno con los números
naturales, es decir los que se pueden numerar y los que
no se pueden. En base a esto se introduce la idea de
equivalencia de conjuntos, según la que dos conjuntos
son equivalentes si se pueden poner en correspondencia
de uno a uno.
Esta teoría define por primera vez piezas
fundamentales de lo que posteriormente sería la Teoría de
General de Sistemas, así aparece el concepto de
conjunto de donde después nacerá el sistema, como
una colección de cualquier tipo de objetos considerada
como un todo, una multiplicidad vista como unidad; una
entidad completa bien determinada. Los objetos que
forman al conjunto son nombrados elementos del
conjunto. Así pues todo conjunto es una colección de
sysware 39
6. objetos, pero no toda colección de objetos es un conjunto.
Esta afirmación es importante, porque no toda agrupación
de elementos es un conjunto o un sistema. De esta forma,
el ser elemento de es una relación binaria entre dos
objetos de la Teoría de Conjuntos. La importancia de la
Teoría de Conjuntos radica en que a partir de ella se
puede reconstruir toda la matemática.
Si bien el planteamiento es correcto y útil, presenta
algunas paradojas. Una de ellas es la Paradoja de Rusell
según la que algunos conjuntos no son miembros de si
mismos. Así por ejemplo un conjunto de personas, como
un equipo de fútbol, no es una persona. Poco después
apareció el Teorema de Göedel que justifica que ningún
sistema axiomático puede producir todos los teoremas de
la Teoría de los Números, y por lo tanto la deducción de la
matemática por la lógica será siempre incompleta.
Precisamente las proposiciones incompletas son las que
son autoreferencias, como la paradoja de Rusell, que se
vuelve en contra de su propio autor al permitir explicar los
fallos de su propia teoría. Podemos ver en estas
autoreferencias una fuente de limitaciones que vamos a
tener siempre al intentar aplicar la lógica a los conceptos
matemáticos. Y en la vida real las autoreferencias son
cada vez más frecuentes, y por lo tanto las paradojas
también los son. Tengamos en cuenta que aplicamos la
lógica para construir los modelos mentales que
comentamos en el primer capítulo del libro, y por lo tanto
es normal la aparición de paradojas que nos confunden.
El Principio Holístico definido por Smuts hacia
1930, rompe con la visión reduccionista de Descartes y
establece en cambio que “ todo no es igual a la suma de
El
las partes” lo cual ha sido generalmente interpretado
,
como “ todo es más que la suma de las partes” En el
El .
ámbito empresarial es conveniente pensar con mucha
frecuencia que el todo es a veces “ más” y con mucha
frecuencia “ menos”que la suma de las partes.
En los años 40 tenemos a Von Newman autor de la
Teoría de Autómatas investigando el origen de la vida,
y a Von Bertalanffy que expone la Teoría General de
Sistemas como un intento de unificación de las teorías
anteriores sobre sistemas cada una de un ámbito
diferente. Según esta teoría las propiedades de los
40 sysware
7. sistemas no pueden ser descritos de forma significativa en
base al análisis de sus elementos separados. La
comprensión de los sistemas solo es posible cuando se
estudian los sistemas globalmente, involucrando todas las
interdependencias de los subsistemas.
La Teoría General de Sistemas se fundamenta en
tres principios:
- Los sistemas existen dentro de sistemas.
- Los sistemas son abiertos.
- Las funciones de un sistema dependen de su estructura.
Podemos citar también en los años 40 a la Teoría
de la Información de Claude Shannon. Explica el
proceso de transformación de la información a través de
la Fuente, que es el componente que determina el tipo
de mensaje que se transmitirá y su grado de complejidad,
el Transmisor, que es el medio técnico que transforma
el mensaje originado por la fuente en señales apropiadas,
Canal, como medio que transporta las señales en el
espacio, Receptor, que es el recurso técnico que
transforma las señales recibidas, y Destino, como
componente al cual está dirigido el mensaje, incluyendo el
Ruido como aspecto significativo entendido como las
distorsiones originadas en forma externa al proceso de
comunicación. Los problemas que plantea Shannon,
tienen que ver con la cantidad de información, la
capacidad del canal de comunicación, el proceso de
codificación que puede utilizarse para cambiar el mensaje
en una señal y los efectos del ruido. En los sistemas
encontramos elementos relacionados entre si tanto por
canales físicos, como una mano lo está a su brazo, como
por canales de información, como un semáforo indica si
debemos o no cruzar una calle. En realidad estos últimos
son los más frecuentes en el mundo real.
A principios de los años 50 Nober Wiener y Arthur
Rosenblueth aplican los conceptos de la realimentación y
el control, en un nuevo concepto, la Cibernética, con
aplicaciones tecnológicas pero con una vocación de
abordar las ciencias biológicas y sociales. En el capítulo
siguiente se amplia este concepto.
La Teoría de Juegos en los años 60 de John von
Neumann realiza una interesante aportación al servir de
base en la toma de decisiones en un entorno no definido.
sysware 41
8. El objetivo de esta teoría no es el análisis de las
probabilidades o de los elementos aleatorios sino del
comportamiento estratégico de los jugadores. Son muy
frecuentes las situaciones en las que el resultado final
depende de las decisiones de diferentes elementos o
jugadores. Por ello se dice de un comportamiento sigue
una estrategia cuando se adopta teniendo en cuenta la
influencia conjunta sobre el resultado propio y ajeno de
las decisiones propias y ajenas. En esta teoría se plantea
la existencia de dos clases de juegos. Si los jugadores
pueden comunicarse entre ellos y negociar los resultados
se tratará de juegos cooperativos, en los que las
decisiones se centran en el análisis de las posibles
coaliciones y su estabilidad. En cambio en los juegos no
cooperativos los jugadores no pueden llegar a acuerdos
previos; es el caso de los juegos conocidos el dilema del
prisionero o el modelo del halcón y la paloma.
Hacemos otra parada un poco más adelante en la
Sinergética, del griego cooperación, alumbrada por
Hermann Haken de los años 70, que estudia el proceso de
formación de las estructuras de los sistemas, al disminuir
sus grados de libertad de un sistema inestable hasta
hacerlo estable, mediante la aparición de un parámetro
que esclaviza los grados de libertad del sistema, que es el
llamado principio esclavizador. En este aspecto este
concepto coincide con el paradigma de la Teoría de los
Sistemas Disipativos de Prigogine.
En resumen, podemos considerar a la Sinergética
como un campo de investigación interdisciplinario que
trata de la cooperación espontánea de diferentes
subsistemas dentro de un sistema, con un objetivo común
implícito o explícito. Es útil para estudiar propiedades de
los sistemas complejos como consecuencia de la
cooperación de las partes. Aparecen así nuevas
estructuras que podrían ser temporales, espaciales o
funcionales.
A lo largo de este camino se fueron asentando
conceptos nuevos como el de homeostasis, aportación
de Canon, o capacidad de los seres vivos para mantener
sus constantes vitales dentro de unos límites que los
hacen viables a través de procesos de retroalimentación.
Mide la proporción entre el valor de los cambios del
42 sysware
9. entorno y el valor de los cambios en la estructura del
sistema, de forma que un sistema con un alto índice de
homeostasis implica que el sistema transforma de forma
significativa su estructura ante cambios del entorno. El
concepto de equifinalidad de Von Bertalanffy que ilustra
como muchos sistemas llegarán al mismo estado final sea
cual sea el estado inicial y las condiciones externas. Y
también el concepto de isomorfismo, que se deriva de la
existencia de analogías entre el funcionamiento de los
sistemas biológicos y los automáticos.
Todo esto sirve de base para la aparición en los
años 80 de las Ciencias de la Complejidad, como un
conjunto de disciplinas con unos pocos rasgos distintivos:
la vocación interdisciplinaria como contraposición a las
diferentes disciplinas científicas, y el holismo como visión
de la globalidad frente a la especialización del
reduccionismo.
2.2. Desarrollos posteriores
2.2.1. Teoría de las Catástrofes
Aparece en los años
90 de la mano del francés
René Thom, y del danés Erik
Christopher Zeeman, es
según sus propios autores,
una teoría básicamente
cualitativa, que sólo
pretende obtener un orden
de comprensión en el
desorden de la
discontinuidad. Un ejemplo
puede ser el del cambio en
la forma de un puente, el
cual mientras se va
acumulando peso sobre el
mismo comienza a
deformarse en una forma
relativamente uniforme
hasta que una vez superado
sysware 43
10. cierto peso crítico el puente se cae. Su objetivo es
representar discontinuidades observables en sistemas
dinámicos.
Su utilidad como instrumento de predicción de
puntos de quiebra o ruptura es muy discutible. No
obstante sirve para el estudio de crisis financieras, como
fue en su día el “efecto Tequila” en base al conocimiento
de la secuencia seguida por las variaciones de los
elementos del sistema. Esta teoría fue duramente
criticada por Gina Kolata en la revista Science como
"vagamente formulada, basada en hipótesis falsas y que
lleva a pocas predicciones que no sean triviales".
2.2.2. Teoría de las Estructuras Disipativas
Creada por el Premio Nobel belga Ilya Prigogine,
ofrece una nueva visión de los fenómenos irreversibles, en
especial en el campo de la termodinámica. Un aspecto
importante de este autor es señalar que el caos
desemboca en estructuras ordenadas. El caos primigenio
del Big Bang a desembocado en estructuras ordenadas:
átomos, estrellas, vida.
Se dice que un sistema es disipativo cuando pierde
energía, o esta se degrada en forma de calor, y por lo
tanto aumenta la entropía total del sistema. Según la
Segunda Ley de la Termodinámica los sistemas aislados
aumentan de forma natural su entropía hasta estabilizarse
en su máximo valor en entropía o desorden. Así el hielo se
convierte de forma natural en agua, y el agua en vapor.
Este es su punto de equilibrio, aquel en el que la entropía
deja de aumentar.
La aportación de Ilya Prigogine es establecer que
los sistemas disipativos pueden estabilizarse en
parámetros que no representan el estado de máxima
entropía, ya que no son sistemas aislados y por lo tanto
no rige la Segunda Ley de la Termodinámica. Así nos
encontramos que los sistemas más comunes en el mundo
real son sistemas abiertos, no aislados. Estos sistemas
intercambian energía con su entorno.
En estos sistemas en vez de la tendencia hacia un
punto de equilibrio tradicional de máxima entropía
44 sysware
11. podemos observar como permanecen en estados de “ no-
equilibrio”o “lejos del equilibrio”.
Prigogine propone que en los sistemas complejos
no lineales de hecho existen subsistemas fluctuantes los
cuales en ocasiones se combinan y amplifican dando lugar
a bifurcaciones, o atractores, repulsores o
autoorganizaciones.
Las características que debe reunir un sistema
complejo para que se produzca este proceso de
estabilidad lejos del equilibrio son: en primer lugar que el
sistema debe ser abierto, es decir que debe de tener
elementos capaces de captar la energía del exterior así
como elementos para expulsar la energía en otras formas.
Además, el sistema debe tener una complejidad interna
que le permita ser estable en un amplio rango de
condiciones externas, de estructuras como para ser
estable en más de un en tercer lugar el sistema debe de
tener procesos de retroalimentación.
Así en resumen la existencia de un flujo de energía
que entra en un sistema le permite estabilizar sus
parámetros con un nivel más elevado de energía libre y
un nivel más bajo de entropía. Y así, tal y como Prigogine
indicaba y como muchos años después confirmó con sus
experimentos el biólogo Morowitz en 1978, cuando un
flujo de energía circula a través de un sistema fuera de
equilibrio, organiza sus estructuras y componentes de
forma tal que le permite tomar, utilizar y almacenar
cantidades crecientes de energía libre.
El nombre de estructura disipativa recoge la idea de
que se trata de un sistema que de forma estable puede
hallarse lejos de su punto teórico de equilibrio, debido a
que la energía que disipa al exterior es igual que la
energía que recibe.
Si bien esto puede parecer una teoría alejada de la
realidad puede explicar porqué no se cumplen las teorías
económicas clásicas, y determinados países pueden
acumular grandes déficits públicos y de balanza de
capitales sin que por ello el valor de su divisa se resienta.
O la existencia de altas tasas de paro de forma estructural
en muchas economías. O también la existencia de
conflictos internacionales durante un largo periodo de
años.
sysware 45
12. 2.2.3. Teoría de las Bifurcaciones
Podemos considerar que al nacer somos
ambidextros, no obstante cuando tomamos por primera
vez un objeto con la mano estamos entrando en una
bifurcación ya que nos especializamos en el uso de una
mano en detrimento de la otra, de forma que las
siguientes veces que hemos de tomar un objeto volvemos
a utilizar la misma mano que utilizamos en la primera
ocasión. Es posible que exista la misma probabilidad de
usar la primera vez una u otra mano, pero hemos de usar
una de ellas para tomar el objeto, y la elección inicial
marcará de forma irreversible nuestro futuro.
Desde el punto de vista matemático Poincaré
asigna a las bifurcaciones el origen de un nuevo
significado al caos, definiendolo como una clase de orden
compleja, sensitiva e impredecible.
Esta teoría viene a explicar como se modifica el
comportamiento de los sistemas en determinadas
circunstancias, de forma tal que en vez de seguir una
trayectoria temporal hacia un determinado atractor
(objetivo) éste es sustituido por otro de forma brusca. Así,
si el sistema seguía una determinada senda de
crecimiento o desarrollo, en un determinado punto la
modifica por otra que lo dirige hacia un objetivo
completamente diferente. No importa que la trayectoria
que seguía hasta este momento fuese uniforme o bien
tuviese oscilaciones más o menos regulares, en
determinado punto el sistema modifica de forma radical
su dirección, propósito u objetivo.
La nueva trayectoria que sigue el sistema puede ser
tan estable como la anterior o bien llevarle a un colapso.
En este ultimo caso hablamos de bifurcaciones
catastróficas. No ha cambiado la estructura del sistema,
sino que llegado a un punto crítico del mismo, modifica su
trayectoria hacia un nuevo atractor.
Un aspecto significativo de este comportamiento es
la ausencia de señales de aviso o de alarma que nos
informen de la proximidad de una bifurcación en base a la
historia del sistema. Tampoco los cambios en el entorno
nos pueden anticipar la llegada a una bifurcación, ya que
las mismas circunstancias del entorno observadas en el
46 sysware
13. momento de la bifurcación pueden haberse dado en
etapas anteriores del sistema sin repercusiones.
2.2.4. Atractores extraños : Los fractales
También en esta rápida secuencia podemos añadir
el descubrimiento de los denominados popularmente
fractales de Benoit Mandelbrot, el cual se planteó una
sencilla pregunta: «¿Cuánto mide la costa de Bretaña?».
La respuesta va a depender de aquello que desechemos
en la medición, porque al ir midiendo cada vez con más
precisión, debemos añadir el contorno de bahías, rocas, y
granos de arena. Para responder a esta pregunta es útil el
empleo de la geometría fractal. De una forma sencilla
podemos decir que en la geometría clásica o euclídea los
objetos tienen dimensiones enteras: la linea tiene una
dimensión, una superficie dos dimensiones, y un cuerpo
tiene tres. En la geometría fractal se trabaja con
dimensiones no enteras, así se Mendelbrot estimó que la
costa de Bretaña tiene una dimensión 1,2.
Fractal es un término matemático que ha logrado
traspasar las fronteras de los libros de geometría y llegar
a las revistas de divulgación científica por una razón
claramente visual, ya que genera espectaculares
imágenes, y también porque es capaz de explicar de
forma sorprendente algunas de las formas recurrentes de
los seres vivos. Estas formas tienen como propiedades
esenciales la auto similitud de la estructura, la
complejidad infinita en un espacio finito y mostrar como
causas simples pueden producir resultados complejos. Los
algoritmos fractales están utilizándose en el estudio de
procesos en meteorología, geología, medicina y economía.
Figura: sencillo ejemplo de un fractal.
sysware 47
14. 2.2.5. El caos determinista: El efecto mariposa
En el mundo que conocemos la causa y el efecto
mantienen siempre una cierta proporción que responde a
las leyes de la física. A medida que ejerzo más presión
sobre el acelerador el vehículo adquiere más velocidad, y
a mayor giro del volante mayor es el cambio de
trayectoria. El esfuerzo que necesito hacer para mover un
objeto es proporcional a su peso.
El matemático y después meteorólogo americano
Edward Lorenz observó que en su simulador del mundo
para el cálculo del tiempo atmosférico previsto, una
pequeña variación en los valores iniciales mostraba como
resultado unos pronósticos del estado del tiempo
totalmente diferentes, observando que pequeñas
variaciones en los datos de partida generaban una gran
dispersión de los escenarios finales.
Como ocurre tantas veces en la ciencia, las ideas de
Poincaré se rescataban. Sin duda el pensador francés se
había anticipado a su tiempo.
De una forma muy grafica se explica con el término
acuñado por Lorenz: “ efecto mariposa” en el cual la
el
simulación del clima en Mongolia se tornó absolutamente
impredecible en función del ínfimo efecto de una simple
mariposa monarca agitando sus alas a lo largo de la costa
de California del Sur.
Estas situaciones tienen en común cuatro
características esenciales:
- Son entornos que presentan una gran sensibilidad
a las condiciones iniciales, y existen
retroalimentaciones.
- Se pueden describir matemáticamente con
ecuaciones diferenciales no lineales.
- Son disipativas, es decir requieren aportes
externos de energía.
- Se pierde una pequeña parte de la información en
cada una de las etapas del proceso, de forma que
no es posible conocer las condiciones iniciales tras
un tiempo.
Esta estructura recibe el nombre de caos
determinista lo cual puede parecer una contradicción en
los términos. Con ella quiere darse a entender que la
48 sysware
15. perdida de la información que caracteriza al caos no se
debe a circunstancias aleatorias sino a las precisas leyes
deterministas de la física clásica.
Por todo ello Lorenz con sus trabajos sobre el caos
determinista nos ofrece una nueva visión del Universo.
Como contrapunto a esta visión de Lorenz de que el
caos genera en ocasiones situaciones imprevisibles, lo
cual es real, tiene especial interés la visión de Prigogine
de que el caos finaliza en estructuras ordenadas como se
indicaba antes. Podemos considerar ciertas a ambas
apreciaciones, y será la estructura del sistema la
provoque un comportamiento u otro. Así como veremos
posteriormente cuando un sistema se halle regulado por
un bucle positivo nos encontraremos con el efecto
mariposa, en cambio cuando se halle regulado por un
bucle negativo veremos como se cumplen los postulados
de Prigogine.
El efecto mariposa puede verse reflejado en el
mundo empresarial en las imprevisibles consecuencias
que puede tener encargar un pedido a un proveedor en
ver de hacerlo a otro.
Por el contrario podemos ver reflejados los
postulados de Progogine en el momento de abrir las
puertas unos grandes almacenes el primer día de rebajas.
Al cabo de unos minutos cada cliente se habrá dirigido al
departamento donde tiene más interés: deporte, ropa,
calzado, etc.
2.3. Desarrollos actuales
Todos estos pasos de la historia reciente han
aparecido como natural respuesta a las cada vez más
evidentes limitaciones del método científico basado
exclusivamente en un enfoque reduccionista para abordar
la complejidad de los problemas actuales. Ya no es posible
realizar experimentos, la base de la ciencia, porque existe
un alto número de variables que intervienen sobre las que
no siempre podemos obtener un exhaustivo conocimiento,
y además por la posibilidad de que existan e intervengan
factores que nos son desconocidos, al trabajar en
entornos o sistemas abiertos, difíciles de acotar.
sysware 49
16. A la vez se han planteado nuevas preguntas,
derivadas de la necesidad de comprender la esencia que
convierte al todo en algo diferente de la suma de sus
partes, es decir de la necesidad de comprender la
aparición de las propiedades emergentes que posee el
sistema en su conjunto, y que no son específicas de
ninguno de sus elementos o componentes.
En realidad fueron los biólogos quieres primero
desarrollaron estos conocimientos, ya que el estudio de
los seres vivos había quedado marginado de la ciencia,
por trabajar con sujetos difíciles de cuantificar (¿cuanto
pesa un corazón vivo?) y porque los experimentos y
ensayos son reproducibles con mucha dificultad. Su
disciplina científica presenta la aparición de propiedades
emergentes en los respectivos niveles de estudio: célula,
individuo, grupo y especie, que no se pueden explicar
únicamente en base a las propiedades físicas de los
miembros del nivel inferior que lo componen.
Todo este largo camino se pudo empezar a
concretar en multitud de aplicaciones prácticas con la
aparición a partir de los años 80 del siglo pasado de
pequeños y relativamente asequibles ordenadores (los
PCs) dotados de soportes de software muy amigables (el
demonizado Windows) que nos permiten aplicar todos
estos principios, leyes y teorías a un ámbito cotidiano,
donde la complejidad no es la excepción sino la norma: la
biología, la ecología, la economía, las ciencias sociales, y a
la empresa.
Podemos decir que las características comunes de
todo este conjunto de nuevas disciplinas son:
- Análisis de la estructura del sistema, es decir de
los elementos y las relaciones.
- Visión abierta de los sistemas, de forma que no
pueden percibirse de forma aislada del entorno.
- Relevancia especial de los elementos no
materiales que se hallan en la estructura de los
sistemas.
- Utilización del ordenador como instrumento de
trabajo, en vez de ecuaciones matemáticas, para la
creación de modelos y la simulación de alternativas.
50 sysware