SlideShare una empresa de Scribd logo
1 de 68
Descargar para leer sin conexión
UNA NUEVA TEORÍA ACERCA DE LAS
“DILUCIONES HOMEOPÁTICAS”
Dr. Gabriel Hernán Gebauer
Médico-Cirujano.
Magister Artium Fil. Ciencia.
Santiago. Chile.
gebauerj@mi-mail.cl
INDICE
PRÓLOGO
INTRODUCCIÓN
LA VISIÓN DEL MÉDICO HOMEÓPATA
LA VISIÓN CRÍTICA A LA HOMEOPATÍA
LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS"
LA ENTROPÍA Y LA SEGUNDA LEY DE LA TERMODINÁMICA
LA NEGUENTROPÍA Y EL ORDEN
EL PAPEL DE LAS PROPENSIONES Y DE LAS RESONANCIAS
LAS RESONANCIAS Y LA IRREVERSIBILIDAD
EL ESTADO NEGUENTRÓPICO
LA SEGUNDA LEY COMO LEY PROBABILISTA Y SUS CONSECUENCIAS
LAS RESONANCIAS DE POINCARÉ
EL APORTE DE POINCARÉ
¿QUÉ ES LA RESONANCIA?
LAS RESONANCIAS Y LA DIFUSIÓN DEL CAOS
NUEVO EXAMEN A LA PREPARACIÓN DE LAS "DILUCIONES
HOMEOPÁTICAS"
EL FENÓMENO ESPECIAL DE LAS "DILUCIONES HOMEOPÁTICAS"
DOS PERSPECTIVAS DE ANÁLISIS
ANÁLISIS DESDE UNA PERSPECTIVA ESTRUCTURAL
EL CONCEPTO DE ORDEN Y EL CONCEPTO DE INFORMACIÓN
EL CONCEPTO SINTÁCTICO O FORMAL DE CANTIDAD DE INFORMACIÓN
LA COMPLEJIDAD COMO CONCEPTO OBJETIVO
LA INFORMACIÓN COMO CONCEPTO OBJETIVO
FORMA Y FUNCIÓN DE LA INFORMACIÓN
LA RELACIÓN ENTRE INFORMACIÓN Y ENERGÍA
LAS MICROESTRUCTURAS ACUOSAS Y LA CANTIDAD DE INFORMACIÓN
LA RESONANCIA COMO MEDIO DE TRANSMISIÓN DE LA INFORMACIÓN
LA ESTRUCTURA DEL AGUA
LAS DILUCIONES Y LAS "POTENCIAS"
RECAPITULACIÓN FINAL
BIBLIOGRAFÍA
POST SCRIPTUM
2
PRÓLOGO
Ilya Prigogine, premio Nobel de Química en 1977, es autor de una generalización de la
Dinámica clásica –la que se ocupa principalmente de sistemas dinámicos estables- y por la
cual ésta se hace extensiva a los sistemas dinámicos inestables. Pero resulta que al
considerar la inestabilidad se pone en cuestión al determinismo. La importancia de ésto
está en que el desideratum de las Ciencias naturales siempre fué alcanzar la certidumbre,
la cual sólo puede darla una descripción determinista. En cambio, con el estudio de los
sistemas dinámicos inestables, que son la mayoría de los sistemas físicamente
interesantes, surge la incertidumbre. Hay una serie de conceptos entrelazados con el
indeterminismo y la incertidumbre: la inestabilidad, que lleva al concepto de caos, las
probabilidades objetivas y la complejidad, así como la irreversibilidad y la "flecha del
tiempo".
En diversas ocasiones, Prigogine ha insistido en la sucesión:
Inestabilidad ® probabilidad ® irreversibilidad.
(Compárese con la trilogía: Estabilidad ® trayectoria determinista ® reversibilidad,
propia de la Dinámica clásica, y se podrá entender más claramente la revolución de
conceptos científicos implicados por los sistemas asociados al caos.)
La importancia que estos conceptos adquieren para nuestro ensayo: Una nueva teoría
acerca de las "diluciones homeopáticas"; consiste en lo siguiente: las "diluciones
homeopáticas" no son sistemas dinámicos estables. De ahí nace, según nuestro criterio,
la cisura que existe entre los hechos que la experiencia homeopática ofrece y las diversas
teorías del corpus científico aceptado, y con ello la dificultad para entender científicamente
esos hechos homeopáticos. Con la extensión que Prigogine ha hecho de la Dinámica,
surge la posibilidad de preguntarse: ¿serán las "diluciones homeopáticas" sistemas
dinámicos inestables? Y si lo son, ¿explicará esta inestabilidad la naturaleza de aquello
que se produce en el proceso de dilución y, además, cómo se produce?
La hipótesis desarrollada en las páginas siguientes se funda, precisamente, en
considerar a las "diluciones homeopáticas" como sistemas dinámicos inestables: sistemas
en los cuales cualquier pequeña perturbación se amplifica, dando lugar así a efectos que
la Dinámica clásica jamás podría predecir –y que, por tanto, siempre ignorará-; pero con la
peculiaridad, comparados con los sistemas dinámicos abiertos examinados por
Prigogine, de que este particular sistema cerrado desemboca finalmente y de forma
espontánea en un estado estable propio de un sistema aislado.
La inestabilidad implica a la probabilidad -como lo muestra la sucesión anteriormente
señalada-, pues en lugar de trayectorias de partículas individuales, tendremos que
considerar probabilidades (distribuciones de probabilidad). Luego, el concepto de
probabilidad que se use no puede ser subjetivo, o sea, no puede nacer simplemente de
nuestra ignorancia acerca de las condiciones iniciales del sistema que sea el caso, como
acontece con la Dinámica clásica –y, por tanto, con sistemas estables-. El concepto de
probabilidad tiene que ser necesariamente objetivo si es la explicación más importante del
comportamiento total del sistema. Y a ese respecto, la concepción de probabilidad como
"propensión" de Karl Popper resulta ser, para nosotros, de la mayor importancia. Porque,
por una parte, se trata de un concepto objetivo de probabilidad, y, por otra parte, porque al
concepto de Información -que puede ser entendido como una "posibilidad improbable"- se
le puede considerar concretamente como una propensión.
La teoría de la información de Shannon, y sus extensiones posteriores, utilizan un
concepto de Información de naturaleza subjetiva –y, todavía más, de naturaleza
antropomórfica-. Lo cual no es sorprendente, ya que es una teoría que nació para resolver
problemas relativos a la transmisión de mensajes en vías de comunicación; y la
3
comunicación es un asunto netamente humano. Es cierto que los animales, e incluso las
plantas, se comunican; pero no poseen una ciencia de la comunicación.
Ahora bien, si es verdad que la entropía mide exclusivamente nuestra falta de
Información, entonces ésta siempre estará atada al observador humano. Pero, si la
neguentropía –la entropía con signo negativo, que es el equivalente de la Información-
representa un estado improbable del sistema en consideración, entonces cualquier
posibilidad que sea improbable será una Información, aun en ausencia del observador
humano.Sin embargo, para que ése sea el caso, es imprescindible que estemos hablando
de una teoría objetiva de las probabilidades. Si las posibilidades son, como lo sostiene
Popper, existentes reales (propensiones o disposiciones), entonces una posibilidad
improbable cualquiera será, necesariamente, una Información objetivamente existente.
La sucesión planteada por Prigogine termina en el concepto de irreversibilidad. La
irreversibilidad nos conduce a considerar la 2ª Ley de la Termodinámica –"la entropía
siempre aumenta"-, y con ella el concepto denominado "flecha del tiempo". En la
preparación de las "diluciones homeopáticas", observamos que esta dirección hacia el
futuro no es equivalente a la dirección hacia el pasado, es decir, nos muestra que el
resultado final es imposible de revertir ya que el sistema alcanzará en último término el
estado de equilibrio ; así podemos ver en acción a la irreversibilidad. Pero, y aquí es donde
está lo verdaderamente importante, será un estado cualitativamente distinto del previsible
para un sistema estable –donde el "fenómeno homeopático" sería imposible-.
En el presente ensayo se exponen dos versiones de una misma teoría –que se podrían
considerar metafóricamente como una simetría de "bifurcaciones"-, relativas al "problema
de las ‘diluciones homeopáticas’". Una versión teórica "fuerte", la que lleva la hipótesis de
la "dilución homeopática" considerada como un sistema dinámico inestable, hasta sus
últimas consecuencias ; y en la cual se propone un concepto semántico de Información
qua energía no-degradable. Y una versión teórica "débil", que no involucra la aceptación
de este mismo concepto, ciertamente polémico. Sin embargo, es nuestra opinión que esta
versión de la teoría podría presentar dificultades que sólo la versión teórica "fuerte" sería
capaz de superar. Es conveniente agregar, que cada versión de la teoría es solidaria de un
tipo de análisis que le es propio: La versión teórica "débil" requiere de un análisis
meramente estadístico ; la versión teórica "fuerte", en cambio, necesita de un análisis
desde la perspectiva de la compleja estructura molecular del solvente (complejidad) como
vector de la Información.
Nuestra principal razón para preferir la versión teórica más "fuerte", es que el concepto
de Información –en el sentido ya precisado de Información objetiva-, resulta fundamental
en una teoría más amplia que sea capaz de abarcar todos los aspectos difíciles de la
fundamentación homeopática. Por ejemplo, el mismo concepto de Información debería ser
capaz tanto de explicar qué es aquello que persiste a la dilución llevada más allá del
Número de Avogadro, como de qué manera funciona la llamada "ley de los semejantes".
Sin duda que resulta mucho menos convincente el tener dos teorías diferentes –quizás,
incluso incompatibles- para responder ambas interrogantes.
Al terminar este prólogo, recordemos lo que el metereólogo Edward Lorenz decía: "el
batir de las alas de una mariposa tendrá el efecto después de algún tiempo de cambiar
completamente el estado de la atmósfera terrestre" –el título de su presentación en una
sesión de 1972, de la Asocación Americana para el Avance de la Ciencia, era:
"Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas ?"-; y
mediante esta impresionante imagen se estaba refiriendo a la teoría de los sistemas
dinámicos asociados al caos.
4
Cuando Hahnemann tomó una pequeña cantidad de cierta sustancia y la diluyó a la
décima parte -sacudiéndola enérgicamente-, y repitió la dilución con la sucusión una y otra
vez por treinta y más veces sucesivamente, obtuvo un medicamento homeopático.
Este medicamento homeopático poseía propiedades nuevas extraordinarias: era capaz
de curar muchos tipos de enfermedades. ¿No sugiere también esta nueva imagen a la
teoría asociada al caos?
El desarrollo, en la preparación de las "diluciones homeopáticas", de ciertas
propiedades imprevisibles, implica la presencia de fenómenos difíciles de explicar, pero
que la metáfora del batir de alas de una mariposa sugiere fuertemente. Una cantidad tan
feble de materia, ¿cómo puede actuar siquiera, ya que no digamos curar? Si,
conceptualmente hablando, el batir de alas de una mariposa –vale decir, una causa tan
débil- puede tener efectos mensurables, ¿por qué no podría tenerlo también un soluto
extremadamente diluído sobre el solvente? En las páginas siguientes, procuraremos
mostrar que efectivamente es así.
La teoría de Prigogine nos ha aportado a este respecto de poderosas herramientas
intelectuales ; sin embargo, hemos tomado de él sólo lo que nos ha servido, habiendo
desarrollado nuevos conceptos, a la vez que integrado otros de diverso origen, para
completar una teoría que pueda ser posible de considerar como medianamente
satisfactoria. Ése es, al menos, nuestro deseo.
INTRODUCCION
El problema de las "diluciones homeopáticas" –es decir, el problema de si en diluciones
llevadas más allá del límite posible de conservación de átomos, iones o moléculas del
soluto sometido a dilución, persistirían algunas de las propiedades de éste de una manera
efectiva-, puede parecer a los ojos de sus críticos como un problema exótico, incluso
extravagante. Sin embargo, no es más extraño que cualesquiera de los problemas que han
dado origen a investigaciones serias, tanto en el pasado remoto como en el reciente, y que
-eventualmente- han llevado a grandes descubrimientos.
El llamado "problema del cuerpo negro", que en manos de Max Plank dió inicio a la
Mecánica cuántica -tal vez la revolución más importante en la historia de la Física (o de la
Ciencia en general)-, o las elucubraciones de Albert Einstein acerca de la velocidad de la
luz y su relación con los conceptos de espacio y de tiempo, que cristalizaron en su teoría
de la Relatividad restringida ; son ejemplos, por lo extraño e inesperado de sus orígenes,
de que lo que convierte en científico un cierto problema es, más que el problema mismo, el
hecho de que haya científicos interesados en resolverlo. Los problemas no pueden
dividirse en problemas científicos y no científicos sino que en problemas que interesan a la
comunidad científica y problemas que no lo hacen.
De acuerdo con la acertada caracterización que John Ziman hace del conocimiento
científico, éste es fundamentalmente conocimiento público, o sea, es el producto de una
empresa humana colectiva cuyo fin "es lograr un consenso de opinión racional sobre el
ámbito más amplio posible". (John Ziman, 1981, p.14) Por tanto, para convertir el problema
de las "diluciones homeopáticas" en un asunto de investigación genuinamente científico,
se debe interesar a la comunidad de científicos proponiéndoles una explicación que pueda
ser sometida a contrastación experimental. Éste es el propósito que nos anima en el
presente trabajo de investigación.
Ahora bien, en el desarrollo de esta tarea nos encontramos con dos visiones
contrapuestas, que empantanan de alguna manera este proceso. Por una parte, la visión
de los propios médicos que practican la Homeopatía con fines terapéuticos ; y, por otra
parte, la visión de los críticos que -al carecer de la experiencia de los anteriores en la
5
efectividad médica de las "diluciones homeopáticas"- son escépticos a su respecto.
Escepticismo razonable pero no siempre bien fundado.
LA VISIÓN DEL MÉDICO HOMEÓPATA.
Al médico homeópata le resulta difícil aceptar que su rica experiencia confirmatoria de
la efectividad terapéutica de las "diluciones homeopáticas", no baste para establecer un
hecho científico: el hecho de que las "diluciones homeopáticas" actúen más allá de toda
duda razonable.
Así, frente al argumento que pretende explicar su efecto mediante la sugestión –el
llamado "efecto placebo"-, le contrapone otro argumento decisivo: la efectividad de las
"diluciones homeopáticas" en animales, niños pequeños (incluído lactantes) y, aún, en
plantas.
Otro argumento que pretende ser refutador es el de las curaciones espontáneas. Según
este argumento, la curación se produce de todas maneras –aun en ausencia de todo
tratamiento- en un cierto porcentaje de casos.
Sin embargo, este argumento sólo podría ser sostenido por alguien que supusiera –
equivocadamente- que los casos de curación mediante la Homeopatía son muy raros.
Efectivamente, si se tratara de algunas cuantas escasas curaciones, se podrían atribuir a
curaciones espontáneas que simplemente por azar sería dable esperar ; pero la realidad
es que los casos de curación homeopática son estadísticamente muy importantes, lejos de
lo que por mero azar se podría predecir. De esa forma este argumento también puede ser
rechazado.
Entonces el médico homeópata cree haber demostrado definitivamente la realidad de
las "diluciones homeopáticas". Es necesario decir que ésto constituye un error. La praxis
médica es una parte de la Tecnología (ya que es una técnica) y no de la Ciencia en
sentido estricto, por lo cual los resultados terapéuticos no pueden tomarse como una
prueba o demostración de alguna teoría, pretendiendo así establecer un hecho científico.
Es la Tecnología la que está fundada en la Ciencia y no al revés, de tal manera que
mientras "la justificación del conocimiento técnico se basa en la exitosa manipulación de
los fenómenos,... ésta no juega el mismo papel en la justificación del conocimiento
científico".(León Olivé, 1991, pp.149-150.)
En otras palabras, la gran cantidad de resultados positivos en el uso de la terapéutica
homeopática hablan a favor de la existencia de un problema -precisamente el que hemos
llamado "problema de las ‘diluciones homeopáticas’"-, el cual necesita concretarse en una
hipótesis para poder entrar en el terreno franco de la investigación científica. Aclaremos,
sin embargo, que esa hipótesis debe ir más allá de la eficacia terapéutica –asunto que
incumbe a la tecnología del acto médico-; es decir, que el problema sería el mismo aun
cuando las "diluciones homeopáticas" se hubieran revelado como pobres medicamentos
de un bajo porcentaje de curación (lo cual, ciertamente, no es el caso). Pues si el
medicamento homeopático es de verdad capaz de curar, bastaría un solo caso si éste
pudiera ser comprobado ; ya que para explicar ese único caso, deberíamos aceptar que
existe "algo" capaz de curar en esas diluciones llevadas más allá del límite de dilución del
soluto (Número de Avogadro).
Es de la posible actividad en general de las "diluciones homeopáticas", entonces, de lo
que estamos hablando y no de la actividad terapéutica en particular. El problema no
consiste en buscar una explicación a una supuesta acción terapéutica de las "diluciones
homeopáticas" –ése es un problema diferente: el problema de la validez científica de la
"ley de los semejantes" (Véase el ensayo ¿Es la llamada "ley de los semejantes" una
ley científica?, del mismo autor del presente trabajo.)-, sino que a una acción que pueda
demostrarse como realmente presente mediante algún reactivo de cierto tipo (que alguna
6
implicación de la misma hipótesis deberá precisar). Éste es el primer paso.
Posteriormente, es la prosecución de la investigación científica la responsable de
encontrar una respuesta racionalmente satisfactoria.
LA VISIÓN CRÍTICA A LA HOMEOPATÍA.
Una crítica frecuente de aquellos que se acercan a la Homeopatía, no como a un
problema por resolver sino que con un prejuicio condenatorio, es la siguiente:
"¿Cómo explican los homeópatas esta supuesta potencia de las dosis infinitesimales,
incluso cuando la dilución elimina todas las moléculas de una sustancia? Hablan de
misteriosas vibraciones, campos de fuerza o radiaciones totalmente desconocidas por la
ciencia."(Martin Gardner, 1993, p.37.)
La base del argumento de Martin Gardner, parece ser el siguiente: "Si Ud. –en este
caso, el médico homeópata- no puede explicarme cómo es posible que las ‘diluciones
homeopáticas’ puedan tener algún efecto, cierta actividad medible de algún tipo, cierta
‘potencia’ –como suele llamarse-, entonces tal efecto o potencia no existe".
Este argumento confunde dos conceptos que, aunque puedan estar relacionados, son
diferentes. El concepto de explicación científica con el concepto de comprobabilidad
fáctica. Es cierto que la existencia de una explicación en forma de teoría es el camino
para propiciar la comprobación objetiva de los hechos, pero se trata de dos cosas distintas.
En otras palabras, no se pueden negar los hechos mientras no se hayan dado
primeramente los pasos necesarios para intentar establecer esos hechos. Por supuesto,
tampoco se pueden aseverar. Es decir, toda afirmación a priori, tanto la de los defensores
como de los detractores de la Homeopatía, constituye una equivocación. Sólo cabe una
actitud científica: posponer todo juicio definitivo hasta tener pruebas suficientes.
En lo que sigue de este trabajo, procuraremos desarrollar una teoría acerca de los
posibles mecanismos reales subyacentes que expliquen el fenómeno de las "diluciones
homeopáticas", con el objeto de que sea criticada –para su perfeccionamiento-; y permita
asimismo el establecimiento de un modelo experimental, única forma estrictamente
científica de responder al problema que éstas plantean. Tal vez este esfuerzo remueva el
escepticismo de quienes, como Martin Gadner, requieren de argumentos racionales antes
de decidirse a examinar las pruebas empíricas que la Homeopatía dispone.
Dos preguntas han guiado nuestra investigación: ¿qué es aquello que persiste a la
dilución más extrema y cómo –de qué manera- se produce en el proceso de dilución?
LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS"
Es en el proceso de preparación de las "diluciones homeopáticas", donde debiéramos
encontrar las pistas que nos conduzcan a descubrir cuál es la explicación del efecto –si
éste verdaderamente existe- de estas diluciones.
Si tomamos una parte de cierta sustancia –imaginemos que se trata, por ejemplo, de
cloruro de sodio o sal común- y nueve partes de solvente, tendremos una primera dilución
decimal (o D1). El solvente usado es una mezcla de alcohol y de agua, pero –para
nuestros fines- nos limitaremos al estudio del agua, ya que el alcohol es usado más bien
para evitar cualquier tipo de contaminación biológica (por ejemplo, por levaduras).
Ahora bien, el proceso de dilución se aplica sucesivamente sobre la dilución anterior –
sobre D1, luego sobre D2, luego D3, D4, etc.-, vale decir, por cada una parte de la dilución
precedente, se agregan nueve partes de solvente, hasta alcanzar diluciones sobre el límite
físico impuesto por el Número de Avogadro. Este número adimensional expresa, como se
recordará, el número de moléculas presentes en un mol (la masa molecular expresada en
gramos) de cualquier sustancia y que, bajo condiciones normales, es igual para todas:
aproximadamente 6 x 1023
moléculas.
7
Por una simple operación aritmética, se puede ver que cualquier dilución decimal
superior a la número 23 (por sobre D23), o sea, cuando el proceso de dilución se ha
realizado 23 veces sucesivas, carece de toda posible molécula de soluto (la sustancia en
dilución).
Aquí es precisamente donde comienza el misterio, porque ya no es posible explicar la
supuesta acción de la "dilución homeopática" sobre tejidos humanos o animales (incluso
vegetales), a base de las leyes de la Farmacología –y, en último término, mediante las
leyes de la Química-. Si la acción no es responsabilidad de las moléculas (inexistentes) del
soluto –porque las únicas moléculas que persisten son las del agua-, es a éstas donde
debemos dirigir nuestra mirada en busca de una (nueva) explicación.
Proponemos llamar a toda dilución por sobre el límite de persistencia del soluto,
establecido por el Número de Avogadro, como "solución cero". Ésta es meramente una
convención terminológica, pero nos parece útil para el fin de tener presente con mucha
claridad que es de las moléculas de solvente –y, más precisamente, de las moléculas de
agua- de lo que estamos hablando.
Un reparo podría ser que, en lugar de "solución cero", podríamos decir simplemente
"agua", pero ésto equivaldría a dar por solucionado el problema antes de haberlo
investigado. Pues si se trata de moléculas de agua, no es ciertamente de moléculas de
agua ordinaria de lo que hablamos. Ahora, responder en qué consiste lo especial de estas
moléculas de agua que llamamos "solución cero", es el asunto de todo este trabajo en
busca de una explicación.
Hemos tomado como ejemplo de preparación de una solución homeopática, al cloruro
de sodio o sal común, que es una sustancia fácilmente soluble en agua. ¿Qué ocurre con
las sustancias que no son solubles en agua, como es el caso de tantas sustancias
orgánicas o el caso de los metales?
El mismo Samuel Hahnemann resolvió este problema: En un mortero, sometió a
trituración la sustancia insoluble tomando una parte por nueve partes de lactosa (azúcar de
leche), y en trituciones sucesivas –idénticas a las diluciones ya descritas usando agua-
prosiguió hasta alcanzar su estado de solubilidad. En ese momento –que para los metales
es, en la mayoría de los casos, alrededor de la 8a
trituración decimal- se traspasa de la
trituración a la solución acuosa. Con ésto se demuestra que, en estricto rigor, no existe
sustancia alguna que sea absolutamente insoluble en agua. Se ha demostrado que es así
aun con el cuarzo de la arena de playa: se la tritura varias veces sucesivamente y luego se
torna soluble en agua.
Todo lo anterior nos lleva a concluir que la solubilidad juega un papel muy importante
en esta investigación en la que estamos empeñados. En efecto, la solución implica
solubilidad del soluto en el solvente o, en otros términos, involucra una interacción entre
las moléculas del soluto (en las primeras diluciones) y las moléculas del solvente (el agua).
Y cuando desaparece el soluto (solución cero), algunas de las moléculas de agua deben
tomar su lugar, de manera de poder interactuar con las nuevas moléculas de agua
agregadas por la dilución. Si así no fuera, el proceso se interrumpiría, ya que a esta altura
no quedan moléculas de soluto –que, de alguna manera, son responsables del cambio
sufrido por el agua-.
Las moléculas de agua, entonces, cumplirían una doble función. Por una parte,
deberían ser susceptibles de sufrir la influencia de las moléculas de soluto,
modificándose de una manera perdurable, aunque no necesariamente permanente ; y, por
otra parte, deberían poseer además la aptitud de reemplazar a éstas, adoptando su papel,
y, de esa manera, ser capaces de influenciar a nuevas moléculas de agua.
¿Y cuál podría ser el mecanismo mediante el cual el agua cumpliría esta importante
doble función? En una primera aproximación –ya encontraremos una respuesta más
8
completa y más detallada en lo que sigue-, conjeturamos que son principalmente los
puentes de Hidrógeno del agua, los implicados en estas nuevas funciones. Dado que la
carga eléctrica de la unión del Oxígeno con cada Hidrógeno, está más repartida en la
vecindad del Oxígeno, cualquiera de los dos Hidrógenos se puede unir fácilmente a los
electrones libres del átomo de Oxígeno de otra molécula de agua. Se forma así una unión
que, aunque es más débil que las uniones químicas ordinarias, es por eso mismo de una
mucho mayor plasticidad ; y que se denomina "puente de Hidrógeno".(Lachek, Diner y
Fargue, 1989, p.133.)
El resultado es la formación de polímeros de agua, es decir, de largas cadenas
constituídas por moléculas de agua. De hecho, éstas se están formando todo el tiempo en
el agua común en equilibrio térmico con su ambiente. Sin embargo, el proceso de unión de
varias moléculas de agua para constituir una sola gran estructura molecular (un polímero)
en presencia de un soluto diluído es, en nuestro criterio, el suceso clave para la
explicación buscada. ¿Por qué?
Porque la complejidad estructural así adquirida por el solvente –el agua- debe estar
relacionada, de alguna forma, con el soluto. Posteriormente el soluto desaparece, pero
no sin antes dejar en el solvente algún cambio perdurable (asociado con el aumento de la
complejidad). Ésto es a lo que –en nuestra opinión, muy desafortunadamente- se ha
llamado "memoria del agua". (Por ejemplo, en Jacques Benveniste, 1991, p.816.)
Lo desafortunado está en intentar explicar lo oscuro por lo oscuro: si se tuviera una
teoría de la memoria muy desarrollada y, además, de carácter general, entonces sería útil,
pero lamentablemente ése no es el caso. Se entiende, así, el sarcasmo de Martin Gardner:
"En otras palabras, el agua puede recordar las propiedades de una sustancia que ha
desaparecido de ella".(Martin Gardner, 1993, p.37.) Evidentemente, el agua no puede
"recordar", ésa es una función del cerebro, pero tal vez el mismo mecanismo físico que
está en la base de este fenómeno del agua que estamos analizando, sea útil mañana para
explicar el mecanismo de la memoria en su recto sentido (o sea, como una propiedad del
cerebro). En todo caso, la memoria sería un rasgo del proceso, pero de ninguna manera
su explicación ; por el contrario, lejos de explicar algo, necesita a su vez ser explicada.
Volviendo de esta digresión al tema del aumento de la complejidad estructural del
solvente, digamos que el concepto de complejidad implica al concepto de orden.
Sin embargo, no es posible seguir nuestro análisis sin aclarar primero algunos
conceptos previos –como el concepto de entropía y su afín, el concepto de neguentropía-
que nos proporciona la Termodinámica. Más adelante, hablaremos de la equivalencia
entre la neguentropía –que dice relación con el orden- y la cantidad de información.
Posteriormente, el concepto de cantidad de información –una manera de medir la
complejidad- nos llevará a dilucidar el concepto mismo de Información*, fundamento último
de toda nuestra teoría.
*(Escribimos "Información" con I mayúscula para distinguirla de la llamada "cantidad de información", en la
cual "información" está con minúscula. La diferencia tipográfica es un trasunto de su diferencia conceptual,
como lo veremos en el texto.)
LA ENTROPÍA Y LA SEGUNDA LEY DE LA TERMODINÁMICA
En Termodinámica se reconoce a una 1ª Ley de la Termodinámica, conocida como
"Ley de conservación de la energía" y que establece que hay cierta magnitud llamada
"energía", la cual no varía con los múltiples cambios que ocurren en la naturaleza. Y se
reconoce además a una 2ª Ley de la Termodinámica, la cual establece, por su parte, que
existe otra magnitud llamada "entropía", que permanece constante en algunas
transformaciones y que aumenta en otras, sin disminuir jamás. Aquellas trasformaciones
en las cuales la entropía aumenta, se denominan "procesos irreversibles".
9
La 2ª Ley de la Termodinámica se aplica solamente a sistemas aislados, es decir, a
sistemas en los cuales las transformaciones implicadas quedan todas incluídas en ellos
(como es el caso de la "dilución homeopática"). En sistemas abiertos, en cambio, así como
la energía puede pasar de un sistema a otro –y entonces mientras uno la pierde, el otro la
gana, pero el balance total es igual a cero-, lo mismo acontece con la entropía: si un
sistema gana en entropía, su alrededor (que es otro sistema) la pierde, pero el balance
total es nulo. Vale decir, al sistema más su alrededor se le considera como un sistema
aislado –así se ha considerado al universo-. Éste es el caso, sin embargo, de los procesos
reversibles, los cuales son procesos ideales (ya que no existen en la naturaleza).
En los sistemas reales, y como tales escenarios de procesos irreversibles, el balance
final de entropía es siempre positivo. Además, es muy importante señalar que la entropía
aumenta en un sistema aislado hasta alcanzar un máximo, que es su estado de
equilibrio (porque espontáneamente permanece en él).
Desde fines del siglo XIX –allá por el año de 1872-, se empieza a reconocer con Ludwig
Boltzmann que esta segunda Ley es una ley de naturaleza probabilística (o estadística).
Esto quiere decir que no es imposible que en un sistema aislado pueda alguna vez
disminuir su entropía, en lugar de aumentar. Esta aparente contradicción con lo estipulado
por la segunda Ley, no es tal, pues la predicción de la ley está garantizada, en los hechos,
por aquella otra ley que es principio fundamental de toda estadística: la llamada "ley de los
grandes números". O sea, las excepciones se pierden en el conjunto inmensamente
superior -en extensión- de los resultados esperados. Sin embargo, es posible la existencia
de excepciones ; todavía más, podríamos decir que la existencia de excepciones es
inevitable dada su naturaleza probabilística.
Boltzmann –uno de los creadores, junto con J.W. Gibbs, de la Mecánica estadística-
utilizó la teoría cinética de los gases, de acuerdo con la cual la cantidad de calor de un gas
depende del movimiento irregular de sus moléculas, para mostrar que las colisiones entre
moléculas conducen –según leyes estadísticas- a una igualación media de las diferencias
de velocidad que ellas presentan.
Así, las moléculas más rápidas que el promedio, pierden velocidad con cada choque;
mientras las moléculas más lentas que el promedio, ganan velocidad al chocar con las
moléculas más rápidas. Es precisamente esta igualación (o sea, desaparición de las
diferencias) lo que constituye el estado de equilibrio –o estado de máxima entropía-.
En palabras de Prigogine: "Dicho de otro modo, las colisiones entre las partículas
aparecen como el mecanismo microscópico que conduce el sistema al equilibrio".(Ilya
Prigogine, 1996, p.27.)
Vale decir, el incremento de entropía durante los procesos físicos implica que los
conjuntos bien ordenados de moléculas se transforman en conjuntos mal ordenados. El
"orden" es aquí sinónimo de "diferencia" o de "heterogeneidad", lo cual no coincide
necesariamente con el concepto de sentido común -o habitual de nuestra vida diaria- de
orden. Para dar un ejemplo: si todas las moléculas rápidas –o sea, más rápidas que el
promedio- se concentraran en la mitad izquierda del recipiente que las contiene, y las
moléculas lentas –o sea, más lentas que el promedio- lo hicieran en su mitad derecha,
tendríamos el estado de máximo orden (o el estado más alejado del estado de
equilibrio, que es el estado de máximo desorden o entropía). Al sentido común, tal vez, le
parecería más ordenado un estado homogéneo, es decir, un estado en que las moléculas
están distribuídas en forma uniforme –donde en cualquier subespacio del sistema
encontraríamos moléculas con una velocidad fluctuando muy poco alrededor del promedio-
. Ésta es, sin embargo, la descripción del estado de equilibrio.
De acuerdo con Boltzmann, las colisiones al azar entre las moléculas del gas (el
llamado "caos molecular", que no es lo mismo que "el caos dinámico", del cual hablaremos
10
después) son las responsables de esta igualación de las diferentes velocidades
individuales, hasta alcanzar el estado de equilibrio termodinámico –en el cual el espectro
de velocidades de las moléculas se distribuyen en una curva normal alrededor de la
velocidad promedio (distribución de Maxwell)-. Destaquemos que el estado de equilibrio
termodinámico es considerado por la Mecánica estadística como el estado de máxima
probabilidad:
"Para un conjunto macroscópico aislado, el mismo estado neto de equilibrio se
predetermina mediante la Termodinámica como aquel en que la entropía llega a un valor
máximo, y por medio de la Mecánica estadística como aquel que corresponde a una
configuración predominante asociada con el número máximo de microestados". (L.K.
Nash, 1974, p.53.)
Ahora, ¿por qué se califica al estado de equilibrio como el equivalente al estado de
máxima probabilidad de la Mecánica estadística? Porque las distribuciones en el espacio
de velocidades cercanas o levemente diferentes a la velocidad promedio -vale decir, la
configuración predominante- están en un número inmensamente superior a aquellas
velocidades alejadas del promedio (aquellas moléculas o demasiado rápidas o demasiado
lentas). La configuración predominante, entonces, constituye el estado más probable
del sistema. Y el estado de máxima entropía corresponde así a una homogeneidad
estadística. A pesar de ésto, no es imposible que el choque de las moléculas pueda
producir resultados que van en contra de esta igualación, lo cual no invalida sin embargo a
esta ley probabilística que es la 2ª Ley de la Termodinámica.
Nada prohíbe que del choque de una molécula rápida con otra molécula lenta, por
ejemplo, la molécula rápida se haga más rápida y la molécula lenta se haga más lenta.
Este resultado va en contra de la tendencia igualitaria –o sea, la tendencia hacia el
incremento de la entropía-, pero se puede producir perfectamente ; sólo que por ser su
ocurrencia estadísticamente no significativa, se pierde en el resultado de conjunto que
siempre representa un incremento de entropía (o desorden).
Por otra parte, se habla de "estado de equilibrio" porque una vez que la distribución
más probable ha sido alcanzada, permanece estacionaria. Pese a las colisiones
posteriores que pueden hacer variar las velocidades individuales de las moléculas, la
distribución de conjunto permanece invariable.
Antes de hablar de la neguentropía, debemos aclarar un poco más los concepto de
orden y desorden. Digamos previamente que la entropía es una función general que
caracteriza el estado de un sistema -de un gas, por ejemplo- como un todo.
Si distinguimos entre microestado y macroestado, el primero se refiere a las
ordenaciones moleculares (o configuraciones moleculares) y el segundo a la clase de
ordenaciones (o microestados) que son macroscópicamente indistinguibles entre sí.
(Hans Reichenbach, 1959, pp.106-108.)
Y agreguemos que las ordenaciones macroscópicamente indistiguibles poseen el
mismo grado de orden. Por tanto, al macroestado correspondiente a un cierto
microestado (a una cierta ordenación) se le puede denominar clase del mismo orden.
De manera que el grado de desorden puede medirse por el número de ordenaciones
que componen una clase del mismo orden, es decir, por su extensión, determinando así
la configuración predominante. Recíprocamente, un alto grado de orden estará
constituído por una clase del mismo orden que sea pequeña en extensión.
Ésta es la concepción en la cual se basa la interpretación de la entropía como medida
del desorden, o como medida inversa del orden, y por la cual la entropía –y con ella la
probabilidad- aumenta en función del número de ordenaciones (o microestados)
pertenecientes a una clase del mismo orden. Ahora, si en lugar de usar el concepto de
entropía como medida inversa del orden de un sistema, utilizamos el concepto de
11
neguentropía, será posible entonces hablar directamente del grado de orden del sistema
considerado.
LA NEGUENTROPÍA Y EL ORDEN
La pregunta que surge en este momento es: ¿debemos considerar a la neguentropía (o
entropía con signo negativo) simplemente como una forma de referirse a la entropía y con
lo cual queremos dar a entender que la entropía del sistema considerado disminuyó en
lugar de aumentar? Si así fuera, entonces no tendría más importancia que su mero valor
terminológico.
O bien, ¿debemos considerar a la neguentropía como un concepto propio, relacionado
pero distinguible del concepto de entropía? La mejor manera de investigar el concepto de
neguentropía es oponiéndolo al concepto de entropía, o sea, considerándolo como
equivalente a la anti-entropía.
Luego, si el estado de equilibrio es aquel estado de un sistema en el cual la entropía
es máxima, pero es igualmente –como lo señala la Mecánica estadística- el estado más
probable, entonces cualquier estado improbable puede ser considerado como un
estado neguentrópico.
Antes de seguir adelante, digamos que aceptamos plenamente el punto de vista que
considera a la Mecánica estadística como una explicación de la Termodinámica (en el
sentido de ser lógicamente anterior). Y ésto es muy importante, pues, como afirma Nash:
"La Termodinámica no proporciona ninguna información acerca del porqué los procesos
espontáneos se realizan con un aumento de la entropía".(L.K. Nash, 1974, p.53.)
Las consecuencias de esta posición probabilista de la Mecánica estadística con
respecto a la segunda Ley, ya la hemos señalado ; lo haremos ahora explícitamente: La
segunda Ley afirma, simplemente, el paso del sistema a configuraciones moleculares cada
vez más probables a medida que pase el tiempo -aunque no en un tiempo determinado-.
De aquí se desprende, entonces, que los sucesos improbables quedan descartados. Pero
mientras que la Termodinámica clásica lo hacía en términos absolutos, la Mecánica
estadística deja abierta su posibilidad.
Así, en palabras de Margenau: "La validez de la segunda Ley se convierte entonces
solamente en una cuestión de una elevada probabilidad: el recipiente de agua sobre el
fuego tiene una probabilidad extremadamente pequeña, pero finita, de helarse..." (Henry
Margenau, 1970, p.203.)
Como explica el mismo autor: "...cabe la posibilidad de movimientos excepcionales", sin
embargo, ocurre que "éstos son dinámicamente tan inestables que la más ligera
perturbación los destruiría" (el destacado es nuestro); por eso, "no es necesario, en
absoluto, tenerlos en cuenta en un sentido estadístico ..."(Henry Margenau, 1970, p.261.)
Actualmente, sin embargo, un autor como Prigogine hace de este supuesto defecto –
del carácter exclusivamente probabilístico de la segunda Ley- una virtud:
"La noción de probabilidad introducida empíricamente por Boltzmann fue un golpe de
audacia muy fecundo. Después de más de un siglo empezamos a entender cómo surge
de la Dinámica a través de la inestabilidad: ésta destruye la equivalencia entre el nivel
individual y el nivel estadístico, al extremo que las probabilidades cobran una
significación intrínseca, irreductible a una interpretación en términos de ignorancia o
aproximación". (Los destacados son nuestros.) (Ilya Prigogine, 1996, pp.37-38.)
Vale decir, si aceptamos los supuestos de la Mecánica estadística, deberemos
tomarnos muy en serio el concepto de probabilidad –desde luego como un concepto
objetivo- y extraer de él todas sus consecuencias. Como dice Margenau: "si estas
probabilidades son primarias, si son el último recurso del científico, deben formar parte, en
12
algún sentido, de la realidad física..."; y concluye: "es preciso incorporar las probabilidades
a la estructura de la realidad".(Henry Margenau, 1970, p.261.)
En otras palabras, es necesario elegir la interpretación objetiva y rechazar la
interpretación subjetiva del cálculo de probabilidades. Recordemos que: "La teoría
subjetiva de la probabilidad surge de la creencia de que utilizamos la probabilidad sólo si
tenemos un conocimiento insuficiente".(Karl Popper, 1985, p.321.)
¿Cómo podríamos interpretar objetivamente el concepto de probabilidad?
La interpretación objetiva propensivista de Karl Popper es, a este respecto, interesante:
"La interpretación propensivista es, creo, la de la Mecánica estadística clásica. Boltzmann
habló de una tendencia. Pero creo que la interpretación propensivista describe mejor lo
que los autores clásicos tenían en mente cuando hablaban del cociente entre los casos
igualmente probables y los casos posibles: pensaban que este cociente era una medida
(una medida especialmente importante y conveniente, aunque no la más general) de la
propensión, característica de ciertas condiciones especificadas a producir un suceso
dado." (Karl Popper, 1985, p.437.)
Más concretamente todavía: "Propongo interpretar la probabilidad objetiva de un
suceso singular como una medida de una propensión objetiva, de la fuerza de la
tendencia, inherente a la situación física especificada, a realizar el suceso, a hacer que
ocurra." (Los destacados son nuestros.) (Karl Popper, 1985, p.434.)
Para entender más plenamente la interpretación propensivista, es importante partir del
siguiente reconocimiento de Popper: "Cualquiera que sea la interpretación que adoptemos
de los enunciados científicos de la probabilidad, no hay duda de que la interpretación
frecuencial sigue siendo de fundamental importancia, puesto que son siempre enunciados
de frecuencias los que sometemos a contrastaciones empíricas." (Karl Popper, 1985,
p.400.)
Unida a la anterior, la siguiente clarificación de Karl Popper –referida a las condiciones
de una cierta situación experimental singular- es decisiva:
"Porque con ‘propensión’ quiero decir exactamente la disposición (o como se quiera
llamar) de la situación a producir esas frecuencias [de la interpretación frecuencial de las
probabilidades], si el experimento se repite lo bastante a menudo."
Y concluye: "Las propensiones son disposiciones a producir frecuencias: ésta es
la interpretación sugerida por la teoría neoclásica. Pero ‘propensión’ no significa
‘frecuencia’, porque hay sucesos que se repiten demasiado raramente como para
producir nada parecido a un buen segmento de una sucesión aleatoria (o una ‘frecuencia’);
con todo, esos sucesos raros pueden muy bien tener una propensión". (Karl Popper,
1985, p.436.) (Los destacados son nuestros.)
Luego, los sucesos improbables son, aunque raros, posibles, porque son también
posibilidades ; y en cuanto posibilidades objetivas -es decir, en cuanto propensiones-,
deben ser considerados como componentes siempre presentes en todo tipo de
expresiones de la realidad. En una población cualquiera, ya sea de seres humanos, de
moléculas de un gas o de tiradas de cartas de un naipe, existen siempre fracciones que
se apartan –más o menos- del promedio (que representa la tendencia mayoritaria); y
deberíamos entenderlas como propensiones que se manifiestan raramente (o sea, de baja
frecuencia).
Alguna fracción pequeña –no significativa estadísticamente- de sucesos, ocurrencias o
eventos improbables, raros o extraordinarios se presenta, de hecho, con la regularidad de
una ley de la naturaleza, en cualquier situación posible, si la población es lo
suficientemente grande. Desde luego que estos sucesos improbables se ocultan en el
conglomerado de los sucesos probables, de ahí que no es siempre fácil detectarlos.
13
EL PAPEL DE LAS PROPENSIONES Y DE LAS RESONANCIAS
La idea central que subyace a esta concepción objetiva de las probabilidades, es que
todas las posibilidades están presentes de momento a momento en el universo. Esta
concepción guarda una estrecha relación con la hipótesis ergódica, que el propio
Boltzmann formuló. Pensaba Boltzmann que, en un sistema aislado, se presentarían todas
las configuraciones energéticamente posibles de adoptar por parte de las partículas, si se
espera el tiempo suficiente. En palabras de Ruelle: "una manera más correcta de expresar
las cosas es decir que el sistema volverá a pasar incansablemente tan cerca como se
quiera de cualquier configuración energética permitida". (David Ruelle, 1993, p.118.)
Por supuesto, el sistema permanecerá la mayor parte del tiempo en la configuración
predominante, donde la entropía del sistema es máxima. Pero ocasionalmente podrá
presentarse una configuración rara. Ahora, si es cierto que las configuraciones expresan
posibilidades objetivas, entonces todas las configuraciones en cuanto propensiones
reales deberían estar simultáneamente presentes todo el tiempo.
Para entenderlo mejor, veamos en palabras de Popper cómo surge esta concepción
objetiva propensivista de las probabilidades: "La interpretación propensivista puede
considerarse en relación con la interpretación clásica, que define la probabilidad como el
número de casos favorables dividido entre el número de casos posibles. Esto sugiere que
podemos interpretar la probabilidad como una medida de las posibilidades."(Karl Popper,
1985, p.326.)
Continúa Popper: "Ahora bien, la interpretación propensivista está estrechamente
relacionada con la interpretación que considera la probabilidad como una medida de las
posibilidades. Lo único que añade a ésto es una interpretación física de las
posibilidades, a las que no considera como meras abstracciones, sino como
tendencias o propensiones físicas a producir el estado posible de cosas, tendencias
o propensiones a realizar lo que es posible. Y supone que la fuerza relativa de una
tendencia o propensión de este tipo se expresa en la frecuencia relativa con la que logra
realizar la posibilidad en cuestión." (Los destacados son nuestros.) (Karl Popper, 1985,
p.326.)
Por tanto, las posibilidades son propensiones físicas que se realizan con una cierta
frecuencia relativa a la situación que sea el caso ; lo que parece depender, en cierta
medida, del conocimiento que posea el observador y, en una medida mucho mayor, de
cómo sea el mundo. En el primer caso, se trata de la probabilidad entendida en un sentido
subjetivo –algo así como un cálculo de expectativas racionales-; en cambio, objetivamente
hablando, cualquier posibilidad por el solo hecho de existir constituye una propensión real
que depende exclusivamente de cómo sea el mundo. Incluso en ausencia del observador,
habrá posibilidades que sean improbables y otras probables, y será el dato objetivo de sus
frecuencias relativas el que determinará que pertenezcan a una u otra categoría.
El grado de probabilidad, entonces, es una medida objetiva de las posibilidades ; y
determinará un tipo especial de posibilidad, aparentemente trivial, que es el de posibilidad
improbable. Y decimos "aparentemente" trivial porque está muy lejos de serlo.
Primeramente, las posibilidades improbables son propensiones físicas a producir un
determinado estado de cosas –al igual que toda posibilidad-, pero que se expresan
raramente, o más bien, bajo condiciones muy especiales. Sin embargo, serán
justamente las posibilidades improbables las más interesantes en relación con el estudio
de las "diluciones homeopáticas" –ya veremos porqué-, a condición de que entendamos la
posibilidad en el sentido realista de propensión ya precisado por Popper:
"Se me preguntará por qué propongo introducir propensiones ocultas tras las
frecuencias. Mi respuesta es que conjeturo que esas propensiones son físicamente
14
reales en el mismo sentido que las fuerzas de atracción o repulsión, por ejemplo, pueden
ser físicamente reales." (El destacado es nuestro.) (Karl Popper, 1985, p.326.)
Destaquemos desde ahora mismo que el concepto de Información (que está implícito
en el de cantidad de información) es homologable con el concepto de posibilidad
improbable, aunque considerado desde la perspectiva de un cierto observador, es decir,
subjetivamente (en cuanto incertidumbre). Ahora, cuando hablamos de "posibilidad
improbable" en el presente contexto, o sea, objetivamente, nos estamos refiriendo
concretamente a cualesquiera de las configuraciones moleculares no predominantes, es
decir, distintas de la configuración predominante.
Más adelante estudiaremos que la cantidad de información de un sistema mide el
grado de improbabilidad que tiene ese sistema de ser tal cual es, o sea, se da la
siguiente relación: a mayor improbabilidad, mayor cantidad de información.
El caso extremo opuesto es el del estado de equilibrio, donde la entropía es máxima y
la cantidad de información es nula. Pero la improbabilidad tiende a ser entendida como
referida a posibilidades ideales –de ahí el uso de un concepto subjetivo de probabilidad-, y
no a posibilidades reales, que existen en el mundo (independientemente de cualquier
observador). Mas, si adoptamos esta última perspectiva, constataremos que la posibilidad
improbable es algo que le pertenece al sistema mismo, incluso en ausencia de algún
observador.
En otras palabras, lo que desde la perspectiva del observador se expresa por una cierta
cantidad de información, corresponde -desde la perspectiva, ahora, del sistema en
consideración- a una posibilidad improbable. Ciertamente que, en la medida que la
posibilidad se hace más improbable –o menos probable, o sea, más rara-, la cantidad de
información implicada es mayor ; y, en la medida que la posibilidad se hace más probable,
la cantidad de información disminuye, hasta finalmente desaparecer (en el estado de
equilibrio).
Es decir, entonces, que la Información sólo puede surgir de un estado neguentrópico
(de un estado improbable). Éste es, para nosotros, el sentido más profundo de la
equivalencia entre la Información y la neguentropía.
Al analizar el famoso experimento imaginario de Maxwell, conocido como "el demonio
de Maxwell", Brillouin llega a la conclusión de que la Información puede definirse por la
correspondiente cantidad de entropía negativa (o neguentropía). Ahora bien, si para
Brillouin la Información y la entropía deben tener signos opuestos, para Shannon –creador
de la "Teoría de la información"- la Información se asocia con la entropía, o sea, él asocia
la Información con el desorden y no con el orden.
Sin embargo, esta contradicción aparentemente irreconciliable no afecta nuestra
descripción porque el concepto de neguentropía, tal cual nosotros lo entendemos, surge
naturalmente del análisis de la Mecánica estadística y de cómo ella explica la entropía
termodinámica en términos de probabilidades. Así, siendo el estado de máxima entropía
también el más probable, la neguentropía es sinónimo de improbabilidad..
Si a lo anterior se agrega un concepto objetivo de probabilidad que considera a las
posibilidades en cuanto propensiones, resulta comprensible una equivalencia real (y no
meramente conceptual) entre la Información y la neguentropía. En diferentes palabras,
desde esta perspectiva una concepción subjetiva de las probabilidades debe ser
descartada, como la que destila de la siguiente afirmación de Henry Atlan:
"El formalismo de la teoría de la información es un formalismo probabilista que nos es
impuesto porque tratamos con sistemas que sólo podemos conocer global e
imperfectamente". (Henry Atlan, 1990, pp.76-77.) Vale decir, las probabilidades sólo
expresarían nuestra ignorancia acerca de cada uno de los detalles de los sistemas
estudiados. Sin embargo, si interpretamos a la probabilidad como una medida de las
15
posibilidades, y a éstas como propensiones realmente existentes, entonces el
reconocimiento de que no conocemos plenamente un cierto sistema no cambia el hecho
de que la Información exista por sí misma (con independencia del observador del sistema
y su relativa ignorancia).
Así, la Información puede ser vista como una objetiva posibilidad improbable -vale
decir, como una propensión que es a la vez improbable-, pero que, por alguna razón, se
hizo activa. Una de las razones de que se haga activa, por ejemplo, es la presencia de un
observador que, al interferir con el sistema, se convierte en el receptor de la Información.
Pues bien, es igualmente posible que la Información pueda no estar activa (Información
latente: una propensión a actuar no manifestada), y entonces coincidirá externamente
con la entropía –o sea, con el desorden que la oculta- y no con la neguentropía (tal como
lo consideraba Shannon); y de esa manera se vuelve posible que "el orden pueda surgir
del caos", como se afirma, pero sólo al hacerse nuevamente activa la Información.
Por ahora, nos conformaremos con establecer la equivalencia entre la Información y la
neguentropía, pero si somos algo más rigurosos deberíamos precisar ciertos puntos. Ante
todo, que la verdadera equivalencia –en un sentido conceptual- es únicamente entre la
neguentropía y la Información implícita en el concepto de cantidad de información. ¿Por
qué? Porque el concepto de cantidad de información involucra al observador y es, por
tanto, un concepto subjetivo –incluso, como tendremos la oportunidad de explicarlo más
adelante, es un concepto antropomórfico-.
Con respecto a la Información objetivamente tal, tendríamos que decir que la
neguentropía es solamente una condición necesaria para que la Información se
manifieste.
De otra manera dicha, la neguentropía no es condición suficiente –además de
necesaria- de la Información como formalmente se requiere para que sea una
equivalencia. Y el hecho de que la neguentropía no sea una condición suficiente de la
Información, implica que esta última es "algo" más que neguentropía. Volveremos sobre
este punto más adelante. Pero, como conclusión provisoria, establezcamos que hay tres
conceptos íntimamente entrelazados: el concepto de posibilidad improbable, el concepto
de Información y el concepto de configuración no predominante (estado
neguentrópico). O sea, una configuración no predominante representa una posibilidad
improbable y, por tanto, una Información.
Retornando al hilo de nuestra exposición, digamos que a veces ocurre que una
situación excepcional –o sea, una posibilidad improbable- se generaliza, constituyéndose
en un suceso más numeroso, de hecho, el predominante. La razón por la cual ésto ocurre
puede ser desconocida muchas veces, pero hay otras ocasiones en las cuales aparece un
fenómeno muy especial –como es el de resonancia- en cuanto causa suya.
LAS RESONANCIAS Y LA IRREVERSIBILIDAD
Ya tendremos la oportunidad de estudiar en qué consiste la resonancia, pero primero
destaquemos su importancia. En opinión de Prigogine: "Las resonancias de Poincaré
desempeñan un papel fundamental en Física. La absorción y la emisión de la luz se deben
a resonancias. En un sistema de partículas en interacción, la aproximación al
equilibrio se debe a resonancias. Los campos en interacción también crean resonancias.
Resulta difícil citar un problema importante de Física cuántica o clásica en que las
resonancias no desempeñen un papel." (El destacado es nuestro.) (Ilya Prigogine, 1996,
p.45.)
En una primera aproximación al tema, establezcamos el siguiente hecho: Las
resonancias conducen a un acoplamiento entre movimientos moleculares mediante
correlaciones. Por ejemplo, en un vaso de agua que contiene un número gigantesco de
16
moléculas "las colisiones entre las moléculas tienen dos efectos: tornan más simétrica la
distribución de las velocidades y crean correlaciones entre estas moléculas". (El
destacado es nuestro.) (Ilya Prigogine, 1996, p. 87.)
De esta manera aparece la irreversibilidad en el nivel estadístico: "Pero una partícula
correlacionada con otra encontrará seguidamente una tercera. Las correlaciones binarias
se transforman entonces en correlaciones ternarias, etc. En consecuencia, tenemos un
flujo de correlaciones ordenados en el tiempo."( Ilya Prigogine, 1996, p. 87.) Es decir,
que el número de partículas implicadas en las correlaciones aumenta continuamente. "En
el curso del tiempo nacen y se propagan correlaciones". Debido a las resonancias, los
procesos dinámicos "conducen a correlaciones de largo alcance, aunque las fuerzas
entre las moléculas sean de corto alcance".(Ilya Prigogine, 1996, p.139)
Ésto sucede en un simple vaso con agua, un sistema dinámico que, a pesar de su
sencillez, constituye un sistema inestable por la presencia de resonancias –lo cual implica
la existencia de interacciones persistentes entre las moléculas y, por tanto, el que sea un
sistema no-integrable en el sentido de Poincaré (véase más adelante)-. Sin embargo, la
incorporación de un soluto diluído va a determinar cambios mucho más importantes -como
tendremos la oportunidad de mostrar-, tal cual podría ser la aparición de un orden
específico que se extiende a toda la solución.
Lo que importa destacar hasta el momento es que existe este "mecanismo" de las
resonancias, a través del cual se puede generar una situación cualitativamente diferente
–ya veremos qué se debe entender exactamente por "cualitativamente diferente"- a la que
sería estadísticamente esperable para el estado de equilibrio de una población de
partículas libres sin interacción, o bien, cuasi independientes (que tienen escasa
interacción, tales como los gases a baja presión).
EL ESTADO NEGUENTRÓPICO
Pasemos ahora a una definición. Llamaremos "estado neguentrópico" a cualquier
estado en que se encuentra un sistema aislado mientras esté alejado del estado de
equilibrio. Vale decir: será un estado neguentrópico cualquier estado que no sea el propio
estado de equilibrio (en el cual la entropía es máxima, según ya sabemos). Muchos
estados neguentrópicos serán, simplemente, estados transitorios camino al equilibrio.
Pero, podemos suponer la existencia de otros tipos de estados neguentrópicos que sean
capaces de durar un tiempo mayor -cuando se dan ciertas condiciones de las cuales
tendremos que hablar un poco más adelante-, y que pueden dar lugar a interacciones
moleculares persistentes con sus respectivas correlaciones de un tipo sui generis.
Vale decir, suponemos que hay un punto crítico en la duración de un estado
neguentrópico, superado el cual el sistema presentaría condiciones aptas para que
resonancias especiales puedan difundirse por el sistema. Ésto convierte al concepto de
neguentropía en un concepto con sentido propio.
Ahora, ¿puede un sistema cerrado tal como una solución diluída mantenerse
indefinidamente en un estado neguentrópico? No, tarde o temprano ese sistema alcanzará
su estado de equilibrio –y la validez de la 2ª Ley de la Termodinámica quedará a salvo-,
pero se tratará de un sistema diferente. ¿Diferente de qué? Diferente de lo que habría sido
en ausencia del tipo de correlaciones moleculares como las producidas por las
resonancias presentes a causa del estado neguentrópico, y que se han difundido por el
sistema. Hablamos, entonces, de un equilibrio diferente –cualitativamente diferente- al
equilibrio alcanzado en un sistema en condiciones estables (sin estado neguentrópico).
Como veremos un poco más adelante, el papel desempeñado por el soluto es el de
proporcionar el punto de partida para que operen resonancias –diferentes a las que
17
existen en el solvente- que correlacionen moléculas de agua, cambiando así las
condiciones de equilibrio del sistema total (la solución). Sin embargo, antes de entrar en
ello, aclaremos un poco más el concepto de estado neguentrópico.
Decir "estado neguentrópico" es equivalente a decir "estado improbable". Es así porque
siendo el estado de equilibrio el estado más probable, cualquier estado neguentrópico es
necesariamente improbable. Pero no solamente éso. Desde el momento en que un estado
neguentrópico se hace predominante (se convierte en el macroestado predominante), deja
de ser un estado neguentrópico.
En otros términos, la improbabilidad es una condición tanto necesaria como
suficiente de un estado neguentrópico (un estado que no sea improbable no puede ser
un estado neguentrópico y basta que un estado sea improbable para que sea un estado
neguentrópico).
El estado neguentrópico, entonces, es consubstancial al estado transitorio de no
equilibrio ; por ende, se termina con el equilibrio. Según Prigogine: "En pocas palabras, la
distancia respecto al equilibrio es un parámetro esencial para describir el comportamiento
de la materia". Y hace la siguiente rotunda afirmación: "Lejos del equilibrio, la materia
adquiere nuevas propiedades en que las fluctuaciones y las inestabilidades
desempeñan un papel esencial: la materia se vuelve más activa". (Los destacados son
nuestros) (Ilya Prigogine, 1996, p.75.)
El papel que desempeña la distancia respecto al equilibrio, tal cual es destacado por
Prigogine, es también posible verlo –para el caso especial que nos ocupa- desde otra
perspectiva: el tiempo que demora el sistema en alcanzar nuevamente el equilibrio. El
tiempo es importante puesto que se trata de un proceso irreversible –se habla de "tiempo
de Liapunov", lapso de duración más allá del cual un sistema se hace caótico-.
Expresémoslo con las siguientes palabras: en un sistema dinámico en desequilibrio,
hay un lapso durante el cual diversas posibilidades improbables –propensiones físicas,
recordemos- existen en estado de tensión como flechas a punto de despegar del arco.
Pues bien, las probabilidades de que en cualquier instante una flecha se dispare -o sea, de
que una posibilidad hasta ese momento improbable se actualice-, aumenta con la
duración del estado de no equilibrio.
Sin embargo, así como esa duración posee un límite inferior, así también posee un
límite superior. El límite inferior, como ya dijimos, es aquel bajo el cual nada nuevo puede
ocurrir, ya que no existe propiamente un estado neguentrópico. El límite superior, por su
parte, es aquel que -habiéndose ya manifestado la propensión oculta- en nada contribuye
a su expresión. Por el contrario, más allá de ese límite superior, es importante que el
proceso se acelere, para así poder propagarse al resto de la solución (difusión).
Por eso, para nuestro análisis, lo más importante es -en cada uno de los procesos de
dilución- considerar el estado de desequilibrio que precede al estado de equilibrio,
mientras el sistema permanece aún en un estado neguentrópico. Es en ese momento
cuando se produce todo el proceso involucrado en las "diluciones homeopáticas".
Sin embargo, el estado de equilibrio en condiciones de aislamiento en el cual
desemboca permite que los cambios producidos se mantengan indefinidamente –mientras
no se le vuelva a diluir-. ¿Por qué? Ya hemos dicho que en el estado de equilibrio
termodinámico de un sistema aislado, la entropía alcanza su valor máximo ; pero también
debemos agregar que la energía libre alcanza su valor mínimo:
Pues, F = E – T S, donde F = energía libre, E = energía total, S = entropía, y T =
temperatura a la cual está el sistema-. (Puede verse fácilmente que cuando aumenta la
entropía S, la energía libre F disminuye.)
18
Para ese momento, el hecho de ser la entropía máxima y, por tanto, la energía libre
mínima, "garantiza que las perturbaciones o las fluctuaciones carezcan de efecto, pues
son seguidas de un retorno al equilibrio".(Ilya Prigogine, 1996, p.70.)
Más adelante, cuando hablemos de la Información, quedará establecido que sólo en
condiciones de no equilibrio –en un estado neguentrópico, por tanto-, la Información opera
(Información activa); y que en el estado de equilibrio, la Información permanece latente
(Información pasiva), es decir, como una propensión inmanifestada (pero manifestable).
Otra nota de un estado neguentrópico –que Prigogine ha destacado, pero refiriéndose a
sistemas abiertos lejos del equilibrio, cuando nosotros hablamos de sistemas cerrrados
lejos del equilibrio- es el de la novedad. Un estado de equilibrio nunca puede ser novedoso
(es el estado más probable, recordemos), pero bajo ciertas condiciones muy especiales –
que implican, naturalmente, la pérdida de un equilibrio anterior- el sistema puede dar
origen a una novedad, hasta ese momento oculta como un suceso altamente improbable
(una propensión, como ya sabemos). Que el agua adquiera las propiedades que los
homeópatas suponen que existen en las "diluciones homeopáticas", podría ser un buen
ejemplo de ello. El cómo es éso posible, pasaremos a explicarlo a continuación.
LA SEGUNDA LEY COMO LEY PROBABILÍSTICA Y SUS
CONSECUENCIAS
Habitualmente, los estados improbables no pueden subsistir por mucho tiempo, debido
a la operación de la segunda Ley. Pero en el caso de las "diluciones homeopáticas", se
dan condiciones que modifican la operatividad de esta segunda Ley, como veremos en
seguida.
Tratándose de un soluto constituído por un pequeño número de moléculas, el curso
que la segunda Ley predice –de aumento de la entropía en el sistema- ya no se cumple.
Ésa es una consecuencia necesaria del hecho de que la 2ª Ley de la Termodinámica sea
una ley de naturaleza intrínsecamente probabilística, es decir, que no se pueda aplicar a
conjuntos reducidos de moléculas.
Mientras que en un sistema formado por un gran número de moléculas –vale decir, un
número significativo desde el punto de vista estadístico-, esta ley se cumple la mayor parte
de las veces de una manera abrumadora (aunque no de manera absoluta, como sí
acontece con la primera Ley); cuando el número de moléculas presentes en el sistema es
estadísticamente no significativo, esta ley simplemente ya no se cumple, por lo cual se
producen grandes fluctuaciones con respecto a la configuración predominante. Es decir,
el sistema permanecerá un cierto tiempo en estado neguentrópico ; por tanto, sin
alcanzar el estado de equilibrio.
He aquí la gran clave –o, al menos, una de ellas- para comprender (explicar) el misterio
de las "diluciones homeopáticas". Expliquémoslo de esta forma: si utilizamos el concepto
de ley como prohibición, es decir, si consideráramos que la ley es como una prohibición
a que se produzcan ciertos acontecimientos –como lo propone Popper, por ejemplo, quien
considera que "las leyes naturales imponen ciertos límites a lo que es posible"- entonces la
segunda Ley prohíbe que, en un sistema aislado, la entropía disminuya (puede
permanecer igual, en el caso de los procesos reversibles, o simplemente aumentar, como
en los procesos irreversibles).
Ahora bien, tratándose de un sistema constituído por un número pequeño de
moléculas, esta prohibición no puede ejercerse, lo cual quiere decir que en tal sistema
la entropía no sólo puede disminuir sino que lo más probable es que disminuya. Ya no
está detrás la segunda Ley, por decirlo así, empujando para que la entropía aumente. O,
en diferentes palabras, durante una extensión importante de tiempo el sistema estará
en estado neguentrópico, es decir, alejado del estado de equilibrio que es donde la
19
entropía alcanza su máximo. Lo cual trae una consecuencia sumamente importante
consigo: el sistema se torna inestable.
Ciertamente que es posible, aunque extremadamente improbable, que el estado del
sistema coincida fortuitamente con el estado más probable -predicho por la segunda Ley-;
pero, siendo este sistema independiente de ella –por la razón ya señalada-, esa
coincidencia aleatoria no puede producirse sino muy raramente. Es como la imagen espejo
de la situación anteriormente descrita, aquella respecto a un sistema contituído por un gran
número de moléculas. Dicho esquemáticamente: en el sistema estadísticamente
significativo en el número de moléculas, la segunda Ley se cumple casi siempre ; en el
sistema que comporta un número no significativo de moléculas, la segunda Ley no se
cumple casi nunca (o sea, finalmente no se cumple).
En el caso de las "diluciones homeopáticas", sin embargo, la situación es algo más
compleja. Si elegimos una cierta dilución, por ejemplo: una D6, la relación entre el soluto y
el solvente es de 1 a 1.000.000, es decir, hay sólo 1 molécula de soluto por cada millón de
moléculas de solvente (el agua).
Tenemos el sistema total, la solución, constituído en un primer momento -antes de
completarse la solubilización del soluto- por dos fases (o partes homogéneas separadas
por fronteras identificables): la fase soluto y la fase solvente. Mientras que la fase soluto es
un sistema conformado por un muy pequeño número de moléculas (respecto al solvente),
y que, por lo tanto, no obedece a la segunda Ley ; la fase solvente es un sistema grande
estadísticamente, y, por lo mismo, debería obedecer a esta segunda Ley. Pero en realidad
se trata, funcionalmente hablando, de uno solo y mismo sistema: el sistema total, o sea,
la solución (el soluto disolviéndose en el solvente); y, por ende, la entropía o la
neguentropía –como interesa a este caso en particular-, que son funciones generales, se
aplican a todo el conjunto no-fraccionado.
Se sigue de aquí que, si una fracción de esa totalidad –la fase soluto- se encuentra en
un estado neguentrópico durante un cierto tiempo (alejada así del estado de equilibrio),
entonces la fracción restante de esa misma totalidad –la fase solvente- no puede
encontrarse al mismo tiempo en un estado de equilibrio. Todo lo cual implica que el
sistema total (la solución) se constituye en un sistema inestable, hasta el momento en
que pueda retornar al equilibrio y estabilizarse.
Por consiguiente, tanto la fase soluto como la fase solvente se encuentran en un primer
momento en plena interacción, vale decir, en un estado de no equilibrio. ¿Qué ha
ocurrido? Todo sucede como si la dilución extrema de cualquier sustancia, le permitiera
escapar a las redes de la 2ª Ley de la Termodinámica, generándose así un estado muy
improbable (un estado neguentrópico) para la fase soluto, y, como consecuencia, para la
fase solvente –que a esta altura empiezan a dejar de ser dos fases para convertirse en un
único sistema-. Y en condiciones de no equilibrio, siempre existe una distancia crítica con
respecto al equilibrio, más allá de la cual el sistema se torna inestable (punto de
"bifurcación").(Ilya Prigogine, 1996, p.72.)
Tenemos, ahora, un sistema inestable –el cual se define como aquel en el cual
pequeñas modificaciones de las condiciones iniciales (o causas) producen grandes
efectos, es decir, que dichas modificaciones se amplían en el tiempo-, el cual tenderá a
encontrar su estabilidad y su equilibrio de una forma o de otra. Conjeturamos que esa
estabilidad la encuentra el sistema a través de las llamadas "resonancias de Poincaré".
Deductivamente, la secuencia lógica de los acontecimientos que -según podemos
inferir- se producen en la preparación de las "diluciones homeopáticas", difiere de la
secuencia planteada por Prigogine (aunque, por supuesto, no la contradice):
Para éste, son las resonancias de Poincaré, producto de las interacciones entre las
partículas que sean el caso, las que conducen a la inestabilidad del sistema ; en cambio,
20
en el caso de las "diluciones homeopáticas", la inestabilidad del sistema es un hecho
presumible desde el mismo inicio -por tratarse de un estado neguentrópico en busca del
equilibrio- y es, por tanto, la presencia de esta inestabilidad en el sistema la que nos hace
suponer la existencia de las resonancias de Poincaré.
Es decir, de acuerdo con los resultados de Prigogine, sin resonancias (-R) no puede
haber inestabilidad.
O sea, si no hay resonancias (-R), entonces lo que existe es estabilidad (E):
De ‘-R ® E’ y ‘-R’ se infiere ‘E’ (Modus Ponens).
Pero el caso es que –en las "diluciones homeopáticas"- tenemos inestabilidad, o sea,
que no tenemos estabilidad (-E); luego, hay resonancias (R):
De ‘-R ® E’ y ‘-E’ se infiere ‘R’ (Modus Tollens).
LAS RESONANCIAS DE POINCARÉ
El concepto de resonancia es bastante familiar en Física, pero en este caso en
particular es preciso comprender el contexto en el cual se presenta –y por el cual se le
denomina "resonancias de Poincaré"- y no simplemente "resonancias".
Partiendo de una pregunta acerca de la estabilidad del sistema solar –póngase
atención a lo extraño de su origen-, "Poincaré abrió el rumbo para tratar los problemas de
estabilidad en sistemas dinámicos complejos".(M.J. Sametband, 1994, pp.71-72.)
El fondo de todo este asunto –de la estabilidad y de la inestabilidad, y,
consecuentemente, del límite a la predictibilidad- está realmente en saber si el universo se
rige por leyes deterministas o no. (Al menos esta es la posición de Prigogine ; otros, como
René Thom, por ejemplo, difieren en cuanto a esta relación entre azar y determinismo.)
En un universo estable –donde pequeños cambios en las condiciones iniciales, sólo
traen pequeñas alteraciones en el comportamiento del sistema considerado-; donde, por
tanto, pueda existir "el demonio de Laplace" : que es capaz de predecir el futuro siempre
que conozca el estado presente del universo con el suficiente grado de precisión ; el
problema simplemente no se presenta.
Pero en un universo inestable tal tipo de predicción determinista es imposible ; y el
universo en el cual vivimos realmente es un universo inestable, irreversible y, por tanto,
evolutivo (asociado a la "flecha del tiempo"). Es de sentido común que el pasado no puede
disolverse como si no hubiera existido, sino que determina irreversiblemente -querámoslo
o no- el presente que estamos viviendo.
"Es verdad que la descripción en términos de trayectorias conserva su validez si las
condiciones iniciales se conocen con una precisión infinita. Pero ello no corresponde a
situación realista alguna".( Ilya Prigogine, 1996, p.116.)
Los procesos irreversibles no pueden ser considerados como meras aproximaciones a
las leyes fundamentales –las cuales siempre describen procesos reversibles-, sino que
existen realmente y son los más importantes en la naturaleza. Como dice Prigogine : "Este
punto de vista nos obliga a reconsiderar la validez de las leyes fundamentales, clásicas y
cuánticas".(Ilya Prigogine, 1996 , p.29.)
La irreversibilidad, por su parte, conduce a considerar los comportamientos dinámicos
inestables. Las leyes de la Dinámica fueron consideradas tradicionalmente como
reversibles –lo cual está asociado con la predicción de las trayectorias futuras y, por tanto,
con el determinismo-, pero la Termodinámica con su concepto de entropía contradice a
esta reversibilidad. Para superar esta contradicción, Prigogine propone una extensión de la
Dinámica. Esta extensión considera sistemas inestables -también llamados "caóticos"
cuando son extremos-, en los cuales existe una ruptura de la equivalencia entre el nivel
individual y el nivel estadístico, equivalencia que es propia exclusivamente de los sistemas
estables.
21
En los sistemas caóticos "las trayectorias correspondientes a condiciones iniciales tan
vecinas como se quiera divergen de manera exponencial con el tiempo".( Ilya Prigogine,
1996, p.33.) Se habla, entonces, de "sensibilidad a las condiciones iniciales". El ejemplo
clásico del lápiz que no puede mantenerse en equilibrio sobre su punta –lo cual es
teóricamente posible-, nos ilustra acerca de cómo la inestabilidad es afectada por la más
mínima vibración. Es decir, cualquier pequeño cambio en las condiciones iniciales puede
producir grandes efectos sobre las trayectorias, cosa que no ocurre en los sistemas
estables.
En otras palabras, en un sistema dinámico estable, dos condiciones iniciales próximas
dan lugar a trayectorias próximas ; y, en cambio, en un sistema dinámico inestable, dos
condiciones iniciales igualmente próximas dan lugar a trayectorias que divergen en el
tiempo según una ley exponencial.
Sin embargo, el resultado es sorprendente: "Se habla a menudo de ‘caos determinista’.
En efecto, las ecuaciones de sistemas caóticos son tan deterministas como las leyes de
Newton. ¡Y empero engendran comportamientos de aspecto aleatorio!"(Ilya Prigogine,
1996, p.33.)
Esta mezcla de azar y determinismo es una característica de los sistemas dinámicos
asociados al caos: "Las ‘leyes del caos’ asociadas a una descripción regular y predictiva
de los sistemas caóticos se sitúan en el nivel estadístico".(Ilya Prigogine, 1996, p.40.) Vale
decir, se trata de una formulación de la Dinámica que es exclusivamente estadística ; y
donde la descripción en términos de trayectorias individuales deterministas, por tanto,
queda descartada -por ser imposible (ya que es caótica)-.
Volviendo a Poincaré, observemos que los sistemas que describe la ley de Newton
eran, para la Dinámica clásica, todos equivalentes. "Sólo a fines del siglo XIX Poincaré
mostró que los problemas son fundamentalmente diferentes según se trate de un sistema
dinámico estable o no". (Ilya Prigogine, 1996, p.33.)
En la formulación habitual de la Dinámica clásica, el estado inicial es representado por
las posiciones q y las velocidades v (o por los momentos p); y "cuando se conocen las
posiciones y velocidades, la trayectoria se puede determinar a partir de la ley de Newton o
de cualquier otra formulación equivalente de la dinámica".
Ahora, en lugar de considerar un solo sistema, también es posible considerar una
colección o conjunto de ellos, y este conjunto "se representa mediante una nube de puntos
en el espacio de las fases". Y se describe mediante una función, "cuya interpretación física
es simple: es la distribución de probabilidad, que describe la densidad de los puntos de
la nube en el seno del espacio de las fases". (Ilya Prigogine, 1996, pp.34-35.)
Cuando las condiciones iniciales se desconocen, el hacer uso de un conjunto de
sistemas en lugar de uno solo, o sea, el recurrir a un análisis estadístico resulta ser el
único instrumento de cálculo posible:
"Desde ese punto de vista las probabilidades traducen nuestra ignorancia, nuestra falta
de información. Era evidente que en Dinámica el estudio de las trayectorias individuales y
el de las distribuciones de probabilidad venían a ser lo mismo. Podemos partir de las
trayectorias individuales y obtener la evolución de las funciones de probabilidad, y
viceversa. La probabilidad corresponde simplemente a una superposición de trayectorias,
y no conduce a ninguna propiedad nueva. Ambos niveles de descipción, el nivel individual
(correspondiente a trayectorias únicas) y el nivel estadístico (correspondiente a
probabilidades), serían equivalentes". (Ilya Prigogine, 1996, p.36.)
Esta larga y necesaria cita, nos prepara para entender las diferencias de naturaleza
conceptual que distinguen los sistemas inestables con respecto a los sistemas estables –
que son los únicos que estudia la Dinámica clásica-.
22
En último análisis, la característica esencial que distingue a los sistemas dinámicos
inestables es la siguiente:
"La equivalencia entre el nivel individual y el nivel estadístico se destruye. Para
las distribuciones de probabilidad logramos así soluciones nuevas irreductibles, es decir,
que no se aplican a las trayectorias individuales". (Los destacados son nuestros.) (Ilya
Prigogine, 1996, p.40.)
Esto quiere decir que la descripción en términos de trayectorias individuales es
eliminada en favor de una descripción estrictamente estadística.
Es así, entonces, como obtenemos una Dinámica generalizada: "Se trata de una
formulación de la Dinámica en el nivel estadístico, que no tiene equivalente en términos de
trayectorias. Ello nos conduce a una situación nueva. Las condiciones iniciales ya no
pueden asimilarse a un punto en el espacio de las fases: corresponden a una región
descrita por una distribución de probabilidad. Se trata, por tanto, de una descripción no
local. Además, la simetría con respecto al tiempo se rompe, porque en la formulación
estadística el pasado y el futuro desempeñan papeles diferentes". (Ilya Prigogine, 1996,
p.40.)
Por tanto, deja de tener sentido la búsqueda de una descripción en términos de
trayectorias individuales, pues en un sistema que es centro de un proceso dinámico
inestable la única predicción válida es la probabilística. En resumen: se trata de un proceso
"intrínsecamente aleatorio" (Prigogine). Siendo así, el concepto de probabilidad que
empleemos será decisivo a la hora de entender lo que ocurre en el seno de un sistema
dinámico inestable. Si usamos el concepto probabilístico de propensión, es posible
entender entonces que en un sistema inestable puedan manifestarse ciertas
propensiones que, en un sistema estable, jamás lo harían.
EL APORTE DE POINCARÉ
Volvamos de nuevo a Poincaré. Además de establecer la fundamental distinción entre
sistemas estables y sistemas inestables, Poincaré demostró que la mayoría de los
sistemas dinámicos eran no integrables, lo cual es equivalente a decir que la ecuación de
Newton aplicada al sistema no tiene solución. El llamado "problema de los tres cuerpos",
en el cual trabajó, pertenece a la categoría de los sistemas inestables no-integrables:
Poincaré probó que el caos puede aparecer ya con sistemas relativamente simples como
aquél. Así, en un sistema dinámico formado sólo por tres cuerpos que se atraen por acción
de la fuerza de gravedad, y uno de ellos es muy pequeño en relación a los otros dos,
tenemos que la trayectoria representada en el espacio de las fases es de una
extraordinaria complejidad –es un sistema dinámico no integrable-.
Como lo explica M.J. Sametband: "El gran matemático demostró la posibilidad de que
un sistema dinámico totalmente determinista, como el de los planetas en órbita, llegue a un
estado de caos donde no se pueda predecir su comportamiento futuro. Basta para ello
que responda a una situación no lineal, en la que una pequeñísima fluctuación se vaya
amplificando al ser reiterada un gran número de veces". (Los destacados son nuestros.)
(M.J. Sametband, 1994, p.73.)
Por supuesto, la situación "no lineal" de la que se habla en la cita anterior, corresponde
a una característica que presentan todos los sistemas caóticos (sistemas dinámicos
inestables lejos del equilibrio). La "linealidad", por llamarla así, implica una
proporcionalidad entre la magnitud de la causa y la magnitud del efecto ; además, se
puede representar por ecuaciones lineales y sólo corresponde a sistemas estables. En
cambio, la no-linealidad es propia de sistemas inestables y complejos, que son sensibles a
las condiciones iniciales, o sea, donde pequeñas causas pueden amplificarse produciendo
grandes efectos. Pero del estudio de Poincaré debemos extraer un aporte todavía más
23
trascendente: "Una contribución importante de Poincaré fue demostrar que en este sistema
las inestabilidades son debidas al fenómeno de la resonancia". (Los destacados son
nuestros.) (M.J. Sametband, 1994, p.73.)
Resumamos: un sistema dinámico se caracteriza por la energía cinética –que depende
exclusivamente de la velocidad de los cuerpos que lo componen- y por la energía
potencial –que depende de la interacción entre esos mismos cuerpos-.
Entonces, en un sistema dinámico constituído por partículas libres que no interactúan
entre ellas, no hay energía potencial y, por tanto, el cálculo de sus trayectorias es simple.
Este sería un sistema integrable, en el sentido de Poincaré.
Ahora bien, se puede demostrar que todo sistema integrable es equivalente a –o es
isomorfo con- un sistema de partículas libres sin interacción. Como deduce
acertadamente Prigogine, si Poincaré hubiera mostrado que la mayoría de los sistemas
dinámicos eran integrables –lo contrario de lo que efectivamente mostró-, entonces la
contradicción entre el universo ideal reversible de las ecuaciones de la Dinámica y el
universo real irreversible, permanecería insoluble.
"Pero Poincaré no sólo demostró que la integrabilidad se aplica únicamente a una clase
reducida de sistemas dinámicos, sino que identificó la razón del carácter excepcional de
dicha propiedad: la existencia de resonancias entre los grados de libertad del
sistema". (Ilya Prigogine, 1996, pp.42-43.).
¿QUÉ ES LA RESONANCIA?
La resonancia se produce cada vez que hay una relación entre frecuencias (una de las
frecuencias es igual a un múltiplo entero de la otra), y se podría definir como "una
oscilación de gran amplitud causada por un estímulo periódico relativamente pequeño"
(Sametband). Nos dice Prigogine: "Las frecuencias, y en particular la cuestión de su
resonancia, resultan capitales en la descripción de los sistemas dinámicos", y agrega:
"Cada uno de los grados de libertad de un sistema dinámico se caracteriza por una
frecuencia".(Ilya Prigogine, 1996, p.43.)
Como se sabe, el número de grados de libertad de un sistema dinámico corresponde al
número de parámetros necesarios para especificar completamente el estado de ese
sistema (por ejemplo: la velocidad, el impulso, la posición, etc.), y están representados por
sus variables independientes.
Ésto es importante de entender porque un sistema dinámico no lineal teniendo un
mínimo de tres grados de libertad ya puede devenir caótico ; y parece ser el caso
precisamente de las "diluciones homeopáticas".
Se entiende por "espacio de las fases" a un espacio matemático –es decir, a un espacio
abstracto- que está constituído por las variables que describen el sistema dinámico, y en el
cual cada punto representa un posible estado del sistema. Por último, digamos que la
evolución en el tiempo del sistema se representa por una trayectoria en el espacio de las
fases –una trayectoria es "una secuencia de puntos en el que cada punto genera al
siguiente de acuerdo a una función matemática" (Sametband)-.
Ahora bien, "...las frecuencias dependen en general de las variables dinámicas y
adquieren valores diferentes en diferentes puntos del espacio de las fases. En
consecuencia, ciertos puntos de dicho espacio serán caracterizados por resonancias,
y otros no. Correlativamente, observamos dos tipos de trayectorias ; trayectorias
normales, deterministas, y trayectorias aleatorias asociadas a las resonancias que erran a
través del espacio de las fases".(El destacado es nuestro.) (Ilya Prigogine, 1996, p.45.)
Veremos posteriormente que las trayectorias correspondientes a las moléculas de
agua, entre un estado de equilibrio y otro –que equivale, aproximadamente, al lapso entre
una dilución y la siguiente-, presenta sólo dos momentos: primero, uno constituído por
24
trayectorias aleatorias asociadas a las resonancias, y otro momento posterior y final,
constituído por la trayectoria normal asociada al equilibrio. A cada una de ellas le
corresponde su propio atractor en el espacio de las fases (atractor extraño y punto
atractor, respectivamente).
Antes de hacer uso de estos conceptos para nuestro objetivo, agreguemos esta
conclusión de Prigogine: "A nivel estadístico, las resonancias ocasionan la ruptura del
determinismo: introducen la incertidumbre en el marco de la Mecánica clásica y rompen la
simetría del tiempo". (El destacado es nuestro.) (Ilya Prigogine, 1996, p.47.) Sin embargo,
es importante decir que no es necesario compartir el indeterminismo de Prigogine para
explicar el mecanismo de las "diluciones homeopáticas".
En resumen: el análisis requiere distinguir entre dos niveles, el nivel individual de las
trayectorias y el nivel estadístico descrito por una distribución de probabilidad. Ahora bien,
las resonancias que se producen a nivel de las moléculas individuales y que conducen a
un acoplamiento entre sus movimientos, pueden dar lugar a un comportamiento aleatorio –
vale decir, caótico-; empero este comportamiento aleatorio se pierde (es eliminado) a nivel
estadístico.
De manera tal que: "Las resonancias eliminadas en el nivel estadístico conducen a la
formulación de una teoría no newtoniana, incompatible con la descripción en términos de
trayectorias". (Ilya Prigogine, 1996, p.46.)
En otros términos, a la vez que en el nivel individual de las trayectorias tenemos un
comportamiento aleatorio, caótico ; en el nivel estadístico tenemos, por el contrario, un
comportamiento regular bien definido -se trata de un fenómeno orientado en el tiempo,
irreversible (luego, con producción de entropía)-. O en palabras de Prigogine: "La
inestabilidad a nivel de la trayectoria conduce a un comportamiento estable en el nivel de
la descripción estadística".(Ilya Prigogine, 1996, p.94.)
Ahora, la incompatibilidad con una descripción en términos de trayectorias no es
sorprendente, ya que "...resonancia y acoplamiento entre acontecimientos no se
producen en un punto y en un instante. Implican una descripción no local, que no
puede ser incorporada en la definición dinámica usual en términos de puntos individuales y
de trayectorias en el espacio de las fases". (Los destacados son nuestros.) (Ilya Prigogine,
1996, p.46.)
LAS RESONANCIAS Y LA DIFUSIÓN DEL CAOS
Al estudiar la influencia de las resonancias sobre las trayectorias, Prigogine nos explica
lo que ocurre en ciertos casos: "A partir de un valor crítico, el comportamiento del sistema
se torna caótico: trayectorias vecinas divergen en el curso del tiempo. En el caso del caos
plenamente desarrollado observamos fenómenos de difusión, esto es, la evolución
hacia una dispersión uniforme en todo el espacio de las fases". (El destacado es
nuestro.) (Ilya Prigogine, 1996, pp.45-46.)
Puesto que las interacciones transitorias no modifican apreciablemente las trayectorias
de las partículas –las que están, por tanto, dentro de los límites de validez de la
descripción newtoniana-, se requiere de una condición muy importante para que la
evolución de un sistema dinámico inestable sea irreductible a una descripción en términos
de comportamientos individuales –es decir, para que se haga caótico y desarrolle de esta
manera fenómenos difusivos-, y que es la siguiente: las interacciones deben ser
persistentes. En consecuencia, los fenómenos de difusión sólo aparecen en el caso de
una continuidad de interacciones como las que existen en un líquido estructurado tal cual
es la solución diluída ; se asegura así que las interacciones entre cada molécula de soluto
y las moléculas de solvente que la rodean, sean persistentes. Es muy importante
25
entender, en todo caso, que son las moléculas de soluto las que aportan las únicas
resonancias que realmente interesan –cualitativamente hablando- para el resultado final.
Como una forma de ayudar a la intuición –y así facilitar la explicación acerca de la
acción de las resonancias-, ofrecemos a continuación un ejemplo muy impresionante del
importante papel que las resonancias desempeñan en Física, tal cual es descrito por G.
Brewer y E.L. Hahn:
"En una muestra gaseosa, se pueden seleccionar todos los átomos que tengan una
velocidad determinada excitando la muestra con un haz de láser, prácticamente
monocromático y de onda continua, de la frecuencia adecuada de resonancia".
Destaquemos que "la frecuencia adecuada de resonancia" es exactamente aquella que
cumple con la relación numérica simple entre las dos frecuencias: la del haz de láser y la
correspondiente al momento lineal (que es el producto de la masa por la velocidad) de
algunos de los átomos del gas, produciéndose un acoplamiento entre estas dos
frecuencias.
"En virtud del efecto Doppler, los átomos idénticos que se mueven con velocidades
diferentes absorverán luz a frecuencias ligeramente distintas. Si la frecuencia del láser es
espectralmente pura, es decir, si se trata de una frecuencia única, tan sólo los átomos con
una velocidad determinada se seleccionarán y prepararán coherentemente..." Hasta aquí
tenemos la "preparación" de la muestra. ¿Qué sucede entonces?
"La alineación de estos átomos preparados coherentemente se puede poner de
manifiesto con un aparato láser con seleccionador de frecuencias: tras un largo período de
excitación, la frecuencia del haz de láser se cambia de repente a un nuevo valor, de suerte
que ya no exista resonancia con el grupo de átomos preparados. Sin embargo, los átomos
preparados coherentemente actúan ahora como un conjunto de diapasones idénticos que
hubieran sido golpeados a la vez. Puesto que todos ellos poseen la misma frecuencia de
resonancia, se refuerzan unos con otros y radian al unísono un haz de luz intenso y
coherente en dirección hacia adelante. Este haz posee todas las propiedades de la luz de
láser (coherencia, direccionalidad y frecuencia única) debido a que los átomos mantienen
una memoria de sus estados ordenados".(G. Brewer y E.L. Hahn, 1985.)
Curiosamente, en el texto recién citado se utiliza el mismo concepto de memoria que se
ha intentado usar como explicación al "problema de las ‘diluciones homeopáticas’"; lo cual
nos sugiere que estamos pisando sobre un terreno común a las dos situaciones
experimentales: la recién descrita y la perteneciente a la preparación de las "diluciones
homeopáticas". No está demás señalar que el concepto de memoria –con cualquier tipo de
matices que se le quiera entender- implica irreversibilidad, y ésta es una consecuencia
necesaria del efecto de las resonancias
NUEVO EXAMEN A LA PREPARACIÓN DE LAS "DILUCIONES
HOMEOPÁTICAS"
Volviendo al tema de la preparación de las "diluciones homeopáticas", nos encontramos
con un sistema que, a diferencia de cualquier solución corriente (no diluída), es un
sistema dinámico inestable, al menos en un primer momento. Antes de examinar más de
cerca este hecho, revisemos el modus operandi de las "diluciones homeopáticas". Al
pasar, por ejemplo, de una dilución D6 a una dilución D7, sólo una décima parte de la
dilución D6 se mantiene ; y se le agregan las 9/10 partes restantes de agua (en estado de
agitación térmica en equilibrio con la temperatura del ambiente). Es decir, el sistema
aislado anterior –la dilución D6- se ha abierto, perdiendo así su equilibrio, al paso que
se han renovado 9 de cada 10 moléculas.
Pero ésto no es todo. En la anterior descripción que hicimos de la preparación de las
"diluciones homeopáticas", omitimos una parte del proceso que consideraremos ahora.
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)
Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)

Más contenido relacionado

La actualidad más candente

Morin, edgar complejidad restringida y complejidad generalizada [2007]
Morin, edgar   complejidad restringida y complejidad generalizada [2007]Morin, edgar   complejidad restringida y complejidad generalizada [2007]
Morin, edgar complejidad restringida y complejidad generalizada [2007]LILI
 
El paradigma-de-la-complejidad
El paradigma-de-la-complejidadEl paradigma-de-la-complejidad
El paradigma-de-la-complejidadSocorro Crespo
 
La teoria de la complejidad
La teoria de la complejidadLa teoria de la complejidad
La teoria de la complejidadanmcg
 
Teoría de la complejidad y teoría de las organizaciones
Teoría de la complejidad y teoría de las organizacionesTeoría de la complejidad y teoría de las organizaciones
Teoría de la complejidad y teoría de las organizacionesJose Navarro
 
Texto morín
Texto morínTexto morín
Texto morínHAV
 
Neurologia cuantica 2
Neurologia cuantica 2Neurologia cuantica 2
Neurologia cuantica 2Xavi Gasset
 
Charla caos, complejidad e incertidumbre
Charla caos, complejidad e incertidumbreCharla caos, complejidad e incertidumbre
Charla caos, complejidad e incertidumbreAlberto González Yanes
 
De lo certero a lo probable
De lo certero a lo probableDe lo certero a lo probable
De lo certero a lo probablejuanjavier77
 
Tema 2- Teoría general de los sistemas- Juan Cibanal
Tema 2- Teoría general de los sistemas- Juan CibanalTema 2- Teoría general de los sistemas- Juan Cibanal
Tema 2- Teoría general de los sistemas- Juan Cibanalterac61
 
La Pedagogía Cibernética y el Pensamiento Complejo
La Pedagogía Cibernética y el Pensamiento Complejo La Pedagogía Cibernética y el Pensamiento Complejo
La Pedagogía Cibernética y el Pensamiento Complejo Eduardo Lopez Sandoval
 
[Matematicas].el.matematico.(john.von.neumann)[mad math]
[Matematicas].el.matematico.(john.von.neumann)[mad math][Matematicas].el.matematico.(john.von.neumann)[mad math]
[Matematicas].el.matematico.(john.von.neumann)[mad math]Pe Peele
 
Errores interpretacion de relaciones entre variables
Errores interpretacion de relaciones entre variablesErrores interpretacion de relaciones entre variables
Errores interpretacion de relaciones entre variablesgaloagustinsanchez
 

La actualidad más candente (20)

Morin, edgar complejidad restringida y complejidad generalizada [2007]
Morin, edgar   complejidad restringida y complejidad generalizada [2007]Morin, edgar   complejidad restringida y complejidad generalizada [2007]
Morin, edgar complejidad restringida y complejidad generalizada [2007]
 
Teorías!!..
Teorías!!..Teorías!!..
Teorías!!..
 
Prigogine esayo
Prigogine esayoPrigogine esayo
Prigogine esayo
 
El paradigma-de-la-complejidad
El paradigma-de-la-complejidadEl paradigma-de-la-complejidad
El paradigma-de-la-complejidad
 
La teoria de la complejidad
La teoria de la complejidadLa teoria de la complejidad
La teoria de la complejidad
 
Teoría de la complejidad y teoría de las organizaciones
Teoría de la complejidad y teoría de las organizacionesTeoría de la complejidad y teoría de las organizaciones
Teoría de la complejidad y teoría de las organizaciones
 
Texto morín
Texto morínTexto morín
Texto morín
 
Aporte individualpowerpoint p_emergentes
Aporte individualpowerpoint p_emergentesAporte individualpowerpoint p_emergentes
Aporte individualpowerpoint p_emergentes
 
Neurologia cuantica 2
Neurologia cuantica 2Neurologia cuantica 2
Neurologia cuantica 2
 
La ley de la entropía
La ley de la entropíaLa ley de la entropía
La ley de la entropía
 
Charla caos, complejidad e incertidumbre
Charla caos, complejidad e incertidumbreCharla caos, complejidad e incertidumbre
Charla caos, complejidad e incertidumbre
 
De lo certero a lo probable
De lo certero a lo probableDe lo certero a lo probable
De lo certero a lo probable
 
Tema 2- Teoría general de los sistemas- Juan Cibanal
Tema 2- Teoría general de los sistemas- Juan CibanalTema 2- Teoría general de los sistemas- Juan Cibanal
Tema 2- Teoría general de los sistemas- Juan Cibanal
 
Temas De Interes Para Disertar
Temas De Interes Para DisertarTemas De Interes Para Disertar
Temas De Interes Para Disertar
 
La Pedagogía Cibernética y el Pensamiento Complejo
La Pedagogía Cibernética y el Pensamiento Complejo La Pedagogía Cibernética y el Pensamiento Complejo
La Pedagogía Cibernética y el Pensamiento Complejo
 
[Matematicas].el.matematico.(john.von.neumann)[mad math]
[Matematicas].el.matematico.(john.von.neumann)[mad math][Matematicas].el.matematico.(john.von.neumann)[mad math]
[Matematicas].el.matematico.(john.von.neumann)[mad math]
 
Pensamiento Complejo
Pensamiento Complejo Pensamiento Complejo
Pensamiento Complejo
 
Errores interpretacion de relaciones entre variables
Errores interpretacion de relaciones entre variablesErrores interpretacion de relaciones entre variables
Errores interpretacion de relaciones entre variables
 
Leyes del caos
Leyes del caosLeyes del caos
Leyes del caos
 
El panòptico
El panòpticoEl panòptico
El panòptico
 

Similar a Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)

Corrientes epistemológicas introducción a la teoría de la ciencia
Corrientes epistemológicas introducción a la teoría de la cienciaCorrientes epistemológicas introducción a la teoría de la ciencia
Corrientes epistemológicas introducción a la teoría de la cienciaMirtaAlaVargasPrez
 
Sobre el Estatuto Epistemológico de la Psicología
Sobre el Estatuto Epistemológico de la PsicologíaSobre el Estatuto Epistemológico de la Psicología
Sobre el Estatuto Epistemológico de la PsicologíaRonaldo Hernandez
 
Síntesis - Autoroganización (1).pptx
Síntesis - Autoroganización (1).pptxSíntesis - Autoroganización (1).pptx
Síntesis - Autoroganización (1).pptxOberMacas1
 
Esquema teorias epistemológicas filosofia sxx anual uni
Esquema teorias epistemológicas filosofia sxx anual uniEsquema teorias epistemológicas filosofia sxx anual uni
Esquema teorias epistemológicas filosofia sxx anual unirafael felix
 
Nivelación 001 - Activistas Zeitgeist Chile
Nivelación 001 - Activistas Zeitgeist ChileNivelación 001 - Activistas Zeitgeist Chile
Nivelación 001 - Activistas Zeitgeist ChileSebastian Villegas
 
El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...
El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...
El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...Ricardo Villa
 
Teoria del caos marcela moreno s
Teoria del caos marcela moreno sTeoria del caos marcela moreno s
Teoria del caos marcela moreno sMarcela Salinas
 
"Epistemología de la complejidad"
"Epistemología de la complejidad""Epistemología de la complejidad"
"Epistemología de la complejidad"Ronaldo Hernandez
 
Apuntes sobre la filosofía material del universo
Apuntes sobre la filosofía material del universoApuntes sobre la filosofía material del universo
Apuntes sobre la filosofía material del universoHector Torres
 
Trabajo colaborativo 2
Trabajo colaborativo 2Trabajo colaborativo 2
Trabajo colaborativo 2Diana Herrera
 
Morin, Edgar Epistemologia De La Complejidad
Morin, Edgar Epistemologia De La ComplejidadMorin, Edgar Epistemologia De La Complejidad
Morin, Edgar Epistemologia De La ComplejidadHAV
 
Morin edgar epistemologia de la complejidad
Morin edgar epistemologia de la complejidadMorin edgar epistemologia de la complejidad
Morin edgar epistemologia de la complejidadMauricio Villabona
 

Similar a Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1) (20)

Teoria del-caos-efecto-mariposa
Teoria del-caos-efecto-mariposaTeoria del-caos-efecto-mariposa
Teoria del-caos-efecto-mariposa
 
Corrientes epistemológicas introducción a la teoría de la ciencia
Corrientes epistemológicas introducción a la teoría de la cienciaCorrientes epistemológicas introducción a la teoría de la ciencia
Corrientes epistemológicas introducción a la teoría de la ciencia
 
Capitulo 4 TEORIA DEL CAOS
Capitulo 4 TEORIA DEL CAOSCapitulo 4 TEORIA DEL CAOS
Capitulo 4 TEORIA DEL CAOS
 
Sobre el Estatuto Epistemológico de la Psicología
Sobre el Estatuto Epistemológico de la PsicologíaSobre el Estatuto Epistemológico de la Psicología
Sobre el Estatuto Epistemológico de la Psicología
 
Síntesis - Autoroganización (1).pptx
Síntesis - Autoroganización (1).pptxSíntesis - Autoroganización (1).pptx
Síntesis - Autoroganización (1).pptx
 
Esquema teorias epistemológicas filosofia sxx anual uni
Esquema teorias epistemológicas filosofia sxx anual uniEsquema teorias epistemológicas filosofia sxx anual uni
Esquema teorias epistemológicas filosofia sxx anual uni
 
diapositiva
diapositivadiapositiva
diapositiva
 
Diapositiva
DiapositivaDiapositiva
Diapositiva
 
Ciencia cientifica
Ciencia cientificaCiencia cientifica
Ciencia cientifica
 
Nivelación 001 - Activistas Zeitgeist Chile
Nivelación 001 - Activistas Zeitgeist ChileNivelación 001 - Activistas Zeitgeist Chile
Nivelación 001 - Activistas Zeitgeist Chile
 
El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...
El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...
El traje nuevo de Darwin: Una opinión personal y otros puntos de vista sobre ...
 
Teoria del caos marcela moreno s
Teoria del caos marcela moreno sTeoria del caos marcela moreno s
Teoria del caos marcela moreno s
 
CIENCIA Y REVOLUCIÓN
CIENCIA Y REVOLUCIÓNCIENCIA Y REVOLUCIÓN
CIENCIA Y REVOLUCIÓN
 
Filosofía de la Ciencia
Filosofía de la CienciaFilosofía de la Ciencia
Filosofía de la Ciencia
 
"Epistemología de la complejidad"
"Epistemología de la complejidad""Epistemología de la complejidad"
"Epistemología de la complejidad"
 
Apuntes sobre la filosofía material del universo
Apuntes sobre la filosofía material del universoApuntes sobre la filosofía material del universo
Apuntes sobre la filosofía material del universo
 
Trabajo colaborativo 2
Trabajo colaborativo 2Trabajo colaborativo 2
Trabajo colaborativo 2
 
Morin, Edgar Epistemologia De La Complejidad
Morin, Edgar Epistemologia De La ComplejidadMorin, Edgar Epistemologia De La Complejidad
Morin, Edgar Epistemologia De La Complejidad
 
Morin edgar epistemologia de la complejidad
Morin edgar epistemologia de la complejidadMorin edgar epistemologia de la complejidad
Morin edgar epistemologia de la complejidad
 
la-teoria-del-caos.pdf
la-teoria-del-caos.pdfla-teoria-del-caos.pdf
la-teoria-del-caos.pdf
 

Más de Xavi Gasset

Libro de practicas de la ley del tiempo 260
Libro de practicas de la ley del tiempo 260Libro de practicas de la ley del tiempo 260
Libro de practicas de la ley del tiempo 260Xavi Gasset
 
Fsica y tiempo_de_ensueno_isbn9783938681602_p
Fsica y tiempo_de_ensueno_isbn9783938681602_pFsica y tiempo_de_ensueno_isbn9783938681602_p
Fsica y tiempo_de_ensueno_isbn9783938681602_pXavi Gasset
 
Howtobuildasimplepainreliefcap 150916043446-lva1-app6891
Howtobuildasimplepainreliefcap 150916043446-lva1-app6891Howtobuildasimplepainreliefcap 150916043446-lva1-app6891
Howtobuildasimplepainreliefcap 150916043446-lva1-app6891Xavi Gasset
 
ENERGÍA LIBRE. Don L.Smith
ENERGÍA LIBRE. Don L.SmithENERGÍA LIBRE. Don L.Smith
ENERGÍA LIBRE. Don L.SmithXavi Gasset
 
Electricidad y vida
Electricidad y vidaElectricidad y vida
Electricidad y vidaXavi Gasset
 
Principios de bioenergética
Principios de bioenergéticaPrincipios de bioenergética
Principios de bioenergéticaXavi Gasset
 
Palabras que sanan el alma plena-mente.com.ar 7
Palabras que sanan el alma  plena-mente.com.ar 7Palabras que sanan el alma  plena-mente.com.ar 7
Palabras que sanan el alma plena-mente.com.ar 7Xavi Gasset
 
Medicina natural dr jerry hoover -w cancernaturalcure com 293
Medicina natural   dr jerry hoover -w cancernaturalcure com 293Medicina natural   dr jerry hoover -w cancernaturalcure com 293
Medicina natural dr jerry hoover -w cancernaturalcure com 293Xavi Gasset
 
El codigo de la emocion norma bwv 428
El codigo de la emocion  norma bwv 428El codigo de la emocion  norma bwv 428
El codigo de la emocion norma bwv 428Xavi Gasset
 
Tablacuantica 120125142527-phpapp01 (1)
Tablacuantica 120125142527-phpapp01 (1)Tablacuantica 120125142527-phpapp01 (1)
Tablacuantica 120125142527-phpapp01 (1)Xavi Gasset
 
¿Es el adn el próximo internet? ¿son los humanos realmente seres de luz? s...
¿Es el adn el próximo internet?   ¿son los humanos realmente seres de luz? s...¿Es el adn el próximo internet?   ¿son los humanos realmente seres de luz? s...
¿Es el adn el próximo internet? ¿son los humanos realmente seres de luz? s...Xavi Gasset
 
Libro fotosintesis humana 1
Libro fotosintesis humana 1Libro fotosintesis humana 1
Libro fotosintesis humana 1Xavi Gasset
 
La magia del verbo jorge adoum -fb libros gratis 63
La magia del verbo   jorge adoum -fb libros gratis 63La magia del verbo   jorge adoum -fb libros gratis 63
La magia del verbo jorge adoum -fb libros gratis 63Xavi Gasset
 
La energía de los tonos pineales creados por el dr todd ovokaitys w alatrol...
La energía de los tonos pineales creados por el dr todd ovokaitys  w alatrol...La energía de los tonos pineales creados por el dr todd ovokaitys  w alatrol...
La energía de los tonos pineales creados por el dr todd ovokaitys w alatrol...Xavi Gasset
 
Ciencia > matemáticas vorticiales absolum.org
Ciencia > matemáticas vorticiales   absolum.orgCiencia > matemáticas vorticiales   absolum.org
Ciencia > matemáticas vorticiales absolum.orgXavi Gasset
 
El adn un bio ordenador de ondas w e-aquarius cl 7
El adn un bio ordenador de ondas  w e-aquarius cl 7El adn un bio ordenador de ondas  w e-aquarius cl 7
El adn un bio ordenador de ondas w e-aquarius cl 7Xavi Gasset
 
la odisea-de-karl-popper
la odisea-de-karl-popperla odisea-de-karl-popper
la odisea-de-karl-popperXavi Gasset
 
Diosas tejedoras
Diosas tejedorasDiosas tejedoras
Diosas tejedorasXavi Gasset
 

Más de Xavi Gasset (20)

Richard gerbe
Richard gerbeRichard gerbe
Richard gerbe
 
Wavesthatheal
WavesthathealWavesthatheal
Wavesthatheal
 
Libro de practicas de la ley del tiempo 260
Libro de practicas de la ley del tiempo 260Libro de practicas de la ley del tiempo 260
Libro de practicas de la ley del tiempo 260
 
Fsica y tiempo_de_ensueno_isbn9783938681602_p
Fsica y tiempo_de_ensueno_isbn9783938681602_pFsica y tiempo_de_ensueno_isbn9783938681602_p
Fsica y tiempo_de_ensueno_isbn9783938681602_p
 
Howtobuildasimplepainreliefcap 150916043446-lva1-app6891
Howtobuildasimplepainreliefcap 150916043446-lva1-app6891Howtobuildasimplepainreliefcap 150916043446-lva1-app6891
Howtobuildasimplepainreliefcap 150916043446-lva1-app6891
 
ENERGÍA LIBRE. Don L.Smith
ENERGÍA LIBRE. Don L.SmithENERGÍA LIBRE. Don L.Smith
ENERGÍA LIBRE. Don L.Smith
 
Electricidad y vida
Electricidad y vidaElectricidad y vida
Electricidad y vida
 
Principios de bioenergética
Principios de bioenergéticaPrincipios de bioenergética
Principios de bioenergética
 
Palabras que sanan el alma plena-mente.com.ar 7
Palabras que sanan el alma  plena-mente.com.ar 7Palabras que sanan el alma  plena-mente.com.ar 7
Palabras que sanan el alma plena-mente.com.ar 7
 
Medicina natural dr jerry hoover -w cancernaturalcure com 293
Medicina natural   dr jerry hoover -w cancernaturalcure com 293Medicina natural   dr jerry hoover -w cancernaturalcure com 293
Medicina natural dr jerry hoover -w cancernaturalcure com 293
 
El codigo de la emocion norma bwv 428
El codigo de la emocion  norma bwv 428El codigo de la emocion  norma bwv 428
El codigo de la emocion norma bwv 428
 
Tablacuantica 120125142527-phpapp01 (1)
Tablacuantica 120125142527-phpapp01 (1)Tablacuantica 120125142527-phpapp01 (1)
Tablacuantica 120125142527-phpapp01 (1)
 
¿Es el adn el próximo internet? ¿son los humanos realmente seres de luz? s...
¿Es el adn el próximo internet?   ¿son los humanos realmente seres de luz? s...¿Es el adn el próximo internet?   ¿son los humanos realmente seres de luz? s...
¿Es el adn el próximo internet? ¿son los humanos realmente seres de luz? s...
 
Libro fotosintesis humana 1
Libro fotosintesis humana 1Libro fotosintesis humana 1
Libro fotosintesis humana 1
 
La magia del verbo jorge adoum -fb libros gratis 63
La magia del verbo   jorge adoum -fb libros gratis 63La magia del verbo   jorge adoum -fb libros gratis 63
La magia del verbo jorge adoum -fb libros gratis 63
 
La energía de los tonos pineales creados por el dr todd ovokaitys w alatrol...
La energía de los tonos pineales creados por el dr todd ovokaitys  w alatrol...La energía de los tonos pineales creados por el dr todd ovokaitys  w alatrol...
La energía de los tonos pineales creados por el dr todd ovokaitys w alatrol...
 
Ciencia > matemáticas vorticiales absolum.org
Ciencia > matemáticas vorticiales   absolum.orgCiencia > matemáticas vorticiales   absolum.org
Ciencia > matemáticas vorticiales absolum.org
 
El adn un bio ordenador de ondas w e-aquarius cl 7
El adn un bio ordenador de ondas  w e-aquarius cl 7El adn un bio ordenador de ondas  w e-aquarius cl 7
El adn un bio ordenador de ondas w e-aquarius cl 7
 
la odisea-de-karl-popper
la odisea-de-karl-popperla odisea-de-karl-popper
la odisea-de-karl-popper
 
Diosas tejedoras
Diosas tejedorasDiosas tejedoras
Diosas tejedoras
 

Gabriel hernan una-nueva_teoria_diluciones_homeopaticas(1)

  • 1. UNA NUEVA TEORÍA ACERCA DE LAS “DILUCIONES HOMEOPÁTICAS” Dr. Gabriel Hernán Gebauer Médico-Cirujano. Magister Artium Fil. Ciencia. Santiago. Chile. gebauerj@mi-mail.cl INDICE PRÓLOGO INTRODUCCIÓN LA VISIÓN DEL MÉDICO HOMEÓPATA LA VISIÓN CRÍTICA A LA HOMEOPATÍA LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS" LA ENTROPÍA Y LA SEGUNDA LEY DE LA TERMODINÁMICA LA NEGUENTROPÍA Y EL ORDEN EL PAPEL DE LAS PROPENSIONES Y DE LAS RESONANCIAS LAS RESONANCIAS Y LA IRREVERSIBILIDAD EL ESTADO NEGUENTRÓPICO LA SEGUNDA LEY COMO LEY PROBABILISTA Y SUS CONSECUENCIAS LAS RESONANCIAS DE POINCARÉ EL APORTE DE POINCARÉ ¿QUÉ ES LA RESONANCIA? LAS RESONANCIAS Y LA DIFUSIÓN DEL CAOS NUEVO EXAMEN A LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS" EL FENÓMENO ESPECIAL DE LAS "DILUCIONES HOMEOPÁTICAS" DOS PERSPECTIVAS DE ANÁLISIS ANÁLISIS DESDE UNA PERSPECTIVA ESTRUCTURAL EL CONCEPTO DE ORDEN Y EL CONCEPTO DE INFORMACIÓN EL CONCEPTO SINTÁCTICO O FORMAL DE CANTIDAD DE INFORMACIÓN LA COMPLEJIDAD COMO CONCEPTO OBJETIVO LA INFORMACIÓN COMO CONCEPTO OBJETIVO FORMA Y FUNCIÓN DE LA INFORMACIÓN LA RELACIÓN ENTRE INFORMACIÓN Y ENERGÍA LAS MICROESTRUCTURAS ACUOSAS Y LA CANTIDAD DE INFORMACIÓN LA RESONANCIA COMO MEDIO DE TRANSMISIÓN DE LA INFORMACIÓN LA ESTRUCTURA DEL AGUA LAS DILUCIONES Y LAS "POTENCIAS" RECAPITULACIÓN FINAL BIBLIOGRAFÍA POST SCRIPTUM
  • 2. 2 PRÓLOGO Ilya Prigogine, premio Nobel de Química en 1977, es autor de una generalización de la Dinámica clásica –la que se ocupa principalmente de sistemas dinámicos estables- y por la cual ésta se hace extensiva a los sistemas dinámicos inestables. Pero resulta que al considerar la inestabilidad se pone en cuestión al determinismo. La importancia de ésto está en que el desideratum de las Ciencias naturales siempre fué alcanzar la certidumbre, la cual sólo puede darla una descripción determinista. En cambio, con el estudio de los sistemas dinámicos inestables, que son la mayoría de los sistemas físicamente interesantes, surge la incertidumbre. Hay una serie de conceptos entrelazados con el indeterminismo y la incertidumbre: la inestabilidad, que lleva al concepto de caos, las probabilidades objetivas y la complejidad, así como la irreversibilidad y la "flecha del tiempo". En diversas ocasiones, Prigogine ha insistido en la sucesión: Inestabilidad ® probabilidad ® irreversibilidad. (Compárese con la trilogía: Estabilidad ® trayectoria determinista ® reversibilidad, propia de la Dinámica clásica, y se podrá entender más claramente la revolución de conceptos científicos implicados por los sistemas asociados al caos.) La importancia que estos conceptos adquieren para nuestro ensayo: Una nueva teoría acerca de las "diluciones homeopáticas"; consiste en lo siguiente: las "diluciones homeopáticas" no son sistemas dinámicos estables. De ahí nace, según nuestro criterio, la cisura que existe entre los hechos que la experiencia homeopática ofrece y las diversas teorías del corpus científico aceptado, y con ello la dificultad para entender científicamente esos hechos homeopáticos. Con la extensión que Prigogine ha hecho de la Dinámica, surge la posibilidad de preguntarse: ¿serán las "diluciones homeopáticas" sistemas dinámicos inestables? Y si lo son, ¿explicará esta inestabilidad la naturaleza de aquello que se produce en el proceso de dilución y, además, cómo se produce? La hipótesis desarrollada en las páginas siguientes se funda, precisamente, en considerar a las "diluciones homeopáticas" como sistemas dinámicos inestables: sistemas en los cuales cualquier pequeña perturbación se amplifica, dando lugar así a efectos que la Dinámica clásica jamás podría predecir –y que, por tanto, siempre ignorará-; pero con la peculiaridad, comparados con los sistemas dinámicos abiertos examinados por Prigogine, de que este particular sistema cerrado desemboca finalmente y de forma espontánea en un estado estable propio de un sistema aislado. La inestabilidad implica a la probabilidad -como lo muestra la sucesión anteriormente señalada-, pues en lugar de trayectorias de partículas individuales, tendremos que considerar probabilidades (distribuciones de probabilidad). Luego, el concepto de probabilidad que se use no puede ser subjetivo, o sea, no puede nacer simplemente de nuestra ignorancia acerca de las condiciones iniciales del sistema que sea el caso, como acontece con la Dinámica clásica –y, por tanto, con sistemas estables-. El concepto de probabilidad tiene que ser necesariamente objetivo si es la explicación más importante del comportamiento total del sistema. Y a ese respecto, la concepción de probabilidad como "propensión" de Karl Popper resulta ser, para nosotros, de la mayor importancia. Porque, por una parte, se trata de un concepto objetivo de probabilidad, y, por otra parte, porque al concepto de Información -que puede ser entendido como una "posibilidad improbable"- se le puede considerar concretamente como una propensión. La teoría de la información de Shannon, y sus extensiones posteriores, utilizan un concepto de Información de naturaleza subjetiva –y, todavía más, de naturaleza antropomórfica-. Lo cual no es sorprendente, ya que es una teoría que nació para resolver problemas relativos a la transmisión de mensajes en vías de comunicación; y la
  • 3. 3 comunicación es un asunto netamente humano. Es cierto que los animales, e incluso las plantas, se comunican; pero no poseen una ciencia de la comunicación. Ahora bien, si es verdad que la entropía mide exclusivamente nuestra falta de Información, entonces ésta siempre estará atada al observador humano. Pero, si la neguentropía –la entropía con signo negativo, que es el equivalente de la Información- representa un estado improbable del sistema en consideración, entonces cualquier posibilidad que sea improbable será una Información, aun en ausencia del observador humano.Sin embargo, para que ése sea el caso, es imprescindible que estemos hablando de una teoría objetiva de las probabilidades. Si las posibilidades son, como lo sostiene Popper, existentes reales (propensiones o disposiciones), entonces una posibilidad improbable cualquiera será, necesariamente, una Información objetivamente existente. La sucesión planteada por Prigogine termina en el concepto de irreversibilidad. La irreversibilidad nos conduce a considerar la 2ª Ley de la Termodinámica –"la entropía siempre aumenta"-, y con ella el concepto denominado "flecha del tiempo". En la preparación de las "diluciones homeopáticas", observamos que esta dirección hacia el futuro no es equivalente a la dirección hacia el pasado, es decir, nos muestra que el resultado final es imposible de revertir ya que el sistema alcanzará en último término el estado de equilibrio ; así podemos ver en acción a la irreversibilidad. Pero, y aquí es donde está lo verdaderamente importante, será un estado cualitativamente distinto del previsible para un sistema estable –donde el "fenómeno homeopático" sería imposible-. En el presente ensayo se exponen dos versiones de una misma teoría –que se podrían considerar metafóricamente como una simetría de "bifurcaciones"-, relativas al "problema de las ‘diluciones homeopáticas’". Una versión teórica "fuerte", la que lleva la hipótesis de la "dilución homeopática" considerada como un sistema dinámico inestable, hasta sus últimas consecuencias ; y en la cual se propone un concepto semántico de Información qua energía no-degradable. Y una versión teórica "débil", que no involucra la aceptación de este mismo concepto, ciertamente polémico. Sin embargo, es nuestra opinión que esta versión de la teoría podría presentar dificultades que sólo la versión teórica "fuerte" sería capaz de superar. Es conveniente agregar, que cada versión de la teoría es solidaria de un tipo de análisis que le es propio: La versión teórica "débil" requiere de un análisis meramente estadístico ; la versión teórica "fuerte", en cambio, necesita de un análisis desde la perspectiva de la compleja estructura molecular del solvente (complejidad) como vector de la Información. Nuestra principal razón para preferir la versión teórica más "fuerte", es que el concepto de Información –en el sentido ya precisado de Información objetiva-, resulta fundamental en una teoría más amplia que sea capaz de abarcar todos los aspectos difíciles de la fundamentación homeopática. Por ejemplo, el mismo concepto de Información debería ser capaz tanto de explicar qué es aquello que persiste a la dilución llevada más allá del Número de Avogadro, como de qué manera funciona la llamada "ley de los semejantes". Sin duda que resulta mucho menos convincente el tener dos teorías diferentes –quizás, incluso incompatibles- para responder ambas interrogantes. Al terminar este prólogo, recordemos lo que el metereólogo Edward Lorenz decía: "el batir de las alas de una mariposa tendrá el efecto después de algún tiempo de cambiar completamente el estado de la atmósfera terrestre" –el título de su presentación en una sesión de 1972, de la Asocación Americana para el Avance de la Ciencia, era: "Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas ?"-; y mediante esta impresionante imagen se estaba refiriendo a la teoría de los sistemas dinámicos asociados al caos.
  • 4. 4 Cuando Hahnemann tomó una pequeña cantidad de cierta sustancia y la diluyó a la décima parte -sacudiéndola enérgicamente-, y repitió la dilución con la sucusión una y otra vez por treinta y más veces sucesivamente, obtuvo un medicamento homeopático. Este medicamento homeopático poseía propiedades nuevas extraordinarias: era capaz de curar muchos tipos de enfermedades. ¿No sugiere también esta nueva imagen a la teoría asociada al caos? El desarrollo, en la preparación de las "diluciones homeopáticas", de ciertas propiedades imprevisibles, implica la presencia de fenómenos difíciles de explicar, pero que la metáfora del batir de alas de una mariposa sugiere fuertemente. Una cantidad tan feble de materia, ¿cómo puede actuar siquiera, ya que no digamos curar? Si, conceptualmente hablando, el batir de alas de una mariposa –vale decir, una causa tan débil- puede tener efectos mensurables, ¿por qué no podría tenerlo también un soluto extremadamente diluído sobre el solvente? En las páginas siguientes, procuraremos mostrar que efectivamente es así. La teoría de Prigogine nos ha aportado a este respecto de poderosas herramientas intelectuales ; sin embargo, hemos tomado de él sólo lo que nos ha servido, habiendo desarrollado nuevos conceptos, a la vez que integrado otros de diverso origen, para completar una teoría que pueda ser posible de considerar como medianamente satisfactoria. Ése es, al menos, nuestro deseo. INTRODUCCION El problema de las "diluciones homeopáticas" –es decir, el problema de si en diluciones llevadas más allá del límite posible de conservación de átomos, iones o moléculas del soluto sometido a dilución, persistirían algunas de las propiedades de éste de una manera efectiva-, puede parecer a los ojos de sus críticos como un problema exótico, incluso extravagante. Sin embargo, no es más extraño que cualesquiera de los problemas que han dado origen a investigaciones serias, tanto en el pasado remoto como en el reciente, y que -eventualmente- han llevado a grandes descubrimientos. El llamado "problema del cuerpo negro", que en manos de Max Plank dió inicio a la Mecánica cuántica -tal vez la revolución más importante en la historia de la Física (o de la Ciencia en general)-, o las elucubraciones de Albert Einstein acerca de la velocidad de la luz y su relación con los conceptos de espacio y de tiempo, que cristalizaron en su teoría de la Relatividad restringida ; son ejemplos, por lo extraño e inesperado de sus orígenes, de que lo que convierte en científico un cierto problema es, más que el problema mismo, el hecho de que haya científicos interesados en resolverlo. Los problemas no pueden dividirse en problemas científicos y no científicos sino que en problemas que interesan a la comunidad científica y problemas que no lo hacen. De acuerdo con la acertada caracterización que John Ziman hace del conocimiento científico, éste es fundamentalmente conocimiento público, o sea, es el producto de una empresa humana colectiva cuyo fin "es lograr un consenso de opinión racional sobre el ámbito más amplio posible". (John Ziman, 1981, p.14) Por tanto, para convertir el problema de las "diluciones homeopáticas" en un asunto de investigación genuinamente científico, se debe interesar a la comunidad de científicos proponiéndoles una explicación que pueda ser sometida a contrastación experimental. Éste es el propósito que nos anima en el presente trabajo de investigación. Ahora bien, en el desarrollo de esta tarea nos encontramos con dos visiones contrapuestas, que empantanan de alguna manera este proceso. Por una parte, la visión de los propios médicos que practican la Homeopatía con fines terapéuticos ; y, por otra parte, la visión de los críticos que -al carecer de la experiencia de los anteriores en la
  • 5. 5 efectividad médica de las "diluciones homeopáticas"- son escépticos a su respecto. Escepticismo razonable pero no siempre bien fundado. LA VISIÓN DEL MÉDICO HOMEÓPATA. Al médico homeópata le resulta difícil aceptar que su rica experiencia confirmatoria de la efectividad terapéutica de las "diluciones homeopáticas", no baste para establecer un hecho científico: el hecho de que las "diluciones homeopáticas" actúen más allá de toda duda razonable. Así, frente al argumento que pretende explicar su efecto mediante la sugestión –el llamado "efecto placebo"-, le contrapone otro argumento decisivo: la efectividad de las "diluciones homeopáticas" en animales, niños pequeños (incluído lactantes) y, aún, en plantas. Otro argumento que pretende ser refutador es el de las curaciones espontáneas. Según este argumento, la curación se produce de todas maneras –aun en ausencia de todo tratamiento- en un cierto porcentaje de casos. Sin embargo, este argumento sólo podría ser sostenido por alguien que supusiera – equivocadamente- que los casos de curación mediante la Homeopatía son muy raros. Efectivamente, si se tratara de algunas cuantas escasas curaciones, se podrían atribuir a curaciones espontáneas que simplemente por azar sería dable esperar ; pero la realidad es que los casos de curación homeopática son estadísticamente muy importantes, lejos de lo que por mero azar se podría predecir. De esa forma este argumento también puede ser rechazado. Entonces el médico homeópata cree haber demostrado definitivamente la realidad de las "diluciones homeopáticas". Es necesario decir que ésto constituye un error. La praxis médica es una parte de la Tecnología (ya que es una técnica) y no de la Ciencia en sentido estricto, por lo cual los resultados terapéuticos no pueden tomarse como una prueba o demostración de alguna teoría, pretendiendo así establecer un hecho científico. Es la Tecnología la que está fundada en la Ciencia y no al revés, de tal manera que mientras "la justificación del conocimiento técnico se basa en la exitosa manipulación de los fenómenos,... ésta no juega el mismo papel en la justificación del conocimiento científico".(León Olivé, 1991, pp.149-150.) En otras palabras, la gran cantidad de resultados positivos en el uso de la terapéutica homeopática hablan a favor de la existencia de un problema -precisamente el que hemos llamado "problema de las ‘diluciones homeopáticas’"-, el cual necesita concretarse en una hipótesis para poder entrar en el terreno franco de la investigación científica. Aclaremos, sin embargo, que esa hipótesis debe ir más allá de la eficacia terapéutica –asunto que incumbe a la tecnología del acto médico-; es decir, que el problema sería el mismo aun cuando las "diluciones homeopáticas" se hubieran revelado como pobres medicamentos de un bajo porcentaje de curación (lo cual, ciertamente, no es el caso). Pues si el medicamento homeopático es de verdad capaz de curar, bastaría un solo caso si éste pudiera ser comprobado ; ya que para explicar ese único caso, deberíamos aceptar que existe "algo" capaz de curar en esas diluciones llevadas más allá del límite de dilución del soluto (Número de Avogadro). Es de la posible actividad en general de las "diluciones homeopáticas", entonces, de lo que estamos hablando y no de la actividad terapéutica en particular. El problema no consiste en buscar una explicación a una supuesta acción terapéutica de las "diluciones homeopáticas" –ése es un problema diferente: el problema de la validez científica de la "ley de los semejantes" (Véase el ensayo ¿Es la llamada "ley de los semejantes" una ley científica?, del mismo autor del presente trabajo.)-, sino que a una acción que pueda demostrarse como realmente presente mediante algún reactivo de cierto tipo (que alguna
  • 6. 6 implicación de la misma hipótesis deberá precisar). Éste es el primer paso. Posteriormente, es la prosecución de la investigación científica la responsable de encontrar una respuesta racionalmente satisfactoria. LA VISIÓN CRÍTICA A LA HOMEOPATÍA. Una crítica frecuente de aquellos que se acercan a la Homeopatía, no como a un problema por resolver sino que con un prejuicio condenatorio, es la siguiente: "¿Cómo explican los homeópatas esta supuesta potencia de las dosis infinitesimales, incluso cuando la dilución elimina todas las moléculas de una sustancia? Hablan de misteriosas vibraciones, campos de fuerza o radiaciones totalmente desconocidas por la ciencia."(Martin Gardner, 1993, p.37.) La base del argumento de Martin Gardner, parece ser el siguiente: "Si Ud. –en este caso, el médico homeópata- no puede explicarme cómo es posible que las ‘diluciones homeopáticas’ puedan tener algún efecto, cierta actividad medible de algún tipo, cierta ‘potencia’ –como suele llamarse-, entonces tal efecto o potencia no existe". Este argumento confunde dos conceptos que, aunque puedan estar relacionados, son diferentes. El concepto de explicación científica con el concepto de comprobabilidad fáctica. Es cierto que la existencia de una explicación en forma de teoría es el camino para propiciar la comprobación objetiva de los hechos, pero se trata de dos cosas distintas. En otras palabras, no se pueden negar los hechos mientras no se hayan dado primeramente los pasos necesarios para intentar establecer esos hechos. Por supuesto, tampoco se pueden aseverar. Es decir, toda afirmación a priori, tanto la de los defensores como de los detractores de la Homeopatía, constituye una equivocación. Sólo cabe una actitud científica: posponer todo juicio definitivo hasta tener pruebas suficientes. En lo que sigue de este trabajo, procuraremos desarrollar una teoría acerca de los posibles mecanismos reales subyacentes que expliquen el fenómeno de las "diluciones homeopáticas", con el objeto de que sea criticada –para su perfeccionamiento-; y permita asimismo el establecimiento de un modelo experimental, única forma estrictamente científica de responder al problema que éstas plantean. Tal vez este esfuerzo remueva el escepticismo de quienes, como Martin Gadner, requieren de argumentos racionales antes de decidirse a examinar las pruebas empíricas que la Homeopatía dispone. Dos preguntas han guiado nuestra investigación: ¿qué es aquello que persiste a la dilución más extrema y cómo –de qué manera- se produce en el proceso de dilución? LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS" Es en el proceso de preparación de las "diluciones homeopáticas", donde debiéramos encontrar las pistas que nos conduzcan a descubrir cuál es la explicación del efecto –si éste verdaderamente existe- de estas diluciones. Si tomamos una parte de cierta sustancia –imaginemos que se trata, por ejemplo, de cloruro de sodio o sal común- y nueve partes de solvente, tendremos una primera dilución decimal (o D1). El solvente usado es una mezcla de alcohol y de agua, pero –para nuestros fines- nos limitaremos al estudio del agua, ya que el alcohol es usado más bien para evitar cualquier tipo de contaminación biológica (por ejemplo, por levaduras). Ahora bien, el proceso de dilución se aplica sucesivamente sobre la dilución anterior – sobre D1, luego sobre D2, luego D3, D4, etc.-, vale decir, por cada una parte de la dilución precedente, se agregan nueve partes de solvente, hasta alcanzar diluciones sobre el límite físico impuesto por el Número de Avogadro. Este número adimensional expresa, como se recordará, el número de moléculas presentes en un mol (la masa molecular expresada en gramos) de cualquier sustancia y que, bajo condiciones normales, es igual para todas: aproximadamente 6 x 1023 moléculas.
  • 7. 7 Por una simple operación aritmética, se puede ver que cualquier dilución decimal superior a la número 23 (por sobre D23), o sea, cuando el proceso de dilución se ha realizado 23 veces sucesivas, carece de toda posible molécula de soluto (la sustancia en dilución). Aquí es precisamente donde comienza el misterio, porque ya no es posible explicar la supuesta acción de la "dilución homeopática" sobre tejidos humanos o animales (incluso vegetales), a base de las leyes de la Farmacología –y, en último término, mediante las leyes de la Química-. Si la acción no es responsabilidad de las moléculas (inexistentes) del soluto –porque las únicas moléculas que persisten son las del agua-, es a éstas donde debemos dirigir nuestra mirada en busca de una (nueva) explicación. Proponemos llamar a toda dilución por sobre el límite de persistencia del soluto, establecido por el Número de Avogadro, como "solución cero". Ésta es meramente una convención terminológica, pero nos parece útil para el fin de tener presente con mucha claridad que es de las moléculas de solvente –y, más precisamente, de las moléculas de agua- de lo que estamos hablando. Un reparo podría ser que, en lugar de "solución cero", podríamos decir simplemente "agua", pero ésto equivaldría a dar por solucionado el problema antes de haberlo investigado. Pues si se trata de moléculas de agua, no es ciertamente de moléculas de agua ordinaria de lo que hablamos. Ahora, responder en qué consiste lo especial de estas moléculas de agua que llamamos "solución cero", es el asunto de todo este trabajo en busca de una explicación. Hemos tomado como ejemplo de preparación de una solución homeopática, al cloruro de sodio o sal común, que es una sustancia fácilmente soluble en agua. ¿Qué ocurre con las sustancias que no son solubles en agua, como es el caso de tantas sustancias orgánicas o el caso de los metales? El mismo Samuel Hahnemann resolvió este problema: En un mortero, sometió a trituración la sustancia insoluble tomando una parte por nueve partes de lactosa (azúcar de leche), y en trituciones sucesivas –idénticas a las diluciones ya descritas usando agua- prosiguió hasta alcanzar su estado de solubilidad. En ese momento –que para los metales es, en la mayoría de los casos, alrededor de la 8a trituración decimal- se traspasa de la trituración a la solución acuosa. Con ésto se demuestra que, en estricto rigor, no existe sustancia alguna que sea absolutamente insoluble en agua. Se ha demostrado que es así aun con el cuarzo de la arena de playa: se la tritura varias veces sucesivamente y luego se torna soluble en agua. Todo lo anterior nos lleva a concluir que la solubilidad juega un papel muy importante en esta investigación en la que estamos empeñados. En efecto, la solución implica solubilidad del soluto en el solvente o, en otros términos, involucra una interacción entre las moléculas del soluto (en las primeras diluciones) y las moléculas del solvente (el agua). Y cuando desaparece el soluto (solución cero), algunas de las moléculas de agua deben tomar su lugar, de manera de poder interactuar con las nuevas moléculas de agua agregadas por la dilución. Si así no fuera, el proceso se interrumpiría, ya que a esta altura no quedan moléculas de soluto –que, de alguna manera, son responsables del cambio sufrido por el agua-. Las moléculas de agua, entonces, cumplirían una doble función. Por una parte, deberían ser susceptibles de sufrir la influencia de las moléculas de soluto, modificándose de una manera perdurable, aunque no necesariamente permanente ; y, por otra parte, deberían poseer además la aptitud de reemplazar a éstas, adoptando su papel, y, de esa manera, ser capaces de influenciar a nuevas moléculas de agua. ¿Y cuál podría ser el mecanismo mediante el cual el agua cumpliría esta importante doble función? En una primera aproximación –ya encontraremos una respuesta más
  • 8. 8 completa y más detallada en lo que sigue-, conjeturamos que son principalmente los puentes de Hidrógeno del agua, los implicados en estas nuevas funciones. Dado que la carga eléctrica de la unión del Oxígeno con cada Hidrógeno, está más repartida en la vecindad del Oxígeno, cualquiera de los dos Hidrógenos se puede unir fácilmente a los electrones libres del átomo de Oxígeno de otra molécula de agua. Se forma así una unión que, aunque es más débil que las uniones químicas ordinarias, es por eso mismo de una mucho mayor plasticidad ; y que se denomina "puente de Hidrógeno".(Lachek, Diner y Fargue, 1989, p.133.) El resultado es la formación de polímeros de agua, es decir, de largas cadenas constituídas por moléculas de agua. De hecho, éstas se están formando todo el tiempo en el agua común en equilibrio térmico con su ambiente. Sin embargo, el proceso de unión de varias moléculas de agua para constituir una sola gran estructura molecular (un polímero) en presencia de un soluto diluído es, en nuestro criterio, el suceso clave para la explicación buscada. ¿Por qué? Porque la complejidad estructural así adquirida por el solvente –el agua- debe estar relacionada, de alguna forma, con el soluto. Posteriormente el soluto desaparece, pero no sin antes dejar en el solvente algún cambio perdurable (asociado con el aumento de la complejidad). Ésto es a lo que –en nuestra opinión, muy desafortunadamente- se ha llamado "memoria del agua". (Por ejemplo, en Jacques Benveniste, 1991, p.816.) Lo desafortunado está en intentar explicar lo oscuro por lo oscuro: si se tuviera una teoría de la memoria muy desarrollada y, además, de carácter general, entonces sería útil, pero lamentablemente ése no es el caso. Se entiende, así, el sarcasmo de Martin Gardner: "En otras palabras, el agua puede recordar las propiedades de una sustancia que ha desaparecido de ella".(Martin Gardner, 1993, p.37.) Evidentemente, el agua no puede "recordar", ésa es una función del cerebro, pero tal vez el mismo mecanismo físico que está en la base de este fenómeno del agua que estamos analizando, sea útil mañana para explicar el mecanismo de la memoria en su recto sentido (o sea, como una propiedad del cerebro). En todo caso, la memoria sería un rasgo del proceso, pero de ninguna manera su explicación ; por el contrario, lejos de explicar algo, necesita a su vez ser explicada. Volviendo de esta digresión al tema del aumento de la complejidad estructural del solvente, digamos que el concepto de complejidad implica al concepto de orden. Sin embargo, no es posible seguir nuestro análisis sin aclarar primero algunos conceptos previos –como el concepto de entropía y su afín, el concepto de neguentropía- que nos proporciona la Termodinámica. Más adelante, hablaremos de la equivalencia entre la neguentropía –que dice relación con el orden- y la cantidad de información. Posteriormente, el concepto de cantidad de información –una manera de medir la complejidad- nos llevará a dilucidar el concepto mismo de Información*, fundamento último de toda nuestra teoría. *(Escribimos "Información" con I mayúscula para distinguirla de la llamada "cantidad de información", en la cual "información" está con minúscula. La diferencia tipográfica es un trasunto de su diferencia conceptual, como lo veremos en el texto.) LA ENTROPÍA Y LA SEGUNDA LEY DE LA TERMODINÁMICA En Termodinámica se reconoce a una 1ª Ley de la Termodinámica, conocida como "Ley de conservación de la energía" y que establece que hay cierta magnitud llamada "energía", la cual no varía con los múltiples cambios que ocurren en la naturaleza. Y se reconoce además a una 2ª Ley de la Termodinámica, la cual establece, por su parte, que existe otra magnitud llamada "entropía", que permanece constante en algunas transformaciones y que aumenta en otras, sin disminuir jamás. Aquellas trasformaciones en las cuales la entropía aumenta, se denominan "procesos irreversibles".
  • 9. 9 La 2ª Ley de la Termodinámica se aplica solamente a sistemas aislados, es decir, a sistemas en los cuales las transformaciones implicadas quedan todas incluídas en ellos (como es el caso de la "dilución homeopática"). En sistemas abiertos, en cambio, así como la energía puede pasar de un sistema a otro –y entonces mientras uno la pierde, el otro la gana, pero el balance total es igual a cero-, lo mismo acontece con la entropía: si un sistema gana en entropía, su alrededor (que es otro sistema) la pierde, pero el balance total es nulo. Vale decir, al sistema más su alrededor se le considera como un sistema aislado –así se ha considerado al universo-. Éste es el caso, sin embargo, de los procesos reversibles, los cuales son procesos ideales (ya que no existen en la naturaleza). En los sistemas reales, y como tales escenarios de procesos irreversibles, el balance final de entropía es siempre positivo. Además, es muy importante señalar que la entropía aumenta en un sistema aislado hasta alcanzar un máximo, que es su estado de equilibrio (porque espontáneamente permanece en él). Desde fines del siglo XIX –allá por el año de 1872-, se empieza a reconocer con Ludwig Boltzmann que esta segunda Ley es una ley de naturaleza probabilística (o estadística). Esto quiere decir que no es imposible que en un sistema aislado pueda alguna vez disminuir su entropía, en lugar de aumentar. Esta aparente contradicción con lo estipulado por la segunda Ley, no es tal, pues la predicción de la ley está garantizada, en los hechos, por aquella otra ley que es principio fundamental de toda estadística: la llamada "ley de los grandes números". O sea, las excepciones se pierden en el conjunto inmensamente superior -en extensión- de los resultados esperados. Sin embargo, es posible la existencia de excepciones ; todavía más, podríamos decir que la existencia de excepciones es inevitable dada su naturaleza probabilística. Boltzmann –uno de los creadores, junto con J.W. Gibbs, de la Mecánica estadística- utilizó la teoría cinética de los gases, de acuerdo con la cual la cantidad de calor de un gas depende del movimiento irregular de sus moléculas, para mostrar que las colisiones entre moléculas conducen –según leyes estadísticas- a una igualación media de las diferencias de velocidad que ellas presentan. Así, las moléculas más rápidas que el promedio, pierden velocidad con cada choque; mientras las moléculas más lentas que el promedio, ganan velocidad al chocar con las moléculas más rápidas. Es precisamente esta igualación (o sea, desaparición de las diferencias) lo que constituye el estado de equilibrio –o estado de máxima entropía-. En palabras de Prigogine: "Dicho de otro modo, las colisiones entre las partículas aparecen como el mecanismo microscópico que conduce el sistema al equilibrio".(Ilya Prigogine, 1996, p.27.) Vale decir, el incremento de entropía durante los procesos físicos implica que los conjuntos bien ordenados de moléculas se transforman en conjuntos mal ordenados. El "orden" es aquí sinónimo de "diferencia" o de "heterogeneidad", lo cual no coincide necesariamente con el concepto de sentido común -o habitual de nuestra vida diaria- de orden. Para dar un ejemplo: si todas las moléculas rápidas –o sea, más rápidas que el promedio- se concentraran en la mitad izquierda del recipiente que las contiene, y las moléculas lentas –o sea, más lentas que el promedio- lo hicieran en su mitad derecha, tendríamos el estado de máximo orden (o el estado más alejado del estado de equilibrio, que es el estado de máximo desorden o entropía). Al sentido común, tal vez, le parecería más ordenado un estado homogéneo, es decir, un estado en que las moléculas están distribuídas en forma uniforme –donde en cualquier subespacio del sistema encontraríamos moléculas con una velocidad fluctuando muy poco alrededor del promedio- . Ésta es, sin embargo, la descripción del estado de equilibrio. De acuerdo con Boltzmann, las colisiones al azar entre las moléculas del gas (el llamado "caos molecular", que no es lo mismo que "el caos dinámico", del cual hablaremos
  • 10. 10 después) son las responsables de esta igualación de las diferentes velocidades individuales, hasta alcanzar el estado de equilibrio termodinámico –en el cual el espectro de velocidades de las moléculas se distribuyen en una curva normal alrededor de la velocidad promedio (distribución de Maxwell)-. Destaquemos que el estado de equilibrio termodinámico es considerado por la Mecánica estadística como el estado de máxima probabilidad: "Para un conjunto macroscópico aislado, el mismo estado neto de equilibrio se predetermina mediante la Termodinámica como aquel en que la entropía llega a un valor máximo, y por medio de la Mecánica estadística como aquel que corresponde a una configuración predominante asociada con el número máximo de microestados". (L.K. Nash, 1974, p.53.) Ahora, ¿por qué se califica al estado de equilibrio como el equivalente al estado de máxima probabilidad de la Mecánica estadística? Porque las distribuciones en el espacio de velocidades cercanas o levemente diferentes a la velocidad promedio -vale decir, la configuración predominante- están en un número inmensamente superior a aquellas velocidades alejadas del promedio (aquellas moléculas o demasiado rápidas o demasiado lentas). La configuración predominante, entonces, constituye el estado más probable del sistema. Y el estado de máxima entropía corresponde así a una homogeneidad estadística. A pesar de ésto, no es imposible que el choque de las moléculas pueda producir resultados que van en contra de esta igualación, lo cual no invalida sin embargo a esta ley probabilística que es la 2ª Ley de la Termodinámica. Nada prohíbe que del choque de una molécula rápida con otra molécula lenta, por ejemplo, la molécula rápida se haga más rápida y la molécula lenta se haga más lenta. Este resultado va en contra de la tendencia igualitaria –o sea, la tendencia hacia el incremento de la entropía-, pero se puede producir perfectamente ; sólo que por ser su ocurrencia estadísticamente no significativa, se pierde en el resultado de conjunto que siempre representa un incremento de entropía (o desorden). Por otra parte, se habla de "estado de equilibrio" porque una vez que la distribución más probable ha sido alcanzada, permanece estacionaria. Pese a las colisiones posteriores que pueden hacer variar las velocidades individuales de las moléculas, la distribución de conjunto permanece invariable. Antes de hablar de la neguentropía, debemos aclarar un poco más los concepto de orden y desorden. Digamos previamente que la entropía es una función general que caracteriza el estado de un sistema -de un gas, por ejemplo- como un todo. Si distinguimos entre microestado y macroestado, el primero se refiere a las ordenaciones moleculares (o configuraciones moleculares) y el segundo a la clase de ordenaciones (o microestados) que son macroscópicamente indistinguibles entre sí. (Hans Reichenbach, 1959, pp.106-108.) Y agreguemos que las ordenaciones macroscópicamente indistiguibles poseen el mismo grado de orden. Por tanto, al macroestado correspondiente a un cierto microestado (a una cierta ordenación) se le puede denominar clase del mismo orden. De manera que el grado de desorden puede medirse por el número de ordenaciones que componen una clase del mismo orden, es decir, por su extensión, determinando así la configuración predominante. Recíprocamente, un alto grado de orden estará constituído por una clase del mismo orden que sea pequeña en extensión. Ésta es la concepción en la cual se basa la interpretación de la entropía como medida del desorden, o como medida inversa del orden, y por la cual la entropía –y con ella la probabilidad- aumenta en función del número de ordenaciones (o microestados) pertenecientes a una clase del mismo orden. Ahora, si en lugar de usar el concepto de entropía como medida inversa del orden de un sistema, utilizamos el concepto de
  • 11. 11 neguentropía, será posible entonces hablar directamente del grado de orden del sistema considerado. LA NEGUENTROPÍA Y EL ORDEN La pregunta que surge en este momento es: ¿debemos considerar a la neguentropía (o entropía con signo negativo) simplemente como una forma de referirse a la entropía y con lo cual queremos dar a entender que la entropía del sistema considerado disminuyó en lugar de aumentar? Si así fuera, entonces no tendría más importancia que su mero valor terminológico. O bien, ¿debemos considerar a la neguentropía como un concepto propio, relacionado pero distinguible del concepto de entropía? La mejor manera de investigar el concepto de neguentropía es oponiéndolo al concepto de entropía, o sea, considerándolo como equivalente a la anti-entropía. Luego, si el estado de equilibrio es aquel estado de un sistema en el cual la entropía es máxima, pero es igualmente –como lo señala la Mecánica estadística- el estado más probable, entonces cualquier estado improbable puede ser considerado como un estado neguentrópico. Antes de seguir adelante, digamos que aceptamos plenamente el punto de vista que considera a la Mecánica estadística como una explicación de la Termodinámica (en el sentido de ser lógicamente anterior). Y ésto es muy importante, pues, como afirma Nash: "La Termodinámica no proporciona ninguna información acerca del porqué los procesos espontáneos se realizan con un aumento de la entropía".(L.K. Nash, 1974, p.53.) Las consecuencias de esta posición probabilista de la Mecánica estadística con respecto a la segunda Ley, ya la hemos señalado ; lo haremos ahora explícitamente: La segunda Ley afirma, simplemente, el paso del sistema a configuraciones moleculares cada vez más probables a medida que pase el tiempo -aunque no en un tiempo determinado-. De aquí se desprende, entonces, que los sucesos improbables quedan descartados. Pero mientras que la Termodinámica clásica lo hacía en términos absolutos, la Mecánica estadística deja abierta su posibilidad. Así, en palabras de Margenau: "La validez de la segunda Ley se convierte entonces solamente en una cuestión de una elevada probabilidad: el recipiente de agua sobre el fuego tiene una probabilidad extremadamente pequeña, pero finita, de helarse..." (Henry Margenau, 1970, p.203.) Como explica el mismo autor: "...cabe la posibilidad de movimientos excepcionales", sin embargo, ocurre que "éstos son dinámicamente tan inestables que la más ligera perturbación los destruiría" (el destacado es nuestro); por eso, "no es necesario, en absoluto, tenerlos en cuenta en un sentido estadístico ..."(Henry Margenau, 1970, p.261.) Actualmente, sin embargo, un autor como Prigogine hace de este supuesto defecto – del carácter exclusivamente probabilístico de la segunda Ley- una virtud: "La noción de probabilidad introducida empíricamente por Boltzmann fue un golpe de audacia muy fecundo. Después de más de un siglo empezamos a entender cómo surge de la Dinámica a través de la inestabilidad: ésta destruye la equivalencia entre el nivel individual y el nivel estadístico, al extremo que las probabilidades cobran una significación intrínseca, irreductible a una interpretación en términos de ignorancia o aproximación". (Los destacados son nuestros.) (Ilya Prigogine, 1996, pp.37-38.) Vale decir, si aceptamos los supuestos de la Mecánica estadística, deberemos tomarnos muy en serio el concepto de probabilidad –desde luego como un concepto objetivo- y extraer de él todas sus consecuencias. Como dice Margenau: "si estas probabilidades son primarias, si son el último recurso del científico, deben formar parte, en
  • 12. 12 algún sentido, de la realidad física..."; y concluye: "es preciso incorporar las probabilidades a la estructura de la realidad".(Henry Margenau, 1970, p.261.) En otras palabras, es necesario elegir la interpretación objetiva y rechazar la interpretación subjetiva del cálculo de probabilidades. Recordemos que: "La teoría subjetiva de la probabilidad surge de la creencia de que utilizamos la probabilidad sólo si tenemos un conocimiento insuficiente".(Karl Popper, 1985, p.321.) ¿Cómo podríamos interpretar objetivamente el concepto de probabilidad? La interpretación objetiva propensivista de Karl Popper es, a este respecto, interesante: "La interpretación propensivista es, creo, la de la Mecánica estadística clásica. Boltzmann habló de una tendencia. Pero creo que la interpretación propensivista describe mejor lo que los autores clásicos tenían en mente cuando hablaban del cociente entre los casos igualmente probables y los casos posibles: pensaban que este cociente era una medida (una medida especialmente importante y conveniente, aunque no la más general) de la propensión, característica de ciertas condiciones especificadas a producir un suceso dado." (Karl Popper, 1985, p.437.) Más concretamente todavía: "Propongo interpretar la probabilidad objetiva de un suceso singular como una medida de una propensión objetiva, de la fuerza de la tendencia, inherente a la situación física especificada, a realizar el suceso, a hacer que ocurra." (Los destacados son nuestros.) (Karl Popper, 1985, p.434.) Para entender más plenamente la interpretación propensivista, es importante partir del siguiente reconocimiento de Popper: "Cualquiera que sea la interpretación que adoptemos de los enunciados científicos de la probabilidad, no hay duda de que la interpretación frecuencial sigue siendo de fundamental importancia, puesto que son siempre enunciados de frecuencias los que sometemos a contrastaciones empíricas." (Karl Popper, 1985, p.400.) Unida a la anterior, la siguiente clarificación de Karl Popper –referida a las condiciones de una cierta situación experimental singular- es decisiva: "Porque con ‘propensión’ quiero decir exactamente la disposición (o como se quiera llamar) de la situación a producir esas frecuencias [de la interpretación frecuencial de las probabilidades], si el experimento se repite lo bastante a menudo." Y concluye: "Las propensiones son disposiciones a producir frecuencias: ésta es la interpretación sugerida por la teoría neoclásica. Pero ‘propensión’ no significa ‘frecuencia’, porque hay sucesos que se repiten demasiado raramente como para producir nada parecido a un buen segmento de una sucesión aleatoria (o una ‘frecuencia’); con todo, esos sucesos raros pueden muy bien tener una propensión". (Karl Popper, 1985, p.436.) (Los destacados son nuestros.) Luego, los sucesos improbables son, aunque raros, posibles, porque son también posibilidades ; y en cuanto posibilidades objetivas -es decir, en cuanto propensiones-, deben ser considerados como componentes siempre presentes en todo tipo de expresiones de la realidad. En una población cualquiera, ya sea de seres humanos, de moléculas de un gas o de tiradas de cartas de un naipe, existen siempre fracciones que se apartan –más o menos- del promedio (que representa la tendencia mayoritaria); y deberíamos entenderlas como propensiones que se manifiestan raramente (o sea, de baja frecuencia). Alguna fracción pequeña –no significativa estadísticamente- de sucesos, ocurrencias o eventos improbables, raros o extraordinarios se presenta, de hecho, con la regularidad de una ley de la naturaleza, en cualquier situación posible, si la población es lo suficientemente grande. Desde luego que estos sucesos improbables se ocultan en el conglomerado de los sucesos probables, de ahí que no es siempre fácil detectarlos.
  • 13. 13 EL PAPEL DE LAS PROPENSIONES Y DE LAS RESONANCIAS La idea central que subyace a esta concepción objetiva de las probabilidades, es que todas las posibilidades están presentes de momento a momento en el universo. Esta concepción guarda una estrecha relación con la hipótesis ergódica, que el propio Boltzmann formuló. Pensaba Boltzmann que, en un sistema aislado, se presentarían todas las configuraciones energéticamente posibles de adoptar por parte de las partículas, si se espera el tiempo suficiente. En palabras de Ruelle: "una manera más correcta de expresar las cosas es decir que el sistema volverá a pasar incansablemente tan cerca como se quiera de cualquier configuración energética permitida". (David Ruelle, 1993, p.118.) Por supuesto, el sistema permanecerá la mayor parte del tiempo en la configuración predominante, donde la entropía del sistema es máxima. Pero ocasionalmente podrá presentarse una configuración rara. Ahora, si es cierto que las configuraciones expresan posibilidades objetivas, entonces todas las configuraciones en cuanto propensiones reales deberían estar simultáneamente presentes todo el tiempo. Para entenderlo mejor, veamos en palabras de Popper cómo surge esta concepción objetiva propensivista de las probabilidades: "La interpretación propensivista puede considerarse en relación con la interpretación clásica, que define la probabilidad como el número de casos favorables dividido entre el número de casos posibles. Esto sugiere que podemos interpretar la probabilidad como una medida de las posibilidades."(Karl Popper, 1985, p.326.) Continúa Popper: "Ahora bien, la interpretación propensivista está estrechamente relacionada con la interpretación que considera la probabilidad como una medida de las posibilidades. Lo único que añade a ésto es una interpretación física de las posibilidades, a las que no considera como meras abstracciones, sino como tendencias o propensiones físicas a producir el estado posible de cosas, tendencias o propensiones a realizar lo que es posible. Y supone que la fuerza relativa de una tendencia o propensión de este tipo se expresa en la frecuencia relativa con la que logra realizar la posibilidad en cuestión." (Los destacados son nuestros.) (Karl Popper, 1985, p.326.) Por tanto, las posibilidades son propensiones físicas que se realizan con una cierta frecuencia relativa a la situación que sea el caso ; lo que parece depender, en cierta medida, del conocimiento que posea el observador y, en una medida mucho mayor, de cómo sea el mundo. En el primer caso, se trata de la probabilidad entendida en un sentido subjetivo –algo así como un cálculo de expectativas racionales-; en cambio, objetivamente hablando, cualquier posibilidad por el solo hecho de existir constituye una propensión real que depende exclusivamente de cómo sea el mundo. Incluso en ausencia del observador, habrá posibilidades que sean improbables y otras probables, y será el dato objetivo de sus frecuencias relativas el que determinará que pertenezcan a una u otra categoría. El grado de probabilidad, entonces, es una medida objetiva de las posibilidades ; y determinará un tipo especial de posibilidad, aparentemente trivial, que es el de posibilidad improbable. Y decimos "aparentemente" trivial porque está muy lejos de serlo. Primeramente, las posibilidades improbables son propensiones físicas a producir un determinado estado de cosas –al igual que toda posibilidad-, pero que se expresan raramente, o más bien, bajo condiciones muy especiales. Sin embargo, serán justamente las posibilidades improbables las más interesantes en relación con el estudio de las "diluciones homeopáticas" –ya veremos porqué-, a condición de que entendamos la posibilidad en el sentido realista de propensión ya precisado por Popper: "Se me preguntará por qué propongo introducir propensiones ocultas tras las frecuencias. Mi respuesta es que conjeturo que esas propensiones son físicamente
  • 14. 14 reales en el mismo sentido que las fuerzas de atracción o repulsión, por ejemplo, pueden ser físicamente reales." (El destacado es nuestro.) (Karl Popper, 1985, p.326.) Destaquemos desde ahora mismo que el concepto de Información (que está implícito en el de cantidad de información) es homologable con el concepto de posibilidad improbable, aunque considerado desde la perspectiva de un cierto observador, es decir, subjetivamente (en cuanto incertidumbre). Ahora, cuando hablamos de "posibilidad improbable" en el presente contexto, o sea, objetivamente, nos estamos refiriendo concretamente a cualesquiera de las configuraciones moleculares no predominantes, es decir, distintas de la configuración predominante. Más adelante estudiaremos que la cantidad de información de un sistema mide el grado de improbabilidad que tiene ese sistema de ser tal cual es, o sea, se da la siguiente relación: a mayor improbabilidad, mayor cantidad de información. El caso extremo opuesto es el del estado de equilibrio, donde la entropía es máxima y la cantidad de información es nula. Pero la improbabilidad tiende a ser entendida como referida a posibilidades ideales –de ahí el uso de un concepto subjetivo de probabilidad-, y no a posibilidades reales, que existen en el mundo (independientemente de cualquier observador). Mas, si adoptamos esta última perspectiva, constataremos que la posibilidad improbable es algo que le pertenece al sistema mismo, incluso en ausencia de algún observador. En otras palabras, lo que desde la perspectiva del observador se expresa por una cierta cantidad de información, corresponde -desde la perspectiva, ahora, del sistema en consideración- a una posibilidad improbable. Ciertamente que, en la medida que la posibilidad se hace más improbable –o menos probable, o sea, más rara-, la cantidad de información implicada es mayor ; y, en la medida que la posibilidad se hace más probable, la cantidad de información disminuye, hasta finalmente desaparecer (en el estado de equilibrio). Es decir, entonces, que la Información sólo puede surgir de un estado neguentrópico (de un estado improbable). Éste es, para nosotros, el sentido más profundo de la equivalencia entre la Información y la neguentropía. Al analizar el famoso experimento imaginario de Maxwell, conocido como "el demonio de Maxwell", Brillouin llega a la conclusión de que la Información puede definirse por la correspondiente cantidad de entropía negativa (o neguentropía). Ahora bien, si para Brillouin la Información y la entropía deben tener signos opuestos, para Shannon –creador de la "Teoría de la información"- la Información se asocia con la entropía, o sea, él asocia la Información con el desorden y no con el orden. Sin embargo, esta contradicción aparentemente irreconciliable no afecta nuestra descripción porque el concepto de neguentropía, tal cual nosotros lo entendemos, surge naturalmente del análisis de la Mecánica estadística y de cómo ella explica la entropía termodinámica en términos de probabilidades. Así, siendo el estado de máxima entropía también el más probable, la neguentropía es sinónimo de improbabilidad.. Si a lo anterior se agrega un concepto objetivo de probabilidad que considera a las posibilidades en cuanto propensiones, resulta comprensible una equivalencia real (y no meramente conceptual) entre la Información y la neguentropía. En diferentes palabras, desde esta perspectiva una concepción subjetiva de las probabilidades debe ser descartada, como la que destila de la siguiente afirmación de Henry Atlan: "El formalismo de la teoría de la información es un formalismo probabilista que nos es impuesto porque tratamos con sistemas que sólo podemos conocer global e imperfectamente". (Henry Atlan, 1990, pp.76-77.) Vale decir, las probabilidades sólo expresarían nuestra ignorancia acerca de cada uno de los detalles de los sistemas estudiados. Sin embargo, si interpretamos a la probabilidad como una medida de las
  • 15. 15 posibilidades, y a éstas como propensiones realmente existentes, entonces el reconocimiento de que no conocemos plenamente un cierto sistema no cambia el hecho de que la Información exista por sí misma (con independencia del observador del sistema y su relativa ignorancia). Así, la Información puede ser vista como una objetiva posibilidad improbable -vale decir, como una propensión que es a la vez improbable-, pero que, por alguna razón, se hizo activa. Una de las razones de que se haga activa, por ejemplo, es la presencia de un observador que, al interferir con el sistema, se convierte en el receptor de la Información. Pues bien, es igualmente posible que la Información pueda no estar activa (Información latente: una propensión a actuar no manifestada), y entonces coincidirá externamente con la entropía –o sea, con el desorden que la oculta- y no con la neguentropía (tal como lo consideraba Shannon); y de esa manera se vuelve posible que "el orden pueda surgir del caos", como se afirma, pero sólo al hacerse nuevamente activa la Información. Por ahora, nos conformaremos con establecer la equivalencia entre la Información y la neguentropía, pero si somos algo más rigurosos deberíamos precisar ciertos puntos. Ante todo, que la verdadera equivalencia –en un sentido conceptual- es únicamente entre la neguentropía y la Información implícita en el concepto de cantidad de información. ¿Por qué? Porque el concepto de cantidad de información involucra al observador y es, por tanto, un concepto subjetivo –incluso, como tendremos la oportunidad de explicarlo más adelante, es un concepto antropomórfico-. Con respecto a la Información objetivamente tal, tendríamos que decir que la neguentropía es solamente una condición necesaria para que la Información se manifieste. De otra manera dicha, la neguentropía no es condición suficiente –además de necesaria- de la Información como formalmente se requiere para que sea una equivalencia. Y el hecho de que la neguentropía no sea una condición suficiente de la Información, implica que esta última es "algo" más que neguentropía. Volveremos sobre este punto más adelante. Pero, como conclusión provisoria, establezcamos que hay tres conceptos íntimamente entrelazados: el concepto de posibilidad improbable, el concepto de Información y el concepto de configuración no predominante (estado neguentrópico). O sea, una configuración no predominante representa una posibilidad improbable y, por tanto, una Información. Retornando al hilo de nuestra exposición, digamos que a veces ocurre que una situación excepcional –o sea, una posibilidad improbable- se generaliza, constituyéndose en un suceso más numeroso, de hecho, el predominante. La razón por la cual ésto ocurre puede ser desconocida muchas veces, pero hay otras ocasiones en las cuales aparece un fenómeno muy especial –como es el de resonancia- en cuanto causa suya. LAS RESONANCIAS Y LA IRREVERSIBILIDAD Ya tendremos la oportunidad de estudiar en qué consiste la resonancia, pero primero destaquemos su importancia. En opinión de Prigogine: "Las resonancias de Poincaré desempeñan un papel fundamental en Física. La absorción y la emisión de la luz se deben a resonancias. En un sistema de partículas en interacción, la aproximación al equilibrio se debe a resonancias. Los campos en interacción también crean resonancias. Resulta difícil citar un problema importante de Física cuántica o clásica en que las resonancias no desempeñen un papel." (El destacado es nuestro.) (Ilya Prigogine, 1996, p.45.) En una primera aproximación al tema, establezcamos el siguiente hecho: Las resonancias conducen a un acoplamiento entre movimientos moleculares mediante correlaciones. Por ejemplo, en un vaso de agua que contiene un número gigantesco de
  • 16. 16 moléculas "las colisiones entre las moléculas tienen dos efectos: tornan más simétrica la distribución de las velocidades y crean correlaciones entre estas moléculas". (El destacado es nuestro.) (Ilya Prigogine, 1996, p. 87.) De esta manera aparece la irreversibilidad en el nivel estadístico: "Pero una partícula correlacionada con otra encontrará seguidamente una tercera. Las correlaciones binarias se transforman entonces en correlaciones ternarias, etc. En consecuencia, tenemos un flujo de correlaciones ordenados en el tiempo."( Ilya Prigogine, 1996, p. 87.) Es decir, que el número de partículas implicadas en las correlaciones aumenta continuamente. "En el curso del tiempo nacen y se propagan correlaciones". Debido a las resonancias, los procesos dinámicos "conducen a correlaciones de largo alcance, aunque las fuerzas entre las moléculas sean de corto alcance".(Ilya Prigogine, 1996, p.139) Ésto sucede en un simple vaso con agua, un sistema dinámico que, a pesar de su sencillez, constituye un sistema inestable por la presencia de resonancias –lo cual implica la existencia de interacciones persistentes entre las moléculas y, por tanto, el que sea un sistema no-integrable en el sentido de Poincaré (véase más adelante)-. Sin embargo, la incorporación de un soluto diluído va a determinar cambios mucho más importantes -como tendremos la oportunidad de mostrar-, tal cual podría ser la aparición de un orden específico que se extiende a toda la solución. Lo que importa destacar hasta el momento es que existe este "mecanismo" de las resonancias, a través del cual se puede generar una situación cualitativamente diferente –ya veremos qué se debe entender exactamente por "cualitativamente diferente"- a la que sería estadísticamente esperable para el estado de equilibrio de una población de partículas libres sin interacción, o bien, cuasi independientes (que tienen escasa interacción, tales como los gases a baja presión). EL ESTADO NEGUENTRÓPICO Pasemos ahora a una definición. Llamaremos "estado neguentrópico" a cualquier estado en que se encuentra un sistema aislado mientras esté alejado del estado de equilibrio. Vale decir: será un estado neguentrópico cualquier estado que no sea el propio estado de equilibrio (en el cual la entropía es máxima, según ya sabemos). Muchos estados neguentrópicos serán, simplemente, estados transitorios camino al equilibrio. Pero, podemos suponer la existencia de otros tipos de estados neguentrópicos que sean capaces de durar un tiempo mayor -cuando se dan ciertas condiciones de las cuales tendremos que hablar un poco más adelante-, y que pueden dar lugar a interacciones moleculares persistentes con sus respectivas correlaciones de un tipo sui generis. Vale decir, suponemos que hay un punto crítico en la duración de un estado neguentrópico, superado el cual el sistema presentaría condiciones aptas para que resonancias especiales puedan difundirse por el sistema. Ésto convierte al concepto de neguentropía en un concepto con sentido propio. Ahora, ¿puede un sistema cerrado tal como una solución diluída mantenerse indefinidamente en un estado neguentrópico? No, tarde o temprano ese sistema alcanzará su estado de equilibrio –y la validez de la 2ª Ley de la Termodinámica quedará a salvo-, pero se tratará de un sistema diferente. ¿Diferente de qué? Diferente de lo que habría sido en ausencia del tipo de correlaciones moleculares como las producidas por las resonancias presentes a causa del estado neguentrópico, y que se han difundido por el sistema. Hablamos, entonces, de un equilibrio diferente –cualitativamente diferente- al equilibrio alcanzado en un sistema en condiciones estables (sin estado neguentrópico). Como veremos un poco más adelante, el papel desempeñado por el soluto es el de proporcionar el punto de partida para que operen resonancias –diferentes a las que
  • 17. 17 existen en el solvente- que correlacionen moléculas de agua, cambiando así las condiciones de equilibrio del sistema total (la solución). Sin embargo, antes de entrar en ello, aclaremos un poco más el concepto de estado neguentrópico. Decir "estado neguentrópico" es equivalente a decir "estado improbable". Es así porque siendo el estado de equilibrio el estado más probable, cualquier estado neguentrópico es necesariamente improbable. Pero no solamente éso. Desde el momento en que un estado neguentrópico se hace predominante (se convierte en el macroestado predominante), deja de ser un estado neguentrópico. En otros términos, la improbabilidad es una condición tanto necesaria como suficiente de un estado neguentrópico (un estado que no sea improbable no puede ser un estado neguentrópico y basta que un estado sea improbable para que sea un estado neguentrópico). El estado neguentrópico, entonces, es consubstancial al estado transitorio de no equilibrio ; por ende, se termina con el equilibrio. Según Prigogine: "En pocas palabras, la distancia respecto al equilibrio es un parámetro esencial para describir el comportamiento de la materia". Y hace la siguiente rotunda afirmación: "Lejos del equilibrio, la materia adquiere nuevas propiedades en que las fluctuaciones y las inestabilidades desempeñan un papel esencial: la materia se vuelve más activa". (Los destacados son nuestros) (Ilya Prigogine, 1996, p.75.) El papel que desempeña la distancia respecto al equilibrio, tal cual es destacado por Prigogine, es también posible verlo –para el caso especial que nos ocupa- desde otra perspectiva: el tiempo que demora el sistema en alcanzar nuevamente el equilibrio. El tiempo es importante puesto que se trata de un proceso irreversible –se habla de "tiempo de Liapunov", lapso de duración más allá del cual un sistema se hace caótico-. Expresémoslo con las siguientes palabras: en un sistema dinámico en desequilibrio, hay un lapso durante el cual diversas posibilidades improbables –propensiones físicas, recordemos- existen en estado de tensión como flechas a punto de despegar del arco. Pues bien, las probabilidades de que en cualquier instante una flecha se dispare -o sea, de que una posibilidad hasta ese momento improbable se actualice-, aumenta con la duración del estado de no equilibrio. Sin embargo, así como esa duración posee un límite inferior, así también posee un límite superior. El límite inferior, como ya dijimos, es aquel bajo el cual nada nuevo puede ocurrir, ya que no existe propiamente un estado neguentrópico. El límite superior, por su parte, es aquel que -habiéndose ya manifestado la propensión oculta- en nada contribuye a su expresión. Por el contrario, más allá de ese límite superior, es importante que el proceso se acelere, para así poder propagarse al resto de la solución (difusión). Por eso, para nuestro análisis, lo más importante es -en cada uno de los procesos de dilución- considerar el estado de desequilibrio que precede al estado de equilibrio, mientras el sistema permanece aún en un estado neguentrópico. Es en ese momento cuando se produce todo el proceso involucrado en las "diluciones homeopáticas". Sin embargo, el estado de equilibrio en condiciones de aislamiento en el cual desemboca permite que los cambios producidos se mantengan indefinidamente –mientras no se le vuelva a diluir-. ¿Por qué? Ya hemos dicho que en el estado de equilibrio termodinámico de un sistema aislado, la entropía alcanza su valor máximo ; pero también debemos agregar que la energía libre alcanza su valor mínimo: Pues, F = E – T S, donde F = energía libre, E = energía total, S = entropía, y T = temperatura a la cual está el sistema-. (Puede verse fácilmente que cuando aumenta la entropía S, la energía libre F disminuye.)
  • 18. 18 Para ese momento, el hecho de ser la entropía máxima y, por tanto, la energía libre mínima, "garantiza que las perturbaciones o las fluctuaciones carezcan de efecto, pues son seguidas de un retorno al equilibrio".(Ilya Prigogine, 1996, p.70.) Más adelante, cuando hablemos de la Información, quedará establecido que sólo en condiciones de no equilibrio –en un estado neguentrópico, por tanto-, la Información opera (Información activa); y que en el estado de equilibrio, la Información permanece latente (Información pasiva), es decir, como una propensión inmanifestada (pero manifestable). Otra nota de un estado neguentrópico –que Prigogine ha destacado, pero refiriéndose a sistemas abiertos lejos del equilibrio, cuando nosotros hablamos de sistemas cerrrados lejos del equilibrio- es el de la novedad. Un estado de equilibrio nunca puede ser novedoso (es el estado más probable, recordemos), pero bajo ciertas condiciones muy especiales – que implican, naturalmente, la pérdida de un equilibrio anterior- el sistema puede dar origen a una novedad, hasta ese momento oculta como un suceso altamente improbable (una propensión, como ya sabemos). Que el agua adquiera las propiedades que los homeópatas suponen que existen en las "diluciones homeopáticas", podría ser un buen ejemplo de ello. El cómo es éso posible, pasaremos a explicarlo a continuación. LA SEGUNDA LEY COMO LEY PROBABILÍSTICA Y SUS CONSECUENCIAS Habitualmente, los estados improbables no pueden subsistir por mucho tiempo, debido a la operación de la segunda Ley. Pero en el caso de las "diluciones homeopáticas", se dan condiciones que modifican la operatividad de esta segunda Ley, como veremos en seguida. Tratándose de un soluto constituído por un pequeño número de moléculas, el curso que la segunda Ley predice –de aumento de la entropía en el sistema- ya no se cumple. Ésa es una consecuencia necesaria del hecho de que la 2ª Ley de la Termodinámica sea una ley de naturaleza intrínsecamente probabilística, es decir, que no se pueda aplicar a conjuntos reducidos de moléculas. Mientras que en un sistema formado por un gran número de moléculas –vale decir, un número significativo desde el punto de vista estadístico-, esta ley se cumple la mayor parte de las veces de una manera abrumadora (aunque no de manera absoluta, como sí acontece con la primera Ley); cuando el número de moléculas presentes en el sistema es estadísticamente no significativo, esta ley simplemente ya no se cumple, por lo cual se producen grandes fluctuaciones con respecto a la configuración predominante. Es decir, el sistema permanecerá un cierto tiempo en estado neguentrópico ; por tanto, sin alcanzar el estado de equilibrio. He aquí la gran clave –o, al menos, una de ellas- para comprender (explicar) el misterio de las "diluciones homeopáticas". Expliquémoslo de esta forma: si utilizamos el concepto de ley como prohibición, es decir, si consideráramos que la ley es como una prohibición a que se produzcan ciertos acontecimientos –como lo propone Popper, por ejemplo, quien considera que "las leyes naturales imponen ciertos límites a lo que es posible"- entonces la segunda Ley prohíbe que, en un sistema aislado, la entropía disminuya (puede permanecer igual, en el caso de los procesos reversibles, o simplemente aumentar, como en los procesos irreversibles). Ahora bien, tratándose de un sistema constituído por un número pequeño de moléculas, esta prohibición no puede ejercerse, lo cual quiere decir que en tal sistema la entropía no sólo puede disminuir sino que lo más probable es que disminuya. Ya no está detrás la segunda Ley, por decirlo así, empujando para que la entropía aumente. O, en diferentes palabras, durante una extensión importante de tiempo el sistema estará en estado neguentrópico, es decir, alejado del estado de equilibrio que es donde la
  • 19. 19 entropía alcanza su máximo. Lo cual trae una consecuencia sumamente importante consigo: el sistema se torna inestable. Ciertamente que es posible, aunque extremadamente improbable, que el estado del sistema coincida fortuitamente con el estado más probable -predicho por la segunda Ley-; pero, siendo este sistema independiente de ella –por la razón ya señalada-, esa coincidencia aleatoria no puede producirse sino muy raramente. Es como la imagen espejo de la situación anteriormente descrita, aquella respecto a un sistema contituído por un gran número de moléculas. Dicho esquemáticamente: en el sistema estadísticamente significativo en el número de moléculas, la segunda Ley se cumple casi siempre ; en el sistema que comporta un número no significativo de moléculas, la segunda Ley no se cumple casi nunca (o sea, finalmente no se cumple). En el caso de las "diluciones homeopáticas", sin embargo, la situación es algo más compleja. Si elegimos una cierta dilución, por ejemplo: una D6, la relación entre el soluto y el solvente es de 1 a 1.000.000, es decir, hay sólo 1 molécula de soluto por cada millón de moléculas de solvente (el agua). Tenemos el sistema total, la solución, constituído en un primer momento -antes de completarse la solubilización del soluto- por dos fases (o partes homogéneas separadas por fronteras identificables): la fase soluto y la fase solvente. Mientras que la fase soluto es un sistema conformado por un muy pequeño número de moléculas (respecto al solvente), y que, por lo tanto, no obedece a la segunda Ley ; la fase solvente es un sistema grande estadísticamente, y, por lo mismo, debería obedecer a esta segunda Ley. Pero en realidad se trata, funcionalmente hablando, de uno solo y mismo sistema: el sistema total, o sea, la solución (el soluto disolviéndose en el solvente); y, por ende, la entropía o la neguentropía –como interesa a este caso en particular-, que son funciones generales, se aplican a todo el conjunto no-fraccionado. Se sigue de aquí que, si una fracción de esa totalidad –la fase soluto- se encuentra en un estado neguentrópico durante un cierto tiempo (alejada así del estado de equilibrio), entonces la fracción restante de esa misma totalidad –la fase solvente- no puede encontrarse al mismo tiempo en un estado de equilibrio. Todo lo cual implica que el sistema total (la solución) se constituye en un sistema inestable, hasta el momento en que pueda retornar al equilibrio y estabilizarse. Por consiguiente, tanto la fase soluto como la fase solvente se encuentran en un primer momento en plena interacción, vale decir, en un estado de no equilibrio. ¿Qué ha ocurrido? Todo sucede como si la dilución extrema de cualquier sustancia, le permitiera escapar a las redes de la 2ª Ley de la Termodinámica, generándose así un estado muy improbable (un estado neguentrópico) para la fase soluto, y, como consecuencia, para la fase solvente –que a esta altura empiezan a dejar de ser dos fases para convertirse en un único sistema-. Y en condiciones de no equilibrio, siempre existe una distancia crítica con respecto al equilibrio, más allá de la cual el sistema se torna inestable (punto de "bifurcación").(Ilya Prigogine, 1996, p.72.) Tenemos, ahora, un sistema inestable –el cual se define como aquel en el cual pequeñas modificaciones de las condiciones iniciales (o causas) producen grandes efectos, es decir, que dichas modificaciones se amplían en el tiempo-, el cual tenderá a encontrar su estabilidad y su equilibrio de una forma o de otra. Conjeturamos que esa estabilidad la encuentra el sistema a través de las llamadas "resonancias de Poincaré". Deductivamente, la secuencia lógica de los acontecimientos que -según podemos inferir- se producen en la preparación de las "diluciones homeopáticas", difiere de la secuencia planteada por Prigogine (aunque, por supuesto, no la contradice): Para éste, son las resonancias de Poincaré, producto de las interacciones entre las partículas que sean el caso, las que conducen a la inestabilidad del sistema ; en cambio,
  • 20. 20 en el caso de las "diluciones homeopáticas", la inestabilidad del sistema es un hecho presumible desde el mismo inicio -por tratarse de un estado neguentrópico en busca del equilibrio- y es, por tanto, la presencia de esta inestabilidad en el sistema la que nos hace suponer la existencia de las resonancias de Poincaré. Es decir, de acuerdo con los resultados de Prigogine, sin resonancias (-R) no puede haber inestabilidad. O sea, si no hay resonancias (-R), entonces lo que existe es estabilidad (E): De ‘-R ® E’ y ‘-R’ se infiere ‘E’ (Modus Ponens). Pero el caso es que –en las "diluciones homeopáticas"- tenemos inestabilidad, o sea, que no tenemos estabilidad (-E); luego, hay resonancias (R): De ‘-R ® E’ y ‘-E’ se infiere ‘R’ (Modus Tollens). LAS RESONANCIAS DE POINCARÉ El concepto de resonancia es bastante familiar en Física, pero en este caso en particular es preciso comprender el contexto en el cual se presenta –y por el cual se le denomina "resonancias de Poincaré"- y no simplemente "resonancias". Partiendo de una pregunta acerca de la estabilidad del sistema solar –póngase atención a lo extraño de su origen-, "Poincaré abrió el rumbo para tratar los problemas de estabilidad en sistemas dinámicos complejos".(M.J. Sametband, 1994, pp.71-72.) El fondo de todo este asunto –de la estabilidad y de la inestabilidad, y, consecuentemente, del límite a la predictibilidad- está realmente en saber si el universo se rige por leyes deterministas o no. (Al menos esta es la posición de Prigogine ; otros, como René Thom, por ejemplo, difieren en cuanto a esta relación entre azar y determinismo.) En un universo estable –donde pequeños cambios en las condiciones iniciales, sólo traen pequeñas alteraciones en el comportamiento del sistema considerado-; donde, por tanto, pueda existir "el demonio de Laplace" : que es capaz de predecir el futuro siempre que conozca el estado presente del universo con el suficiente grado de precisión ; el problema simplemente no se presenta. Pero en un universo inestable tal tipo de predicción determinista es imposible ; y el universo en el cual vivimos realmente es un universo inestable, irreversible y, por tanto, evolutivo (asociado a la "flecha del tiempo"). Es de sentido común que el pasado no puede disolverse como si no hubiera existido, sino que determina irreversiblemente -querámoslo o no- el presente que estamos viviendo. "Es verdad que la descripción en términos de trayectorias conserva su validez si las condiciones iniciales se conocen con una precisión infinita. Pero ello no corresponde a situación realista alguna".( Ilya Prigogine, 1996, p.116.) Los procesos irreversibles no pueden ser considerados como meras aproximaciones a las leyes fundamentales –las cuales siempre describen procesos reversibles-, sino que existen realmente y son los más importantes en la naturaleza. Como dice Prigogine : "Este punto de vista nos obliga a reconsiderar la validez de las leyes fundamentales, clásicas y cuánticas".(Ilya Prigogine, 1996 , p.29.) La irreversibilidad, por su parte, conduce a considerar los comportamientos dinámicos inestables. Las leyes de la Dinámica fueron consideradas tradicionalmente como reversibles –lo cual está asociado con la predicción de las trayectorias futuras y, por tanto, con el determinismo-, pero la Termodinámica con su concepto de entropía contradice a esta reversibilidad. Para superar esta contradicción, Prigogine propone una extensión de la Dinámica. Esta extensión considera sistemas inestables -también llamados "caóticos" cuando son extremos-, en los cuales existe una ruptura de la equivalencia entre el nivel individual y el nivel estadístico, equivalencia que es propia exclusivamente de los sistemas estables.
  • 21. 21 En los sistemas caóticos "las trayectorias correspondientes a condiciones iniciales tan vecinas como se quiera divergen de manera exponencial con el tiempo".( Ilya Prigogine, 1996, p.33.) Se habla, entonces, de "sensibilidad a las condiciones iniciales". El ejemplo clásico del lápiz que no puede mantenerse en equilibrio sobre su punta –lo cual es teóricamente posible-, nos ilustra acerca de cómo la inestabilidad es afectada por la más mínima vibración. Es decir, cualquier pequeño cambio en las condiciones iniciales puede producir grandes efectos sobre las trayectorias, cosa que no ocurre en los sistemas estables. En otras palabras, en un sistema dinámico estable, dos condiciones iniciales próximas dan lugar a trayectorias próximas ; y, en cambio, en un sistema dinámico inestable, dos condiciones iniciales igualmente próximas dan lugar a trayectorias que divergen en el tiempo según una ley exponencial. Sin embargo, el resultado es sorprendente: "Se habla a menudo de ‘caos determinista’. En efecto, las ecuaciones de sistemas caóticos son tan deterministas como las leyes de Newton. ¡Y empero engendran comportamientos de aspecto aleatorio!"(Ilya Prigogine, 1996, p.33.) Esta mezcla de azar y determinismo es una característica de los sistemas dinámicos asociados al caos: "Las ‘leyes del caos’ asociadas a una descripción regular y predictiva de los sistemas caóticos se sitúan en el nivel estadístico".(Ilya Prigogine, 1996, p.40.) Vale decir, se trata de una formulación de la Dinámica que es exclusivamente estadística ; y donde la descripción en términos de trayectorias individuales deterministas, por tanto, queda descartada -por ser imposible (ya que es caótica)-. Volviendo a Poincaré, observemos que los sistemas que describe la ley de Newton eran, para la Dinámica clásica, todos equivalentes. "Sólo a fines del siglo XIX Poincaré mostró que los problemas son fundamentalmente diferentes según se trate de un sistema dinámico estable o no". (Ilya Prigogine, 1996, p.33.) En la formulación habitual de la Dinámica clásica, el estado inicial es representado por las posiciones q y las velocidades v (o por los momentos p); y "cuando se conocen las posiciones y velocidades, la trayectoria se puede determinar a partir de la ley de Newton o de cualquier otra formulación equivalente de la dinámica". Ahora, en lugar de considerar un solo sistema, también es posible considerar una colección o conjunto de ellos, y este conjunto "se representa mediante una nube de puntos en el espacio de las fases". Y se describe mediante una función, "cuya interpretación física es simple: es la distribución de probabilidad, que describe la densidad de los puntos de la nube en el seno del espacio de las fases". (Ilya Prigogine, 1996, pp.34-35.) Cuando las condiciones iniciales se desconocen, el hacer uso de un conjunto de sistemas en lugar de uno solo, o sea, el recurrir a un análisis estadístico resulta ser el único instrumento de cálculo posible: "Desde ese punto de vista las probabilidades traducen nuestra ignorancia, nuestra falta de información. Era evidente que en Dinámica el estudio de las trayectorias individuales y el de las distribuciones de probabilidad venían a ser lo mismo. Podemos partir de las trayectorias individuales y obtener la evolución de las funciones de probabilidad, y viceversa. La probabilidad corresponde simplemente a una superposición de trayectorias, y no conduce a ninguna propiedad nueva. Ambos niveles de descipción, el nivel individual (correspondiente a trayectorias únicas) y el nivel estadístico (correspondiente a probabilidades), serían equivalentes". (Ilya Prigogine, 1996, p.36.) Esta larga y necesaria cita, nos prepara para entender las diferencias de naturaleza conceptual que distinguen los sistemas inestables con respecto a los sistemas estables – que son los únicos que estudia la Dinámica clásica-.
  • 22. 22 En último análisis, la característica esencial que distingue a los sistemas dinámicos inestables es la siguiente: "La equivalencia entre el nivel individual y el nivel estadístico se destruye. Para las distribuciones de probabilidad logramos así soluciones nuevas irreductibles, es decir, que no se aplican a las trayectorias individuales". (Los destacados son nuestros.) (Ilya Prigogine, 1996, p.40.) Esto quiere decir que la descripción en términos de trayectorias individuales es eliminada en favor de una descripción estrictamente estadística. Es así, entonces, como obtenemos una Dinámica generalizada: "Se trata de una formulación de la Dinámica en el nivel estadístico, que no tiene equivalente en términos de trayectorias. Ello nos conduce a una situación nueva. Las condiciones iniciales ya no pueden asimilarse a un punto en el espacio de las fases: corresponden a una región descrita por una distribución de probabilidad. Se trata, por tanto, de una descripción no local. Además, la simetría con respecto al tiempo se rompe, porque en la formulación estadística el pasado y el futuro desempeñan papeles diferentes". (Ilya Prigogine, 1996, p.40.) Por tanto, deja de tener sentido la búsqueda de una descripción en términos de trayectorias individuales, pues en un sistema que es centro de un proceso dinámico inestable la única predicción válida es la probabilística. En resumen: se trata de un proceso "intrínsecamente aleatorio" (Prigogine). Siendo así, el concepto de probabilidad que empleemos será decisivo a la hora de entender lo que ocurre en el seno de un sistema dinámico inestable. Si usamos el concepto probabilístico de propensión, es posible entender entonces que en un sistema inestable puedan manifestarse ciertas propensiones que, en un sistema estable, jamás lo harían. EL APORTE DE POINCARÉ Volvamos de nuevo a Poincaré. Además de establecer la fundamental distinción entre sistemas estables y sistemas inestables, Poincaré demostró que la mayoría de los sistemas dinámicos eran no integrables, lo cual es equivalente a decir que la ecuación de Newton aplicada al sistema no tiene solución. El llamado "problema de los tres cuerpos", en el cual trabajó, pertenece a la categoría de los sistemas inestables no-integrables: Poincaré probó que el caos puede aparecer ya con sistemas relativamente simples como aquél. Así, en un sistema dinámico formado sólo por tres cuerpos que se atraen por acción de la fuerza de gravedad, y uno de ellos es muy pequeño en relación a los otros dos, tenemos que la trayectoria representada en el espacio de las fases es de una extraordinaria complejidad –es un sistema dinámico no integrable-. Como lo explica M.J. Sametband: "El gran matemático demostró la posibilidad de que un sistema dinámico totalmente determinista, como el de los planetas en órbita, llegue a un estado de caos donde no se pueda predecir su comportamiento futuro. Basta para ello que responda a una situación no lineal, en la que una pequeñísima fluctuación se vaya amplificando al ser reiterada un gran número de veces". (Los destacados son nuestros.) (M.J. Sametband, 1994, p.73.) Por supuesto, la situación "no lineal" de la que se habla en la cita anterior, corresponde a una característica que presentan todos los sistemas caóticos (sistemas dinámicos inestables lejos del equilibrio). La "linealidad", por llamarla así, implica una proporcionalidad entre la magnitud de la causa y la magnitud del efecto ; además, se puede representar por ecuaciones lineales y sólo corresponde a sistemas estables. En cambio, la no-linealidad es propia de sistemas inestables y complejos, que son sensibles a las condiciones iniciales, o sea, donde pequeñas causas pueden amplificarse produciendo grandes efectos. Pero del estudio de Poincaré debemos extraer un aporte todavía más
  • 23. 23 trascendente: "Una contribución importante de Poincaré fue demostrar que en este sistema las inestabilidades son debidas al fenómeno de la resonancia". (Los destacados son nuestros.) (M.J. Sametband, 1994, p.73.) Resumamos: un sistema dinámico se caracteriza por la energía cinética –que depende exclusivamente de la velocidad de los cuerpos que lo componen- y por la energía potencial –que depende de la interacción entre esos mismos cuerpos-. Entonces, en un sistema dinámico constituído por partículas libres que no interactúan entre ellas, no hay energía potencial y, por tanto, el cálculo de sus trayectorias es simple. Este sería un sistema integrable, en el sentido de Poincaré. Ahora bien, se puede demostrar que todo sistema integrable es equivalente a –o es isomorfo con- un sistema de partículas libres sin interacción. Como deduce acertadamente Prigogine, si Poincaré hubiera mostrado que la mayoría de los sistemas dinámicos eran integrables –lo contrario de lo que efectivamente mostró-, entonces la contradicción entre el universo ideal reversible de las ecuaciones de la Dinámica y el universo real irreversible, permanecería insoluble. "Pero Poincaré no sólo demostró que la integrabilidad se aplica únicamente a una clase reducida de sistemas dinámicos, sino que identificó la razón del carácter excepcional de dicha propiedad: la existencia de resonancias entre los grados de libertad del sistema". (Ilya Prigogine, 1996, pp.42-43.). ¿QUÉ ES LA RESONANCIA? La resonancia se produce cada vez que hay una relación entre frecuencias (una de las frecuencias es igual a un múltiplo entero de la otra), y se podría definir como "una oscilación de gran amplitud causada por un estímulo periódico relativamente pequeño" (Sametband). Nos dice Prigogine: "Las frecuencias, y en particular la cuestión de su resonancia, resultan capitales en la descripción de los sistemas dinámicos", y agrega: "Cada uno de los grados de libertad de un sistema dinámico se caracteriza por una frecuencia".(Ilya Prigogine, 1996, p.43.) Como se sabe, el número de grados de libertad de un sistema dinámico corresponde al número de parámetros necesarios para especificar completamente el estado de ese sistema (por ejemplo: la velocidad, el impulso, la posición, etc.), y están representados por sus variables independientes. Ésto es importante de entender porque un sistema dinámico no lineal teniendo un mínimo de tres grados de libertad ya puede devenir caótico ; y parece ser el caso precisamente de las "diluciones homeopáticas". Se entiende por "espacio de las fases" a un espacio matemático –es decir, a un espacio abstracto- que está constituído por las variables que describen el sistema dinámico, y en el cual cada punto representa un posible estado del sistema. Por último, digamos que la evolución en el tiempo del sistema se representa por una trayectoria en el espacio de las fases –una trayectoria es "una secuencia de puntos en el que cada punto genera al siguiente de acuerdo a una función matemática" (Sametband)-. Ahora bien, "...las frecuencias dependen en general de las variables dinámicas y adquieren valores diferentes en diferentes puntos del espacio de las fases. En consecuencia, ciertos puntos de dicho espacio serán caracterizados por resonancias, y otros no. Correlativamente, observamos dos tipos de trayectorias ; trayectorias normales, deterministas, y trayectorias aleatorias asociadas a las resonancias que erran a través del espacio de las fases".(El destacado es nuestro.) (Ilya Prigogine, 1996, p.45.) Veremos posteriormente que las trayectorias correspondientes a las moléculas de agua, entre un estado de equilibrio y otro –que equivale, aproximadamente, al lapso entre una dilución y la siguiente-, presenta sólo dos momentos: primero, uno constituído por
  • 24. 24 trayectorias aleatorias asociadas a las resonancias, y otro momento posterior y final, constituído por la trayectoria normal asociada al equilibrio. A cada una de ellas le corresponde su propio atractor en el espacio de las fases (atractor extraño y punto atractor, respectivamente). Antes de hacer uso de estos conceptos para nuestro objetivo, agreguemos esta conclusión de Prigogine: "A nivel estadístico, las resonancias ocasionan la ruptura del determinismo: introducen la incertidumbre en el marco de la Mecánica clásica y rompen la simetría del tiempo". (El destacado es nuestro.) (Ilya Prigogine, 1996, p.47.) Sin embargo, es importante decir que no es necesario compartir el indeterminismo de Prigogine para explicar el mecanismo de las "diluciones homeopáticas". En resumen: el análisis requiere distinguir entre dos niveles, el nivel individual de las trayectorias y el nivel estadístico descrito por una distribución de probabilidad. Ahora bien, las resonancias que se producen a nivel de las moléculas individuales y que conducen a un acoplamiento entre sus movimientos, pueden dar lugar a un comportamiento aleatorio – vale decir, caótico-; empero este comportamiento aleatorio se pierde (es eliminado) a nivel estadístico. De manera tal que: "Las resonancias eliminadas en el nivel estadístico conducen a la formulación de una teoría no newtoniana, incompatible con la descripción en términos de trayectorias". (Ilya Prigogine, 1996, p.46.) En otros términos, a la vez que en el nivel individual de las trayectorias tenemos un comportamiento aleatorio, caótico ; en el nivel estadístico tenemos, por el contrario, un comportamiento regular bien definido -se trata de un fenómeno orientado en el tiempo, irreversible (luego, con producción de entropía)-. O en palabras de Prigogine: "La inestabilidad a nivel de la trayectoria conduce a un comportamiento estable en el nivel de la descripción estadística".(Ilya Prigogine, 1996, p.94.) Ahora, la incompatibilidad con una descripción en términos de trayectorias no es sorprendente, ya que "...resonancia y acoplamiento entre acontecimientos no se producen en un punto y en un instante. Implican una descripción no local, que no puede ser incorporada en la definición dinámica usual en términos de puntos individuales y de trayectorias en el espacio de las fases". (Los destacados son nuestros.) (Ilya Prigogine, 1996, p.46.) LAS RESONANCIAS Y LA DIFUSIÓN DEL CAOS Al estudiar la influencia de las resonancias sobre las trayectorias, Prigogine nos explica lo que ocurre en ciertos casos: "A partir de un valor crítico, el comportamiento del sistema se torna caótico: trayectorias vecinas divergen en el curso del tiempo. En el caso del caos plenamente desarrollado observamos fenómenos de difusión, esto es, la evolución hacia una dispersión uniforme en todo el espacio de las fases". (El destacado es nuestro.) (Ilya Prigogine, 1996, pp.45-46.) Puesto que las interacciones transitorias no modifican apreciablemente las trayectorias de las partículas –las que están, por tanto, dentro de los límites de validez de la descripción newtoniana-, se requiere de una condición muy importante para que la evolución de un sistema dinámico inestable sea irreductible a una descripción en términos de comportamientos individuales –es decir, para que se haga caótico y desarrolle de esta manera fenómenos difusivos-, y que es la siguiente: las interacciones deben ser persistentes. En consecuencia, los fenómenos de difusión sólo aparecen en el caso de una continuidad de interacciones como las que existen en un líquido estructurado tal cual es la solución diluída ; se asegura así que las interacciones entre cada molécula de soluto y las moléculas de solvente que la rodean, sean persistentes. Es muy importante
  • 25. 25 entender, en todo caso, que son las moléculas de soluto las que aportan las únicas resonancias que realmente interesan –cualitativamente hablando- para el resultado final. Como una forma de ayudar a la intuición –y así facilitar la explicación acerca de la acción de las resonancias-, ofrecemos a continuación un ejemplo muy impresionante del importante papel que las resonancias desempeñan en Física, tal cual es descrito por G. Brewer y E.L. Hahn: "En una muestra gaseosa, se pueden seleccionar todos los átomos que tengan una velocidad determinada excitando la muestra con un haz de láser, prácticamente monocromático y de onda continua, de la frecuencia adecuada de resonancia". Destaquemos que "la frecuencia adecuada de resonancia" es exactamente aquella que cumple con la relación numérica simple entre las dos frecuencias: la del haz de láser y la correspondiente al momento lineal (que es el producto de la masa por la velocidad) de algunos de los átomos del gas, produciéndose un acoplamiento entre estas dos frecuencias. "En virtud del efecto Doppler, los átomos idénticos que se mueven con velocidades diferentes absorverán luz a frecuencias ligeramente distintas. Si la frecuencia del láser es espectralmente pura, es decir, si se trata de una frecuencia única, tan sólo los átomos con una velocidad determinada se seleccionarán y prepararán coherentemente..." Hasta aquí tenemos la "preparación" de la muestra. ¿Qué sucede entonces? "La alineación de estos átomos preparados coherentemente se puede poner de manifiesto con un aparato láser con seleccionador de frecuencias: tras un largo período de excitación, la frecuencia del haz de láser se cambia de repente a un nuevo valor, de suerte que ya no exista resonancia con el grupo de átomos preparados. Sin embargo, los átomos preparados coherentemente actúan ahora como un conjunto de diapasones idénticos que hubieran sido golpeados a la vez. Puesto que todos ellos poseen la misma frecuencia de resonancia, se refuerzan unos con otros y radian al unísono un haz de luz intenso y coherente en dirección hacia adelante. Este haz posee todas las propiedades de la luz de láser (coherencia, direccionalidad y frecuencia única) debido a que los átomos mantienen una memoria de sus estados ordenados".(G. Brewer y E.L. Hahn, 1985.) Curiosamente, en el texto recién citado se utiliza el mismo concepto de memoria que se ha intentado usar como explicación al "problema de las ‘diluciones homeopáticas’"; lo cual nos sugiere que estamos pisando sobre un terreno común a las dos situaciones experimentales: la recién descrita y la perteneciente a la preparación de las "diluciones homeopáticas". No está demás señalar que el concepto de memoria –con cualquier tipo de matices que se le quiera entender- implica irreversibilidad, y ésta es una consecuencia necesaria del efecto de las resonancias NUEVO EXAMEN A LA PREPARACIÓN DE LAS "DILUCIONES HOMEOPÁTICAS" Volviendo al tema de la preparación de las "diluciones homeopáticas", nos encontramos con un sistema que, a diferencia de cualquier solución corriente (no diluída), es un sistema dinámico inestable, al menos en un primer momento. Antes de examinar más de cerca este hecho, revisemos el modus operandi de las "diluciones homeopáticas". Al pasar, por ejemplo, de una dilución D6 a una dilución D7, sólo una décima parte de la dilución D6 se mantiene ; y se le agregan las 9/10 partes restantes de agua (en estado de agitación térmica en equilibrio con la temperatura del ambiente). Es decir, el sistema aislado anterior –la dilución D6- se ha abierto, perdiendo así su equilibrio, al paso que se han renovado 9 de cada 10 moléculas. Pero ésto no es todo. En la anterior descripción que hicimos de la preparación de las "diluciones homeopáticas", omitimos una parte del proceso que consideraremos ahora.