SlideShare una empresa de Scribd logo
1 de 19
La coherencia de los mundos macro y microscópico.
Tanto el avance de las teorías científicas como nuestra progresiva capacidad de
comprender el universo se fundamenta en la incuestionable unidad y coherencia del
mundo físico, cuya representación formal converge también hacia una paulatina
unificación de las teorías; no obstante, si bien dicha coherencia es una condición básica
que debecumplirtodo enunciado que pretenda ser científico,el razonamientológicono
es per se un criterio suficiente para su validación como ley de la naturaleza y solo
constituirá una hipótesis o conjetura hasta su demostración por métodos empíricos, los
que —mediante la experimentación— confirmarán, limitarán su rango de aplicación o
refutarán su validez.
De este modo, el desarrollo de la física contemporánea se circunscribe a la
representaciónlógica,la expresiónsimbólico-cuantitativa yla validaciónexperimental de
una serie de principios generales que, subordinados a un sistema lógico-formal —
generalmente matemático— permitan realizar predicciones que concuerden con la
realidad medibley puedan aplicarse a fenómenos hasta ahí no explicados por la ciencia.
En ese camino, las teorías científicas han ido progresivamente demostrado que la
dinámica de la naturaleza no es producto del azar, pues se han identificado una serie de
principios, interacciones y constantes fundamentales que rigen desde sus inicios,
generando un orden sistémico perfeccionado por una progresión de estructuras cada
vez más complejas y eficientes en el uso de la materia y la energía, revelando que desde
el Big Bang, el universo es un ente unitario en continua evolución.
Sin embargo,esta representaciónevolutiva eirreversibledel universonoha sidoasumida
e incorporada por las principales teorías con que representamos la naturaleza, pues
mientras la mecánica cuántica describe un universo microscópico indeterminado y
temporalmente reversible, la relatividad general lo describe a nivel macroscópico en
forma determinista, separado del mundo microscópico con una dimensión temporal
virtual y geométrica indexada al espacio, de modo que —pese a dividir el mundo en
escalas mutuamente incompatibles— ambas concuerdan en una descripción temporal
que no admite entre sus leyes la evolución del universo y de la vida.
No obstante, la naturaleza no muestra las contradicciones que presentan las principales
teorías con que describimos la realidad, pues sus diversas organizaciones revelan
patrones coherentes que hacen posible una descripción cada vez más unificada del
universo, permitiendo el desarrollo de una ciencia que no será nunca una descripción
exacta de la naturaleza, sino una progresiva construcción del intelecto humano en su
intento por comprenderla. De este modo, su mutua incompatibilidad nos advierte que
sus contradictorias representaciones del mundo físico no concuerdan con el
comportamiento unitario de la naturaleza y es claro que sus conflictos no se resolverán
con la contraposición de conjeturas y creencias indemostrables, sino mediante su
verificación en los observables de una naturaleza que se encargará de confirmar o
desmentir las más esmeradas hipótesis.
La representación dinámica de la naturaleza de Prigogine —al extender la incertidumbre
del mundo cuántico al comportamiento macroscópico de la materia— permite articular
la dicotomía existente entre ambas teorías, haciéndolas coherentes con la unidad de la
naturaleza al integrar las leyes de la física a la evolución del universo y de la vida. Sin
embargo, esta descripción unitaria y evolutiva del mundo material no está exenta de
críticas, que en lo fundamental se orientan a asumir la irreversibilidad que caracteriza al
mundo macroscópico comouna descripción incompleta de los sistemas de la naturaleza
que originaría un conflicto en las ecuaciones fundamentales de la mecánica, pues sí la
irreversibilidad fuese un atributo esencial en la auto-organización de la materia a nivel
macroscópico,sería paradojal que esta pudiera emergerdesdesistemascuya descripción
a escala microscópica es reversible y probabilística, lo que en su opinión, no podrían
sustentar la irreversibilidad expresada por la Termodinámica evolutiva de Prigogine.
No hay duda que la extrapolación de una ley de la naturaleza con principios unificadores
que atraviesen los universos particulares que definen las diversas teorías no puede
fundamentarse en la mera descripción de coincidencias o analogías entre hechos
observados y menos aún basarse en una interpretación subjetiva de los fenómenos que
describe, puesto que —además de demostrar experimentalmente las hipótesis que la
sustentan— sus afirmaciones deben permitir una serie de inferencias y/o predicciones
de otros sucesos similares no descritos por dicha ley, de modo tal que, para su
generalización como principio fundamental de la naturaleza, dichas predicciones —
además de contar con un amplio fundamento teórico que las vincule y enlace— deben
ser verificadas empíricamente mediante procedimientos experimentales tan semejantes
como sea posible a los que fueron sometidos los eventos que sustentan la ley con la
que se pretenden unificar.
Sin embargo, aquellos sistemas en que la Termodinámica clásica ha limitado sus
observaciones a muestreos temporalmente poco significativos, exhiben generalmente
un aumento de la entropía; no obstante, las observaciones de corto plazo no
proporcionan la información suficiente para su generalización a todos los sistemas de la
naturaleza como una ley causal, puesto que su conducta a largo plazo es indeterminada
y solopuededescribirsemediantetendenciasprobabilísticasynopor aparentescertezas,
designios o predestinaciones, por lo que no existen razones objetivas para que sea
determinista. En verdad, la disminución de la entropía de un sistema físico no es un
imposible, puesto que ocurre frecuentemente en la naturaleza aunque con menor
probabilidad que aquellos en que esta aumenta, por lo que las conjeturas deterministas
de la termodinámica clásica no son suficientes para afirmar que los procesos físicos son
siempre reversibles, para objetar la existencia de procesos constructivos e irreversibles
en la naturaleza y menos aún para convertir a la entropía en un principio cosmológico
que declara la muerte térmica del universo.
No obstante que la extrapolación de una ley de la naturaleza más allá de la escala que
ha sido definida nos aproxima a la solución de los conflictos ontológicos que estas
presentan ante la incuestionable coherencia de la naturaleza, la relación entre las escalas
micro y macro en que se definen ambas ciencias —o dicho en otras palabras— entre la
dinámica incertidumbre de las partículas microscópicas y la estabilidad y certidumbre de
la organización material resultante no es del todo evidente, pues —como lo expresara
Einstein— “el mundo que perciben nuestros sentidos es solo una construcción subjetiva
de nuestra mente, cuya aparente coherencia es fruto de nuestra imaginación” y aunque
se relaciona con los fenómenos del mundo físico a través de los sentidos, carece de
vínculos materiales objetivos que permitan su verificación con métodos experimentales,
puesto que solo percibimos sus efectos en nuestros sensores biológicos y estos son
relativizados por un sistema conceptual causal, condicionado tanto cultural como
evolutivamente por la frecuente regularidad de la naturaleza y aunque sus significados
son instintivamente coherentes, no cuentan con fundamentos experimentales
verificables para su generalización como leyes de la naturaleza, por lo que la
interpretación subjetiva de la realidad ha constituido por siglos el único sustento
argumental de un determinismo que no se ha complicado en comprobar si los
fenómenos del mundo físico acontecen realmente como los definen, al no hacerse la
necesaria pregunta si la aparente coherencia inducida por los sentidos puede ser
demostrada mediante su verificación en los observables de la naturaleza durante un
período de tiempo significativo para pretender que dichas proposiciones tengan algún
valor como leyes del universo.
Por tales razones, existen profundas diferencias ontológicas entre dos teorías con bases
enteramente divergentes que no hacen posible la deducción de una a partir de la otra,
por loque su vinculaciónplantea unconflictoinsolubledesdesus propiostérminos,pues
mientras la mecánica cuántica es el resultado de más de un siglo de investigación
científica validada experimentalmente,cuya aplicaciónesla basede importantesavances
en la ciencia, la economía y la sociedad contemporánea, el determinismo es una
ideología basada en la subjetividad de nuestra mente que no es demostrable por
métodos experimentales y pese a que nuestro cerebro funciona con leyes cuánticas, no
puede deducir instintivamente la aleatoriedad e incertidumbre del mundo microscópico,
porquenuestros sentidos —adaptadosporla evolucióna la casi generalizada coherencia
y certidumbre del mundo macro, no logran percibir como eventualmente acontecen los
procesos transitivos de la naturaleza y menos aún integrarlos a una representación
intrínsecamente estadística de la realidad.
A pesar del desarrollo de la Teoría de la Evolución de Charles Darwin en 1869, la mayoría
de las teorías científicas mantuvo un progreso determinista unidireccional que perduró
hasta bien entrado el siglo XX influyendo tanto las concepciones de la filosofía comode
la ciencia occidental y pese a la interpretación estadística del universo desarrollada por
la mecánica cuántica a inicios del siglo anterior, la visión determinista de Newton y
Einstein es aún en círculos del saber formal una interpretación valida de la realidad.
Sin embargo,desdelospionerosesfuerzosdeDarwin,la cultura occidental va asumiendo
progresivamente que tanto el creacionismoreligioso como el determinismonewtoniano
carecen de todo fundamento científico puesto que desde sus inicios, el universo entero
está en incesante evolución, por lo que en aras de los dogmas de una creencia o una
religión, no es posible oponerse tanto a la incertidumbre estructural del mundo
microscópicocomoa la crecientecomplejidaddel universoentodas lasdimensionesque
lo observemos, de modo que el verdadero conflictono está en la coherencia del mundo
físico, en las interminables críticas de Einstein a la mecánica cuántica o en las francas
invectivas de las cofradías deterministas en la universidad que el doctor Prigogine
dedicó toda su vida, sino en el carácter idealista de las conjeturas y creencias con que
por casi dos siglos se ha interpretado la realidad.
Estas aseveraciones exigen el esclarecimiento de una serie supuestos más aparentes que
reales en torno a la coherencia de las ecuaciones de la mecánica en las distintas
representaciones el mundo físico, de modo que expresen conceptos evolutivos
unificados en todas las escalas en que se describen y de existir alguna condición
apriorística que pudiera condicionarla, será su indeterminación e incertidumbre
intrínseca y no una conjetura determinista, puesto que los procesos transitivos de la
materia-energía solo pueden ser descritos por leyes estadísticas que actúan en una
dimensión espacio–temporal unitaria, estableciendoel curso irreversible de los procesos
evolutivos de la naturaleza en todos los niveles que interaccionan.
………………………………
Prigogine afirma que “la incertidumbre de los sistemas alejados del equilibriodebe ser
comprendida como una potencialidad objetiva de la materia macroscópica que le
imprime un carácter irreversible a los procesos del mundo físico, permitiendo la
extensión de la incertidumbre del mundo cuántico a todas las escalas en que
representemos la realidad”. Esto hace necesario interpretar la irreversibilidad de las
fluctuaciones estadísticas de la materia y la energía como una propiedad objetiva del
mundo físico en todas sus escalas, conformando un puente de unión entre el mundo
micro y macroscópico“puesto que el flujo de variables a nivel microscópicoconducirá a
correlacionesdelargoalcancea nivel macroscópico,aunque las fuerzasintermoleculares
sean de corto alcance"(Ilya Prigogine, 1996, p.139.
De este modo, el paso de la incertidumbre del mundo cuántico a la coherencia
observablea escala macroscópica esun procesodiscontinuo que, al cuestionarla validez
del determinismo en los sistemas de la naturaleza, permite articular las leyes del
comportamiento de la materia en todas sus escalas. Esta visión integradora de dos
teorías hasta ahora contrapuestas, ha permitido explicar con las leyes de la ciencia cómo
ocurre la transición desde el comportamiento aleatorioy estadísticodel mundo cuántico
a la certidumbre y coherencia, pero también a las crisis, las bifurcaciones, los accidentes,
mutaciones y resonancias que hacen posible la evolución del mundo macroscópico —
incluyendo las estructuras autopoyéticas capaces de auto-replicarse— y pese a las
conflictos de visualización que se oponen a nuestra representación intuitiva, sus
conceptos unificadores permiten un punto de vista objetivo y dinámico que logra
esclarecer los mecanismos de síntesis de las estructuras termodinámicas que sustentan
la vida, eliminandolas tergiversaciones creacionistas, al situar su emergencia y evolución
dentro de estrictos criterios teóricos establecidos por las leyes de la física, lo que
constituye uno de los mayores aportes de la biología molecular a la ciencia y la cultura
occidental.
Estos conceptos abren nuevos caminos para una comprensión profunda de lo que
realmente acontece en los procesos transitivos de la naturaleza que, en acuerdo y no en
oposición al Segundo principio de la Termodinámica, la entropía reciclará todas aquellas
opciones estadísticamente posibles que surgen de la aleatoriedad del mundo cuántico
que no representen mejoras en el empleo de la materia y la energía en su medio,
permitiendo seleccionar las organizaciones más eficientes que emergen entre los
eventos azarosos y hasta accidentales del mundo microscópico en todo el universo.
Lo anterior, pone en evidencia que los procesos evolutivos de la naturaleza se originan a
partir de las estructuras existentes por presentar mejoras en su nivel de eficiencia
termodinámica, en que la incertidumbre y el azar del mundo cuántico pondrán a prueba
las distintas disposiciones materiales y energéticas posibles en un entorno adverso y
limitado, cuyas presiones entrópicas obligan a hacer un uso cada vez más eficiente de
los recursos materiales y energéticos disponibles. El futuro así descrito es una compleja
muestra de determinismo, probabilidades y azar; un campo de influencias mutuas que
—sustentadasen la inestabilidaddela materia microscópicayen laspresionesentrópicas
del medio— se reconstruyen los diversos parámetros espacio-temporales y energéticos
de los sistemas físicos, determinando a partir de lo existente tanto la evolución de las
estructuras de la naturaleza como los procesos de equilibrio dinámico que la
caracterizan.
Desde hace un siglo de su formulación por Max Planck y pese a décadas de dura
oposición de muchos científicos —incluso el mismo Einstein, uno de sus iniciadores— la
visión del mundo propuesta por la mecánica cuántica ha sido enteramente coherente
para interpretar y operar en el mundo microscópico, de modo que obligadamente
deberemos superar la ontología del siglo XVII con un conocimiento determinado por
exactasleyesmatemáticas,para asumirquela incertidumbreintrínseca delasleyesfísicas
pone un límite infranqueablea lo que se puede predecir, demostrando que el Universo
real no funciona con la filosofía determinista newtoniana, puesto que las probabilidades
y el azar tienen un papel central hasta en la configuración más íntima de la naturaleza.
Esto excluye el binomio causa-efecto para explicar el porqué de las cosas, descartando
definitivamenteel pensamientoidealista enlasciencias.Noobstante,aunque el principio
de incertidumbre nos confronta con los límites evolutivos de nuestro intelecto a la hora
de comprender la realidad, siendo un principio con implicaciones revolucionarias en
teoría del conocimiento, fuera (y dentro) del ámbitocientífico es un gran desconocido y
aunque va en contra de nuestro sentido común, sin él nuestro universo sería
completamente diferente e incluso no sería. Sin embargo, aunque esta es la teoría de
mayor confirmación experimental de la historia de la ciencia, que ha trascendido a toda
la sociedad generandola mayor revolución tecnológica de la humanidaddesde la época
neolítica, siendo hoy el sector más importante de la economía mundial, está aún
pendiente una gran revolución ontológica en el pensamiento occidental, pues seguimos
representando al mundo y la sociedad con principios deterministas. Esto no debe
extrañarnos, pues para muchos creyentes (y también para algunos herejes), la evolución
del universo y de la vida son solo “las teorías del señor Darwin”.
De este modo, la incertidumbre intrínseca de la materia expresada por la mecánica
cuántica y el comportamiento aleatorio de la materia y la energía, permiten tanto la
creatividad como la estabilidad y certidumbre que observamos en los procesos del
mundo macroscópico, generando nuevas posibilidades que están ausentes en la física
clásica, pero muy presentes en el mundo real “y aunque los cambios cualitativos
constituyen eventos ocasionales—siendola estabilidadel acontecimientomásfrecuente
en la naturaleza— es la raíz misma del edificio de la evolución al seleccionar las mejores
opciones entre los elementos azarosos y hasta accidentales que eventualmente ocurren
en el mundo físico, permitiendo la progresiva evolución hacia estados de mayor
eficiencia de los recursos disponibles, la aparición de nuevos principios de la naturaleza
a medida que se incrementa su complejidad y la progresiva evolución de sus entes y su
sobrevivencia en ese inédito e irreversible espacio–tiempo en permanente cambio que
denominamos futuro”.
De este modo, el tiempo inserto en nuestro lenguaje, infinitivo, gerundio y participio
describentres fasesde una única realidad transitiva enqueel espacio-tiempoyla energía
se relacionan en el mundo físico determinando tres dominios relativos diferenciados:
pasado presente y futuro. Sin embargo, esta división temporal es engañosa, pues estos
tres intervalos nos hacen recorrer la línea del tiempoen dos direcciones opuestas que se
emplazan en un espacio-tiempo virtual que tiene dos caras, de modo que bien el tiempo
es un presente continuo intemporal o bien un movimiento y que —para no
confundimos— llamamos espacio al primero y tiempo al segundo.
Esas tres formas de interpretar un movimiento relativo corresponden a una aparente
expresión espacial y temporal de la materia y energía, unificadas por Einstein en el
principio de equivalencia E=mc2; dicha realidad puede plasmarse en un intervalo
material o energéticopuro o en ambos combinados, siendo el movimiento relativode la
materia loque induce en nuestra mente la idea de un tiempo subjetivocomopercepción
de un movimiento que avanza hacia el futuro.
Sin embargo, el tiempo presente de un sistema es un punto en movimiento relativo que
no tiene una dimensión temporal absoluta, aunque es lo único cuantificable en cada
sistema de referencia y lo que va quedando en el pasado—aunque tiene una percepción
subjetiva grabada en nuestra memoria— tiene también una realidad espacio-temporal
objetiva en un sistema, en que existen cambios físicos y transcursos de tiempo medibles
en ese sistema de referencia; por el contrario, el futuro solo está en nuestra imaginación
y no tiene una realidad objetiva pues son procesos psíquicos que bien pueden llamarse
deseos o esperanzas, puesto que el pensamiento puro sin materia no puede ser acción
y no es un proceso real.
Deeste modo,loque denominamospresentees un conceptoopuestoal deausente que
no se refiere al tiempo sino al espacio, por lo que no es una magnitud temporalmente
real pues es un punto adimensional en movimiento relativo y si bien está sujeto a la
irreversibledirecciónpasado-futuro,soloestableceunpunto de inflexiónintemporalque
pertenece a ambos dominios, constituyendo el vínculo espacio-temporal móvil que los
enlaza, cuya velocidadrelativa es el tiempode desplazamiento entre el antecedente y su
consecuente y —como lo demostró Einstein— depende de nuestra propia velocidad
relativa a nuestra vecindad y es loque subjetivamente percibimoscomounintervaloque,
al entrar en convergencia con nuestros procesos sensoriales y emocionales, nos permite
interactuarcon el cambianteescenariodel universo material condiferentesaccionesque
lo modifiquen, generando una nueva realidad virtual que, aunque su existencia real irá
quedandoprogresivamenteenel pasado,nosotrosdenominarfuturo, de modoque este
es realmente un cambio en la dirección del pasado y no posee una continuidad material
objetiva más allá del presente sino tras él. Así, podemos afirmar que vivimos en un
presente dinámico que enlaza el pasado con un futuro en que el tiempo forma parte de
un todo indivisible con la materia y la energía, conformando una estructura espacio-
temporal energética abierta, funcional y evolutiva, que al hacer una utilización cada vez
más eficiente de los recursos del medio, determina progresiva e irreversiblemente el
mejor de los mundos posibles.
Los aportes de Ludwig Boltzmann a la ciencia contemporánea.
En la física predominó por siglos el interés y la predilección por la regularidad y
certidumbre de los procesos de la naturaleza, resultantes en gran medida de la
idealización de sistemas que se encuentran cercanos al equilibrio; sin embargo, en 1877,
el físicoaustríacoLudwigBoltzmann,al estudiarla cinética delos gases anteincrementos
de temperatura, advirtió la necesidad de la existencia real de los átomos enunciada por
John Dalton entre 1803, con la consecuente discontinuidad de la materia y la energía
que esto implica; estas trascendentes ideas, anticipan en 25 años el concepto de
discontinuidad que posteriormente desarrollan Planck y Einstein, por lo que sus ideas
constituyen un aporte fundacional a las premisas científicas del siglo XX, especialmente
a la mecánica cuántica. En la conferencia Halle en 1891, ante los intentos de Ostwald y
del mismo Planck por convencerlo de la superioridad de los métodos termodinámicos
clásicos sobre los atomistas, Boltzmann replicó: "No veo ninguna razón por la que
(además de la materia) la energía no deba ser también considerada dividida
atómicamente.
Planck hizo uso de esas innovadoras ideas al estudiar el problema de la radiación de
cuerpo negro en 1900 y no tuvo más remedio que utilizar sus métodos estadísticos para
resolversus ecuaciones,porloque es improcedentequesele atribuyana Planck las ideas
fundacionales de la mecánica cuántica. Con posterioridad, los conceptos de Boltzmann
fueron también adoptados por Einstein, quien además de asumir la discontinuidadfísica
de la materia y la energía de la propuesta atomística de Boltzmann, demostró que tras la
interpretación puramente matemática de la radiación expresada por Planck, se escondía
tambiénel ente físicointuidoporBoltzmannen1891 —una partícula quedenominó“das
Lichtquant”oquantum deluz—,posteriormentedenominada fotónporel físicoGilbert
N. Lewis en 1926, que convencionalmente se representa con el símbolo ɣ (gamma) o
bien hv, donde h es la constante de Planck y v la velocidad de la luz.
Más allá de la importancia y trascendencia de las contribuciones de Boltzmann a la
ciencia y la filosofía contemporáneas y pese a ser fuertemente rechazadas por los
científicos de su tiempo, desde el inicio del siglo XX se convirtieron en una fuente de
inspiración de gran transcendencia en el desarrollo de una nueva física que —
cuestionando como Maxwell las rígidas estructuras epistemológicas deterministas—
permitía una explicación objetiva de los fenómenos que se estaban descubriendo que,
al introducir una nueva teoría del conocimiento que,superando los paradigmasclásicos
de Newton y Descartes, permitió explicar la nueva realidad en términos probabilísticos,
iniciando un definitivo y transcendental cisma con el pensamiento determinista del siglo
19.
En la termodinámica del sigloXVIII hasta los trabajos de Maxwell, la energía térmica era
considerada un continuo, de modo que el calor era descrito como un fluido continuo de
energía que actuaba sobre la materia regido por los principios de la mecánica clásica. En
la década de 1850, Rudolf Clausius relacionó la energía potencial del vapor para generar
trabajo con la idea de un desorden termodinámico, caracterizado por el movimiento
rápidoy desordenadodepartículas,demodoquela presióndeun gas se debeal choque
con las paredes del medio, acuñando el término "entropía” para designar la cantidad de
energía perdida en un sistema térmico para obtener potencia mecánica; en base a esta
idea, analizando la cinética de los gases y admitiendo la existencia de átomos en la
composición de la materia, Boltzmann establecióen 1877 que “la temperatura y energía
cinética de los diferentes átomos que componen un gas no poseen un estado de
equilibrio, pues el desorden es el estado más probable de la materia, de modo que un
macro-estado termodinámico solo puede ser definido estadísticamente y los diferentes
micro-estados no tienen por qué coincidir con el promedio de dicha propiedad en el
sistema”, de modo que existe una dispersión o discontinuidad estadística en la energía
térmica o entropía que un sistema contiene.
La idea de una discontinuidad en la materia en las postrimerías del siglo 19 mediante
una teoría que en sus inicios no contaba con una base experimental y se anticipó en 25
años al quantum de Planck, no convencía a sus contemporáneos, quienes rechazaban la
idea de que una ley de la naturaleza no fuera continua y tuviera un carácter estadístico,
de modo que fue considerada solo “una atrevida conjetura filosófica” en la comunidad
científica desu tiempo dominada porla tradicióndeterminista;no obstante,la “audacia”
de Boltzmann permitió explicar cómo las propiedades microscópicas tales como masa,
carga, estructura y energía determinan las propiedades macroscópicas comoviscosidad,
conductividad térmica, difusión o temperatura y que las propiedades de la materia
expresadas en el Segundo principio de la Termodinámica son un promedio estadístico
de los micro-estados termodinámicos probables y no describen un estado de equilibrio,
pues los axiomas de la entropía afirman que el desorden es el estado más probable de
la materia, de modo que un macro-estado termodinámico necesariamente debe ser
descrito en forma estadística pues sus diferentesvaloresno tienen por qué coincidircon
el promedio de dicha propiedad en el sistema, de modo que el valor de la función de
energía de un sistema a una temperatura dada es la sumatoria escalar de estados que
tienen un valor de energía significativo.
Basándose en estas ideas centrales que hoy son aceptadas universalmente, Boltzmann
logró explicar el comportamiento cinético de los gases mediante una genial
interpretación estadística del Segundo principio de la Termodinámica, permitiendopor
primera vez unir los irreconciliables mundos macro y microscópico, plasmando la
relación entre entropía y probabilidades en su célebre ecuación:
S = k logW
donde k es la constante de Boltzmann y logW es el logaritmo natural de
Wahrscheinlichkeit, que en alemán significa la probabilidad de ocurrencia de un macro-
estado, o dicho en términos matemáticos, la función de probabilidad de cada uno de los
estados posibles de los observables de un sistema, de modo que a diferencia del
concepto de Clausius, la expresión de Boltzmann desarrollada en 1872 (denominado
teorema H o hipótesis del caos molecular) permite definir la entropía como el valor de
una función de estado y no como pérdidas de un sistema.
Sin embargo, la discontinuidad de la materia no era desconocida en ese tiempo y ya
rondaba en la mente de los fiscos de vanguardia, pues el saber formal presentaba ciertas
anomalías que las nuevas ideas científicas intentaban resolver. Desde que Heinrich Hertz
demostrara la existencia de ondas eléctricas en 1888, algunos científicos pensaron que
tanto la luz visible como la radiación térmica se propagaba mediante los campos
ondulatorios descritos por las ecuaciones de Maxwell, siendo Boltzmann uno de los
primeros científicos en reconocer la importancia de la teoría electromagnética. En 1884
aplicóesas ideasa la radiacióndecuerponegro y aunque su objetivoera demostrarque
la presión de radiación descrita en su teoría eliminaría el conflicto de infinitud
matemática que presentaban las ecuaciones de la termodinámica clásica, sus esfuerzos
lo condujeron a una nueva teoría de la radiación que rompe definitivamente con la
continuidad de la termodinámica clásica para iniciar una representación discontinua y
estadística de la naturaleza, liberando las leyes fundamentales de la energía del
paradigma determinista y abriendo el camino para el posterior desarrollo dela mecánica
cuántica de Planck, Einstein y Bohr, así como la termodinámica del no equilibrio de
Prigogine un siglo después.
Aunque una informalidad atávica que repentinamente alternaba periodos de expansión
y un irreverente sentido del humor con otros de introversión y decaimiento contribuyó
al rechazo de sus ideas científicas, paradojalmente hizo que fuera un profesor empático
y querido por sus discípulos; su entusiasmo y claridad en sus conferencias sobre filosofía
de las ciencias despertaban tanto interés que incluso el emperador Francisco José lo
invitó a la corte Austro-Húngara para que expusiera sus innovadoras concepciones
filosóficas, cuyas ideas precedieron a filósofos posteriores como Karl Popper y Thomas
Kuhn.
No obstante, los fervorosos esfuerzos que realizó en sus años finales en defensa de sus
revolucionarios conceptos atomísticos y de sus desarrollos tanto en termodinámica
como en las demás ramas de la física y la epistemología, estas no tuvieron la
trascendencia que esperaba en la comunidad científica de su tiempo e incluso hubo
encarnizados detractores en la universidad de Viena como Ernst March y Wilhelm
Ostwald, que negaron la existencia real del átomo y su papel fundamental en la
organizacióndel mundofísico,demodoquetantosu mal estadodesaludcomola escasa
aceptacióndesus teoríasy su denostaciónpublica contribuyerona producirleuna fuerte
depresión que lo llevó al suicidio en 1906; sin embargo, a pocos años de su muerte, una
serie de descubrimientos —como el estudio de los coloides de Perrin publicado en
1909— abrieron el camino para la aceptación generalizada de sus teorías en la física
contemporánea, siendo hoy ampliamente reconocidos sus trascendentes aportes en la
creación de la mecánica estadística, la moderna teoría cinética de los gases, la
interpretación estadística del segundo principio de la termodinámica y a su vasta
contribución a la ciencia y la filosofía contemporánea, siendo el primer científico en
aplicar el concepto de átomo como un entidad que constituye la materia y determina
sus propiedades macroscópica, por lo que Boltzmann debe ser considerado junto a
Einstein como los verdaderos iniciadores de la mecánica cuántica, puesto que este
confirmóen 1905 la existencia real del átomoy la discontinuidaddela energía planteada
por Boltzmann, ideas por las que recibió el premio Nobel y que Planck aceptó solo en
1927, pues para él,antes de esa fecha,eran solo arguciasmatemáticasqueno tenían una
realidad física.
Sin embargo, aunque tanto por sus contribuciones científicas como filosóficas, los
aportes de Boltzmann se consideran de incuestionable importancia en el desarrollo de
la ciencia del siglo XX, su original contribución a la unificación de los mundos macro y
microscópico unido al concepto probabilístico de entropía se ha mantenido en un
segundo plano, pese a que —según Prigogine— “constituye la contribución más
importante en la ciencia contemporánea para la unificación tanto de las teorías físicas
entre sí, como con los principios que gobiernan la evolución del universo y de la vida”.
El legado de Boltzmann ha sido destacado por diversos pensadores, entre los que
además de Prigogine, se encuentran el físico y filósofo norteamericano Thomas Kuhn y
el epistemólogo alemán Ernst Cassirer (1874-1945) quien —prestando gran atención
tanto a los aportes matemáticos, como físicos y filosóficos— intentó reinsertar en la
ciencia contemporánea sus concepciones unificadoras, exponiendo sus ideas en dos
trabajos fundamentales: El problema del conocimiento y La filosofía de las formas
simbólicas.
No obstante, entre sus contribuciones a la física que tal vez constituya su mayor legado,
se encuentra la unificación de los fenómenos de la naturaleza en sus diversas escalas,
pues al relacionar la entropía con las energías estadísticamente posibles que pueden
contener las partículas de un gas, estableció por primera vez un puente de unión entre
los comportamientos micro y macroscópico de los sistemas físicos, representación cuya
epistemología subyacente ha permitidodescribir en forma unitaria una serie de campos,
como las reacciones nucleares, la evolución de los sistemas químicos y biológicos, los
mecanismos neurológicos, etc.; pero la descripción probabilística de la naturaleza tendrá
una gran trascendencia en el desarrollodela mecánica cuántica ya partirde lostrabajos
de Prigogine, sus intentos unificadores constituye un importante sustento teórico de la
unificación de las teorías físicas tras el concepto de entropía en termodinámica
estadística.
En 1996, Prigogine reivindica las ideas de Boltzmann del carácter probabilístico de la
segunda ley de la termodinámica, asignándole un inexplorado carácter constructivo: “la
noción de probabilidad introducida por Boltzmann en termodinámica fue un golpe de
extraordinaria fecundidad para la ciencia, haciendo de esta verdadera grieta en el
carácter determinista de la materia una fuerza de acción que tendrá una trascendencia
decisiva en la evolución del universo. Después de siglos, hemos podido comprender
comosurge la dinámica enel universo a través de la inestabilidadyel azar;estas rompen
la equivalencia entre el nivel individual y estadístico en los procesos de la naturaleza al
extremo que las probabilidades cobran una significación fundamental en los procesos
evolutivos,no reductiblesa una interpretacióndeignorancia oaproximaciónpueses una
propiedad intrínseca dela materia que determina con el tiempo la evolución y el cambio
(Ilya Prigogine, 1996 Pag 37-38); es decir, debemos tomar los conceptos probabilísticos
de Boltzmanncomocomponentesesencialesdela realidadmaterial entodassus escalas
y extraer de esta sus necesarias consecuencias. Como afirma Margenau “si dichas
probabilidadessonintrínsecas (en el comportamiento) dela materia,debenformarparte
de las teorías, siendo necesario incorpóralas a toda representación objetiva de la
realidad.
Para muchos científicos, la segunda ley de la termodinámica es una ley de la naturaleza
que junto con la entropía constituyen las leyes más importantes que se han formulado
en la historia de la humanidad; no obstante, es de notar que –-a partir de las ideas de
Boltzmann— se inicia en la física la representación discontinua, estadística y evolutiva de
la naturaleza en todas sus escalas, formando las bases materiales del rol creador de
orden que Prigogine le asigna a la entropía en la evolución del universo.
Los conflictos del determinismo con el mundo cuántico.
El pensamiento clásico nos ha legado el saber de un mundo descrito como un conjunto
ordenado por principios universales causales y lineales que no se articulan entre sí, cuyo
paradigma central es la visión mecanicista de Newton, Descartes y Laplace, que describe
un mundo determinado por una inalterable cadena causa-efecto, en que el presente
establece enteramente el futuro; en cambio, la mecánica cuántica desarrollada desde
inicios del siglo 20 por Planck, Einstein, Bohr, Heisenberg y especialmente en la obra de
Erwin Schrödinger What is the life, se afirma que los objetos microscópicos como
partículas, átomos y moléculas así como las entidades macroscópicas que estos
conforman, presentan una correlación probabilística que constituye parte integral tanto
de su compleja organización interna como de su energía, actividad, comunicación y
equilibrio dinámico con las demás estructuras de la naturaleza.
Esta aseveración —pese a haberse verificado experimentalmente en innumerables
ocasiones y corroborado por su masivo empleo en electrónica, en comunicaciones, en
computación y en un sinnúmero de aplicaciones en todos los ámbitos de la sociedad—
es cuestionada por el pensamiento clásico que, a diferencia de la indeterminación
estructural del mundo cuántico, describe un universo continuo, predecible, causal,
indiferenteantela energía y sin interacciónentresus partes. Estoestableceuna conjetura
axiomática indemostrable que, al no aceptar entre sus leyes las bases estadísticas de la
evolución del universo y de la vida, la visión determinista de las teorías newtonianas que
se generalizó en la ciencia a partir del siglo 18, es considerada hoy en círculos del saber
formal un cuerpo de creencias metafísicas carentes de un real formalismo científicoque
las legitime.
Aunque no existen investigaciones de importancia científica que contradigan que las
partículas microscópicas poseen una indeterminación intrínseca descrita por Heisenberg
en el Principio de Incertidumbre de 1925, que limita la posibilidad de conocer sus
propiedades dinámicas indexadas como posición, momento angular, velocidad, etc., la
causalidadafirma quelossucesos del mundo macroscópicoposeensolucionesanalíticas
exactas que, obedeciendo las rígidas reglas de la física clásica, harían posible
determinarlos con absoluta precisión. De este modo, las herramientas de la ciencia se
utilizan para interpretar a uno u otro mundo, pero no pueden aplicarse a ambos, pues
estas son excluyentes y las que funcionan en uno no funcionan en el otro y menos aún
en sus interacciones. No obstante, en el universo estadístico e indeterminado que
establece la mecánica cuántica, las relaciones de incertidumbre introducen un límite
infranqueable a la precisión con que se pueden medir los parámetros indexados de una
partícula microscópica, siendo imposible establecer simultáneamente su posición y
velocidad con la precisión que queramos y menos aún determinar los parámetros
conjugadosdeuna propagaciónondulatoria osusinterferencias,puesdichos fenómenos
no tienen cabida en el determinismoaúna nivel macroscópico;porejemplo:unelectrón,
junto con su velocidad macroscópica, posee un movimiento ondulatorio adicional que
incrementa o disminuye su energía cinética según sus interferencias sean constructivas
o destructivas cuando absorbe o emite energía, por lo que no existe una relación
determinista exacta que describa el momentum de una partícula subatómica y su
velocidad angular.
Esto permite afirmar que, al describir los sistemas de la naturaleza en términos clásicos,
se hace una aproximación experimentalmente errónea e inadmisible, por lo que, al
objetar la validez de las mediciones deterministas en el mundo físico no solo se
cuestionan los axiomas de verdad absoluta e irrefutable que sustentan la teoría, sino la
validez misma de la física clásica como representación de la naturaleza. Por el contrario,
el cálculo probabilístico de la mecánica cuántica es un formalismo de incuestionable
objetividad, puesto que expresa estadísticamente la incertidumbre propia del mundo
microscópico, siendo posible definir con certeza el grado de precisión (o error
matemático) que inevitablemente se origina al medir sus parámetros, determinando el
mayor nivel de información posible de obtener en un sistema dinámico; de este modo,
las ecuaciones probabilísticas de la mecánica cuántica proporcionan predicciones tan
exactas como son posibles en sistemas que por la naturaleza aleatoria e indeterminada
de sus parámetros, sería paradójicoque estuvieran regidos por las exactas ordenanzas
del determinismo.
De este modo, al vincular dos teorías con bases enteramente contrapuestas, resulta
inadmisible que sus interacciones sean descritas por leyes físicas discordantes entre sí,
en una naturaleza unitaria y coherente, lo que plantea un serio conflicto en las leyes de
la física,puestoque necesariamentedebenintervenirprincipiosgeneralesquerelacionen
unitariamente tanto la estructura y organización de la materia a nivel micro, como su
dinamismoycoherencia a nivel macro.Esta dicotomía exhorta a generalizarlosprincipios
fundamentalesdela ciencia contemporánea enuna teoría unificada,demodoqueambas
sean de base determinista o bien estadística en todas sus escalas, pero tanto nuestro
intelecto como la naturaleza nos indican que en ella no pueden actuar principios
fragmentarios y contrapuestos que no se unifiquen entre sí.
De este modo, en la búsqueda de un concepto integrador que nos permita validar las
conclusiones de la ciencia como principios generales de la naturaleza, deberemos
desacoplar la axiomática y utópica validez de los paradigmas deterministas y
reemplazarlos con la certidumbre estadística del método experimental. Esto —que es el
único modo de hacer ciencia y de validar sus predicciones como fundamento del mundo
material— nos lleva a concluir que, de nuestras principales teorías, una de ellas debe ser
necesariamente errónea y la otra debe ser necesariamente incompleta.
Einstein y otros físicos,en su devota oposicióna la mecánica cuántica.pensabanque, por
su incertidumbre estructural y su ontología estadística que objeta al criterio de verdad
absoluta de la ciencia clásica, “la teoría cuántica debía ser necesariamente errónea o en
el mejor de los casos, necesariamente incompleta porque dios no juega a los dados” y
solo constituía una teoría “de paso” como aproximación a una teoría más general exenta
de aleatoriedad, que determinaría “que los objetos del mundo macroscópico echan por
tierra el principio de incertidumbre” (y acaten las leyes clásicas, demostrando la
regularidad, continuidad y causalidad del mundo material en todas sus escalas) lo que
“explicaría” por qué en el mundo macroscópico no observamos los efectos cuánticos y
por qué este nos parece clásico. No obstante, nunca aceptó que el determinismo —por
no tener la verificación experimental necesaria para que las inferencias de nuestra
percepción tengan razones objetivas para ser incorporadas como principios generales
de la naturaleza— no constituye un criterio de verdad y menos aún absoluta como
afirman, por lo que al intentar demostrar que la mecánica cuántica es errónea, no lo
hacen desde la ciencia experimental, sino que desde sus utópicas creencias religioso-
creacionistas, internándose en un peligroso sendero de confusiones ideológicas que les
faculta a objetar tanto la abrumadora información experimental como las cuantiosas
aplicaciones de la mecánica cuántica en la sociedad contemporánea, por lo que otorgan
sin más trámite un criterio de verdad absoluta a una conjetura indemostrable, indicando
que la hipotética decoherencia cuántica de la física clásica explicaría la "natural"
coherencia del mundo macroscópico, aunque no haya experimento posible que a largo
plazo demuestre la validez de esa hipótesis.
Los mecanismos cuánticos que sustentan la vida.
En los inicios de la mecánica cuántica hubo fuertes controversias sobre la naturaleza
estadística de la teoría, sobre la discontinuidad con que describe el universo, con su
abierta incompatibilidad con las predicciones clásicas, así como sus transcendentes
implicancias ontológicas de la nueva realidad que esta describe. Se pensó que la teoría
funcionaba bien si se circunscribía al mundo de partículas, átomos y moléculas, pero que
llegaba a conclusiones absurdas si se intentaba articular con un mundo macroscópico,
por lo que muchos pensaron que la incertidumbre cuántica no podía sustentar la
estabilidad necesaria para la evolución del universo y de la vida.
Sin embargo, la estabilidad y continuidad con que el determinismo caracteriza las
estructuras del universo son hoy temas del pasado, pues se tiene la certeza que el
universo no es eterno einmutabley que en diferenteslenguajesnosrevela que la energía
que activa a una estrella,a un ser vivo y a las diversasrepresentacionesmaterialesenque
se manifiesta, se transforma irreversiblemente con el tiempo, de modo que la dinámica
del universo real presenta en todas sus estructuras un ciclo temporalmente finito: se
originanen la dinámica interaccióndesuscomponentes,crecenhasta alcanzarel máximo
de eficiencia de su particular disposición material y energética y luego son recicladas y
se transforman en formas más eficientes, o se degradan y liberan su materia y energía a
otros procesos.
En el caso de los seres vivos, los procesos homeostáticos que mantienen su equilibrio
químico y su adaptabilidad al medio externo son el mejor argumento a favor del mundo
cuántico, puesto que la dinámica y compleja estabilidad que estos requieren no puede
obtenerse del rígido y estático equilibrio del mundo determinista y si bien es claro que
nuestros procesos vitales exigen la persistencia y estabilidad de ciertos parámetros
básicospara operaren la naturaleza comotemperatura,humedad,presencia deoxígeno,
de nutrientes, etc., es indudable que los componentes microscópicos de los seres vivos
así como la información y la conciencia necesaria para percibir sus estados corporales y
accionar dinámicamente en el medio, funcionan de acuerdo a leyes cuánticas, pues la
vida requiere de un constante ajuste de sus parámetros internos y un completo sistema
de información, de procesamiento y de acción para contrarrestar las cambiantes,
agresivas y hasta catastróficas variables del medio para preservar su identidad o bien
para posibilitar la emergencia de propiedades nuevas cuando las existentes no sean
suficientes para preservar la vida; esto no sería posible con la rígida estabilidad de la
materia que describe el determinismo, puesto que los seres vivos precisan de la
variabilidad intrínseca del mundo cuántico para el fino ajuste de los mecanismos
autopoyéticos que requieren para preservar permanentemente su equilibrio tanto
interno como externo; de modo que tanto para emerger del mundo material como para
perdurar, la vida ha requerido tanto de la incertidumbre como de la coherencia
estadística del mundo cuántico y son los complejos mecanismos entrópicos que le
permitenregularsu actividadyajustar sus procesosinternos a los parámetrosnecesarios
para producir y reproducir cada vez más eficientemente la vida, haciendo
progresivamente un mejor uso de los recursos disponibles en el medio, lo que, a fin de
cuentas —tanto en termodinámica como en geología, cosmología e informática— se
denomina evolución.
Desdeel punto de vista termodinámico,losseresvivos constituyen sistemasabiertosque
intercambian materia, energía e información con su entorno, reduciendo
progresivamente la entropía al obtener energía mediante diversos procesos químicos,
de modo que un sistema biológico se sustenta tomando energía del ambiente y
procesándola a través de su cada vez más eficiente maquinaria fisicoquímica para la
produccióndetrabajo,permitiendoquelasdiferentesfuncionescelularesquemantienen
su organización interna generen negentropía; de este modo, los sistemas vivos están
inmersos en flujos de materia-energía que a partir de mecanismos hereditarios, pueden
producir réplicas de sí mismos y (a veces) generar variaciones heredables a futuras
generaciones a través de irreversibles cambios del código genético validados por los
mecanismos entrópicos de la naturaleza, que se encargará de seleccionar aquellas
innovacionesque representenmejorasen el empleodela materia y la energía disponible
en su biotopo, o bien le proporcionen ventajas adaptativas que les permitan utilizar
nuevos recursos existentes más allá de su hábitat tradicional.
De este modo, la inestabilidad estructural de la materia microscópica, junto los
mecanismos entrópicos descritos por el segundo principio de la termodinámica,
constituyen los estímulos necesarios para crear diferentes estructuras que tras un
proceso de selección natural determinado por la eficiencia del medio, validará las
opciones más viables para preservar la vida en una naturaleza en permanente cambio,
en que la incertidumbre del mundo cuántico proporciona a la materia la facultad de
recombinarse a partir tanto de la energía de los campos gravitacional y
electromagnéticos del planeta, como de la radiación solar y corpuscular incidente, que
permiten a los seres vivos contar con las energías necesarias no solo para su propia
existencia, sino que a partir de ella, contar tanto con la estabilidadya lograda en su larga
historia evolutiva, como el potencial para multiplicarse y desarrollarse hacia formas
superiores, sustentando tanto la preservación como la evolución de una vida que, desde
la primera célula eucariota, ha estado expuesta durante miles de millones de años a los
profundos cambios que ha experimentado nuestro planeta, siendo evidente que los
mecanismos que sustentan la vida logran casi siempre imponer su resilencia ante la
agresividad de un medio en que los sobrevivientes introducen sucesivas mejoras en la
utilización de la materia y de la energía disponibles.
De este modo, hoy sabemos que el origen de la vida fue posible en un medio reductor
carente de oxigeno libre, que experimentó progresivos cambios cuantitativos y
cualitativos desde la aparición de los primeros compuestos orgánicos auto-replicables
(autopoiesis), en una atmósfera en que dominaba el vapor de agua y el monóxido de
carbono y es la aparición de cianobacterias y algas marinas —los primeros seres que
realizan fotosíntesis en el océano primitivo— lo que adiciona al planeta el oxígeno
necesario para iniciar la vida oxidativa, constituyendo el actual hábitat “natural” que ha
configurado todos nuestros mecanismos adaptativos posteriores.
De este modo, los procesos bióticos no son estáticos e inmutables, pues interactúan con
el mundo inorgánico, se auto-regulan y evoluciona simbióticamente ante los cambios
del medio. Esto es posible gracias a la dinámica de la materia, de los eventuales aportes
del espacio exterior y fundamentalmente de la energía que provee la radiación solar,
generando en su interacción con la vida una creciente eficiencia en la utilización de los
recursos materiales y energéticos disponibles. Estos procesos son complejos e
interactúan en diversos ciclos como el del carbono-oxígeno, del agua atmosférica y de
los océanos, etc., pero los constituyentes fundamentales de la materia están
subordinados a la incertidumbre del mundo microscópico y de los procesos entrópicos,
que en conjunto determinarán la mejor de las opciones de la materia y la energía
disponibles.
De este modo, al igual que la frecuente pero no irrevocable regularidad del mundo
macroscópico,losmecanismosentrópicossonla clavepara comprenderydescribirtanto
la existencia misma de la vida como sus complejos mecanismos de adaptación y
evolución; esto no habría sido posible sin la existencia de los azarosos procesos del
mundo cuántico, que conservando aquellas combinaciones que funcionan
adecuadamente, permiten la emergencia de propiedades nuevas o mejoradas cuando
estas sean necesarias, las que no son nunca reducibles a las propiedades de sus partes
como afirma el determinismo y menos aún nos permite pensar que estaban
predestinadas desde el pasado.
La incertidumbre y el carácter intrínsecamente estadístico del mundo microscópico ha
originado algunos conflictos con las mediciones absolutas que postula el determinismo
en los sistemas de la naturaleza que es necesario profundizar, pues constituyen el
conflicto fundamental que diferencia ambas teorías.
La mecánica cuántica ha demostrado experimentalmente que debido tanto al carácter
ondulatorio como a la velocidad y energía de las partículas subatómicas, existe en la
naturaleza una imposibilidad estructural que no admite la medición simultánea de los
parámetros indexados de sus componentes, que son descritos por una expresión
estadística denominada función de onda, que solo permite describir probabilidades y no
una “información perfecta” de que los entes de la naturaleza estén en uno u otro lugar
en un determinado momento.
No obstante, el determinismo no se refiere a esta incertidumbre como una propiedad
intrínseca de la materia sino a un error en la medición de los fenómenos físicos, puesto
que el azar no podría explicar la evolución de la naturaleza (sino dios), de modo que la
indeterminación del mundo cuántico es atribuida al error de una teoría que no
representa adecuadamente la realidad. Sin embargo, si lanzo muchos electrones, la
función de probabilidad puede predecir con gran certeza la cantidad de partículas que
habrá en uno u otro lugar, determinando además el error matemático de esa dispersión,
de modo que a nivel de grandes números, las ecuaciones probabilísticas de la mecánica
cuántica nos revelan con gran exactitud tanto la incertidumbre como la dinámica del
mundo microscópico, de modo que las estadísticas son una herramienta de gran
precisión para describir matemáticamente la conducta real de la naturaleza, puesto que
la indeterminaciónesuna característica intrínseca dela materia yno un error dela teoría.
Para ilustrar lo anterior, examinemos lo que sucede en los casinos de juegos, donde no
se sabe quién, cuándo o cuanto apostará y ganará o perderá cada jugador, pero la suma
de las utilidades del casino no dependen de quien eventualmente gane o pierda, sino
del número depersonas que jueguey con algunas variaciones dela actividadeconómica
local —que también son estadísticas— podemos conocer gran certeza cuánto ganará un
casino cada día o cada mes, pues las probabilidades de ganar o perder de cada juegoes
una función matemático-estadística que favorece al casino en un porcentaje preciso que
en la práctica se cumple rigurosamente.
En el caso de mediciones nanométricas de elementos metálicos utilizadas en alta
ingeniería, sus valores nunca pueden expresarse en forma absoluta, pues dependen de
las temperaturas del elemento y de la habitación, de la calibración del instrumento y
hasta el error humano al realizar las lecturas, pero si es necesario dar una medida de
referencia de gran exactitud, se le debe agregar la temperatura a la que fue tomada, la
calibración del instrumento con el que se realiza la medición y el error que este pueda
tener y aun así, deberá realizarse varias mediaciones y especificar su valor promedio
más-menos un determinado error del proceso global por rigurosa que esta sea, por lo
que en ningún caso se puede afirmar que se ha realizado una medición absoluta.
De este modo, la naturaleza puede ser descrita con gran precisión por una teoría
eminentemente probabilística que, aunque va en contra de nuestra intuición, es de un
nivel de precisión que representa rigurosamente la incertidumbre intrínseca de una
naturaleza que por el nivel de incertidumbre propio de todo fenómeno ondulatorio, no
es explicable por los paradigmas del determinismo, con su visión medioeval, estática y
dogmática del universo.
Después de un siglo de experimentación y desarrollo de la mecánica cuántica en la
ciencia contemporánea y su aplicación generalizada en electrónica, en computación, en
lascomunicaciones,lamedicinayentodoslosámbitosde lasociedad,esineludibleaceptarque
la materia y la energía siguen inequívocamente reglas probabilísticas, exhibiendo patrones de
comportamiento estadísticos coherentes en todas las escalas que las representemos,lo que
cuestionalavalidezde determinismo,rompiendodefinitivamente unatradiciónde 15 siglosen
la interpretación del mundo de la ciencia clásica.
Dr. Héctor BeckerG. 16 de febrerode 2017

Más contenido relacionado

La actualidad más candente

Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632
Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632
Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632
Alexander Urian
 
Geometriasagrada22122008
Geometriasagrada22122008Geometriasagrada22122008
Geometriasagrada22122008
jlmarquez
 
La eterna materia de los mundos infinitos una concepción del universo según e...
La eterna materia de los mundos infinitos una concepción del universo según e...La eterna materia de los mundos infinitos una concepción del universo según e...
La eterna materia de los mundos infinitos una concepción del universo según e...
E. J. Ríos
 

La actualidad más candente (18)

Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632
Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632
Dialnet el sociogramacomoinstrumentoquedesvelalacomplejidad-199632
 
Geometriasagrada22122008
Geometriasagrada22122008Geometriasagrada22122008
Geometriasagrada22122008
 
La eterna materia de los mundos infinitos una concepción del universo según e...
La eterna materia de los mundos infinitos una concepción del universo según e...La eterna materia de los mundos infinitos una concepción del universo según e...
La eterna materia de los mundos infinitos una concepción del universo según e...
 
Navidad...
Navidad...Navidad...
Navidad...
 
Anaximandro y la ciencia contemporánea.
Anaximandro y la ciencia contemporánea.Anaximandro y la ciencia contemporánea.
Anaximandro y la ciencia contemporánea.
 
Tiempo
TiempoTiempo
Tiempo
 
Lecciones de didactica_general
Lecciones de didactica_generalLecciones de didactica_general
Lecciones de didactica_general
 
Jornada argentinamcnabb
Jornada argentinamcnabbJornada argentinamcnabb
Jornada argentinamcnabb
 
Apuntes sobre la filosofía material del universo
Apuntes sobre la filosofía material del universoApuntes sobre la filosofía material del universo
Apuntes sobre la filosofía material del universo
 
La Pedagogía Cibernética y el Pensamiento Complejo
La Pedagogía Cibernética y el Pensamiento Complejo La Pedagogía Cibernética y el Pensamiento Complejo
La Pedagogía Cibernética y el Pensamiento Complejo
 
Principio del teorema de la dualidad cósmica
Principio del teorema de la dualidad cósmicaPrincipio del teorema de la dualidad cósmica
Principio del teorema de la dualidad cósmica
 
Espacio tiempo
Espacio tiempoEspacio tiempo
Espacio tiempo
 
Sinergia
SinergiaSinergia
Sinergia
 
La increíble esencia universal - eBook grátis
La increíble esencia universal  - eBook grátisLa increíble esencia universal  - eBook grátis
La increíble esencia universal - eBook grátis
 
El sistema divino - eBook grátis
El sistema divino -  eBook grátisEl sistema divino -  eBook grátis
El sistema divino - eBook grátis
 
Etica cosmologia
Etica cosmologiaEtica cosmologia
Etica cosmologia
 
LA INTERPRETACIÓN DE LA REALIDAD
LA INTERPRETACIÓN DE LA REALIDADLA INTERPRETACIÓN DE LA REALIDAD
LA INTERPRETACIÓN DE LA REALIDAD
 
Fractáfisis2
Fractáfisis2Fractáfisis2
Fractáfisis2
 

Similar a La coherencia de los mundos macro y microscópico version completa

Para qué existe el universo
Para qué existe el universoPara qué existe el universo
Para qué existe el universo
williamswallace79
 
PENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICO
PENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICOPENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICO
PENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICO
universidad
 
Postulados de la teoría de relatividad
Postulados de la teoría de relatividadPostulados de la teoría de relatividad
Postulados de la teoría de relatividad
Yenny Gonzalez Suarez
 
Teoría de la relatividad especial
Teoría de la relatividad especialTeoría de la relatividad especial
Teoría de la relatividad especial
David Levy
 
Teoria del caos marcela moreno s
Teoria del caos marcela moreno sTeoria del caos marcela moreno s
Teoria del caos marcela moreno s
Marcela Salinas
 
Las ciencias formales_en_la_era_posmoderna
Las ciencias formales_en_la_era_posmodernaLas ciencias formales_en_la_era_posmoderna
Las ciencias formales_en_la_era_posmoderna
Valeria Esposito
 
5 métodos de investigación
5 métodos de investigación5 métodos de investigación
5 métodos de investigación
elisol18
 
Entre 1948 y 1955
Entre 1948 y 1955Entre 1948 y 1955
Entre 1948 y 1955
eyedolfkny
 
TEORIA DE LA COMPLEJIDAD
TEORIA DE LA COMPLEJIDAD TEORIA DE LA COMPLEJIDAD
TEORIA DE LA COMPLEJIDAD
ROALROGA
 

Similar a La coherencia de los mundos macro y microscópico version completa (20)

Para qué existe el universo
Para qué existe el universoPara qué existe el universo
Para qué existe el universo
 
La vida
La vidaLa vida
La vida
 
PENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICO
PENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICOPENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICO
PENSAMIENTO CURVILINEO MULTIDIMENSIONAL CUANTICO
 
Pensamiento Complejo Curvilineo Multidimencional Cuantico. Anderson
Pensamiento Complejo Curvilineo Multidimencional Cuantico. AndersonPensamiento Complejo Curvilineo Multidimencional Cuantico. Anderson
Pensamiento Complejo Curvilineo Multidimencional Cuantico. Anderson
 
Fractáfisis2
Fractáfisis2Fractáfisis2
Fractáfisis2
 
ANDERSON DIAZ PEREZ. Pensamiento Curvilineo Multidimencional Cuantico
ANDERSON DIAZ PEREZ.  Pensamiento Curvilineo Multidimencional CuanticoANDERSON DIAZ PEREZ.  Pensamiento Curvilineo Multidimencional Cuantico
ANDERSON DIAZ PEREZ. Pensamiento Curvilineo Multidimencional Cuantico
 
Postulados de la teoría de relatividad
Postulados de la teoría de relatividadPostulados de la teoría de relatividad
Postulados de la teoría de relatividad
 
Nivelación 001 - Activistas Zeitgeist Chile
Nivelación 001 - Activistas Zeitgeist ChileNivelación 001 - Activistas Zeitgeist Chile
Nivelación 001 - Activistas Zeitgeist Chile
 
Teoría de la relatividad especial
Teoría de la relatividad especialTeoría de la relatividad especial
Teoría de la relatividad especial
 
Como Hacer Ciencia
Como Hacer CienciaComo Hacer Ciencia
Como Hacer Ciencia
 
Ada 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalimAda 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalim
 
Teoria del caos marcela moreno s
Teoria del caos marcela moreno sTeoria del caos marcela moreno s
Teoria del caos marcela moreno s
 
Las ciencias formales_en_la_era_posmoderna
Las ciencias formales_en_la_era_posmodernaLas ciencias formales_en_la_era_posmoderna
Las ciencias formales_en_la_era_posmoderna
 
fisica
fisicafisica
fisica
 
Resumen kun 2
Resumen kun 2Resumen kun 2
Resumen kun 2
 
10 BENEFICIOS DE EDUCACIÓNnn FÍSICA.docx
10 BENEFICIOS DE EDUCACIÓNnn FÍSICA.docx10 BENEFICIOS DE EDUCACIÓNnn FÍSICA.docx
10 BENEFICIOS DE EDUCACIÓNnn FÍSICA.docx
 
5 métodos de investigación
5 métodos de investigación5 métodos de investigación
5 métodos de investigación
 
big bang
big bangbig bang
big bang
 
Entre 1948 y 1955
Entre 1948 y 1955Entre 1948 y 1955
Entre 1948 y 1955
 
TEORIA DE LA COMPLEJIDAD
TEORIA DE LA COMPLEJIDAD TEORIA DE LA COMPLEJIDAD
TEORIA DE LA COMPLEJIDAD
 

Último

El Genoma Humano, Características, Definición, ETC
El Genoma Humano, Características, Definición, ETCEl Genoma Humano, Características, Definición, ETC
El Genoma Humano, Características, Definición, ETC
J0S3G4LV1S
 
Derivadas- sus aplicaciones en la vida cotidiana
Derivadas- sus aplicaciones en la vida cotidianaDerivadas- sus aplicaciones en la vida cotidiana
Derivadas- sus aplicaciones en la vida cotidiana
pabv24
 
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
frank0071
 
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdfAlthusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
frank0071
 

Último (20)

El Genoma Humano, Características, Definición, ETC
El Genoma Humano, Características, Definición, ETCEl Genoma Humano, Características, Definición, ETC
El Genoma Humano, Características, Definición, ETC
 
Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...
Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...
Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...
 
CASO CLÍNICO INFECCIONES Y TUMORES.pptx
CASO CLÍNICO INFECCIONES Y TUMORES.pptxCASO CLÍNICO INFECCIONES Y TUMORES.pptx
CASO CLÍNICO INFECCIONES Y TUMORES.pptx
 
LOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdf
LOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdfLOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdf
LOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdf
 
COMBATE 02 DE MAYO O COMBATE DE CALLAO.docx
COMBATE 02 DE MAYO O COMBATE DE CALLAO.docxCOMBATE 02 DE MAYO O COMBATE DE CALLAO.docx
COMBATE 02 DE MAYO O COMBATE DE CALLAO.docx
 
La Célula, unidad fundamental de la vida
La Célula, unidad fundamental de la vidaLa Célula, unidad fundamental de la vida
La Célula, unidad fundamental de la vida
 
PRESENTACION PRE-DEFENSA PROYECTO I.pptx
PRESENTACION PRE-DEFENSA PROYECTO I.pptxPRESENTACION PRE-DEFENSA PROYECTO I.pptx
PRESENTACION PRE-DEFENSA PROYECTO I.pptx
 
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptxMapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
 
Derivadas- sus aplicaciones en la vida cotidiana
Derivadas- sus aplicaciones en la vida cotidianaDerivadas- sus aplicaciones en la vida cotidiana
Derivadas- sus aplicaciones en la vida cotidiana
 
Mapa Conceptual Modelos de Comunicación .pdf
Mapa Conceptual Modelos de Comunicación .pdfMapa Conceptual Modelos de Comunicación .pdf
Mapa Conceptual Modelos de Comunicación .pdf
 
REINO FUNGI: CONCEPTO, CARACTERISTICAS, ETC
REINO FUNGI: CONCEPTO, CARACTERISTICAS, ETCREINO FUNGI: CONCEPTO, CARACTERISTICAS, ETC
REINO FUNGI: CONCEPTO, CARACTERISTICAS, ETC
 
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
 
Homo Ergaster. Evolución y datos del hominido
Homo Ergaster. Evolución y datos del hominidoHomo Ergaster. Evolución y datos del hominido
Homo Ergaster. Evolución y datos del hominido
 
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdfAlthusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
 
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
 
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docxPRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
PRUEBA CALIFICADA 4º sec biomoleculas y bioelementos .docx
 
El Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptx
El Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptxEl Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptx
El Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptx
 
Glaeser, E. - El triunfo de las ciudades [2011].pdf
Glaeser, E. - El triunfo de las ciudades [2011].pdfGlaeser, E. - El triunfo de las ciudades [2011].pdf
Glaeser, E. - El triunfo de las ciudades [2011].pdf
 
LIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALES
LIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALESLIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALES
LIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALES
 
Antequera, L. - Historia desconocida del descubrimiento de América [2021].pdf
Antequera, L. - Historia desconocida del descubrimiento de América [2021].pdfAntequera, L. - Historia desconocida del descubrimiento de América [2021].pdf
Antequera, L. - Historia desconocida del descubrimiento de América [2021].pdf
 

La coherencia de los mundos macro y microscópico version completa

  • 1. La coherencia de los mundos macro y microscópico. Tanto el avance de las teorías científicas como nuestra progresiva capacidad de comprender el universo se fundamenta en la incuestionable unidad y coherencia del mundo físico, cuya representación formal converge también hacia una paulatina unificación de las teorías; no obstante, si bien dicha coherencia es una condición básica que debecumplirtodo enunciado que pretenda ser científico,el razonamientológicono es per se un criterio suficiente para su validación como ley de la naturaleza y solo constituirá una hipótesis o conjetura hasta su demostración por métodos empíricos, los que —mediante la experimentación— confirmarán, limitarán su rango de aplicación o refutarán su validez. De este modo, el desarrollo de la física contemporánea se circunscribe a la representaciónlógica,la expresiónsimbólico-cuantitativa yla validaciónexperimental de una serie de principios generales que, subordinados a un sistema lógico-formal — generalmente matemático— permitan realizar predicciones que concuerden con la realidad medibley puedan aplicarse a fenómenos hasta ahí no explicados por la ciencia. En ese camino, las teorías científicas han ido progresivamente demostrado que la dinámica de la naturaleza no es producto del azar, pues se han identificado una serie de principios, interacciones y constantes fundamentales que rigen desde sus inicios, generando un orden sistémico perfeccionado por una progresión de estructuras cada vez más complejas y eficientes en el uso de la materia y la energía, revelando que desde el Big Bang, el universo es un ente unitario en continua evolución. Sin embargo,esta representaciónevolutiva eirreversibledel universonoha sidoasumida e incorporada por las principales teorías con que representamos la naturaleza, pues mientras la mecánica cuántica describe un universo microscópico indeterminado y temporalmente reversible, la relatividad general lo describe a nivel macroscópico en forma determinista, separado del mundo microscópico con una dimensión temporal virtual y geométrica indexada al espacio, de modo que —pese a dividir el mundo en escalas mutuamente incompatibles— ambas concuerdan en una descripción temporal que no admite entre sus leyes la evolución del universo y de la vida. No obstante, la naturaleza no muestra las contradicciones que presentan las principales teorías con que describimos la realidad, pues sus diversas organizaciones revelan patrones coherentes que hacen posible una descripción cada vez más unificada del universo, permitiendo el desarrollo de una ciencia que no será nunca una descripción exacta de la naturaleza, sino una progresiva construcción del intelecto humano en su intento por comprenderla. De este modo, su mutua incompatibilidad nos advierte que sus contradictorias representaciones del mundo físico no concuerdan con el comportamiento unitario de la naturaleza y es claro que sus conflictos no se resolverán con la contraposición de conjeturas y creencias indemostrables, sino mediante su verificación en los observables de una naturaleza que se encargará de confirmar o desmentir las más esmeradas hipótesis.
  • 2. La representación dinámica de la naturaleza de Prigogine —al extender la incertidumbre del mundo cuántico al comportamiento macroscópico de la materia— permite articular la dicotomía existente entre ambas teorías, haciéndolas coherentes con la unidad de la naturaleza al integrar las leyes de la física a la evolución del universo y de la vida. Sin embargo, esta descripción unitaria y evolutiva del mundo material no está exenta de críticas, que en lo fundamental se orientan a asumir la irreversibilidad que caracteriza al mundo macroscópico comouna descripción incompleta de los sistemas de la naturaleza que originaría un conflicto en las ecuaciones fundamentales de la mecánica, pues sí la irreversibilidad fuese un atributo esencial en la auto-organización de la materia a nivel macroscópico,sería paradojal que esta pudiera emergerdesdesistemascuya descripción a escala microscópica es reversible y probabilística, lo que en su opinión, no podrían sustentar la irreversibilidad expresada por la Termodinámica evolutiva de Prigogine. No hay duda que la extrapolación de una ley de la naturaleza con principios unificadores que atraviesen los universos particulares que definen las diversas teorías no puede fundamentarse en la mera descripción de coincidencias o analogías entre hechos observados y menos aún basarse en una interpretación subjetiva de los fenómenos que describe, puesto que —además de demostrar experimentalmente las hipótesis que la sustentan— sus afirmaciones deben permitir una serie de inferencias y/o predicciones de otros sucesos similares no descritos por dicha ley, de modo tal que, para su generalización como principio fundamental de la naturaleza, dichas predicciones — además de contar con un amplio fundamento teórico que las vincule y enlace— deben ser verificadas empíricamente mediante procedimientos experimentales tan semejantes como sea posible a los que fueron sometidos los eventos que sustentan la ley con la que se pretenden unificar. Sin embargo, aquellos sistemas en que la Termodinámica clásica ha limitado sus observaciones a muestreos temporalmente poco significativos, exhiben generalmente un aumento de la entropía; no obstante, las observaciones de corto plazo no proporcionan la información suficiente para su generalización a todos los sistemas de la naturaleza como una ley causal, puesto que su conducta a largo plazo es indeterminada y solopuededescribirsemediantetendenciasprobabilísticasynopor aparentescertezas, designios o predestinaciones, por lo que no existen razones objetivas para que sea determinista. En verdad, la disminución de la entropía de un sistema físico no es un imposible, puesto que ocurre frecuentemente en la naturaleza aunque con menor probabilidad que aquellos en que esta aumenta, por lo que las conjeturas deterministas de la termodinámica clásica no son suficientes para afirmar que los procesos físicos son siempre reversibles, para objetar la existencia de procesos constructivos e irreversibles en la naturaleza y menos aún para convertir a la entropía en un principio cosmológico que declara la muerte térmica del universo. No obstante que la extrapolación de una ley de la naturaleza más allá de la escala que ha sido definida nos aproxima a la solución de los conflictos ontológicos que estas presentan ante la incuestionable coherencia de la naturaleza, la relación entre las escalas micro y macro en que se definen ambas ciencias —o dicho en otras palabras— entre la
  • 3. dinámica incertidumbre de las partículas microscópicas y la estabilidad y certidumbre de la organización material resultante no es del todo evidente, pues —como lo expresara Einstein— “el mundo que perciben nuestros sentidos es solo una construcción subjetiva de nuestra mente, cuya aparente coherencia es fruto de nuestra imaginación” y aunque se relaciona con los fenómenos del mundo físico a través de los sentidos, carece de vínculos materiales objetivos que permitan su verificación con métodos experimentales, puesto que solo percibimos sus efectos en nuestros sensores biológicos y estos son relativizados por un sistema conceptual causal, condicionado tanto cultural como evolutivamente por la frecuente regularidad de la naturaleza y aunque sus significados son instintivamente coherentes, no cuentan con fundamentos experimentales verificables para su generalización como leyes de la naturaleza, por lo que la interpretación subjetiva de la realidad ha constituido por siglos el único sustento argumental de un determinismo que no se ha complicado en comprobar si los fenómenos del mundo físico acontecen realmente como los definen, al no hacerse la necesaria pregunta si la aparente coherencia inducida por los sentidos puede ser demostrada mediante su verificación en los observables de la naturaleza durante un período de tiempo significativo para pretender que dichas proposiciones tengan algún valor como leyes del universo. Por tales razones, existen profundas diferencias ontológicas entre dos teorías con bases enteramente divergentes que no hacen posible la deducción de una a partir de la otra, por loque su vinculaciónplantea unconflictoinsolubledesdesus propiostérminos,pues mientras la mecánica cuántica es el resultado de más de un siglo de investigación científica validada experimentalmente,cuya aplicaciónesla basede importantesavances en la ciencia, la economía y la sociedad contemporánea, el determinismo es una ideología basada en la subjetividad de nuestra mente que no es demostrable por métodos experimentales y pese a que nuestro cerebro funciona con leyes cuánticas, no puede deducir instintivamente la aleatoriedad e incertidumbre del mundo microscópico, porquenuestros sentidos —adaptadosporla evolucióna la casi generalizada coherencia y certidumbre del mundo macro, no logran percibir como eventualmente acontecen los procesos transitivos de la naturaleza y menos aún integrarlos a una representación intrínsecamente estadística de la realidad. A pesar del desarrollo de la Teoría de la Evolución de Charles Darwin en 1869, la mayoría de las teorías científicas mantuvo un progreso determinista unidireccional que perduró hasta bien entrado el siglo XX influyendo tanto las concepciones de la filosofía comode la ciencia occidental y pese a la interpretación estadística del universo desarrollada por la mecánica cuántica a inicios del siglo anterior, la visión determinista de Newton y Einstein es aún en círculos del saber formal una interpretación valida de la realidad. Sin embargo,desdelospionerosesfuerzosdeDarwin,la cultura occidental va asumiendo progresivamente que tanto el creacionismoreligioso como el determinismonewtoniano carecen de todo fundamento científico puesto que desde sus inicios, el universo entero está en incesante evolución, por lo que en aras de los dogmas de una creencia o una religión, no es posible oponerse tanto a la incertidumbre estructural del mundo
  • 4. microscópicocomoa la crecientecomplejidaddel universoentodas lasdimensionesque lo observemos, de modo que el verdadero conflictono está en la coherencia del mundo físico, en las interminables críticas de Einstein a la mecánica cuántica o en las francas invectivas de las cofradías deterministas en la universidad que el doctor Prigogine dedicó toda su vida, sino en el carácter idealista de las conjeturas y creencias con que por casi dos siglos se ha interpretado la realidad. Estas aseveraciones exigen el esclarecimiento de una serie supuestos más aparentes que reales en torno a la coherencia de las ecuaciones de la mecánica en las distintas representaciones el mundo físico, de modo que expresen conceptos evolutivos unificados en todas las escalas en que se describen y de existir alguna condición apriorística que pudiera condicionarla, será su indeterminación e incertidumbre intrínseca y no una conjetura determinista, puesto que los procesos transitivos de la materia-energía solo pueden ser descritos por leyes estadísticas que actúan en una dimensión espacio–temporal unitaria, estableciendoel curso irreversible de los procesos evolutivos de la naturaleza en todos los niveles que interaccionan. ……………………………… Prigogine afirma que “la incertidumbre de los sistemas alejados del equilibriodebe ser comprendida como una potencialidad objetiva de la materia macroscópica que le imprime un carácter irreversible a los procesos del mundo físico, permitiendo la extensión de la incertidumbre del mundo cuántico a todas las escalas en que representemos la realidad”. Esto hace necesario interpretar la irreversibilidad de las fluctuaciones estadísticas de la materia y la energía como una propiedad objetiva del mundo físico en todas sus escalas, conformando un puente de unión entre el mundo micro y macroscópico“puesto que el flujo de variables a nivel microscópicoconducirá a correlacionesdelargoalcancea nivel macroscópico,aunque las fuerzasintermoleculares sean de corto alcance"(Ilya Prigogine, 1996, p.139. De este modo, el paso de la incertidumbre del mundo cuántico a la coherencia observablea escala macroscópica esun procesodiscontinuo que, al cuestionarla validez del determinismo en los sistemas de la naturaleza, permite articular las leyes del comportamiento de la materia en todas sus escalas. Esta visión integradora de dos teorías hasta ahora contrapuestas, ha permitido explicar con las leyes de la ciencia cómo ocurre la transición desde el comportamiento aleatorioy estadísticodel mundo cuántico a la certidumbre y coherencia, pero también a las crisis, las bifurcaciones, los accidentes, mutaciones y resonancias que hacen posible la evolución del mundo macroscópico — incluyendo las estructuras autopoyéticas capaces de auto-replicarse— y pese a las conflictos de visualización que se oponen a nuestra representación intuitiva, sus conceptos unificadores permiten un punto de vista objetivo y dinámico que logra esclarecer los mecanismos de síntesis de las estructuras termodinámicas que sustentan la vida, eliminandolas tergiversaciones creacionistas, al situar su emergencia y evolución dentro de estrictos criterios teóricos establecidos por las leyes de la física, lo que constituye uno de los mayores aportes de la biología molecular a la ciencia y la cultura occidental.
  • 5. Estos conceptos abren nuevos caminos para una comprensión profunda de lo que realmente acontece en los procesos transitivos de la naturaleza que, en acuerdo y no en oposición al Segundo principio de la Termodinámica, la entropía reciclará todas aquellas opciones estadísticamente posibles que surgen de la aleatoriedad del mundo cuántico que no representen mejoras en el empleo de la materia y la energía en su medio, permitiendo seleccionar las organizaciones más eficientes que emergen entre los eventos azarosos y hasta accidentales del mundo microscópico en todo el universo. Lo anterior, pone en evidencia que los procesos evolutivos de la naturaleza se originan a partir de las estructuras existentes por presentar mejoras en su nivel de eficiencia termodinámica, en que la incertidumbre y el azar del mundo cuántico pondrán a prueba las distintas disposiciones materiales y energéticas posibles en un entorno adverso y limitado, cuyas presiones entrópicas obligan a hacer un uso cada vez más eficiente de los recursos materiales y energéticos disponibles. El futuro así descrito es una compleja muestra de determinismo, probabilidades y azar; un campo de influencias mutuas que —sustentadasen la inestabilidaddela materia microscópicayen laspresionesentrópicas del medio— se reconstruyen los diversos parámetros espacio-temporales y energéticos de los sistemas físicos, determinando a partir de lo existente tanto la evolución de las estructuras de la naturaleza como los procesos de equilibrio dinámico que la caracterizan. Desde hace un siglo de su formulación por Max Planck y pese a décadas de dura oposición de muchos científicos —incluso el mismo Einstein, uno de sus iniciadores— la visión del mundo propuesta por la mecánica cuántica ha sido enteramente coherente para interpretar y operar en el mundo microscópico, de modo que obligadamente deberemos superar la ontología del siglo XVII con un conocimiento determinado por exactasleyesmatemáticas,para asumirquela incertidumbreintrínseca delasleyesfísicas pone un límite infranqueablea lo que se puede predecir, demostrando que el Universo real no funciona con la filosofía determinista newtoniana, puesto que las probabilidades y el azar tienen un papel central hasta en la configuración más íntima de la naturaleza. Esto excluye el binomio causa-efecto para explicar el porqué de las cosas, descartando definitivamenteel pensamientoidealista enlasciencias.Noobstante,aunque el principio de incertidumbre nos confronta con los límites evolutivos de nuestro intelecto a la hora de comprender la realidad, siendo un principio con implicaciones revolucionarias en teoría del conocimiento, fuera (y dentro) del ámbitocientífico es un gran desconocido y aunque va en contra de nuestro sentido común, sin él nuestro universo sería completamente diferente e incluso no sería. Sin embargo, aunque esta es la teoría de mayor confirmación experimental de la historia de la ciencia, que ha trascendido a toda la sociedad generandola mayor revolución tecnológica de la humanidaddesde la época neolítica, siendo hoy el sector más importante de la economía mundial, está aún pendiente una gran revolución ontológica en el pensamiento occidental, pues seguimos representando al mundo y la sociedad con principios deterministas. Esto no debe extrañarnos, pues para muchos creyentes (y también para algunos herejes), la evolución del universo y de la vida son solo “las teorías del señor Darwin”.
  • 6. De este modo, la incertidumbre intrínseca de la materia expresada por la mecánica cuántica y el comportamiento aleatorio de la materia y la energía, permiten tanto la creatividad como la estabilidad y certidumbre que observamos en los procesos del mundo macroscópico, generando nuevas posibilidades que están ausentes en la física clásica, pero muy presentes en el mundo real “y aunque los cambios cualitativos constituyen eventos ocasionales—siendola estabilidadel acontecimientomásfrecuente en la naturaleza— es la raíz misma del edificio de la evolución al seleccionar las mejores opciones entre los elementos azarosos y hasta accidentales que eventualmente ocurren en el mundo físico, permitiendo la progresiva evolución hacia estados de mayor eficiencia de los recursos disponibles, la aparición de nuevos principios de la naturaleza a medida que se incrementa su complejidad y la progresiva evolución de sus entes y su sobrevivencia en ese inédito e irreversible espacio–tiempo en permanente cambio que denominamos futuro”. De este modo, el tiempo inserto en nuestro lenguaje, infinitivo, gerundio y participio describentres fasesde una única realidad transitiva enqueel espacio-tiempoyla energía se relacionan en el mundo físico determinando tres dominios relativos diferenciados: pasado presente y futuro. Sin embargo, esta división temporal es engañosa, pues estos tres intervalos nos hacen recorrer la línea del tiempoen dos direcciones opuestas que se emplazan en un espacio-tiempo virtual que tiene dos caras, de modo que bien el tiempo es un presente continuo intemporal o bien un movimiento y que —para no confundimos— llamamos espacio al primero y tiempo al segundo. Esas tres formas de interpretar un movimiento relativo corresponden a una aparente expresión espacial y temporal de la materia y energía, unificadas por Einstein en el principio de equivalencia E=mc2; dicha realidad puede plasmarse en un intervalo material o energéticopuro o en ambos combinados, siendo el movimiento relativode la materia loque induce en nuestra mente la idea de un tiempo subjetivocomopercepción de un movimiento que avanza hacia el futuro. Sin embargo, el tiempo presente de un sistema es un punto en movimiento relativo que no tiene una dimensión temporal absoluta, aunque es lo único cuantificable en cada sistema de referencia y lo que va quedando en el pasado—aunque tiene una percepción subjetiva grabada en nuestra memoria— tiene también una realidad espacio-temporal objetiva en un sistema, en que existen cambios físicos y transcursos de tiempo medibles en ese sistema de referencia; por el contrario, el futuro solo está en nuestra imaginación y no tiene una realidad objetiva pues son procesos psíquicos que bien pueden llamarse deseos o esperanzas, puesto que el pensamiento puro sin materia no puede ser acción y no es un proceso real. Deeste modo,loque denominamospresentees un conceptoopuestoal deausente que no se refiere al tiempo sino al espacio, por lo que no es una magnitud temporalmente real pues es un punto adimensional en movimiento relativo y si bien está sujeto a la irreversibledirecciónpasado-futuro,soloestableceunpunto de inflexiónintemporalque pertenece a ambos dominios, constituyendo el vínculo espacio-temporal móvil que los enlaza, cuya velocidadrelativa es el tiempode desplazamiento entre el antecedente y su
  • 7. consecuente y —como lo demostró Einstein— depende de nuestra propia velocidad relativa a nuestra vecindad y es loque subjetivamente percibimoscomounintervaloque, al entrar en convergencia con nuestros procesos sensoriales y emocionales, nos permite interactuarcon el cambianteescenariodel universo material condiferentesaccionesque lo modifiquen, generando una nueva realidad virtual que, aunque su existencia real irá quedandoprogresivamenteenel pasado,nosotrosdenominarfuturo, de modoque este es realmente un cambio en la dirección del pasado y no posee una continuidad material objetiva más allá del presente sino tras él. Así, podemos afirmar que vivimos en un presente dinámico que enlaza el pasado con un futuro en que el tiempo forma parte de un todo indivisible con la materia y la energía, conformando una estructura espacio- temporal energética abierta, funcional y evolutiva, que al hacer una utilización cada vez más eficiente de los recursos del medio, determina progresiva e irreversiblemente el mejor de los mundos posibles. Los aportes de Ludwig Boltzmann a la ciencia contemporánea. En la física predominó por siglos el interés y la predilección por la regularidad y certidumbre de los procesos de la naturaleza, resultantes en gran medida de la idealización de sistemas que se encuentran cercanos al equilibrio; sin embargo, en 1877,
  • 8. el físicoaustríacoLudwigBoltzmann,al estudiarla cinética delos gases anteincrementos de temperatura, advirtió la necesidad de la existencia real de los átomos enunciada por John Dalton entre 1803, con la consecuente discontinuidad de la materia y la energía que esto implica; estas trascendentes ideas, anticipan en 25 años el concepto de discontinuidad que posteriormente desarrollan Planck y Einstein, por lo que sus ideas constituyen un aporte fundacional a las premisas científicas del siglo XX, especialmente a la mecánica cuántica. En la conferencia Halle en 1891, ante los intentos de Ostwald y del mismo Planck por convencerlo de la superioridad de los métodos termodinámicos clásicos sobre los atomistas, Boltzmann replicó: "No veo ninguna razón por la que (además de la materia) la energía no deba ser también considerada dividida atómicamente. Planck hizo uso de esas innovadoras ideas al estudiar el problema de la radiación de cuerpo negro en 1900 y no tuvo más remedio que utilizar sus métodos estadísticos para resolversus ecuaciones,porloque es improcedentequesele atribuyana Planck las ideas fundacionales de la mecánica cuántica. Con posterioridad, los conceptos de Boltzmann fueron también adoptados por Einstein, quien además de asumir la discontinuidadfísica de la materia y la energía de la propuesta atomística de Boltzmann, demostró que tras la interpretación puramente matemática de la radiación expresada por Planck, se escondía tambiénel ente físicointuidoporBoltzmannen1891 —una partícula quedenominó“das Lichtquant”oquantum deluz—,posteriormentedenominada fotónporel físicoGilbert N. Lewis en 1926, que convencionalmente se representa con el símbolo ɣ (gamma) o bien hv, donde h es la constante de Planck y v la velocidad de la luz. Más allá de la importancia y trascendencia de las contribuciones de Boltzmann a la ciencia y la filosofía contemporáneas y pese a ser fuertemente rechazadas por los científicos de su tiempo, desde el inicio del siglo XX se convirtieron en una fuente de inspiración de gran transcendencia en el desarrollo de una nueva física que — cuestionando como Maxwell las rígidas estructuras epistemológicas deterministas— permitía una explicación objetiva de los fenómenos que se estaban descubriendo que, al introducir una nueva teoría del conocimiento que,superando los paradigmasclásicos de Newton y Descartes, permitió explicar la nueva realidad en términos probabilísticos, iniciando un definitivo y transcendental cisma con el pensamiento determinista del siglo 19. En la termodinámica del sigloXVIII hasta los trabajos de Maxwell, la energía térmica era considerada un continuo, de modo que el calor era descrito como un fluido continuo de energía que actuaba sobre la materia regido por los principios de la mecánica clásica. En la década de 1850, Rudolf Clausius relacionó la energía potencial del vapor para generar trabajo con la idea de un desorden termodinámico, caracterizado por el movimiento rápidoy desordenadodepartículas,demodoquela presióndeun gas se debeal choque con las paredes del medio, acuñando el término "entropía” para designar la cantidad de energía perdida en un sistema térmico para obtener potencia mecánica; en base a esta idea, analizando la cinética de los gases y admitiendo la existencia de átomos en la composición de la materia, Boltzmann establecióen 1877 que “la temperatura y energía
  • 9. cinética de los diferentes átomos que componen un gas no poseen un estado de equilibrio, pues el desorden es el estado más probable de la materia, de modo que un macro-estado termodinámico solo puede ser definido estadísticamente y los diferentes micro-estados no tienen por qué coincidir con el promedio de dicha propiedad en el sistema”, de modo que existe una dispersión o discontinuidad estadística en la energía térmica o entropía que un sistema contiene. La idea de una discontinuidad en la materia en las postrimerías del siglo 19 mediante una teoría que en sus inicios no contaba con una base experimental y se anticipó en 25 años al quantum de Planck, no convencía a sus contemporáneos, quienes rechazaban la idea de que una ley de la naturaleza no fuera continua y tuviera un carácter estadístico, de modo que fue considerada solo “una atrevida conjetura filosófica” en la comunidad científica desu tiempo dominada porla tradicióndeterminista;no obstante,la “audacia” de Boltzmann permitió explicar cómo las propiedades microscópicas tales como masa, carga, estructura y energía determinan las propiedades macroscópicas comoviscosidad, conductividad térmica, difusión o temperatura y que las propiedades de la materia expresadas en el Segundo principio de la Termodinámica son un promedio estadístico de los micro-estados termodinámicos probables y no describen un estado de equilibrio, pues los axiomas de la entropía afirman que el desorden es el estado más probable de la materia, de modo que un macro-estado termodinámico necesariamente debe ser descrito en forma estadística pues sus diferentesvaloresno tienen por qué coincidircon el promedio de dicha propiedad en el sistema, de modo que el valor de la función de energía de un sistema a una temperatura dada es la sumatoria escalar de estados que tienen un valor de energía significativo. Basándose en estas ideas centrales que hoy son aceptadas universalmente, Boltzmann logró explicar el comportamiento cinético de los gases mediante una genial interpretación estadística del Segundo principio de la Termodinámica, permitiendopor primera vez unir los irreconciliables mundos macro y microscópico, plasmando la relación entre entropía y probabilidades en su célebre ecuación: S = k logW donde k es la constante de Boltzmann y logW es el logaritmo natural de Wahrscheinlichkeit, que en alemán significa la probabilidad de ocurrencia de un macro- estado, o dicho en términos matemáticos, la función de probabilidad de cada uno de los estados posibles de los observables de un sistema, de modo que a diferencia del concepto de Clausius, la expresión de Boltzmann desarrollada en 1872 (denominado teorema H o hipótesis del caos molecular) permite definir la entropía como el valor de una función de estado y no como pérdidas de un sistema. Sin embargo, la discontinuidad de la materia no era desconocida en ese tiempo y ya rondaba en la mente de los fiscos de vanguardia, pues el saber formal presentaba ciertas anomalías que las nuevas ideas científicas intentaban resolver. Desde que Heinrich Hertz demostrara la existencia de ondas eléctricas en 1888, algunos científicos pensaron que
  • 10. tanto la luz visible como la radiación térmica se propagaba mediante los campos ondulatorios descritos por las ecuaciones de Maxwell, siendo Boltzmann uno de los primeros científicos en reconocer la importancia de la teoría electromagnética. En 1884 aplicóesas ideasa la radiacióndecuerponegro y aunque su objetivoera demostrarque la presión de radiación descrita en su teoría eliminaría el conflicto de infinitud matemática que presentaban las ecuaciones de la termodinámica clásica, sus esfuerzos lo condujeron a una nueva teoría de la radiación que rompe definitivamente con la continuidad de la termodinámica clásica para iniciar una representación discontinua y estadística de la naturaleza, liberando las leyes fundamentales de la energía del paradigma determinista y abriendo el camino para el posterior desarrollo dela mecánica cuántica de Planck, Einstein y Bohr, así como la termodinámica del no equilibrio de Prigogine un siglo después. Aunque una informalidad atávica que repentinamente alternaba periodos de expansión y un irreverente sentido del humor con otros de introversión y decaimiento contribuyó al rechazo de sus ideas científicas, paradojalmente hizo que fuera un profesor empático y querido por sus discípulos; su entusiasmo y claridad en sus conferencias sobre filosofía de las ciencias despertaban tanto interés que incluso el emperador Francisco José lo invitó a la corte Austro-Húngara para que expusiera sus innovadoras concepciones filosóficas, cuyas ideas precedieron a filósofos posteriores como Karl Popper y Thomas Kuhn. No obstante, los fervorosos esfuerzos que realizó en sus años finales en defensa de sus revolucionarios conceptos atomísticos y de sus desarrollos tanto en termodinámica como en las demás ramas de la física y la epistemología, estas no tuvieron la trascendencia que esperaba en la comunidad científica de su tiempo e incluso hubo encarnizados detractores en la universidad de Viena como Ernst March y Wilhelm Ostwald, que negaron la existencia real del átomo y su papel fundamental en la organizacióndel mundofísico,demodoquetantosu mal estadodesaludcomola escasa aceptacióndesus teoríasy su denostaciónpublica contribuyerona producirleuna fuerte depresión que lo llevó al suicidio en 1906; sin embargo, a pocos años de su muerte, una serie de descubrimientos —como el estudio de los coloides de Perrin publicado en 1909— abrieron el camino para la aceptación generalizada de sus teorías en la física contemporánea, siendo hoy ampliamente reconocidos sus trascendentes aportes en la creación de la mecánica estadística, la moderna teoría cinética de los gases, la interpretación estadística del segundo principio de la termodinámica y a su vasta contribución a la ciencia y la filosofía contemporánea, siendo el primer científico en aplicar el concepto de átomo como un entidad que constituye la materia y determina sus propiedades macroscópica, por lo que Boltzmann debe ser considerado junto a Einstein como los verdaderos iniciadores de la mecánica cuántica, puesto que este confirmóen 1905 la existencia real del átomoy la discontinuidaddela energía planteada por Boltzmann, ideas por las que recibió el premio Nobel y que Planck aceptó solo en 1927, pues para él,antes de esa fecha,eran solo arguciasmatemáticasqueno tenían una realidad física.
  • 11. Sin embargo, aunque tanto por sus contribuciones científicas como filosóficas, los aportes de Boltzmann se consideran de incuestionable importancia en el desarrollo de la ciencia del siglo XX, su original contribución a la unificación de los mundos macro y microscópico unido al concepto probabilístico de entropía se ha mantenido en un segundo plano, pese a que —según Prigogine— “constituye la contribución más importante en la ciencia contemporánea para la unificación tanto de las teorías físicas entre sí, como con los principios que gobiernan la evolución del universo y de la vida”. El legado de Boltzmann ha sido destacado por diversos pensadores, entre los que además de Prigogine, se encuentran el físico y filósofo norteamericano Thomas Kuhn y el epistemólogo alemán Ernst Cassirer (1874-1945) quien —prestando gran atención tanto a los aportes matemáticos, como físicos y filosóficos— intentó reinsertar en la ciencia contemporánea sus concepciones unificadoras, exponiendo sus ideas en dos trabajos fundamentales: El problema del conocimiento y La filosofía de las formas simbólicas. No obstante, entre sus contribuciones a la física que tal vez constituya su mayor legado, se encuentra la unificación de los fenómenos de la naturaleza en sus diversas escalas, pues al relacionar la entropía con las energías estadísticamente posibles que pueden contener las partículas de un gas, estableció por primera vez un puente de unión entre los comportamientos micro y macroscópico de los sistemas físicos, representación cuya epistemología subyacente ha permitidodescribir en forma unitaria una serie de campos, como las reacciones nucleares, la evolución de los sistemas químicos y biológicos, los mecanismos neurológicos, etc.; pero la descripción probabilística de la naturaleza tendrá una gran trascendencia en el desarrollodela mecánica cuántica ya partirde lostrabajos de Prigogine, sus intentos unificadores constituye un importante sustento teórico de la unificación de las teorías físicas tras el concepto de entropía en termodinámica estadística. En 1996, Prigogine reivindica las ideas de Boltzmann del carácter probabilístico de la segunda ley de la termodinámica, asignándole un inexplorado carácter constructivo: “la noción de probabilidad introducida por Boltzmann en termodinámica fue un golpe de extraordinaria fecundidad para la ciencia, haciendo de esta verdadera grieta en el carácter determinista de la materia una fuerza de acción que tendrá una trascendencia decisiva en la evolución del universo. Después de siglos, hemos podido comprender comosurge la dinámica enel universo a través de la inestabilidadyel azar;estas rompen la equivalencia entre el nivel individual y estadístico en los procesos de la naturaleza al extremo que las probabilidades cobran una significación fundamental en los procesos evolutivos,no reductiblesa una interpretacióndeignorancia oaproximaciónpueses una propiedad intrínseca dela materia que determina con el tiempo la evolución y el cambio (Ilya Prigogine, 1996 Pag 37-38); es decir, debemos tomar los conceptos probabilísticos de Boltzmanncomocomponentesesencialesdela realidadmaterial entodassus escalas y extraer de esta sus necesarias consecuencias. Como afirma Margenau “si dichas probabilidadessonintrínsecas (en el comportamiento) dela materia,debenformarparte
  • 12. de las teorías, siendo necesario incorpóralas a toda representación objetiva de la realidad. Para muchos científicos, la segunda ley de la termodinámica es una ley de la naturaleza que junto con la entropía constituyen las leyes más importantes que se han formulado en la historia de la humanidad; no obstante, es de notar que –-a partir de las ideas de Boltzmann— se inicia en la física la representación discontinua, estadística y evolutiva de la naturaleza en todas sus escalas, formando las bases materiales del rol creador de orden que Prigogine le asigna a la entropía en la evolución del universo. Los conflictos del determinismo con el mundo cuántico. El pensamiento clásico nos ha legado el saber de un mundo descrito como un conjunto ordenado por principios universales causales y lineales que no se articulan entre sí, cuyo
  • 13. paradigma central es la visión mecanicista de Newton, Descartes y Laplace, que describe un mundo determinado por una inalterable cadena causa-efecto, en que el presente establece enteramente el futuro; en cambio, la mecánica cuántica desarrollada desde inicios del siglo 20 por Planck, Einstein, Bohr, Heisenberg y especialmente en la obra de Erwin Schrödinger What is the life, se afirma que los objetos microscópicos como partículas, átomos y moléculas así como las entidades macroscópicas que estos conforman, presentan una correlación probabilística que constituye parte integral tanto de su compleja organización interna como de su energía, actividad, comunicación y equilibrio dinámico con las demás estructuras de la naturaleza. Esta aseveración —pese a haberse verificado experimentalmente en innumerables ocasiones y corroborado por su masivo empleo en electrónica, en comunicaciones, en computación y en un sinnúmero de aplicaciones en todos los ámbitos de la sociedad— es cuestionada por el pensamiento clásico que, a diferencia de la indeterminación estructural del mundo cuántico, describe un universo continuo, predecible, causal, indiferenteantela energía y sin interacciónentresus partes. Estoestableceuna conjetura axiomática indemostrable que, al no aceptar entre sus leyes las bases estadísticas de la evolución del universo y de la vida, la visión determinista de las teorías newtonianas que se generalizó en la ciencia a partir del siglo 18, es considerada hoy en círculos del saber formal un cuerpo de creencias metafísicas carentes de un real formalismo científicoque las legitime. Aunque no existen investigaciones de importancia científica que contradigan que las partículas microscópicas poseen una indeterminación intrínseca descrita por Heisenberg en el Principio de Incertidumbre de 1925, que limita la posibilidad de conocer sus propiedades dinámicas indexadas como posición, momento angular, velocidad, etc., la causalidadafirma quelossucesos del mundo macroscópicoposeensolucionesanalíticas exactas que, obedeciendo las rígidas reglas de la física clásica, harían posible determinarlos con absoluta precisión. De este modo, las herramientas de la ciencia se utilizan para interpretar a uno u otro mundo, pero no pueden aplicarse a ambos, pues estas son excluyentes y las que funcionan en uno no funcionan en el otro y menos aún en sus interacciones. No obstante, en el universo estadístico e indeterminado que establece la mecánica cuántica, las relaciones de incertidumbre introducen un límite infranqueable a la precisión con que se pueden medir los parámetros indexados de una partícula microscópica, siendo imposible establecer simultáneamente su posición y velocidad con la precisión que queramos y menos aún determinar los parámetros conjugadosdeuna propagaciónondulatoria osusinterferencias,puesdichos fenómenos no tienen cabida en el determinismoaúna nivel macroscópico;porejemplo:unelectrón, junto con su velocidad macroscópica, posee un movimiento ondulatorio adicional que incrementa o disminuye su energía cinética según sus interferencias sean constructivas o destructivas cuando absorbe o emite energía, por lo que no existe una relación determinista exacta que describa el momentum de una partícula subatómica y su velocidad angular.
  • 14. Esto permite afirmar que, al describir los sistemas de la naturaleza en términos clásicos, se hace una aproximación experimentalmente errónea e inadmisible, por lo que, al objetar la validez de las mediciones deterministas en el mundo físico no solo se cuestionan los axiomas de verdad absoluta e irrefutable que sustentan la teoría, sino la validez misma de la física clásica como representación de la naturaleza. Por el contrario, el cálculo probabilístico de la mecánica cuántica es un formalismo de incuestionable objetividad, puesto que expresa estadísticamente la incertidumbre propia del mundo microscópico, siendo posible definir con certeza el grado de precisión (o error matemático) que inevitablemente se origina al medir sus parámetros, determinando el mayor nivel de información posible de obtener en un sistema dinámico; de este modo, las ecuaciones probabilísticas de la mecánica cuántica proporcionan predicciones tan exactas como son posibles en sistemas que por la naturaleza aleatoria e indeterminada de sus parámetros, sería paradójicoque estuvieran regidos por las exactas ordenanzas del determinismo. De este modo, al vincular dos teorías con bases enteramente contrapuestas, resulta inadmisible que sus interacciones sean descritas por leyes físicas discordantes entre sí, en una naturaleza unitaria y coherente, lo que plantea un serio conflicto en las leyes de la física,puestoque necesariamentedebenintervenirprincipiosgeneralesquerelacionen unitariamente tanto la estructura y organización de la materia a nivel micro, como su dinamismoycoherencia a nivel macro.Esta dicotomía exhorta a generalizarlosprincipios fundamentalesdela ciencia contemporánea enuna teoría unificada,demodoqueambas sean de base determinista o bien estadística en todas sus escalas, pero tanto nuestro intelecto como la naturaleza nos indican que en ella no pueden actuar principios fragmentarios y contrapuestos que no se unifiquen entre sí. De este modo, en la búsqueda de un concepto integrador que nos permita validar las conclusiones de la ciencia como principios generales de la naturaleza, deberemos desacoplar la axiomática y utópica validez de los paradigmas deterministas y reemplazarlos con la certidumbre estadística del método experimental. Esto —que es el único modo de hacer ciencia y de validar sus predicciones como fundamento del mundo material— nos lleva a concluir que, de nuestras principales teorías, una de ellas debe ser necesariamente errónea y la otra debe ser necesariamente incompleta. Einstein y otros físicos,en su devota oposicióna la mecánica cuántica.pensabanque, por su incertidumbre estructural y su ontología estadística que objeta al criterio de verdad absoluta de la ciencia clásica, “la teoría cuántica debía ser necesariamente errónea o en el mejor de los casos, necesariamente incompleta porque dios no juega a los dados” y solo constituía una teoría “de paso” como aproximación a una teoría más general exenta de aleatoriedad, que determinaría “que los objetos del mundo macroscópico echan por tierra el principio de incertidumbre” (y acaten las leyes clásicas, demostrando la regularidad, continuidad y causalidad del mundo material en todas sus escalas) lo que “explicaría” por qué en el mundo macroscópico no observamos los efectos cuánticos y por qué este nos parece clásico. No obstante, nunca aceptó que el determinismo —por no tener la verificación experimental necesaria para que las inferencias de nuestra
  • 15. percepción tengan razones objetivas para ser incorporadas como principios generales de la naturaleza— no constituye un criterio de verdad y menos aún absoluta como afirman, por lo que al intentar demostrar que la mecánica cuántica es errónea, no lo hacen desde la ciencia experimental, sino que desde sus utópicas creencias religioso- creacionistas, internándose en un peligroso sendero de confusiones ideológicas que les faculta a objetar tanto la abrumadora información experimental como las cuantiosas aplicaciones de la mecánica cuántica en la sociedad contemporánea, por lo que otorgan sin más trámite un criterio de verdad absoluta a una conjetura indemostrable, indicando que la hipotética decoherencia cuántica de la física clásica explicaría la "natural" coherencia del mundo macroscópico, aunque no haya experimento posible que a largo plazo demuestre la validez de esa hipótesis. Los mecanismos cuánticos que sustentan la vida.
  • 16. En los inicios de la mecánica cuántica hubo fuertes controversias sobre la naturaleza estadística de la teoría, sobre la discontinuidad con que describe el universo, con su abierta incompatibilidad con las predicciones clásicas, así como sus transcendentes implicancias ontológicas de la nueva realidad que esta describe. Se pensó que la teoría funcionaba bien si se circunscribía al mundo de partículas, átomos y moléculas, pero que llegaba a conclusiones absurdas si se intentaba articular con un mundo macroscópico, por lo que muchos pensaron que la incertidumbre cuántica no podía sustentar la estabilidad necesaria para la evolución del universo y de la vida. Sin embargo, la estabilidad y continuidad con que el determinismo caracteriza las estructuras del universo son hoy temas del pasado, pues se tiene la certeza que el universo no es eterno einmutabley que en diferenteslenguajesnosrevela que la energía que activa a una estrella,a un ser vivo y a las diversasrepresentacionesmaterialesenque se manifiesta, se transforma irreversiblemente con el tiempo, de modo que la dinámica del universo real presenta en todas sus estructuras un ciclo temporalmente finito: se originanen la dinámica interaccióndesuscomponentes,crecenhasta alcanzarel máximo de eficiencia de su particular disposición material y energética y luego son recicladas y se transforman en formas más eficientes, o se degradan y liberan su materia y energía a otros procesos. En el caso de los seres vivos, los procesos homeostáticos que mantienen su equilibrio químico y su adaptabilidad al medio externo son el mejor argumento a favor del mundo cuántico, puesto que la dinámica y compleja estabilidad que estos requieren no puede obtenerse del rígido y estático equilibrio del mundo determinista y si bien es claro que nuestros procesos vitales exigen la persistencia y estabilidad de ciertos parámetros básicospara operaren la naturaleza comotemperatura,humedad,presencia deoxígeno, de nutrientes, etc., es indudable que los componentes microscópicos de los seres vivos así como la información y la conciencia necesaria para percibir sus estados corporales y accionar dinámicamente en el medio, funcionan de acuerdo a leyes cuánticas, pues la vida requiere de un constante ajuste de sus parámetros internos y un completo sistema de información, de procesamiento y de acción para contrarrestar las cambiantes, agresivas y hasta catastróficas variables del medio para preservar su identidad o bien para posibilitar la emergencia de propiedades nuevas cuando las existentes no sean suficientes para preservar la vida; esto no sería posible con la rígida estabilidad de la materia que describe el determinismo, puesto que los seres vivos precisan de la variabilidad intrínseca del mundo cuántico para el fino ajuste de los mecanismos autopoyéticos que requieren para preservar permanentemente su equilibrio tanto interno como externo; de modo que tanto para emerger del mundo material como para perdurar, la vida ha requerido tanto de la incertidumbre como de la coherencia estadística del mundo cuántico y son los complejos mecanismos entrópicos que le permitenregularsu actividadyajustar sus procesosinternos a los parámetrosnecesarios para producir y reproducir cada vez más eficientemente la vida, haciendo progresivamente un mejor uso de los recursos disponibles en el medio, lo que, a fin de cuentas —tanto en termodinámica como en geología, cosmología e informática— se denomina evolución.
  • 17. Desdeel punto de vista termodinámico,losseresvivos constituyen sistemasabiertosque intercambian materia, energía e información con su entorno, reduciendo progresivamente la entropía al obtener energía mediante diversos procesos químicos, de modo que un sistema biológico se sustenta tomando energía del ambiente y procesándola a través de su cada vez más eficiente maquinaria fisicoquímica para la produccióndetrabajo,permitiendoquelasdiferentesfuncionescelularesquemantienen su organización interna generen negentropía; de este modo, los sistemas vivos están inmersos en flujos de materia-energía que a partir de mecanismos hereditarios, pueden producir réplicas de sí mismos y (a veces) generar variaciones heredables a futuras generaciones a través de irreversibles cambios del código genético validados por los mecanismos entrópicos de la naturaleza, que se encargará de seleccionar aquellas innovacionesque representenmejorasen el empleodela materia y la energía disponible en su biotopo, o bien le proporcionen ventajas adaptativas que les permitan utilizar nuevos recursos existentes más allá de su hábitat tradicional. De este modo, la inestabilidad estructural de la materia microscópica, junto los mecanismos entrópicos descritos por el segundo principio de la termodinámica, constituyen los estímulos necesarios para crear diferentes estructuras que tras un proceso de selección natural determinado por la eficiencia del medio, validará las opciones más viables para preservar la vida en una naturaleza en permanente cambio, en que la incertidumbre del mundo cuántico proporciona a la materia la facultad de recombinarse a partir tanto de la energía de los campos gravitacional y electromagnéticos del planeta, como de la radiación solar y corpuscular incidente, que permiten a los seres vivos contar con las energías necesarias no solo para su propia existencia, sino que a partir de ella, contar tanto con la estabilidadya lograda en su larga historia evolutiva, como el potencial para multiplicarse y desarrollarse hacia formas superiores, sustentando tanto la preservación como la evolución de una vida que, desde la primera célula eucariota, ha estado expuesta durante miles de millones de años a los profundos cambios que ha experimentado nuestro planeta, siendo evidente que los mecanismos que sustentan la vida logran casi siempre imponer su resilencia ante la agresividad de un medio en que los sobrevivientes introducen sucesivas mejoras en la utilización de la materia y de la energía disponibles. De este modo, hoy sabemos que el origen de la vida fue posible en un medio reductor carente de oxigeno libre, que experimentó progresivos cambios cuantitativos y cualitativos desde la aparición de los primeros compuestos orgánicos auto-replicables (autopoiesis), en una atmósfera en que dominaba el vapor de agua y el monóxido de carbono y es la aparición de cianobacterias y algas marinas —los primeros seres que realizan fotosíntesis en el océano primitivo— lo que adiciona al planeta el oxígeno necesario para iniciar la vida oxidativa, constituyendo el actual hábitat “natural” que ha configurado todos nuestros mecanismos adaptativos posteriores. De este modo, los procesos bióticos no son estáticos e inmutables, pues interactúan con el mundo inorgánico, se auto-regulan y evoluciona simbióticamente ante los cambios del medio. Esto es posible gracias a la dinámica de la materia, de los eventuales aportes
  • 18. del espacio exterior y fundamentalmente de la energía que provee la radiación solar, generando en su interacción con la vida una creciente eficiencia en la utilización de los recursos materiales y energéticos disponibles. Estos procesos son complejos e interactúan en diversos ciclos como el del carbono-oxígeno, del agua atmosférica y de los océanos, etc., pero los constituyentes fundamentales de la materia están subordinados a la incertidumbre del mundo microscópico y de los procesos entrópicos, que en conjunto determinarán la mejor de las opciones de la materia y la energía disponibles. De este modo, al igual que la frecuente pero no irrevocable regularidad del mundo macroscópico,losmecanismosentrópicossonla clavepara comprenderydescribirtanto la existencia misma de la vida como sus complejos mecanismos de adaptación y evolución; esto no habría sido posible sin la existencia de los azarosos procesos del mundo cuántico, que conservando aquellas combinaciones que funcionan adecuadamente, permiten la emergencia de propiedades nuevas o mejoradas cuando estas sean necesarias, las que no son nunca reducibles a las propiedades de sus partes como afirma el determinismo y menos aún nos permite pensar que estaban predestinadas desde el pasado. La incertidumbre y el carácter intrínsecamente estadístico del mundo microscópico ha originado algunos conflictos con las mediciones absolutas que postula el determinismo en los sistemas de la naturaleza que es necesario profundizar, pues constituyen el conflicto fundamental que diferencia ambas teorías. La mecánica cuántica ha demostrado experimentalmente que debido tanto al carácter ondulatorio como a la velocidad y energía de las partículas subatómicas, existe en la naturaleza una imposibilidad estructural que no admite la medición simultánea de los parámetros indexados de sus componentes, que son descritos por una expresión estadística denominada función de onda, que solo permite describir probabilidades y no una “información perfecta” de que los entes de la naturaleza estén en uno u otro lugar en un determinado momento. No obstante, el determinismo no se refiere a esta incertidumbre como una propiedad intrínseca de la materia sino a un error en la medición de los fenómenos físicos, puesto que el azar no podría explicar la evolución de la naturaleza (sino dios), de modo que la indeterminación del mundo cuántico es atribuida al error de una teoría que no representa adecuadamente la realidad. Sin embargo, si lanzo muchos electrones, la función de probabilidad puede predecir con gran certeza la cantidad de partículas que habrá en uno u otro lugar, determinando además el error matemático de esa dispersión, de modo que a nivel de grandes números, las ecuaciones probabilísticas de la mecánica cuántica nos revelan con gran exactitud tanto la incertidumbre como la dinámica del mundo microscópico, de modo que las estadísticas son una herramienta de gran precisión para describir matemáticamente la conducta real de la naturaleza, puesto que la indeterminaciónesuna característica intrínseca dela materia yno un error dela teoría.
  • 19. Para ilustrar lo anterior, examinemos lo que sucede en los casinos de juegos, donde no se sabe quién, cuándo o cuanto apostará y ganará o perderá cada jugador, pero la suma de las utilidades del casino no dependen de quien eventualmente gane o pierda, sino del número depersonas que jueguey con algunas variaciones dela actividadeconómica local —que también son estadísticas— podemos conocer gran certeza cuánto ganará un casino cada día o cada mes, pues las probabilidades de ganar o perder de cada juegoes una función matemático-estadística que favorece al casino en un porcentaje preciso que en la práctica se cumple rigurosamente. En el caso de mediciones nanométricas de elementos metálicos utilizadas en alta ingeniería, sus valores nunca pueden expresarse en forma absoluta, pues dependen de las temperaturas del elemento y de la habitación, de la calibración del instrumento y hasta el error humano al realizar las lecturas, pero si es necesario dar una medida de referencia de gran exactitud, se le debe agregar la temperatura a la que fue tomada, la calibración del instrumento con el que se realiza la medición y el error que este pueda tener y aun así, deberá realizarse varias mediaciones y especificar su valor promedio más-menos un determinado error del proceso global por rigurosa que esta sea, por lo que en ningún caso se puede afirmar que se ha realizado una medición absoluta. De este modo, la naturaleza puede ser descrita con gran precisión por una teoría eminentemente probabilística que, aunque va en contra de nuestra intuición, es de un nivel de precisión que representa rigurosamente la incertidumbre intrínseca de una naturaleza que por el nivel de incertidumbre propio de todo fenómeno ondulatorio, no es explicable por los paradigmas del determinismo, con su visión medioeval, estática y dogmática del universo. Después de un siglo de experimentación y desarrollo de la mecánica cuántica en la ciencia contemporánea y su aplicación generalizada en electrónica, en computación, en lascomunicaciones,lamedicinayentodoslosámbitosde lasociedad,esineludibleaceptarque la materia y la energía siguen inequívocamente reglas probabilísticas, exhibiendo patrones de comportamiento estadísticos coherentes en todas las escalas que las representemos,lo que cuestionalavalidezde determinismo,rompiendodefinitivamente unatradiciónde 15 siglosen la interpretación del mundo de la ciencia clásica. Dr. Héctor BeckerG. 16 de febrerode 2017