SlideShare una empresa de Scribd logo
1 de 55
Modelo standard del Bing Bang y Contexto Social

(1975 -1985)

Pasada la época de las grandes diferencias en torno a las dos escuelas de pensamiento cosmológico;
habiendo ganado la partida - al menos por ahora - la teoría que propugna que el Universo se originó hace 15
mil millones de años (13.7 al final de los noventa) , todos los descubrimientos y las mediciones
astronómicas, así como los avances en la física cuántica comienzan a unirse para ofrecer una interpretación
del nacimiento y evolución del Universo y es notorio el esfuerzo que comienza a tomar forma para tratar de
traspasar el Muro de Plank, buscando explicaciones para el Universo Inicial (modelos del "Very Early
Universe").

Durante estos años el “retrato” se irá modificando en algunas partes: aclarándose muchas pero
complicándose en otras también. En esta labor hay mucha paciencia para tratar tan grave asunto como es
definir el Universo, su nacimiento y evolución. Las explicaciones sobre modelos o variaciones de modelos
que trascienden al lego en la materia, están precedidas de cálculos físico - matemáticos que se alimentan - a
su vez - de datos que sufren modificaciones constantemente conforme avanzan los métodos observacionales
y entran en operación nuevos diseños de artefactos para detectar radiaciones cósmicas (telescopios,
radiotelescopios, aviones especialmente equipados, sondas , naves espaciales y laboratorios orbitales) que
recogen datos sobre el macrocosmos; o procedentes de informaciones de laboratorios terrestres que tratan
del mundo subatómico y sus elusivas partículas elementales.

El debate sobre los modelos del origen del Universo deja como secuela positiva al menos tres aspectos:
a) El nacimiento del interés de parte de la ciencia por descifrar el problema del origen del Universo;
b) la proliferación de propuestas de mecanismos que explican parcialidades del proceso evolutivo que va
desde T=0, (esto es desde el inicio del tiempo); hasta las posibilidades de su desaparición;
c) una mejor comprensión de las fases evolutivas que van desde las radiaciones iniciales hasta la aparición
de planetas con posibilidades de albergar vida (tanto de tipo "inteligente", como más modesta: bacterias ,
virus y otros eventuales organismos extremos , por ejemplo).

En el área de los acontecimientos sociopolíticos la década de los setenta es la “década perdida” ; no así para
la cosmología que lejos de los avatares ideológicos, sigue aumentando el caudal de los conocimientos y en
campos en los que no se pudo avanzar se debió bien a que la construcción de instrumentos de detección y
medición estaban en proceso de construcción, o al temor natural en algunos cosmólogos para arriesgar
teorías, dado el sonado fracaso de parte de los defensores de la Teoría del Estado Estacionario, (con
excepción del inglés Fred Hoyle, quien proseguiría su producción científica).

Como un dato curioso puede resaltarse que a nivel del vulgo -y aún entre personas de alto nivel escolar- se
manejan sin aparentes contradicciones dos conceptos francamente antagónicos : uno, que el Universo es
eterno, otro que el Universo tuvo un comienzo hace unos quince mil millones de años. E igualmente se
manejan indistintamente –y sin contradicciones- la concepción bíblica que da cuenta de la creación del ser
humano con barro terrestre de un soplo divino y la idea simplificada de la evolución darwinista: la que se
refiere a nuestra "descendencia del mono", como si se tratara de una secuencia lineal, en donde solo faltaría
encontrar un eslabón perdido (posiblemente un esqueleto o parte de él) .

En esta época también deben resaltarse dos preocupaciones: una se refiere a la preocupación del rumbo de
los conocimientos científicos y tecnológicos, éstos como un derivado de las ciencias físicas y químicas
aplicadas. La segunda se relaciona con el temor a un holocausto atómico, como consecuencia de la
proliferación y sofisticación de las "armas de defensa" termonucleares y bacteriológicas en poder de las
castas militares de no más de siete países desarrollados y uno que comienza a mostrar sus dientes en este
campo..

Igualmente esta época se caracteriza por el movimiento de una conciencia planetaria incipiente que puede
rastrearse en esfuerzos desperdigados:
a) la eclosión de esfuerzos tendentes a la preservación ecológica y de especies zoológicas en extinción;
b) la eclosión de la idea de un "cambio" cuyo rostro aún no está claro, pero que se evidencia en América
Latina y en los países del Tercer Mundo en dos campos específicos: uno la necesidad de un Nuevo Orden
Económico , y el otro ,la prédica de un Nuevo Orden Informativo. Ambos cambios se ansían tengan un
espectro mundial, y esa es la tónica que unifica la aspiración al reordenamiento político del globo.

Lejos de estos acontecimientos, los años bajo examen permiten dar cuenta de lo que socialmente se detecta
como una reactivación religiosa -que incluye la proliferación y la división del cristianismo en sectas- y que
en el seno de la cristiandad se denomina más propiamente como "avivamiento de la presencia del Espíritu
Santo" y que se visualiza en los medios electrónicos de comunicación bajo la fuerte aparición del "Tele
evangelismo".

La ausencia total de la influencia del cristianismo en la elaboración de modelos cosmológicos que
caracteriza la época (al hacerse bajo estrictos parámetros científicos) deja -sin embargo- un vacío que ya
había advertido intuitivamente Einstein, cuando afirmaba que "la ciencia sin religión era ciega y la religión
sin ciencia era coja" . Por tanto, al igual que en las décadas anteriores en que la ciencia termina sustituyendo
la filosofía, y muy particularmente la metafísica, también la ciencia termina sustituyendo a la religión . La
ausencia del pensamiento religioso en los asuntos que atañen a la creación del Universo y los
acontecimientos relacionados con la creación de los seres vivos ,incluyendo al ser humano ,no deja un vacío,
porque ese espacio comienza a ser llenando por las inquietudes de algunos físicos , con planteos holísticos
,entre ellos los ingleses David Bohmn, Hugh Everett, y el norteamericano Fritjoh Capra , en consuno con
científicos procedentes de otras áreas (particularmente del área de la biología).

Así el nuevo pensamiento resultante servirá para alimentar al surgimiento de una nueva visión planetario-
cósmica denominada "New Age" (Nueva Era) que mezclará con franca liberalidad concepciones científicas
serias con planteos astrológicos y con ideas místicas y religiosas (particularmente provenientes del Budismo
y del Brahmanismo), junto con inquietudes ecológicas y escatológicas y algunas pinceladas de corte
panteísta, en donde el nombre de Theilhard de Chardin sale a relucir ,como si este jesuita –científico hubiese
impulsado una visión neo- panteísta cristiana, lo que constituye una apreciación errónea de sus
planeamientos, pero en el abigarrado folklorismo que caracteriza las ideas de la Nueva Era, este gazapo pasa
totalmente desapercibido.

En este capítulo ,siguiendo la práctica de circunscribirnos a lo que ocurre en el período bajo examen los
temas señalados se tratan en cuatro áreas:
a) La primera se refiere al Estado de situación del Modelo Big Bang, que muestra cómo se elabora un
modelo standard dentro de la cosmología de inicio caliente, a mediados de la década, así como nuevas ideas
que van fijándose en torno a los modelos dentro de la cosmología del B.B. También trata del surgimiento de
concepciones de Escatología Planetaria, ligadas a la eventual desaparición del Universo .
b) La segunda constituye una revisión de los problemas que implica para el destino humano la aparición de
estas ideas
c) La tercera nos lleva a revisar los obstáculos para los cambios en un planeta con graves problemas para
una coexistencia pacífica fundada en la justicia social .
d) La cuarta se refiere a la necesidad del ser humano para que el conocimiento que adquiere sobre el origen
del Universo le sirva además para darle norte y sentido a la vida.

1.- MODELO ESTÁNDARD DE LA CREACIÓN DEL UNIVERSO

Hasta el momento solo hemos revisado ideas acerca de las ideas con las cuales se formulan hipótesis para
armar modelos de universos según las ideas de autores diversos. En esta sección incluiremos un modelo
científico formulado en 1973 por un astrónomo ,lo que nos va a permitir conocer de primera mano la forma
de postular un modelo. Debe si hacerse la advertencia de que el modelo carece de la formulación matemática
para facilitar al lector no familiarizado con este lenguaje la comprensión de cual es la argamasa con la cual
los científicos arman sus modelos cosmológicos.
De la revista Annual Review of Astronomy and Astrophysics ,publicación anual norteamericana sin fines de
lucro, se extrae un ejemplo de la formulación de un modelo teórico estándar que muestra cómo acomete un
cosmólogo, en este caso Edward R. Harrison de la Universidad de Massachusetts (en 1973), el trabajo de
diseñar una explicación satisfactoria a la interpolación de deducciones y observaciones para apuntalar la
hipótesis de un Universo en una gran explosión caliente, que comienza a ganar prestigio y adeptos, así como
a difundirse entre los legos. Se advierte que tanto la traducción como la adaptación ,para ajustarla al modelo
expositivo que hemos venido siguiendo , son responsabilidad del autor.

Introducción.- Gamow y sus colegas Alpher, Follin y Herman plantean desde 1946 - y luego reiteran en
1953 - la idea de un B.B. en que el Universo inicial es denso y caliente; en 1965 Penzias y Wilson y por
separado Dicke y otros dan a conocer el descubrimiento de una radiación de fondo de 2.7° grados Kelvin (en
la literatura cosmológica aparece simplificada como 3° K) como remanente de la explosión original
postulada en teoría.

La teoría standard postula que, en los primeros instantes tras la gran explosión se produjo una extensa
aniquilación de materia y antimateria conforme el Universo se iba enfriando, convirtiéndose casi toda la
antimateria -lo mismo que casi toda la materia- en energía. Esto dio origen a un Universo de elevada
entropía, tesis que recibió su espaldarazo experimental en la observación de la radiación de fondo de
microondas a 2,7 grados Kelvin. En este contexto, la alta entropía significa muchos fotones (partículas de
luz por partícula de materia: electrones, protones y neutrones; o, por usar parámetros terrestres y estelares,
una bajísima densidad para cualquier temperatura. En virtud de esa alta entropía, los productos principales
de la nucleosíntesis cosmológica fueron hidrógeno y helio, (combustible de las estrellas, no sus cenizas) y
materia primordial del Universo.

Con el término nucleosíntesis se designan los procesos a través de los cuales los núcleos atómicos se
transforman a escala cósmica. Implica el estudio de los procesos acometidos por la materia primordial en las
concentraciones observados en los objetos celestes (Sistema Solar, estrellas, gas interestelar, rayos
cósmicos). Las abundancias de núcleos observadas representan las cenizas de estadios anteriores de
combustión nuclear. La teoría de la nucleosíntesis cosmológica es de un éxito notable: Explica las
concentraciones del 98 por ciento de la materia observada del Universo; pero sólo desentraña la producción
de cinco núcleos: hidrógeno, deuterio, helio-3, helio-4 y litio.

Se cree que las condiciones iniciales de la nucleosíntesis estelar sea el resultado de la nucleosíntesis
cosmológica: esto es que en las estrellas encontramos las condiciones capaces de suministrar las
abundancias de casi todos los núcleos y que la evolución de las estrellas es la historia de sus transmutaciones
nucleares y los efectos consecuentes en la estructura estelar. Para explicar este proceso, los físicos Suzuki en
1931, Tolman en 1932 y Hawking en 1967 al hacer un rastreo de la historia, distribución y abundancia
relativa de los elementos químicos, plantean un comienzo caliente y denso; pero no todos los cosmólogos
aceptarán esa condición inicial. Aún a mediados de los setenta, hay cosmólogos que abogan por un B.B.
“frío” y no aceptan que la radiación del 2.7°grados Kelvin sea el remanente cósmico de un estallido caliente.

Discusiones Físicas Previas.- El modelo que prepone Harrison parte de estas premisas:
1.- De 1917 hasta el año 1972, el estudio de las condiciones físicas existentes en el inicial (Early Universe)
es objeto de estudios publicados por parte de: Alpher y Herman (1950); Novikow y Zeldovich (1967);
Dautcourt y Wallis (1950); Longair (1971); Sato, Masuda y Takeda (1971), Pebles (1971), Weinberg
(1972)), Alpher, Follin y Herman (1953); Dicke y otros (1965), Harrison (1968), Field (1969), Shatzman
(1969), De Graaf (1970), Zel'dovich (1970), Kunt (1971, Steizman (1971), Patridge (1969), Thadeus (1972),
lo que arroja un total de 18 comunicaciones científicas publicadas en revistas reconocidas por la academia
oficial internacional. (Unión Astronómica Internacional, UIE)
2.- Hasta 1972, el tema del Universo muy inicial (Very Early Universe) es objeto de una sola comunicación
que cumple con los requisitos de aceptación científica y es debido a Zel'dovich y Novikow en 1973
(aspectos generales).
3.- El tema de la Singularidad es objeto de dos comunicaciones científicas debidas a Hawking y Ellis (1968)
y Hawking y Penrose (1970).
4.- Por otra parte, el tema de la barrera de la existencia de partículas elementales en condiciones muy
extremas (Very Early Universe) es objeto de dos comunicaciones debidas a Bahcall y Frautschi (1971) y a
Harrison (1970).
5.- De igual forma el tema de creación de partículas a la densidad crítica de Plank (Muro de Plank) es objeto
de dos trabajos que llenan los requisitos oficiales y son debidos a Parker (1972), Zel'dovich y Starobinsky
(1972).
6.- Para explicar el “Early Universe” caliente hay un modelo standard, no así para el “ Very Early
Universe”, dado que las condiciones de quiebra de las leyes físicas hacen altamente especulativa la
teorización.
Nota: Si un lector curioso desea conocer cuantas son las publicaciones que existen en cualesquiera de los
años del Tercer Milenio va a quedar asombrado: son cientos de miles,lo que da una idea no solo del avance
de la astronomía y la cosmología, sino de la gran cantidad de personas dedicadas a estas disciplinas. En uno
de los anexos al final de este libro se publica una tabla que muestra esos datos.

Cálculos Matemáticos .- En los cálculos utilizados en el Modelo Standard del “Early Universe”, el
procedimiento consiste en hacer un conteo regresivo de la densidad del Universo, que pasa por las siguientes
etapas:
a) Densidad presente del Universo;
b) Etapa del equilibrio térmico;
c) Era de la prevalencia de leptones;
d) Era del desacople de partículas;
e) Era de la radiación (aniquilación de electrón - par);
f) Aparición de la materia

Valores Introducidos .- El modelo sufre variaciones conforme se afinan los valores que sirven para hacer los
cálculos. Además tales cálculos se modifican por los nuevos descubrimientos. El modelo que se examina se
fundamenta en las siguientes ideas complementarias:
a) La edad del Universo se mide siguiendo el método de Hubble (conocido como parámetro de Hubble H)
que determina la distancia de las galaxias que receden, así como su velocidad. Esta ley se expresa así:
Velocidad = Parámetro de Hubble (H) dividido entre la distancia de una galaxia dada. El inverso de la
cantidad así obtenida (I/H) es el Tiempo de Hubble, en que se presume que la luz proveniente de las galaxias
comenzó su viaje hasta nosotros. Se asume que la luz ha viajado a la misma velocidad, pero también (por
algunos) se asume que al aumentar el espacio recorrido por el “estiramiento” de éste, la luz se “enlentece”
en su viaje pero además hay “variaciones de carácter local en las galaxias que modifican la factibilidad de
que la “constante” se asuma como tal. De allí nacen precisamente las discrepancias en lo que corresponde a
la Edad del Universo.
b) Para calcular la distancia de una galaxia se utilizan dos métodos: uno conocido como Escala Larga (LS),
en que se asume un valor de 50 para el parámetro de Hubble; el otro, llamado Escala Corta (SH) en que se
asume un valor de 100 para el Parámetro de Hubble. En cada caso se utilizan diferentes indicadores.
c) Aunque por convencionalismo se ha seguido utilizando el promedio de ambas escalas, en donde (H=75)
para medir la edad del Universo, la nueva tendencia es favorecer la Escala Larga (H=100). La consecuencia
de usar ambas escalas es tener que dar al Universo una edad promedio artificial (15 mil millones de años). Si
se acepta la Escala Corta, éste tendría 20 mil millones de años y con la Escala Larga el Universo quedaría
con una Edad de 10 mil millones de años de edad. Nota: estos valores son válidos para la época bajo
examen, no así en el tercer Milenio, lo que veremos en otros capítulos.

Exactitud de los valores.- Para considerar valores el problema no es de gustos sino de exactitud, (aunque
este concepto debe tomarse como relativo), dados todos los factores que inciden en el largo recorrido de los
rayos luminosos antes de ser detectados y mediados en la Tierra, lo que introduce a dos problemas aún no
resueltos:
1: Los primeros datos para el parámetro de Hubble fueron afectados por el hecho de que los observatorios
estaban - en su inmensa mayoría en el Hemisferio Norte y ahora con mediciones efectuadas en el Hemisferio
Sur, gracias a los nuevos observatorios allí localizados se ha podido balancear la información recogida, dado
que en el Norte el promedio está por debajo del valor real como consecuencia de perturbaciones causadas
por el Supercúmulo local, en razón de que las galaxias cercanas están precisamente en el Hemisferio
Galáctico Norte.
2: Se refiere a la distribución de la materia que puede ser isotrópica (se encuentra -en promedio- distribuida
por igual), o anisotrópica desigualmente en el espacio). El Principio Cosmológico debido a Einstein
introduce la idea de que hay isotropía en el espacio; pero el Principio Cosmológico Perfecto introduce la
idea de que esa isotropía se extiende en el tiempo, (esto es que ha habido igual distribución de materia en el
pasado, en el presente y el futuro) como lo sostiene la teoría de la Creación Continua, aspecto que no se ha
dilucidado aún adecuadamente , y a la fecha hay dos aspectos que deben tomarse como criterios apriorísticos
a saber:
a.- Los telescopios y los dispositivos radioastronómicos que sondean las profundidades del Universo
permiten señalar que los fenómenos observados son prácticamente los mismos (al menos por término
medio), cualesquiera que sea la dirección hacia la que se investiga en el espacio. Incluso los “Quasars”, esas
enormes fuentes de energía localizadas en volúmenes restringidos descubiertos en los últimos años abogan
por una isotropía espacial del Universo, ya que se encuentran en todas las regiones del espacio; pero aún hay
dudas razonables acerca de si esa distribución es también isotrópica en el tiempo. Nota: Para el tercer
milenio este criterio ha variado ostensiblemente, porque hay regiones del espacio vacías y otras con gran
densidad de materia. Sin embargo el concepto “vacías” es de materia visible,porque hay otra materia no
conocida en la época bajo estudio: la materia negra que se desconoce exactamente que es.
b.- La expansión ha puesto los cúmulos de galaxias aparte, por dentro de los cúmulos las galaxias
permanecen juntas e intercambian discretamente masa lo que produce cambios en la curvatura del Universo,
lo que ha obligado a los cosmologistas a utilizar un modelo tomado de la hidrodinámica, con las masas de
las galaxias interactuando suavemente. Nota: en los cálculos en el tercer Milenio s utiliza no solo el modelo
tomado de la hidrodinámica, sino muchos otros.

El modelo requiere establecer tan solo dos ecuaciones. Estas tienen a su vez seis elementos cuyos valores no
son conocidos del todo aún y se clasifican en variables y constantes:

1) Valores variables: Son tres:
a) La densidad media de la materia y de la energía (que se ha modificado en el proceso evolutivo universal);
b) La presión (que ha ido disminuyendo con el tiempo);
c) La escala (que es proporcional al radio del Universo - R - el cual, a su vez, es variable en distintas épocas
(que tiene el problema señalado anteriormente).

2) Valores Constantes: Hay dos valores constantes que son la curvatura del espacio y la Constante
Cosmológica. A su vez, se debe agregar la Constante de Hubble; que ha sufrido muchas modificaciones
conforme se afinan los métodos observacionales (la Constante de Hubble introduce el factor de variación en
la distancia debido a la expansión, y se mide en kilómetros por segundo por kiloparsec).
Nota: un parsec es la medida de la distancia entre dos objetos astronómicos ubicados a una distancia de una
unidad astronómica. La unidad astronómica es la distancia a la cual que se observa (subtiende) un objeto
medido desde la Tierra distante un arco de segundo. El parsec (3,0857 × 1016 m.) equivale a 30.842.208
millones de kilómetros. El kiloparsec es esa misma unidad multiplicada por 1.000.

Discusión sobre la Constante de Hubble.- El recíproco de la constante de Hubble da la dimensión del tiempo
y mide la edad del Universo en un sitio dado, pero tiene como factor distorsionante la disminución de la
velocidad de la recesión, debida a su vez, a la disminución de la velocidad de expansión del Universo. Hoy
día la presión es despreciable pero en el Universo inicial fue significativa y si el presente estado de
expansión es seguido por uno de contracción, la presión aumentará.
Necesariamente la constante de la curvatura tiene el valor de (+1) para la curvatura positiva (+); o para
curvatura (0) y ( - 1) para curvatura negativa ( - ).
Nota: La constante cosmológica no aparece en las ecuaciones de Einstein en 1915 pero es incorporada en
1917, con el inconveniente de introducir una fuerza de atracción si la curvatura es negativa o repulsiva si es
positiva. En 1929, Hubble anuncia la expansión y postula la constante para demostrar que el Universo tenía
una edad mayor que la de la Tierra; pero en 1950 se elimina la utilización de ésta constante cuando apareció
la nueva escala de distancias de las galaxias debida a los trabajos de los astrónomos norteamericanos Baade
y Sandage.

En razón de que la teoría evolucionista postula que el factor R (Radio del Universo) cambia con el tiempo
debido a la expansión, permite estipular dos clases de soluciones posibles, que pueden ser:
a) Comienzo del Universo con el B.B. y con la escala en el pasado en factor 0
b) Comienzo del Universo con B.B. pero el Universo comienza con un tamaño determinado, a escala en
factor 1, 2, 3, etc.
Precisamente la primera clase de soluciones es la que más trabajan los cosmologistas evolucionistas. El
segundo grupo no se considera interesante - por estas fechas porque requiere suponer condiciones especiales
para explicar el inicio del comienzo del Universo, (Very Early Universe) la radiación de fondo, la formación
de galaxias y la distribución de los Quasars)
Nota: Recuérdese que este modelo bajo examen es un modelo de Early Universo (Universo temprano) ,no de
Very Early Universe (Universo muy temprano o Universo Transpliankiano) lo que comienza a trabajarse
mucho tiempo después, porque supone la ruptura del Muro de Plank,asi como cifras especulativos.

Tres Posibles Universos.- En las cosmologías Standard del B.B. (preferidas por la ciencia convencional -
como es el caso de este modelo - ) hay, a su vez, tres posibilidades para predecir el desarrollo y el futuro del
Universo según sean los valores que se asigne a la constante cosmológica. Esta cifra se conoce como Valor
Critico .
Valor Crítico: Conlleva por sí mismo, estas consecuencias: Si la constante es negativa ( - ) hay una fuerza
adicional que desacelera la expansión y si es positiva (+) y si es menor que el valor crítico, la repulsión
resiste la desaceleración creada por la gravedad.
El Valor Crítico originalmente sugerido por Einstein en su modelo de Universo es justamente uno que haga
un balance entre la atracción gravitatoria cuando las galaxias están en sus respectivas distancias (en el caso
del Universo estático). Por lo tanto el Valor Crítico determina tres posibles Universos:
Universo X: Un Universo oscilante que comienza a expandirse rápidamente al tiempo cero, pero luego la
expansión retarda, detiene y reversa el proceso. El Universo va hacia atrás hacia el estado en el cual
originalmente explotó. Una causa de la desaceleración sería la atracción mutua gravitacional de la materia en
el Universo. Pero ésta es únicamente una causa, si la constante cosmológica es cero (0). Sin embargo, si la
constante es negativa ( - ) hay una fuerza adicional que desacelera la expansión y si es positiva (+) y si es
menor que el valor crítico, la repulsión resiste la desaceleración creada por la gravedad.
Universo Y. Si la constante cosmológica es cero (0) y la atracción gravitacional continua para reducir la
cantidad de expansión pero no es suficientemente fuerte para rebasarla, el Universo se expandirá para
siempre, pero a una tasa constante.
Universo Z. Si la constante cosmológica es positiva (+) y mayor que el valor crítico, la expansión se
acelerará y el Universo se expandirá para siempre.

Constantes Universales.- La posibilidad matemática que permite postular un Universo que termina
contrayéndose, se estabiliza o se expande, depende -intrínsecamente- del Valor de las Constantes
Universales.
Estas son la velocidad de la luz [c] y la Constante de Gravitación [G]. Si las futuras investigaciones varían
estas constantes, será necesario un replanteo total del conocimiento del Universo.

Por el momento se asume, sin discusiones el valor de "c" como si fueran 300.000 Km. por segundo (dato
aproximado) Respecto al valor de "q" está determinado por la densidad media Universal. Los cálculos deben
tomar en cuenta, lógicamente que: si la constante cosmológica es cero (0) el Universo es cerrado y oscilante;
si el Universo es abierto y se expande para siempre ello dependerá de si la Densidad Media Universal de la
materia excede el valor crítico (que es una función de la presente modalidad de expansión (Constante de
Hubble).

En 1932, Hubble reportó que esta Constante era de 530 kilómetros por segundo por megaparsec pero
algunos años después los astrónomos han ido sucesivamente bajando este valor. ¿Qué significa esta
observación comparada con la densidad media de la materia en el Universo?. Una manera de estimarlo es
comparando la cantidad de luz recibida de todas las galaxias en el volumen determinado de espacio con el
promedio de relación de la masa con la luminosidad (determinado de las observaciones de las galaxias
individuales). Este promedio da alrededor de 12% de la densidad crítica.
Si por el contrario se tiene una relación masa - luz (suponiendo que las galaxias contengan suficiente masa
para mantener los supercúmulos de galaxias sin desintegrarse), la densidad observada aumenta el 25 % del
valor crítico. El factor que resta entre estas cantidades estimadas sugiere que la presencia de materia que no
es visible en el presente es la formada de estrellas muy débiles, de agujeros negros, de gas de halos en las
galaxias, y por el plasma en el espacio intergaláctico. Esta situación se conoce como "déficit de masa". Nota:
En la actualidad el déficit de masa se atribuye a la presencia de “materia negra“, detalle que se verá en otros
capítulos.

Déficit de Masa.- Para explicar el problema de “déficit de masa” que juega un papel muy importante en los
cálculos en los cúmulos de galaxias se cuenta básicamente con tres opciones científicas. Estas son, según el
estado actual de conocimientos astrofísicos:
a) El cúmulo está en explosión, no ligado gravitacionalmente,
b) Es además de la masa de las galaxias un sustrato de masa en el cúmulo no observable directamente, y
c) Las galaxias del cúmulo tienen masas mucho mayores de lo que hasta ahora se ha pensado,
(probablemente en forma de halos masivos de estrellas poco luminosas o de neutrinos).

De hecho, se ha encontrado que el problema de la “masa faltante” existe en casi todos los grupos y cúmulos
de galaxias, y que la magnitud del déficit crece al crecer el tamaño del cúmulo. El problema de la
determinación de la masa de las galaxias y, más aún, el de la determinación de la masa de los cúmulos
gigantes de las galaxias y de los supercúmulos de galaxias, tiene un efecto considerable sobre el problema
del destino del Universo. Es necesario estimar que el resto de la “masa perdida” requiere que la diferencia
sea el gas caliente intergaláctico que al parecer algunos astrónomos consideran es la fuente de radiación
aceptada como fondo isotrópico en el Universo.
Ecuaciones.- En anexo al final de la obra se presenta una versión muy condensada de cuáles son las
operaciones matemáticas que permiten combinar todos los factores mencionados

Conclusiones.- Para sacar conclusiones con base en este modelo es útil conocer otros valores reportados a
finales de la década de los setenta que permiten conocer cómo varían los valores con los que trabajan los
cosmólogos para predecir el origen y el destino del Universo. Nota: a modo de ejemplo, pueden considerarse
estos datos empíricos,advirtiendo que obviamente se dan cambios de manera constante:
1978: El Universo se ha reconocido como “más antiguo” y de mayor dimensión por los trabajos del
astrónomo norteamericano Sandage (Observatorio Hale) quien después de un largo y cuidadoso estudio ha
concluido que la constante de Hubble, es de alrededor de 5.3 a 4.2. kilómetros por segundo por megaparsec,
lo que implicaría que el Universo tendría alrededor de 19.4 millones de años.
1978: El objeto con mayor corrimiento al rojo identificado a principios de la década de los ochenta es el
quasar QQ 172 descubierto por los radioastrónomos de la Universidad de Ohio, que está recediendo a una
velocidad que es cercana al 91% de la velocidad de la luz. La distancia de ese quasar utilizando la constante
Sandage - Hubble, según la rotación inglesa de considerar como "billón" al millón de millones: sería
alrededor de 5.4 billones de parsec (017.6 billones de años luz, rotación inglesa). (Esto es que la luz del
quasar QQ 172 ha estado viajando en el Universo casi desde la creación del mismo). El valor crítico de la
densidad de la constante de Hubble para finales de la década de los setenta se determina en S x 10.-30
gramos por centímetro cúbico. A finales de 1979.
1979: Murray y otros astrónomos (Universidad de Harvard) han reportado a finales de los setenta,
evidencias de emisiones de rayos X de supercúmulos de galaxias lo que implica de 5 a 10 veces la cantidad
de masa presente en la fracción significante de la “masa perdida”.
1979: Los astrónomos norteamericanos Selden y Peebles (Universidad de Princeton) emplearon un nuevo
método para estimar el porcentaje de densidad asociada con las galaxias y encontraron que la distribución de
las galaxias muestran un valor preliminar que equivale al 70% de la densidad crítica. Este valor de la
densidad crítica (cuando los elementos luminosos fueron formados por nucleosíntesis), en las primeras
etapas del Universo pueden ser inferidos tomando en consideración la abundancia de deuterio interestelar.
Dado que el deuterio se destruye en las estrellas, la única fuente razonable que explica la actual presencia de
deuterio, es su formación en las etapas iniciales del Universo, a escasos minutos después de que este
comenzó.
1979: El astrónomo norteamericano Tinsley (Universidad de Yale) ha evaluado la característica de posibles
Universos consistentes con los datos obtenidos y con las posibilidades de existencia de estos Universos, si se
asume que la constante cosmológica es cero 0) o si se asume que no es cero (0). Efectuados los cálculos, los
resultados obtenidos indican que si la constante cosmológica es cero (0), la densidad estimada es
fuertemente favorable hacia la predicción de un Universo abierto, que se expandirá para siempre. Si por el
contrario la constante cosmológica no es cero (0), permite concluir que esto lleva a un Universo que puede
ser abierto o cerrado, esto es infinito o finito y que puede por lo tanto expandirse para siempre o colapsarse.
Nota: A partir de ahora prescindiremos de la presentación de otros modelos de manera tan detallada, porque
la aparición de publicaciones crece de manera exponencial y los astrónomos suelen ser de imaginación
desbordada. Sin embargo presentaremos algunos modificaciones a conocimientos ,lo que ha incide en la
elaboración de modelos.

.- CRÍTICAS A LA COSMOLOGÍA DE LA ÉPOCA

Pasada la refriega intelectual entre postulantes de las teorías rivales ahora los cosmólogos deben enfrentarse
a otras críticas que abarcan muchas facetas. Las principales se suelen centrar en seis o siete áreas muy
sensibles que se han ido resolviendo poco a poco, pero que van dejando muchas “dudas en el camino”. Así
como en los primeros momentos de la historia de la humanidad, las creencias populares reflejan el
desconocimiento en áreas empíricas; resulta que aún hoy, se suele arrastrar mucha ignorancia en la forma de
pensar acerca de materias abstractas como las que manejan la astronomía y la cosmología, lo que suele
convertirse en un lastre para una comprensión del público general hacia los avances en este campo.

Un tipo de crítica de problemas es intrínseco a la estructura y funcionamiento de nuestra mente; al
aprisionamiento de nuestro intelecto y a las limitaciones físico - sensoriales que deben trasegar, interpretar y
extrapolar datos e información muy variada y compleja para dar explicaciones aún más complejas, pues con
las limitaciones del lenguaje a veces solo es posible crear como “caricaturas” de lo que se trata de explicar.
De allí que al lector lego que trate de correr la aventura de incursionar en ese campo le parecerá que está
subido en la Torre de Babel -o si se desea la versión modernista viajando con “Alicia en el País de las
Maravillas” del escritor Alexis Carroll- junto a “la sonrisa del gato de Cheshire”, celebrísimo ejemplo
sacado a colación por los cosmólogos cuando desean explicar algo difícil en sencillo, pero siempre con base
en analogías enigmáticas. A este tipo de crítica no se le puede enfrentar con éxito hasta tanto no se
popularicen nuevas metodologías de transmisión del conocimiento.

Un segundo tipo de crítica se fundamenta en el arrastre mental de conceptos que se toman como absolutos y
la razón se niega a aceptar los sustitutos y las variaciones, cuando los primeros están arraigados en la cultura
colectiva y en el subconsciente personal. Y es lógico que el ser humano se aferre a aquello que habiendo
entendido pasa a ser parte de su seguridad y que cuando éste concepto se le derriba; junto a él cae su
seguridad y tenderá por tanto a rechazar el nuevo concepto más por razones psicológicas que científicas.
Quizá esta situación envuelve la forma misma en que los científicos de la cosmología suelen dar a conocer
sus modelos abstractos, tratando de usar símiles de aspectos conocidos no solo para facilitar su comprensión,
sino para minimizar el riesgo de los rechazos por el miedo al derrumbe de parámetros de seguridad
psicológica.

Precisamente el ingeniero español José Pirrone en su obra “La Estructura del Universo” dedica parte
substancial de su contenido a glosar los problemas tanto semánticos, geométricos, lógicos y psicológicos que
plantea la utilización que califica de “muy liberal” de ciertos conceptos por parte de los cosmólogos. Una
simple mención de estos se resume en estos ejemplos:

a) Confusión en las representaciones geométricas (mal uso del concepto hipérbole, por ejemplo)
b) Negativa a utilizar la geometría euclidiana y preferir el uso de una geometría multidimensional que
califica de “eleusina” (esto es apta solo para iniciados en los grandes secretos).
c) Confusión en el uso indistinto de los términos “rayo de luz” y “haz de luz” (para referirse a la atracción de
ésta, por parte de cuerpos masivos).
d) Exageración al señalarse que “toda luz de masa proyectada” por un cuerpo esférico es desviada hacia el
infinito “cuando pasa cerca de un cuerpo masivo”.
e) Afirmación absoluta de la tesis de la expansión como un dogma irrefutable.
f) Utilización liberal del concepto “función de onda” en la línea de la “Escuela de Copenhague” para
referirse al comportamiento de las partículas atómicas.
g) Aceptación de la teoría de los quarks.

Desde otra perspectiva el filósofo de la ciencia, el italiano Evandro Agazzi asegura que en la actualidad el
estado de formulación de teorías físicas (se refiere específicamente a las formuladas con base en el
relativismo y la cuántica), se encuentran en una etapa de gran atraso, justamente por la carencia de la
axiomatización, que si existía en la física clásica.
En consecuencia: no basta acudir a la lógica común para entender el lenguaje cosmológico -no por ser un
lenguaje especializado como podrían serlos los tecnicismos usuales en la medicina, la microbiología, el
derecho y la economía - para designar órganos, procesos, actos y predicciones, porque lo que separa al lego
de estas formas especializadas de expresión son palabras únicamente y haciendo el esfuerzo de aprenderlas
entenderá la concatenación de procesos. Tratándose de cosmología hay una barrera profunda para que el
lego pueda trasegar con conceptos abstractos relativistas y cuánticos contrarios a las ideas asequibles de la
física clásica lo que hace muy ardua -sino imposible- su “visualización mental” para comprenderlos.

Sin embargo todos estos conceptos - que no son fácilmente entendibles - constituyen justamente la materia
con que se ha de construir la nueva cosmología ahora y en las décadas siguientes con lo cual el panorama se
complicará aún más, para aclararse en los próximos veinte o treinta años (según cálculos muy optimistas de
algunos cosmologistas); o bien para enmarañarse conforme se van descifrando algunos enigmas (como
piensan con pesimismo otros cosmologistas).

Estado del Conocimiento.- Durante la década de los setenta el conocimiento astronómico muestra un
marcado ascenso en varias ramas: una es el afianzamiento de la cosmología del B.B.; otro es el crecimiento
impresionante de la astronáutica y los viajes espaciales de norteamericanos y soviéticos y un tercer elemento
es la proliferación con bastante libertad -no sujeta al conocimiento academicista más conservador- de ideas
científicas relativas a los primeros momentos del B.B., con base en extrapolaciones matemáticas de las
teorías relativistas y cuánticas. Estos tres elementos impactan positivamente a la cosmología que toma gran
auge y comienzan a destacarse ciertos investigadores originales.

Justamente el historiador francés, catedrático de la Universidad de Nanterre, Renee Tatton afirma respecto al
progreso científico:
1.- Su sentido general está a menudo encubierto por períodos de relativo estancamiento, incluso de aparente
retroceso; en otros, por el contrario, el progreso parece acelerarse, provocando la renovación de vastos
ámbitos científicos o mostrando las relaciones existentes entre diversos sectores del conocimiento. El
descubrimiento científico se presenta de hecho desde aspectos muy diversos, que dependen del dominio en
que se realiza (matemático, teórico o experimental), del temperamento, formación y saber de su autor y,
finalmente, de las circunstancias más o menos favorables en que se desarrolla.
2.- La realización de un descubrimiento científico presupone la posesión por parte de su autor de innegables
cualidades de método científico y de intuición; es decir, de un genio muy particular, necesario para la
elaboración de grandes síntesis o de teorías audaces. Por otra parte, todo descubrimiento de cierta
envergadura se enfrenta con resistencias a veces muy vivas; para emprender la lucha necesaria contra la
rutina y los prejuicios, el sabio debe mostrar gran audacia intelectual.
3.- Pero aunque en este combate se encuentre en ciertos momentos algo aislado, no por ello deja de ser
heredero de sus predecesores y de sus contemporáneos. En efecto, la ciencia de una época es el resultado de
las aportaciones sucesivas de numerosas generaciones de investigadores, tanto de los genios como de los
oscuros servidores de la ciencia. En su presentación, en sus objetivos, en sus aplicaciones, esta ciencia
refleja las preocupaciones de la civilización del momento.”

.-AVANCES TEÓRICOS EN LA COSMOLOGÍA

En el período examinado destacan cuatro esfuerzos teóricos:
a) La búsqueda de una teoría del “Todo”, (Theory of Everything) ,que desemboca en la Teorías de Cuerdas y
luego en la de Supercuerdas o Cordones Cósmicos.
b) La clarificación del papel de la Segunda Ley de la Termodinámica en lo que respecta a la Entropía y la
Información.
c) El lanzamiento de la idea de la creación a partir de la “nada”;
d) El postulado de la inflación como un mecanismo probable que permite manejar mejor algunas
incongruencias del modelo estándar B.B.
e) En el campo de los avances tecnológicos, aunque el área de la tecnología observacional muestra hechos
de gran espectacularidad, que han ido ampliando cada vez más la llamada “ventana cósmica” por la índole
de esta obra nos limitaremos a hacer una brevísima secuencia histórica que nos permita conocer como se
desarrolló este campo.

Aunque la selección es arbitraria pues en poco espacio no es posible presentar más que unas pinceladas de
cada tema; al menos, al final de su lectura, es posible comprender cuáles eran las principales inquietudes en
este período que ocupan la mente de los cosmólogos en su camino de búsqueda de la verdad. Es preciso
señalar que estos cuatro aspectos teóricos se desarrollan durante la época en estudio de manera concatenada,
aunque su origen es diferente, y es que en la búsqueda de una explicación científica para la hipótesis del
inicio del Universo, los físicos ensayan varios acercamientos, algunos de avance lento y otros bien
caracterizados por la fugacidad de su presencia. En el caso de los cuatro ejemplos seleccionados
arbitrariamente se mantienen vigentes aún al cierre de esta obra.

A.- EN BUSCA DE TOE.- La unificación de las cuatro fuerzas conocidas en la Naturaleza: (fuerza
electromagnética, fuerza gravitatoria, fuerza nuclear fuerte, fuerza nuclear débil) es una labor que obsesiona
a muchos cosmólogos, entre ellos el físico inglés Stephen W. Hawking, quien, a pesar de su enfermedad
degenerativa - Esclerosis Amiotrófica - que lo tiene casi totalmente paralizado - quiere completar un sueño.

Su meta es unificar en un sólo cuerpo de conocimiento las dos grandes teorías de la física del siglo XX: la
Relatividad y la Mecánica Cuántica, porque cree en la unidad de las leyes que gobiernan el Universo, en las
escalas más pequeñas y las más grandes ya que los físicos están buscando una teoría unificada de las fuerzas
de la naturaleza y han encontrado que la historia y el destino del Universo están escritos en cada átomo.

El Universo está aquí y ahora, en los propios átomos que componen cada una de las letras de esta página. Si
se toma esta “A” y se amplía un millón de veces, se puede ver las moléculas de la tinta con que está hecha.
Si se magnifica mil millones de veces más, es posible ver los átomos de las moléculas que la componen. Si
se selecciona un átomo y se le amplia diez mil veces, ya se está dentro del núcleo, y el núcleo se puede
dividir en partículas y así sucesivamente.

Tales percepciones profundas - un tiempo propias de poetas y filósofos - ahora son objeto de investigación
de la física, que entre todas las ciencias es de las más básicas, puesto que estudia las leyes fundamentales del
movimiento de la materia. Y materia no es sólo esa visión intuitiva del cuerpo en masa, sino todo aquello
que existe fuera de la conciencia. Las llamadas “teorías unificadas” tratan de llevar a cabo una comprensión
científica de cómo la naturaleza funciona, desde lo infinitesimal a lo supergaláctico. Estas teorías se
expresan en ecuaciones matemáticas e implican que todas las fuerzas conocidas en la naturaleza son
manifestaciones de una interacción básica y que en un tiempo muy lejano formaban parte de una fuerza o de
un proceso universal único.

En esa indagación se ha empeñado el cosmólogo inglés Stephen W. Hawking, pionero de la teoría de los
agujeros negros y de la teoría del Universo salido de la nada y quien además tiene el mérito de conciliar la
Teoría de la Relatividad de Einstein con el Principio de Incertidumbre de Heisenberg, elemento clave de la
Mecánica Cuántica en busca de la “cuantificación de la gravedad”.

El reto de Hawking -quien empieza a adquirir notoriedad en los sesenta- es terminar su teoría. Pero, como
señala la revista Newsweek en el artículo “Master of Universe”: “El no puede hablar, no se puede mover, se
comunica a través de un sistema de computadora que tiene en su memoria unas 2.600 palabras. Con sus
dedos (lo único que puede medio accionar) presiona los controles de la máquina y esta transforma los
impulsos en lenguaje, como una paradoja más de las tantas que tiene la física, “pero con su poderosa e
intacta mente las “nuevas fronteras de la física” están dentro de ese cuerpo enfermo.

Por muy loable que sea la labor de Hawking y lamentable su estado de salud, el conocimiento seguirá
produciéndose por el concurso de otras mentes. No es la primera vez que el hombre trata de encontrar una
fórmula totalizadora (actualmente llamada TOE - Theory of Everything - ) que permita descifrar el
Universo.

Esta pretensión ha conocido varios intentos previos. A juicio de los cosmólogos ingleses Paul Davies y
Julian Brown la historia registra entre otros los siguientes intentos pasados y actuales:
1.- Los planteamientos de Leucipo y Demócrito: que en una lectura moderna dice, “El mundo consiste
únicamente de átomos. Hay diferentes tipos pero todos son elementales en el sentido de ser impenetrables e
indestructibles; sin partes internas; son muy pequeños para ser observados directamente y por estar en un
estado de movimiento continuo en la materia; el choque entre átomos causa que se peguen unos a otros,
causando la impresión de continuidad de la materia y cualquier cambio en el mundo físico debe ser atribuido
al reordenamiento de estos.”
2.- La Idea de Laplace: En su época inventó lo que él denominó un “demonio calculador” que tendría estas
características: “Un (ser) inteligente, conocedor de cualquier instante dado en el tiempo, con todas las
fuerzas actuantes en la naturaleza, así como en las posiciones momentáneas de todas aquellas cosas que
conforman el Universo, con la capacidad de comprender el momento de los objetos del macrocosmos y de
los elementos del microcosmos, todo en una sola fórmula, provisto de suficiente poder para sujetar toda la
información al análisis sin dejar nada en la incertidumbre y con ambos -pasado y futuro- siempre presentes
ante sus ojos.”
3.- La Pretensión de Kelvin: En su discurso de cierre ante la Asociación Británica para conocer el estado de
avance de la ciencia a finales de 1900 expresó: “Nada nuevo queda por descubrir a la física ahora. Todo lo
que queda es hacer más exacta a la física ahora. Todo lo que queda es hacer más y más precisas las
mediciones”.
4.-Teoría Fundamental de Eddington: En 1923, públicamente Eddington dijo: “He encontrado la Teoría
Fundamental.” (Se trataba de una curiosa relación numérica que siguió siendo trabajada hasta 1946, año en
que ocurrió su deceso)”.
5.-Teoría del Campo Unificado: Durante los años treinta y hasta su muerte, Einstein los pasó buscando la
Teoría del Campo Unificado, basado en una descripción geométrica de la Naturaleza para tratar de encontrar
la forma en que la masa afecta el espacio - tiempo.
Por cierto que tratando de encontrar soluciones a su teoría de campo se han postulado derivaciones de
diversa índole algunas debidas a Einstein, las otras a diferentes físicos: entre ellas se encuentran las
deflecciones de la luz al pasar por un campo masivo, la existencia de estrellas de neutrones, agujeros negros,
comportamientos “extraños” de la materia en condiciones límite, e incluso “agujeros blancos” y hasta
“máquinas de tiempo”, y todas estas derivaciones, son presentadas no en la geometría clásica sino en
espacios de varias dimensiones. Esta abrió nuevos campos de investigación para ubicar la busca de la
unificación.
6.-Teoría de Cuerdas (también conocida como de fibras cósmicas) : Este es el intento actual cuyo inicio se
remonta a finales de los 60, como una idea de Gabrielle Veneziano, quien al tratar de explicar algunos
problemas de “resonancia” de partículas subatómicas propuso un modelo ad hoc, como un simple
procedimiento matemático y que resultó la descripción cuántica del movimiento propio de una cuerda
(mientras antes las explicaciones se daban en términos de partículas). Este modelo resultó ser exitoso para
describir problemas de subpartículas conocidas como hadrones.
7.-Teoria de Supercuerdas .En 1970 los físicos John Scharz y André Neveau proponen una segunda teoría de
cuerdas para describir el comportamiento de otras subpartículas llamadas fermiones. Luego de muchas
vicisitudes a finales de los años sesenta - la teoría - ahora conocida como Teoría de Supercuerdas busca
convertirse en la Teoría del Todo (TOE, en inglés), gracias a los refuerzos teóricos provenientes de
Weinberg, Salam, Witten, Glashow, Higgs, Hawkings y otros. A juicio de Davies y Brown: “En los últimos
años esta sorprendente teoría que ha capturado la imaginación de los físicos promete proveer la unificación
de todas las fuerzas, todas las partículas fundamentales de la materia, el espacio y el tiempo - en pocas
palabras - una Teoría de Todo. Lo relevante de la teoría señala que el Cosmos está hecho nada más que de
pequeñas cuerdas, puede parecer absurdo, pero el fundamento matemático es fuertemente consistente con el
mundo real.”

B.- ENTROPIA E INFORMACION.- El proceso térmico conocido como Ciclo de Carnot que el ingeniero
francés Carnot plantea, en 1824 ,da paso posteriormente al Teorema de Rudolf Clausius ( también conocido
como Segunda ley ) en 1850 y luego ambos son retomados por el físico austriaco Boltzmann ( 1844-1906 )
quien establece la Constante que lleva su nombre relacionando la Temperatura Absoluta y la Energía ,y
juntos se constituyen en las bases de la Ciencia de la Termodinámica actual. Estos planeamientos son
fundamentales para conocer el futuro del Universo, porque están íntimamente relacionados con la forma en
que operan las cuatro fuerzas básicas. El enunciado de Entropía señala: “La entropía puede definirse como la
ausencia de desequilibrio, cuando tal desequilibrio o energía disponible, desaparece, la entropía aumenta.
Entonces es posible afirmar que la entropía en un sistema cerrado tiene la tendencia a aumentar. Pero si se
desea ser preciso para incluir casos excepcionales en que la entropía permanece igual se puede señalar que la
entropía de un sistema cerrado nunca decrece".

Cuatro Fuerzas.- Los físicos cuentan cuatro fuerzas distintas en la naturaleza que operan en el proceso de
formación del Universo:
fuerza gravitatoria, que une a planetas, estrellas, galaxias
fuerza electromagnética, que une átomos y moléculas
fuerza nuclear fuerte ,que que une los núcleos de los átomos
fuerza nuclear débil, que en esta época es menos conocida.
Las tres primeras están en condiciones de engendrar estructuras estables y el principio de la unión es
siempre el mismo. Asociando los elementos, la fuerza transforma en energía una parte de su masa. Esta
energía, llamada de unión, es arrojada al espacio, generalmente en forma de protones, el sistema así
constituido es menos masivo que la suma de los elementos iniciales. Es también, por lo general, más
complejo; se sitúa en un peldaño más elevado de la pirámide de la organización de la materia que va de lo
simple a lo macro conocido. Los fotones transportan consigo la entropía que deben pagar por esta fase de
organización.

De este modo, las tres fuerzas mencionadas más arriba desempeñan un triple papel en el crecimiento de la
complejidad y son responsables de las asociaciones de partículas y cimientan las estructuras organizadas de
la materia (núcleos, átomos, moléculas, células, organismos, y también planetas, estrellas, galaxias).

Los vínculos creados transforman la materia maciza en fotones luminosos. Estos fotones son portadores de
energía utilizable para los intercambios y la concepción de sistemas todavía más complejos. Llevan también
la entropía que se desprende para acompañar el aumento de la complejidad. Dondequiera que se observa la
entropía en un sistema que decrece, puede concluirse que ese sistema debe ser parte de otro sistema mayor
dado que un incremento en la entropía es un aumento en la “cantidad de tiempo”.

La segunda ley permitió a Arthur Eddington llamar a la entropía una “flecha” del tiempo en el mundo
subatómico, puesto que la segunda ley de la termodinámica permite deducir que hubo menos entropía en el
pasado y habrá más en el futuro. Sin embargo a juicio de Davies este concepto debe verse con cuidado
porque: “la luz del aumento de la entropía no es de carácter fundamental ( o cosmológica, esto es debido al
origen del Universo ) sino estadística”; y, en apoyo de su tesis utiliza las palabras del físico John Wheeler:
“Preguntad a una molécula que piensa respecto a la segunda ley de la termodinámica y se reirá de la
pregunta...”, lo que en otras palabras significa que una molécula no sabe distinguir entre dos direcciones del
tiempo.

La detección de esta característica intrínseca a la materia fue lo que precisamente permitió al físico
norteamericano Richard Feyman, alumno de Wheeler, recibir en 1949 el premio Nobel en Física, gracias a
su observación del comportamiento de las partículas, sugiriendo que - en ciertos casos la “reversión” en la
flecha del tiempo se observa en el mundo subatómico. Pero Davies concluye que: "el hecho que en el mundo
subatómico la reversión de la flecha del tiempo se presente; no aplica al macrocosmos".

Papel Crítico de la Temperatura.- El cosmólogo y físico de partículas francés Hubert Reeves correlaciona
entropía con información y el papel de la temperatura para señalar la cadena de acontecimientos
interrelacionados entre sí que permiten una hilación de continuidad entre el pasado en el comienzo del
Universo y su transformación en Vida en la Tierra. Las estructuras escalonadas en la pirámide de la
complejidad deben su cohesión a la existencia de fuerzas de la naturaleza.

Pero, para crear la variedad y la diversidad, la acción de estas fuerzas debe ejercerse en condiciones de
desequilibrio. Estos equilibrios provienen del hecho de que el Universo, hoy, está en un estado de
sobrefusión con respecto a las grandes fuerzas estructurantes. Podría decirse que la fuente de la información
cósmica reside en el hecho de que la materia, aunque sometida a las fuerzas naturales, sólo muy
parcialmente ha sucumbido a ellas. A lo largo de las eras sucumbe progresivamente pero con considerables
retrasos. En vez de reducirse, estos retrasos aumentan con el tiempo. Con ellos se alejan indefinidamente los
estados de estabilidad máxima .Al margen del contexto de equilibrio, los resultados de los acontecimientos
de la naturaleza son parcialmente imprevisibles, por lo que, Reeves señala que :” De ahí nace lo inédito del
presente” .

La propuesta que formula Reeves se fundamenta en estas conclusiones:

a) Por causa de la temperatura extremadamente elevada de los primeros tiempos del Universo, las
interacciones nucleares en el "puré cósmico" son ultrarrápidas. Se forman núcleos que se disocian en
seguida, en la esterilidad del equilibrio. La temperatura afecta profundamente el curso de las reacciones de
captura y disociación. Las duraciones de tales reacciones se alargan cuando el puré se enfría. Hacia el primer
minuto, cuando la temperatura desciende por debajo de los mil millones de grados, algunos núcleos están en
condiciones de resistir el calor. Núcleos de helio van a perdurar por primera vez en el Universo. Este
acontecimiento, llamado nucleosíntesis primordial, produce como resultado la transmutación de
aproximadamente, una cuarta parte de la materia cósmica en helio. El resto permanece en estado de protones
y, más tarde, se convertirá en el hidrógeno universal.

b) A temperaturas más elevadas, los nucleones son libres, como las moléculas de agua de un líquido. Por
debajo de estas temperaturas, la fuerza nuclear los fija juntos. De ahí la pregunta: ¿Porqué la fuerza nuclear
no transformó todo el puré cósmico original en cuanto la temperatura permitió la “congelación” de la
materia en núcleos atómicos?... Si la expansión del Universo hubiera sido más lenta, la materia cósmica se
habría transmutado por completo en núcleos de hierro, porque en los hornos estelares, la transmutación del
hidrógeno en hierro exige períodos muy largos. Aquí, en el mejor de los casos, se tienen unos minutos. No
es sorprendente que la obra permanezca inconclusa, que la fuerza nuclear no agote sus posibilidades.

c) El hidrógeno, respetado por el estado de desequilibrio nuclear, se convertirá en el principal carburante de
las estrellas. Les asegurará las largas duraciones indispensables para que emergiera la vida. En un Universo
de hierro, las duraciones de las estrellas se cifrarían en millones más que en miles de millones de años. La
elaboración de las moléculas gigantes se vería doblemente comprometida. Primero por la ausencia de
átomos de hidrógeno, de carbono, de nitrógeno y de oxígeno. Y aún suponiendo que una pequeña cantidad
de esos átomos se hubiera salvado, esta gestación se vería todavía dificultada por la duración, excesivamente
corta, de las estrellas nodrizas. El Universo sería muy distinto y la humanidad, sin duda alguna, nunca habría
aparecido.

d) Las fuerzas nucleares despliegan sus efectos en distancias extraordinariamente pequeñas que no superan
las dimensiones de los núcleos atómicos (10-13 cm). La fuerza electromagnética extiende su influencia a la
estructura de las moléculas gigantes. El alcance de la fuerza de la gravedad parece sin límites y actúa en dos
niveles: Interviene sobre la materia cósmica en su conjunto. Esta acción se manifiesta en el vasto
movimiento de expansión del Universo. Interviene también de modo más local, en las capas de materia
dispersa que reúne para convertirlas en galaxias y estrellas. Nada puede neutralizar el efecto de la gravedad a
escala universal. En cambio, el calor excesivamente intenso de los antiguos tiempos desalienta todo esfuerzo
de condensación de materia a escala local, lo que permite concluir que termodinámicamente somos el
resultado de estos procesos:

UNO: etapa de formación inicial del Universo
1. Cualquier veleidad de aislamiento, de fraccionamiento, de contracción de una parcela del puré inicial, en
galaxia o estrella embrionaria, se ve inmediatamente reprimida y anulada por la acción del calor inicial. Los
“grumos” se reabsorben y la materia cósmica recupera en seguida su textura homogénea. Los “limbos
térmicos” de los primeros tiempos del Universo paralizan la gravedad (a escala local), como paralizan lo
nuclear y lo electromagnético. La fuerzas están ahí, pero son incapaces de reunir, de asociar partículas para
convertirlas en núcleos, moléculas o estrellas.
2. En el momento de la emisión de la irradiación fósil, la fuerza de gravedad puede iniciar la formación de
las galaxias y las estrellas. La temperatura correspondiente - tres mil grados - desempeña, para la formación
de las grandes estructuras astronómicas, un papel análogo al de cero grados Celsius para la congelación de lo
nuclear. En este período, electrones y protones del puré cósmico se combinan y crean los primeros átomos
de hidrógeno. Este acontecimiento es acompañado de varios efectos cosmológicos. Primero, la emisión de la
irradiación fósil que ha transmitido la más vieja imagen del cosmos. Segundo, un cambio fundamental en la
propia naturaleza del puré para originar el plasma.
3. Del estado de plasma en el que se encontraba antes de la captura de electrones por los protones y la
formación de los átomos neutros de hidrógeno, el puré pasa, en este período, al estado de gas. En
consecuencia, el Universo en este instante se hace transparente a la irradiación. Los fotones emitidos ya no
tienen prácticamente ninguna posibilidad de ser absorbidos en el futuro. De ahí la posibilidad, para ellos, de
llegar hasta nosotros y ser detectados por nuestros aparatos de medida.
4. El calor inicial pierde prácticamente toda su potencia cuando los electrones se combinan con los protones.
Su influencia “niveladora” se ejercía, esencialmente, gracias a la interacción entre la luz y los electrones
libres (ahora desaparecidos), por ello, ahora las galaxias pueden condensarse. Como la fusión de los átomos
y la asociación de las moléculas, la formación de los astros requiere tiempo, mucho tiempo. De hecho, aquí
nos enfrentamos con uno de los problemas de la astrofísica contemporánea: ¿cómo nacen las galaxias?.

DOS: etapa de formación de galaxias:
5. El fenómeno se inicia -al menos se supone- en las fluctuaciones de densidad del puré cósmico (liberado
ahora del impedimento térmico). A un ritmo muy lento al principio, esos “granos” de galaxias se condensan
bajo el efecto de su propia gravedad que va creciendo con la contracción. El mecanismo se amplifica, se
acelera y actúa como una “bola de nieve”.
6. Tras la emisión de la irradiación fósil, el Universo entra en un período de sobrefusión gravitacional. Y eso
requiere miles de millones de años. Como los núcleos y los átomos, las estrellas son menos masivas que la
suma de sus constituyentes aislados. La masa desprendida se emite en forma de fotones que transportan a lo
lejos energía y entropía. (Según una convención precedente, se conoce como entropía gravitacional a la que
es vehiculada por los fotones estelares).
7. Los cosmólogos del B.B. no pueden menos que maravillarse de la existencia del desequilibrio inicial,
porque la rapidez de la expansión impidió cualquier posibilidad de alcanzar el estado de estabilidad nuclear
máxima. Este desfallecimiento de la fuerza nuclear en su conservación del estado de equilibrio dará origen a
la información nuclear que existe hoy en el cosmos.
8. El estado de entropía gravitacional máximo del Universo se alcanzaría si la materia celeste existiera por
completo en forma de agujeros negros. Las estrellas que dispersan sus fotones coloreados son resultado de
una congelación retardada de la materia cósmica. Desde la emisión de la irradiación fósil, el puré inicial, en
estado de sobrefusión gravitacional, efectúa su lenta transición hacia los estados estables llamados
“cadáveres estelares”.
9. La estrella utiliza la información gravitacional para contraerse y crear localmente, los gradientes de
temperatura tan importantes para la vida terrestre. Cuando la temperatura central alcanza algunos millones
de grados, las reacciones nucleares toman a su cargo la emisión de energía luminosa, frenando así la
contracción o el caldeamiento de la estrella.
10. Sin la información nuclear, engendrada en el momento de la nucleosíntesis primordial, las estrellas
existirían, pero serían de muy corta duración. Sin la información gravitacional, creada cuando se emitió la
irradiación fósil, la energía nuclear sería inutilizable por falta de crisoles apropiados.

Teoría de la Información.- En 1948 el físico y filosofo de la ciencia norteamericano Claude E. Shannon
(1914- ) enuncia una teoría que si bien tiene impacto en las comunicaciones, se refiere igualmente a la
emisión de información en un sistema cerrado , así como a la posibilidad de pérdida de la información que
circula por este sistema, debido a la entropía o desorden en que este se encuentre. En comunicación social se
suele señalar que cuando se emite una señal esta puede ser percibida adecuada, o inadecuadamente,
dependiendo del “ruido” o interferencia existente en el sistema.
Si se traslada el concepto al Universo se entiende que la información emitida al inicio del Universo se
transmite total o parcialmente dependiendo de la cantidad de entropía existente en el sistema. Pero se asume
que dado que el universo nace, se modifica y persiste la entropía debe ser controlada, para que no anule o
interfiera con el proceso. Esto plantea un gran problema: cómo se las arregla el Universo para mantener el
sistema bajo control, pese al aumento de la entropía o desorden, esto es a la aparición de materia mas y mas
evolucionada y por tanto más compleja ?.
En teoría para que el Universo exista tal y como lo conocemos (aunque no lo entendamos, que es otro
asunto) debió haber anulado el proceso de desorden ( entropía) por el cual ha pasado. En consecuencia ha
debido haber una información “guía” o madre en todo el proceso que ha tomado miles de millones de años,
que se ha conservado intacta para permitirle al Universo evolucionar hasta permitirnos a los seres humanos
ser capaces de estudiarlo, elaborar teorías sobre su existencia y predecir su eventual final.
Este es un verdadero “connundrum” (enigma o misterio) para el conocimiento ,salvo que se admita que la
información inicial se almacena en cada una de las partes que lo integran en ese momento y que puedan-
además-transmitirse hacia el futuro-sin importar la complejidad de ese futuro y los cambios que se sucedan.
A efecto de mantener el estudio de esa información dentro de los cánones de la ciencia y de no incluir
“parámetros” ocultos algunos cosmólogos no atinan a plantear soluciones exactas. Por eso es que , años
posteriores surgen soluciones tales como la “teoría” del caos” o el planteamiento de que el Universo es una
Holografía, ( cada parte resume el todo) . Estas ideas implicarían que todo obedece a una ley universal que
se mantiene pese a los cambios sucedidos. Sobre este tema volveremos en los capítulos ,posteriores.


C.- CREACION A PARTIR DE LA NADA.- El concepto “nada” en el habla común, tiene varios
significados y por tal razón debe entenderse correctamente lo que se infiere de la expresión “creación de la
nada” (o “ex - nihilo” término latinizado de uso similar), por ejemplo:

1. El Diccionario de Expresiones y Frases Latinas de Víctor - José Herrero acoge esta expresión: “Ex -
Nihilo Nihil”, atribuida al poeta Lucrecio que compendia la creencia popular sensible (comprobada por los
sentidos e intuida por la razón) de que - efectivamente de la nada, nada puede obtenerse; pues es obvio que
la nada es lo “no existente”). Otra versión atribuye el concepto al filósofo de la Escuela Eleática, Meliso -
compañero de Zenón y Parménides. De todas maneras, esta expresión parece era compartida el vulgo por los
griegos. La definición enciclopédica Larousse, respecto a “nada” dice: “El no ser, lo que no existe”.

2. Desde la antigüedad, el ser humano ha experimentado recelo hacia la “no existencia”, hacia la nada y por
lo tanto hacia lo “vacuo”, (el vacío). Este horror al vacío, en parte explica la incesante búsqueda de la
armonía, de la perfección visible en los esfuerzos de los filósofos pitagóricos por encontrar números y
figuras “cerradas” pero que no es privativo de los pitagóricos, sino práctica cultural universal (en la que por
cierto sobresalen las concepciones de los mayas primitivos en América Central). Este mismo concepto es
llevado a la formulación de órbitas perfectas, lo que explica el uso del círculo y la resistencia a aceptar otras
formas “imperfectas”.

En la antigüedad, plantea el filósofo e historiador de la ciencia, F.P. Dickson: “Un principio (del Universo) a
partir de la nada absoluta, del Vacío, era inconcebible. En consecuencia, los cosmogonistas hubieron de
postular una primordial material informe, el Caos, para llenar el Vacío, material cercano a la Nada. Como en
nuestros propios tiempos ha dicho Eddington, es imposible distinguir entre la nimiedad ("sameness" en
inglés) indiferenciada y la no existencia. Generalmente se escogió al agua como esa base informe de la
creación. En muchos aspectos, fue una buena elección; el agua, en sí misma, es informe y uniforme, es
esencial para la vida, y a los antiguos observadores debió de parecerles que en el mundo había más agua que
ninguna otra cosa. Pudieron visualizar la sólida tierra flotando en un océano sin límites; ríos, lagos y fuentes
que demostraban que en la Tierra había agua y, obviamente, había agua en los cielos”.

A partir del agua, se supuso que la creación ocurrió mediante un proceso de diferenciación: “Los opuestos
divinos, que, juntos, no habían sido nada, pues el uno cancelaba al otro, se separaron en las aguas. Una vez
separadas, estas divinidades tuvieron poderes que podían ejercer de varios modos. Uno de éstos fue una serie
de parciales recombinaciones que hicieron nacer numerosas familias de dioses y diosas, en quienes pudieron
delegar la construcción del mundo real en que viven los hombres. El establecimiento final del orden mundial
surge por medio de la guerra entre los dioses ancianos y los jóvenes. (Bien puede ser que esta pugna celestial
esté basada en tradiciones raciales que se remontan a los tiempos en que los antepasados de los cosmólogos
sometieron a poblaciones aborígenes de las tierras en que se aposentaron, o las echaron de ellas).”

En la época moderna y ya en el campo de la física, el horror al vacío explica la búsqueda cosmológica de
una sustancia que llene los espacios entre los cuerpos celestes y se le ha llamado “éter”, “extensión” y aún
“continuun espacio - tiempo” (si se acepta la idea que este concepto einsteniano tiene un trasfondo más
metafísico que físico).
Sin embargo -y en contra de esas ideas- en los aceleradores de partículas que manejan problemas de
partículas subatómicas es hecho conocido - y por lo tanto rutinario - que en sistemas cerrados con cargas
netas pequeñas de energía, aparecen de la nada - partículas virtuales, cuya vida es brevísima y luego
desaparecen. Esas apariciones (denominadas fluctuaciones) si se trata, por ejemplo, de un par electrón -
positrón tienen una duración en el tiempo de 10-21 segundos y suelen aparecer espontáneamente.

Pero ahora a mediados de la década de los setenta la física cuántica plantea la creación del Universo a partir
de la nada, lo cual, desde el punto de vista científico acarrea problemas, por cuanto significa dejar de lado el
sacrosanto principio de la “conservación de la materia”. En efecto cuando el físico Edward P. Tryon, de la
Universidad de Nueva York postula en 1973, como de la nada se origina toda la materia del Universo, en
realidad lo que hace es extrapolar un fenómeno subatómico a lo macro y nada menos que a la aparición del
Universo.

Ahora bien, en los casos de choques de partículas de signo contrario aparecidas de la nada, como resultado
de las fluctuaciones cuánticas, los físicos atomistas recalcan que la consecuencia es la producción de
“energía pura”. Si en el estado actual de los medios que de que se dispone en física, es imposible conservar
la materia negativa, es decir el antiprotón, el antineutrón, el antielectrón y así por el estilo, ya que estos se
anulan transformándose en “energía pura” en el choque con la partícula opuesta, ¿significa acaso todo esto
que su “corporeidad” deja de existir y desaparece en la nada inmediatamente después de haberse
transformado en energía?. La energía pura es ella también una entidad. ¿Entonces cómo puede actuar y
producir fuerza si se la define inmaterial o si se supone que se anula después de haberse manifestado y de
haber producido un fenómeno de fuerza, de calor o de impulso?.

No es fácil suponer o imaginar que algo pueda aniquilarse ni siquiera sufriendo un violento cambio de
estado. Pero el científico no opera sino con base en datos de hecho surgidos de sus escrupulosas
indagaciones de cálculo u de laboratorio: si la partícula de materia o de antimateria, el electrón y el positrón,
argumenta, chocan y a causa del choque pierden sus masas emitiendo dos rayos gamma de energía pura, es
decir sin masa, esto significa que la masa ha desaparecido, se ha aniquilado. Esto es lógica cojeante, pero
lógica al fin y al cabo de manera distinta opera el pensador. Sus armas no son el acelerador de partículas o la
probeta, sino la intuición, la abstracción, la imaginación racional. Por esto es imposible para él admitir, “ab -
absurdo”, que una partícula de materia, sea de signo positivo o negativo pueda, transformándose, anularse,
desmaterializarse, perder sus características físicas y desaparecer.

Precisamente ese es el criterio del ingeniero español José Pirrone: “Hemos establecido el principio de la
eterna existencia de la materia y de su infinidad, sobre la base de la imposibilidad de concebir su creación de
la nada. Ahora bien, si la materia no puede crearse de la nada, es cierta la proposición contraria: la materia
no puede anularse, transformarse en “nada”. Si admitiésemos que un solo neutrón, un solo protón o un solo
electrón se anularan, desaparecieran cada año o cada cien años, es obvio que, dada la eternidad que ha tenido
delante de sí, la materia universal no existiría más, mejor dicho, no se habría manifestado nunca. Es pues
necesario admitir que las dos partículas colindantes, transmitiendo su energía a los dos rayos gamma
emitidos en la colisión, no han perdido nada de sus masas, las cuales obviamente se fraccionan y se
dispersan en tantas subpartículas tan pronto cesa el proceso radioactivo de la emisión de los dos rayos
gamma substanciados por sus masas. Si así no fuere no podría explicarse el así llamado “fenómeno de los
pares” según el cual un rayo gamma superenergético, chocando con una partícula cualquiera, se transforma
en materia “creando” un electrón y un positrón. Todo esto, pese a su aspecto científico se presenta a la
mente como un juego de prestidigitación en donde el sabio, no pudiendo expresar más verídicamente un
concepto, saca conejos de su sombrero de copa.”

No obstante las dudas científicas que hace surgir el concepto creación de la nada con su consecuencia en el
mundo micro: desaparecer, ahora es mayor el problema contrario a nivel del Universo: permanecer para
evolucionar. Pero aún con todas estas implicaciones, a partir de esta década lo cierto es que los cosmólogos
modernos ya lo comienzan a colocar en la lista de las definiciones aceptadas. Así, en su expresión moderna
la han divulgado - entre otros - el cosmólogo norteamericano Steven Weinberg en su obra “Los Primeros
Tres Minutos”; el físico norteamericano James S. Trefil en la obra “The Moment of the Creation”; los
cosmólogos norteamericanos John D. Barrow y Joseph Silk en la obra “The Left Hand of the Creation”, el
cosmólogo británico Paul Davies, en “God and the New Phisics”; el cosmólogo ruso - norteamericano I.D.
Novikow, en “Evolution of the Universe”; el cosmólogo británico Lloyd Motz en “The Universe: Its
Beggining and End”; Ahora bien, si para el ser humano "nada" significa justamente nada ( o la no
existencia), todo parece indicar que la presencia - aunque sea de fluctuaciones - cuánticas brevísimas
aparecidas de esa virtual nada - señalan que esa nada, no es nada absoluta, pues hay - fenomenológicamente
hablando - sucesos, no importa cuán espaciados en el tiempo.

Esto sugiere - a la vez - que esa “nada relativa” (ya no absoluta) o “vacío” como la prefieren denominar los
físicos sea una matriz que contiene al Universo conocido, lo que ubica el problema en otra dimensión: el
llamado “espacio de espacios” o “hiperespacio” (nombre sugerido por el cosmólogo norteamericano John
Wheeler en el que las leyes físicas no necesariamente serían las mismas que en nuestro Universo. Tampoco
lo son en los hipotéticos “agujeros blancos” (White Holes) planteados por el cosmólogo LLoyd Motz como
el lado opuesto de los agujeros negros (Black Holes), que conducirían de uno a otro Universo, conectadas
por los "agujeros de gusano" (Whormholes).


D.- TEORIA DE LA INFLACION .-. Hasta prácticamente finales de los setenta algunas de las explicaciones
de la física cuántica no han sido tomadas en consideración hasta que el físico norteamericano especialista en
cuántica, Robert Dicke dio una charla en la Universidad de Cornell y a ella asistió -por casualidad- el
cosmólogo Allan Guth, en esa época en la misma universidad. El impacto de lo que escuchó provocó el
inicio de un cambio revolucionario para el modelo estandar del B.B..

Normalmente los efectos de la mecánica cuántica están restringidos a sistemas en la escala subatómica y
tienen poca importancia en otros campos de la física a nivel macro; pero dado que el B.B. se considera que
tuvo condiciones que se asemejan al “laboratorio de la física subatómica”, de aquí se extrapolan conceptos
para tratar de entender procesos al inicio del B.B..

Un aspecto central de la mecánica cuántica tiene relación con la existencia de fluctuaciones no predecibles y
a niveles ultramicroscópicos el espacio y el tiempo están sujetos a cambios caóticos, no predecibles. Así el
espacio puede estrujarse o encogerse violentamente para formar una compleja arquitectura conocida como
“agujeros de gusano”, túneles y fuentes microscópicos creando la sensación de una “alfombra de espuma”,
que da - precisamente - lugar a que se le designe “El espacio - tiempo espumoso”. Las fluctuaciones
cuánticas pueden así crear por distorsión del espacio - tiempo, Universos que se presentan y desaparecen en
cuestión de instantes.

De acuerdo con esta hipótesis, el Universo actual conocido, pudo haberse formado de un proto - Universo
instantáneo de unos 10-33 cm. de tamaño. Sin embargo no es posible preguntarse por cuánto tiempo este
proto - Universo llega a tener existencia, dado que - en esencia - la mecánica cuántica predice que las
fluctuaciones son impredecibles por principio.

Este indeterminismo significa que la aparición no previsible ni prevista de un nuevo mini - Universo es, sin
embargo, un evento enteramente de acuerdo con las leyes de la física cuántica. En teoría estas fluctuaciones
cuánticas ocurren en un espacio - tiempo preexistente de otro Universo, del cual se desconecta rápidamente.
Este tipo de fenómeno ocurre en cualquier parte del Universo que pasa - la mayor parte de su tiempo
desconectado del otro.

El problema no está en explicar cómo se crea el proto - Universo, pero si como de una débil y lábil
“lágrima” o “burbuja” se convierte en el B.B. y porque no se evapora o desaparece como ocurre con la
inmensa mayoría de las fluctuaciones que ocurren en el espacio - tiempo espumoso que nos rodea y en el
que estamos inmersos. La física cuántica permite postular un tipo de antigravedad que afecta el proto -
Universo causando su expansión rapidísima de forma tal que en una minúscula fracción de un segundo el
proto - Universo ha aumentado su tamaño por 10 veces o aún más y continúa expandiéndose con velocidad
altísima. Este tipo de predicción permite admitir que el inicio del Universo en un estado de compresión
altísima, anula la singularidad de densidad infinita.
Precisamente esta idea conocida como la teoría inflacionista (debido a Allan Guth en 1981 y luego
modificada más adelante por Andrei Linde y otros) predice específicamente respecto a la densidad del
Universo que durante la fase inflacionaria que tardó escasas fracciones de un segundo, la expansión fue tan
tremenda que cualquier curvatura del espacio desapareció y el espacio plano resultante corresponde a un
Universo con una densidad de materia crítica.

En consecuencia si las observaciones confirman que esa densidad es equivalente al valor crítico, la teoría
inflacionaria podría ser adoptada como la descripción standard del Universo muy temprano (Very Early
Universe). Esta aseveración es de gran importancia dado que a fines de los setenta el modelo standard del
B.B. sin un mecanismo como el que propone la “Teoría de la Inflación” no puede ser aceptado ya como una
explicación racional, coherente y plausible.


E.-AVANCES TECNOLÓGICOS.- Desde el inicio de esta obra se ha señalado que el énfasis se encuentra
en los procesos del conocimiento en que se gestan las explicaciones y los modelos del Universo. Por tal
motivo los aspectos relacionados con los avances tecnológicos son apenas los mínimos para darle coherencia
al proceso de avance.

En este capítulo se hace una síntesis de dos de los principales instrumentos de que se sirve la cosmología
para corroborar las teorías. A nivel macro sobresalen la construcción de nuevos telescopios y
radiotelescopios, así como en la astronáutica se produce un fuerte avance en el diseño de cohetes más
eficientes y poderosos para lanzar sonda espaciales y vehículos tripulados y no tripulados. En el campo de la
física subatómica, por razones financieras la construcción de aceleradores de partículas no experimenta el
avance que los físicos requieren.


a) Ampliación del Espectro Electromagnético.- La tecnología es una forma especial del avance del
conocimiento científico que va surgiendo conforme las exigencias lo demanden, de manera que - salvo en
casos excepcionales se adelanta al conocimiento teórico, pues su uso es utilitario y no contemplativo.

En el campo de la astronomía las observaciones ópticas que se efectúan desde la Tierra resultan afectadas
por la opacidad del aire. En el sector violeta del espectro electromagnético toda radiación electromagnética
procedente del espacio exterior está limitada a una longitud de onda de 3 mil angstroms (3 x 10-5 cm.). Solo
mediante cohetes y vehículos espaciales pueden detectarse ondas menores. En la parte roja del espectro, el
aire no tiene límite definido, pero las bandas de absorción intensa de diversas moléculas libres vibrando,
causan dificultades para hacer observaciones ópticas en longitudes superiores a los 10 mil angstroms (10-4
cm.).

La atmósfera superior es impenetrable a ondas de radio menores de 1 cm. y mayores de 20 m. En
consecuencia el astrofísico tiene limitaciones para observar por la “ventana óptica”, lo que dio nacimiento, a
partir de 1932 a los radiotelescopios para abrir la “ventana radial”, y finalizada la II Guerra Mundial a los
artefactos astronáuticos para salir de la atmósfera e ir más allá aún.

En el campo de la observación visual el desarrollo de telescopios de diversa configuración y formas de
operar muestran esta secuencia ascendente: de 1609 en que Galileo aplica por primera vez una lente a la
observación del cielo el aumento es de 210 unidades, hasta llegar a los sofisticados instrumentos de las
décadas de los 70 - 80, que rinden aumentos sumamente altos y de excelente resolución en varias franjas del
espectro electromagnético ; en el campo de la observación radial que se inicia con el ingenioso
norteamericano Karl Jansky (1932, que nada tenía que ver con la astronomía) se obtienen las primeras
escuchas en el espectro radial en las frecuencias de 15 m. y 13 m. A partir de aquí, gracias a los trabajos
pioneros de los radioastrónomos se abren más y más frecuencias.

Para 1963 ya la astronomía tiene abierta la ventana que le da acceso a emisiones de rayos x; dos años
después se abre el espectro infrarrojo, tres años más tarde el espectro ultravioleta; para la década de los
setenta es posible detectar las emisiones de rayos gamma; en 1973 las radiaciones submilimétricas, dos años
después las radiaciones procedentes del espectro ultravioleta externo y a partir de los ochenta se inician los
diseños para captaciones de rayos cósmicos; de los hipotéticos “monopolos magnéticos” - supuestamente
remanentes de la explosión primogenia y para la década de los 90 de las ondas gravitacionales.

La apertura y ensanchamiento paulatino del espectro no se limita a facilidades terrestres, sino que surgen
cada vez más y más sofisticaciones tecnológicas procedentes de la investigación militar, que se aplican a la
investigación astrofísica desde fuera de la atmósfera terrestre para aumentar la sensibilidad y sensitividad de
lo observado y escuchado.

Con la aparición de la informática en los años 50 y 60 a partir de estas fechas se acoplan a los telescopios y
radiotelescopios, para darles además de eficiencia operativa, la posibilidad de hacer rastreos y seguimientos
automatizados y con la aparición de las primeras técnicas de digitalización para la captación de imágenes y
sonidos del Universo la cosmología se comienza a enfrentarse con mejores instrumentos a retos mayores.

Para el inicio de la década de los 70, el aumento en la sensibilidad de un radiotelescopio en un factor de 10,
por ejemplo, aumenta el volumen de espacio a estudiar por un factor de 33. El aumento en la sensibilidad
por un factor de 100, que se logra al finalizar esa década, incrementó el volumen de espacio por un factor de
100, lo que significó la posibilidad de estudiar directamente decenas de millones de estrellas y mejorar
substancialmente el estudio de objetos extendidos: galaxias, radiogalaxias, cúmulos, supercúmulos,
nebulosas y otros objetos.

Entre los 70 y 80 nace en realidad un nuevo capítulo en el estudio del Universo: la astronomía extragaláctica
es decir - la posibilidad de conocer en detalle los mecanismos de formaciones de otras galaxias aparte de la
nuestra. Nace también el proyecto que culminará en la década de los 90: la construcción del primer
telescopio espacial bautizado Hubble.

Para finales de la década de los 70 la Unión Astronómica Mundial logra con grandes dificultades, un
acuerdo internacional que le permite reservar frecuencias para la experimentación. La lucha es fuerte, pues
debe competir con gobiernos interesados en usar esas frecuencias para inteligencia militar y con grandes
corporaciones que las desean para fines comerciales.

Además durante los 70 y 80 la competencia entre los Estados Unidos y la Unión Soviética es muy fuerte por
el dominio del espacio con base en el uso del espectro electromagnético, el emplazamiento de ojivas
nucleares en cohetes balísticos y en el envío de globos y sondas espaciales tripuladas y no tripuladas al
espacio.

Junto al inicio del diseño del Telescopio Espacial Hubble por parte de los Estados Unidos de América, la
Unión Soviética inaugura en 1982 el mayor telescopio terrestre en el Observatorio Pulkova, que eclipsa las
facilidades de que disponen los célebres telescopios colocados en el Monte Palomar en California; por su
parte la administración del ESO (Observatorio Espacial Europeo) decide iniciar la construcción del
denominado “VLT”, con espejos cóncavos de ocho metros de diámetro, pero muy delgados y flexibles. Esta
organización fundada en 1962 por Francia, Alemania, Bélgica, Holanda, Dinamarca y Suecia, a las cuales se
suman luego Italia y Suiza, planea ubicar el VLT en el centro en Chile, en la cumbre del Cerro Paranal a
2.636 m. de altura. El VLT será el mayor observatorio óptico de todos los tiempos: comprenderá cuatro
telescopios, interconectados; una vez combinados, estos suministrarán una potencia luminosa total
equivalente a la de un telescopio de dieciséis metros.

Gracias a esta técnica, sería posible distinguir la silueta de un hombre que caminara en la Luna, o la luz de
una luciérnaga a más de 10.000 kilómetros de distancia. Apuntando a los objetos más remotos del Universo
conocido (galaxias en formación, quásares), podrá remontarse en el tiempo a más de 100.000 millones de
años luz. La NASA calcula que el Telescopio Espacial Hubble (H.S.T.) tendrá una resolución 10 veces más
brillante y definido que los telescopios terrestres; abarcará todo el espectro visible y gran parte del espectro
infrarrojo y ultravioleta; por lo tanto podrá observar objetos colocados hasta 50 veces más allá de donde
alcanzan los más poderosos telescopios terrestres.
b) Astronáutica.- Desde el punto de vista de la historia esta ciencia que se inicia con la “eolipilia” de Herón
de Alejandría (siglos I - II a.C.). Esta consistía en un caldero que producía vapor - que escapando por una
abertura controlada se elevaba del suelo. Hacia el año 160 a.C., Herciano de Sonorata escribe su “Historia
Verdadera”, novela que da cuenta del viaje de Ulises a la Luna, después de siete días de periplo. Si se
incluye la invención de la pólvora por los chinos (700 - 900 d.C.), el estudio de los “cohetes en 1379 por el
italiano Muratoi; los sueños de K.E. Siokolski de exploración del espacio con cohetes a reacción (1898) y se
da un salto en la historia, se llega a los trabajos de Robert Goodard en USA; luego al 4 de octubre de 1957
con el inicio de la Era del Espacio, con el lanzamiento del cohete Sputnik por la URSS y esta primera etapa
de afanes de la Humanidad se cierra con la misión Apolo 17 de USA (que completa 6 alunizajes tripulados).
A partir de aquí se abre un nuevo capítulo espectacular gracias a las Sondas Espaciales lanzadas a descifrar
el Sistema Solar y a los Laboratorios Espaciales que orbitan la Tierra; las que junto al desarrollo de nuevos
avances informáticos están cambiando con rapidez inusitada la percepción de la Humanidad sobre el
Universo, porque los medios de información se ocupan de divulgar cuanto acontece en este campo.

Para el gran público lo que trasciende de la investigación de la física del espacio, en estas décadas son las
imágenes fotográficas, las transmisiones radiales y las imágenes televisivas que muestran la Luna captada
por las diferentes misiones Apollo; y los planetas Marte y Mercurio; así como los anillos de Saturno,
captadas por las misiones Vikingo. Conforme van avanzando los adelantos en la astronáutica y el ser
humano se prepara para acometer otras aventuras; la conquista del espacio acapara la atención mundial, a la
vez que compite - en el área de la política internacional - con el triste episodio llamado “Guerra de las
Galaxias”, que puso al planeta en inminente peligro de destrucción, como lo recuerda un artículo escrito
especialmente para la Universidad para la Paz, por el novelista Gabriel García Márquez (Véase Anexo al
final ).

Si bien es cierto para finales de los 80 el colapso de la Unión Soviética y su anillo de países periféricos
abren la humanidad a un período de distensión y cesa el peligro de la Guerra de las Galaxias, la realidad
como se conoce en la década de los 90, es que el peligro no ha pasado, porque la gran cantidad de material
radioactivo en producción o ya en su sitio estratégico - militar, puede ser utilizado por fuerzas que pugnan
por moldear las sociedades.

c) Aceleradores de Partículas.- Se denomina aceleradores de partículas a instrumentos de formación lineal o
circular-dependiendo de su uso- que utilizan energías bajas o sumamente altas para acelerar subpartículas
atómicas diversas para estudiarlas detenidamente. En la mayoría de los casos no es posible ver esas
subpartículas y tan solo se definen por las trayectorias que dejan en las pantallas que recogen sus impactos
en blancos expresamente diseñados para ello.
Inicialmente todos los aceleradores utilizaban únicamente las formulaciones de Maxwell y
de Lorentz ,pero al hacerse cada vez mas y mas sofisticados e incluso pretender alcanzar la velocidad de la
luz se utilizan nuevas formulaciones derivadas de esas dos fundamentales.
Según sea el uso que se les de los aceleradores se denominan:
a) Aceleradores lineales y circulares , y los hay de dos tipos ( ciclotrones y sincrotones). Los ciclotrones
pueden alcanzar energías de hasta 10 MeV , y los sincrotones pueden alcanzar energías de hasta 4 GeV ,sin
embargo ,para estas fechas hay en proyecto la construcción de nuevas máquinas muy potentes ,pero su alto
costo ha detenido su puesta en práctica .


2.-ARMANDO UN MODELO EVOLUTIVO DEL UNIVERSO.-

Para armar un modelo evolutivo que tenga coherencia, capaz de incluir desde la proyectiva terrestre y desde
el inicio del Universo hasta nuestros días, es conveniente recurrir a hacer cortes artificiales en la historia
evolutiva del Universo. Precisamente la hipotética creación del Universo actual, es un suceso que el físico
norteamericano especialista en fenómenos cuánticos Stephen Weinberg (a principios de los setenta) describe
paso a paso (como una película que se detiene cuadro por cuadro), en la obra “Los Primeros Tres Minutos”.
Toda descripción en física cuántica - según el lógico - matemático español Juan David García - Baca: “es
útil para designar una “función” de estado de un sistema físico dado, que se refiere a una situación “latente”
que pasa a la categoría de “patente”, esto es que se puede visualizar como un “constructo-físico-matemático”
que da razón de un símil de la realidad tal y como se supone ocurrió.”( ) Se advierte que en la presentación
original Weinberg inicia el conteo en el tercer cuadro (que pone de primero). La modificación se hace para
graficar con una sola explicación lo ocurrido - según esta revisión - desde antes que T sea O; esto es: T = < 0

El modelo evolutivo se presenta en cuatro cortes secuenciales.



PRIMER CORTE: Inicio del Universo

PRIMER CUADRO (ALTAMENTE ESPECULATIVO)

Fecha ¿X o infinito?
Espacio Infinito o finito cerrado sobre sí mismo
Tiempo 1/101 después del comienzo
Condiciones Según la teoría original del B.B. hay una sola creación, si así es, la condición:
es densidad infinita; temperatura infinita. Otra teoría
establece que el Universo ha pasado por varios ciclos de B.B. (explosión - expansión y contracción); si así
es, la condición, entonces: b) es densidad y temperatura final alcanzadas por la última fase de contracción,
antes de que se revierta el proceso y se inicie un nuevo ciclo de explosión. Otra teoría expresa que a cada
nuevo ciclo es posible que cambien las leyes de la física, si es así la condición, entonces: c) es densidad y
temperatura, las que determinen el nuevo proceso (lo que está en relación con modificaciones de la entropía
global del Universo).


SEGUNDO CUADRO ( moderadamente especulativo)

Fecha Entre 10 - 20 millones de años
Lugar Un sitio indeterminado, a partir del cual se inicia la creación del espacio.
Tiempo 1/100 de segundo después del comienzo.
Condiciones Los conocimientos físicos no permiten señalar cual pueda ser el estado de una especie de “sopa
primordial” a altísima temperatura (más de 100.000 millones de grados Kelvin conformada por fotones,
leptones, antileptones, quarks y antiquarks pero se presume que actúan como partículas libres (según lo han
demostrado experiencias con hadrones en el “MIT - Stanford Linear Accelerator Center”) que producen
diversos efectos de “radiación de cuerpo negro” .

Comentarios

1) Hugh David Politzer (Harvard), David Gross y Frank Wilczek (Princeton) en 1973 señalan que: en una
clase especial de teoría del campo cuántica - conocidas como “Teorías Gauge” (Aforo) no Abelianas las
fuerzas de interacción de los quarks se debilitan en relación inversa a su cercanía. Esta “libertad asintótica”,
junto a altas energías permiten a los quarks su actuación como partículas libres.
2) J. C. Collins y M.J. Perry (Cambridge) en 1976 han postulado que el comportamiento de un medio de
mucha densidad a muy alta temperatura es esencialmente igual al que tiene uno que esté conformado
únicamente de partículas elementales libres, lo que les lleva a afirmar que en 1/100 de segundo después del
comienzo el Universo estaba conformado de partículas elementales libres.

Prueba de laboratorio: No ha sido posible romper ningún hadrón en sus quarks constitutivos y ello
representa un reto y un enigma para la física cuántica. Debido a esta situación se ha especulado mucho sobre
esta situación y respecto a las fuerzas débiles y fuertes envueltas en el proceso.

Escuelas: Para lidiar con el problema de las altas temperaturas cuando los hadrones y antihadrones están
presentes en grandes cantidades, hay dos escuelas que tienen diferentes maneras de resolver el problema. La
escuela que no diferencia los hadrones, los estima similares conocida como la doctrina de la “democracia
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social
Modelo standard del bing bang y contexto social

Más contenido relacionado

La actualidad más candente

¿Que es la ciencia en la investigacion?
¿Que es la ciencia en la investigacion?¿Que es la ciencia en la investigacion?
¿Que es la ciencia en la investigacion?HazielJohanSarmiento
 
FILOSOFÍA- REVOLUCIÓN CIENTÍFICA
FILOSOFÍA- REVOLUCIÓN CIENTÍFICAFILOSOFÍA- REVOLUCIÓN CIENTÍFICA
FILOSOFÍA- REVOLUCIÓN CIENTÍFICAJosefa Shayo
 
Unidad 4 pame biologia
Unidad 4 pame biologiaUnidad 4 pame biologia
Unidad 4 pame biologiaPame Vanessa
 
Análisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard MlodinowAnálisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard MlodinowDavid Alcántara
 
Dios y la ciencia en la cosmología
Dios y la ciencia en la cosmologíaDios y la ciencia en la cosmología
Dios y la ciencia en la cosmologíawilliamswallace79
 
El Fundamentalismo Científico - Dra. Eneida Matos
El Fundamentalismo Científico - Dra. Eneida MatosEl Fundamentalismo Científico - Dra. Eneida Matos
El Fundamentalismo Científico - Dra. Eneida Matosug-dipa
 
Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1williamswallace79
 
Galileo Galilei. Conflicto ciencia - religión.
Galileo Galilei. Conflicto ciencia - religión.Galileo Galilei. Conflicto ciencia - religión.
Galileo Galilei. Conflicto ciencia - religión.Fernando Cuartero
 
Paradigmas de kuhn
Paradigmas de kuhnParadigmas de kuhn
Paradigmas de kuhnMaki Salcedo
 
Galileo galilei
Galileo galileiGalileo galilei
Galileo galileipaula-more
 
Renacimiento y Revolución científica
Renacimiento y Revolución científicaRenacimiento y Revolución científica
Renacimiento y Revolución científicaaprendefilo
 
La historia de la ciencia
La historia de la cienciaLa historia de la ciencia
La historia de la cienciafhynee
 

La actualidad más candente (20)

¿Que es la ciencia en la investigacion?
¿Que es la ciencia en la investigacion?¿Que es la ciencia en la investigacion?
¿Que es la ciencia en la investigacion?
 
03 paradigmas, para qué
03 paradigmas, para qué03 paradigmas, para qué
03 paradigmas, para qué
 
FILOSOFÍA- REVOLUCIÓN CIENTÍFICA
FILOSOFÍA- REVOLUCIÓN CIENTÍFICAFILOSOFÍA- REVOLUCIÓN CIENTÍFICA
FILOSOFÍA- REVOLUCIÓN CIENTÍFICA
 
Unidad 4 pame biologia
Unidad 4 pame biologiaUnidad 4 pame biologia
Unidad 4 pame biologia
 
Análisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard MlodinowAnálisis y síntesis de El Gran Diseño, Leonard Mlodinow
Análisis y síntesis de El Gran Diseño, Leonard Mlodinow
 
Dios y la ciencia en la cosmología
Dios y la ciencia en la cosmologíaDios y la ciencia en la cosmología
Dios y la ciencia en la cosmología
 
Historia de la ciencias
Historia de la cienciasHistoria de la ciencias
Historia de la ciencias
 
UNIDAD 4
UNIDAD 4UNIDAD 4
UNIDAD 4
 
nataly
natalynataly
nataly
 
El Fundamentalismo Científico - Dra. Eneida Matos
El Fundamentalismo Científico - Dra. Eneida MatosEl Fundamentalismo Científico - Dra. Eneida Matos
El Fundamentalismo Científico - Dra. Eneida Matos
 
Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1Dios y la ciencia en la cosmologí1
Dios y la ciencia en la cosmologí1
 
Galileo Galilei. Conflicto ciencia - religión.
Galileo Galilei. Conflicto ciencia - religión.Galileo Galilei. Conflicto ciencia - religión.
Galileo Galilei. Conflicto ciencia - religión.
 
Paradigmas de kuhn
Paradigmas de kuhnParadigmas de kuhn
Paradigmas de kuhn
 
Ciencia modernM
Ciencia modernMCiencia modernM
Ciencia modernM
 
Galileo galilei
Galileo galileiGalileo galilei
Galileo galilei
 
Renacimiento y Revolución científica
Renacimiento y Revolución científicaRenacimiento y Revolución científica
Renacimiento y Revolución científica
 
La historia de la ciencia
La historia de la cienciaLa historia de la ciencia
La historia de la ciencia
 
Preguntas filosofía adaptadas
Preguntas filosofía adaptadasPreguntas filosofía adaptadas
Preguntas filosofía adaptadas
 
HISTORIA DE LA CIENCIA
HISTORIA DE LA CIENCIAHISTORIA DE LA CIENCIA
HISTORIA DE LA CIENCIA
 
Revolución cientifica douglas
Revolución cientifica douglasRevolución cientifica douglas
Revolución cientifica douglas
 

Destacado (6)

Energia
EnergiaEnergia
Energia
 
Energia
EnergiaEnergia
Energia
 
El racismo
El racismoEl racismo
El racismo
 
Las cosmologías de los indios de la amazonia
Las cosmologías de los indios de la amazoniaLas cosmologías de los indios de la amazonia
Las cosmologías de los indios de la amazonia
 
Pensamiento
PensamientoPensamiento
Pensamiento
 
Del mito a newton
Del mito a newtonDel mito a newton
Del mito a newton
 

Similar a Modelo standard del bing bang y contexto social

¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. Pérez
¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. Pérez¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. Pérez
¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. PérezRicardo Villa
 
Las bases de la creación moderna
Las bases de la creación modernaLas bases de la creación moderna
Las bases de la creación modernawilliamswallace79
 
La imagen pública de la química
La imagen pública de la químicaLa imagen pública de la química
La imagen pública de la químicaangelo26_
 
Universidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologiaUniversidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologiaJess La Beba
 
Creación del el universo 8D UESFA
Creación del el universo 8D UESFACreación del el universo 8D UESFA
Creación del el universo 8D UESFAStephyPP
 
La búsqueda del sentido libro 1 cap 8
La búsqueda del sentido libro 1 cap 8La búsqueda del sentido libro 1 cap 8
La búsqueda del sentido libro 1 cap 8Miguel Cano
 
Dios, el éter y el cosmos
Dios, el éter y el cosmosDios, el éter y el cosmos
Dios, el éter y el cosmosangelo26_
 
Presentacion ipc 1
Presentacion ipc 1Presentacion ipc 1
Presentacion ipc 1koffuneral
 
Presentacion ipc 1
Presentacion ipc 1Presentacion ipc 1
Presentacion ipc 1koffuneral
 
La ciencia
La cienciaLa ciencia
La cienciarovis20
 
El concepto de paradigma en thomas kuhn
El concepto de paradigma en thomas kuhnEl concepto de paradigma en thomas kuhn
El concepto de paradigma en thomas kuhnMartha Guarin
 
Historia de las ciencias
Historia de las cienciasHistoria de las ciencias
Historia de las cienciasFernelcaraballo
 
Las cosmovisiones cientificas
Las cosmovisiones cientificasLas cosmovisiones cientificas
Las cosmovisiones cientificasfjcalzado
 
Ada 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalimAda 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalimLuis Altamirano
 

Similar a Modelo standard del bing bang y contexto social (20)

¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. Pérez
¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. Pérez¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. Pérez
¿EVOLUCIONISMO... O “FEVOLUCIONISMO”?... - Dr. Ing. Raúl C. Pérez
 
Las bases de la creación moderna
Las bases de la creación modernaLas bases de la creación moderna
Las bases de la creación moderna
 
La imagen pública de la química
La imagen pública de la químicaLa imagen pública de la química
La imagen pública de la química
 
Universidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologiaUniversidad estatal de milagro tarea de biologia
Universidad estatal de milagro tarea de biologia
 
Creación del el universo 8D UESFA
Creación del el universo 8D UESFACreación del el universo 8D UESFA
Creación del el universo 8D UESFA
 
La búsqueda del sentido libro 1 cap 8
La búsqueda del sentido libro 1 cap 8La búsqueda del sentido libro 1 cap 8
La búsqueda del sentido libro 1 cap 8
 
Dios, el éter y el cosmos
Dios, el éter y el cosmosDios, el éter y el cosmos
Dios, el éter y el cosmos
 
Presentacion ipc 1
Presentacion ipc 1Presentacion ipc 1
Presentacion ipc 1
 
Presentacion ipc 1
Presentacion ipc 1Presentacion ipc 1
Presentacion ipc 1
 
Ciencias de la complejidad
Ciencias de la complejidadCiencias de la complejidad
Ciencias de la complejidad
 
La ciencia
La cienciaLa ciencia
La ciencia
 
El concepto de paradigma en thomas kuhn
El concepto de paradigma en thomas kuhnEl concepto de paradigma en thomas kuhn
El concepto de paradigma en thomas kuhn
 
Historia de las ciencias
Historia de las cienciasHistoria de las ciencias
Historia de las ciencias
 
Unidad 4 b.
Unidad 4 b.Unidad 4 b.
Unidad 4 b.
 
Unidad 4 b.
Unidad 4 b.Unidad 4 b.
Unidad 4 b.
 
Unidad 4 b.
Unidad 4 b.Unidad 4 b.
Unidad 4 b.
 
Unidad 4 b.
Unidad 4 b.Unidad 4 b.
Unidad 4 b.
 
Unidad 4 Gaby
Unidad 4 GabyUnidad 4 Gaby
Unidad 4 Gaby
 
Las cosmovisiones cientificas
Las cosmovisiones cientificasLas cosmovisiones cientificas
Las cosmovisiones cientificas
 
Ada 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalimAda 1.ultimisisimamtro kalim
Ada 1.ultimisisimamtro kalim
 

Más de williamswallace79 (20)

El reencuentro
El reencuentroEl reencuentro
El reencuentro
 
Cosmología
CosmologíaCosmología
Cosmología
 
Cosmogonías desde la antigüedad al tercer milenio
Cosmogonías desde la antigüedad al tercer milenioCosmogonías desde la antigüedad al tercer milenio
Cosmogonías desde la antigüedad al tercer milenio
 
Altruismo
AltruismoAltruismo
Altruismo
 
Para qué existe el universo
Para qué existe el universoPara qué existe el universo
Para qué existe el universo
 
Taller Estequiometría
Taller EstequiometríaTaller Estequiometría
Taller Estequiometría
 
Taller Reacciones Químicas
Taller Reacciones QuímicasTaller Reacciones Químicas
Taller Reacciones Químicas
 
Propiedades físicas de compuestos organicos
Propiedades físicas de compuestos organicosPropiedades físicas de compuestos organicos
Propiedades físicas de compuestos organicos
 
Mosquito transgenico
Mosquito transgenicoMosquito transgenico
Mosquito transgenico
 
Energia
EnergiaEnergia
Energia
 
Alimentacion
AlimentacionAlimentacion
Alimentacion
 
Objetivos competencias y ejes
Objetivos competencias y ejesObjetivos competencias y ejes
Objetivos competencias y ejes
 
Programa tercer periodo decimo
Programa tercer periodo decimoPrograma tercer periodo decimo
Programa tercer periodo decimo
 
Programa tercer periodo undecimo
Programa tercer periodo undecimoPrograma tercer periodo undecimo
Programa tercer periodo undecimo
 
Notas Segundo Periodo
Notas Segundo PeriodoNotas Segundo Periodo
Notas Segundo Periodo
 
Notas Segundo Periodo
Notas Segundo PeriodoNotas Segundo Periodo
Notas Segundo Periodo
 
Notas Segundo Periodo
Notas Segundo PeriodoNotas Segundo Periodo
Notas Segundo Periodo
 
Notas Segundo Periodo
Notas Segundo PeriodoNotas Segundo Periodo
Notas Segundo Periodo
 
Notas Segundo Periodo
Notas Segundo PeriodoNotas Segundo Periodo
Notas Segundo Periodo
 
Virus
VirusVirus
Virus
 

Modelo standard del bing bang y contexto social

  • 1. Modelo standard del Bing Bang y Contexto Social (1975 -1985) Pasada la época de las grandes diferencias en torno a las dos escuelas de pensamiento cosmológico; habiendo ganado la partida - al menos por ahora - la teoría que propugna que el Universo se originó hace 15 mil millones de años (13.7 al final de los noventa) , todos los descubrimientos y las mediciones astronómicas, así como los avances en la física cuántica comienzan a unirse para ofrecer una interpretación del nacimiento y evolución del Universo y es notorio el esfuerzo que comienza a tomar forma para tratar de traspasar el Muro de Plank, buscando explicaciones para el Universo Inicial (modelos del "Very Early Universe"). Durante estos años el “retrato” se irá modificando en algunas partes: aclarándose muchas pero complicándose en otras también. En esta labor hay mucha paciencia para tratar tan grave asunto como es definir el Universo, su nacimiento y evolución. Las explicaciones sobre modelos o variaciones de modelos que trascienden al lego en la materia, están precedidas de cálculos físico - matemáticos que se alimentan - a su vez - de datos que sufren modificaciones constantemente conforme avanzan los métodos observacionales y entran en operación nuevos diseños de artefactos para detectar radiaciones cósmicas (telescopios, radiotelescopios, aviones especialmente equipados, sondas , naves espaciales y laboratorios orbitales) que recogen datos sobre el macrocosmos; o procedentes de informaciones de laboratorios terrestres que tratan del mundo subatómico y sus elusivas partículas elementales. El debate sobre los modelos del origen del Universo deja como secuela positiva al menos tres aspectos: a) El nacimiento del interés de parte de la ciencia por descifrar el problema del origen del Universo; b) la proliferación de propuestas de mecanismos que explican parcialidades del proceso evolutivo que va desde T=0, (esto es desde el inicio del tiempo); hasta las posibilidades de su desaparición; c) una mejor comprensión de las fases evolutivas que van desde las radiaciones iniciales hasta la aparición de planetas con posibilidades de albergar vida (tanto de tipo "inteligente", como más modesta: bacterias , virus y otros eventuales organismos extremos , por ejemplo). En el área de los acontecimientos sociopolíticos la década de los setenta es la “década perdida” ; no así para la cosmología que lejos de los avatares ideológicos, sigue aumentando el caudal de los conocimientos y en campos en los que no se pudo avanzar se debió bien a que la construcción de instrumentos de detección y medición estaban en proceso de construcción, o al temor natural en algunos cosmólogos para arriesgar teorías, dado el sonado fracaso de parte de los defensores de la Teoría del Estado Estacionario, (con excepción del inglés Fred Hoyle, quien proseguiría su producción científica). Como un dato curioso puede resaltarse que a nivel del vulgo -y aún entre personas de alto nivel escolar- se manejan sin aparentes contradicciones dos conceptos francamente antagónicos : uno, que el Universo es eterno, otro que el Universo tuvo un comienzo hace unos quince mil millones de años. E igualmente se manejan indistintamente –y sin contradicciones- la concepción bíblica que da cuenta de la creación del ser humano con barro terrestre de un soplo divino y la idea simplificada de la evolución darwinista: la que se refiere a nuestra "descendencia del mono", como si se tratara de una secuencia lineal, en donde solo faltaría encontrar un eslabón perdido (posiblemente un esqueleto o parte de él) . En esta época también deben resaltarse dos preocupaciones: una se refiere a la preocupación del rumbo de los conocimientos científicos y tecnológicos, éstos como un derivado de las ciencias físicas y químicas aplicadas. La segunda se relaciona con el temor a un holocausto atómico, como consecuencia de la proliferación y sofisticación de las "armas de defensa" termonucleares y bacteriológicas en poder de las castas militares de no más de siete países desarrollados y uno que comienza a mostrar sus dientes en este campo.. Igualmente esta época se caracteriza por el movimiento de una conciencia planetaria incipiente que puede rastrearse en esfuerzos desperdigados: a) la eclosión de esfuerzos tendentes a la preservación ecológica y de especies zoológicas en extinción;
  • 2. b) la eclosión de la idea de un "cambio" cuyo rostro aún no está claro, pero que se evidencia en América Latina y en los países del Tercer Mundo en dos campos específicos: uno la necesidad de un Nuevo Orden Económico , y el otro ,la prédica de un Nuevo Orden Informativo. Ambos cambios se ansían tengan un espectro mundial, y esa es la tónica que unifica la aspiración al reordenamiento político del globo. Lejos de estos acontecimientos, los años bajo examen permiten dar cuenta de lo que socialmente se detecta como una reactivación religiosa -que incluye la proliferación y la división del cristianismo en sectas- y que en el seno de la cristiandad se denomina más propiamente como "avivamiento de la presencia del Espíritu Santo" y que se visualiza en los medios electrónicos de comunicación bajo la fuerte aparición del "Tele evangelismo". La ausencia total de la influencia del cristianismo en la elaboración de modelos cosmológicos que caracteriza la época (al hacerse bajo estrictos parámetros científicos) deja -sin embargo- un vacío que ya había advertido intuitivamente Einstein, cuando afirmaba que "la ciencia sin religión era ciega y la religión sin ciencia era coja" . Por tanto, al igual que en las décadas anteriores en que la ciencia termina sustituyendo la filosofía, y muy particularmente la metafísica, también la ciencia termina sustituyendo a la religión . La ausencia del pensamiento religioso en los asuntos que atañen a la creación del Universo y los acontecimientos relacionados con la creación de los seres vivos ,incluyendo al ser humano ,no deja un vacío, porque ese espacio comienza a ser llenando por las inquietudes de algunos físicos , con planteos holísticos ,entre ellos los ingleses David Bohmn, Hugh Everett, y el norteamericano Fritjoh Capra , en consuno con científicos procedentes de otras áreas (particularmente del área de la biología). Así el nuevo pensamiento resultante servirá para alimentar al surgimiento de una nueva visión planetario- cósmica denominada "New Age" (Nueva Era) que mezclará con franca liberalidad concepciones científicas serias con planteos astrológicos y con ideas místicas y religiosas (particularmente provenientes del Budismo y del Brahmanismo), junto con inquietudes ecológicas y escatológicas y algunas pinceladas de corte panteísta, en donde el nombre de Theilhard de Chardin sale a relucir ,como si este jesuita –científico hubiese impulsado una visión neo- panteísta cristiana, lo que constituye una apreciación errónea de sus planeamientos, pero en el abigarrado folklorismo que caracteriza las ideas de la Nueva Era, este gazapo pasa totalmente desapercibido. En este capítulo ,siguiendo la práctica de circunscribirnos a lo que ocurre en el período bajo examen los temas señalados se tratan en cuatro áreas: a) La primera se refiere al Estado de situación del Modelo Big Bang, que muestra cómo se elabora un modelo standard dentro de la cosmología de inicio caliente, a mediados de la década, así como nuevas ideas que van fijándose en torno a los modelos dentro de la cosmología del B.B. También trata del surgimiento de concepciones de Escatología Planetaria, ligadas a la eventual desaparición del Universo . b) La segunda constituye una revisión de los problemas que implica para el destino humano la aparición de estas ideas c) La tercera nos lleva a revisar los obstáculos para los cambios en un planeta con graves problemas para una coexistencia pacífica fundada en la justicia social . d) La cuarta se refiere a la necesidad del ser humano para que el conocimiento que adquiere sobre el origen del Universo le sirva además para darle norte y sentido a la vida. 1.- MODELO ESTÁNDARD DE LA CREACIÓN DEL UNIVERSO Hasta el momento solo hemos revisado ideas acerca de las ideas con las cuales se formulan hipótesis para armar modelos de universos según las ideas de autores diversos. En esta sección incluiremos un modelo científico formulado en 1973 por un astrónomo ,lo que nos va a permitir conocer de primera mano la forma de postular un modelo. Debe si hacerse la advertencia de que el modelo carece de la formulación matemática para facilitar al lector no familiarizado con este lenguaje la comprensión de cual es la argamasa con la cual los científicos arman sus modelos cosmológicos. De la revista Annual Review of Astronomy and Astrophysics ,publicación anual norteamericana sin fines de lucro, se extrae un ejemplo de la formulación de un modelo teórico estándar que muestra cómo acomete un cosmólogo, en este caso Edward R. Harrison de la Universidad de Massachusetts (en 1973), el trabajo de
  • 3. diseñar una explicación satisfactoria a la interpolación de deducciones y observaciones para apuntalar la hipótesis de un Universo en una gran explosión caliente, que comienza a ganar prestigio y adeptos, así como a difundirse entre los legos. Se advierte que tanto la traducción como la adaptación ,para ajustarla al modelo expositivo que hemos venido siguiendo , son responsabilidad del autor. Introducción.- Gamow y sus colegas Alpher, Follin y Herman plantean desde 1946 - y luego reiteran en 1953 - la idea de un B.B. en que el Universo inicial es denso y caliente; en 1965 Penzias y Wilson y por separado Dicke y otros dan a conocer el descubrimiento de una radiación de fondo de 2.7° grados Kelvin (en la literatura cosmológica aparece simplificada como 3° K) como remanente de la explosión original postulada en teoría. La teoría standard postula que, en los primeros instantes tras la gran explosión se produjo una extensa aniquilación de materia y antimateria conforme el Universo se iba enfriando, convirtiéndose casi toda la antimateria -lo mismo que casi toda la materia- en energía. Esto dio origen a un Universo de elevada entropía, tesis que recibió su espaldarazo experimental en la observación de la radiación de fondo de microondas a 2,7 grados Kelvin. En este contexto, la alta entropía significa muchos fotones (partículas de luz por partícula de materia: electrones, protones y neutrones; o, por usar parámetros terrestres y estelares, una bajísima densidad para cualquier temperatura. En virtud de esa alta entropía, los productos principales de la nucleosíntesis cosmológica fueron hidrógeno y helio, (combustible de las estrellas, no sus cenizas) y materia primordial del Universo. Con el término nucleosíntesis se designan los procesos a través de los cuales los núcleos atómicos se transforman a escala cósmica. Implica el estudio de los procesos acometidos por la materia primordial en las concentraciones observados en los objetos celestes (Sistema Solar, estrellas, gas interestelar, rayos cósmicos). Las abundancias de núcleos observadas representan las cenizas de estadios anteriores de combustión nuclear. La teoría de la nucleosíntesis cosmológica es de un éxito notable: Explica las concentraciones del 98 por ciento de la materia observada del Universo; pero sólo desentraña la producción de cinco núcleos: hidrógeno, deuterio, helio-3, helio-4 y litio. Se cree que las condiciones iniciales de la nucleosíntesis estelar sea el resultado de la nucleosíntesis cosmológica: esto es que en las estrellas encontramos las condiciones capaces de suministrar las abundancias de casi todos los núcleos y que la evolución de las estrellas es la historia de sus transmutaciones nucleares y los efectos consecuentes en la estructura estelar. Para explicar este proceso, los físicos Suzuki en 1931, Tolman en 1932 y Hawking en 1967 al hacer un rastreo de la historia, distribución y abundancia relativa de los elementos químicos, plantean un comienzo caliente y denso; pero no todos los cosmólogos aceptarán esa condición inicial. Aún a mediados de los setenta, hay cosmólogos que abogan por un B.B. “frío” y no aceptan que la radiación del 2.7°grados Kelvin sea el remanente cósmico de un estallido caliente. Discusiones Físicas Previas.- El modelo que prepone Harrison parte de estas premisas: 1.- De 1917 hasta el año 1972, el estudio de las condiciones físicas existentes en el inicial (Early Universe) es objeto de estudios publicados por parte de: Alpher y Herman (1950); Novikow y Zeldovich (1967); Dautcourt y Wallis (1950); Longair (1971); Sato, Masuda y Takeda (1971), Pebles (1971), Weinberg (1972)), Alpher, Follin y Herman (1953); Dicke y otros (1965), Harrison (1968), Field (1969), Shatzman (1969), De Graaf (1970), Zel'dovich (1970), Kunt (1971, Steizman (1971), Patridge (1969), Thadeus (1972), lo que arroja un total de 18 comunicaciones científicas publicadas en revistas reconocidas por la academia oficial internacional. (Unión Astronómica Internacional, UIE) 2.- Hasta 1972, el tema del Universo muy inicial (Very Early Universe) es objeto de una sola comunicación que cumple con los requisitos de aceptación científica y es debido a Zel'dovich y Novikow en 1973 (aspectos generales). 3.- El tema de la Singularidad es objeto de dos comunicaciones científicas debidas a Hawking y Ellis (1968) y Hawking y Penrose (1970). 4.- Por otra parte, el tema de la barrera de la existencia de partículas elementales en condiciones muy extremas (Very Early Universe) es objeto de dos comunicaciones debidas a Bahcall y Frautschi (1971) y a Harrison (1970). 5.- De igual forma el tema de creación de partículas a la densidad crítica de Plank (Muro de Plank) es objeto
  • 4. de dos trabajos que llenan los requisitos oficiales y son debidos a Parker (1972), Zel'dovich y Starobinsky (1972). 6.- Para explicar el “Early Universe” caliente hay un modelo standard, no así para el “ Very Early Universe”, dado que las condiciones de quiebra de las leyes físicas hacen altamente especulativa la teorización. Nota: Si un lector curioso desea conocer cuantas son las publicaciones que existen en cualesquiera de los años del Tercer Milenio va a quedar asombrado: son cientos de miles,lo que da una idea no solo del avance de la astronomía y la cosmología, sino de la gran cantidad de personas dedicadas a estas disciplinas. En uno de los anexos al final de este libro se publica una tabla que muestra esos datos. Cálculos Matemáticos .- En los cálculos utilizados en el Modelo Standard del “Early Universe”, el procedimiento consiste en hacer un conteo regresivo de la densidad del Universo, que pasa por las siguientes etapas: a) Densidad presente del Universo; b) Etapa del equilibrio térmico; c) Era de la prevalencia de leptones; d) Era del desacople de partículas; e) Era de la radiación (aniquilación de electrón - par); f) Aparición de la materia Valores Introducidos .- El modelo sufre variaciones conforme se afinan los valores que sirven para hacer los cálculos. Además tales cálculos se modifican por los nuevos descubrimientos. El modelo que se examina se fundamenta en las siguientes ideas complementarias: a) La edad del Universo se mide siguiendo el método de Hubble (conocido como parámetro de Hubble H) que determina la distancia de las galaxias que receden, así como su velocidad. Esta ley se expresa así: Velocidad = Parámetro de Hubble (H) dividido entre la distancia de una galaxia dada. El inverso de la cantidad así obtenida (I/H) es el Tiempo de Hubble, en que se presume que la luz proveniente de las galaxias comenzó su viaje hasta nosotros. Se asume que la luz ha viajado a la misma velocidad, pero también (por algunos) se asume que al aumentar el espacio recorrido por el “estiramiento” de éste, la luz se “enlentece” en su viaje pero además hay “variaciones de carácter local en las galaxias que modifican la factibilidad de que la “constante” se asuma como tal. De allí nacen precisamente las discrepancias en lo que corresponde a la Edad del Universo. b) Para calcular la distancia de una galaxia se utilizan dos métodos: uno conocido como Escala Larga (LS), en que se asume un valor de 50 para el parámetro de Hubble; el otro, llamado Escala Corta (SH) en que se asume un valor de 100 para el Parámetro de Hubble. En cada caso se utilizan diferentes indicadores. c) Aunque por convencionalismo se ha seguido utilizando el promedio de ambas escalas, en donde (H=75) para medir la edad del Universo, la nueva tendencia es favorecer la Escala Larga (H=100). La consecuencia de usar ambas escalas es tener que dar al Universo una edad promedio artificial (15 mil millones de años). Si se acepta la Escala Corta, éste tendría 20 mil millones de años y con la Escala Larga el Universo quedaría con una Edad de 10 mil millones de años de edad. Nota: estos valores son válidos para la época bajo examen, no así en el tercer Milenio, lo que veremos en otros capítulos. Exactitud de los valores.- Para considerar valores el problema no es de gustos sino de exactitud, (aunque este concepto debe tomarse como relativo), dados todos los factores que inciden en el largo recorrido de los rayos luminosos antes de ser detectados y mediados en la Tierra, lo que introduce a dos problemas aún no resueltos: 1: Los primeros datos para el parámetro de Hubble fueron afectados por el hecho de que los observatorios estaban - en su inmensa mayoría en el Hemisferio Norte y ahora con mediciones efectuadas en el Hemisferio Sur, gracias a los nuevos observatorios allí localizados se ha podido balancear la información recogida, dado que en el Norte el promedio está por debajo del valor real como consecuencia de perturbaciones causadas por el Supercúmulo local, en razón de que las galaxias cercanas están precisamente en el Hemisferio Galáctico Norte. 2: Se refiere a la distribución de la materia que puede ser isotrópica (se encuentra -en promedio- distribuida por igual), o anisotrópica desigualmente en el espacio). El Principio Cosmológico debido a Einstein introduce la idea de que hay isotropía en el espacio; pero el Principio Cosmológico Perfecto introduce la
  • 5. idea de que esa isotropía se extiende en el tiempo, (esto es que ha habido igual distribución de materia en el pasado, en el presente y el futuro) como lo sostiene la teoría de la Creación Continua, aspecto que no se ha dilucidado aún adecuadamente , y a la fecha hay dos aspectos que deben tomarse como criterios apriorísticos a saber: a.- Los telescopios y los dispositivos radioastronómicos que sondean las profundidades del Universo permiten señalar que los fenómenos observados son prácticamente los mismos (al menos por término medio), cualesquiera que sea la dirección hacia la que se investiga en el espacio. Incluso los “Quasars”, esas enormes fuentes de energía localizadas en volúmenes restringidos descubiertos en los últimos años abogan por una isotropía espacial del Universo, ya que se encuentran en todas las regiones del espacio; pero aún hay dudas razonables acerca de si esa distribución es también isotrópica en el tiempo. Nota: Para el tercer milenio este criterio ha variado ostensiblemente, porque hay regiones del espacio vacías y otras con gran densidad de materia. Sin embargo el concepto “vacías” es de materia visible,porque hay otra materia no conocida en la época bajo estudio: la materia negra que se desconoce exactamente que es. b.- La expansión ha puesto los cúmulos de galaxias aparte, por dentro de los cúmulos las galaxias permanecen juntas e intercambian discretamente masa lo que produce cambios en la curvatura del Universo, lo que ha obligado a los cosmologistas a utilizar un modelo tomado de la hidrodinámica, con las masas de las galaxias interactuando suavemente. Nota: en los cálculos en el tercer Milenio s utiliza no solo el modelo tomado de la hidrodinámica, sino muchos otros. El modelo requiere establecer tan solo dos ecuaciones. Estas tienen a su vez seis elementos cuyos valores no son conocidos del todo aún y se clasifican en variables y constantes: 1) Valores variables: Son tres: a) La densidad media de la materia y de la energía (que se ha modificado en el proceso evolutivo universal); b) La presión (que ha ido disminuyendo con el tiempo); c) La escala (que es proporcional al radio del Universo - R - el cual, a su vez, es variable en distintas épocas (que tiene el problema señalado anteriormente). 2) Valores Constantes: Hay dos valores constantes que son la curvatura del espacio y la Constante Cosmológica. A su vez, se debe agregar la Constante de Hubble; que ha sufrido muchas modificaciones conforme se afinan los métodos observacionales (la Constante de Hubble introduce el factor de variación en la distancia debido a la expansión, y se mide en kilómetros por segundo por kiloparsec). Nota: un parsec es la medida de la distancia entre dos objetos astronómicos ubicados a una distancia de una unidad astronómica. La unidad astronómica es la distancia a la cual que se observa (subtiende) un objeto medido desde la Tierra distante un arco de segundo. El parsec (3,0857 × 1016 m.) equivale a 30.842.208 millones de kilómetros. El kiloparsec es esa misma unidad multiplicada por 1.000. Discusión sobre la Constante de Hubble.- El recíproco de la constante de Hubble da la dimensión del tiempo y mide la edad del Universo en un sitio dado, pero tiene como factor distorsionante la disminución de la velocidad de la recesión, debida a su vez, a la disminución de la velocidad de expansión del Universo. Hoy día la presión es despreciable pero en el Universo inicial fue significativa y si el presente estado de expansión es seguido por uno de contracción, la presión aumentará. Necesariamente la constante de la curvatura tiene el valor de (+1) para la curvatura positiva (+); o para curvatura (0) y ( - 1) para curvatura negativa ( - ). Nota: La constante cosmológica no aparece en las ecuaciones de Einstein en 1915 pero es incorporada en 1917, con el inconveniente de introducir una fuerza de atracción si la curvatura es negativa o repulsiva si es positiva. En 1929, Hubble anuncia la expansión y postula la constante para demostrar que el Universo tenía una edad mayor que la de la Tierra; pero en 1950 se elimina la utilización de ésta constante cuando apareció la nueva escala de distancias de las galaxias debida a los trabajos de los astrónomos norteamericanos Baade y Sandage. En razón de que la teoría evolucionista postula que el factor R (Radio del Universo) cambia con el tiempo debido a la expansión, permite estipular dos clases de soluciones posibles, que pueden ser: a) Comienzo del Universo con el B.B. y con la escala en el pasado en factor 0 b) Comienzo del Universo con B.B. pero el Universo comienza con un tamaño determinado, a escala en
  • 6. factor 1, 2, 3, etc. Precisamente la primera clase de soluciones es la que más trabajan los cosmologistas evolucionistas. El segundo grupo no se considera interesante - por estas fechas porque requiere suponer condiciones especiales para explicar el inicio del comienzo del Universo, (Very Early Universe) la radiación de fondo, la formación de galaxias y la distribución de los Quasars) Nota: Recuérdese que este modelo bajo examen es un modelo de Early Universo (Universo temprano) ,no de Very Early Universe (Universo muy temprano o Universo Transpliankiano) lo que comienza a trabajarse mucho tiempo después, porque supone la ruptura del Muro de Plank,asi como cifras especulativos. Tres Posibles Universos.- En las cosmologías Standard del B.B. (preferidas por la ciencia convencional - como es el caso de este modelo - ) hay, a su vez, tres posibilidades para predecir el desarrollo y el futuro del Universo según sean los valores que se asigne a la constante cosmológica. Esta cifra se conoce como Valor Critico . Valor Crítico: Conlleva por sí mismo, estas consecuencias: Si la constante es negativa ( - ) hay una fuerza adicional que desacelera la expansión y si es positiva (+) y si es menor que el valor crítico, la repulsión resiste la desaceleración creada por la gravedad. El Valor Crítico originalmente sugerido por Einstein en su modelo de Universo es justamente uno que haga un balance entre la atracción gravitatoria cuando las galaxias están en sus respectivas distancias (en el caso del Universo estático). Por lo tanto el Valor Crítico determina tres posibles Universos: Universo X: Un Universo oscilante que comienza a expandirse rápidamente al tiempo cero, pero luego la expansión retarda, detiene y reversa el proceso. El Universo va hacia atrás hacia el estado en el cual originalmente explotó. Una causa de la desaceleración sería la atracción mutua gravitacional de la materia en el Universo. Pero ésta es únicamente una causa, si la constante cosmológica es cero (0). Sin embargo, si la constante es negativa ( - ) hay una fuerza adicional que desacelera la expansión y si es positiva (+) y si es menor que el valor crítico, la repulsión resiste la desaceleración creada por la gravedad. Universo Y. Si la constante cosmológica es cero (0) y la atracción gravitacional continua para reducir la cantidad de expansión pero no es suficientemente fuerte para rebasarla, el Universo se expandirá para siempre, pero a una tasa constante. Universo Z. Si la constante cosmológica es positiva (+) y mayor que el valor crítico, la expansión se acelerará y el Universo se expandirá para siempre. Constantes Universales.- La posibilidad matemática que permite postular un Universo que termina contrayéndose, se estabiliza o se expande, depende -intrínsecamente- del Valor de las Constantes Universales. Estas son la velocidad de la luz [c] y la Constante de Gravitación [G]. Si las futuras investigaciones varían estas constantes, será necesario un replanteo total del conocimiento del Universo. Por el momento se asume, sin discusiones el valor de "c" como si fueran 300.000 Km. por segundo (dato aproximado) Respecto al valor de "q" está determinado por la densidad media Universal. Los cálculos deben tomar en cuenta, lógicamente que: si la constante cosmológica es cero (0) el Universo es cerrado y oscilante; si el Universo es abierto y se expande para siempre ello dependerá de si la Densidad Media Universal de la materia excede el valor crítico (que es una función de la presente modalidad de expansión (Constante de Hubble). En 1932, Hubble reportó que esta Constante era de 530 kilómetros por segundo por megaparsec pero algunos años después los astrónomos han ido sucesivamente bajando este valor. ¿Qué significa esta observación comparada con la densidad media de la materia en el Universo?. Una manera de estimarlo es comparando la cantidad de luz recibida de todas las galaxias en el volumen determinado de espacio con el promedio de relación de la masa con la luminosidad (determinado de las observaciones de las galaxias individuales). Este promedio da alrededor de 12% de la densidad crítica. Si por el contrario se tiene una relación masa - luz (suponiendo que las galaxias contengan suficiente masa para mantener los supercúmulos de galaxias sin desintegrarse), la densidad observada aumenta el 25 % del valor crítico. El factor que resta entre estas cantidades estimadas sugiere que la presencia de materia que no es visible en el presente es la formada de estrellas muy débiles, de agujeros negros, de gas de halos en las galaxias, y por el plasma en el espacio intergaláctico. Esta situación se conoce como "déficit de masa". Nota:
  • 7. En la actualidad el déficit de masa se atribuye a la presencia de “materia negra“, detalle que se verá en otros capítulos. Déficit de Masa.- Para explicar el problema de “déficit de masa” que juega un papel muy importante en los cálculos en los cúmulos de galaxias se cuenta básicamente con tres opciones científicas. Estas son, según el estado actual de conocimientos astrofísicos: a) El cúmulo está en explosión, no ligado gravitacionalmente, b) Es además de la masa de las galaxias un sustrato de masa en el cúmulo no observable directamente, y c) Las galaxias del cúmulo tienen masas mucho mayores de lo que hasta ahora se ha pensado, (probablemente en forma de halos masivos de estrellas poco luminosas o de neutrinos). De hecho, se ha encontrado que el problema de la “masa faltante” existe en casi todos los grupos y cúmulos de galaxias, y que la magnitud del déficit crece al crecer el tamaño del cúmulo. El problema de la determinación de la masa de las galaxias y, más aún, el de la determinación de la masa de los cúmulos gigantes de las galaxias y de los supercúmulos de galaxias, tiene un efecto considerable sobre el problema del destino del Universo. Es necesario estimar que el resto de la “masa perdida” requiere que la diferencia sea el gas caliente intergaláctico que al parecer algunos astrónomos consideran es la fuente de radiación aceptada como fondo isotrópico en el Universo. Ecuaciones.- En anexo al final de la obra se presenta una versión muy condensada de cuáles son las operaciones matemáticas que permiten combinar todos los factores mencionados Conclusiones.- Para sacar conclusiones con base en este modelo es útil conocer otros valores reportados a finales de la década de los setenta que permiten conocer cómo varían los valores con los que trabajan los cosmólogos para predecir el origen y el destino del Universo. Nota: a modo de ejemplo, pueden considerarse estos datos empíricos,advirtiendo que obviamente se dan cambios de manera constante: 1978: El Universo se ha reconocido como “más antiguo” y de mayor dimensión por los trabajos del astrónomo norteamericano Sandage (Observatorio Hale) quien después de un largo y cuidadoso estudio ha concluido que la constante de Hubble, es de alrededor de 5.3 a 4.2. kilómetros por segundo por megaparsec, lo que implicaría que el Universo tendría alrededor de 19.4 millones de años. 1978: El objeto con mayor corrimiento al rojo identificado a principios de la década de los ochenta es el quasar QQ 172 descubierto por los radioastrónomos de la Universidad de Ohio, que está recediendo a una velocidad que es cercana al 91% de la velocidad de la luz. La distancia de ese quasar utilizando la constante Sandage - Hubble, según la rotación inglesa de considerar como "billón" al millón de millones: sería alrededor de 5.4 billones de parsec (017.6 billones de años luz, rotación inglesa). (Esto es que la luz del quasar QQ 172 ha estado viajando en el Universo casi desde la creación del mismo). El valor crítico de la densidad de la constante de Hubble para finales de la década de los setenta se determina en S x 10.-30 gramos por centímetro cúbico. A finales de 1979. 1979: Murray y otros astrónomos (Universidad de Harvard) han reportado a finales de los setenta, evidencias de emisiones de rayos X de supercúmulos de galaxias lo que implica de 5 a 10 veces la cantidad de masa presente en la fracción significante de la “masa perdida”. 1979: Los astrónomos norteamericanos Selden y Peebles (Universidad de Princeton) emplearon un nuevo método para estimar el porcentaje de densidad asociada con las galaxias y encontraron que la distribución de las galaxias muestran un valor preliminar que equivale al 70% de la densidad crítica. Este valor de la densidad crítica (cuando los elementos luminosos fueron formados por nucleosíntesis), en las primeras etapas del Universo pueden ser inferidos tomando en consideración la abundancia de deuterio interestelar. Dado que el deuterio se destruye en las estrellas, la única fuente razonable que explica la actual presencia de deuterio, es su formación en las etapas iniciales del Universo, a escasos minutos después de que este comenzó. 1979: El astrónomo norteamericano Tinsley (Universidad de Yale) ha evaluado la característica de posibles Universos consistentes con los datos obtenidos y con las posibilidades de existencia de estos Universos, si se asume que la constante cosmológica es cero 0) o si se asume que no es cero (0). Efectuados los cálculos, los resultados obtenidos indican que si la constante cosmológica es cero (0), la densidad estimada es fuertemente favorable hacia la predicción de un Universo abierto, que se expandirá para siempre. Si por el contrario la constante cosmológica no es cero (0), permite concluir que esto lleva a un Universo que puede ser abierto o cerrado, esto es infinito o finito y que puede por lo tanto expandirse para siempre o colapsarse.
  • 8. Nota: A partir de ahora prescindiremos de la presentación de otros modelos de manera tan detallada, porque la aparición de publicaciones crece de manera exponencial y los astrónomos suelen ser de imaginación desbordada. Sin embargo presentaremos algunos modificaciones a conocimientos ,lo que ha incide en la elaboración de modelos. .- CRÍTICAS A LA COSMOLOGÍA DE LA ÉPOCA Pasada la refriega intelectual entre postulantes de las teorías rivales ahora los cosmólogos deben enfrentarse a otras críticas que abarcan muchas facetas. Las principales se suelen centrar en seis o siete áreas muy sensibles que se han ido resolviendo poco a poco, pero que van dejando muchas “dudas en el camino”. Así como en los primeros momentos de la historia de la humanidad, las creencias populares reflejan el desconocimiento en áreas empíricas; resulta que aún hoy, se suele arrastrar mucha ignorancia en la forma de pensar acerca de materias abstractas como las que manejan la astronomía y la cosmología, lo que suele convertirse en un lastre para una comprensión del público general hacia los avances en este campo. Un tipo de crítica de problemas es intrínseco a la estructura y funcionamiento de nuestra mente; al aprisionamiento de nuestro intelecto y a las limitaciones físico - sensoriales que deben trasegar, interpretar y extrapolar datos e información muy variada y compleja para dar explicaciones aún más complejas, pues con las limitaciones del lenguaje a veces solo es posible crear como “caricaturas” de lo que se trata de explicar. De allí que al lector lego que trate de correr la aventura de incursionar en ese campo le parecerá que está subido en la Torre de Babel -o si se desea la versión modernista viajando con “Alicia en el País de las Maravillas” del escritor Alexis Carroll- junto a “la sonrisa del gato de Cheshire”, celebrísimo ejemplo sacado a colación por los cosmólogos cuando desean explicar algo difícil en sencillo, pero siempre con base en analogías enigmáticas. A este tipo de crítica no se le puede enfrentar con éxito hasta tanto no se popularicen nuevas metodologías de transmisión del conocimiento. Un segundo tipo de crítica se fundamenta en el arrastre mental de conceptos que se toman como absolutos y la razón se niega a aceptar los sustitutos y las variaciones, cuando los primeros están arraigados en la cultura colectiva y en el subconsciente personal. Y es lógico que el ser humano se aferre a aquello que habiendo entendido pasa a ser parte de su seguridad y que cuando éste concepto se le derriba; junto a él cae su seguridad y tenderá por tanto a rechazar el nuevo concepto más por razones psicológicas que científicas. Quizá esta situación envuelve la forma misma en que los científicos de la cosmología suelen dar a conocer sus modelos abstractos, tratando de usar símiles de aspectos conocidos no solo para facilitar su comprensión, sino para minimizar el riesgo de los rechazos por el miedo al derrumbe de parámetros de seguridad psicológica. Precisamente el ingeniero español José Pirrone en su obra “La Estructura del Universo” dedica parte substancial de su contenido a glosar los problemas tanto semánticos, geométricos, lógicos y psicológicos que plantea la utilización que califica de “muy liberal” de ciertos conceptos por parte de los cosmólogos. Una simple mención de estos se resume en estos ejemplos: a) Confusión en las representaciones geométricas (mal uso del concepto hipérbole, por ejemplo) b) Negativa a utilizar la geometría euclidiana y preferir el uso de una geometría multidimensional que califica de “eleusina” (esto es apta solo para iniciados en los grandes secretos). c) Confusión en el uso indistinto de los términos “rayo de luz” y “haz de luz” (para referirse a la atracción de ésta, por parte de cuerpos masivos). d) Exageración al señalarse que “toda luz de masa proyectada” por un cuerpo esférico es desviada hacia el infinito “cuando pasa cerca de un cuerpo masivo”. e) Afirmación absoluta de la tesis de la expansión como un dogma irrefutable. f) Utilización liberal del concepto “función de onda” en la línea de la “Escuela de Copenhague” para referirse al comportamiento de las partículas atómicas. g) Aceptación de la teoría de los quarks. Desde otra perspectiva el filósofo de la ciencia, el italiano Evandro Agazzi asegura que en la actualidad el estado de formulación de teorías físicas (se refiere específicamente a las formuladas con base en el
  • 9. relativismo y la cuántica), se encuentran en una etapa de gran atraso, justamente por la carencia de la axiomatización, que si existía en la física clásica. En consecuencia: no basta acudir a la lógica común para entender el lenguaje cosmológico -no por ser un lenguaje especializado como podrían serlos los tecnicismos usuales en la medicina, la microbiología, el derecho y la economía - para designar órganos, procesos, actos y predicciones, porque lo que separa al lego de estas formas especializadas de expresión son palabras únicamente y haciendo el esfuerzo de aprenderlas entenderá la concatenación de procesos. Tratándose de cosmología hay una barrera profunda para que el lego pueda trasegar con conceptos abstractos relativistas y cuánticos contrarios a las ideas asequibles de la física clásica lo que hace muy ardua -sino imposible- su “visualización mental” para comprenderlos. Sin embargo todos estos conceptos - que no son fácilmente entendibles - constituyen justamente la materia con que se ha de construir la nueva cosmología ahora y en las décadas siguientes con lo cual el panorama se complicará aún más, para aclararse en los próximos veinte o treinta años (según cálculos muy optimistas de algunos cosmologistas); o bien para enmarañarse conforme se van descifrando algunos enigmas (como piensan con pesimismo otros cosmologistas). Estado del Conocimiento.- Durante la década de los setenta el conocimiento astronómico muestra un marcado ascenso en varias ramas: una es el afianzamiento de la cosmología del B.B.; otro es el crecimiento impresionante de la astronáutica y los viajes espaciales de norteamericanos y soviéticos y un tercer elemento es la proliferación con bastante libertad -no sujeta al conocimiento academicista más conservador- de ideas científicas relativas a los primeros momentos del B.B., con base en extrapolaciones matemáticas de las teorías relativistas y cuánticas. Estos tres elementos impactan positivamente a la cosmología que toma gran auge y comienzan a destacarse ciertos investigadores originales. Justamente el historiador francés, catedrático de la Universidad de Nanterre, Renee Tatton afirma respecto al progreso científico: 1.- Su sentido general está a menudo encubierto por períodos de relativo estancamiento, incluso de aparente retroceso; en otros, por el contrario, el progreso parece acelerarse, provocando la renovación de vastos ámbitos científicos o mostrando las relaciones existentes entre diversos sectores del conocimiento. El descubrimiento científico se presenta de hecho desde aspectos muy diversos, que dependen del dominio en que se realiza (matemático, teórico o experimental), del temperamento, formación y saber de su autor y, finalmente, de las circunstancias más o menos favorables en que se desarrolla. 2.- La realización de un descubrimiento científico presupone la posesión por parte de su autor de innegables cualidades de método científico y de intuición; es decir, de un genio muy particular, necesario para la elaboración de grandes síntesis o de teorías audaces. Por otra parte, todo descubrimiento de cierta envergadura se enfrenta con resistencias a veces muy vivas; para emprender la lucha necesaria contra la rutina y los prejuicios, el sabio debe mostrar gran audacia intelectual. 3.- Pero aunque en este combate se encuentre en ciertos momentos algo aislado, no por ello deja de ser heredero de sus predecesores y de sus contemporáneos. En efecto, la ciencia de una época es el resultado de las aportaciones sucesivas de numerosas generaciones de investigadores, tanto de los genios como de los oscuros servidores de la ciencia. En su presentación, en sus objetivos, en sus aplicaciones, esta ciencia refleja las preocupaciones de la civilización del momento.” .-AVANCES TEÓRICOS EN LA COSMOLOGÍA En el período examinado destacan cuatro esfuerzos teóricos: a) La búsqueda de una teoría del “Todo”, (Theory of Everything) ,que desemboca en la Teorías de Cuerdas y luego en la de Supercuerdas o Cordones Cósmicos. b) La clarificación del papel de la Segunda Ley de la Termodinámica en lo que respecta a la Entropía y la Información. c) El lanzamiento de la idea de la creación a partir de la “nada”; d) El postulado de la inflación como un mecanismo probable que permite manejar mejor algunas incongruencias del modelo estándar B.B. e) En el campo de los avances tecnológicos, aunque el área de la tecnología observacional muestra hechos de gran espectacularidad, que han ido ampliando cada vez más la llamada “ventana cósmica” por la índole
  • 10. de esta obra nos limitaremos a hacer una brevísima secuencia histórica que nos permita conocer como se desarrolló este campo. Aunque la selección es arbitraria pues en poco espacio no es posible presentar más que unas pinceladas de cada tema; al menos, al final de su lectura, es posible comprender cuáles eran las principales inquietudes en este período que ocupan la mente de los cosmólogos en su camino de búsqueda de la verdad. Es preciso señalar que estos cuatro aspectos teóricos se desarrollan durante la época en estudio de manera concatenada, aunque su origen es diferente, y es que en la búsqueda de una explicación científica para la hipótesis del inicio del Universo, los físicos ensayan varios acercamientos, algunos de avance lento y otros bien caracterizados por la fugacidad de su presencia. En el caso de los cuatro ejemplos seleccionados arbitrariamente se mantienen vigentes aún al cierre de esta obra. A.- EN BUSCA DE TOE.- La unificación de las cuatro fuerzas conocidas en la Naturaleza: (fuerza electromagnética, fuerza gravitatoria, fuerza nuclear fuerte, fuerza nuclear débil) es una labor que obsesiona a muchos cosmólogos, entre ellos el físico inglés Stephen W. Hawking, quien, a pesar de su enfermedad degenerativa - Esclerosis Amiotrófica - que lo tiene casi totalmente paralizado - quiere completar un sueño. Su meta es unificar en un sólo cuerpo de conocimiento las dos grandes teorías de la física del siglo XX: la Relatividad y la Mecánica Cuántica, porque cree en la unidad de las leyes que gobiernan el Universo, en las escalas más pequeñas y las más grandes ya que los físicos están buscando una teoría unificada de las fuerzas de la naturaleza y han encontrado que la historia y el destino del Universo están escritos en cada átomo. El Universo está aquí y ahora, en los propios átomos que componen cada una de las letras de esta página. Si se toma esta “A” y se amplía un millón de veces, se puede ver las moléculas de la tinta con que está hecha. Si se magnifica mil millones de veces más, es posible ver los átomos de las moléculas que la componen. Si se selecciona un átomo y se le amplia diez mil veces, ya se está dentro del núcleo, y el núcleo se puede dividir en partículas y así sucesivamente. Tales percepciones profundas - un tiempo propias de poetas y filósofos - ahora son objeto de investigación de la física, que entre todas las ciencias es de las más básicas, puesto que estudia las leyes fundamentales del movimiento de la materia. Y materia no es sólo esa visión intuitiva del cuerpo en masa, sino todo aquello que existe fuera de la conciencia. Las llamadas “teorías unificadas” tratan de llevar a cabo una comprensión científica de cómo la naturaleza funciona, desde lo infinitesimal a lo supergaláctico. Estas teorías se expresan en ecuaciones matemáticas e implican que todas las fuerzas conocidas en la naturaleza son manifestaciones de una interacción básica y que en un tiempo muy lejano formaban parte de una fuerza o de un proceso universal único. En esa indagación se ha empeñado el cosmólogo inglés Stephen W. Hawking, pionero de la teoría de los agujeros negros y de la teoría del Universo salido de la nada y quien además tiene el mérito de conciliar la Teoría de la Relatividad de Einstein con el Principio de Incertidumbre de Heisenberg, elemento clave de la Mecánica Cuántica en busca de la “cuantificación de la gravedad”. El reto de Hawking -quien empieza a adquirir notoriedad en los sesenta- es terminar su teoría. Pero, como señala la revista Newsweek en el artículo “Master of Universe”: “El no puede hablar, no se puede mover, se comunica a través de un sistema de computadora que tiene en su memoria unas 2.600 palabras. Con sus dedos (lo único que puede medio accionar) presiona los controles de la máquina y esta transforma los impulsos en lenguaje, como una paradoja más de las tantas que tiene la física, “pero con su poderosa e intacta mente las “nuevas fronteras de la física” están dentro de ese cuerpo enfermo. Por muy loable que sea la labor de Hawking y lamentable su estado de salud, el conocimiento seguirá produciéndose por el concurso de otras mentes. No es la primera vez que el hombre trata de encontrar una fórmula totalizadora (actualmente llamada TOE - Theory of Everything - ) que permita descifrar el Universo. Esta pretensión ha conocido varios intentos previos. A juicio de los cosmólogos ingleses Paul Davies y
  • 11. Julian Brown la historia registra entre otros los siguientes intentos pasados y actuales: 1.- Los planteamientos de Leucipo y Demócrito: que en una lectura moderna dice, “El mundo consiste únicamente de átomos. Hay diferentes tipos pero todos son elementales en el sentido de ser impenetrables e indestructibles; sin partes internas; son muy pequeños para ser observados directamente y por estar en un estado de movimiento continuo en la materia; el choque entre átomos causa que se peguen unos a otros, causando la impresión de continuidad de la materia y cualquier cambio en el mundo físico debe ser atribuido al reordenamiento de estos.” 2.- La Idea de Laplace: En su época inventó lo que él denominó un “demonio calculador” que tendría estas características: “Un (ser) inteligente, conocedor de cualquier instante dado en el tiempo, con todas las fuerzas actuantes en la naturaleza, así como en las posiciones momentáneas de todas aquellas cosas que conforman el Universo, con la capacidad de comprender el momento de los objetos del macrocosmos y de los elementos del microcosmos, todo en una sola fórmula, provisto de suficiente poder para sujetar toda la información al análisis sin dejar nada en la incertidumbre y con ambos -pasado y futuro- siempre presentes ante sus ojos.” 3.- La Pretensión de Kelvin: En su discurso de cierre ante la Asociación Británica para conocer el estado de avance de la ciencia a finales de 1900 expresó: “Nada nuevo queda por descubrir a la física ahora. Todo lo que queda es hacer más exacta a la física ahora. Todo lo que queda es hacer más y más precisas las mediciones”. 4.-Teoría Fundamental de Eddington: En 1923, públicamente Eddington dijo: “He encontrado la Teoría Fundamental.” (Se trataba de una curiosa relación numérica que siguió siendo trabajada hasta 1946, año en que ocurrió su deceso)”. 5.-Teoría del Campo Unificado: Durante los años treinta y hasta su muerte, Einstein los pasó buscando la Teoría del Campo Unificado, basado en una descripción geométrica de la Naturaleza para tratar de encontrar la forma en que la masa afecta el espacio - tiempo. Por cierto que tratando de encontrar soluciones a su teoría de campo se han postulado derivaciones de diversa índole algunas debidas a Einstein, las otras a diferentes físicos: entre ellas se encuentran las deflecciones de la luz al pasar por un campo masivo, la existencia de estrellas de neutrones, agujeros negros, comportamientos “extraños” de la materia en condiciones límite, e incluso “agujeros blancos” y hasta “máquinas de tiempo”, y todas estas derivaciones, son presentadas no en la geometría clásica sino en espacios de varias dimensiones. Esta abrió nuevos campos de investigación para ubicar la busca de la unificación. 6.-Teoría de Cuerdas (también conocida como de fibras cósmicas) : Este es el intento actual cuyo inicio se remonta a finales de los 60, como una idea de Gabrielle Veneziano, quien al tratar de explicar algunos problemas de “resonancia” de partículas subatómicas propuso un modelo ad hoc, como un simple procedimiento matemático y que resultó la descripción cuántica del movimiento propio de una cuerda (mientras antes las explicaciones se daban en términos de partículas). Este modelo resultó ser exitoso para describir problemas de subpartículas conocidas como hadrones. 7.-Teoria de Supercuerdas .En 1970 los físicos John Scharz y André Neveau proponen una segunda teoría de cuerdas para describir el comportamiento de otras subpartículas llamadas fermiones. Luego de muchas vicisitudes a finales de los años sesenta - la teoría - ahora conocida como Teoría de Supercuerdas busca convertirse en la Teoría del Todo (TOE, en inglés), gracias a los refuerzos teóricos provenientes de Weinberg, Salam, Witten, Glashow, Higgs, Hawkings y otros. A juicio de Davies y Brown: “En los últimos años esta sorprendente teoría que ha capturado la imaginación de los físicos promete proveer la unificación de todas las fuerzas, todas las partículas fundamentales de la materia, el espacio y el tiempo - en pocas palabras - una Teoría de Todo. Lo relevante de la teoría señala que el Cosmos está hecho nada más que de pequeñas cuerdas, puede parecer absurdo, pero el fundamento matemático es fuertemente consistente con el mundo real.” B.- ENTROPIA E INFORMACION.- El proceso térmico conocido como Ciclo de Carnot que el ingeniero francés Carnot plantea, en 1824 ,da paso posteriormente al Teorema de Rudolf Clausius ( también conocido como Segunda ley ) en 1850 y luego ambos son retomados por el físico austriaco Boltzmann ( 1844-1906 ) quien establece la Constante que lleva su nombre relacionando la Temperatura Absoluta y la Energía ,y juntos se constituyen en las bases de la Ciencia de la Termodinámica actual. Estos planeamientos son fundamentales para conocer el futuro del Universo, porque están íntimamente relacionados con la forma en que operan las cuatro fuerzas básicas. El enunciado de Entropía señala: “La entropía puede definirse como la
  • 12. ausencia de desequilibrio, cuando tal desequilibrio o energía disponible, desaparece, la entropía aumenta. Entonces es posible afirmar que la entropía en un sistema cerrado tiene la tendencia a aumentar. Pero si se desea ser preciso para incluir casos excepcionales en que la entropía permanece igual se puede señalar que la entropía de un sistema cerrado nunca decrece". Cuatro Fuerzas.- Los físicos cuentan cuatro fuerzas distintas en la naturaleza que operan en el proceso de formación del Universo: fuerza gravitatoria, que une a planetas, estrellas, galaxias fuerza electromagnética, que une átomos y moléculas fuerza nuclear fuerte ,que que une los núcleos de los átomos fuerza nuclear débil, que en esta época es menos conocida. Las tres primeras están en condiciones de engendrar estructuras estables y el principio de la unión es siempre el mismo. Asociando los elementos, la fuerza transforma en energía una parte de su masa. Esta energía, llamada de unión, es arrojada al espacio, generalmente en forma de protones, el sistema así constituido es menos masivo que la suma de los elementos iniciales. Es también, por lo general, más complejo; se sitúa en un peldaño más elevado de la pirámide de la organización de la materia que va de lo simple a lo macro conocido. Los fotones transportan consigo la entropía que deben pagar por esta fase de organización. De este modo, las tres fuerzas mencionadas más arriba desempeñan un triple papel en el crecimiento de la complejidad y son responsables de las asociaciones de partículas y cimientan las estructuras organizadas de la materia (núcleos, átomos, moléculas, células, organismos, y también planetas, estrellas, galaxias). Los vínculos creados transforman la materia maciza en fotones luminosos. Estos fotones son portadores de energía utilizable para los intercambios y la concepción de sistemas todavía más complejos. Llevan también la entropía que se desprende para acompañar el aumento de la complejidad. Dondequiera que se observa la entropía en un sistema que decrece, puede concluirse que ese sistema debe ser parte de otro sistema mayor dado que un incremento en la entropía es un aumento en la “cantidad de tiempo”. La segunda ley permitió a Arthur Eddington llamar a la entropía una “flecha” del tiempo en el mundo subatómico, puesto que la segunda ley de la termodinámica permite deducir que hubo menos entropía en el pasado y habrá más en el futuro. Sin embargo a juicio de Davies este concepto debe verse con cuidado porque: “la luz del aumento de la entropía no es de carácter fundamental ( o cosmológica, esto es debido al origen del Universo ) sino estadística”; y, en apoyo de su tesis utiliza las palabras del físico John Wheeler: “Preguntad a una molécula que piensa respecto a la segunda ley de la termodinámica y se reirá de la pregunta...”, lo que en otras palabras significa que una molécula no sabe distinguir entre dos direcciones del tiempo. La detección de esta característica intrínseca a la materia fue lo que precisamente permitió al físico norteamericano Richard Feyman, alumno de Wheeler, recibir en 1949 el premio Nobel en Física, gracias a su observación del comportamiento de las partículas, sugiriendo que - en ciertos casos la “reversión” en la flecha del tiempo se observa en el mundo subatómico. Pero Davies concluye que: "el hecho que en el mundo subatómico la reversión de la flecha del tiempo se presente; no aplica al macrocosmos". Papel Crítico de la Temperatura.- El cosmólogo y físico de partículas francés Hubert Reeves correlaciona entropía con información y el papel de la temperatura para señalar la cadena de acontecimientos interrelacionados entre sí que permiten una hilación de continuidad entre el pasado en el comienzo del Universo y su transformación en Vida en la Tierra. Las estructuras escalonadas en la pirámide de la complejidad deben su cohesión a la existencia de fuerzas de la naturaleza. Pero, para crear la variedad y la diversidad, la acción de estas fuerzas debe ejercerse en condiciones de desequilibrio. Estos equilibrios provienen del hecho de que el Universo, hoy, está en un estado de sobrefusión con respecto a las grandes fuerzas estructurantes. Podría decirse que la fuente de la información cósmica reside en el hecho de que la materia, aunque sometida a las fuerzas naturales, sólo muy parcialmente ha sucumbido a ellas. A lo largo de las eras sucumbe progresivamente pero con considerables
  • 13. retrasos. En vez de reducirse, estos retrasos aumentan con el tiempo. Con ellos se alejan indefinidamente los estados de estabilidad máxima .Al margen del contexto de equilibrio, los resultados de los acontecimientos de la naturaleza son parcialmente imprevisibles, por lo que, Reeves señala que :” De ahí nace lo inédito del presente” . La propuesta que formula Reeves se fundamenta en estas conclusiones: a) Por causa de la temperatura extremadamente elevada de los primeros tiempos del Universo, las interacciones nucleares en el "puré cósmico" son ultrarrápidas. Se forman núcleos que se disocian en seguida, en la esterilidad del equilibrio. La temperatura afecta profundamente el curso de las reacciones de captura y disociación. Las duraciones de tales reacciones se alargan cuando el puré se enfría. Hacia el primer minuto, cuando la temperatura desciende por debajo de los mil millones de grados, algunos núcleos están en condiciones de resistir el calor. Núcleos de helio van a perdurar por primera vez en el Universo. Este acontecimiento, llamado nucleosíntesis primordial, produce como resultado la transmutación de aproximadamente, una cuarta parte de la materia cósmica en helio. El resto permanece en estado de protones y, más tarde, se convertirá en el hidrógeno universal. b) A temperaturas más elevadas, los nucleones son libres, como las moléculas de agua de un líquido. Por debajo de estas temperaturas, la fuerza nuclear los fija juntos. De ahí la pregunta: ¿Porqué la fuerza nuclear no transformó todo el puré cósmico original en cuanto la temperatura permitió la “congelación” de la materia en núcleos atómicos?... Si la expansión del Universo hubiera sido más lenta, la materia cósmica se habría transmutado por completo en núcleos de hierro, porque en los hornos estelares, la transmutación del hidrógeno en hierro exige períodos muy largos. Aquí, en el mejor de los casos, se tienen unos minutos. No es sorprendente que la obra permanezca inconclusa, que la fuerza nuclear no agote sus posibilidades. c) El hidrógeno, respetado por el estado de desequilibrio nuclear, se convertirá en el principal carburante de las estrellas. Les asegurará las largas duraciones indispensables para que emergiera la vida. En un Universo de hierro, las duraciones de las estrellas se cifrarían en millones más que en miles de millones de años. La elaboración de las moléculas gigantes se vería doblemente comprometida. Primero por la ausencia de átomos de hidrógeno, de carbono, de nitrógeno y de oxígeno. Y aún suponiendo que una pequeña cantidad de esos átomos se hubiera salvado, esta gestación se vería todavía dificultada por la duración, excesivamente corta, de las estrellas nodrizas. El Universo sería muy distinto y la humanidad, sin duda alguna, nunca habría aparecido. d) Las fuerzas nucleares despliegan sus efectos en distancias extraordinariamente pequeñas que no superan las dimensiones de los núcleos atómicos (10-13 cm). La fuerza electromagnética extiende su influencia a la estructura de las moléculas gigantes. El alcance de la fuerza de la gravedad parece sin límites y actúa en dos niveles: Interviene sobre la materia cósmica en su conjunto. Esta acción se manifiesta en el vasto movimiento de expansión del Universo. Interviene también de modo más local, en las capas de materia dispersa que reúne para convertirlas en galaxias y estrellas. Nada puede neutralizar el efecto de la gravedad a escala universal. En cambio, el calor excesivamente intenso de los antiguos tiempos desalienta todo esfuerzo de condensación de materia a escala local, lo que permite concluir que termodinámicamente somos el resultado de estos procesos: UNO: etapa de formación inicial del Universo 1. Cualquier veleidad de aislamiento, de fraccionamiento, de contracción de una parcela del puré inicial, en galaxia o estrella embrionaria, se ve inmediatamente reprimida y anulada por la acción del calor inicial. Los “grumos” se reabsorben y la materia cósmica recupera en seguida su textura homogénea. Los “limbos térmicos” de los primeros tiempos del Universo paralizan la gravedad (a escala local), como paralizan lo nuclear y lo electromagnético. La fuerzas están ahí, pero son incapaces de reunir, de asociar partículas para convertirlas en núcleos, moléculas o estrellas. 2. En el momento de la emisión de la irradiación fósil, la fuerza de gravedad puede iniciar la formación de las galaxias y las estrellas. La temperatura correspondiente - tres mil grados - desempeña, para la formación de las grandes estructuras astronómicas, un papel análogo al de cero grados Celsius para la congelación de lo nuclear. En este período, electrones y protones del puré cósmico se combinan y crean los primeros átomos
  • 14. de hidrógeno. Este acontecimiento es acompañado de varios efectos cosmológicos. Primero, la emisión de la irradiación fósil que ha transmitido la más vieja imagen del cosmos. Segundo, un cambio fundamental en la propia naturaleza del puré para originar el plasma. 3. Del estado de plasma en el que se encontraba antes de la captura de electrones por los protones y la formación de los átomos neutros de hidrógeno, el puré pasa, en este período, al estado de gas. En consecuencia, el Universo en este instante se hace transparente a la irradiación. Los fotones emitidos ya no tienen prácticamente ninguna posibilidad de ser absorbidos en el futuro. De ahí la posibilidad, para ellos, de llegar hasta nosotros y ser detectados por nuestros aparatos de medida. 4. El calor inicial pierde prácticamente toda su potencia cuando los electrones se combinan con los protones. Su influencia “niveladora” se ejercía, esencialmente, gracias a la interacción entre la luz y los electrones libres (ahora desaparecidos), por ello, ahora las galaxias pueden condensarse. Como la fusión de los átomos y la asociación de las moléculas, la formación de los astros requiere tiempo, mucho tiempo. De hecho, aquí nos enfrentamos con uno de los problemas de la astrofísica contemporánea: ¿cómo nacen las galaxias?. DOS: etapa de formación de galaxias: 5. El fenómeno se inicia -al menos se supone- en las fluctuaciones de densidad del puré cósmico (liberado ahora del impedimento térmico). A un ritmo muy lento al principio, esos “granos” de galaxias se condensan bajo el efecto de su propia gravedad que va creciendo con la contracción. El mecanismo se amplifica, se acelera y actúa como una “bola de nieve”. 6. Tras la emisión de la irradiación fósil, el Universo entra en un período de sobrefusión gravitacional. Y eso requiere miles de millones de años. Como los núcleos y los átomos, las estrellas son menos masivas que la suma de sus constituyentes aislados. La masa desprendida se emite en forma de fotones que transportan a lo lejos energía y entropía. (Según una convención precedente, se conoce como entropía gravitacional a la que es vehiculada por los fotones estelares). 7. Los cosmólogos del B.B. no pueden menos que maravillarse de la existencia del desequilibrio inicial, porque la rapidez de la expansión impidió cualquier posibilidad de alcanzar el estado de estabilidad nuclear máxima. Este desfallecimiento de la fuerza nuclear en su conservación del estado de equilibrio dará origen a la información nuclear que existe hoy en el cosmos. 8. El estado de entropía gravitacional máximo del Universo se alcanzaría si la materia celeste existiera por completo en forma de agujeros negros. Las estrellas que dispersan sus fotones coloreados son resultado de una congelación retardada de la materia cósmica. Desde la emisión de la irradiación fósil, el puré inicial, en estado de sobrefusión gravitacional, efectúa su lenta transición hacia los estados estables llamados “cadáveres estelares”. 9. La estrella utiliza la información gravitacional para contraerse y crear localmente, los gradientes de temperatura tan importantes para la vida terrestre. Cuando la temperatura central alcanza algunos millones de grados, las reacciones nucleares toman a su cargo la emisión de energía luminosa, frenando así la contracción o el caldeamiento de la estrella. 10. Sin la información nuclear, engendrada en el momento de la nucleosíntesis primordial, las estrellas existirían, pero serían de muy corta duración. Sin la información gravitacional, creada cuando se emitió la irradiación fósil, la energía nuclear sería inutilizable por falta de crisoles apropiados. Teoría de la Información.- En 1948 el físico y filosofo de la ciencia norteamericano Claude E. Shannon (1914- ) enuncia una teoría que si bien tiene impacto en las comunicaciones, se refiere igualmente a la emisión de información en un sistema cerrado , así como a la posibilidad de pérdida de la información que circula por este sistema, debido a la entropía o desorden en que este se encuentre. En comunicación social se suele señalar que cuando se emite una señal esta puede ser percibida adecuada, o inadecuadamente, dependiendo del “ruido” o interferencia existente en el sistema. Si se traslada el concepto al Universo se entiende que la información emitida al inicio del Universo se transmite total o parcialmente dependiendo de la cantidad de entropía existente en el sistema. Pero se asume que dado que el universo nace, se modifica y persiste la entropía debe ser controlada, para que no anule o interfiera con el proceso. Esto plantea un gran problema: cómo se las arregla el Universo para mantener el sistema bajo control, pese al aumento de la entropía o desorden, esto es a la aparición de materia mas y mas evolucionada y por tanto más compleja ?. En teoría para que el Universo exista tal y como lo conocemos (aunque no lo entendamos, que es otro asunto) debió haber anulado el proceso de desorden ( entropía) por el cual ha pasado. En consecuencia ha
  • 15. debido haber una información “guía” o madre en todo el proceso que ha tomado miles de millones de años, que se ha conservado intacta para permitirle al Universo evolucionar hasta permitirnos a los seres humanos ser capaces de estudiarlo, elaborar teorías sobre su existencia y predecir su eventual final. Este es un verdadero “connundrum” (enigma o misterio) para el conocimiento ,salvo que se admita que la información inicial se almacena en cada una de las partes que lo integran en ese momento y que puedan- además-transmitirse hacia el futuro-sin importar la complejidad de ese futuro y los cambios que se sucedan. A efecto de mantener el estudio de esa información dentro de los cánones de la ciencia y de no incluir “parámetros” ocultos algunos cosmólogos no atinan a plantear soluciones exactas. Por eso es que , años posteriores surgen soluciones tales como la “teoría” del caos” o el planteamiento de que el Universo es una Holografía, ( cada parte resume el todo) . Estas ideas implicarían que todo obedece a una ley universal que se mantiene pese a los cambios sucedidos. Sobre este tema volveremos en los capítulos ,posteriores. C.- CREACION A PARTIR DE LA NADA.- El concepto “nada” en el habla común, tiene varios significados y por tal razón debe entenderse correctamente lo que se infiere de la expresión “creación de la nada” (o “ex - nihilo” término latinizado de uso similar), por ejemplo: 1. El Diccionario de Expresiones y Frases Latinas de Víctor - José Herrero acoge esta expresión: “Ex - Nihilo Nihil”, atribuida al poeta Lucrecio que compendia la creencia popular sensible (comprobada por los sentidos e intuida por la razón) de que - efectivamente de la nada, nada puede obtenerse; pues es obvio que la nada es lo “no existente”). Otra versión atribuye el concepto al filósofo de la Escuela Eleática, Meliso - compañero de Zenón y Parménides. De todas maneras, esta expresión parece era compartida el vulgo por los griegos. La definición enciclopédica Larousse, respecto a “nada” dice: “El no ser, lo que no existe”. 2. Desde la antigüedad, el ser humano ha experimentado recelo hacia la “no existencia”, hacia la nada y por lo tanto hacia lo “vacuo”, (el vacío). Este horror al vacío, en parte explica la incesante búsqueda de la armonía, de la perfección visible en los esfuerzos de los filósofos pitagóricos por encontrar números y figuras “cerradas” pero que no es privativo de los pitagóricos, sino práctica cultural universal (en la que por cierto sobresalen las concepciones de los mayas primitivos en América Central). Este mismo concepto es llevado a la formulación de órbitas perfectas, lo que explica el uso del círculo y la resistencia a aceptar otras formas “imperfectas”. En la antigüedad, plantea el filósofo e historiador de la ciencia, F.P. Dickson: “Un principio (del Universo) a partir de la nada absoluta, del Vacío, era inconcebible. En consecuencia, los cosmogonistas hubieron de postular una primordial material informe, el Caos, para llenar el Vacío, material cercano a la Nada. Como en nuestros propios tiempos ha dicho Eddington, es imposible distinguir entre la nimiedad ("sameness" en inglés) indiferenciada y la no existencia. Generalmente se escogió al agua como esa base informe de la creación. En muchos aspectos, fue una buena elección; el agua, en sí misma, es informe y uniforme, es esencial para la vida, y a los antiguos observadores debió de parecerles que en el mundo había más agua que ninguna otra cosa. Pudieron visualizar la sólida tierra flotando en un océano sin límites; ríos, lagos y fuentes que demostraban que en la Tierra había agua y, obviamente, había agua en los cielos”. A partir del agua, se supuso que la creación ocurrió mediante un proceso de diferenciación: “Los opuestos divinos, que, juntos, no habían sido nada, pues el uno cancelaba al otro, se separaron en las aguas. Una vez separadas, estas divinidades tuvieron poderes que podían ejercer de varios modos. Uno de éstos fue una serie de parciales recombinaciones que hicieron nacer numerosas familias de dioses y diosas, en quienes pudieron delegar la construcción del mundo real en que viven los hombres. El establecimiento final del orden mundial surge por medio de la guerra entre los dioses ancianos y los jóvenes. (Bien puede ser que esta pugna celestial esté basada en tradiciones raciales que se remontan a los tiempos en que los antepasados de los cosmólogos sometieron a poblaciones aborígenes de las tierras en que se aposentaron, o las echaron de ellas).” En la época moderna y ya en el campo de la física, el horror al vacío explica la búsqueda cosmológica de una sustancia que llene los espacios entre los cuerpos celestes y se le ha llamado “éter”, “extensión” y aún “continuun espacio - tiempo” (si se acepta la idea que este concepto einsteniano tiene un trasfondo más metafísico que físico).
  • 16. Sin embargo -y en contra de esas ideas- en los aceleradores de partículas que manejan problemas de partículas subatómicas es hecho conocido - y por lo tanto rutinario - que en sistemas cerrados con cargas netas pequeñas de energía, aparecen de la nada - partículas virtuales, cuya vida es brevísima y luego desaparecen. Esas apariciones (denominadas fluctuaciones) si se trata, por ejemplo, de un par electrón - positrón tienen una duración en el tiempo de 10-21 segundos y suelen aparecer espontáneamente. Pero ahora a mediados de la década de los setenta la física cuántica plantea la creación del Universo a partir de la nada, lo cual, desde el punto de vista científico acarrea problemas, por cuanto significa dejar de lado el sacrosanto principio de la “conservación de la materia”. En efecto cuando el físico Edward P. Tryon, de la Universidad de Nueva York postula en 1973, como de la nada se origina toda la materia del Universo, en realidad lo que hace es extrapolar un fenómeno subatómico a lo macro y nada menos que a la aparición del Universo. Ahora bien, en los casos de choques de partículas de signo contrario aparecidas de la nada, como resultado de las fluctuaciones cuánticas, los físicos atomistas recalcan que la consecuencia es la producción de “energía pura”. Si en el estado actual de los medios que de que se dispone en física, es imposible conservar la materia negativa, es decir el antiprotón, el antineutrón, el antielectrón y así por el estilo, ya que estos se anulan transformándose en “energía pura” en el choque con la partícula opuesta, ¿significa acaso todo esto que su “corporeidad” deja de existir y desaparece en la nada inmediatamente después de haberse transformado en energía?. La energía pura es ella también una entidad. ¿Entonces cómo puede actuar y producir fuerza si se la define inmaterial o si se supone que se anula después de haberse manifestado y de haber producido un fenómeno de fuerza, de calor o de impulso?. No es fácil suponer o imaginar que algo pueda aniquilarse ni siquiera sufriendo un violento cambio de estado. Pero el científico no opera sino con base en datos de hecho surgidos de sus escrupulosas indagaciones de cálculo u de laboratorio: si la partícula de materia o de antimateria, el electrón y el positrón, argumenta, chocan y a causa del choque pierden sus masas emitiendo dos rayos gamma de energía pura, es decir sin masa, esto significa que la masa ha desaparecido, se ha aniquilado. Esto es lógica cojeante, pero lógica al fin y al cabo de manera distinta opera el pensador. Sus armas no son el acelerador de partículas o la probeta, sino la intuición, la abstracción, la imaginación racional. Por esto es imposible para él admitir, “ab - absurdo”, que una partícula de materia, sea de signo positivo o negativo pueda, transformándose, anularse, desmaterializarse, perder sus características físicas y desaparecer. Precisamente ese es el criterio del ingeniero español José Pirrone: “Hemos establecido el principio de la eterna existencia de la materia y de su infinidad, sobre la base de la imposibilidad de concebir su creación de la nada. Ahora bien, si la materia no puede crearse de la nada, es cierta la proposición contraria: la materia no puede anularse, transformarse en “nada”. Si admitiésemos que un solo neutrón, un solo protón o un solo electrón se anularan, desaparecieran cada año o cada cien años, es obvio que, dada la eternidad que ha tenido delante de sí, la materia universal no existiría más, mejor dicho, no se habría manifestado nunca. Es pues necesario admitir que las dos partículas colindantes, transmitiendo su energía a los dos rayos gamma emitidos en la colisión, no han perdido nada de sus masas, las cuales obviamente se fraccionan y se dispersan en tantas subpartículas tan pronto cesa el proceso radioactivo de la emisión de los dos rayos gamma substanciados por sus masas. Si así no fuere no podría explicarse el así llamado “fenómeno de los pares” según el cual un rayo gamma superenergético, chocando con una partícula cualquiera, se transforma en materia “creando” un electrón y un positrón. Todo esto, pese a su aspecto científico se presenta a la mente como un juego de prestidigitación en donde el sabio, no pudiendo expresar más verídicamente un concepto, saca conejos de su sombrero de copa.” No obstante las dudas científicas que hace surgir el concepto creación de la nada con su consecuencia en el mundo micro: desaparecer, ahora es mayor el problema contrario a nivel del Universo: permanecer para evolucionar. Pero aún con todas estas implicaciones, a partir de esta década lo cierto es que los cosmólogos modernos ya lo comienzan a colocar en la lista de las definiciones aceptadas. Así, en su expresión moderna la han divulgado - entre otros - el cosmólogo norteamericano Steven Weinberg en su obra “Los Primeros Tres Minutos”; el físico norteamericano James S. Trefil en la obra “The Moment of the Creation”; los
  • 17. cosmólogos norteamericanos John D. Barrow y Joseph Silk en la obra “The Left Hand of the Creation”, el cosmólogo británico Paul Davies, en “God and the New Phisics”; el cosmólogo ruso - norteamericano I.D. Novikow, en “Evolution of the Universe”; el cosmólogo británico Lloyd Motz en “The Universe: Its Beggining and End”; Ahora bien, si para el ser humano "nada" significa justamente nada ( o la no existencia), todo parece indicar que la presencia - aunque sea de fluctuaciones - cuánticas brevísimas aparecidas de esa virtual nada - señalan que esa nada, no es nada absoluta, pues hay - fenomenológicamente hablando - sucesos, no importa cuán espaciados en el tiempo. Esto sugiere - a la vez - que esa “nada relativa” (ya no absoluta) o “vacío” como la prefieren denominar los físicos sea una matriz que contiene al Universo conocido, lo que ubica el problema en otra dimensión: el llamado “espacio de espacios” o “hiperespacio” (nombre sugerido por el cosmólogo norteamericano John Wheeler en el que las leyes físicas no necesariamente serían las mismas que en nuestro Universo. Tampoco lo son en los hipotéticos “agujeros blancos” (White Holes) planteados por el cosmólogo LLoyd Motz como el lado opuesto de los agujeros negros (Black Holes), que conducirían de uno a otro Universo, conectadas por los "agujeros de gusano" (Whormholes). D.- TEORIA DE LA INFLACION .-. Hasta prácticamente finales de los setenta algunas de las explicaciones de la física cuántica no han sido tomadas en consideración hasta que el físico norteamericano especialista en cuántica, Robert Dicke dio una charla en la Universidad de Cornell y a ella asistió -por casualidad- el cosmólogo Allan Guth, en esa época en la misma universidad. El impacto de lo que escuchó provocó el inicio de un cambio revolucionario para el modelo estandar del B.B.. Normalmente los efectos de la mecánica cuántica están restringidos a sistemas en la escala subatómica y tienen poca importancia en otros campos de la física a nivel macro; pero dado que el B.B. se considera que tuvo condiciones que se asemejan al “laboratorio de la física subatómica”, de aquí se extrapolan conceptos para tratar de entender procesos al inicio del B.B.. Un aspecto central de la mecánica cuántica tiene relación con la existencia de fluctuaciones no predecibles y a niveles ultramicroscópicos el espacio y el tiempo están sujetos a cambios caóticos, no predecibles. Así el espacio puede estrujarse o encogerse violentamente para formar una compleja arquitectura conocida como “agujeros de gusano”, túneles y fuentes microscópicos creando la sensación de una “alfombra de espuma”, que da - precisamente - lugar a que se le designe “El espacio - tiempo espumoso”. Las fluctuaciones cuánticas pueden así crear por distorsión del espacio - tiempo, Universos que se presentan y desaparecen en cuestión de instantes. De acuerdo con esta hipótesis, el Universo actual conocido, pudo haberse formado de un proto - Universo instantáneo de unos 10-33 cm. de tamaño. Sin embargo no es posible preguntarse por cuánto tiempo este proto - Universo llega a tener existencia, dado que - en esencia - la mecánica cuántica predice que las fluctuaciones son impredecibles por principio. Este indeterminismo significa que la aparición no previsible ni prevista de un nuevo mini - Universo es, sin embargo, un evento enteramente de acuerdo con las leyes de la física cuántica. En teoría estas fluctuaciones cuánticas ocurren en un espacio - tiempo preexistente de otro Universo, del cual se desconecta rápidamente. Este tipo de fenómeno ocurre en cualquier parte del Universo que pasa - la mayor parte de su tiempo desconectado del otro. El problema no está en explicar cómo se crea el proto - Universo, pero si como de una débil y lábil “lágrima” o “burbuja” se convierte en el B.B. y porque no se evapora o desaparece como ocurre con la inmensa mayoría de las fluctuaciones que ocurren en el espacio - tiempo espumoso que nos rodea y en el que estamos inmersos. La física cuántica permite postular un tipo de antigravedad que afecta el proto - Universo causando su expansión rapidísima de forma tal que en una minúscula fracción de un segundo el proto - Universo ha aumentado su tamaño por 10 veces o aún más y continúa expandiéndose con velocidad altísima. Este tipo de predicción permite admitir que el inicio del Universo en un estado de compresión altísima, anula la singularidad de densidad infinita.
  • 18. Precisamente esta idea conocida como la teoría inflacionista (debido a Allan Guth en 1981 y luego modificada más adelante por Andrei Linde y otros) predice específicamente respecto a la densidad del Universo que durante la fase inflacionaria que tardó escasas fracciones de un segundo, la expansión fue tan tremenda que cualquier curvatura del espacio desapareció y el espacio plano resultante corresponde a un Universo con una densidad de materia crítica. En consecuencia si las observaciones confirman que esa densidad es equivalente al valor crítico, la teoría inflacionaria podría ser adoptada como la descripción standard del Universo muy temprano (Very Early Universe). Esta aseveración es de gran importancia dado que a fines de los setenta el modelo standard del B.B. sin un mecanismo como el que propone la “Teoría de la Inflación” no puede ser aceptado ya como una explicación racional, coherente y plausible. E.-AVANCES TECNOLÓGICOS.- Desde el inicio de esta obra se ha señalado que el énfasis se encuentra en los procesos del conocimiento en que se gestan las explicaciones y los modelos del Universo. Por tal motivo los aspectos relacionados con los avances tecnológicos son apenas los mínimos para darle coherencia al proceso de avance. En este capítulo se hace una síntesis de dos de los principales instrumentos de que se sirve la cosmología para corroborar las teorías. A nivel macro sobresalen la construcción de nuevos telescopios y radiotelescopios, así como en la astronáutica se produce un fuerte avance en el diseño de cohetes más eficientes y poderosos para lanzar sonda espaciales y vehículos tripulados y no tripulados. En el campo de la física subatómica, por razones financieras la construcción de aceleradores de partículas no experimenta el avance que los físicos requieren. a) Ampliación del Espectro Electromagnético.- La tecnología es una forma especial del avance del conocimiento científico que va surgiendo conforme las exigencias lo demanden, de manera que - salvo en casos excepcionales se adelanta al conocimiento teórico, pues su uso es utilitario y no contemplativo. En el campo de la astronomía las observaciones ópticas que se efectúan desde la Tierra resultan afectadas por la opacidad del aire. En el sector violeta del espectro electromagnético toda radiación electromagnética procedente del espacio exterior está limitada a una longitud de onda de 3 mil angstroms (3 x 10-5 cm.). Solo mediante cohetes y vehículos espaciales pueden detectarse ondas menores. En la parte roja del espectro, el aire no tiene límite definido, pero las bandas de absorción intensa de diversas moléculas libres vibrando, causan dificultades para hacer observaciones ópticas en longitudes superiores a los 10 mil angstroms (10-4 cm.). La atmósfera superior es impenetrable a ondas de radio menores de 1 cm. y mayores de 20 m. En consecuencia el astrofísico tiene limitaciones para observar por la “ventana óptica”, lo que dio nacimiento, a partir de 1932 a los radiotelescopios para abrir la “ventana radial”, y finalizada la II Guerra Mundial a los artefactos astronáuticos para salir de la atmósfera e ir más allá aún. En el campo de la observación visual el desarrollo de telescopios de diversa configuración y formas de operar muestran esta secuencia ascendente: de 1609 en que Galileo aplica por primera vez una lente a la observación del cielo el aumento es de 210 unidades, hasta llegar a los sofisticados instrumentos de las décadas de los 70 - 80, que rinden aumentos sumamente altos y de excelente resolución en varias franjas del espectro electromagnético ; en el campo de la observación radial que se inicia con el ingenioso norteamericano Karl Jansky (1932, que nada tenía que ver con la astronomía) se obtienen las primeras escuchas en el espectro radial en las frecuencias de 15 m. y 13 m. A partir de aquí, gracias a los trabajos pioneros de los radioastrónomos se abren más y más frecuencias. Para 1963 ya la astronomía tiene abierta la ventana que le da acceso a emisiones de rayos x; dos años después se abre el espectro infrarrojo, tres años más tarde el espectro ultravioleta; para la década de los
  • 19. setenta es posible detectar las emisiones de rayos gamma; en 1973 las radiaciones submilimétricas, dos años después las radiaciones procedentes del espectro ultravioleta externo y a partir de los ochenta se inician los diseños para captaciones de rayos cósmicos; de los hipotéticos “monopolos magnéticos” - supuestamente remanentes de la explosión primogenia y para la década de los 90 de las ondas gravitacionales. La apertura y ensanchamiento paulatino del espectro no se limita a facilidades terrestres, sino que surgen cada vez más y más sofisticaciones tecnológicas procedentes de la investigación militar, que se aplican a la investigación astrofísica desde fuera de la atmósfera terrestre para aumentar la sensibilidad y sensitividad de lo observado y escuchado. Con la aparición de la informática en los años 50 y 60 a partir de estas fechas se acoplan a los telescopios y radiotelescopios, para darles además de eficiencia operativa, la posibilidad de hacer rastreos y seguimientos automatizados y con la aparición de las primeras técnicas de digitalización para la captación de imágenes y sonidos del Universo la cosmología se comienza a enfrentarse con mejores instrumentos a retos mayores. Para el inicio de la década de los 70, el aumento en la sensibilidad de un radiotelescopio en un factor de 10, por ejemplo, aumenta el volumen de espacio a estudiar por un factor de 33. El aumento en la sensibilidad por un factor de 100, que se logra al finalizar esa década, incrementó el volumen de espacio por un factor de 100, lo que significó la posibilidad de estudiar directamente decenas de millones de estrellas y mejorar substancialmente el estudio de objetos extendidos: galaxias, radiogalaxias, cúmulos, supercúmulos, nebulosas y otros objetos. Entre los 70 y 80 nace en realidad un nuevo capítulo en el estudio del Universo: la astronomía extragaláctica es decir - la posibilidad de conocer en detalle los mecanismos de formaciones de otras galaxias aparte de la nuestra. Nace también el proyecto que culminará en la década de los 90: la construcción del primer telescopio espacial bautizado Hubble. Para finales de la década de los 70 la Unión Astronómica Mundial logra con grandes dificultades, un acuerdo internacional que le permite reservar frecuencias para la experimentación. La lucha es fuerte, pues debe competir con gobiernos interesados en usar esas frecuencias para inteligencia militar y con grandes corporaciones que las desean para fines comerciales. Además durante los 70 y 80 la competencia entre los Estados Unidos y la Unión Soviética es muy fuerte por el dominio del espacio con base en el uso del espectro electromagnético, el emplazamiento de ojivas nucleares en cohetes balísticos y en el envío de globos y sondas espaciales tripuladas y no tripuladas al espacio. Junto al inicio del diseño del Telescopio Espacial Hubble por parte de los Estados Unidos de América, la Unión Soviética inaugura en 1982 el mayor telescopio terrestre en el Observatorio Pulkova, que eclipsa las facilidades de que disponen los célebres telescopios colocados en el Monte Palomar en California; por su parte la administración del ESO (Observatorio Espacial Europeo) decide iniciar la construcción del denominado “VLT”, con espejos cóncavos de ocho metros de diámetro, pero muy delgados y flexibles. Esta organización fundada en 1962 por Francia, Alemania, Bélgica, Holanda, Dinamarca y Suecia, a las cuales se suman luego Italia y Suiza, planea ubicar el VLT en el centro en Chile, en la cumbre del Cerro Paranal a 2.636 m. de altura. El VLT será el mayor observatorio óptico de todos los tiempos: comprenderá cuatro telescopios, interconectados; una vez combinados, estos suministrarán una potencia luminosa total equivalente a la de un telescopio de dieciséis metros. Gracias a esta técnica, sería posible distinguir la silueta de un hombre que caminara en la Luna, o la luz de una luciérnaga a más de 10.000 kilómetros de distancia. Apuntando a los objetos más remotos del Universo conocido (galaxias en formación, quásares), podrá remontarse en el tiempo a más de 100.000 millones de años luz. La NASA calcula que el Telescopio Espacial Hubble (H.S.T.) tendrá una resolución 10 veces más brillante y definido que los telescopios terrestres; abarcará todo el espectro visible y gran parte del espectro infrarrojo y ultravioleta; por lo tanto podrá observar objetos colocados hasta 50 veces más allá de donde alcanzan los más poderosos telescopios terrestres.
  • 20. b) Astronáutica.- Desde el punto de vista de la historia esta ciencia que se inicia con la “eolipilia” de Herón de Alejandría (siglos I - II a.C.). Esta consistía en un caldero que producía vapor - que escapando por una abertura controlada se elevaba del suelo. Hacia el año 160 a.C., Herciano de Sonorata escribe su “Historia Verdadera”, novela que da cuenta del viaje de Ulises a la Luna, después de siete días de periplo. Si se incluye la invención de la pólvora por los chinos (700 - 900 d.C.), el estudio de los “cohetes en 1379 por el italiano Muratoi; los sueños de K.E. Siokolski de exploración del espacio con cohetes a reacción (1898) y se da un salto en la historia, se llega a los trabajos de Robert Goodard en USA; luego al 4 de octubre de 1957 con el inicio de la Era del Espacio, con el lanzamiento del cohete Sputnik por la URSS y esta primera etapa de afanes de la Humanidad se cierra con la misión Apolo 17 de USA (que completa 6 alunizajes tripulados). A partir de aquí se abre un nuevo capítulo espectacular gracias a las Sondas Espaciales lanzadas a descifrar el Sistema Solar y a los Laboratorios Espaciales que orbitan la Tierra; las que junto al desarrollo de nuevos avances informáticos están cambiando con rapidez inusitada la percepción de la Humanidad sobre el Universo, porque los medios de información se ocupan de divulgar cuanto acontece en este campo. Para el gran público lo que trasciende de la investigación de la física del espacio, en estas décadas son las imágenes fotográficas, las transmisiones radiales y las imágenes televisivas que muestran la Luna captada por las diferentes misiones Apollo; y los planetas Marte y Mercurio; así como los anillos de Saturno, captadas por las misiones Vikingo. Conforme van avanzando los adelantos en la astronáutica y el ser humano se prepara para acometer otras aventuras; la conquista del espacio acapara la atención mundial, a la vez que compite - en el área de la política internacional - con el triste episodio llamado “Guerra de las Galaxias”, que puso al planeta en inminente peligro de destrucción, como lo recuerda un artículo escrito especialmente para la Universidad para la Paz, por el novelista Gabriel García Márquez (Véase Anexo al final ). Si bien es cierto para finales de los 80 el colapso de la Unión Soviética y su anillo de países periféricos abren la humanidad a un período de distensión y cesa el peligro de la Guerra de las Galaxias, la realidad como se conoce en la década de los 90, es que el peligro no ha pasado, porque la gran cantidad de material radioactivo en producción o ya en su sitio estratégico - militar, puede ser utilizado por fuerzas que pugnan por moldear las sociedades. c) Aceleradores de Partículas.- Se denomina aceleradores de partículas a instrumentos de formación lineal o circular-dependiendo de su uso- que utilizan energías bajas o sumamente altas para acelerar subpartículas atómicas diversas para estudiarlas detenidamente. En la mayoría de los casos no es posible ver esas subpartículas y tan solo se definen por las trayectorias que dejan en las pantallas que recogen sus impactos en blancos expresamente diseñados para ello. Inicialmente todos los aceleradores utilizaban únicamente las formulaciones de Maxwell y de Lorentz ,pero al hacerse cada vez mas y mas sofisticados e incluso pretender alcanzar la velocidad de la luz se utilizan nuevas formulaciones derivadas de esas dos fundamentales. Según sea el uso que se les de los aceleradores se denominan: a) Aceleradores lineales y circulares , y los hay de dos tipos ( ciclotrones y sincrotones). Los ciclotrones pueden alcanzar energías de hasta 10 MeV , y los sincrotones pueden alcanzar energías de hasta 4 GeV ,sin embargo ,para estas fechas hay en proyecto la construcción de nuevas máquinas muy potentes ,pero su alto costo ha detenido su puesta en práctica . 2.-ARMANDO UN MODELO EVOLUTIVO DEL UNIVERSO.- Para armar un modelo evolutivo que tenga coherencia, capaz de incluir desde la proyectiva terrestre y desde el inicio del Universo hasta nuestros días, es conveniente recurrir a hacer cortes artificiales en la historia evolutiva del Universo. Precisamente la hipotética creación del Universo actual, es un suceso que el físico norteamericano especialista en fenómenos cuánticos Stephen Weinberg (a principios de los setenta) describe paso a paso (como una película que se detiene cuadro por cuadro), en la obra “Los Primeros Tres Minutos”. Toda descripción en física cuántica - según el lógico - matemático español Juan David García - Baca: “es útil para designar una “función” de estado de un sistema físico dado, que se refiere a una situación “latente”
  • 21. que pasa a la categoría de “patente”, esto es que se puede visualizar como un “constructo-físico-matemático” que da razón de un símil de la realidad tal y como se supone ocurrió.”( ) Se advierte que en la presentación original Weinberg inicia el conteo en el tercer cuadro (que pone de primero). La modificación se hace para graficar con una sola explicación lo ocurrido - según esta revisión - desde antes que T sea O; esto es: T = < 0 El modelo evolutivo se presenta en cuatro cortes secuenciales. PRIMER CORTE: Inicio del Universo PRIMER CUADRO (ALTAMENTE ESPECULATIVO) Fecha ¿X o infinito? Espacio Infinito o finito cerrado sobre sí mismo Tiempo 1/101 después del comienzo Condiciones Según la teoría original del B.B. hay una sola creación, si así es, la condición: es densidad infinita; temperatura infinita. Otra teoría establece que el Universo ha pasado por varios ciclos de B.B. (explosión - expansión y contracción); si así es, la condición, entonces: b) es densidad y temperatura final alcanzadas por la última fase de contracción, antes de que se revierta el proceso y se inicie un nuevo ciclo de explosión. Otra teoría expresa que a cada nuevo ciclo es posible que cambien las leyes de la física, si es así la condición, entonces: c) es densidad y temperatura, las que determinen el nuevo proceso (lo que está en relación con modificaciones de la entropía global del Universo). SEGUNDO CUADRO ( moderadamente especulativo) Fecha Entre 10 - 20 millones de años Lugar Un sitio indeterminado, a partir del cual se inicia la creación del espacio. Tiempo 1/100 de segundo después del comienzo. Condiciones Los conocimientos físicos no permiten señalar cual pueda ser el estado de una especie de “sopa primordial” a altísima temperatura (más de 100.000 millones de grados Kelvin conformada por fotones, leptones, antileptones, quarks y antiquarks pero se presume que actúan como partículas libres (según lo han demostrado experiencias con hadrones en el “MIT - Stanford Linear Accelerator Center”) que producen diversos efectos de “radiación de cuerpo negro” . Comentarios 1) Hugh David Politzer (Harvard), David Gross y Frank Wilczek (Princeton) en 1973 señalan que: en una clase especial de teoría del campo cuántica - conocidas como “Teorías Gauge” (Aforo) no Abelianas las fuerzas de interacción de los quarks se debilitan en relación inversa a su cercanía. Esta “libertad asintótica”, junto a altas energías permiten a los quarks su actuación como partículas libres. 2) J. C. Collins y M.J. Perry (Cambridge) en 1976 han postulado que el comportamiento de un medio de mucha densidad a muy alta temperatura es esencialmente igual al que tiene uno que esté conformado únicamente de partículas elementales libres, lo que les lleva a afirmar que en 1/100 de segundo después del comienzo el Universo estaba conformado de partículas elementales libres. Prueba de laboratorio: No ha sido posible romper ningún hadrón en sus quarks constitutivos y ello representa un reto y un enigma para la física cuántica. Debido a esta situación se ha especulado mucho sobre esta situación y respecto a las fuerzas débiles y fuertes envueltas en el proceso. Escuelas: Para lidiar con el problema de las altas temperaturas cuando los hadrones y antihadrones están presentes en grandes cantidades, hay dos escuelas que tienen diferentes maneras de resolver el problema. La escuela que no diferencia los hadrones, los estima similares conocida como la doctrina de la “democracia