1. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Tres problemas matemáticos aun sin solución
Three Mathematical Problems Still Unsolved.
Autor 1: Aldahir Rojas Lancheros Autor 2: Michael Steven Rendón Villa
Ingeniería de sistemas, Universidad Tecnológica de Pereira, Pereira, Colombia
Correo-e: aldahirlancheros@gmail.com michael.rendon@utp.edu.co
Resumen---Muchos han sido los problemas matemáticos
planteados por el hombre. Muchos de ellos se han resuelto;
pero hay otros tantos que han sido planteados pero hasta el
día de hoy no se ha obtenido una respuesta o resultado
satisfactorio. En este trabajo investigativo daré a conocer tres
de los siete problemas matemáticos más famosos.
Palabras clave---Clases de complejidad-Es un conjunto de
problemas de decisión, Combinación lineal-Es una expresión
matemática que consiste en la suma entre pares de elementos,
Transliteración-Es la representación de los caracteres de un
sistema de escritura por medio de los símbolos de otro sistema
de escritura.
Abstract---Many have been the mathematical problems posed
by man. Many of them have been resolved; but there are
many others that have been raised but to date has not been
obtained a satisfactory answer or result. In this research I will
give you three of the seven most famous mathematical
problems.
Key Word---Complexity classes-A set of decision problems,
Linear Combination-Is a mathematical expression consisting
of the sum of pairs of elements, Transliteration-Is the
representation of the characters of a writing system by means
of the symbols of another system of writing.
I. INTRODUCCION
La historia de la matemática está vinculada a la resolución
de ciertos problemas, esta afirmación puede ser reputada
por cuatro puntos de vista:
Algunos problemas están en el origen del
desarrollo de las matemáticas.
La resolución de ciertos problemas ha motivado a
la aparición de nuevas ramas de la matemática.
Otros problemas han provocado rupturas
epistemológicas.
Hay problemas que han abierto crisis en los
fundamentos de la matemática.
A continuación veremos tres problemas matemáticos que
han sido planteados, que continúan sin solución. La
solución no es lo más importante, lo verdaderamente
trascendental es el método que se utiliza para resolver
dichas incógnitas, ya que el proceso que se lleva a cabo
resulta ser más importante y de más provecho que el propio
resultado.
Algunos de los problemas más famosos que se citaran en
profundidad más adelante son:
P versus NP: Consiste en decidir si la inclusión
entre las clases de complejidad P y NP es estricta.
La conjetura de Hodge: La conjetura de Hodge
dice que para variedades algebraicas proyectivas,
los ciclos de Hodge son una combinación
lineal racional de ciclos algebraicos.
Existencia de Yang-Mills del salto de masa:
En Física, la teoría cuántica de Yang-
Mills describe partículas con masa positiva que
poseen ondas clásicas que viajan a la velocidad de
la luz.
II. CONTENIDO
1. P versus NP.
El matemático Stephen Cook, que formuló este problema
en 1971, lo explica con el siguiente ejemplo:
Es sábado por la noche y llega usted a una fiesta
abarrotada de gente. La anfitriona le dice:
"Creo que conoces a Rosa, aquella chica de la esquina que
lleva un vestido rojo".
2. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
A usted le bastará una fracción de segundo para verificar si
la anfitriona está en lo cierto o no. Pero si en vez de eso la
anfitriona le hubiera dicho
"Mira por ahí a ver si conoces a alguien",
Usted puede tardar tres horas en hallar la respuesta.
Otro ejemplo:
Comprobar si un número determinado X es la raíz
cuadrada de Z.
Podríamos resolverlo de dos formas:
Calculando la raíz de Z y comparando con X (proceso lento
y engorroso)
O bien, elevando al cuadrado a X y comparando con Z
(simple multiplicación X·X)
La conclusión que sacamos de éste sencillo ejemplo es que
en algunos problemas comprobar la solución es más
eficiente que calcularla. La complejidad de la función
“elevar al cuadrado” es más simple que calcular la raíz
cuadrada.
¿Qué tiene que ver todo esto con P=NP, Problema P
(difícil de encontrar) contra NP (fácil de verificar)?
Pues bien, P es la clase de complejidad que contiene
problemas de decisión que se pueden resolver en un tiempo
polinómico. P contiene a la mayoría de problemas
naturales, resolución de ecuaciones, la realización de
sumas, productos, algoritmos de programación lineal,
funciones simples,... Por ejemplo la suma de dos números
naturales se resuelven en tiempo polinómico (para ser más
exactos es de orden 2n). Entre los problemas que se pueden
resolver en tiempo polinómico nos encontramos con
diversas variedades como los logarítmicos (log(n)), los
lineales (n), los cuadráticos (n2), los cúbicos (n3),... La
función de elevar al cuadrado está contenida en la clase P.
La clase de complejidad NP contiene problemas que no
pueden resolverse en un tiempo polinómico. Cuando se
dice que un algoritmo no puede obtener una solución a un
problema en tiempo polinómico siempre se intenta buscar
otro procedimiento que lo consiga mejorar. Frente a los
problemas contenidos en P tienen métodos de resolución
menos eficaces. Podemos ver que la operación de calcular
la raíz cuadrada se encuentra contenida en esta clase.
Está claro que todo problema P es también NP, esto es,
todo problema resoluble en tiempo polinomial mediante un
algoritmo adecuado (P), es también un problema que
admite una comprobación rápida (NP).
Pero, ¿y al revés? ¿Existen problemas NP que no sean P?
Esto es, ¿existen problemas que admiten una comprobación
de solución o no solución conjeturada y, en cambio, no
admiten en tiempo polinomial una resolución algorítmica?
(1) En el cálculo computacional pueden presentarse
problemas en donde el número de alternativas
posibles para una determinada condición de
proceso es tan grande que ni siquiera con las
supercomputadores existentes aún en nuestra
tecnología se podrían afrontar en toda la vida de
un ser humano, pues no tendría para ello el
suficiente tiempo (es el problema P). En cambio,
la verificación de que una determinada alternativa
verifica la condición de proceso es algo
prácticamente instantáneo (es el problema NP).
Ejemplo:
Queremos colocar 6000 libros en 200 estantes, de modo
que se cumpla la condición de que no estén juntos ciertos
libros de diferente materia, nos encontramos que el número
de alternativas posibles podría superar al número de
átomos de la Vía Láctea, con lo cual, el determinarlas todas
(problema P - difícil de encontrar) es precisamente eso,
muy difícil en la actual tecnología de la computación. En
cambio, el verificar una de estas alternativas como válida,
cuando alguien conjetura una solución, (problema NP -
fácil de verificar) es inmediato.
En estos ejemplos, en los que el problema NP es
comprobable de inmediato, pero el problema P parece no
existir, ¿se debe esto a que realmente el problema P no es
posible o bien que no se tiene la tecnología computacional
adecuada para su resolución de forma algorítmica en
tiempo polinomial?
Esta es la pregunta no contestada que da consistencia al
problema. Entre los ejemplos actuales más candentes está
el de la criptografía y la comprobación de claves
informáticas (NP) en contraposición al problema de
generación algorítmica de tales claves en un tiempo
polinomial (P).
A continuación un pequeño repaso del problema. Antes que
nada este es considerado el problema principal, más
importante, de las ciencias de la computación. Básicamente
el problema es "para ciertos problemas, lo mejor que
podemos hacer es una búsqueda bruta", o como escribe
Lipton "para ciertos problemas el algoritmo más obvio es
el mejor". NP como sabemos quiere decir "tiempo
polinomial no-determinístico", y P "tiempo polinomial
determinístico". Entonces los problemas o lenguajes con
algoritmos que corren en tiempo polinomial están en P, y
3. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
los problemas con algoritmo en tiempo polinomial no-
determinístico en NP.
Una caracterización más fácil de entender de problemas en
NP es la siguiente: Sea A un algoritmo que tiene dos
entradas, x que representa una instancia de un problema L
(e.g. SAT, TSP, etc.), y c que representa una solución al
problema. Entonces L están en NP si y solo si existe un
algoritmo determinístico que corre en tiempo polinomial A
y existe un c tal que A(x, c)=1, i.e. que c sea una respuesta
válida al problema. Generalmente a c se le llama solución,
certificado, testigo o simplemente prueba, i.e. una prueba
de que x tiene solución. La misma caracterización se puede
hacer para P, pero esta vez el algoritmo no tiene una prueba
c. Entonces decimos que L está en P si y solo si existe un
algoritmo determinístico que corre en tiempo polinomial A
tal que A(x)=1.
Fig.1
La gran diferencia está en el certificado. Los algoritmos
para lenguajes en P determinan una solución, mientras que
los algoritmos para lenguajes en NP verifican una solución.
Una buena analogía es: si yo resuelvo un problema
matemático por mi mismo (está en P), o estoy verificando
la solución de otra persona (en NP). Entonces, la diferencia
radica en que estamos comparando un proceso de
determinar una solución a un problema contra un proceso
de verificación de una solución ya dada para un problema.
P vs NP en términos computacionales se refiere a cotas
inferiores de problemas NP-completos. La conjetura es que
para estos problemas no existe un mejor algoritmo que el
de fuerza bruta, i.e. P≠NP. La mayoría de los científicos
creen que esto es cierto, y de ahí surgen un montón de
alternativas para resolver problemas NP-completos como
Búsqueda Local, Algoritmos Genéticos, etc. Y la eficiencia
de estos métodos está en que pueden verificar soluciones
en tiempo polinomial.
En el aspecto filosófico, P vs NP hace la siguiente
pregunta: ¿Puede la creatividad ser automatizada? Si yo
escribo un libro en el que trabaje 1 año, y lo mando a un
periódico para que un crítico lo lea, y la destruye
completamente en 2 semanas, ¿Qué es más difícil, escribir
el libro o criticar el libro? Intuitivamente el proceso
creativo es más complejo y requiere más tiempo, pero hasta
que no tengamos una prueba que indique sin duda alguna
nunca sabremos, por la misma razón que expuse en el
párrafo de arriba. Simplemente por la curiosidad del
hombre, tenemos que saber. [1] David Hilbert.
También la misma pregunta se extiende a otros ámbitos
como la física. La visión de las ciencias de la computación
y una parte de la comunidad de físicos, es que toda nuestra
realidad física es computable. Desde la evolución de los
seres vivos, hasta la formación de galaxias. Todo es visto
como un proceso que dado una entrada genera un salida.
Entonces salen preguntas como ¿Qué tan complejo es el
plegado de proteínas? ¿Qué pasa con la información y la
energía en un hoyo negro que se disipa en forma de
radiación de Hawking? etc., etc. Muchas de estas preguntas
están siendo respondidas por técnicas de ciencias de la
computación. Por ejemplo, sabemos que si P≠NP entonces
no podemos viajar en el tiempo, o no podemos movernos
más rápido que la luz, y otras conexiones más extrañas.
Aun así, estás conexiones dan evidencia a favor de que
P≠NP, o ¿no?
Así que P vs NP no solo se refiere a problemas que solo
interesan a las ciencias de la computación. Se refiere
también a problemas fundamentales de otras ciencias.
Inclusive podría decirse que es una de las preguntas más
fundamentales de las matemáticas. Saber si podemos
encontrar pruebas eficientemente nos da conocimiento de
cómo resolver otros problemas muy difíciles como la
Hipótesis de Riemann. Es por ello que el Clay Mathematics
Institute lo pone en su lista de problemas fundamentales.
Fig. 2.
2. La conjetura de Hodge:
La conjetura de Hodge fue propuesta por W. Hodge en
1950, y permanece al día de hoy como problema abierto.
Ha sido incluida en la lista de los siete Problemas del
4. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Milenio [11] con los que el Clay Mathematics Institute
(Cambridge,
Massachusetts, EEUU) ha querido celebrar el nuevo
milenio, dotándolos de un premio de un millón de dólares a
cada uno.
La conjetura de Hodge se enmarca en una zona de las
matemáticas donde interaccionan las áreas de la geometría
algebraica y la geometría diferencial, y donde además se
recogen ideas que provienen de la geometría aritmética
(conjeturas estándar de Grothendieck, teoría de motivos,. .
.), la topología algebraica, la física matemática (teorías
gauge, mirror symmetry), la geometría compleja, o la teoría
de ecuaciones diferenciales en variedades.
Es por tanto, un problema de enorme interés por sus
múltiples conexiones con diversas áreas, y que ha sido
motor de notables avances en geometría. No obstante, no
hay una idea clara de que línea de ataque llevaría a su
solución, ni siquiera de si la respuesta llegaría usando
técnicas de geometría algebraica, o con técnicas analíticas
de geometría diferencial. Es más, hay bastante división en
la creencia de que pueda ser probada o refutada.
Espacios proyectivos complejos
Como antes, consideremos una esfera de radio unidad pero
ahora el plano ecuatorial será el plano complejo C. La
esfera estará situada en el espacio complejo C², formado
por parejas de complejos (x,y), y se conoce por la esfera de
Riemann. Si nos fijamos en el conjunto de rectas
proyectivas de C² que parten de N, se define el espacio
proyectivo complejo CP¹ como ese conjunto de rectas.
Observemos que al definir el espacio proyectivo “hemos
bajado” una dimensión: desde C² definimos CP¹. Así, la
esfera de Riemann define el el espacio proyectivo complejo
de una dimensión, también llamado línea proyectiva.
Si en vez de usar el plano complejo C como plano
ecuatorial, usamos el espacio C², necesitaremos una esfera
en C³ (espacio formado por ternas de puntos (x, y, z)
complejos) que obviamente ya no podemos representar
gráficamente. Pero las ideas son las mismas, y
obtendríamos el espacio CP², el plano proyectivo complejo.
En general, usando n+1 dimensiones complejas obtenemos
un espacio proyectivo CP(n).
Formas algebraicas en el espacio CP²; variedades
El espacio CP² podemos definir rectas, círculos y cualquier
otra figura geométrica; en general una variedad algebraica
en CP² es el conjunto de puntos de C³ que cumplen una
ecuación algebraica F(x, y, z) = 0. Las variedades
(manifold en inglés) son generalizaciones de las figuras
que conocemos del espacio euclídeo a espacios abstractos
de cualquier dimensión.
Otro tipo de variedad es la variedad topológica: son
aquellas que, si las “observamos con una lupa”, veremos
que en pequeñas porciones la variedad “parece” un espacio
euclídeo; de forma más técnica se dice que localmente las
variedades topológicas son homomorfas al espacio
euclídeo.
Una subclase muy importante de las variedades topológicas
son las variedades diferenciables: localmente son
suficientemente “suaves” para poder aproximarlas por un
plano euclídeo. La esfera (en cualquier número de
dimensiones) es un ejemplo de variedad topológica
diferenciable.
El concepto de variedad es fundamental para muchas partes
de la geometría y la física matemática moderna, ya que
permite estudiar estructuras más complicadas que se
expresan y se entienden en términos de las propiedades
relativamente bien entendidas de variedades en espacios.
Subvariedades
Una subvariedad es un subconjunto de puntos de una
variedad elegidos de tal manera que dicho subconjunto es a
su vez una variedad.
En nuestro viaje hacia la conjetura de Hodge hasta ahora
tenemos un espacio “suave” que localmente se asemeja el
espacio euclidiano, pero a mayor escala ese "espacio" es
diferente, y que se describe por un grupo de ecuaciones. Lo
que hacemos ahora es dividir ese espacio en partes
geométricas más pequeñas y simples: las subvariedades.
Esto nos permite simplificar el estudio de las propiedades
de variedades abstractas, al descomponerlas en
subvariedades más simples. Pero antes introducimos el
concepto de topología.
Topología y espacios topológicos
La topología estudia las propiedades más fundamentales de
toda la geometría, en el sentido de que es más fácil que dos
objetos geométricos sean topológicamente equivalentes que
usando cualquier otra teoría geométrica, como la
algebraica. Por ejemplo, dos figuras aparentemente tan
distintas como un “donut” (hablando en propiedad tal
figura es un “toro”) y una jarra son topológicamente
equivalentes porque se puede convertir una en otra
mediante deformaciones continuas sin rasgar ni cortar:
5. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Fig. 3.
Por lo tanto una herramienta básica en el estudio de las
geometrías más complicadas y abstractas es considerar su
estructura topológica.
Un espacio topológico es una estructura matemática simple
formada por un conjunto S, un conjunto T de subconjuntos
de S, y unas reglas referentes a las uniones e
intersecciones de los subconjuntos de T. Por ejemplo, los
números reales (el conjunto S) junto con los intervalos de
reales (a, b) (todos ellos forman el conjunto T) y algunas
propiedades básicas de los números definen el espacio
topológico de los reales.
Es una estructura simple porque sólo depende de la teoría
de conjuntos. Por otra parte se puede relacionar la
topología de un espacio con su métrica (la forma como
medimos distancias); en estos espacios topológicos
métricos se definen y estudian distancias entre conjuntos,
así como proximidades, fronteras de conjuntos, etc.
Tipos de espacios
Hasta ahora hemos definido diferentes tipos de espacios:
euclídeos, proyectivos, reales, complejos, diferenciables,
topológicos... Es importante tener en cuenta que estas
clasificaciones se superponen. Así, por ejemplo, podemos
considerar en el espacio proyectivo complejo C² una
medida de la distancia, con lo cual lo dotamos de una
métrica (con lo cual será un espacio métrico); si además
consideramos sus propiedades topológicas, entonces
tratamos a C² como espacio topológico métrico.
Homotopías, homologías, grupos y clases
Cuando se estudian los espacios vectoriales se trabaja con
sus subespacios, más simples; de la misma misma forma,
se estudia un espacio topológico mirando subespacios
topológicos, como curvas o superficies. Puesto que hay
muchos posibles subespacios, se introduce una relación de
equivalencia (permite realizar una clasificación de los
subespacios en clases de equivalencias): la homotopía, o
invariabilidad de deformación.
Esta relación de equivalencia en la práctica es todavía
complicada; otra más sencilla de calcular es la homología:
dos figuras geométricas dentro de un espacio dado son
homólogas si juntas forman el contorno de una figura de
dimensiones superiores.
(2) La motivación original para la definición de
grupos de homología es la observación de que un
aspecto importante de la forma de un objeto son
sus huecos cerrados (“agujeros”). Debido a que un
hueco es algo que "no existe", no es trivial definir
un agujero, o cómo distinguir entre diferentes
tipos de agujeros. La homología es un método
matemático riguroso para detectar y clasificar
huecos,
Por ejemplo las vocales {A, E, I, O, U} consideradas como
formas se pueden clasificar en dos clases: sin huecos
cerrados {E, I, U} y con un hueco cerrado {A, O}.
A cualquier espacio topológico X se puede asociar un
conjunto Hk (X), siendo k un número natural, cuyos
elementos son clases de homología. El tamaño y la
estructura de Hk (X) ofrece información sobre el número
de “agujeros” en X.
Fig. 4.
Por ejemplo, un “toro” en el espacio euclídeo es una
superficie de revolución que se obtiene cuando un círculo
gira alrededor de una recta que está en su plano sin
cortarlo. Algebraicamente se expresa como la combinación
lineal de dos círculos distintos, como se muestra a la
derecha: uno de color rosa y otro de rojo. Hablando
informalmente, cada círculo es una clase de homología del
toro.
6. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Topológicamente, esto significa que un camino cerrado que
primero rodea al hueco del toro (como el círculo rosa) y
después da la la vuelta al cuerpo del toro (como el círculo
rojo) se puede deformar a un camino que primero rodea al
cuerpo y luego al hueco. El toro tiene una generalización a
dimensiones más altas, el toro n-dimensional, o el n-toro,
para abreviar, que se forma combinando n círculos. El toro
del espacio euclídeo es un 2-toro.
Ciclos algebraicos
Ahora que ya tenemos los conceptos de variedad, sub-
variedad y clases de homología, podemos definir los
“bloques” elementales que aparecen en la conjetura de
Hodge.
Primero de todo, decir que un resultado general es que en
una variedad, que hemos visto que se define por unas
ecuaciones, sus sub-variedades, también definidas por unas
ecuaciones, se pueden separar en clases de homología que
“recubren” la variedad.
En particular, un ciclo algebraico de una variedad
algebraica V es una clase de homología en V que se puede
expresarse como una combinación lineal de las
subvariedades de V.
El estudio de los ciclos algebraicos es en uno de los
principales objetivos de la geometría algebraica de las
variedades en general, siendo muy útil para descubrir
propiedades. La dificultad es: demostrar la existencia de
ciclos algebraicos es relativamente fácil, pero los métodos
actuales para construirlos son deficientes. Si tuviéramos
métodos prácticos de construcción de clases de homologías
de variedades (como los ciclos algebraicos) se podría
probar la existencia de subvariedades con ciertas
propiedades deseables prefijadas utilizando cálculos de
homología. Ello nos daría un potente instrumento de
estudio de las variedades en general.
De forma llana, la conjetura de Hodge se plantea como el
problema de representatividad de clases de homología,
llevada al mundo de la geometría compleja.
Un ciclo de Hodge es un tipo especial de clase de
homología en una variedad compleja algebraica que
cumple ciertas condiciones específicas que no
reproduciremos aquí. Se define por tanto de forma distinta
a los ciclos algebraicos. Recordemos que la existencia de
subvariedades con “buenas” propiedades de homología
nos facilita el estudio de las variedades en general; pues
bien, los ciclos de Hodge están definidos de forma que
tienen esas buenas propiedades. La descripción detallada
de dichas propiedades, su justificación, etc., son temas
especializados que quedan fuera del ámbito de este
artículo.
Hemos visto que los espacios topológicos son simples en el
sentido de que se definen por una pocas propiedades;
supongamos que en un cierto conjunto, que podría ser una
variedad A, definimos una topología, y también definimos
un subconjunto B de A que es diferenciable (recordemos
que las variedades diferenciables son una subclase de las
variedades topológicas).
Tenemos una variedad proyectiva compleja “suave" en el
espacio proyectivo CPn que se describe por un grupo de
ecuaciones de tal manera que tiene dimensión par (esto es
así porque los números complejos tienen dimensión 2, y la
dimensión resultante de CPn será (n+1) ·2, que es par).
Luego tomamos la topología de la variedad y la dividimos
en partes geométricas más pequeñas llamadas "ciclos de
Hodge".
La conjetura afirma que: para los tipos de espacios
llamados variedades algebraicas complejas proyectivas, los
ciclos topológicos de Hodge son iguales a combinaciones
racionales lineales de ciclos algebraicos.
Aplicaciones en cálculo diferencial e integral en variedades
Una forma diferencial es una generalización de los
conceptos de derivada, vector gradiente, rotacional, etc del
espacio euclídeo, aplicados a variedades diferenciables en
espacios abstractos. Resulta ser que en espacios
diferenciables existe una relación entre las clases de
homología de los ciclos y las clases de equivalencia de las
formas diferenciables.
Por otra parte, la integral definida de una función real f(x)
en un intervalo (a,b) es una suma que realizamos sobre una
liberalización de la función, usando el concepto de
diferencial dx:
Generalizando este concepto a funciones complejas
integradas sobre variedades,
El intervalo (a,b) se transforma en la variedad A, y el
integrando f(x)dx en la forma diferencial dw; la expresión
anterior es el enunciado del teorema de Stokes, que
relaciona la integral sobre la variedad con la integral sobre
la frontera de la variedad, dA. Gracias a la descomposición
de la variedad en elementos más simples, los ciclos, se
simplifica el estudio de la diferenciación y de la integración
en variedades. También el campo de estudio de las
ecuaciones diferenciales se beneficia de la teoría de los
ciclos y variedades.
7. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
3. Existencia de Yang-Mills del salto de la masa
Un campo de Yang-Mills es un tipo de campo físico usado
sobre todo en teoría cuántica de campos cuyo lagrangiano
tiene la propiedad de ser invariante bajo una
transformación de gauge local.
Fig. 5.
En 1954 Chen-Ning Yang y Robert L. Mills introdujeron
una teoría para describir la interacción débil (responsable
entre otras cosas de ciertas formas de radiactividad) y la
interacción fuerte (responsable entre otras cosas de la unión
de protones y neutrones para formar un núcleo). Esta teoría
ha sido fundamental en el estudio de partículas elementales
y física nuclear en los ´últimos casi sesenta años.
La teoría de Yang–Mills, que emerge por un lado de la
geometría diferencial y por otro lado de la física moderna,
en particular de la mecánica cuántica, es una generalización
de la teoría de Maxwell del electromagnetismo. No
obstante, hay una diferencia esencial entre las fuerzas
nucleares y la fuerza electromagnética:
La fuerza electromagnética se extiende a distancias muy
largas, mientras que las fuerzas nucleares son de muy corto
alcance. Esto se traduce en que los campos responsables de
las interacciones nucleares tienen que tener masa (en
contraste con lo que sucede con los fotones responsables de
la interacción electromagnética).
Se dice en este caso que existe un salto de masa.
El problema es que en la teoría clásica de Yang–Mills las
partículas no tienen masa. Sin embargo todos los
experimentos, y en particular el fenómeno denominado
libertad asintótica, indican que en la teoría cuántica los
campos de Yang–Mills que describen las interacciones
nucleares tienen masa no nula. El problema propuesto por
el Instituto Clay de Matemáticas consiste en demostrar de
modo matemáticamente riguroso la existencia de la teoría
de Yang–Mills cuántica y la existencia del salto de masa.
Electromagnetismo.
La interacción electromagnética la conocemos a
través de los fenómenos eléctricos y magnéticos de la vida
cotidiana. Para entender estos fenómenos tenemos que
postular que la materia tiene un atributo al que llamamos
carga eléctrica.
La ley de Coulomb establece que dos cargas estacionarias
ejercen una fuerza mutua que es inversamente proporcional
al cuadrado de la distancia que las separa. Esta fuerza es
similar a la fuerza gravitatoria ejercida entre dos masas con
las siguientes diferencias. Primero, la fuerza eléctrica es
mucho más fuerte, con un factor de 1035. Segundo, la
carga eléctrica puede ser positiva o negativa, de tal modo
que dos cargas de distinto signo se atraen y de igual signo
se repelen.
Del mismo modo que la masa actúa como fuente de un
campo gravitatorio, la carga eléctrica es la fuente de un
campo eléctrico. Una carga puntual q crea un campo
eléctrico radial alejándose de ella misma, de una magnitud
inversamente proporcional a la distancia al cuadrado de la
carga. Este es el denominado campo de Coulomb:
Campo de Coulomb = q
R
2
Otra carga q
0
En este campo experimenta una fuerza radial igual a q 0
veces el campo. La fuerza puede ser atractiva o repulsiva
dependiendo de si el signo de q 0 es distinto o igual al de q.
Una manera de visualizar el campo eléctrico es a través de
las “líneas de fuerza” tangentes a la dirección del campo en
cada punto. El “flujo” se define como el número de líneas
que cruzan la unidad de ´área perpendicular a la dirección
del campo.
Si dibujamos una esfera de radio r alrededor de una carga
eléctrica, la superficie de la esfera aumenta con r como r 2.
Como el campo eléctrico decrece como r−2, el número de
líneas de flujo que atraviesa la esfera es una constante que
depende de la carga. Esta propiedad geométrica, conocida
como ley de Gauss, y que es equivalente a la ley de
Coulomb, nos hace ver que no hay que pensar en la
interacción eléctrica como algo que se hace más débil con
el cuadrado de la distancia sino como algo que se propaga.
Por supuesto, según nos alejamos el campo es menos
intenso en un punto dado, pero la cantidad total de flujo
alrededor de la esfera es la misma con la distancia. Vemos
pues claramente que la electricidad es una fuerza de largo
alcance.
El potencial de Coulomb o potencial escalar debido a una
carga puntual q se define como Potencial de Coulomb = q
R
.
Una colección de cargas define un potencial escalar φ que
es la suma de los potenciales de Coulomb individuales. El
8. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
campo eléctrico E~ se expresa en términos del potencial
escalar como
E~ = ∇~ φ.
Nuestra primera experiencia con el magnetismo tiene que
ver con la atracción que un imán ejerce sobre una partícula
de hierro. Este fenómeno se describe por medio de un
campo magnético que ejerce una fuerza sobre la partícula
de hierro.
Hans Christian Oersted hizo el importante descubrimiento
de que una corriente eléctrica genera un campo magnético.
No hay análogo magnético de la carga. La fuente más
simple de un campo magnético no es un “monopolio
magnético” sino un “dipolo magnético”, que es equivalente
a un lazo de corriente. Esto hace que los fenómenos
magnéticos parezcan más complicados que los eléctricos.
Fuerzas nucleares y teoría de Yang–Mills.
Hemos visto que la interacción electromagnética se
introduce aplicando el principio de simetría gauge al grupo
U (1) de los números complejos de norma unidad. Yang y
Mills generalizaron este principio al grupo SU (2) de
matrices complejas 2 × 2 unitarias con determinante
unidad, obteniendo una generalización de las ecuaciones de
Maxwell que describe todas las interacciones
fundamentales entre partículas elementales.
Para explicar lo que Yang y Mills hicieron, pongámonos en
el contexto de la física nuclear de los años 1950. En esos
años los físicos estaban estudiando neutrones, protones y
mesones π. Hay tres tipos de mesones π según su carga sea
neutra, positiva o negativa: π 0, π +, π −.
La cosa curiosa es que los mesones π podían hacer que un
protón se convirtiese en un neutrón o que un neutrón se
convirtiese en un protón, o podían ser absorbidos por un
protón o por un neutrón:
p ←→ n + π +,
n ←→ p + π −.
La idea clave para explicar estos fenómenos está en la
conservación del denominado isospín, un atributo similar al
espín. Desde el punto de vista de las fuerzas nucleares, el
protón y el neutrón se comportan básicamente del mismo
modo. Podemos pensar en ellos como dos estados distintos
de una misma partícula a la que llamamos nucleón, que
tiene isospín 1/2. Matemáticamente podemos describir un
nucleón con una función de ondas con dos componentes:
ψ = (ψp)
(ψn)∈ C´2.
Podemos ahora representar a los mesones por medio de
matrices 2×2 del modo siguiente:
π+ ∼ (0 1)
(0 0)
,
π− ∼ (0 0)
(1 0)
,
π0 ∼ (1 0)
(0 −1)
.
La conservación del isospín es equivalente a la invariancia
bajo la acción de SU (2) (una simetría gauge global con
grupo SU (2)). La gran idea de Yang–Mills fue hacer lo
que Weyl había propuesto en el caso del
electromagnetismo pero con matrices.
En otras palabras, considerar derivadas covariantes
Dµ = ∂µ + Aµ, donde Aµ son matrices 2 × 2 (más
precisamente, matrices antihelmínticas de traza nula, es
decir elementos del ´algebra de Lie de SU (2)). Como en el
caso del electromagnetismo, podemos definir un campo
tensorial F y ecuaciones similares a las de Maxwell (más
adelante daremos la forma precisa de F y de estas
ecuaciones).
La gran diferencia es que ahora, debido a que SU (2) es un
grupo no sabeliano, F involucra términos cuadráticos en A,
dando lugar a ecuaciones diferenciales que, en contraste
con las ecuaciones de Maxwell, son no lineales, y como
consecuencia los campos de fuerza (mesones π) actúan
sobre sí mismos, cosa que no sucede con los rayos de luz.
Solo hay algo que no funciona en ´esta teoría. El problema
es que los protones y los neutrones no son partículas
elementales. Estos están formados por quarks. Esta idea fue
promovida por Richard P. Feynman y Murray Gell-Mann.
La idea es que hay dos estados para un quark: u y d (“up” y
“down” en inglés, respectivamente). Un nucleón está
constituido por tres quarks y los mesones son la
combinación de un quark y un antiquark:
p = {uud}, n = {udd}
π + = {u ¯d}
π− = {du¯}
Π0 = combinación de uu¯ y d ¯d.
Ecuaciones de Yang–Mills.
Para obtener las ecuaciones de Yang–Mills se aplica el
principio de mínima acción.
Recordemos que en mecánica clásica se define el
lagrangiano L como L = Energía cinética − Energía
potencial.
A partir del lagrangiano se define la acción S (γ) a lo largo
de un camino γ como
S (γ) = Z γ Ldt.
9. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Según variamos el camino γ cambia la acción. El camino
correcto es el que minimiza la acción. Este viene dado por
las ecuaciones de Euler–Lagrange, equivalentes a las
ecuaciones de Newton. Para definir la acción de una
conexión se necesita que X este equipado de una métrica
riemanniana (o lorentziana, como en el caso del espacio-
tiempo). Se define entonces S(A) = Z X |FA| 2 d vol.
Donde d vol es la forma de volumen riemanniana y la
norma |FA| 2 se calcula usando conjuntamente una métrica
en g (la forma de Killing, por ejemplo) y la métrica de X.
Para ser más concretos consideraremos el caso en el que la
dimensión de X es 4 —después de todo, nuestro mayor
interés está en el caso X = R 4—. En esta situación el
operador de Hodge ∗ envía 2-formas en 2-formas de modo
que el producto interno L 2 de dos formas α y β viene dado
por hα, βi = Z X α ∧ ∗β. Entonces S(A) = − Z X Tr (FA ∧
∗FA). La ecuación de Euler–Lagrange de S(A) da la
ecuación de Yang-Mills:
dA ∗ FA = 0.
En R 4 equipado con la métrica eucl´ıdea o lorentziana la
identidad de Bianchi dAFA = 0 y la ecuación de Yang–
Mills dA ∗ FA = 0 se pueden escribir en términos de
derivadas covariantes ∇µ, respectivamente, como [∇µ, [∇ν,
∇σ]] + [∇ν, [∇σ, ∇µ]] + [∇σ, [∇µ, ∇ν]] = 0 y [∇µ, [∇µ, ∇ν]]
= 0, donde en la segunda ecuación se suma sobre los
índices repetidos con el consiguiente signo según la
métrica sea euclıdea o lorentziana (la velocidad de la luz se
ha normalizado a 1). Observemos que puesto que en
dimensión 4 el operador ∗ actuando sobre 2- formas es
invariante conforme, en el sentido de que dos métricas gµν
y ρ(x)gµν definen el mismo operador ∗, entonces es claro
que las ecuaciones de Yang–Mills dependen solo de la
estructura conforme. Esta importante propiedad de la teoría
de Maxwell se conserva pues en el caso no abeliano.
Como ya hemos mencionado varias veces, la teoría de
Maxwell es una teoría de Yang–Mills para el grupo U (1).
La curvatura en este caso es FA = dA y las ecuaciones de
Maxwell son equivalentes a dFA = 0 (identidad de Bianchi,
que en este caso es consecuencia de que d 2 = 0) y d ∗ FA
= 0.
Una consecuencia inmediata de (3) y (4) es que (4) se
cumple si FA satisface una de las dos ecuaciones ∗FA =
FA (auto dualidad) ∗FA = −FA (antiautodualidad).
Estas son ecuaciones de primer orden no lineales para la
conexión A que implican las ecuaciones de segundo orden
de Yang–Mills.
En R 4 con la métrica euclıdea la condición de
antiautodualidad corresponde al siguiente sistema de
ecuaciones para las matrices de la conexión Aµ (µ = 1, 2,
3, 4):
F12 + F34 = 0,
F14 + F23 = 0,
F13 + F42 = 0,
Donde Fµν = [∇µ, ∇ν] = ∂Aν ∂xµ − ∂Aµ ∂xν + [Aµ, Aν].
Teoría de Yang-Mills cuántica y modelo estándar.
En los años 1950 cuando la teoría de Yang–Mills fue
descubierta, se sabía que la versión cuántica de la teoría de
Maxwell —conocida como Electrodinámica Cuántica
(abreviado QED en inglés) — da una descripción
extremadamente ajustada de las fuerzas eléctricas y
magnéticas.
Así que resulto natural preguntarse si la teoría de Yang–
Mills podía describir las otras fuerzas de la naturaleza,
concretamente la interacción débil (responsable entre otras
cosas de ciertas formas de radiactividad) y la interacción
fuerte (responsable entre otras cosas de la unión entre
protones y neutrones para formar un núcleo). No obstante,
como ya hemos mencionado anteriormente, el hecho de
que los campos de Yang–Mills no tuvieran masa fue un
serio obstáculo para aplicar la teoría de Yang–Mills a estas
fuerzas ya que la interacción fuerte y débil son
interacciones de corto alcance y muchas de las partículas
tienen masa. Así pues no parecía que este tipo de
fenómenos tuvieran que ver con campos de largo alcance
que describen partículas sin masa.
En los años 1960 y años 1970, se superaron estos
obstáculos en la interpretación física de la teoría gauge no
abeliana. En el caso de la interacción débil, esto se logró
con la teoría electro débil de Glashow–Salam–Weinberg
con grupo gauge SU (2) × U (1). Introduciendo un “campo
de Higgs” adicional mediante el mecanismo de “ruptura
espontanea de simetría” se consigue dar masa a las
partículas gauge. El campo de Higgs es constante en el
vacío y reduce el grupo de estructura de SU (2) × U (1) a
un subgrupo U (1) embebido diagonalmente en SU (2) × U
(1). Debido a esta reducción, los campos de largo alcance
son solo los del electromagnetismo, de acuerdo con lo que
se ve en la naturaleza.
La solución del problema de la ausencia de masa en los
campos de Yang–Mills para la interacción fuerte es de una
naturaleza completamente distinta. La solución no se
obtuvo añadiendo campos adicionales a la teoría de Yang–
Mills, sino con el descubrimiento de una propiedad muy
importante de la misma teoría cuántica de Yang–Mills.
Esta propiedad se denomina libertad asintótica. De modo
aproximado, esta propiedad dice que a cortas distancias el
campo tiene un comportamiento cuántico muy similar al
comportamiento clásico, sin embargo, a distancias largas,
la teoría clásica no se corresponde con el comportamiento
cuántico del campo.
La libertad asintótica, junto con otros experimentos y
descubrimientos teóricos hechos en los años 1960 y años
10. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
1970, hicieron posible describir la interacción fuerte con
una teoría gauge no abeliana con grupo SU(3). Los campos
adicionales describen, a nivel clásico, quarks —objetos con
espín 1/2 de algún modo análogos al electrón, pero que se
transforman según la representación fundamental de SU (3)
—. La teoría gauge no abeliana de la interacción fuerte se
llama Cromo dinámica Cuántica (abreviado QCD, en
inglés).
El uso de la QCD para describir la interacción fuerte fue
motivado por una serie de descubrimientos experimentales
y teóricos hechos en los años 1960 y los años 1970, que
involucran simetrías y comportamiento a altas energías de
la interacción fuerte. Pero la teoría gauge no abeliana
clásica es muy diferente de las observaciones
experimentales de las interacciones fuertes. Para que la
QCD describa las interacciones fuertes con ´éxito, a nivel
cuántico tiene que tener al menos las siguientes dos
propiedades, ambas totalmente diferentes del
comportamiento de la teoría clásica:
o Tiene que tener un “salto de masa”, es decir, debe
existir una constante ∆ > 0 tal que toda excitación
del vacío tenga energía al menos ∆.
o Tiene que tener “confinamiento de los quarks”, es
decir, aunque la teoría se describa en términos de
campos elementales, tales como los campos del
quark, que se transforman de manera no trivial
bajo la acción de SU(3), los estados de las
partículas físicas —como el protón, neutrón y
pion— deben ser SU(3)-invariantes.
El primer punto es necesario para explicar por qué la
interacción fuerte es fuerte pero de rango corto; la
segunda es necesaria para explicar por qué no vemos
nunca un quark individual. (Otra propiedad también
requerida, que hemos obviado por simplificar es el que
haya “ruptura de la simetría quiral”).
Los experimentos y simulaciones por ordenador que se
han realizado desde finales de los años 1970 indican
fuertemente que la QCD debe tener estas propiedades.
Estas propiedades pueden verse hasta cierto punto en
cálculos teóricos realizados en varios modelos muy
simplificados (como las teorías gauge en retículos).
Pero no existe en estos momentos una explicación
teórica, y mucho menos matemáticamente completa,
que demuestre alguna de estas propiedades. Para
comprender los aspectos más básicos del proceso de
cuantización de la teoría de Yang–Mills, y formular el
problema del salto de masa con más precisión,
haremos un repaso breve al proceso de cuantizacion de
un sistema clásico, comenzando con la mecánica
cuántica.
Fig. 6.
Problema de existencia de Yang–Mills y salto de
masa.
Para establecer la existencia de una teoría gauge con
grupo de Lie G, uno debería definir una teoría cuántica
de campos en el sentido anteriormente descrito, con
los campos cuánticos en correspondencia con los
polinomios locales en la curvatura F y sus derivadas
covariantes, tales como Tr FµνFστ (x). Las funciones
de correlación de los campos cuánticos deben coincidir
a distancias cortas con las predicciones de la libertad
asintótica y la teoría de re normalización per turbativa.
(3) Puesto que el vector del vacío Ω es invariante por
el grupo de Poincar´e, es un vector propio con
energía nula, es decir HΩ = 0. El axioma de
energía positiva afirma que en cualquier teoría
cuántica de campos, el espectro de H está
contenido en el intervalo [0, ∞). Una teoría
cuántica tiene un salto de masa ∆ si H no tiene
valores propios en el intervalo (0, ∆) para algún ∆
> 0. El supremo de un tal ∆ es la masa m, y se
requiere que m < ∞.
Existencia de Yang–Mills y salto de masa. Probar que
para todo grupo de Lie compacto simple G, la teoría
cuántica de Yang–Mills en R 4 existe y tiene un salto
de masa ∆ > 0.
Primeros pasos y estrategias.
Como hemos visto, en la mecánica cuántica de
partículas la posición x y el momento p se convierten
en operadores que no conmutan y un estado cuántico
puede ser representado por una función de onda ψ(x),
lo que nos lleva al dominio del análisis funcional.
¿Qué sucede sin embargo si cuan tizamos un campo?
Por ejemplo si cuan tizamos el campo
11. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
electromagnético, las componentes E~ (x) y B~ (x) de
los campos eléctrico y magnético se convierten en
operadores que no conmutan y tenemos entonces que
considerar un ´algebra no conmutativa de dimensión
infinita. Este ´algebra se puede representar en un
espacio de Hilbert consistente en funciones de onda ψ
(B~), con lo que subimos un grado en la dificultad del
problema: el estado cuántico es una función sobre un
espacio de funciones (en este caso el espacio de
funciones es el espacio de todos los posibles B~).
Tenemos pues que hacer análisis funcional en un
espacio con infinitas variables, lo que representa un
nivel nuevo de dificultad.
El procedimiento más apropiado para cuan tizar la
teoría de Yang–Mills clásica resulta ser el método de
la integral de caminos de Feynman. Recordemos que
la acción de Yang–Mills con grupo de estructura G =
U(n) o G = SU(n) viene dada por
S(A) = 1 4g 2 Z X Tr (FA ∧ ∗FA)
Para un grupo simple G arbitrario se usa la forma de
Killing en el ´algebra de Lie de G. Entonces, se
considera la integral de caminos de Feynman sobre el
espacio A de conexiones dada formalmente por la
expresión
Z = 1 vol (G) Z A DA exp (−S(A)).
Como A es un espacio afín, formalmente tiene una
medida DA invariante por traslaciones (´única salvo
factor constante que se cancelar ‘a cuando definamos
las funciones de correlación). La integral de Feynman
para teorías gauge se formula normalmente sobre el
espacio A /G, donde G es el grupo de transformaciones
gauge. En lugar de hacer esto, aquí hemos dividido por
el volumen de G para definir Z.
Z se denomina “función de partición”, nombre que
viene de la física estadística (donde la integral es la
suma las amplitudes de probabilidad de todos los
estados microscópicos del sistema). A continuación se
eligen puntos xi ∈ X y “operadores locales” Oí (xi)
que sean polinomios en la curvatura y sus derivadas
covariantes, invariantes por transformaciones gauge,
en los puntos xi. Definimos
ZO = 1 vol (G) Z A DA exp (−S(A)) Y i Oí (xi).
Finalmente definimos los “valores esperados” o
“funciones de correlación”
h Y i Oi (xi) i = ZO/Z.
Para demostrar la existencia de la teoría de Yang–
Mills cuántica, se debe dar sentido riguroso a la
función de partición y a las funciones de correlación
(dando sentido a las integrales de caminos definidas
heurísticamente) y mostrar que satisfacen ciertos
axiomas relacionados con el hecho de que los Oi (xi)
pueden ser interpretados como operadores que actúan
en un espacio de Hilbert. Una manera de abordar el
problema (utilizada en simulaciones numéricas) y dar
sentido a la integral de caminos consiste en aproximar
el espacio A de conexiones por un espacio de
dimensión k y luego tomar el limite k → ∞. Esto se
puede hacer, por ejemplo, considerando la teoría de
Yang–Mills en un “retículo”, en otras palabras, con un
grafo Γ con vértices, lados y un conjunto de caras o
“plaquetas”, cada una de las cuales es un lazo (camino
cerrado) en Γ. Por ejemplo, podemos tomar como
vértices los puntos enteros Z 4 ⊂ R 4; los lados son las
líneas rectas que unen dos puntos con distancia unidad,
y las plaquetas los lazos de longitud cuatro. Una G-
conexión sobre Γ es entonces una aplicación de los
lados a G, y la curvatura de la conexión en una
plaqueta concreta es menos la traza de la holonomıa
alrededor del lazo menos la matriz identidad. La
acción de Yang–Mills puede definirse como la suma
del cuadrado de las curvaturas.
Con esta descripción explicita del espacio de
configuraciones se puede definir la teoría cuántica
reticular de Yang–Mills en un subgrafo finito γ de Γ
mediante la integral de Feynman
Z [γ, g2, G] = Z Yexp (−S) dUi
Donde la integral es sobre todas las holonom´ıas en γ,
en otras palabras, todas las aplicaciones de los lados en
G; la medida es el producto de la medida de Haar para
la holonom´ıa en cada lado y S es la acción de Yang–
Mills. Las otras cantidades físicas de interés son
valores esperados obtenidos utilizando esta medida.
Tomando como punto de partida estas integrales en
dimensión finita, el asunto de la existencia de una
teoría cuántica de Yang–Mills se traduce
esencialmente en si existe una manera razonable de
definir el límite de Z[γ, g2 , G] sobre subgrafos γ de Γ
cada vez más grandes para definir la integral de
Feynman en Γ. Tomar este límite involucraría
claramente el método de re normalización, y de hecho
el estudio de este ejemplo por Kenneth Wilson fue su
motivación original para estudiar el denominado grupo
de re normalización.
Se sabe bastante de las propiedades esperadas de este
límite utilizando una gran variedad de argumentos
físicos, como la libertad asintótica, etc. Una de las
propiedades más importantes es que en el límite g 2 →
0 y γ grande, se cree que la elección especifica de Γ
que aproxima a R 4 no es importante, y los
correspondientes valores esperados convergerán a las
funciones de correlación en la teoría cuántica de
campos continua. Además, ´estas deberían satisfacer
propiedades formales, como la invarianza por el grupo
de simetrías de la métrica plana en R 4 y otros axiomas
12. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
formalizados por Osterwalder–Schrader en [5]. Los
axiomas adicionales proporcionan las condiciones
suficientes para la construcción de un espacio de
Hilbert y la interpretación en términos de operadores
actuando en este espacio de Hilbert.
La parte correspondiente a la “existencia” en el
problema, consiste en establecer estos axiomas,
mientras que la parte correspondiente al salto de masa
involucra el decaimiento de las funciones de
correlación con la distancia. Por otro lado, no es
esencial seguir el método de las teorías gauge en
retículos. Existen otros modos de aproximar la integral
funcional de Feynman. Lo que es importante es poder
definir el límite a la teoría continua de campos.
También seria en principio posible abordar el
problema sin tomar límites.
La otra gran clase de modelos muy similares a la teoría
de Yang–Mills son las teorías supersimetricas de
Yang–Mills en dimensión cuatro. Estas son
modificaciones de la teoría de Yang–Mills que además
de conexiones involucran otros campos, en particular
campos “fermionicos” (las conexiones son campos
“bosonicos” y la supersimetrıa intercambia bosones y
fermiones). La condición básica es que el operador
Hamiltoniano que actúa sobre el espacio de Hilbert de
la teoría, y que genera la translación temporal, tenga
una raíz cuadrada que se denomina “súper carga”.
Fig. 7.
III. CONCLUSIONES
De acuerdo con lo planteado anteriormente,
podemos darnos cuenta de que en el universo se
encuentran cosas inimaginables por plantear, y
que cada uno de esos planteamientos puede o no
tener una o más posibles soluciones acertadas,
siete son los problemas más famosos sin
solucionarse, y es de suponer que faltan
demasiados por descubrirse y darles solución.
El ser humano en incontables circunstancias está
buscando problemas para superarse mentalmente,
está descubriendo dilemas inexplicables, que en
algún momento puedan ser explicados. Sin lugar a
dudas, la maquina humana esta relacionada con
inconmensurables problemas sin solución, el
simple hecho de que su funcionamiento sea tan
perfecto da mucho de que pensar. Continuando
con el humano, una de sus componentes
importantes y casi que desconocida es el cerebro,
se dice que un humano promedio solo utiliza el
10% de la capacidad del coeficiente intelectual, y
el resto de porcentaje ¿Qué?, qué pasaría si el
humano llegase a usar el 100% de si CI, alguna
vez lo pensaron?..
Alguna vez han pensado acerca de lo que pasaría
si el humano llegase a solucionar aquellos
problemas, Si lo han hecho seguro pensaron en lo
avanzados que deberían estar en los ámbitos
tecnológicos y científicos, de tal manera que la
habilidad para idear algoritmos con el fin de
solucionar problemas es mucho mayor a la que
ahora en el presente nos asombra.
IV. REFERENCIAS
(1) http://computacioncuantica.blogspot.com
.co/2010/08/la-importancia-de-p-vs-
np.html
(2) http://garf.ub.es/milenio/img/Presentacio
n_Hodge.pdf
(3) http://garf.ub.es/milenio/img/Presentacio
n_Yang-Mills.pdf