SlideShare una empresa de Scribd logo
1 de 66
Descargar para leer sin conexión
Índice general
1 Tópicos de álgebra abstracta 4
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Semigrupo, Monoide y Grupos . . . . . . . . . . . . . . . . . . . 4
1.2.1 Propiedades de los grupos . . . . . . . . . . . . . . . . . . 7
1.2.2 Caracterización de los subgrupos . . . . . . . . . . . . . . 7
1.2.3 Homomorfismo de grupos . . . . . . . . . . . . . . . . . . 7
1.3 Anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Módulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Álgebras graduadas . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7 Espacio de productos internos . . . . . . . . . . . . . . . . . . . . 11
2 Tópicos de topología 12
2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Nociones topológicas . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Topología (Estructura) . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Topología relativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5 Métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6 Continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7 Cubrimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.8 Partición de la unidad . . . . . . . . . . . . . . . . . . . . . . . . 16
3 Tópicos de geometría Diferencial 17
3.1 Variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.2 Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Fibrados y conexiones . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.2 Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.3 Fibrado vectorial . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.4 Fibrado principal . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Clases características . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.1 Categoría . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1
3.3.2 Funtor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.3 Clase característica . . . . . . . . . . . . . . . . . . . . . . 20
4 Tópicos de Teoría de Campos 21
4.1 Aspectos clásicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1.2 Electrodinámica clásica como funciones reales . . . . . . . 23
4.1.3 Formulación con cálculo vectorial de la electrodinámica
clásica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.1.4 Formulación con potenciales de la electrodinámica clásica. 26
4.1.5 Formulación covariante de la electrodinámica. . . . . . . . 28
4.2 Aspectos cuánticos . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.2 Cuantización canónica de la electrodinámica. . . . . . . . 33
4.2.3 Interacción fuerte . . . . . . . . . . . . . . . . . . . . . . . 35
5 Integrales de Feynman 48
5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2 Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3 Diagramas de Feynman . . . . . . . . . . . . . . . . . . . . . . . 49
5.4 Reglas de Feynman . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.5 Diagramas de Feynman y la cromo-dinámica cuántica. . . . . . . 52
6 Problema del salto de masa de Yang-Mills 53
6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2 Formulación del problema de: ”existencia de Yang-Mills y el salto
de masa” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.3 Axiomas de Wightman . . . . . . . . . . . . . . . . . . . . . . . . 56
6.3.1 W0: consideraciones propias de la mecánica cuántica re-
lativista . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.3.2 W1: consideraciones acerca del dominio y la continuidad
de los campos . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3.3 W2: ley de transformación del campo . . . . . . . . . . . 57
6.3.4 W3: conmutatividad local o causalidad microscópica . . . 57
6.4 El salto de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7 Observaciones finales y conclusiones 59
7.1 Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Índice alfabético 62
2
Describir el problema de la existencia de una
teoría cuántica de Yang-Mills y el Salto de Masa
(PYMySM) a un nivel elemental.
Nelson Antonio Sandoval Puente.
14 de septiembre de 2020
Resumen
Se presenta el problema de demostrar la existencia de campos de Yang-Mills
y el salto de masa observado en los gluones, se discute cuanto ha avanzado la
ciencia en su resolución y se da una introducción a las herramientas teóricas
necesarias para entender dicho problema a un nivel elemental, es decir, corres-
pondiente al pregrado de las carreras afines a este problema. Estas herramientas
son: álgebra abstracta, topología, geometría diferencial, diagramas de Feymann
y teoría cuántica de campos.
1
Agradecimientos
2
Introducción
En este capítulo se explican las propiedades de las estructuras algebraicas
utilizadas actualmente para describir el problema de la existencia de una teoría
cuántica de Yang-Mills y el Salto de Masa (PYMySM).
De esta manera se logran adquirir las herramientas matemáticas suficientes
para entender el estado actual de las investigaciones acerca del PYMySM que
es un paso hacia tratar de abordar soluciones para resolverlo.
3
Capítulo 1
Tópicos de álgebra
abstracta
1.1 Introducción
1.2 Semigrupo, Monoide y Grupos
Sea G un conjunto no vacío y n ∈ N con n ≥ 1.
Una operación n-aria en G es una función • : Gn
→ G donde Gn
representa
el producto cartesiano y finito de conjuntos, es decir Gn
= G × · · · × G. Si
n = 2, entonces la operación 2-aria en G se denomina operación binaria en G.
La notación que emplearemos para denotar la imagen de (x, y) ∈ G × G me-
diante la operación binaria en G es la multiplicativa, es decir x•y que representa
el producto de x e y.
Definición 1.1. Un Semigrupo es un conjunto no vacío G junto con una
operación binaria en G que satisface el axioma de asociatividad, es decir para
todo a, b, c ∈ G se tiene que:
(a • b) • c = a • (b • c) (1.1)
Ejemplo 1.1.1. En el conjunto de los enteros Z, definimos • de la siguiente
forma: para todo a, b ∈ Z se define a • b = a + b + 3. Entonces el par (Z, •) es
un semigrupo en Z.
Veamos si • satisface el axioma de asociatividad, debemos verificar que para
todo a, b, c ∈ Z se cumple que (a • b) • c = a • (b • c).
En efecto,
(a • b) • c = (a • b) + c + 3 (1.2)
= (a + b + 3) + c + 3 (1.3)
= a + b + 6 (1.4)
4
Ahora bien
a • (b • c) = a + (b • c) + 3 (1.5)
= a + (b + c + 3) + 3 (1.6)
= a + +b + 6 (1.7)
Por lo tanto • es una operación binaria asociatividad y en consecuencia el
par (Z, •) es un semigrupo en Z.
Ejemplo 1.1.2. Cualquier conjunto a es un semigrupo con un elemento junto
con la operación a · a = a.
Ejemplo 1.1.3. El conjunto de los números naturales N sin el 0 junto con la
operación aditiva es un semigrupo.
Ejemplo 1.1.4. El conjunto de las matrices cuadradas de números reales junto
con la operación multiplicación de matrices es un semigrupo.
Definición 1.2. Un Semigrupo Abeliano es un semigrupo tal que su ope-
ración binaria en G, satisface el axioma de conmutatividad, es decir, para todo
a, b ∈ G se tiene que:
a • b = b • a (1.8)
Ejemplo 1.2.1. El par (Z, •) con a•b = a+b+3 del ejemplo anterior es además
un semigrupo abeliano en Z. La razón es que se cumple que a + b = b + a, es
decir la operación es conmutativa.
Ejemplo 1.2.2. El conjunto de los números naturales N sin el 0 junto con
la operación aditiva también es un semigrupo abeliano porque esta operación
también es conmutativa.
Ejemplo 1.2.3. El conjunto de las matrices cuadradas de números reales junto
la operación de multiplicación de matrices no es un semigrupo abeliano porque
esta operación no es conmutativa para las matrices.
Definición 1.3. Un Monoide es un semigrupo G donde la operación binaria
en G satisface el axioma del elemento neutro bilátero (izquierda y derecha),
es decir existe e ∈ G tal que para todo a ∈ G se satisface:
e • a = a (1.9)
a • e = a (1.10)
es decir
e • a = a • e = a (1.11)
Ejemplo 1.3.1. El par (Z, •) con a, b ∈ Z definido por a • b = a + b + 3 es
un monoide en Z. En efecto notemos que debemos probar que para todo a ∈ Z
existe e ∈ Z tal que a • e = e • a = a. Construyamos el elemento e ∈ Z de la
siguiente forma, sabemos que debe satisfacer la ecuación a • e = a, entonces por
5
definición de • resulta que a • e = a + e + 3 y debe ser igual a a. Por otro lado
como a ∈ Z ocurre que a = a + 0, es decir, a + e + 3 = a + 0 por el axioma
asociativo ocurre que a + (e + 3) = a + 0. Si a = a, entonces (e + 3) = 0, esto
implica que e = −3 ∈ Z. De manera similar ocurre con e • a = a. Por lo tanto
el par Z, • es un monoide en Z.
Ejemplo 1.3.2. El conjunto de los números naturales N con la operación aditiva
es un monoide donde elemento neutro es el 0.
Ejemplo 1.3.3. También, el conjunto de los números naturales N con la ope-
ración multiplicativa es un monoide donde el elemento neutro es el 1.
Definición 1.4. Un Grupo es un monoide G tal que la operación binaria en G
satisface el axioma del elemento inverso bilátero, es decir, para todo a ∈ G
existe b ∈ G tal que:
a • b = e (1.12)
b • a = e (1.13)
es decir
a • b = b • a = e (1.14)
Ejemplo 1.4.1. Sea G = 0 y consideremos el conjunto de todas las funciones
biyectivas de G en G, denotado por B(G). Entonces el par (B(G), ◦) donde ◦
denota la composición de funciones es un grupo, llamado grupo de transfor-
maciones de G.
Ejemplo 1.4.2. El conjunto de los números enteros Z junto con la operación
adición es un grupo donde elemento neutro es 0.
Ejemplo 1.4.3. El conjunto de las matrices cuadradas de elementos reales
forman un grupo bajo la operación multiplicación donde el elemento neutro es
la matriz identidad.
Definición 1.5. Un Grupo abeliano es un grupo G tal que la operación
binaria en G satisface el axioma de conmutatividad.
Ejemplo 1.5.1. El par (Z, •) con a, b ∈ Z definido por a•b = a+b+3 constituye
un grupo (aditivo) abeliano.
Ejemplo 1.5.2. El conjunto de las matrices cuadradas de elementos reales
bajo la operación multiplicación no es un grupo abeliano porque la operación
multiplicación no es conmutativa.
Ejemplo 1.5.3. El conjunto de las matrices cuadradas diagonales de elementos
reales junto con la operación multiplicación de matrices es un grupo abeliano.
Definición 1.6. Sea G un grupo y H un subconjunto no vacío de G, decimos
que H es un subgrupo de G si y sólo si H es grupo.
Definición 1.7. Un grupo trivial es un grupo formado por un conjunto cuyo
único elemento es el elemento neutro.
6
1.2.1 Propiedades de los grupos
A continuación enunciaremos un teorema que enuncia las propiedades más
básicas en un grupo. Para la demostración del mismo consultar [12].
Definición 1.8. Sea G un monoide, entonces el elemento identidad de G que
lo denotaremos por e es único. Si G es un grupo, entonces
(i) Los elementos neutro e inverso de un grupo que lo denotaremos por e y
a−1
con a ∈ G, son únicos.
(ii) Para cada a ∈ G, la ecuación a • a = a implica que a = e.
(iii) Para cada a ∈ G, (a−1
)−1
= a.
(iv) El inverso del producto de dos elementos diferentes de un grupo es igual al
producto de los inversos, es decir para cada a, b ∈ G, (a • b)−1
= b−1
• a−1
.
(v) En un grupo sus elementos satisfacen la condición de regularidad, es decir
vale la ley de cancelación en el grupo.
(vi) Sean a y b elementos de G, las ecuaciones a • x = b y y • a = b, tienen
solución única en G, es decir x = a−1
• b y y = b • a−1
.
Definición 1.9. Sea H un conjunto no vacío del un grupo G, entonces H es
un subgrupo de G si y sólo si a • b ∈ H para todo a, b ∈ H.
Para la demostración ver [12].
1.2.2 Caracterización de los subgrupos
Definición 1.10. (Intersección de subgrupos) Sean (G, •) un grupo, lo
denotaremos por G y {Gi}i∈I una familia no vacía de subgrupos de G. Entonces
la intersección de toda familia no vacía de subgrupos de G, que la denotamos
por i∈I Gi es un subgrupo de G.
Consultar para la demostración ver [12].
Definición 1.11. (Unión finita de subgrupos:) Sea un grupo G y {Gi}n
i=1
una familia finita no vacía de subgrupos de G. Entonces la unión de toda familia
finita no vacía de subgrupos de G, que la denotamos por
n
i=1 Gi es un subgrupo
de G.
1.2.3 Homomorfismo de grupos
Sean los grupos (G, •) y (G , • )
Definición 1.12. La función f : G → G es un homomorfismo de grupo si y sólo
si la imagen de la composición en G es igual a la composición de las imágenes
en G . Es decir:
f : G → G es un homomorfismo ⇐⇒ f(a • b) = f(a) • f(b) (1.15)
7
Ejemplo 1.12.1. Sean los grupos aditivos (R2×2
, +) y (R, +) y sea la función
f : R2×2
definida por:
f
a b
c d
= a + c
Entonces f es un homomorfismo, pues al aplicar la definición de suma de ma-
trices junto las propiedades de conmutatividad y asociatividad de la suma
en R, en la definición de f se cumple que dadas 2 matrices A y B entonces
f(A + B) = f(A) + f(B).
Definición 1.13 (Homomorfismos especiales). Sean G y G dos grupos y f :
G → G un homomorfismo respecto de • y • . Entonces:
1. f es un monomorfismo si y solo si f es inyectiva.
2. f es un epimorfismo si y solo si f es sobreyectiva.
3. f es un isomorfismo si y solo si f es biyectiva.
4. f es un endomorfismo si y solo si G = G .
5. f es un automorfismo si y solo si f es un endomorfismo biyectivo.
Definición 1.14. (Conjugación o automorfismo interno:) Sea G un grupo
y g ∈ G, entonces la función:
ϕg : G → G
ϕg(x) : g−1
xg
es llamada conjugación a derecha por g. Esta función es un endomorfismo
de G ya que para todo x1, x2 ∈ G se tiene que:
ϕ(x1x2) = g−1
x1x2g = (g−1
x1g)(g−1
x2g) = ϕg(x1)ϕg(x2)
Definición 1.15. (Subgrupo normal:) Es un subgrupo que es invariante
bajo la conjugación de los miembros del grupo del que forma parte. Es decir,
un subgrupo N del grupo G es normal en G si y solo si, gng−1
∈ N para todo
g ∈ G y n ∈ N.
Definición 1.16. (Grupo simple:) Es un grupo no trivial que solo tiene como
subgrupos normales al grupo trivial y a el mismo.
1.3 Anillos
En esta sección describimos de manera breve, los conceptos más básicos
presentes en la teoría de Anillos los cuales enunciamos a continuación.
8
Definición 1.17. Un anillo es un conjunto no vacío A junto con dos operacio-
nes binarias en A, usualmente denotadas por adición (+) y multiplicación (•)
que satisfacen las siguientes propiedades.
1. El conjunto con la primera operación, (A, +) es un grupo abeliano.
2. El conjunto con la segunda operación, (A, •) es un semigrupo.
3. La segunda operación es distributiva a derecha y a izquierda respecto de
la primera operación.
Es decir, para todo a, b, c ∈ A se cumple que:
a • (b ∗ c) = a • b ∗ a • c
(b ∗ c) • a = b • a ∗ c • a (1.16)
4. Para todo elemento a de A, existe un elemento llamado identidad y
denotado por 1A de A tal que a • 1A = 1A • a = a.
Denotaremos a el anillo (A, +, •) simplemente por A.
Ejemplo 1.17.1. (N, +, ·) no es anillo, pues no existe neutro para la adición.
Ejemplo 1.17.2. (N0, +, ·) no es anillo, porque los elementos no nulos N0
carecen de inverso aditivo.
Definición 1.18. Sea A un anillo, decimos que:
1. A es anillo conmutativo si la segunda operación de A es conmutativa.
2. A es anillo con unidad si existe un elemento neutro en A, que denota-
remos e para la segunda operación de A.
3. A es un anillo con división si además de ser anillo con unidad cumple
con que para todo elemento no nulo de A, existe un elemento inverso que
también pertenece a A.
Ejemplo 1.18.1.
(Z, +, ·) es un anillo conmutativo y con unidad.
Definición 1.19. Sea I un subconjunto no vacío de un anillo A. Si I es un
subgrupo aditivo de A entonces:
1. I es un ideal por la izquierda de A si el producto por la izquierda de
un elemento de I por un elemento de A pertenece a I. Esto es:
∀(a, x) ∈ A × I : a × x ∈ I
2. I es un ideal por la derecha de A si en cambio el producto por la
derecha de un elemento de I por un elemento de A pertenece a I.
∀(x, a) ∈ I × A : x × a ∈ I
3. Un ideal bilátero es un ideal por la derecha y por la izquierda. En el caso
de un anillo conmutativo las nociones de ideal por la izquierda, derecha o
bilátero son equivalentes y por lo tanto se habla solo de ideal.
9
1.4 Módulos
Definición 1.20. Un R-módulo a izquierda denotado por A, es un anillo R
y un grupo abeliano aditivo A junto con una función R × A → A tal que para
todo r, s ∈ R y para todo a, b ∈ A:
r(a + b) = ra + rb (1.17)
(r + s)a = ra + sa (1.18)
r(sa) = (rs)a (1.19)
Ejemplo 1.20.1. Cada grupo abeliano M es un módulo sobre el anillo de los
números enteros Z si se define nx = x + x + · · · + x (n sumandos) para n > 0,
0x = 0 y (−n)x = −(nx) para n < 0.
Definición 1.21. Un R-módulo a derecha se define de la misma manera que
el R-módulo a izquierda con la diferencia de que ahora la función que relaciona
al anillo y al grupo abeliano es A × R → A.
Ejemplo 1.21.1. Si R es cualquier anillo e I es cualquier ideal izquierdo en R,
entonces I es un módulo izquierdo sobre R. Lógicamente, los ideales derechos
son módulos derechos.
Definición 1.22. Un R-módulo unitario es un R-módulo el cuál tiene un
anillo unitario con un elemento unitario denotado por 1R. Entonces para todo
a ∈ A se cumple que 1Ra = a.
Ejemplo 1.22.1. Todo grupo abeliano aditivo G es un Z-módulo unitario, con
na (n ∈ Z, a ∈ G).
Definición 1.23. Sea A un anillo con unidad. Entonces un módulo F sobre
A es un módulo libre en el conjunto X si y solo si satisface las siguientes
condiciones:
1. F tiene una base no vacía.
2. F es la suma directa interna de una familia de A-módulos cíclica, donde
cada una es isomórfica como un A-módulo a izquierda de A.
3. F es un A-módulo isomórfico a la suma directa de las copias del A-módulo
A.
4. Existe un conjunto no vacío X y una función i : X → F con la propiedad
de que dado un A-módulo unitario y una función f : X → A, existe un
único homomorfismo A-módulo ¯f : F → A tal que ¯fi = f.
1.5 Espacio vectorial
Definición 1.24. Un espacio vectorial a izquierda que denotaremos por Vi o
simplemente V es un R-módulo tal que anillo asociado es un anillo con división.
Definición 1.25. Sea D un anillo con división. Entonces todo D-módulo libre
es un espacio vectorial sobre D.
10
1.5.1 Ejemplos
1. El conjunto de n-tuplas donde cada elemento pertenece al cuerpo F. Es
decir (a1, a2, · · · , an) donde cada ai ∈ F.
2. El conjunto de todas las funciones de cualquier conjunto fijo Ω sobre un
cuerpo forma un espacio vectorial F con la suma y multiplicación de fun-
ciones usual definidas de la forma siguiente:
(f + g)w = f(w) + g(w)
(f · g)w = f(w) · g(w)
1.6 Álgebras graduadas
Definición 1.26. [10]Sea K un cuerpo, un álgebra sobre un cuerpo K consiste
en lo siguiente:
• Un espacio vectorial V sobre K.
• Una operación binaria, llamada multiplicación de vectores, la cuál para
todo c ∈ K y α, β, γ ∈ V cumple con lo siguiente:
1. (cα)β = c(αβ)
2. (α + β)γ = αγ + βγ
3. α(β + γ) = αβ + αγ
1.7 Espacio de productos internos
También conocido como espacio prehiltbertiano, es un espacio vectorial (que
suele ser Rn
o Cn
junto con una operación adicional llamada producto escalar o
producto interno. Su definición formal es la siguiente:
Definición 1.27. Sea un campo vectorial V sobre un cuerpo F.
Sea un mapa definido como ·, · : V × V → F denominado producto
interno o producto escalar que satisface las siguientes propiedades para todo
x, y, z ∈ V y a ∈ F:
• Hermiticidad o simetría conjugada. Es decir, para todo x, y ∈ V
entonces x, y = y, x .
• Sesquilinealidad o linealidad en el primer argumento. Es decir que
para todo a ∈ K y para todo x, y ∈ V , entonces ax, y = a x, y .
• Es positivamente definida. Para todo x ∈ V , entonces x, x ≥ 0.
11
Capítulo 2
Tópicos de topología
2.1 Introducción
Para responder preguntas tales como ¿que es el espacio? o ¿que es una di-
mensión? hace falta estudiar estos temas de una manera independiente de lo que
es la forma, el tamaño y la posición de las figuras geométricas. Por esa razón
surge la topología, que literalmente significa “el estudio del espacio”, como rama
separada de las matemáticas a comienzos del siglo XX d.C. En ella se estudian
las propiedades del espacio tales como conexión y compacidad para averiguar
cuales se conservan bajo deformaciones continuas.
Como ejemplo de su utilidad se puede considerar un espacio cuya forma es
una banda de material. Entonces se puede conocer que propiedades no cambian
cuando dicha banda se deforma (estira, dobla o tuerce) pero no cuando se rompe
ya que esto es una deformación no continua.
La meta es llegar a conclusiones que se pueden aplicar a un tipo de objetos
independientemente de que forma tenga el objeto.
Hay que aclarar que el término topología se refiere tanto a la rama de las
matemáticas como a una estructura estudiada por dicha rama.
Existen varias maneras de definir los conceptos de la topología. A continua-
ción se explican las nociones topológicas que están de acuerdo con la definición
de conjuntos abiertos.
2.2 Nociones topológicas
1. Topología (Rama de las matemáticas): es el estudio de aquellas pro-
piedades cualitativas de los objetos denominados espacios topológicos
que son invariantes bajo ciertas transformaciones denominadas mapas
continuos, especialmente bajo los homeomorfismos.
2. Ejemplos de estudio:
12
• Objetos con formas diferentes como un cuadrado y un círculo tienen
en común que ambos dividen el plano en 2 partes, la parte interior
delimitada por el borde del objeto y la exterior.
• En el problema de los puentes de Könisberg, se demostró que no
se pueden recorrer todos los 7 puentes de la ciudad de Könisberg cru-
zando cada uno como máximo una vez. La demostración no se hizo
conociendo la forma de los caminos de la ciudad, sino las propieda-
des de conexión entre las partes de la ciudad. En otras palabras se
requería saber que puentes conectaban cuales partes de la ciudad.
2.3 Topología (Estructura)
Definición 2.1. Un espacio topológico es un par ordenado (X, TX) donde
X es un conjunto y TX es una familia de subconjuntos de X que satisfacen los
siguientes axiomas:
1. El conjunto vacío pertenece a TX. Es decir, φ ∈ TX.
2. La intersección de cualquier número finito de elementos de TX pertenecen
a TX. Es decir, si {TXi}n
i=1 es una familia finita no vacía de elementos de
TX entonces
n
i=1 TXi ∈ TX.
3. Cualquier unión arbitraria de los elementos de TX pertenecen a TX. Es
decir, si I es un conjunto de índices y {TXi}i∈I es una familia no vacía de
elementos de TX entonces i∈I TXi ∈ TX.
Los elementos de TX se denominan conjuntos T-abiertos.
Un conjunto cerrado es un conjunto abierto cuyo complemento también
es abierto.
La familia TX se denomina una topología en X.
En algunos textos se usa X para indicar (X, TX), es decir, el conjunto X
con una topología TX que como par ordenado forman el espacio topológico.
Ejemplo 2.1.1. Dado X = {1, 2, 3} entonces:
• TX = {φ, {1, 2, 3}} forma una topología de X llamada topología trivial.
• TX = {φ, {1}, {2}, {1, 2}, {1, 2, 3}} forma otra topología de X.
• TX = {φ, {1}, {2}, {1, 2, 3}} no forma una topología de X porque la unión
de los subconjuntos {1} y {2} de TX, es decir, el conjunto {1, 2} no per-
tenece a TX.
2.4 Topología relativa
Definición 2.2. Sea (X, TX) un espacio topológico. S ⊂ X será un subespacio
de X, si y solo si, S es un espacio topológico para la topología inducida por X
13
en S, llamada topología relativa denotada por TXs. Esto se cumple para los
subconjuntos de S que son la intersección entre S y un conjunto abierto de TX.
En notación de conjuntos se expresa como:
TXs = {S ∩ U|U ∈ TX} (2.1)
2.5 Métrica
Definición 2.3. Sea M un conjunto y d una función que satisface los siguientes
axiomas:
1. d : M × M → R
2. d(x, y) ≥ 0 (no negativa)
3. d(x, y) = 0 ⇐⇒ x = y (identidad de los indiscernibles)
4. d(x, y) = d(y, x) (simetría)
5. d(x, z) ≤ d(x, y) + d(y, z) (desigualdad triangular)
Entonces el par ordenado (M, d) es llamado un espacio métrico y la métrica
de dicho espacio es d.
Definición 2.4. Una secuencia en un espacio métrico es una sucesión de
Cauchy si por cada número real positivo r existe un número entero positivo N
tal que para todos los enteros positivos m, n > N, entonces d(xm, xn) < r.
Definición 2.5. Un espacio métrico (X, d) es completo si toda secuencia de
Cauchy de puntos en M tiene un límite que también está en M.
Definición 2.6. Un espacio de Hilbert es un espacio de productos internos
real o complejo que también es un espacio métrico completo con respecto a la
métrica inducida por el producto interno. Esta métrica es la norma definida
como ||x|| = x, x .
2.6 Continuidad
Es una propiedad de las funciones continuas que, intuitivamente, son aquellas
para las cuales un cambio suficientemente pequeño en su entrada produce un
cambio arbitrariamente pequeño en su salida.
Requiere de los conceptos de vecindad e imágenes para su definición.
Definición 2.7. (Vecindad de un punto: ) Sea (X, TX) un espacio topo-
lógico y p un elemento de dicho espacio, entonces, una vecindad de p es un
subconjunto V de X que incluye a un conjunto abierto U de X el cuál contiene
a p.
14
Es decir:
p ∈ U ⊆ V ⊆ X (2.2)
Si a su vez, V es un conjunto abierto de X entonces es llamada una vecindad
abierta.
Definición 2.8. (Vecindad de un conjunto:) Sea S un subconjunto del
espacio topológico X. Entonces una vecindad de S es un conjunto V que incluye
un conjunto abierto U que contiene S.
Definición 2.9. (Continuidad en un punto:) Una función f : X → Y es
continua en un punto si para todo x ∈ X y para toda vecindad N de f(x)
existe una vecindad M de x tal que f(M) ⊆ N.
Definición 2.10. (Propiedades de una función continua): Si f : X → Y
es continua, entonces:
• La composición g ◦ f : X → Z es continua si g : Y → Z es continua.
• f(X) es compacta si X es compacta.
• f(X) es conexa si X es conexo.
2.7 Cubrimiento
Definición 2.11. Una familia de subconjuntos C de un conjunto X es un
cubrimiento de X si y solo si la unión de los elementos de C contiene a X.
Esto es:
Sea C = {Uα : α ∈ A} una familia indexada de conjuntos Uα.
Entonces C es un cubrimiento de X ⇐⇒ C ⊆ α∈A Uα
Definición 2.12. Si C es un cubrimiento de X, entonces un conjunto D ⊂ C
es un subcubrimiento de C si todavía cubre a X.
Definición 2.13. Si C es un cubrimiento de X tal que cada uno de sus elemen-
tos son conjuntos abiertos entonces C es llamado un cubrimiento abierto.
Definición 2.14. Si C es un cubrimiento de X, entonces C es un cubrimiento
finito de X si cada elemento de X tiene una vecindad que intersecta de manera
finita a los elementos de C.
Definición 2.15. Un espacio topológico X es compacto si cada uno de sus
cubrimientos abiertos tiene un subcubrimiento finito.
Definición 2.16. Sean C y D cubrimientos de un espacio topológico X.
D es un refinamiento de C si todo conjunto que pertenece a D es un
subconjunto de algún conjunto que pertenece a C.
Formalmente, D = Vβ∈B es un refinamiento de C = Uα∈A cuando ∀β∃α tal
que Vβ ⊂ Uα.
Definición 2.17. Un espacio topológico X es paracompacto si cada cubri-
miento abierto tiene un refinamiento abierto que es localmente finito.
15
2.8 Partición de la unidad
Definición 2.18. Una partición de la unidad de un espacio topológico X es
un conjunto R de funciones continuas de X en el intervalo [0, 1] tales que para
cada punto x que pertenece a X, se cumple lo siguiente:
1. Existe una vecindad de x donde todos excepto un número finito de las
funciones de R son 0.
2. La suma de todos los valores de las funciones es igual a 1. En símbolos:
ρ∈R
ρ(x) = 1
16
Capítulo 3
Tópicos de geometría
Diferencial
3.1 Variedades
3.1.1 Introducción
3.1.2 Álgebra
Definición 3.1. A y B están separados por vecindad si existe alguna ve-
cindad U de A y V de B tal que U y V son disjuntos.
Definición 3.2. Sean x y y puntos de un espacio topológico X que puede ser
separado por vecindad. Entonces X es un espacio de Hausdorff si todos los
pares distintos de puntos de X son vecindades separables.
Definición 3.3. Un espacio topológico X es localmente euclídeo si existe un
número entero no negativo tal que todo punto en X tiene una vecindad que es
homeomórfica a un espacio real Rn
.
Definición 3.4. Una variedad topológica es un espacio de Hausdorff local-
mente euclídeo. A veces, se utiliza el término variedad para referirse a una
variedad topológica.
Definición 3.5. Una presentación de una variedad topológica es un es-
pacio de Hausdorff segundo contable que es localmente homeomorfo a un
espacio vectorial por una colección llamada atlas de homeomorfismos llamados
cartas donde la composición de una carta con el inverso de otra carta es una
función llamada mapa de transición.
Definición 3.6. Una variedad Ck
-diferenciable donde k es un entero no
negativo, es una variedad topológica equipada con una clase de equivalencia de
atlas cuyos mapas de transición son todos diferenciables k veces.
Definición 3.7. Una variedad suave es una variedad C∞
-diferenciable para
la cuál todos sus mapas de transición son suaves.
17
3.2 Fibrados y conexiones
3.2.1 Introducción
El concepto de conexión define con precisión la idea de transportar datos
entre una familia de curvas en una manera ’paralela’. La clase de datos trans-
portada define la clase de conexión.
Por ejemplo, la conexión afín proporciona una manera de transportar de ma-
nera paralela vectores tangentes de un punto a otro de una variedad recorriendo
una curva.
Transportar datos en una superficie no siempre es trivial. Así por ejemplo
está el problema de transportar un vector tangente a la superficie de una esfera
desde un punto a otro de la esfera. La dirección a la que apunte el vector
transportado depende de la trayectoria por la cuál se transportó. La solución a
este problema proviene después de considerar que la derivada direccional según
el cálculo vectorial no se comporta bien ante cambios de coordenadas que se
apliquen a los componentes del vector. Entonces una de las maneras de abordar
este asunto es con las conexiones de Cartan que consiste en usar grupos de Lie
y las simetrías del espacio que se está estudiando. Esto en el caso del problema
anterior da origen a estudiar las rotaciones de dicho espacio.
3.2.2 Álgebra
Sea,
• E, B y F espacios topológicos.
• B un espacio topológico conectado llamado espacio base.
• E un espacio topológico llamado espacio total.
• F un espacio topológico llamado fibra.
• π : E → B una aplicación sobreyectiva continua llamada proyección.
• Para cada x ∈ B existe una vecindad abierta U ⊂ B de x tal que exista
un homeomorfismo φ : π−1
(U) → U × F de manera que π coincida con la
proyección en el primer factor.
Definición 3.8. Para todo Ui ∈ U y φi ∈ φ el conjunto de todos los (Ui, φi) es
llamado una trivialización local.
Si π : E → B satisface la condición de trivialización local entonces:
Definición 3.9. Para todo p ∈ B, la preimagen π−1
(p) es llamada una fibra
sobre p donde π−1
(p) es homeomórfica a F.
Definición 3.10. La estructura (E, B, π, F) es un fibrado y es denotada por
F → E
π
−→ B.
Definición 3.11. Un fibrado suave es un fibrado donde E, B, F son varieda-
des suaves y π es un mapa suave.
18
3.2.3 Fibrado vectorial
Definición 3.12. Un fibrado vectorial real consiste de:
• Un espacio topológico X llamado espacio base.
• Un espacio topológico E llamado espacio total.
• Una función sobreyectiva continua Π : E → X llamada proyección del
fibrado.
• Para cada x que pertenece a X se tiene una estructura de un espacio
vectorial real de dimensión finita en la fibra Π−1
(x).
Donde la siguiente condición de compatibilidad es satisfecha: Para todo punto
p que pertenece a X, existe:
• Una vecindad abierta U ⊆ X de p.
• Un número natural k.
• Un homeomorfismo ϕ : U × Rk
→ π−1
(U) tal que para todo x que perte-
nece a U:
– (π ◦ ϕ)(x, v) = x para todos los vectores v en Rk
.
– El mapa v → ϕ(x, v) es un isomorfismo lineal entre los espacios
vectoriales Rk
y Π−1
.
Una trivialización local de un fibrado vectorial es una vecindad abierta U
junto con el homeomorfismo ϕ.
Un fibrado vectorial (E, p, M) es suave cuando E y M son variedades sua-
ves, p : E → M es un mapeo suave y las trivializaciones locales son a su vez
difeomorfismos.
Definición 3.13. Sea:
• E → M un fibrado vectorial suave sobre una variedad diferenciable M.
• Γ(E) es espacio de secciones suaves de E.
Una conexión en E es un mapa lineal-R : Γ(E) → Γ(E ⊗ T∗
M) tal que la
regla de Leibniz (σf) = ( σ)f + σ ⊗ df se cumple para todas las funciones
suaves f en M y todas las secciones suaves σ de E.
3.2.4 Fibrado principal
Sea G un grupo topológico. Entonces, un G-fibrado principal es un fibrado
π = P → X junto con una acción continua P × G → P tal que G preserve las
fibras de P y actúe regularmente en ellos de una manera que ∀x ∈ X, y ∈ P el
mapa G → Px que envía g con yg es un homeomorfismo.
19
3.3 Clases características
3.3.1 Categoría
Una categoría C consiste de:
• Una clase ob(C) de objetos.
• Una clase hom(C) de morfismos entre los objetos.
• Para cada 3 objetos a, b, c existe una operación binaria hom(a, b)×hom(b, c) →
hom(a, c) llamada composición de morfismos. Si f y g son morfismos
entonces la composición de f y g denotada por f ◦ g.
3.3.2 Funtor
Sean las categorías C y D. Un funtor de C hasta D es un mapa que cumple
con las siguientes condiciones:
• Asociar cada objeto X en C un objeto F(X) en D.
• Asociar a cada morfismo f : X → Y en C un morfismo F(f) : F(X) →
F(Y ) en D tal que:
– Para cada objeto X en C entonces F(idX) = idF (X)
– Para todo morfismo f : X → Y y g : Y → Z en C entonces F(f ◦g) =
F(f) ◦ F(g).
3.3.3 Clase característica
Sea G un grupo y X un espacio topológico y bG(X) el conjunto de las clases
de isomorfismo de las G-fibrados principales. Entonces una clase característica
c de G-fibrados principales es entonces una transformación natural de bG a un
funtor H∗ de cohomología.
20
Capítulo 4
Tópicos de Teoría de
Campos
4.1 Aspectos clásicos
4.1.1 Introducción
Los campos clásicos se representan con secciones de haces fibrados y su
dinámica se formula en términos de haces de jets conformando lo que se conoce
como teoría de campos clásica covariante.
Para comenzar a definir esta teoría se requiere conocer bajo que condiciones
físicas es válido aplicar los campos clásicos: Ellos solo son útiles cuando se quiere
describir fenómenos que ocurren a escalas de energía donde las propiedades
cuánticas de la materia son despreciables.
Además para su definición también se requiere poder escribir de manera
lógica las cantidades físicas representadas por estos y para ello existen varios
formalismos matemáticos. La razón de que sea útil emplear varias opciones pa-
ra representar lo mismo es que cada formalismo tiene sus ventajas a la hora
de extraer información acerca de las relaciones entre las cantidades físicas que
pretenden describir. Por ejemplo hay una formulación que permite de mane-
ra directa elevar las funciones vectoriales que representan los campos clásicos
a operadores vectoriales para representar los campos cuánticos. Otra formula-
ción muestra que es evidente que las leyes obtenidas son invariantes ante alguna
transformación de coordenadas. En particular la formulación basada en fibrados
vectoriales de cualquier campo clásico requiere de conocer bien como abstraer
algún campo físico en particular a el concepto general de campo como una es-
tructura matemática y también requiere de saber como manejar la estructura de
los fibrados vectoriales, objeto estudiado por la topología y la teoría de catego-
rías. Por lo tanto antes de considerarla se verán otros ejemplos de formalismos
mas concretos y se irá aumentando el grado de abstracción a medida que se
explique porque es necesario hacerlo.
21
A continuación y como ejemplo, se tomará una teoría de la física clásica y se
escribirá en términos de algunos formalismos matemáticos para ver las ventajas
de cada uno. Esto con motivo de exponer porque son útiles los conceptos de
álgebra abstracta, topología, geometría diferencial y teoría de categorías para
escribir las leyes que dan origen al P-EYMSM que es la teoría que atañe al
presente trabajo.
La teoría elegida será la teoría electromagnética debido a lo siguiente:
• Los aspectos físicos que describe no constituyen un problema abierto para
la ciencia actualmente. Esto es un criterio válido aún cuando, estrictamen-
te hablando, siempre será un problema abierto hasta que se descubra una
teoría unificada para todas las interacciones entre partículas o se prue-
be que no existe tal unificación. Por lo tanto, se le considera una teoría
efectiva.
• Juega un papel importante tanto en el mundo macroscópico como en el mi-
croscópico lo que le da 2 características. Primero, describe fenómenos que
podemos percibir con nuestros sentidos de manera directa y así tener una
noción de su comportamiento. Segundo, sus efectos no son despreciables
en el comportamiento de las partículas subatómicas como los protones. EL
P-EYMSM, al tratar de la interacción fuerte, está presente a una escala
aún mas pequeña (por ejemplo, el interior de un protón) y lidia con una
fuerza de magnitud mucho mayor que la interacción electromagnética, pe-
ro sus consecuencias están a su vez presentes en la escala de las partículas
subatómicas, es decir, la misma en donde la teoría electromagnética es
importante.
• Sus leyes o al menos la noción de sus leyes, se pueden escribir conociendo
las leyes de la suma y multiplicación de números reales. Esto es, se formula
como relaciones entre elementos del cuerpo de los números reales R. Sin
embargo mas adelante se mostrará el porqué es necesario escribirla como
relaciones entre estructuras algebraicas mas complicadas para tratar de
entenderla como realmente es.
Todos los formalismos que describen la interacción electromagnética tienen
una meta en común, la cual es, describir las interacciones físicas que ocurren
entre partículas con carga eléctrica. Esto lleva a que las expresiones matemáti-
cas resultantes deben coincidir con la evidencia experimental. Sumado a esto,
deben llevar a conclusiones razonables, como por ejemplo, que permanezcan in-
variantes ante rotaciones y translaciones de ejes coordenados. Después de todo,
¿tiene sentido una teoría que predice que, bajo las mismas condiciones, un ex-
perimento observado en un laboratorio se comportará de manera diferente en
otro laboratorio? En lo que a campos clásicos se refiere, toda consecuencia di-
ferente es causada por un parámetro diferente en las condiciones iniciales del
experimento.
22
4.1.2 Electrodinámica clásica como funciones reales
El formalismo mas sencillo solamente aporta información acerca de la propor-
ciones entre las cargas eléctricas y las fuerzas que estas producen a determinadas
distancias.
Así por ejemplo la evidencia experimental ha llevado a describir la fuerza
eléctrica como indica la ley de Coulomb. Esta nos dice que cuando las cargas
eléctricas:
• Tienen simetría esférica.
• No se superponen.
• Son estacionarias cada una respecto a la otra.
Entonces, se cumple que:
F0 = ke
qq0
r2
0
(4.1)
Donde:
F0: fuerza eléctrica producida por la carga q sobre q0.
q: carga eléctrica que genera la fuerza.
q0: carga eléctrica que ”siente” la fuerza.
r0: distancia entre q y q0.
En unidades del SI la fuerza se mide en N, la carga en C y la distancia en
m lo que da como resultado que ke ≈ 8.987N · m2
· C−2
.
Además de las expresiones matemáticas que describen un fenómeno físico
están también las definiciones como la de campo eléctrico, a saber:
F = q0E (4.2)
De esta sencilla ley se puede fácilmente extraer información como que la
fuerza eléctrica es inversamente proporcional al cuadrado de la distancia entre
las cargas eléctricas.
Ahora bien, para expresarla en esos términos se necesitó echar mano del
álgebra abstracta. Esto porque las cantidades físicas como la fuerza eléctrica
dependen de la distancia, es decir, están definida como funciones de la distancia.
Tanto la distancia como la fuerza se expresan como números reales. Esto se
puede expresar en esta notación: F : R → R. Lo mismo ocurre con todas las
cantidades físicas. Son funciones que actúan sobre elementos del conjunto de
números reales.
Por lo tanto, las operaciones definidas en ese conjunto representan fenómenos
físicos, y también tienen consecuencias en los fenómenos físicos. Así que es debido
a que las fuerzas eléctricas cumplen con el principio de superposición que se
utilizan la suma y multiplicación en R para representar distribuciones de carga.
Al utilizar números reales por lo tanto se está trayendo toda la información de
la estructura algebraica del anillo (R, +, ·) para describir la ley de Coulomb.
23
Por lo tanto si no se da por sentado la información mencionada, la ley de
Coulomb se escribe así:
Sea:
(R, +, .) el cuerpo de los números reales y D ⊂ R.
Entonces, la fuerza de Coulomb es una función F : D → R definida como:
F0 = ke
qq0
r2
0
(4.3)
donde q, q0, ke, r2
0 ∈ R y tienen el mismo significado físico que el de la defi-
nición anterior.
Como se ve, no basta con solo definir el significado físico de cada constante y
variable. También hay que definir a que estructura matemática pertenecen para
así saber como realizar operaciones con estas cantidades. En este caso, todas las
funciones actúan sobre elementos del anillo (R, +, ·). Entre las propiedades de
los anillos están que empleando las operaciones que lo definen se puede encontrar
una solución única a una ecuación definida en ese anillo como pasa con la ley
de Coulomb. Esta es la razón al porque en dicha ecuación podemos despejar
por ejemplo la carga eléctrica q y tener la garantía de que el valor numérico
obtenido es único y es realmente la solución.
A continuación el procedimiento para ”despejar” q de la ley de Coulomb
aplicando las propiedades del anillo (R, +, ·):
Debido a que r−2
= 1
r2
F0 = keqq0r0
−2
Multiplicación derecha a ambos lados de la ecuación
F0(keq0r0
−2
)−1
= keqq0r0
−2
(keq0r0
−2
)−1
Asociatividad de la multiplicación
F0(keq0r0
−2
)−1
= [(ke)(k−1
e )][(q0)(q0)−1
][(r0
−2
)(r−2
0 )−1
]q
Elemento inverso multiplicativo (x)(x)−1
= 1
F0(keq0r0
−2
)−1
= q
Reescribiendo de la manera usual
F0r0
2
keq0
= q
Se pueden garantizar 2 cosas respecto al valor numérico obtenido al evaluar
la expresión:
Primero, que es el único valor válido de q, no hay otra carga eléctrica que
satisfaga la expresión.
Segundo, incluso antes de calcular q se sabe que este valor existe para todo
elemento del dominio de F, a saber, el conjunto D. De esta manera se ve que no
tiene sentido extraer conclusiones físicas de estudiar la expresión para r0 = 0 ya
24
que al hallar D para la expresión de la ley de Coulomb vemos que no contiene
al elemento r = 0.
Adicionalmente, estar seguro de que una solución existe, tiene aún mas re-
levancia cuando la expresión matemática que representa a una ley física es tan
compleja, que no se sabe como despejar la variable a estudiar. Conviene primero
averiguar si tal solución realmente existe antes de intentar encontrarla.
Entonces, haciendo una analogía, cabe formular la pregunta, ¿De verdad
existe una solución a la ecuación que representa a la interacción fuerte? A este
problema se le conoce como ”existencia de Yang-Mills”. Probar que una solución
existe o que no existe es suficientemente complejo e importante para que se le
considere un problema del milenio.
Retomando el análisis de la Ley de Coulomb otra cuestión a considerar son
las condiciones en las que esta ley es válida. Esto porque muchos fenómenos físi-
cos ocurren con campos eléctricos y magnéticos que son variables con el tiempo
como por ejemplo las ondas electromagnéticas y en estos la ley de Coulomb en
general deja de ser válida.
Por lo tanto, el modelo matemático ahora debe modelar las magnitudes fí-
sicas como funciones de 2 variables, a saber, el espacio y el tiempo. Debido a
la dependencia temporal de estas funciones a este modelo se le conoce como
electrodinámica en contraposición a la electrostática donde los campos son cons-
tantes en el tiempo. En cuanto a que los campos sean funciones de una sola
variable espacial, en general el movimiento de una partícula en el espacio nece-
sita de 3 números o 3 coordenadas espaciales para ser representado. Esto lleva a
que las magnitudes físicas dependen en general de 3 variables espaciales y una
temporal.
Cuando Maxwell formuló la electrodinámica [3] lo hizo con un modelo de 20
ecuaciones cuyas magnitudes físicas eran campos escalares definidos de R3
→ R,
es decir, las magnitudes físicas fueron representadas por funciones que dependen
de varias variables pero retornan un escalar. Nótese que el anillo sobre el que
están definidos estos campos es (R , +, .), el cual es una estructura algebraica
diferente de (R, +, .). Por tanto tiene sus propias operaciones aditiva y multipli-
cativa para actuar sobre los elementos del conjunto del conjunto R que ahora
son ternas de números reales (x, y, z) en vez de un solo número real. Las mag-
nitudes físicas principales en estas ecuaciones son lo que hoy se conoce como
potencial escalar eléctrico ϕ y como potencial vector magnético A pero claro
escrito como campo escalar.
Sin embargo, al elevar los campos escalares que representan las magnitudes
físicas en la teoría electromagnética a campos vectoriales (funciones de varia
variables espaciales que retornan vectores), se puede extraer información acerca
de la simetría en el espacio, en especial, al utilizar las coordenadas adecuadas.
También se logra simplificar el número de expresiones matemáticas necesarias
para describir el fenómeno físico. Por ejemplo las 20 ecuaciones originales de
Maxwell se traducen en 8 ecuaciones vectoriales. Buscando tomar en cuenta
las simetrías que son evidentes al formular la interacción electromagnética con
vectores, Heaviside, Gibbs y Hertz lograron con solo 4 ecuaciones describir este
fenómeno alrededor del año 1884 [6]. Para ello se emplearon los campos eléctrico
25
E y magnético B en vez de los potenciales ϕ y A.
4.1.3 Formulación con cálculo vectorial de la electrodiná-
mica clásica.
Sean E : R3
→ R3
el campo eléctrico y B : R3
→ R3
el campo magné-
tico tales que:
Definición 4.1.
· E =
ρ
0
(4.4)
· B = 0 (4.5)
× E = −
∂B
∂t
(4.6)
× B = −µ0J + µ0 0
∂E
∂t
(4.7)
F = qE + qv × B (4.8)
El sistema queda determinado por 6 cantidades independientes que corres-
ponden a las 3 componentes espaciales de cada campo.
Al escribir las leyes del electromagnetismo de esta manera no se puede ver
como estas también se cumplen en el marco de la teoría de la relatividad especial.
Para lograrlo, se utiliza una propiedad que se manifiesta si se formulan estas
mismas leyes pero de la manera como se indica en la siguiente sección.
4.1.4 Formulación con potenciales de la electrodinámica
clásica.
Sean φ : R3
→ R el potencial escalar y A : R3
→ R3
el potencial vector
definidas como:
E = − ϕ −
∂A
∂t
(4.9)
B = × A (4.10)
Entonces al sustituir en las ecuaciones de Maxwell estas se reducen a 2
ecuaciones:
2
ϕ +
∂
∂t
· A = −
ρ
0
(4.11)
2
A −
1
c2
∂2
∂t2
A − · A +
1
c2
∂2
∂t2
A = −µ0J (4.12)
Estas 2 ecuaciones son equivalentes a las 4 ecuaciones de Maxwell.
26
Se tiene la ventaja de que son 2 ecuaciones menos cuyas variables indepen-
dientes son 4 en total, (1 para el potencial escalar y 3 para el potencial vector)
en vez de 6 variables independientes.
Como desventaja está el hecho de que las ecuaciones son mas complicadas que
las ecuaciones de Maxwell ya que involucran mas términos y aparecen operadores
diferenciales de segundo orden. Sin embargo, las ecuaciones de los potenciales
se pueden simplificar valiéndose del hecho de que las cantidades que tienen
significado físico directo son los campos en vez de los potenciales. Esto se hace
de la siguiente manera:
Primero se toma en cuenta la siguiente propiedad: Sea λ(r, t) una función
doblemente diferenciable. Entonces para todo λ:
ϕ = ϕ +
∂
∂t
λ (4.13)
A = A + λ (4.14)
Esta propiedad nos indica que existen varias combinaciones de ϕ y A ca-
racterizadas por un parámetro λ que van a generar los mismos campos E y
B. Esto sumado al hecho de que los campos son las cantidades que realmente
afectan el comportamiento del sistema que se estudia lleva a que se puede elegir
los potenciales con cierta ”libertad”. Esta libertad conocida como ”libertad de
calibre” no es total, es decir, que eligiendo cualquier valor para los potenciales
no se generan los campos buscados, sino mas bien se eligen los potenciales va-
riando el parámetro λ y exigiendo que se satisfaga las 2 ecuaciones mostradas
previamente.
Es conveniente elegir valores para los potenciales que simplifiquen las ecua-
ciones (4.11). Por ejemplo si se toman todos los A que satisfacen la condición:
· A = 0 (4.15)
Las ecuaciones (4.11) quedan de esta forma:
2
ϕ = −
ρ
0
(4.16)
2
A −
1
c2
∂2
∂t2
A −
1
c2
∂2
∂t2
A = −µ0J (4.17)
A esta condición se le conoce como calibre de Coulomb. La razón es que
esta condición se cumple cuando el campo magnético es estático o casi estático
respecto del tiempo. Bajo esas condiciones la ley de Coulomb predice resultados
válidos.
También se pueden elegir los potenciales de manera que cumplan con la
condición conocida como calibre de Lorentz que implica lo siguiente:
27
· A = −
1
c2
∂ϕ
∂t
(4.18)
− 2
λ = − · A −
1
c2
∂ϕ
∂t
(4.19)
− 2
ϕ = −
ρ
0
(4.20)
− 2
A = −µ0J (4.21)
donde 2
es el operador D Alembertiano:
2
−
1
c2
∂2
∂t2
= − 2
(4.22)
Estas ecuaciones son el punto de partida para 2 consideraciones:
Primero: que es fácil extenderlas para explicar fenómenos cuánticos al sus-
tituir los campos escalares por operadores, dando lugar a la electrodinámica
cuántica.
Segundo: Estas ecuaciones son invariantes ante transformaciones de Lorentz.
Sin embargo esto no es tan obvio cuando están en funciones de los campos en
vez de los potenciales. Por lo tanto, al ver que no es tan fácil demostrar su
invarianza ante transformaciones de Lorentz, surge la cuestión de si se pueden
escribir las leyes de Maxwell en términos de los campos y no de los potenciales
de una manera que a primera vista si sea invariante ante esas transformaciones.
La solución a esto da lugar a la aproximación abiertamente covariante de la
electrodinámica clásica.
Ambas formulaciones, la que es en términos de potenciales y la que es abierta-
mente covariante, se mostrarán en este texto con el fin de conocer la motivación
que hubo para escribir leyes físicas en términos de estructuras matemáticas como
operadores vectoriales y tensores. De esa manera será natural utilizarlas para
escribir las leyes que rigen la interacción fuerte, debido a que las estructuras
matemáticas mas sencillas no describen estas leyes por completo. La razón de
esto es que en la interacción fuerte y a diferencia de la interacción electromag-
nética, los portadores de la fuerza (gluones en vez de fotones) interactúan entre
ellos.
4.1.5 Formulación covariante de la electrodinámica.
Consiste en escribir las 4 ecuaciones de Maxwell de una forma
4-vectores
Para describir el comportamiento de un cuerpo se utilizan tensores llamados
cuadrivectores. Las definiciones de los cuadrivectores fundamentales junto con
las cantidades fundamentales en el marco de esta teoría son:
Sea:
28
R1,3
un espacio de Minkowski.
r ∈ R1,3
un punto en el espacio de Minkowski.
Definición 4.2.
γ =
1
1 − u2
c2
(4.23)
donde:
γ: Factor de Lorentz.
u: norma del vector velocidad u definida como:
u = |u| = (u1)2 + (u2)2 + (u3)2
c: velocidad de la luz.
Definición 4.3. τ ∈ R el tiempo propio relacionado con el tiempo por:
dτ =
dt
γ(u)
(4.24)
Definición 4.4. 4-desplazamiento:
rµ
= (ct, r) = (r0
(τ), r1
(τ), r2
(τ), r3
(τ)) (4.25)
donde:
ri
: R → R con i ∈ {0, 1, 2, 3} y r0
= ct.
Definición 4.5. 4-velocidad:
uµ
=
drµ
dτ
= (ct, u) (4.26)
Definición 4.6. 4-momentum
pµ
= (E/c, p) = m0uµ
(4.27)
Definición 4.7. 4-gradiente
∂µ
=
∂
∂rµ
=
1
c
∂
∂t
− (4.28)
Definición 4.8. 4-D’Alembertiano
∂2
=
1
c2
∂
∂
∂
∂
− 2
(4.29)
Definición 4.9. Tensor métrico de Minkowski
ηµν
=




1 0 0 0
0 −1 0 0
0 0 −1 0
0 0 0 −1



 (4.30)
29
Definición 4.10. Tensor electromagnético
Fαβ =




0 −Ex/c −Ey/c −Ez/c
Ex/c 0 −Bz By
Ey/c Bz 0 −Bx
Ez/c −By Bx 0



 (4.31)
Definición 4.11. 4-corriente
Jα
= (cρ, J) (4.32)
Definición 4.12. 4-potencial
Aα
= (ϕ/c, A) (4.33)
Empleando las definiciones anteriores se pueden escribir las leyes de Maxwell
como 2 ecuaciones tensoriales, que son:
∂αFαβ
= µ0Jβ
Ley de Gauss-Ampere. (4.34)
∂α
1
2
αβγδ
Fγδ = 0 Ley de Gauss-Faraday. (4.35)
El lagrangiano que contiene la información de un sistema regido por la in-
teracción electromagnética es:
L = Lcampo + Lfuente (4.36)
donde:
Lcampo = −
1
4µ0
Fαβ
Fαβ Componente debida a los campos. (4.37)
Lfuente = −AαJα
Componente debida a las fuentes. (4.38)
La correspondiente ecuación de Euler-Lagrange:
∂β =
∂ L
∂(∂βAα)
−
∂ L
∂Aα
(4.39)
Simplificando esta última expresión se obtiene la ley de Gauss-Ampere co-
rroborando que el Lagrangiano es incluso mas fundamental que las ecuaciones
de Maxwell. Esto lo hace útil para emplearlo en la búsqueda de las leyes que
rigen un sistema físico ya que proporciona un método uniforme a seguir pa-
ra con todas las interacciones. Primero se intenta buscar el Lagrangiano del
sistema, después se resuelven las ecuaciones de Euler-Lagrange. Las relaciones
entre las cantidades obtenidas son la descripción del sistema. Este método es
30
el mismo para todas las interacciones de la naturaleza ya que las ecuaciones de
Euler-Lagrange no cambian. Lo que cambia es el lagrangiano del sistema y es
allí donde radica el problema del milenio que se está exponiendo.
Encontrar un lagrangiano que sea válido físicamente (o en términos mate-
máticos que cumpla con las condiciones de Poincaré) es algo que aún se está
tratando de conseguir para la interacción fuerte. Ese no es el caso de la interac-
ción electromagnética donde ya se ha demostrado que el lagrangiano conseguido
(4.36) si cumple con esas condiciones.
Esto ha sido posible en parte porque los portadores de fuerza de la inter-
acción electromagnética no interactúan entre ellos y se pueden representar sus
propiedades utilizando estructuras algebraicas mas sencillas y mejor entendidas
lo que trae como consecuencia que se sabe como hacer esas demostraciones con
dichas estructuras.
4.2 Aspectos cuánticos
4.2.1 Introducción
Se había mencionado que escribir las leyes de la electrodinámica clásica en
función de potenciales y simplificando con el calibre de Lorentz tal como se
muestra en (4.18) era el punto de partida para 2 formulaciones: Una cuántica y
una relativista.A continuación se muestra la formulación cuántica.
Como se busca escribir las mismas leyes entonces se utilizarán las mismas
ecuaciones. Lo que cambia es la manera como se representan las magnitudes
físicas que aparecen en ellas. En este caso, dichas magnitudes ya no se modelarán
con campos vectoriales sino con operadores vectoriales. A este proceso se le
conoce como cuantización canónica.
Sin embargo este es solo una parte de la descripción de un fenómeno cuán-
tico. Porque el resultado final de resolver las ecuaciones que se presentarán a
continuación es hallar los operadores vectoriales ϕ y A. Pero ¿en que ayuda el
conocer estas cantidades a entender la evolución del sistema?
En un sistema clásico se utilizarían estas cantidades para hallar los campos
eléctrico (E) y magnético (B). Con esto se puede hallar la energía disipada o
la fuerza electromagnética según (4.4). A su vez, conociendo la fuerza se pue-
den conocer la evolución temporal de campos vectoriales de interés como la
aceleración, velocidad y posición de una partícula bajo la acción de la fuerza
electromagnética. Esto se logra sustituyendo el valor de la fuerza en ecuaciones
de movimiento como la segunda ley de Newton, las ecuaciones de Euler-Lagrange
o en el caso mas general usando la corrección relativista de estas ecuaciones.
Con cualquier camino elegido se esta asumiendo la misma realidad física.
Que es cierto que se puede determinar exactamente la evolución temporal de
un sistema conociendo su estado inicial y las leyes de la naturaleza. Asumir este
hecho tan cotidiano, permite intuitivamente a un jugador de béisbol ubicarse en
el terreno de juego para aproximarse a donde el ”ve” que caerá la pelota incluso
cuando esta todavía está ascendiendo. Sin embargo, esto no es tan cierto cuando
31
las partículas en movimiento son mucho mas pequeñas que una pelota de béisbol,
de hecho, cuando son tan pequeñas como un electrón.
Como explica el principio de incertidumbre de Heisemberg no se puede de-
terminar el estado de un sistema en un tiempo dado con total precisión. Cuando
las dimensiones de las partículas son lo suficientemente pequeñas se percibe que
lo mas que se puede conocer es la probabilidad de que un sistema se encuentre
en un estado determinado.
Y si no se puede conocer con total certeza donde caerá la pelota, tampoco se
puede conocer con total certeza el camino que ella sigue mientras está en el aire.
Esto quiere decir que si le tomáramos fotos sucesivas a esta hipotética pelota
cuántica mientras cae no veríamos que sigue un solo camino, sino que veríamos
que sigue varios caminos. Eso si, habrán caminos mas probables que otros en
los que veríamos en las fotos que la pelota aparece con mas frecuencia que los
demás. Al final todos caerían ya no en un solo punto del campo sino en una
región mas probable.
Para hallar la probabilidad con que la pelota de béisbol cuántica se encuentre
en una región del campo de béisbol hay que sumar cada una de las probabilidades
que tiene la pelota de seguir un camino determinado en el cielo.
Cada uno de estos caminos puede involucrar distintos fenómenos físicos que
dependen de las interacciones que ocurran con un tipo de partícula dado. Por
ejemplo si la partícula es un electrón, entonces se verá afectada por el campo
electromagnético existente en su trayectoria. La fuerza que experimente esta
será diferente a la que ”siente” un gluón que no tiene carga eléctrica y por lo
tanto no lo afecta el campo electromagnético pero si la interacción fuerte.
Estamos hablando de que pueden haber fenómenos físicos diferentes a lo
largo de cada uno de los caminos probables en la trayectoria de la partícula y
por lo tanto cada uno de esos caminos que ella sigue se pueden dividir a su vez
en secciones, cada una con su probabilidad de que ocurra. La probabilidad de
que la partícula viaje por un camino es el producto de las probabilidades de que
viaje por las secciones de ese camino.
En cambio la probabilidad de que la partícula caiga en una región del campo
es la suma de las probabilidades de todos los caminos posibles. El cálculo de la
probabilidad total se tratará con los diagramas de Feymann en su correspon-
diente capítulo.
Pero cada sección de un determinado camino probable tiene su probabilidad
de ocurrencia la cuál se debe calcular para poder calcular la probabilidad total.
En cuántica, los operadores ϕ y A determinan esta probabilidad para cada
sección de un solo camino.
A continuación se expondrá como calcular esta probabilidad de cada sección
de cada camino que como se dijo al principio de esta sección es tan solo una parte
de la descripción de un fenómeno cuántico. Para hallar el resto de la descripción
se utilizan los diagramas de Feymann.
32
4.2.2 Cuantización canónica de la electrodinámica.
La extensión al a mecánica cuántica se realiza tomando las mismas ecuacio-
nes (4.18) pero cambiando las siguientes definiciones:
Primero, ϕ y A ahora son operadores vectoriales en el espacio de Hilbert.
Segundo, J y ρ son densidades de corriente y carga de un campo de materia.
Este campo a su vez está definido como la interacción del campo electro-
magnético con el electrón de Dirac.
El electrón de Dirac se representa con un campo espinorial denotado por ψ.
El símbolo α son las tres primeras matrices contravariantes de Dirac.
Esto resulta en las siguientes relaciones:
J = −eψ†
αψ (4.40)
ρ = −eψ†
ψ (4.41)
Por lo tanto las ecuaciones que relacionan los potenciales ahora se pueden
escribir en función del campo espinorial de Dirac ψ dando lugar a las ecuaciones
de Maxwell cuánticas.
2
A −
1
c2
∂2
A
∂2t
= µ0eψ†
αψ (4.42)
2
ϕ −
1
c2
∂2
ϕ
∂2t
=
1
0
eψ†
ψ (4.43)
(4.44)
Ahora bien estas ecuaciones se pueden deducir con la mecánica lagrangiana
de la cuál también se deducen las leyes que rigen otras interacciones como por
ejemplo la interacción nuclear fuerte. Por esa razón se suele escribir esta teoría
en términos de la densidad de lagrangiano de un sistema que al aplicarle las
ecuaciones de Euler-Lagrange se obtienen las leyes de Maxwell par el caso de la
interacción electromagnética.
Las características del sistema descrito por la densidad de lagrangiano de-
ben ser muy fundamentales, es decir, los demás casos se pueden tomar (al menos
conceptualmente) como una superposición de este sistema. Las predicciones ob-
tenidas son fundamentales porque se deben de cumplir en todos los demás casos
en donde exista la interacción descrita. Por eso en la electrodinámica el sistema
descrito por el lagrangiano esta conformado por 2 partículas cargadas que in-
teraccionan entre si ya que cualquier otro fenómeno electromagnético se puede
describir con otras distribuciones de carga que pueden ser continuas o discretas
actuando como fuentes de los campos eléctrico y magnético y que pueden ser
sumatorias o integrales de una partícula cargada.
En términos de la mecánica cuántica la interacción electromagnética mas
simple ocurre entre 2 partículas materiales cargadas en donde el campo generado
entre ellas es de naturaleza discreta. Las determinación de las propiedades de
las partículas de materia estén cargadas eléctricamente o no está regida por la
estadística de Fermi-Dirac y por eso se les conoce como fermiones
33
Por otro lado las distribuciones discretas de energía se pueden tomar co-
mo paquetes o partículas de energía cuyas propiedades siguen la estadística de
Bose-Einsten razón por la que se les conoce como bosones. El bosón emitido y
recibido por las partículas de materia hace que estas sientan o se vean afectadas
por la fuerza en cuestión por lo que estos bosones reciben la denominación de
portadores o mediadores de la interacción. A modo muy general la diferencia
mas importante entre bosones y fermiones es que los fermiones siguen el prin-
cipio de exclusión de Pauli que ocasiona que los fermiones se pueden distinguir
uno de otro entre si porque nunca van a tener todas y cada una de sus propie-
dades físicas exactamente iguales. Un ejemplo de partículas afectadas por este
principio son los electrones y es por eso que 2 electrones que ocupen el mismo
orbital atómico se pueden distinguir uno de otro porque no pueden tener el
mismo espín.
Por lo tanto y dicho de modo muy simplista se necesita modelar a 2 fermiones
interaccionando por medio de 1 bosón. los fermiones representan las 2 partículas
cargadas de materia y el bosón mediador de la interacción electromagnética es
el fotón.
Entonces se modela la electrodinámica cuántica como una teoría de calibre
cuyo grupo de simetría es U(1) y cuyo campo de calibre es el campo electromag-
nético el cual media la interacción entre los campos cargados de espín igual a
1/2 , es decir, los fermiones o las partículas de materia cargadas eléctricamente.
Nótese que tanto fotones como fermiones cargados son modelados como campos
que a su vez se representan con operadores vectoriales.
El lagrangiano de ese sistema es:
L = ψ(iγµ
Dµ − m)ψ −
1
4
Fµν
Fµν (4.45)
donde:
• γµ
: son las matrices de Dirac.
• ψ: es un campo di espinorial para las partículas de espín 1/2.
• ψ = ψ†
γ0 es el adjunto de Dirac.
• Dµ = ∂µ + ieAµ + ieBµ es la derivada de calibre covariante.
• e: es la constante de acoplamiento.
• m: es la masa del electrón o del positrón.
• Aµ: es el cuadri potencial covariante del campo electromagnético auto
inducido generado por el electrón.
• Bµ: es el campo externo generado por la carga externa.
• Fµν = ∂µAν − ∂νAµ es el tensor del campo electromagnético.
34
A su vez las matices de Dirac están definidas como:
γ0
=




1 0 0 0
0 1 0 0
0 0 −1 0
0 0 0 −1



 (4.46)
γ1
=




0 0 0 1
0 0 1 0
0 −1 0 0
−1 0 0 0



 (4.47)
γ2
=




0 0 0 −i
0 0 i 0
0 i 0 0
−i 0 0 0



 (4.48)
γ3
=




0 0 1 0
0 0 0 −1
−1 0 0 0
0 1 0 0



 (4.49)
Del lagrangiano se pueden deducir las ecuaciones de Maxwell cuánticas. A
su vez, con ellas se pueden obtener los operadores vectoriales ϕ y A. Obtenidos
estas expresiones, se puede calcular la probabilidad de que ocurra una sección
de un solo camino de entre todos los caminos posibles.
Siguiendo el mismo procedimiento pero con un lagrangiano diferente pro-
ducto de una interacción diferente se puede hallar la probabilidad asociada a
una sección de un camino posible entre partículas afectadas por la interacción
fuerte.
4.2.3 Interacción fuerte
Es una de las 4 interacciones fundamentales de la materia junto con la gra-
vitatoria, electromagnética y débil. Mientras que los efectos de la interacción
electromagnética se pueden ver a simple vista, los de la interacción fuerte solo
se aprecian a escalas tan pequeñas que son invisibles a nuestros sentidos. Sin
embargo, es la causante de 2 fenómenos que permiten nuestra existencia en el
universo tal y como lo conocemos.
A una escala mas grande, es decir, a distancias del orden de 10−15
m, es la
causante de la fuerza fuerte residual. Esta es la fuerza que mantiene unidos
a los protones y neutrones entre si, permitiendo la existencia del núcleo atómico
en el interior del átomo. Para tener una idea de su intensidad, se puede ver
como en un átomo de Helio es capaz de mantener unidos a 2 protones dentro de
su núcleo a pesar de la fuerza electromagnética repulsiva que existe ente ellos
porque tienen la misma carga eléctrica. Según la Ley de Coulomb esta fuerza
repulsiva debe tener una magnitud muy grande por las cortas distancias a la
que están los protones uno de otro.
35
Esta es la razón de porque se libera tanta energía al romper el núcleo atómico
en las reacciones nucleares. En esas reacciones se está rompiendo el enlace de la
fuerza fuerte residual entre los protones y neutrones, enlace que debe ser muy
fuerte para lograr mantener juntos a estas partículas.
Esta fuerza afecta en general a cualquier partícula clasificada como hadrón
(del griego hadros por denso o muy junto), es decir, a todas las partículas com-
puestas de quarks. Los hadrones se clasifican como mesones (del griego mesos
por mediano) si están compuestos de 2 quarks y bariones (del griego baryos por
pesado) si lo están de 3 quarks. Entre los bariones están los nucleones, que son los
integrantes del núcleo atómico (protones y neutrones). El enlace que mantiene
unido al núcleo atómico es el intercambio de mesones entre los nucleones.
Para entender como están relacionadas todas estas partículas entre si se ha
ideado una teoría denominada Modelo Estándar de la Física de Partículas. Esta
teoría modela con estructuras algebraicas las interacciones de estas partículas
con los campos de fuerza que las afectan. Las operaciones entre los elementos de
estas estructuras corresponden con fenómenos físicos. A su vez, de las propie-
dades de estas estructuras se pueden conseguir las propiedades que deben tener
estas partículas. Esto es exactamente lo que se hace con todos los modelos físicos
pero las estructuras utilizadas son mas complejas que los típicos vectores en R+
que aparecen en la Mecánica Clásica para modelar las cantidades observables.
Si bien este modelo explica las propiedades de las partículas partiendo de
las simetrías presentes en una estructura algebraica, no es necesario saber esto
para clasificarlas de una manera parecida a una tabla periódica de los elementos
como se muestra en la figura 4.1. Es necesario tener presente este esquema para
entender la terminología empleada en esta tesis para referirse a las diferentes
partículas.
El otro fenómeno en el cual participa la interacción fuerte ocurre a una escala
mas pequeña, de menos de 0.7.10−15
m. Aquí, la interacción fuerte es la que
mantiene unidos a los quarks que conforman un hadrón. Es decir que permite,
por ejemplo, la formación de protones y neutrones al mantener unidos a 3 quarks.
En este caso el enlace que mantiene unido al hadrón es el intercambio de gluones
entre los quarks que conforman dicho hadrón. Actualmente se entiende que
la fuerza fuerte residual es un efecto residual del mencionado intercambio de
gluones entre quarks, el cual recibe el nombre de fuerza de color. De ahí que
la rama de la mecánica cuántica que estudia las leyes que rigen esta fuerza se
denomine cromo-dinámica cuántica ya que cromo es color en griego.
Pero ¿a que color se refiere? No es al fenómeno que permite a nuestros ojos
distinguir las distintas longitudes de onda de la luz que incide sobre ellos. Mas
bien, se refiere a una propiedad de la materia tal como la masa o la carga
eléctrica.
Existe solo un tipo de masa que siempre ejerce una fuerza atractiva y que
puede tomar infinitos valores continuos, por lo que se representa con el conjunto
R+
.
Por otra parte existen 2 tipos de carga eléctrica cuyos valores son múltiplos
de un número real denominado e. Es bien conocido que cargas eléctricas de un
mismo tipo se repelen pero cargas opuestas se atraen. Por esa razón se denominó
36
Figura 4.1: Modelo estándar de partículas elementales
37
a un tipo como carga positiva y al otro como carga negativa. Las cargas positivas
se representan como elementos del conjunto R+
y las negativas como elementos
de R−
. La operación multiplicación usual en R representa lo que pasa cuando 2
partículas cargadas interaccionan, es decir, si la fuerza entre ellas será atractiva
o repulsiva. La operación suma usual en R representa el efecto que tienen varias
partículas cargadas sobre un punto del espacio, es decir, lo que se conoce como
principio de superposición.
En el caso de la propiedad color o carga de color existen 2 tipos de carga
pero que solo pueden tomar 3 valores diferentes cada una. Por convención esto
se representa con los elementos del conjunto {R, G, B} para un tipo al que
llamaremos color y con {R, G, B} para el otro tipo denominado anti-color.
Representar las cargas de color con esas siglas es una alusión nemotécnica a el
nombre en inglés de los 3 colores visibles al ojo humano, a saber, R por red o
rojo, B por blue o azúl y G por green o verde.
Pero ¿cuales se atraen y cuales se repelen? Y ¿Que ocurre cuando se su-
perponen? La figura 4.2 contiene un esquema de la observación experimental
donde se aprecian las líneas de campo entre los distintos colores y también el
color resultante de cada superposición.
Se puede ver que las líneas de campo no divergen, es decir, se dibujan de
manera que salen de una partícula con color y terminan en otra partícula con
color dentro del mismo dibujo. La razón es que la interacción atractiva entre
los gluones que ”viajan” por cada línea hace que estas líneas quieran estar muy
juntas. Esta interacción atractiva causa que una partícula no emita su campo
gluónico radialmente hacia afuera como si fuera un campo eléctrico, sino que se
parezca en este aspecto al campo magnético que tampoco diverge.
Otro detalle proporcionado por la forma de las líneas de campo es que estas
salen de un color y terminan en un anti-color como ocurre con el campo mag-
nético haciendo que la contribución total sea nula. A esto se le conoce como
neutralidad binaria.
Pero también, y a diferencia del campo magnético, si se tienen 3 partículas
cada una con 3 colores diferentes, las líneas de campo producidas por cada
partícula terminan en otra de otro color haciendo que la contribución de las 3
partículas sea nula. Esto se denomina neutralidad ternaria.
Cuando se examinan esquemas como 4.2 siempre hay que saber que son solo
simplificaciones cualitativas de aserciones también cualitativas. Estas asercio-
nes provienen de la observación experimental. Si se quiere extraer información
cuantitativa de la evidencia experimental se deben formular teorías en lenguaje
matemático, para poder mediante reglas lógicas conseguir los valores numéricos
buscados.
En la mecánica cuántica estos valores no son la posición o velocidad de una
partícula como por ejemplo, un quark. Mas bien, son valores esperados de la
masa, trayectoria, carga eléctrica, y en general, del comportamiento de todos los
quarks con las mismas propiedades físicas que el ejemplo que se esté estudiando.
En el caso de la interacción fuerte, al hallar los valores permitidos de color
según las distintas reglas que se van a plantear se puede predecir si es posible o
no que ciertas combinaciones de quarks y gluones existan de manera libre en la
38
B
-
B
R
G B
B
-
R
-
G
-
G
BG
R
B
-
G
-
R
-
G
-
G
R
-
R
Figura 4.2: Superposición de colores y líneas de campo de la interacción fuerte
para bariones y mesones.
naturaleza. Recordemos que los quarks son al resto de partículas de la naturaleza
como lo son los ladrillos de una casa a la casa por lo que es importante saber
que combinaciones de ellos son posibles.
Observaciones experimentales
A continuación, se planteará en palabras las aserciones que se han asumido
como ciertas para la fuerza de color basándose en la observación experimental:
1. El color es un invariante, es decir, no se crea ni se destruye en un proceso
físico dado.
2. El color tiene neutralidad binaria. Es decir, la contribución total de una
partícula que tenga un color y un anti-color es nula en un punto fuera de
ella misma.
3. El color tiene neutralidad ternaria. Es decir, una partícula formada por
3 partículas de colores diferentes también tiene una contribución nula al
campo presente en un punto fuera de ella.
4. Cuando los quarks poseen un anti-color se les denomina anti-quarks.
5. Los gluones transportan un color y un anti-color al mismo tiempo.
6. Los mesones siempre van a estar formados por un quark y su correspon-
diente anti-quark, es decir, el anti-quark porta el anti-color correspondien-
te al color del primer quark.
39
7. Los bariones siempre están formados por quarks con el mismo tipo de
color. Si están formados por anti-quarks son anti-bariones.
8. Confinamiento del color: las partículas libres no pueden tener un color
neto. Por eso los bariones y mesones pueden encontrarse como partículas
libres pero no sucede así con los quarks y gluones individuales.
9. Libertad asintótica. A medida que los quarks y los gluones se acercan unos
a otros la interacción de color entre ellos tiende a ser nula. La consecuencia
de esto es que el movimiento de estas partículas en el interior de por
ejemplo un protón, se debe asemejar al movimiento de una partícula libre.
Eso si, están limitadas a un volumen que es precisamente el volumen de un
protón debido al confinamiento del color que no permite que las partículas
con color neto viajen libremente por el espacio.
10. En realidad no se puede determinar los colores presentes en una partícu-
la con total exactitud sino solo su estado de color. Este estado de color
colapsa a un color cuando se efectúa la medición en una partícula.
Para explicar el último punto se examinará nuevamente el caso de un quark.
Este en realidad no porta un determinado color todo el tiempo. Mas bien, se
encuentra en un estado en donde si pudiésemos medir que color tiene un quark
en un instante obtendremos un color. Pero si lo medimos en otro instante obten-
dremos otro color. Solo si midiésemos su color muchas veces veríamos un patrón
en cuanto al color que aparece en cada medición. Habrán colores mas probables
que otros y esa probabilidad depende de en que estado se encuentre el quark.
Ese estado puede cambiar, ya que depende de las interacciones con las demás
partículas del sistema. Pero al conocer las interacciones ocurridas, el estado de
cada partícula se puede calcular.
Esa es la misión de la mecánica cuántica, encontrar el estado de las partículas
elementales y suponer que los estados de partículas mas complejas como proto-
nes, átomos, moléculas, estrellas o incluso el universo entero son superposiciones
de los estados de las partículas que lo integran.
Ahora bien, para el caso específico de la cromo-dinámica cuántica... ¿Con
que estructura matemática se puede modelar el estado de color de una partícula?
Para elegirla se puede comenzar describiendo el estado de color de un gluón.
Descripción del estado de color de un gluón
Se sabe que estos llevan siempre un color y un anti-color. Sus posibles com-
binaciones están en el cuadro 4.1.
RR RG RB
GR GG GB
BR BG BB
Cuadro 4.1: Posibles combinaciones de color de un gluón.
40
R G B
R 0 0 1
G 0 0 0
B 1 0 0
Cuadro 4.2: Tabla de la verdad del estado de un gluón.
Para representar uno de los estados posibles de un gluón se puede utilizar
una tabla parecida a una tabla de la verdad cuyas filas sean los colores y cuyas
columnas sean los anti-colores de manera que coincidan con el cuadro 4.1, tal
como se ve en la tabla 4.2. Los valores posibles son 0 y 1.
La tabla de la verdad del estado de un gluón se puede representar también
como una matriz tal como la siguiente:


0 0 1
0 0 0
1 0 0

 (4.50)
Notación de Dirac
Sabiendo lo que significa cada fila y columna se puede leer este estado en
notación de Dirac como (RB+RB)
√
2
. Por motivos didácticos, en este caso, se utili-
zaron colores sobre los símbolos para relacionarlos con los colores que aparecen
en el cuadro 4.1, sin embargo, la notación de Dirac no contiene dichos colores.
Ahora bien, para entender está notación hay que definir los siguientes con-
ceptos:
Definición 4.13. Sea H un espacio de Hilbert sobre un cuerpo F. Entonces
h ∈ H es un vector denotado por |h y denominado ket h. (Esto se hace para
dejar el término vector solo en el caso de que se trate de un elemento del espacio
euclídeo ya sea R3
o R4
).
Definición 4.14. H∗
es el espacio dual de H, es decir, el espacio de funciones
lineales de H.
Definición 4.15. El producto interno es el isomorfismo φ : H → H∗
dado por
φ(h) = φh, donde para todo g ∈ H entonces φh(g) = h|g .
Para 2 funciones φ, ϕ ∈ H, entonces
φ|ϕ = φ(x) · ϕ∗
(x)dx (4.51)
Definición 4.16. Un operador es un mapa que recibe de entrada un ket y
produce otro ket.
41
Definición 4.17. Un operador lineal es un mapa que cumple con los axiomas
de linealidad usuales para un mapa lineal. En este caso son:
|A + B = |A + |B (4.52)
|αA = α |A (4.53)
Donde |A , |B ∈ H y α ∈ F
En notación de Dirac dados un operador lineal ˆA y un ket |φ entonces ˆA |φ
es también un ket.
Si el espacio donde están definidos los ket es Cn
, entonces los ket se pue-
den representar como matrices de n filas y 1 columna. A su vez, los bra se
representarían como matrices de 1 fila y n columnas.
Esta notación es la que se utilizará en este artículo para representar los
estados de color de las partículas.
Estados posibles del gluón en notación de Dirac
Por lo tanto, retomando el caso del gluón en un estado específico, se puede
ver que si se efectuara una medición en el gluón cuyo estado de color es descrito
por la matriz (4.50), este tendría igual probabilidad de encontrarse portando el
color R junto con el anti-color B o, en vez de eso, portando el anti-color R y el
color B.
De esta manera se pueden representar todos los demás estados posibles de
un gluón. Al conjunto de matrices resultantes se le conoce como matrices de
Gell-Mann y sus elementos son:
λ1 =


0 1 0
1 0 0
0 0 0

 λ2 =


0 −i 0
i 0 0
0 0 0


λ3 =


1 0 0
0 −1 0
0 0 0

 λ4 =


0 0 1
0 0 0
1 0 0

 (4.54)
λ5 =


0 0 −i
0 0 0
i 0 0

 λ6 =


0 0 0
0 0 1
0 1 0


λ7 =


0 0 0
0 0 −i
0 i 0

 λ8 =
1
√
3


1 0 0
0 1 0
0 0 −2


Ellas pueden representar a los 8 tipos de gluones que en notación de Dirac
son:
42
RG + GR
√
2
− i
RG − GR
√
2
RB + BR
√
2
− i
RB − BR
√
2
(4.55)
GB + BG
√
2
− i
GB − BG
√
2
RR − GG
√
2
1
√
3
RR + GG − 2BB
√
2
Nótese como son 8 valores posibles en vez de 9. Esto es así porque experimen-
talmente no se han encontrado gluones en el estado RR+GG+BB√
2
, denominado
estado de singlete el cuál corresponde a la matriz
1 0 0
0 1 0
0 0 1
El estado de singlete es el estado en el cual se encuentran los mesones,
y bariones. Las partículas en este estado no interaccionan con partículas que
estén en los demás estados. Es decir, no interaccionan con quarks y gluones
individuales.
Si aplicamos la misma noción usada para representar los estados de color de
un gluón con una tabla de la verdad como la tabla 4.2, solo que aplicándola para
representar el estado de color de un quark, vemos que este se puede representar
como un vector columna donde cada fila corresponde a un color. Un ejemplo
de esto es el vector
1
0
0
que se interpreta como un quark con color R. En el
caso de un anti-quark siguiendo la notación de la tabla 4.2 en donde los anti-
colores son columnas, entonces sus estados de color se pueden representar como
vectores filas. Un ejemplo de esto es el vector 1 0 0 donde se puede leer que el
anti-quark posee el anti-color R.
Todas las matrices de Gell-Mann se pueden denotar como λi donde i ∈ N en
el intervalo [1, 8]. Todas ellas son matrices de 3 × 3 sin traza y hermíticas por lo
que pueden generar elementos del grupo de matrices unitarias. Este grupo tiene
un nombre especial, a saber, U(1) por la frecuencia con la que se le encuentra
una aplicación científica, y contiene a todas las matrices de 3×3 de determinante
1. Si a esto último se le añade la condición de que las matrices deben ser sin
traza, entonces el grupo se denomina SU(3).
Lagrangiano de la interacción fuerte
Siguiendo la notación de escribir las matrices de Gell-Mann como λi enton-
ces se puede formular una expresión para un campo equivalente al cuadri-vector
campo A para el campo electromagnético. Ya vimos como A tiene una 4 com-
ponentes, 1 temporal asociada al potencial escalar y 3 espaciales asociadas al
potencial vector.
43
De esta misma manera se puede escribir el campo gluónico pero deben to-
marse en cuenta los 8 tipos de gluones que existen. Esto se hace escribiendo la
expresión del campo de la siguiente manera:
An
= (r, t) = [An
0 (r, t), An
1 (r, t), An
2 (r, t), An
3 (r, t)] = φn
(r, t), An
(r, t) (4.56)
donde:
• n ∈ {1, 2, 3, 4, 5, 6, 7, 8}
• An
es el campo gluónico generado por el gluón de tipo n.
• r: es la posición del gluón generador del campo.
• t: es el tiempo.
• φn
: es el potencial escalar gluónico.
• An: es el potencial vector gluónico.
Para encontrar el campo gluónico generado por todos los gluones se parte
del hecho de que las matrices de Gell-Mann son generadores del grupo SU(3). A
su vez se sabe que los generadores de un grupo tienen la propiedad matemática
de que forman una base de un campo vectorial por lo que el campo gluónico
debido a los 8 gluones se debe a una superposición de los 8 gluones posibles, o
mejor dicho, de los 8 estados de color posibles para los gluones.
Para lograr obtener la expresión matemática se utilizan las matrices de Gell-
Mann de la siguiente manera:
Por conveniencia:
ta =
λa
2
Cada componente del campo gluónico es una matriz de 3 × 3:
Aα = taAa
α = t1A1
α + t2A2
α + t3A3
α + t4A4
α + t5A5
α + t6A6
α + t7A7
α + t8A8
α
O escribiendo la expresión anterior como un cuadri-vector de matrices de 3 × 3:
A = A0, A1, A2, A3
El campo gluónico total es:
A = taAa
Una cuestión adicional que hay que considerar es el significado de 3 canti-
dades bajo el contexto de la Cromo-dinámica Cuántica y mas generalmente del
Modelo estándar de la física de partículas, a saber:
44
• Un vector es un objeto que se transforma como un cuadri-vector bajo
transformaciones de Lorentz.
• Un escalar es un objeto que es invariante bajo transformaciones de Lo-
rentz.
• Un espinor es un objeto que se transforma como un vector en el contexto
del Modelo Estándar bajo transformaciones de Lorentz excepto por un
detalle: Que ante una rotación, este rota solo la mitad del ángulo que
rotaría un vector.
Basándose en los conceptos anteriormente expuestos se puede escribir una
expresión matemática que describa la interacción que tiene una partícula con
un campo de fuerza de color. Esta interacción depende del estado de color que
posea la partícula misma.
La expresión mas simple que satisface todos los requisitos anteriormente
expuestos es la siguiente:
LQCD = ψ(i(γµ
Dµ)ij − mδij)ψj −
1
4
Ga
µνGµν
a (4.57)
donde:
• ψi(x): es el campo de un quark indexados por i y j.
• Dµ: es la derivada covariante de calibre.
• γµ
: son las matrices de Dirac que conectan los espinores con los vectores
bajo transformaciones de Lorentz.
• Ga
µν = ∂νAa
µ + gfabc
Ab
µAc
ν.
• Aa
µ: son los campos gluónicos.
• fabc
: Son las constantes de estructura del grupo SU(3).
Este lagrangiano permite conocer como se comporta el estado de color de
una partícula bajo la acción de un campo de fuerza de color. Ahora bien, para
conocer el comportamiento de la partícula hay que formular el lagrangiano de
una partícula con un término de energía cinética y otro de energía potencial.
El término que da cuenta de la energía potencial debe incluir los potenciales
producidos por todas las fuerzas a las cuales la partícula se ve sometida.
Por ejemplo en el caso de un quark, este se ve bajo la acción de la fuerza
electromagnética, la fuerza débil y la fuerza de color, así que esto se debe añadir
a la expresión del lagrangiano para un quark. No pasa lo mismo con un gluón
ya que solo interactúa con partículas que tengan estados de color diferentes al
estado de singlete.
Se ve entonces que no todas las partículas interaccionan con las 3 fuerzas.
Debido a esto, la expresión potencial en el lagrangiano es dividida en sectores.
Estos sectores son:
45
• El sector electro-débil que describe la interacción de una partícula un
campo de fuerza electromagnética y fuerza débil.
• El sector cromo-dinámico que describe la interacción de la misma par-
tícula pero con un campo de fuerza de color.
• Los términos de masa explican como las partículas mas masivas decaen
en partículas con menos masa. También como todos los portadores de
la fuerza electro-débil, en realidad son partículas sin masa pero, excepto
por el fotón, adquieren masa por medio de un proceso conocido como
mecanismo de Higgs.
• Las partículas fantasma de Higgs llevan cuenta de ciertas redundancias
que aparecen con la interacción entre las partículas con campos extraños
producto del mecanismo de Higgs.
• Los fantasmas de Faddeev-Popov llevan cuenta de las redundancias
causadas por las interacciones electro-debiles.
Saber que partícula interactúa con cual fuerza depende de las propiedades
materiales presentes en la partícula y esta información puede ser extraída del
lagrangiano. Una representación esquemática que deriva de esto es la figura 4.3.
Por lo tanto se puede ver que no se está considerando el comportamiento
de una partícula, que equivale a estudiar el lagrangiano completo sino solo el
comportamiento de una de las interacciones que pueden llegar a afectar una
partícula (el sector cromo-dinámico).
Entonces, ¿Que probabilidad tiene la partícula X de experimentar un proce-
so? La respuesta se consigue al resolver el lagrangiano asociado de esa partícula.
Pero una partícula puede experimentar múltiples procesos a la hora de pa-
sar de un estado a otro. A la secuencia de estos procesos dependientes se le
denomina un camino. A su vez, una partícula puede tomar distintos caminos al
cambiar de estado. La probabilidad de que tome un camino u otro depende de
las probabilidades de los procesos que los componen. Entonces, ¿que probabili-
dad tiene la partícula X de tomar un camino para cambiar de un estado a otro?
La respuesta se considera en el capítulo denominado integrales de Feynman.
46
Figura 4.3: Resumen de las interacciones entre las partículas elementales según
el Modelo Estándar.
47
Capítulo 5
Integrales de Feynman
5.1 Introducción
Todas las partículas fundamentales están determinadas por sus propieda-
des físicas. Cada propiedad posee un valor. Este valor es un elemento de un
conjunto de posibles valores para esa propiedad.
Al juego de valores que tiene la partícula en un tiempo determinado se le
llama el estado de la partícula. Como se puede ver, en general, todas las
propiedades a la larga dependen del tiempo. Cuando transcurre un intervalo de
tiempo estas propiedades pueden cambiar, o mejor dicho, pueden cambiar los
valores presentes en ellas. Entonces se dice que la partícula cambió de estado o
que pasó de un estado inicial a uno final.
5.2 Probabilidad
Para que una partícula pase de un estado A a un estado B necesita experi-
mentar una secuencia de procesos físicos. A esta secuencia se le conoce como
camino.
Cuando una partícula cambia de estado puede hacerlo por uno u otro camino
donde habrán caminos mas probables que otros. En la Mecánica Clásica se puede
determinar que camino tomará la partícula con total precisión, es decir, solo hay
un camino posible, y los demás no son posibles. No es ese el caso de la Mecánica
Cuántica donde a lo sumo se conocerá la probabilidad de que la partícula tome
un camino u otro. Al tomar en cuenta todos los caminos posibles se puede
saber que probabilidad tiene realmente la partícula de llegar al estado B si se
encuentra actualmente en el estado A.
Para averiguar la probabilidad de que la partícula pase del estado A al B se
utiliza la siguiente ecuación:
P = |S|2
(5.1)
48
donde S es la amplitud de probabilidad y P la probabilidad de que ocurra
el evento. Cabe destacar que S es un número complejo porque es una amplitud
de probabilidad en vez de una probabilidad.
A su vez, S es la suma de todos los caminos probables. Como cada ampli-
tud de probabilidad de que la partícula tome un camino es independiente de
que tome otro camino, entonces las amplitudes de probabilidad se suman. Esto
ocurre en el caso de los eventos independientes. En términos matemáticos
se escribe de la siguiente manera:
S =
i
pi (5.2)
donde cada pi es la amplitud de probabilidad que tiene la partícula de tomar
un camino i.
Cada camino i puede ser un proceso complejo que se puede dividir en pro-
cesos mas simples. Cada uno de estos procesos depende de lo que haya ocurrido
anteriormente con la partícula en el camino, es decir, depende de los procesos
anteriores. Entonces los procesos son eventos dependientes entre si. En este
caso la amplitud de probabilidad asociada al camino es el producto de las am-
plitudes de probabilidad de cada proceso que lo compone. Cada una de estas
amplitudes de probabilidad se calcula al resolver las ecuaciones de movimiento
que se deducen del lagrangiano de la partícula.
Siguiendo la metodología de presentar primero el caso mas sencillo como
introducción al caso de estudio, primero se analizará este asunto para la elec-
trodinámica cuántica. Después se utilizarán los mismos conceptos para mostrar
como se calculan las probabilidades con eventos donde esté involucrada la in-
teracción fuerte.
5.3 Diagramas de Feynman
Los procesos mas simples de un determinado evento se pueden representar
gráficamente gracias a los diagramas de Feynman. En estos se dibuja un camino
o la sección de un camino, seguido por unas partículas en un plano xy. El eje x
u horizontal se corresponde al espacio mientras que el eje y o vertical representa
al tiempo.
En el caso de la electrodinámica cuántica los procesos mas simples que se
pueden encontrar son 3[8], y se pueden representar en los diagramas de Feynman
siguiendo estas convenciones:
• Una línea ondulada representa a un fotón que se desplaza desde un punto
en el espacio tiempo hasta otro punto en el espacio tiempo.
• Una línea recta representa a un electrón que se desplaza desde un punto
en el espacio tiempo hasta otro punto en el espacio tiempo.
49
Figura 5.1: Desplazamiento de
un fotón.
Figura 5.2: Desplazamiento de
un fermión.
Figura 5.3: Absorción de un fo-
tón por un electrón.
• La unión de una línea recta con una ondulada en un punto del plano
representa un electrón que emite o absorbe un fotón en algún punto del
espacio tiempo.
La representación de cada proceso simple se encuentra en la figura 5.3.
Con esta representación visual se puede saber cual proceso es experimentado
antes o después por la partícula si esta toma un determinado camino. También
cuales procesos son posibles y cuales no. Además ayudan a entender lo que esta
ocurriendo de una manera mas sencilla que observando una expresión matemá-
tica. Sin embargo, los diagramas de Feynman aportan mas que solo información
cualitativa.
5.4 Reglas de Feynman
Gracias a las reglas de Feynman cada diagrama corresponde a una expre-
sión matemática que una vez resuelta aportará información cuantitativa acerca
del fenómeno físico. Esta información es la amplitud de probabilidad asociada
a cada camino posible que puede tomar la partícula cuando pasa de un estado
a otro.
En la electrodinámica cuántica los fenómenos mas comunes tienen que ver
con colisiones y dispersiones de partículas (scattering). En el estudio de estos
fenómenos es mas importante conocer el momentum o cantidad de movimiento
de las partículas que sus posiciones.
Por lo tanto es conveniente modificar la interpretación de los diagramas de
Feynman. Es decir, los mismos diagramas representan otros procesos físicos que
50
α β
−→ i
/p−m+iε
µ ν −→
−iηµν
p2+iε
α
β
µ
−→ −ieγµ
βα (2π)
4
δ(4)
(p1 + p2 + p3)
α −→ (uα(p, s))
α −→ (¯vα(p, s))
α −→ (¯uα(p, s))
α −→ (vα(p, s))
µ
−→ µ k, λ
µ
−→ µ k, λ
∗
Figura 5.4: Reglas de Feynman para la electrodinámica cuántica
son comunes en la teoría de dispersión. Ahora, una línea continua se lee como
un electrón que tiene un momentum en un instante de tiempo dado y una línea
ondulada representa lo mismo para un fotón. Por su parte un vértice representa
la aniquilación de un electrón y la creación de otro junto con la absorción y
creación de un fotón. Siguiendo esta convención las reglas de Feynman para el
caso de la teoría de dispersión en la electrodinámica cuántica son como aparecen
en la figura 5.4.
Para ilustrar como se utilizan estas reglas, ellas se aplicarán al fenómeno
conocido como dispersión de Compton donde un electrón y un fotón experi-
mentan una colisión elástica. El diagrama de Feynman correspondiente aparece
en la figura 5.5.
Entonces la amplitud de probabilidad para el término de primer orden de la
serie de perturbación de la matriz de dispersión o S-Matriz es:
Mfi = (ie)2
¯up s / (k , λ )∗ /p + /k + me
(p + k)2 − m2
e
/(k, λ)u(p, s)
+ (ie)2
¯u(p , s ) (k, λ)
/p + /k + me
(p − k )
2
− m2
e
/(k , λ )∗
u(p, s)
(5.3)
Una vez hallada la amplitud de probabilidad Mfi se puede calcular la sección
51
Figura 5.5: Caption
µ, a ν, b
−→ −iδab
gµν
k2+i − (1 − ξ)
kµkν
(k2)2
Figura 5.6: Propagación de un gluón.
eficaz de este proceso de dispersión lo que nos dirá la probabilidad de que este
proceso descrito por la figura 5.5 llegue a ocurrir. El método para hallar la
sección eficaz queda fuera del alcance de esta tesis.
5.5 Diagramas de Feynman y la cromo-dinámica
cuántica.
Para representar los procesos que ocurren debido a la interacción fuerte se
siguen las siguientes convenciones:
• Los quarks se representan con la misma representación usada para los
demás fermiones en la electrodinámica cuántica. Esto es, una línea sólida
con una flecha en la dirección de crecimiento del tiempo. La etiqueta del
quark en el diagrama indicará el sabor de este.
• Los anti-quarks se representan igual que las demás anti-partículas, con
una flecha en la dirección contraria al crecimiento del tiempo.
• Los gluones se representan con una espiral tal como aparece en el diagrama
5.6
• Los piones se representan con una línea punteada. Esto aplica también
para todos los bosones escalares. Los piones aparecen en el caso de la
fuerza fuerte residual como mediadores de dicha fuerza. Estos no serán
considerados en el presente trabajo.
52
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa
Introducción a la teoría cuántica de Yang-Mills y el salto de masa

Más contenido relacionado

La actualidad más candente

La actualidad más candente (14)

Funciones variable compleja
Funciones variable complejaFunciones variable compleja
Funciones variable compleja
 
Aplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer ordenAplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer orden
 
Elementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinariasElementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinarias
 
Guia de matematicas
Guia de matematicasGuia de matematicas
Guia de matematicas
 
Fundamentos de-calculo
Fundamentos de-calculoFundamentos de-calculo
Fundamentos de-calculo
 
Análisis Matemático
Análisis MatemáticoAnálisis Matemático
Análisis Matemático
 
Variable Compleja
Variable ComplejaVariable Compleja
Variable Compleja
 
Ed
EdEd
Ed
 
Calculo 3 curvas d nivel
Calculo 3 curvas d nivelCalculo 3 curvas d nivel
Calculo 3 curvas d nivel
 
Algebra
AlgebraAlgebra
Algebra
 
Apuntes De Matematicas Discretas
Apuntes De Matematicas DiscretasApuntes De Matematicas Discretas
Apuntes De Matematicas Discretas
 
matematicasprope2010
matematicasprope2010matematicasprope2010
matematicasprope2010
 
Problemas4eso sol
Problemas4eso solProblemas4eso sol
Problemas4eso sol
 
Texto Matematicas prepa2010 FCyT - UMSS
Texto Matematicas prepa2010 FCyT - UMSSTexto Matematicas prepa2010 FCyT - UMSS
Texto Matematicas prepa2010 FCyT - UMSS
 

Similar a Introducción a la teoría cuántica de Yang-Mills y el salto de masa

Similar a Introducción a la teoría cuántica de Yang-Mills y el salto de masa (20)

Guía de matemáticas
Guía de matemáticasGuía de matemáticas
Guía de matemáticas
 
apunte de álgebra
apunte de álgebra apunte de álgebra
apunte de álgebra
 
Fundamentos de-calculo
Fundamentos de-calculoFundamentos de-calculo
Fundamentos de-calculo
 
Fundamentos de-calculo
Fundamentos de-calculoFundamentos de-calculo
Fundamentos de-calculo
 
Matemáticas Básicas .pdf
Matemáticas Básicas .pdfMatemáticas Básicas .pdf
Matemáticas Básicas .pdf
 
Solución de ecuaciones diferenciales - AERO.pdf
Solución de ecuaciones diferenciales - AERO.pdfSolución de ecuaciones diferenciales - AERO.pdf
Solución de ecuaciones diferenciales - AERO.pdf
 
Tesis leon eleazar
Tesis leon eleazarTesis leon eleazar
Tesis leon eleazar
 
trabajos
trabajostrabajos
trabajos
 
Sucesiones y series_de_funciones_sucesio
Sucesiones y series_de_funciones_sucesioSucesiones y series_de_funciones_sucesio
Sucesiones y series_de_funciones_sucesio
 
Libro cs2
Libro cs2Libro cs2
Libro cs2
 
7) Irene (2013). Álgebra e Introducción al Cálculo, Católica de Chile.pdf
7) Irene (2013). Álgebra e Introducción al Cálculo, Católica de Chile.pdf7) Irene (2013). Álgebra e Introducción al Cálculo, Católica de Chile.pdf
7) Irene (2013). Álgebra e Introducción al Cálculo, Católica de Chile.pdf
 
Texto de algebra
Texto de algebraTexto de algebra
Texto de algebra
 
METODOS M. DE LA FÍSICA. OSCAR REULA.pdf
METODOS M. DE LA FÍSICA. OSCAR REULA.pdfMETODOS M. DE LA FÍSICA. OSCAR REULA.pdf
METODOS M. DE LA FÍSICA. OSCAR REULA.pdf
 
Ci ag
Ci agCi ag
Ci ag
 
Ci ag
Ci agCi ag
Ci ag
 
Calculo i
Calculo iCalculo i
Calculo i
 
Introducción a la mecánica cuántica ( PDFDrive ).pdf
Introducción a la mecánica cuántica ( PDFDrive ).pdfIntroducción a la mecánica cuántica ( PDFDrive ).pdf
Introducción a la mecánica cuántica ( PDFDrive ).pdf
 
Complex
ComplexComplex
Complex
 
algebra ecuaciones
algebra ecuacionesalgebra ecuaciones
algebra ecuaciones
 
Ecu alg
Ecu algEcu alg
Ecu alg
 

Último

Sucesión de hongos en estiércol de vaca experimento
Sucesión de hongos en estiércol de vaca experimentoSucesión de hongos en estiércol de vaca experimento
Sucesión de hongos en estiércol de vaca experimentoFriasMartnezAlanZuri
 
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALESECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALEScarlasanchez99166
 
Fresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaFresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaDanyAguayo1
 
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...frank0071
 
cgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfcgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfSergioSanto4
 
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfSEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfPC0121
 
RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............claudiasilvera25
 
Procedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfProcedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfCarlaLSarita1
 
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptxTEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptxXavierCrdenasGarca
 
inspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriinspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriManrriquezLujanYasbe
 
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdfDESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdfssuser6a4120
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxSergioSanto4
 
conocer los modelos atómicos a traves de diversos ejemplos y características
conocer los modelos atómicos a traves de diversos ejemplos y característicasconocer los modelos atómicos a traves de diversos ejemplos y características
conocer los modelos atómicos a traves de diversos ejemplos y característicasMarielaMedinaCarrasc4
 
tecnica de necropsia en bovinos rum.pptx
tecnica de necropsia en bovinos rum.pptxtecnica de necropsia en bovinos rum.pptx
tecnica de necropsia en bovinos rum.pptxJESUSDANIELYONGOLIVE
 
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptxllacza2004
 
Viaje al centro de la Ciencia 6 DOC_WEB.pdf
Viaje al centro de la Ciencia 6 DOC_WEB.pdfViaje al centro de la Ciencia 6 DOC_WEB.pdf
Viaje al centro de la Ciencia 6 DOC_WEB.pdfssuser576aeb
 
infarto agudo al miocardio con y sin elevacion st
infarto agudo al miocardio con y sin elevacion stinfarto agudo al miocardio con y sin elevacion st
infarto agudo al miocardio con y sin elevacion stJosAlbertoHernandez1
 
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdfHarris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdffrank0071
 
DERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptx
DERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptxDERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptx
DERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptxSilverQuispe2
 
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdfMata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdffrank0071
 

Último (20)

Sucesión de hongos en estiércol de vaca experimento
Sucesión de hongos en estiércol de vaca experimentoSucesión de hongos en estiércol de vaca experimento
Sucesión de hongos en estiércol de vaca experimento
 
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALESECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
ECOGRAFIA RENAL Y SUS VARIANTES ANATOMICAS NORMALES
 
Fresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaFresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontología
 
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
Sternhell & Sznajder & Asheri. - El nacimiento de la ideología fascista [ocr]...
 
cgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdfcgm medicina interna clinica delgado.pdf
cgm medicina interna clinica delgado.pdf
 
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdfSEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
SEGUNDAS VANGUARDIAS ARTÍSTICAS DEL SIGLO XX.pdf
 
RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............RX DE TORAX normal jornadas .............
RX DE TORAX normal jornadas .............
 
Procedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdfProcedimiento e interpretación de los coprocultivos.pdf
Procedimiento e interpretación de los coprocultivos.pdf
 
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptxTEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
TEST BETA III: APLICACIÓN E INTERPRETACIÓN.pptx
 
inspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteriinspeccion del pescado.pdfMedicinaveteri
inspeccion del pescado.pdfMedicinaveteri
 
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdfDESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
DESPOTISMO ILUSTRADOO - copia - copia - copia - copia.pdf
 
Codigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptxCodigo rojo manejo y tratamient 2022.pptx
Codigo rojo manejo y tratamient 2022.pptx
 
conocer los modelos atómicos a traves de diversos ejemplos y características
conocer los modelos atómicos a traves de diversos ejemplos y característicasconocer los modelos atómicos a traves de diversos ejemplos y características
conocer los modelos atómicos a traves de diversos ejemplos y características
 
tecnica de necropsia en bovinos rum.pptx
tecnica de necropsia en bovinos rum.pptxtecnica de necropsia en bovinos rum.pptx
tecnica de necropsia en bovinos rum.pptx
 
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
5.2 DERIVADAS PARCIALES (64RG45G45G45G).pptx
 
Viaje al centro de la Ciencia 6 DOC_WEB.pdf
Viaje al centro de la Ciencia 6 DOC_WEB.pdfViaje al centro de la Ciencia 6 DOC_WEB.pdf
Viaje al centro de la Ciencia 6 DOC_WEB.pdf
 
infarto agudo al miocardio con y sin elevacion st
infarto agudo al miocardio con y sin elevacion stinfarto agudo al miocardio con y sin elevacion st
infarto agudo al miocardio con y sin elevacion st
 
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdfHarris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
Harris, Marvin. - Caníbales y reyes. Los orígenes de la cultura [ocr] [1986].pdf
 
DERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptx
DERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptxDERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptx
DERECHO ROMANO DE JUSTINIANO I EL GRANDE.pptx
 
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdfMata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
Mata, S. - Kriegsmarine. La flota de Hitler [2017].pdf
 

Introducción a la teoría cuántica de Yang-Mills y el salto de masa

  • 1. Índice general 1 Tópicos de álgebra abstracta 4 1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Semigrupo, Monoide y Grupos . . . . . . . . . . . . . . . . . . . 4 1.2.1 Propiedades de los grupos . . . . . . . . . . . . . . . . . . 7 1.2.2 Caracterización de los subgrupos . . . . . . . . . . . . . . 7 1.2.3 Homomorfismo de grupos . . . . . . . . . . . . . . . . . . 7 1.3 Anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4 Módulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5 Espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.6 Álgebras graduadas . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.7 Espacio de productos internos . . . . . . . . . . . . . . . . . . . . 11 2 Tópicos de topología 12 2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2 Nociones topológicas . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.3 Topología (Estructura) . . . . . . . . . . . . . . . . . . . . . . . . 13 2.4 Topología relativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.5 Métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.6 Continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.7 Cubrimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.8 Partición de la unidad . . . . . . . . . . . . . . . . . . . . . . . . 16 3 Tópicos de geometría Diferencial 17 3.1 Variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.1.2 Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2 Fibrados y conexiones . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.2 Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.3 Fibrado vectorial . . . . . . . . . . . . . . . . . . . . . . . 19 3.2.4 Fibrado principal . . . . . . . . . . . . . . . . . . . . . . . 19 3.3 Clases características . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.3.1 Categoría . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1
  • 2. 3.3.2 Funtor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.3.3 Clase característica . . . . . . . . . . . . . . . . . . . . . . 20 4 Tópicos de Teoría de Campos 21 4.1 Aspectos clásicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.1.2 Electrodinámica clásica como funciones reales . . . . . . . 23 4.1.3 Formulación con cálculo vectorial de la electrodinámica clásica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 4.1.4 Formulación con potenciales de la electrodinámica clásica. 26 4.1.5 Formulación covariante de la electrodinámica. . . . . . . . 28 4.2 Aspectos cuánticos . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2.2 Cuantización canónica de la electrodinámica. . . . . . . . 33 4.2.3 Interacción fuerte . . . . . . . . . . . . . . . . . . . . . . . 35 5 Integrales de Feynman 48 5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5.2 Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5.3 Diagramas de Feynman . . . . . . . . . . . . . . . . . . . . . . . 49 5.4 Reglas de Feynman . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5.5 Diagramas de Feynman y la cromo-dinámica cuántica. . . . . . . 52 6 Problema del salto de masa de Yang-Mills 53 6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 6.2 Formulación del problema de: ”existencia de Yang-Mills y el salto de masa” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6.3 Axiomas de Wightman . . . . . . . . . . . . . . . . . . . . . . . . 56 6.3.1 W0: consideraciones propias de la mecánica cuántica re- lativista . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.3.2 W1: consideraciones acerca del dominio y la continuidad de los campos . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.3.3 W2: ley de transformación del campo . . . . . . . . . . . 57 6.3.4 W3: conmutatividad local o causalidad microscópica . . . 57 6.4 El salto de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 7 Observaciones finales y conclusiones 59 7.1 Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Índice alfabético 62 2
  • 3. Describir el problema de la existencia de una teoría cuántica de Yang-Mills y el Salto de Masa (PYMySM) a un nivel elemental. Nelson Antonio Sandoval Puente. 14 de septiembre de 2020
  • 4. Resumen Se presenta el problema de demostrar la existencia de campos de Yang-Mills y el salto de masa observado en los gluones, se discute cuanto ha avanzado la ciencia en su resolución y se da una introducción a las herramientas teóricas necesarias para entender dicho problema a un nivel elemental, es decir, corres- pondiente al pregrado de las carreras afines a este problema. Estas herramientas son: álgebra abstracta, topología, geometría diferencial, diagramas de Feymann y teoría cuántica de campos. 1
  • 6. Introducción En este capítulo se explican las propiedades de las estructuras algebraicas utilizadas actualmente para describir el problema de la existencia de una teoría cuántica de Yang-Mills y el Salto de Masa (PYMySM). De esta manera se logran adquirir las herramientas matemáticas suficientes para entender el estado actual de las investigaciones acerca del PYMySM que es un paso hacia tratar de abordar soluciones para resolverlo. 3
  • 7. Capítulo 1 Tópicos de álgebra abstracta 1.1 Introducción 1.2 Semigrupo, Monoide y Grupos Sea G un conjunto no vacío y n ∈ N con n ≥ 1. Una operación n-aria en G es una función • : Gn → G donde Gn representa el producto cartesiano y finito de conjuntos, es decir Gn = G × · · · × G. Si n = 2, entonces la operación 2-aria en G se denomina operación binaria en G. La notación que emplearemos para denotar la imagen de (x, y) ∈ G × G me- diante la operación binaria en G es la multiplicativa, es decir x•y que representa el producto de x e y. Definición 1.1. Un Semigrupo es un conjunto no vacío G junto con una operación binaria en G que satisface el axioma de asociatividad, es decir para todo a, b, c ∈ G se tiene que: (a • b) • c = a • (b • c) (1.1) Ejemplo 1.1.1. En el conjunto de los enteros Z, definimos • de la siguiente forma: para todo a, b ∈ Z se define a • b = a + b + 3. Entonces el par (Z, •) es un semigrupo en Z. Veamos si • satisface el axioma de asociatividad, debemos verificar que para todo a, b, c ∈ Z se cumple que (a • b) • c = a • (b • c). En efecto, (a • b) • c = (a • b) + c + 3 (1.2) = (a + b + 3) + c + 3 (1.3) = a + b + 6 (1.4) 4
  • 8. Ahora bien a • (b • c) = a + (b • c) + 3 (1.5) = a + (b + c + 3) + 3 (1.6) = a + +b + 6 (1.7) Por lo tanto • es una operación binaria asociatividad y en consecuencia el par (Z, •) es un semigrupo en Z. Ejemplo 1.1.2. Cualquier conjunto a es un semigrupo con un elemento junto con la operación a · a = a. Ejemplo 1.1.3. El conjunto de los números naturales N sin el 0 junto con la operación aditiva es un semigrupo. Ejemplo 1.1.4. El conjunto de las matrices cuadradas de números reales junto con la operación multiplicación de matrices es un semigrupo. Definición 1.2. Un Semigrupo Abeliano es un semigrupo tal que su ope- ración binaria en G, satisface el axioma de conmutatividad, es decir, para todo a, b ∈ G se tiene que: a • b = b • a (1.8) Ejemplo 1.2.1. El par (Z, •) con a•b = a+b+3 del ejemplo anterior es además un semigrupo abeliano en Z. La razón es que se cumple que a + b = b + a, es decir la operación es conmutativa. Ejemplo 1.2.2. El conjunto de los números naturales N sin el 0 junto con la operación aditiva también es un semigrupo abeliano porque esta operación también es conmutativa. Ejemplo 1.2.3. El conjunto de las matrices cuadradas de números reales junto la operación de multiplicación de matrices no es un semigrupo abeliano porque esta operación no es conmutativa para las matrices. Definición 1.3. Un Monoide es un semigrupo G donde la operación binaria en G satisface el axioma del elemento neutro bilátero (izquierda y derecha), es decir existe e ∈ G tal que para todo a ∈ G se satisface: e • a = a (1.9) a • e = a (1.10) es decir e • a = a • e = a (1.11) Ejemplo 1.3.1. El par (Z, •) con a, b ∈ Z definido por a • b = a + b + 3 es un monoide en Z. En efecto notemos que debemos probar que para todo a ∈ Z existe e ∈ Z tal que a • e = e • a = a. Construyamos el elemento e ∈ Z de la siguiente forma, sabemos que debe satisfacer la ecuación a • e = a, entonces por 5
  • 9. definición de • resulta que a • e = a + e + 3 y debe ser igual a a. Por otro lado como a ∈ Z ocurre que a = a + 0, es decir, a + e + 3 = a + 0 por el axioma asociativo ocurre que a + (e + 3) = a + 0. Si a = a, entonces (e + 3) = 0, esto implica que e = −3 ∈ Z. De manera similar ocurre con e • a = a. Por lo tanto el par Z, • es un monoide en Z. Ejemplo 1.3.2. El conjunto de los números naturales N con la operación aditiva es un monoide donde elemento neutro es el 0. Ejemplo 1.3.3. También, el conjunto de los números naturales N con la ope- ración multiplicativa es un monoide donde el elemento neutro es el 1. Definición 1.4. Un Grupo es un monoide G tal que la operación binaria en G satisface el axioma del elemento inverso bilátero, es decir, para todo a ∈ G existe b ∈ G tal que: a • b = e (1.12) b • a = e (1.13) es decir a • b = b • a = e (1.14) Ejemplo 1.4.1. Sea G = 0 y consideremos el conjunto de todas las funciones biyectivas de G en G, denotado por B(G). Entonces el par (B(G), ◦) donde ◦ denota la composición de funciones es un grupo, llamado grupo de transfor- maciones de G. Ejemplo 1.4.2. El conjunto de los números enteros Z junto con la operación adición es un grupo donde elemento neutro es 0. Ejemplo 1.4.3. El conjunto de las matrices cuadradas de elementos reales forman un grupo bajo la operación multiplicación donde el elemento neutro es la matriz identidad. Definición 1.5. Un Grupo abeliano es un grupo G tal que la operación binaria en G satisface el axioma de conmutatividad. Ejemplo 1.5.1. El par (Z, •) con a, b ∈ Z definido por a•b = a+b+3 constituye un grupo (aditivo) abeliano. Ejemplo 1.5.2. El conjunto de las matrices cuadradas de elementos reales bajo la operación multiplicación no es un grupo abeliano porque la operación multiplicación no es conmutativa. Ejemplo 1.5.3. El conjunto de las matrices cuadradas diagonales de elementos reales junto con la operación multiplicación de matrices es un grupo abeliano. Definición 1.6. Sea G un grupo y H un subconjunto no vacío de G, decimos que H es un subgrupo de G si y sólo si H es grupo. Definición 1.7. Un grupo trivial es un grupo formado por un conjunto cuyo único elemento es el elemento neutro. 6
  • 10. 1.2.1 Propiedades de los grupos A continuación enunciaremos un teorema que enuncia las propiedades más básicas en un grupo. Para la demostración del mismo consultar [12]. Definición 1.8. Sea G un monoide, entonces el elemento identidad de G que lo denotaremos por e es único. Si G es un grupo, entonces (i) Los elementos neutro e inverso de un grupo que lo denotaremos por e y a−1 con a ∈ G, son únicos. (ii) Para cada a ∈ G, la ecuación a • a = a implica que a = e. (iii) Para cada a ∈ G, (a−1 )−1 = a. (iv) El inverso del producto de dos elementos diferentes de un grupo es igual al producto de los inversos, es decir para cada a, b ∈ G, (a • b)−1 = b−1 • a−1 . (v) En un grupo sus elementos satisfacen la condición de regularidad, es decir vale la ley de cancelación en el grupo. (vi) Sean a y b elementos de G, las ecuaciones a • x = b y y • a = b, tienen solución única en G, es decir x = a−1 • b y y = b • a−1 . Definición 1.9. Sea H un conjunto no vacío del un grupo G, entonces H es un subgrupo de G si y sólo si a • b ∈ H para todo a, b ∈ H. Para la demostración ver [12]. 1.2.2 Caracterización de los subgrupos Definición 1.10. (Intersección de subgrupos) Sean (G, •) un grupo, lo denotaremos por G y {Gi}i∈I una familia no vacía de subgrupos de G. Entonces la intersección de toda familia no vacía de subgrupos de G, que la denotamos por i∈I Gi es un subgrupo de G. Consultar para la demostración ver [12]. Definición 1.11. (Unión finita de subgrupos:) Sea un grupo G y {Gi}n i=1 una familia finita no vacía de subgrupos de G. Entonces la unión de toda familia finita no vacía de subgrupos de G, que la denotamos por n i=1 Gi es un subgrupo de G. 1.2.3 Homomorfismo de grupos Sean los grupos (G, •) y (G , • ) Definición 1.12. La función f : G → G es un homomorfismo de grupo si y sólo si la imagen de la composición en G es igual a la composición de las imágenes en G . Es decir: f : G → G es un homomorfismo ⇐⇒ f(a • b) = f(a) • f(b) (1.15) 7
  • 11. Ejemplo 1.12.1. Sean los grupos aditivos (R2×2 , +) y (R, +) y sea la función f : R2×2 definida por: f a b c d = a + c Entonces f es un homomorfismo, pues al aplicar la definición de suma de ma- trices junto las propiedades de conmutatividad y asociatividad de la suma en R, en la definición de f se cumple que dadas 2 matrices A y B entonces f(A + B) = f(A) + f(B). Definición 1.13 (Homomorfismos especiales). Sean G y G dos grupos y f : G → G un homomorfismo respecto de • y • . Entonces: 1. f es un monomorfismo si y solo si f es inyectiva. 2. f es un epimorfismo si y solo si f es sobreyectiva. 3. f es un isomorfismo si y solo si f es biyectiva. 4. f es un endomorfismo si y solo si G = G . 5. f es un automorfismo si y solo si f es un endomorfismo biyectivo. Definición 1.14. (Conjugación o automorfismo interno:) Sea G un grupo y g ∈ G, entonces la función: ϕg : G → G ϕg(x) : g−1 xg es llamada conjugación a derecha por g. Esta función es un endomorfismo de G ya que para todo x1, x2 ∈ G se tiene que: ϕ(x1x2) = g−1 x1x2g = (g−1 x1g)(g−1 x2g) = ϕg(x1)ϕg(x2) Definición 1.15. (Subgrupo normal:) Es un subgrupo que es invariante bajo la conjugación de los miembros del grupo del que forma parte. Es decir, un subgrupo N del grupo G es normal en G si y solo si, gng−1 ∈ N para todo g ∈ G y n ∈ N. Definición 1.16. (Grupo simple:) Es un grupo no trivial que solo tiene como subgrupos normales al grupo trivial y a el mismo. 1.3 Anillos En esta sección describimos de manera breve, los conceptos más básicos presentes en la teoría de Anillos los cuales enunciamos a continuación. 8
  • 12. Definición 1.17. Un anillo es un conjunto no vacío A junto con dos operacio- nes binarias en A, usualmente denotadas por adición (+) y multiplicación (•) que satisfacen las siguientes propiedades. 1. El conjunto con la primera operación, (A, +) es un grupo abeliano. 2. El conjunto con la segunda operación, (A, •) es un semigrupo. 3. La segunda operación es distributiva a derecha y a izquierda respecto de la primera operación. Es decir, para todo a, b, c ∈ A se cumple que: a • (b ∗ c) = a • b ∗ a • c (b ∗ c) • a = b • a ∗ c • a (1.16) 4. Para todo elemento a de A, existe un elemento llamado identidad y denotado por 1A de A tal que a • 1A = 1A • a = a. Denotaremos a el anillo (A, +, •) simplemente por A. Ejemplo 1.17.1. (N, +, ·) no es anillo, pues no existe neutro para la adición. Ejemplo 1.17.2. (N0, +, ·) no es anillo, porque los elementos no nulos N0 carecen de inverso aditivo. Definición 1.18. Sea A un anillo, decimos que: 1. A es anillo conmutativo si la segunda operación de A es conmutativa. 2. A es anillo con unidad si existe un elemento neutro en A, que denota- remos e para la segunda operación de A. 3. A es un anillo con división si además de ser anillo con unidad cumple con que para todo elemento no nulo de A, existe un elemento inverso que también pertenece a A. Ejemplo 1.18.1. (Z, +, ·) es un anillo conmutativo y con unidad. Definición 1.19. Sea I un subconjunto no vacío de un anillo A. Si I es un subgrupo aditivo de A entonces: 1. I es un ideal por la izquierda de A si el producto por la izquierda de un elemento de I por un elemento de A pertenece a I. Esto es: ∀(a, x) ∈ A × I : a × x ∈ I 2. I es un ideal por la derecha de A si en cambio el producto por la derecha de un elemento de I por un elemento de A pertenece a I. ∀(x, a) ∈ I × A : x × a ∈ I 3. Un ideal bilátero es un ideal por la derecha y por la izquierda. En el caso de un anillo conmutativo las nociones de ideal por la izquierda, derecha o bilátero son equivalentes y por lo tanto se habla solo de ideal. 9
  • 13. 1.4 Módulos Definición 1.20. Un R-módulo a izquierda denotado por A, es un anillo R y un grupo abeliano aditivo A junto con una función R × A → A tal que para todo r, s ∈ R y para todo a, b ∈ A: r(a + b) = ra + rb (1.17) (r + s)a = ra + sa (1.18) r(sa) = (rs)a (1.19) Ejemplo 1.20.1. Cada grupo abeliano M es un módulo sobre el anillo de los números enteros Z si se define nx = x + x + · · · + x (n sumandos) para n > 0, 0x = 0 y (−n)x = −(nx) para n < 0. Definición 1.21. Un R-módulo a derecha se define de la misma manera que el R-módulo a izquierda con la diferencia de que ahora la función que relaciona al anillo y al grupo abeliano es A × R → A. Ejemplo 1.21.1. Si R es cualquier anillo e I es cualquier ideal izquierdo en R, entonces I es un módulo izquierdo sobre R. Lógicamente, los ideales derechos son módulos derechos. Definición 1.22. Un R-módulo unitario es un R-módulo el cuál tiene un anillo unitario con un elemento unitario denotado por 1R. Entonces para todo a ∈ A se cumple que 1Ra = a. Ejemplo 1.22.1. Todo grupo abeliano aditivo G es un Z-módulo unitario, con na (n ∈ Z, a ∈ G). Definición 1.23. Sea A un anillo con unidad. Entonces un módulo F sobre A es un módulo libre en el conjunto X si y solo si satisface las siguientes condiciones: 1. F tiene una base no vacía. 2. F es la suma directa interna de una familia de A-módulos cíclica, donde cada una es isomórfica como un A-módulo a izquierda de A. 3. F es un A-módulo isomórfico a la suma directa de las copias del A-módulo A. 4. Existe un conjunto no vacío X y una función i : X → F con la propiedad de que dado un A-módulo unitario y una función f : X → A, existe un único homomorfismo A-módulo ¯f : F → A tal que ¯fi = f. 1.5 Espacio vectorial Definición 1.24. Un espacio vectorial a izquierda que denotaremos por Vi o simplemente V es un R-módulo tal que anillo asociado es un anillo con división. Definición 1.25. Sea D un anillo con división. Entonces todo D-módulo libre es un espacio vectorial sobre D. 10
  • 14. 1.5.1 Ejemplos 1. El conjunto de n-tuplas donde cada elemento pertenece al cuerpo F. Es decir (a1, a2, · · · , an) donde cada ai ∈ F. 2. El conjunto de todas las funciones de cualquier conjunto fijo Ω sobre un cuerpo forma un espacio vectorial F con la suma y multiplicación de fun- ciones usual definidas de la forma siguiente: (f + g)w = f(w) + g(w) (f · g)w = f(w) · g(w) 1.6 Álgebras graduadas Definición 1.26. [10]Sea K un cuerpo, un álgebra sobre un cuerpo K consiste en lo siguiente: • Un espacio vectorial V sobre K. • Una operación binaria, llamada multiplicación de vectores, la cuál para todo c ∈ K y α, β, γ ∈ V cumple con lo siguiente: 1. (cα)β = c(αβ) 2. (α + β)γ = αγ + βγ 3. α(β + γ) = αβ + αγ 1.7 Espacio de productos internos También conocido como espacio prehiltbertiano, es un espacio vectorial (que suele ser Rn o Cn junto con una operación adicional llamada producto escalar o producto interno. Su definición formal es la siguiente: Definición 1.27. Sea un campo vectorial V sobre un cuerpo F. Sea un mapa definido como ·, · : V × V → F denominado producto interno o producto escalar que satisface las siguientes propiedades para todo x, y, z ∈ V y a ∈ F: • Hermiticidad o simetría conjugada. Es decir, para todo x, y ∈ V entonces x, y = y, x . • Sesquilinealidad o linealidad en el primer argumento. Es decir que para todo a ∈ K y para todo x, y ∈ V , entonces ax, y = a x, y . • Es positivamente definida. Para todo x ∈ V , entonces x, x ≥ 0. 11
  • 15. Capítulo 2 Tópicos de topología 2.1 Introducción Para responder preguntas tales como ¿que es el espacio? o ¿que es una di- mensión? hace falta estudiar estos temas de una manera independiente de lo que es la forma, el tamaño y la posición de las figuras geométricas. Por esa razón surge la topología, que literalmente significa “el estudio del espacio”, como rama separada de las matemáticas a comienzos del siglo XX d.C. En ella se estudian las propiedades del espacio tales como conexión y compacidad para averiguar cuales se conservan bajo deformaciones continuas. Como ejemplo de su utilidad se puede considerar un espacio cuya forma es una banda de material. Entonces se puede conocer que propiedades no cambian cuando dicha banda se deforma (estira, dobla o tuerce) pero no cuando se rompe ya que esto es una deformación no continua. La meta es llegar a conclusiones que se pueden aplicar a un tipo de objetos independientemente de que forma tenga el objeto. Hay que aclarar que el término topología se refiere tanto a la rama de las matemáticas como a una estructura estudiada por dicha rama. Existen varias maneras de definir los conceptos de la topología. A continua- ción se explican las nociones topológicas que están de acuerdo con la definición de conjuntos abiertos. 2.2 Nociones topológicas 1. Topología (Rama de las matemáticas): es el estudio de aquellas pro- piedades cualitativas de los objetos denominados espacios topológicos que son invariantes bajo ciertas transformaciones denominadas mapas continuos, especialmente bajo los homeomorfismos. 2. Ejemplos de estudio: 12
  • 16. • Objetos con formas diferentes como un cuadrado y un círculo tienen en común que ambos dividen el plano en 2 partes, la parte interior delimitada por el borde del objeto y la exterior. • En el problema de los puentes de Könisberg, se demostró que no se pueden recorrer todos los 7 puentes de la ciudad de Könisberg cru- zando cada uno como máximo una vez. La demostración no se hizo conociendo la forma de los caminos de la ciudad, sino las propieda- des de conexión entre las partes de la ciudad. En otras palabras se requería saber que puentes conectaban cuales partes de la ciudad. 2.3 Topología (Estructura) Definición 2.1. Un espacio topológico es un par ordenado (X, TX) donde X es un conjunto y TX es una familia de subconjuntos de X que satisfacen los siguientes axiomas: 1. El conjunto vacío pertenece a TX. Es decir, φ ∈ TX. 2. La intersección de cualquier número finito de elementos de TX pertenecen a TX. Es decir, si {TXi}n i=1 es una familia finita no vacía de elementos de TX entonces n i=1 TXi ∈ TX. 3. Cualquier unión arbitraria de los elementos de TX pertenecen a TX. Es decir, si I es un conjunto de índices y {TXi}i∈I es una familia no vacía de elementos de TX entonces i∈I TXi ∈ TX. Los elementos de TX se denominan conjuntos T-abiertos. Un conjunto cerrado es un conjunto abierto cuyo complemento también es abierto. La familia TX se denomina una topología en X. En algunos textos se usa X para indicar (X, TX), es decir, el conjunto X con una topología TX que como par ordenado forman el espacio topológico. Ejemplo 2.1.1. Dado X = {1, 2, 3} entonces: • TX = {φ, {1, 2, 3}} forma una topología de X llamada topología trivial. • TX = {φ, {1}, {2}, {1, 2}, {1, 2, 3}} forma otra topología de X. • TX = {φ, {1}, {2}, {1, 2, 3}} no forma una topología de X porque la unión de los subconjuntos {1} y {2} de TX, es decir, el conjunto {1, 2} no per- tenece a TX. 2.4 Topología relativa Definición 2.2. Sea (X, TX) un espacio topológico. S ⊂ X será un subespacio de X, si y solo si, S es un espacio topológico para la topología inducida por X 13
  • 17. en S, llamada topología relativa denotada por TXs. Esto se cumple para los subconjuntos de S que son la intersección entre S y un conjunto abierto de TX. En notación de conjuntos se expresa como: TXs = {S ∩ U|U ∈ TX} (2.1) 2.5 Métrica Definición 2.3. Sea M un conjunto y d una función que satisface los siguientes axiomas: 1. d : M × M → R 2. d(x, y) ≥ 0 (no negativa) 3. d(x, y) = 0 ⇐⇒ x = y (identidad de los indiscernibles) 4. d(x, y) = d(y, x) (simetría) 5. d(x, z) ≤ d(x, y) + d(y, z) (desigualdad triangular) Entonces el par ordenado (M, d) es llamado un espacio métrico y la métrica de dicho espacio es d. Definición 2.4. Una secuencia en un espacio métrico es una sucesión de Cauchy si por cada número real positivo r existe un número entero positivo N tal que para todos los enteros positivos m, n > N, entonces d(xm, xn) < r. Definición 2.5. Un espacio métrico (X, d) es completo si toda secuencia de Cauchy de puntos en M tiene un límite que también está en M. Definición 2.6. Un espacio de Hilbert es un espacio de productos internos real o complejo que también es un espacio métrico completo con respecto a la métrica inducida por el producto interno. Esta métrica es la norma definida como ||x|| = x, x . 2.6 Continuidad Es una propiedad de las funciones continuas que, intuitivamente, son aquellas para las cuales un cambio suficientemente pequeño en su entrada produce un cambio arbitrariamente pequeño en su salida. Requiere de los conceptos de vecindad e imágenes para su definición. Definición 2.7. (Vecindad de un punto: ) Sea (X, TX) un espacio topo- lógico y p un elemento de dicho espacio, entonces, una vecindad de p es un subconjunto V de X que incluye a un conjunto abierto U de X el cuál contiene a p. 14
  • 18. Es decir: p ∈ U ⊆ V ⊆ X (2.2) Si a su vez, V es un conjunto abierto de X entonces es llamada una vecindad abierta. Definición 2.8. (Vecindad de un conjunto:) Sea S un subconjunto del espacio topológico X. Entonces una vecindad de S es un conjunto V que incluye un conjunto abierto U que contiene S. Definición 2.9. (Continuidad en un punto:) Una función f : X → Y es continua en un punto si para todo x ∈ X y para toda vecindad N de f(x) existe una vecindad M de x tal que f(M) ⊆ N. Definición 2.10. (Propiedades de una función continua): Si f : X → Y es continua, entonces: • La composición g ◦ f : X → Z es continua si g : Y → Z es continua. • f(X) es compacta si X es compacta. • f(X) es conexa si X es conexo. 2.7 Cubrimiento Definición 2.11. Una familia de subconjuntos C de un conjunto X es un cubrimiento de X si y solo si la unión de los elementos de C contiene a X. Esto es: Sea C = {Uα : α ∈ A} una familia indexada de conjuntos Uα. Entonces C es un cubrimiento de X ⇐⇒ C ⊆ α∈A Uα Definición 2.12. Si C es un cubrimiento de X, entonces un conjunto D ⊂ C es un subcubrimiento de C si todavía cubre a X. Definición 2.13. Si C es un cubrimiento de X tal que cada uno de sus elemen- tos son conjuntos abiertos entonces C es llamado un cubrimiento abierto. Definición 2.14. Si C es un cubrimiento de X, entonces C es un cubrimiento finito de X si cada elemento de X tiene una vecindad que intersecta de manera finita a los elementos de C. Definición 2.15. Un espacio topológico X es compacto si cada uno de sus cubrimientos abiertos tiene un subcubrimiento finito. Definición 2.16. Sean C y D cubrimientos de un espacio topológico X. D es un refinamiento de C si todo conjunto que pertenece a D es un subconjunto de algún conjunto que pertenece a C. Formalmente, D = Vβ∈B es un refinamiento de C = Uα∈A cuando ∀β∃α tal que Vβ ⊂ Uα. Definición 2.17. Un espacio topológico X es paracompacto si cada cubri- miento abierto tiene un refinamiento abierto que es localmente finito. 15
  • 19. 2.8 Partición de la unidad Definición 2.18. Una partición de la unidad de un espacio topológico X es un conjunto R de funciones continuas de X en el intervalo [0, 1] tales que para cada punto x que pertenece a X, se cumple lo siguiente: 1. Existe una vecindad de x donde todos excepto un número finito de las funciones de R son 0. 2. La suma de todos los valores de las funciones es igual a 1. En símbolos: ρ∈R ρ(x) = 1 16
  • 20. Capítulo 3 Tópicos de geometría Diferencial 3.1 Variedades 3.1.1 Introducción 3.1.2 Álgebra Definición 3.1. A y B están separados por vecindad si existe alguna ve- cindad U de A y V de B tal que U y V son disjuntos. Definición 3.2. Sean x y y puntos de un espacio topológico X que puede ser separado por vecindad. Entonces X es un espacio de Hausdorff si todos los pares distintos de puntos de X son vecindades separables. Definición 3.3. Un espacio topológico X es localmente euclídeo si existe un número entero no negativo tal que todo punto en X tiene una vecindad que es homeomórfica a un espacio real Rn . Definición 3.4. Una variedad topológica es un espacio de Hausdorff local- mente euclídeo. A veces, se utiliza el término variedad para referirse a una variedad topológica. Definición 3.5. Una presentación de una variedad topológica es un es- pacio de Hausdorff segundo contable que es localmente homeomorfo a un espacio vectorial por una colección llamada atlas de homeomorfismos llamados cartas donde la composición de una carta con el inverso de otra carta es una función llamada mapa de transición. Definición 3.6. Una variedad Ck -diferenciable donde k es un entero no negativo, es una variedad topológica equipada con una clase de equivalencia de atlas cuyos mapas de transición son todos diferenciables k veces. Definición 3.7. Una variedad suave es una variedad C∞ -diferenciable para la cuál todos sus mapas de transición son suaves. 17
  • 21. 3.2 Fibrados y conexiones 3.2.1 Introducción El concepto de conexión define con precisión la idea de transportar datos entre una familia de curvas en una manera ’paralela’. La clase de datos trans- portada define la clase de conexión. Por ejemplo, la conexión afín proporciona una manera de transportar de ma- nera paralela vectores tangentes de un punto a otro de una variedad recorriendo una curva. Transportar datos en una superficie no siempre es trivial. Así por ejemplo está el problema de transportar un vector tangente a la superficie de una esfera desde un punto a otro de la esfera. La dirección a la que apunte el vector transportado depende de la trayectoria por la cuál se transportó. La solución a este problema proviene después de considerar que la derivada direccional según el cálculo vectorial no se comporta bien ante cambios de coordenadas que se apliquen a los componentes del vector. Entonces una de las maneras de abordar este asunto es con las conexiones de Cartan que consiste en usar grupos de Lie y las simetrías del espacio que se está estudiando. Esto en el caso del problema anterior da origen a estudiar las rotaciones de dicho espacio. 3.2.2 Álgebra Sea, • E, B y F espacios topológicos. • B un espacio topológico conectado llamado espacio base. • E un espacio topológico llamado espacio total. • F un espacio topológico llamado fibra. • π : E → B una aplicación sobreyectiva continua llamada proyección. • Para cada x ∈ B existe una vecindad abierta U ⊂ B de x tal que exista un homeomorfismo φ : π−1 (U) → U × F de manera que π coincida con la proyección en el primer factor. Definición 3.8. Para todo Ui ∈ U y φi ∈ φ el conjunto de todos los (Ui, φi) es llamado una trivialización local. Si π : E → B satisface la condición de trivialización local entonces: Definición 3.9. Para todo p ∈ B, la preimagen π−1 (p) es llamada una fibra sobre p donde π−1 (p) es homeomórfica a F. Definición 3.10. La estructura (E, B, π, F) es un fibrado y es denotada por F → E π −→ B. Definición 3.11. Un fibrado suave es un fibrado donde E, B, F son varieda- des suaves y π es un mapa suave. 18
  • 22. 3.2.3 Fibrado vectorial Definición 3.12. Un fibrado vectorial real consiste de: • Un espacio topológico X llamado espacio base. • Un espacio topológico E llamado espacio total. • Una función sobreyectiva continua Π : E → X llamada proyección del fibrado. • Para cada x que pertenece a X se tiene una estructura de un espacio vectorial real de dimensión finita en la fibra Π−1 (x). Donde la siguiente condición de compatibilidad es satisfecha: Para todo punto p que pertenece a X, existe: • Una vecindad abierta U ⊆ X de p. • Un número natural k. • Un homeomorfismo ϕ : U × Rk → π−1 (U) tal que para todo x que perte- nece a U: – (π ◦ ϕ)(x, v) = x para todos los vectores v en Rk . – El mapa v → ϕ(x, v) es un isomorfismo lineal entre los espacios vectoriales Rk y Π−1 . Una trivialización local de un fibrado vectorial es una vecindad abierta U junto con el homeomorfismo ϕ. Un fibrado vectorial (E, p, M) es suave cuando E y M son variedades sua- ves, p : E → M es un mapeo suave y las trivializaciones locales son a su vez difeomorfismos. Definición 3.13. Sea: • E → M un fibrado vectorial suave sobre una variedad diferenciable M. • Γ(E) es espacio de secciones suaves de E. Una conexión en E es un mapa lineal-R : Γ(E) → Γ(E ⊗ T∗ M) tal que la regla de Leibniz (σf) = ( σ)f + σ ⊗ df se cumple para todas las funciones suaves f en M y todas las secciones suaves σ de E. 3.2.4 Fibrado principal Sea G un grupo topológico. Entonces, un G-fibrado principal es un fibrado π = P → X junto con una acción continua P × G → P tal que G preserve las fibras de P y actúe regularmente en ellos de una manera que ∀x ∈ X, y ∈ P el mapa G → Px que envía g con yg es un homeomorfismo. 19
  • 23. 3.3 Clases características 3.3.1 Categoría Una categoría C consiste de: • Una clase ob(C) de objetos. • Una clase hom(C) de morfismos entre los objetos. • Para cada 3 objetos a, b, c existe una operación binaria hom(a, b)×hom(b, c) → hom(a, c) llamada composición de morfismos. Si f y g son morfismos entonces la composición de f y g denotada por f ◦ g. 3.3.2 Funtor Sean las categorías C y D. Un funtor de C hasta D es un mapa que cumple con las siguientes condiciones: • Asociar cada objeto X en C un objeto F(X) en D. • Asociar a cada morfismo f : X → Y en C un morfismo F(f) : F(X) → F(Y ) en D tal que: – Para cada objeto X en C entonces F(idX) = idF (X) – Para todo morfismo f : X → Y y g : Y → Z en C entonces F(f ◦g) = F(f) ◦ F(g). 3.3.3 Clase característica Sea G un grupo y X un espacio topológico y bG(X) el conjunto de las clases de isomorfismo de las G-fibrados principales. Entonces una clase característica c de G-fibrados principales es entonces una transformación natural de bG a un funtor H∗ de cohomología. 20
  • 24. Capítulo 4 Tópicos de Teoría de Campos 4.1 Aspectos clásicos 4.1.1 Introducción Los campos clásicos se representan con secciones de haces fibrados y su dinámica se formula en términos de haces de jets conformando lo que se conoce como teoría de campos clásica covariante. Para comenzar a definir esta teoría se requiere conocer bajo que condiciones físicas es válido aplicar los campos clásicos: Ellos solo son útiles cuando se quiere describir fenómenos que ocurren a escalas de energía donde las propiedades cuánticas de la materia son despreciables. Además para su definición también se requiere poder escribir de manera lógica las cantidades físicas representadas por estos y para ello existen varios formalismos matemáticos. La razón de que sea útil emplear varias opciones pa- ra representar lo mismo es que cada formalismo tiene sus ventajas a la hora de extraer información acerca de las relaciones entre las cantidades físicas que pretenden describir. Por ejemplo hay una formulación que permite de mane- ra directa elevar las funciones vectoriales que representan los campos clásicos a operadores vectoriales para representar los campos cuánticos. Otra formula- ción muestra que es evidente que las leyes obtenidas son invariantes ante alguna transformación de coordenadas. En particular la formulación basada en fibrados vectoriales de cualquier campo clásico requiere de conocer bien como abstraer algún campo físico en particular a el concepto general de campo como una es- tructura matemática y también requiere de saber como manejar la estructura de los fibrados vectoriales, objeto estudiado por la topología y la teoría de catego- rías. Por lo tanto antes de considerarla se verán otros ejemplos de formalismos mas concretos y se irá aumentando el grado de abstracción a medida que se explique porque es necesario hacerlo. 21
  • 25. A continuación y como ejemplo, se tomará una teoría de la física clásica y se escribirá en términos de algunos formalismos matemáticos para ver las ventajas de cada uno. Esto con motivo de exponer porque son útiles los conceptos de álgebra abstracta, topología, geometría diferencial y teoría de categorías para escribir las leyes que dan origen al P-EYMSM que es la teoría que atañe al presente trabajo. La teoría elegida será la teoría electromagnética debido a lo siguiente: • Los aspectos físicos que describe no constituyen un problema abierto para la ciencia actualmente. Esto es un criterio válido aún cuando, estrictamen- te hablando, siempre será un problema abierto hasta que se descubra una teoría unificada para todas las interacciones entre partículas o se prue- be que no existe tal unificación. Por lo tanto, se le considera una teoría efectiva. • Juega un papel importante tanto en el mundo macroscópico como en el mi- croscópico lo que le da 2 características. Primero, describe fenómenos que podemos percibir con nuestros sentidos de manera directa y así tener una noción de su comportamiento. Segundo, sus efectos no son despreciables en el comportamiento de las partículas subatómicas como los protones. EL P-EYMSM, al tratar de la interacción fuerte, está presente a una escala aún mas pequeña (por ejemplo, el interior de un protón) y lidia con una fuerza de magnitud mucho mayor que la interacción electromagnética, pe- ro sus consecuencias están a su vez presentes en la escala de las partículas subatómicas, es decir, la misma en donde la teoría electromagnética es importante. • Sus leyes o al menos la noción de sus leyes, se pueden escribir conociendo las leyes de la suma y multiplicación de números reales. Esto es, se formula como relaciones entre elementos del cuerpo de los números reales R. Sin embargo mas adelante se mostrará el porqué es necesario escribirla como relaciones entre estructuras algebraicas mas complicadas para tratar de entenderla como realmente es. Todos los formalismos que describen la interacción electromagnética tienen una meta en común, la cual es, describir las interacciones físicas que ocurren entre partículas con carga eléctrica. Esto lleva a que las expresiones matemáti- cas resultantes deben coincidir con la evidencia experimental. Sumado a esto, deben llevar a conclusiones razonables, como por ejemplo, que permanezcan in- variantes ante rotaciones y translaciones de ejes coordenados. Después de todo, ¿tiene sentido una teoría que predice que, bajo las mismas condiciones, un ex- perimento observado en un laboratorio se comportará de manera diferente en otro laboratorio? En lo que a campos clásicos se refiere, toda consecuencia di- ferente es causada por un parámetro diferente en las condiciones iniciales del experimento. 22
  • 26. 4.1.2 Electrodinámica clásica como funciones reales El formalismo mas sencillo solamente aporta información acerca de la propor- ciones entre las cargas eléctricas y las fuerzas que estas producen a determinadas distancias. Así por ejemplo la evidencia experimental ha llevado a describir la fuerza eléctrica como indica la ley de Coulomb. Esta nos dice que cuando las cargas eléctricas: • Tienen simetría esférica. • No se superponen. • Son estacionarias cada una respecto a la otra. Entonces, se cumple que: F0 = ke qq0 r2 0 (4.1) Donde: F0: fuerza eléctrica producida por la carga q sobre q0. q: carga eléctrica que genera la fuerza. q0: carga eléctrica que ”siente” la fuerza. r0: distancia entre q y q0. En unidades del SI la fuerza se mide en N, la carga en C y la distancia en m lo que da como resultado que ke ≈ 8.987N · m2 · C−2 . Además de las expresiones matemáticas que describen un fenómeno físico están también las definiciones como la de campo eléctrico, a saber: F = q0E (4.2) De esta sencilla ley se puede fácilmente extraer información como que la fuerza eléctrica es inversamente proporcional al cuadrado de la distancia entre las cargas eléctricas. Ahora bien, para expresarla en esos términos se necesitó echar mano del álgebra abstracta. Esto porque las cantidades físicas como la fuerza eléctrica dependen de la distancia, es decir, están definida como funciones de la distancia. Tanto la distancia como la fuerza se expresan como números reales. Esto se puede expresar en esta notación: F : R → R. Lo mismo ocurre con todas las cantidades físicas. Son funciones que actúan sobre elementos del conjunto de números reales. Por lo tanto, las operaciones definidas en ese conjunto representan fenómenos físicos, y también tienen consecuencias en los fenómenos físicos. Así que es debido a que las fuerzas eléctricas cumplen con el principio de superposición que se utilizan la suma y multiplicación en R para representar distribuciones de carga. Al utilizar números reales por lo tanto se está trayendo toda la información de la estructura algebraica del anillo (R, +, ·) para describir la ley de Coulomb. 23
  • 27. Por lo tanto si no se da por sentado la información mencionada, la ley de Coulomb se escribe así: Sea: (R, +, .) el cuerpo de los números reales y D ⊂ R. Entonces, la fuerza de Coulomb es una función F : D → R definida como: F0 = ke qq0 r2 0 (4.3) donde q, q0, ke, r2 0 ∈ R y tienen el mismo significado físico que el de la defi- nición anterior. Como se ve, no basta con solo definir el significado físico de cada constante y variable. También hay que definir a que estructura matemática pertenecen para así saber como realizar operaciones con estas cantidades. En este caso, todas las funciones actúan sobre elementos del anillo (R, +, ·). Entre las propiedades de los anillos están que empleando las operaciones que lo definen se puede encontrar una solución única a una ecuación definida en ese anillo como pasa con la ley de Coulomb. Esta es la razón al porque en dicha ecuación podemos despejar por ejemplo la carga eléctrica q y tener la garantía de que el valor numérico obtenido es único y es realmente la solución. A continuación el procedimiento para ”despejar” q de la ley de Coulomb aplicando las propiedades del anillo (R, +, ·): Debido a que r−2 = 1 r2 F0 = keqq0r0 −2 Multiplicación derecha a ambos lados de la ecuación F0(keq0r0 −2 )−1 = keqq0r0 −2 (keq0r0 −2 )−1 Asociatividad de la multiplicación F0(keq0r0 −2 )−1 = [(ke)(k−1 e )][(q0)(q0)−1 ][(r0 −2 )(r−2 0 )−1 ]q Elemento inverso multiplicativo (x)(x)−1 = 1 F0(keq0r0 −2 )−1 = q Reescribiendo de la manera usual F0r0 2 keq0 = q Se pueden garantizar 2 cosas respecto al valor numérico obtenido al evaluar la expresión: Primero, que es el único valor válido de q, no hay otra carga eléctrica que satisfaga la expresión. Segundo, incluso antes de calcular q se sabe que este valor existe para todo elemento del dominio de F, a saber, el conjunto D. De esta manera se ve que no tiene sentido extraer conclusiones físicas de estudiar la expresión para r0 = 0 ya 24
  • 28. que al hallar D para la expresión de la ley de Coulomb vemos que no contiene al elemento r = 0. Adicionalmente, estar seguro de que una solución existe, tiene aún mas re- levancia cuando la expresión matemática que representa a una ley física es tan compleja, que no se sabe como despejar la variable a estudiar. Conviene primero averiguar si tal solución realmente existe antes de intentar encontrarla. Entonces, haciendo una analogía, cabe formular la pregunta, ¿De verdad existe una solución a la ecuación que representa a la interacción fuerte? A este problema se le conoce como ”existencia de Yang-Mills”. Probar que una solución existe o que no existe es suficientemente complejo e importante para que se le considere un problema del milenio. Retomando el análisis de la Ley de Coulomb otra cuestión a considerar son las condiciones en las que esta ley es válida. Esto porque muchos fenómenos físi- cos ocurren con campos eléctricos y magnéticos que son variables con el tiempo como por ejemplo las ondas electromagnéticas y en estos la ley de Coulomb en general deja de ser válida. Por lo tanto, el modelo matemático ahora debe modelar las magnitudes fí- sicas como funciones de 2 variables, a saber, el espacio y el tiempo. Debido a la dependencia temporal de estas funciones a este modelo se le conoce como electrodinámica en contraposición a la electrostática donde los campos son cons- tantes en el tiempo. En cuanto a que los campos sean funciones de una sola variable espacial, en general el movimiento de una partícula en el espacio nece- sita de 3 números o 3 coordenadas espaciales para ser representado. Esto lleva a que las magnitudes físicas dependen en general de 3 variables espaciales y una temporal. Cuando Maxwell formuló la electrodinámica [3] lo hizo con un modelo de 20 ecuaciones cuyas magnitudes físicas eran campos escalares definidos de R3 → R, es decir, las magnitudes físicas fueron representadas por funciones que dependen de varias variables pero retornan un escalar. Nótese que el anillo sobre el que están definidos estos campos es (R , +, .), el cual es una estructura algebraica diferente de (R, +, .). Por tanto tiene sus propias operaciones aditiva y multipli- cativa para actuar sobre los elementos del conjunto del conjunto R que ahora son ternas de números reales (x, y, z) en vez de un solo número real. Las mag- nitudes físicas principales en estas ecuaciones son lo que hoy se conoce como potencial escalar eléctrico ϕ y como potencial vector magnético A pero claro escrito como campo escalar. Sin embargo, al elevar los campos escalares que representan las magnitudes físicas en la teoría electromagnética a campos vectoriales (funciones de varia variables espaciales que retornan vectores), se puede extraer información acerca de la simetría en el espacio, en especial, al utilizar las coordenadas adecuadas. También se logra simplificar el número de expresiones matemáticas necesarias para describir el fenómeno físico. Por ejemplo las 20 ecuaciones originales de Maxwell se traducen en 8 ecuaciones vectoriales. Buscando tomar en cuenta las simetrías que son evidentes al formular la interacción electromagnética con vectores, Heaviside, Gibbs y Hertz lograron con solo 4 ecuaciones describir este fenómeno alrededor del año 1884 [6]. Para ello se emplearon los campos eléctrico 25
  • 29. E y magnético B en vez de los potenciales ϕ y A. 4.1.3 Formulación con cálculo vectorial de la electrodiná- mica clásica. Sean E : R3 → R3 el campo eléctrico y B : R3 → R3 el campo magné- tico tales que: Definición 4.1. · E = ρ 0 (4.4) · B = 0 (4.5) × E = − ∂B ∂t (4.6) × B = −µ0J + µ0 0 ∂E ∂t (4.7) F = qE + qv × B (4.8) El sistema queda determinado por 6 cantidades independientes que corres- ponden a las 3 componentes espaciales de cada campo. Al escribir las leyes del electromagnetismo de esta manera no se puede ver como estas también se cumplen en el marco de la teoría de la relatividad especial. Para lograrlo, se utiliza una propiedad que se manifiesta si se formulan estas mismas leyes pero de la manera como se indica en la siguiente sección. 4.1.4 Formulación con potenciales de la electrodinámica clásica. Sean φ : R3 → R el potencial escalar y A : R3 → R3 el potencial vector definidas como: E = − ϕ − ∂A ∂t (4.9) B = × A (4.10) Entonces al sustituir en las ecuaciones de Maxwell estas se reducen a 2 ecuaciones: 2 ϕ + ∂ ∂t · A = − ρ 0 (4.11) 2 A − 1 c2 ∂2 ∂t2 A − · A + 1 c2 ∂2 ∂t2 A = −µ0J (4.12) Estas 2 ecuaciones son equivalentes a las 4 ecuaciones de Maxwell. 26
  • 30. Se tiene la ventaja de que son 2 ecuaciones menos cuyas variables indepen- dientes son 4 en total, (1 para el potencial escalar y 3 para el potencial vector) en vez de 6 variables independientes. Como desventaja está el hecho de que las ecuaciones son mas complicadas que las ecuaciones de Maxwell ya que involucran mas términos y aparecen operadores diferenciales de segundo orden. Sin embargo, las ecuaciones de los potenciales se pueden simplificar valiéndose del hecho de que las cantidades que tienen significado físico directo son los campos en vez de los potenciales. Esto se hace de la siguiente manera: Primero se toma en cuenta la siguiente propiedad: Sea λ(r, t) una función doblemente diferenciable. Entonces para todo λ: ϕ = ϕ + ∂ ∂t λ (4.13) A = A + λ (4.14) Esta propiedad nos indica que existen varias combinaciones de ϕ y A ca- racterizadas por un parámetro λ que van a generar los mismos campos E y B. Esto sumado al hecho de que los campos son las cantidades que realmente afectan el comportamiento del sistema que se estudia lleva a que se puede elegir los potenciales con cierta ”libertad”. Esta libertad conocida como ”libertad de calibre” no es total, es decir, que eligiendo cualquier valor para los potenciales no se generan los campos buscados, sino mas bien se eligen los potenciales va- riando el parámetro λ y exigiendo que se satisfaga las 2 ecuaciones mostradas previamente. Es conveniente elegir valores para los potenciales que simplifiquen las ecua- ciones (4.11). Por ejemplo si se toman todos los A que satisfacen la condición: · A = 0 (4.15) Las ecuaciones (4.11) quedan de esta forma: 2 ϕ = − ρ 0 (4.16) 2 A − 1 c2 ∂2 ∂t2 A − 1 c2 ∂2 ∂t2 A = −µ0J (4.17) A esta condición se le conoce como calibre de Coulomb. La razón es que esta condición se cumple cuando el campo magnético es estático o casi estático respecto del tiempo. Bajo esas condiciones la ley de Coulomb predice resultados válidos. También se pueden elegir los potenciales de manera que cumplan con la condición conocida como calibre de Lorentz que implica lo siguiente: 27
  • 31. · A = − 1 c2 ∂ϕ ∂t (4.18) − 2 λ = − · A − 1 c2 ∂ϕ ∂t (4.19) − 2 ϕ = − ρ 0 (4.20) − 2 A = −µ0J (4.21) donde 2 es el operador D Alembertiano: 2 − 1 c2 ∂2 ∂t2 = − 2 (4.22) Estas ecuaciones son el punto de partida para 2 consideraciones: Primero: que es fácil extenderlas para explicar fenómenos cuánticos al sus- tituir los campos escalares por operadores, dando lugar a la electrodinámica cuántica. Segundo: Estas ecuaciones son invariantes ante transformaciones de Lorentz. Sin embargo esto no es tan obvio cuando están en funciones de los campos en vez de los potenciales. Por lo tanto, al ver que no es tan fácil demostrar su invarianza ante transformaciones de Lorentz, surge la cuestión de si se pueden escribir las leyes de Maxwell en términos de los campos y no de los potenciales de una manera que a primera vista si sea invariante ante esas transformaciones. La solución a esto da lugar a la aproximación abiertamente covariante de la electrodinámica clásica. Ambas formulaciones, la que es en términos de potenciales y la que es abierta- mente covariante, se mostrarán en este texto con el fin de conocer la motivación que hubo para escribir leyes físicas en términos de estructuras matemáticas como operadores vectoriales y tensores. De esa manera será natural utilizarlas para escribir las leyes que rigen la interacción fuerte, debido a que las estructuras matemáticas mas sencillas no describen estas leyes por completo. La razón de esto es que en la interacción fuerte y a diferencia de la interacción electromag- nética, los portadores de la fuerza (gluones en vez de fotones) interactúan entre ellos. 4.1.5 Formulación covariante de la electrodinámica. Consiste en escribir las 4 ecuaciones de Maxwell de una forma 4-vectores Para describir el comportamiento de un cuerpo se utilizan tensores llamados cuadrivectores. Las definiciones de los cuadrivectores fundamentales junto con las cantidades fundamentales en el marco de esta teoría son: Sea: 28
  • 32. R1,3 un espacio de Minkowski. r ∈ R1,3 un punto en el espacio de Minkowski. Definición 4.2. γ = 1 1 − u2 c2 (4.23) donde: γ: Factor de Lorentz. u: norma del vector velocidad u definida como: u = |u| = (u1)2 + (u2)2 + (u3)2 c: velocidad de la luz. Definición 4.3. τ ∈ R el tiempo propio relacionado con el tiempo por: dτ = dt γ(u) (4.24) Definición 4.4. 4-desplazamiento: rµ = (ct, r) = (r0 (τ), r1 (τ), r2 (τ), r3 (τ)) (4.25) donde: ri : R → R con i ∈ {0, 1, 2, 3} y r0 = ct. Definición 4.5. 4-velocidad: uµ = drµ dτ = (ct, u) (4.26) Definición 4.6. 4-momentum pµ = (E/c, p) = m0uµ (4.27) Definición 4.7. 4-gradiente ∂µ = ∂ ∂rµ = 1 c ∂ ∂t − (4.28) Definición 4.8. 4-D’Alembertiano ∂2 = 1 c2 ∂ ∂ ∂ ∂ − 2 (4.29) Definición 4.9. Tensor métrico de Minkowski ηµν =     1 0 0 0 0 −1 0 0 0 0 −1 0 0 0 0 −1     (4.30) 29
  • 33. Definición 4.10. Tensor electromagnético Fαβ =     0 −Ex/c −Ey/c −Ez/c Ex/c 0 −Bz By Ey/c Bz 0 −Bx Ez/c −By Bx 0     (4.31) Definición 4.11. 4-corriente Jα = (cρ, J) (4.32) Definición 4.12. 4-potencial Aα = (ϕ/c, A) (4.33) Empleando las definiciones anteriores se pueden escribir las leyes de Maxwell como 2 ecuaciones tensoriales, que son: ∂αFαβ = µ0Jβ Ley de Gauss-Ampere. (4.34) ∂α 1 2 αβγδ Fγδ = 0 Ley de Gauss-Faraday. (4.35) El lagrangiano que contiene la información de un sistema regido por la in- teracción electromagnética es: L = Lcampo + Lfuente (4.36) donde: Lcampo = − 1 4µ0 Fαβ Fαβ Componente debida a los campos. (4.37) Lfuente = −AαJα Componente debida a las fuentes. (4.38) La correspondiente ecuación de Euler-Lagrange: ∂β = ∂ L ∂(∂βAα) − ∂ L ∂Aα (4.39) Simplificando esta última expresión se obtiene la ley de Gauss-Ampere co- rroborando que el Lagrangiano es incluso mas fundamental que las ecuaciones de Maxwell. Esto lo hace útil para emplearlo en la búsqueda de las leyes que rigen un sistema físico ya que proporciona un método uniforme a seguir pa- ra con todas las interacciones. Primero se intenta buscar el Lagrangiano del sistema, después se resuelven las ecuaciones de Euler-Lagrange. Las relaciones entre las cantidades obtenidas son la descripción del sistema. Este método es 30
  • 34. el mismo para todas las interacciones de la naturaleza ya que las ecuaciones de Euler-Lagrange no cambian. Lo que cambia es el lagrangiano del sistema y es allí donde radica el problema del milenio que se está exponiendo. Encontrar un lagrangiano que sea válido físicamente (o en términos mate- máticos que cumpla con las condiciones de Poincaré) es algo que aún se está tratando de conseguir para la interacción fuerte. Ese no es el caso de la interac- ción electromagnética donde ya se ha demostrado que el lagrangiano conseguido (4.36) si cumple con esas condiciones. Esto ha sido posible en parte porque los portadores de fuerza de la inter- acción electromagnética no interactúan entre ellos y se pueden representar sus propiedades utilizando estructuras algebraicas mas sencillas y mejor entendidas lo que trae como consecuencia que se sabe como hacer esas demostraciones con dichas estructuras. 4.2 Aspectos cuánticos 4.2.1 Introducción Se había mencionado que escribir las leyes de la electrodinámica clásica en función de potenciales y simplificando con el calibre de Lorentz tal como se muestra en (4.18) era el punto de partida para 2 formulaciones: Una cuántica y una relativista.A continuación se muestra la formulación cuántica. Como se busca escribir las mismas leyes entonces se utilizarán las mismas ecuaciones. Lo que cambia es la manera como se representan las magnitudes físicas que aparecen en ellas. En este caso, dichas magnitudes ya no se modelarán con campos vectoriales sino con operadores vectoriales. A este proceso se le conoce como cuantización canónica. Sin embargo este es solo una parte de la descripción de un fenómeno cuán- tico. Porque el resultado final de resolver las ecuaciones que se presentarán a continuación es hallar los operadores vectoriales ϕ y A. Pero ¿en que ayuda el conocer estas cantidades a entender la evolución del sistema? En un sistema clásico se utilizarían estas cantidades para hallar los campos eléctrico (E) y magnético (B). Con esto se puede hallar la energía disipada o la fuerza electromagnética según (4.4). A su vez, conociendo la fuerza se pue- den conocer la evolución temporal de campos vectoriales de interés como la aceleración, velocidad y posición de una partícula bajo la acción de la fuerza electromagnética. Esto se logra sustituyendo el valor de la fuerza en ecuaciones de movimiento como la segunda ley de Newton, las ecuaciones de Euler-Lagrange o en el caso mas general usando la corrección relativista de estas ecuaciones. Con cualquier camino elegido se esta asumiendo la misma realidad física. Que es cierto que se puede determinar exactamente la evolución temporal de un sistema conociendo su estado inicial y las leyes de la naturaleza. Asumir este hecho tan cotidiano, permite intuitivamente a un jugador de béisbol ubicarse en el terreno de juego para aproximarse a donde el ”ve” que caerá la pelota incluso cuando esta todavía está ascendiendo. Sin embargo, esto no es tan cierto cuando 31
  • 35. las partículas en movimiento son mucho mas pequeñas que una pelota de béisbol, de hecho, cuando son tan pequeñas como un electrón. Como explica el principio de incertidumbre de Heisemberg no se puede de- terminar el estado de un sistema en un tiempo dado con total precisión. Cuando las dimensiones de las partículas son lo suficientemente pequeñas se percibe que lo mas que se puede conocer es la probabilidad de que un sistema se encuentre en un estado determinado. Y si no se puede conocer con total certeza donde caerá la pelota, tampoco se puede conocer con total certeza el camino que ella sigue mientras está en el aire. Esto quiere decir que si le tomáramos fotos sucesivas a esta hipotética pelota cuántica mientras cae no veríamos que sigue un solo camino, sino que veríamos que sigue varios caminos. Eso si, habrán caminos mas probables que otros en los que veríamos en las fotos que la pelota aparece con mas frecuencia que los demás. Al final todos caerían ya no en un solo punto del campo sino en una región mas probable. Para hallar la probabilidad con que la pelota de béisbol cuántica se encuentre en una región del campo de béisbol hay que sumar cada una de las probabilidades que tiene la pelota de seguir un camino determinado en el cielo. Cada uno de estos caminos puede involucrar distintos fenómenos físicos que dependen de las interacciones que ocurran con un tipo de partícula dado. Por ejemplo si la partícula es un electrón, entonces se verá afectada por el campo electromagnético existente en su trayectoria. La fuerza que experimente esta será diferente a la que ”siente” un gluón que no tiene carga eléctrica y por lo tanto no lo afecta el campo electromagnético pero si la interacción fuerte. Estamos hablando de que pueden haber fenómenos físicos diferentes a lo largo de cada uno de los caminos probables en la trayectoria de la partícula y por lo tanto cada uno de esos caminos que ella sigue se pueden dividir a su vez en secciones, cada una con su probabilidad de que ocurra. La probabilidad de que la partícula viaje por un camino es el producto de las probabilidades de que viaje por las secciones de ese camino. En cambio la probabilidad de que la partícula caiga en una región del campo es la suma de las probabilidades de todos los caminos posibles. El cálculo de la probabilidad total se tratará con los diagramas de Feymann en su correspon- diente capítulo. Pero cada sección de un determinado camino probable tiene su probabilidad de ocurrencia la cuál se debe calcular para poder calcular la probabilidad total. En cuántica, los operadores ϕ y A determinan esta probabilidad para cada sección de un solo camino. A continuación se expondrá como calcular esta probabilidad de cada sección de cada camino que como se dijo al principio de esta sección es tan solo una parte de la descripción de un fenómeno cuántico. Para hallar el resto de la descripción se utilizan los diagramas de Feymann. 32
  • 36. 4.2.2 Cuantización canónica de la electrodinámica. La extensión al a mecánica cuántica se realiza tomando las mismas ecuacio- nes (4.18) pero cambiando las siguientes definiciones: Primero, ϕ y A ahora son operadores vectoriales en el espacio de Hilbert. Segundo, J y ρ son densidades de corriente y carga de un campo de materia. Este campo a su vez está definido como la interacción del campo electro- magnético con el electrón de Dirac. El electrón de Dirac se representa con un campo espinorial denotado por ψ. El símbolo α son las tres primeras matrices contravariantes de Dirac. Esto resulta en las siguientes relaciones: J = −eψ† αψ (4.40) ρ = −eψ† ψ (4.41) Por lo tanto las ecuaciones que relacionan los potenciales ahora se pueden escribir en función del campo espinorial de Dirac ψ dando lugar a las ecuaciones de Maxwell cuánticas. 2 A − 1 c2 ∂2 A ∂2t = µ0eψ† αψ (4.42) 2 ϕ − 1 c2 ∂2 ϕ ∂2t = 1 0 eψ† ψ (4.43) (4.44) Ahora bien estas ecuaciones se pueden deducir con la mecánica lagrangiana de la cuál también se deducen las leyes que rigen otras interacciones como por ejemplo la interacción nuclear fuerte. Por esa razón se suele escribir esta teoría en términos de la densidad de lagrangiano de un sistema que al aplicarle las ecuaciones de Euler-Lagrange se obtienen las leyes de Maxwell par el caso de la interacción electromagnética. Las características del sistema descrito por la densidad de lagrangiano de- ben ser muy fundamentales, es decir, los demás casos se pueden tomar (al menos conceptualmente) como una superposición de este sistema. Las predicciones ob- tenidas son fundamentales porque se deben de cumplir en todos los demás casos en donde exista la interacción descrita. Por eso en la electrodinámica el sistema descrito por el lagrangiano esta conformado por 2 partículas cargadas que in- teraccionan entre si ya que cualquier otro fenómeno electromagnético se puede describir con otras distribuciones de carga que pueden ser continuas o discretas actuando como fuentes de los campos eléctrico y magnético y que pueden ser sumatorias o integrales de una partícula cargada. En términos de la mecánica cuántica la interacción electromagnética mas simple ocurre entre 2 partículas materiales cargadas en donde el campo generado entre ellas es de naturaleza discreta. Las determinación de las propiedades de las partículas de materia estén cargadas eléctricamente o no está regida por la estadística de Fermi-Dirac y por eso se les conoce como fermiones 33
  • 37. Por otro lado las distribuciones discretas de energía se pueden tomar co- mo paquetes o partículas de energía cuyas propiedades siguen la estadística de Bose-Einsten razón por la que se les conoce como bosones. El bosón emitido y recibido por las partículas de materia hace que estas sientan o se vean afectadas por la fuerza en cuestión por lo que estos bosones reciben la denominación de portadores o mediadores de la interacción. A modo muy general la diferencia mas importante entre bosones y fermiones es que los fermiones siguen el prin- cipio de exclusión de Pauli que ocasiona que los fermiones se pueden distinguir uno de otro entre si porque nunca van a tener todas y cada una de sus propie- dades físicas exactamente iguales. Un ejemplo de partículas afectadas por este principio son los electrones y es por eso que 2 electrones que ocupen el mismo orbital atómico se pueden distinguir uno de otro porque no pueden tener el mismo espín. Por lo tanto y dicho de modo muy simplista se necesita modelar a 2 fermiones interaccionando por medio de 1 bosón. los fermiones representan las 2 partículas cargadas de materia y el bosón mediador de la interacción electromagnética es el fotón. Entonces se modela la electrodinámica cuántica como una teoría de calibre cuyo grupo de simetría es U(1) y cuyo campo de calibre es el campo electromag- nético el cual media la interacción entre los campos cargados de espín igual a 1/2 , es decir, los fermiones o las partículas de materia cargadas eléctricamente. Nótese que tanto fotones como fermiones cargados son modelados como campos que a su vez se representan con operadores vectoriales. El lagrangiano de ese sistema es: L = ψ(iγµ Dµ − m)ψ − 1 4 Fµν Fµν (4.45) donde: • γµ : son las matrices de Dirac. • ψ: es un campo di espinorial para las partículas de espín 1/2. • ψ = ψ† γ0 es el adjunto de Dirac. • Dµ = ∂µ + ieAµ + ieBµ es la derivada de calibre covariante. • e: es la constante de acoplamiento. • m: es la masa del electrón o del positrón. • Aµ: es el cuadri potencial covariante del campo electromagnético auto inducido generado por el electrón. • Bµ: es el campo externo generado por la carga externa. • Fµν = ∂µAν − ∂νAµ es el tensor del campo electromagnético. 34
  • 38. A su vez las matices de Dirac están definidas como: γ0 =     1 0 0 0 0 1 0 0 0 0 −1 0 0 0 0 −1     (4.46) γ1 =     0 0 0 1 0 0 1 0 0 −1 0 0 −1 0 0 0     (4.47) γ2 =     0 0 0 −i 0 0 i 0 0 i 0 0 −i 0 0 0     (4.48) γ3 =     0 0 1 0 0 0 0 −1 −1 0 0 0 0 1 0 0     (4.49) Del lagrangiano se pueden deducir las ecuaciones de Maxwell cuánticas. A su vez, con ellas se pueden obtener los operadores vectoriales ϕ y A. Obtenidos estas expresiones, se puede calcular la probabilidad de que ocurra una sección de un solo camino de entre todos los caminos posibles. Siguiendo el mismo procedimiento pero con un lagrangiano diferente pro- ducto de una interacción diferente se puede hallar la probabilidad asociada a una sección de un camino posible entre partículas afectadas por la interacción fuerte. 4.2.3 Interacción fuerte Es una de las 4 interacciones fundamentales de la materia junto con la gra- vitatoria, electromagnética y débil. Mientras que los efectos de la interacción electromagnética se pueden ver a simple vista, los de la interacción fuerte solo se aprecian a escalas tan pequeñas que son invisibles a nuestros sentidos. Sin embargo, es la causante de 2 fenómenos que permiten nuestra existencia en el universo tal y como lo conocemos. A una escala mas grande, es decir, a distancias del orden de 10−15 m, es la causante de la fuerza fuerte residual. Esta es la fuerza que mantiene unidos a los protones y neutrones entre si, permitiendo la existencia del núcleo atómico en el interior del átomo. Para tener una idea de su intensidad, se puede ver como en un átomo de Helio es capaz de mantener unidos a 2 protones dentro de su núcleo a pesar de la fuerza electromagnética repulsiva que existe ente ellos porque tienen la misma carga eléctrica. Según la Ley de Coulomb esta fuerza repulsiva debe tener una magnitud muy grande por las cortas distancias a la que están los protones uno de otro. 35
  • 39. Esta es la razón de porque se libera tanta energía al romper el núcleo atómico en las reacciones nucleares. En esas reacciones se está rompiendo el enlace de la fuerza fuerte residual entre los protones y neutrones, enlace que debe ser muy fuerte para lograr mantener juntos a estas partículas. Esta fuerza afecta en general a cualquier partícula clasificada como hadrón (del griego hadros por denso o muy junto), es decir, a todas las partículas com- puestas de quarks. Los hadrones se clasifican como mesones (del griego mesos por mediano) si están compuestos de 2 quarks y bariones (del griego baryos por pesado) si lo están de 3 quarks. Entre los bariones están los nucleones, que son los integrantes del núcleo atómico (protones y neutrones). El enlace que mantiene unido al núcleo atómico es el intercambio de mesones entre los nucleones. Para entender como están relacionadas todas estas partículas entre si se ha ideado una teoría denominada Modelo Estándar de la Física de Partículas. Esta teoría modela con estructuras algebraicas las interacciones de estas partículas con los campos de fuerza que las afectan. Las operaciones entre los elementos de estas estructuras corresponden con fenómenos físicos. A su vez, de las propie- dades de estas estructuras se pueden conseguir las propiedades que deben tener estas partículas. Esto es exactamente lo que se hace con todos los modelos físicos pero las estructuras utilizadas son mas complejas que los típicos vectores en R+ que aparecen en la Mecánica Clásica para modelar las cantidades observables. Si bien este modelo explica las propiedades de las partículas partiendo de las simetrías presentes en una estructura algebraica, no es necesario saber esto para clasificarlas de una manera parecida a una tabla periódica de los elementos como se muestra en la figura 4.1. Es necesario tener presente este esquema para entender la terminología empleada en esta tesis para referirse a las diferentes partículas. El otro fenómeno en el cual participa la interacción fuerte ocurre a una escala mas pequeña, de menos de 0.7.10−15 m. Aquí, la interacción fuerte es la que mantiene unidos a los quarks que conforman un hadrón. Es decir que permite, por ejemplo, la formación de protones y neutrones al mantener unidos a 3 quarks. En este caso el enlace que mantiene unido al hadrón es el intercambio de gluones entre los quarks que conforman dicho hadrón. Actualmente se entiende que la fuerza fuerte residual es un efecto residual del mencionado intercambio de gluones entre quarks, el cual recibe el nombre de fuerza de color. De ahí que la rama de la mecánica cuántica que estudia las leyes que rigen esta fuerza se denomine cromo-dinámica cuántica ya que cromo es color en griego. Pero ¿a que color se refiere? No es al fenómeno que permite a nuestros ojos distinguir las distintas longitudes de onda de la luz que incide sobre ellos. Mas bien, se refiere a una propiedad de la materia tal como la masa o la carga eléctrica. Existe solo un tipo de masa que siempre ejerce una fuerza atractiva y que puede tomar infinitos valores continuos, por lo que se representa con el conjunto R+ . Por otra parte existen 2 tipos de carga eléctrica cuyos valores son múltiplos de un número real denominado e. Es bien conocido que cargas eléctricas de un mismo tipo se repelen pero cargas opuestas se atraen. Por esa razón se denominó 36
  • 40. Figura 4.1: Modelo estándar de partículas elementales 37
  • 41. a un tipo como carga positiva y al otro como carga negativa. Las cargas positivas se representan como elementos del conjunto R+ y las negativas como elementos de R− . La operación multiplicación usual en R representa lo que pasa cuando 2 partículas cargadas interaccionan, es decir, si la fuerza entre ellas será atractiva o repulsiva. La operación suma usual en R representa el efecto que tienen varias partículas cargadas sobre un punto del espacio, es decir, lo que se conoce como principio de superposición. En el caso de la propiedad color o carga de color existen 2 tipos de carga pero que solo pueden tomar 3 valores diferentes cada una. Por convención esto se representa con los elementos del conjunto {R, G, B} para un tipo al que llamaremos color y con {R, G, B} para el otro tipo denominado anti-color. Representar las cargas de color con esas siglas es una alusión nemotécnica a el nombre en inglés de los 3 colores visibles al ojo humano, a saber, R por red o rojo, B por blue o azúl y G por green o verde. Pero ¿cuales se atraen y cuales se repelen? Y ¿Que ocurre cuando se su- perponen? La figura 4.2 contiene un esquema de la observación experimental donde se aprecian las líneas de campo entre los distintos colores y también el color resultante de cada superposición. Se puede ver que las líneas de campo no divergen, es decir, se dibujan de manera que salen de una partícula con color y terminan en otra partícula con color dentro del mismo dibujo. La razón es que la interacción atractiva entre los gluones que ”viajan” por cada línea hace que estas líneas quieran estar muy juntas. Esta interacción atractiva causa que una partícula no emita su campo gluónico radialmente hacia afuera como si fuera un campo eléctrico, sino que se parezca en este aspecto al campo magnético que tampoco diverge. Otro detalle proporcionado por la forma de las líneas de campo es que estas salen de un color y terminan en un anti-color como ocurre con el campo mag- nético haciendo que la contribución total sea nula. A esto se le conoce como neutralidad binaria. Pero también, y a diferencia del campo magnético, si se tienen 3 partículas cada una con 3 colores diferentes, las líneas de campo producidas por cada partícula terminan en otra de otro color haciendo que la contribución de las 3 partículas sea nula. Esto se denomina neutralidad ternaria. Cuando se examinan esquemas como 4.2 siempre hay que saber que son solo simplificaciones cualitativas de aserciones también cualitativas. Estas asercio- nes provienen de la observación experimental. Si se quiere extraer información cuantitativa de la evidencia experimental se deben formular teorías en lenguaje matemático, para poder mediante reglas lógicas conseguir los valores numéricos buscados. En la mecánica cuántica estos valores no son la posición o velocidad de una partícula como por ejemplo, un quark. Mas bien, son valores esperados de la masa, trayectoria, carga eléctrica, y en general, del comportamiento de todos los quarks con las mismas propiedades físicas que el ejemplo que se esté estudiando. En el caso de la interacción fuerte, al hallar los valores permitidos de color según las distintas reglas que se van a plantear se puede predecir si es posible o no que ciertas combinaciones de quarks y gluones existan de manera libre en la 38
  • 42. B - B R G B B - R - G - G BG R B - G - R - G - G R - R Figura 4.2: Superposición de colores y líneas de campo de la interacción fuerte para bariones y mesones. naturaleza. Recordemos que los quarks son al resto de partículas de la naturaleza como lo son los ladrillos de una casa a la casa por lo que es importante saber que combinaciones de ellos son posibles. Observaciones experimentales A continuación, se planteará en palabras las aserciones que se han asumido como ciertas para la fuerza de color basándose en la observación experimental: 1. El color es un invariante, es decir, no se crea ni se destruye en un proceso físico dado. 2. El color tiene neutralidad binaria. Es decir, la contribución total de una partícula que tenga un color y un anti-color es nula en un punto fuera de ella misma. 3. El color tiene neutralidad ternaria. Es decir, una partícula formada por 3 partículas de colores diferentes también tiene una contribución nula al campo presente en un punto fuera de ella. 4. Cuando los quarks poseen un anti-color se les denomina anti-quarks. 5. Los gluones transportan un color y un anti-color al mismo tiempo. 6. Los mesones siempre van a estar formados por un quark y su correspon- diente anti-quark, es decir, el anti-quark porta el anti-color correspondien- te al color del primer quark. 39
  • 43. 7. Los bariones siempre están formados por quarks con el mismo tipo de color. Si están formados por anti-quarks son anti-bariones. 8. Confinamiento del color: las partículas libres no pueden tener un color neto. Por eso los bariones y mesones pueden encontrarse como partículas libres pero no sucede así con los quarks y gluones individuales. 9. Libertad asintótica. A medida que los quarks y los gluones se acercan unos a otros la interacción de color entre ellos tiende a ser nula. La consecuencia de esto es que el movimiento de estas partículas en el interior de por ejemplo un protón, se debe asemejar al movimiento de una partícula libre. Eso si, están limitadas a un volumen que es precisamente el volumen de un protón debido al confinamiento del color que no permite que las partículas con color neto viajen libremente por el espacio. 10. En realidad no se puede determinar los colores presentes en una partícu- la con total exactitud sino solo su estado de color. Este estado de color colapsa a un color cuando se efectúa la medición en una partícula. Para explicar el último punto se examinará nuevamente el caso de un quark. Este en realidad no porta un determinado color todo el tiempo. Mas bien, se encuentra en un estado en donde si pudiésemos medir que color tiene un quark en un instante obtendremos un color. Pero si lo medimos en otro instante obten- dremos otro color. Solo si midiésemos su color muchas veces veríamos un patrón en cuanto al color que aparece en cada medición. Habrán colores mas probables que otros y esa probabilidad depende de en que estado se encuentre el quark. Ese estado puede cambiar, ya que depende de las interacciones con las demás partículas del sistema. Pero al conocer las interacciones ocurridas, el estado de cada partícula se puede calcular. Esa es la misión de la mecánica cuántica, encontrar el estado de las partículas elementales y suponer que los estados de partículas mas complejas como proto- nes, átomos, moléculas, estrellas o incluso el universo entero son superposiciones de los estados de las partículas que lo integran. Ahora bien, para el caso específico de la cromo-dinámica cuántica... ¿Con que estructura matemática se puede modelar el estado de color de una partícula? Para elegirla se puede comenzar describiendo el estado de color de un gluón. Descripción del estado de color de un gluón Se sabe que estos llevan siempre un color y un anti-color. Sus posibles com- binaciones están en el cuadro 4.1. RR RG RB GR GG GB BR BG BB Cuadro 4.1: Posibles combinaciones de color de un gluón. 40
  • 44. R G B R 0 0 1 G 0 0 0 B 1 0 0 Cuadro 4.2: Tabla de la verdad del estado de un gluón. Para representar uno de los estados posibles de un gluón se puede utilizar una tabla parecida a una tabla de la verdad cuyas filas sean los colores y cuyas columnas sean los anti-colores de manera que coincidan con el cuadro 4.1, tal como se ve en la tabla 4.2. Los valores posibles son 0 y 1. La tabla de la verdad del estado de un gluón se puede representar también como una matriz tal como la siguiente:   0 0 1 0 0 0 1 0 0   (4.50) Notación de Dirac Sabiendo lo que significa cada fila y columna se puede leer este estado en notación de Dirac como (RB+RB) √ 2 . Por motivos didácticos, en este caso, se utili- zaron colores sobre los símbolos para relacionarlos con los colores que aparecen en el cuadro 4.1, sin embargo, la notación de Dirac no contiene dichos colores. Ahora bien, para entender está notación hay que definir los siguientes con- ceptos: Definición 4.13. Sea H un espacio de Hilbert sobre un cuerpo F. Entonces h ∈ H es un vector denotado por |h y denominado ket h. (Esto se hace para dejar el término vector solo en el caso de que se trate de un elemento del espacio euclídeo ya sea R3 o R4 ). Definición 4.14. H∗ es el espacio dual de H, es decir, el espacio de funciones lineales de H. Definición 4.15. El producto interno es el isomorfismo φ : H → H∗ dado por φ(h) = φh, donde para todo g ∈ H entonces φh(g) = h|g . Para 2 funciones φ, ϕ ∈ H, entonces φ|ϕ = φ(x) · ϕ∗ (x)dx (4.51) Definición 4.16. Un operador es un mapa que recibe de entrada un ket y produce otro ket. 41
  • 45. Definición 4.17. Un operador lineal es un mapa que cumple con los axiomas de linealidad usuales para un mapa lineal. En este caso son: |A + B = |A + |B (4.52) |αA = α |A (4.53) Donde |A , |B ∈ H y α ∈ F En notación de Dirac dados un operador lineal ˆA y un ket |φ entonces ˆA |φ es también un ket. Si el espacio donde están definidos los ket es Cn , entonces los ket se pue- den representar como matrices de n filas y 1 columna. A su vez, los bra se representarían como matrices de 1 fila y n columnas. Esta notación es la que se utilizará en este artículo para representar los estados de color de las partículas. Estados posibles del gluón en notación de Dirac Por lo tanto, retomando el caso del gluón en un estado específico, se puede ver que si se efectuara una medición en el gluón cuyo estado de color es descrito por la matriz (4.50), este tendría igual probabilidad de encontrarse portando el color R junto con el anti-color B o, en vez de eso, portando el anti-color R y el color B. De esta manera se pueden representar todos los demás estados posibles de un gluón. Al conjunto de matrices resultantes se le conoce como matrices de Gell-Mann y sus elementos son: λ1 =   0 1 0 1 0 0 0 0 0   λ2 =   0 −i 0 i 0 0 0 0 0   λ3 =   1 0 0 0 −1 0 0 0 0   λ4 =   0 0 1 0 0 0 1 0 0   (4.54) λ5 =   0 0 −i 0 0 0 i 0 0   λ6 =   0 0 0 0 0 1 0 1 0   λ7 =   0 0 0 0 0 −i 0 i 0   λ8 = 1 √ 3   1 0 0 0 1 0 0 0 −2   Ellas pueden representar a los 8 tipos de gluones que en notación de Dirac son: 42
  • 46. RG + GR √ 2 − i RG − GR √ 2 RB + BR √ 2 − i RB − BR √ 2 (4.55) GB + BG √ 2 − i GB − BG √ 2 RR − GG √ 2 1 √ 3 RR + GG − 2BB √ 2 Nótese como son 8 valores posibles en vez de 9. Esto es así porque experimen- talmente no se han encontrado gluones en el estado RR+GG+BB√ 2 , denominado estado de singlete el cuál corresponde a la matriz 1 0 0 0 1 0 0 0 1 El estado de singlete es el estado en el cual se encuentran los mesones, y bariones. Las partículas en este estado no interaccionan con partículas que estén en los demás estados. Es decir, no interaccionan con quarks y gluones individuales. Si aplicamos la misma noción usada para representar los estados de color de un gluón con una tabla de la verdad como la tabla 4.2, solo que aplicándola para representar el estado de color de un quark, vemos que este se puede representar como un vector columna donde cada fila corresponde a un color. Un ejemplo de esto es el vector 1 0 0 que se interpreta como un quark con color R. En el caso de un anti-quark siguiendo la notación de la tabla 4.2 en donde los anti- colores son columnas, entonces sus estados de color se pueden representar como vectores filas. Un ejemplo de esto es el vector 1 0 0 donde se puede leer que el anti-quark posee el anti-color R. Todas las matrices de Gell-Mann se pueden denotar como λi donde i ∈ N en el intervalo [1, 8]. Todas ellas son matrices de 3 × 3 sin traza y hermíticas por lo que pueden generar elementos del grupo de matrices unitarias. Este grupo tiene un nombre especial, a saber, U(1) por la frecuencia con la que se le encuentra una aplicación científica, y contiene a todas las matrices de 3×3 de determinante 1. Si a esto último se le añade la condición de que las matrices deben ser sin traza, entonces el grupo se denomina SU(3). Lagrangiano de la interacción fuerte Siguiendo la notación de escribir las matrices de Gell-Mann como λi enton- ces se puede formular una expresión para un campo equivalente al cuadri-vector campo A para el campo electromagnético. Ya vimos como A tiene una 4 com- ponentes, 1 temporal asociada al potencial escalar y 3 espaciales asociadas al potencial vector. 43
  • 47. De esta misma manera se puede escribir el campo gluónico pero deben to- marse en cuenta los 8 tipos de gluones que existen. Esto se hace escribiendo la expresión del campo de la siguiente manera: An = (r, t) = [An 0 (r, t), An 1 (r, t), An 2 (r, t), An 3 (r, t)] = φn (r, t), An (r, t) (4.56) donde: • n ∈ {1, 2, 3, 4, 5, 6, 7, 8} • An es el campo gluónico generado por el gluón de tipo n. • r: es la posición del gluón generador del campo. • t: es el tiempo. • φn : es el potencial escalar gluónico. • An: es el potencial vector gluónico. Para encontrar el campo gluónico generado por todos los gluones se parte del hecho de que las matrices de Gell-Mann son generadores del grupo SU(3). A su vez se sabe que los generadores de un grupo tienen la propiedad matemática de que forman una base de un campo vectorial por lo que el campo gluónico debido a los 8 gluones se debe a una superposición de los 8 gluones posibles, o mejor dicho, de los 8 estados de color posibles para los gluones. Para lograr obtener la expresión matemática se utilizan las matrices de Gell- Mann de la siguiente manera: Por conveniencia: ta = λa 2 Cada componente del campo gluónico es una matriz de 3 × 3: Aα = taAa α = t1A1 α + t2A2 α + t3A3 α + t4A4 α + t5A5 α + t6A6 α + t7A7 α + t8A8 α O escribiendo la expresión anterior como un cuadri-vector de matrices de 3 × 3: A = A0, A1, A2, A3 El campo gluónico total es: A = taAa Una cuestión adicional que hay que considerar es el significado de 3 canti- dades bajo el contexto de la Cromo-dinámica Cuántica y mas generalmente del Modelo estándar de la física de partículas, a saber: 44
  • 48. • Un vector es un objeto que se transforma como un cuadri-vector bajo transformaciones de Lorentz. • Un escalar es un objeto que es invariante bajo transformaciones de Lo- rentz. • Un espinor es un objeto que se transforma como un vector en el contexto del Modelo Estándar bajo transformaciones de Lorentz excepto por un detalle: Que ante una rotación, este rota solo la mitad del ángulo que rotaría un vector. Basándose en los conceptos anteriormente expuestos se puede escribir una expresión matemática que describa la interacción que tiene una partícula con un campo de fuerza de color. Esta interacción depende del estado de color que posea la partícula misma. La expresión mas simple que satisface todos los requisitos anteriormente expuestos es la siguiente: LQCD = ψ(i(γµ Dµ)ij − mδij)ψj − 1 4 Ga µνGµν a (4.57) donde: • ψi(x): es el campo de un quark indexados por i y j. • Dµ: es la derivada covariante de calibre. • γµ : son las matrices de Dirac que conectan los espinores con los vectores bajo transformaciones de Lorentz. • Ga µν = ∂νAa µ + gfabc Ab µAc ν. • Aa µ: son los campos gluónicos. • fabc : Son las constantes de estructura del grupo SU(3). Este lagrangiano permite conocer como se comporta el estado de color de una partícula bajo la acción de un campo de fuerza de color. Ahora bien, para conocer el comportamiento de la partícula hay que formular el lagrangiano de una partícula con un término de energía cinética y otro de energía potencial. El término que da cuenta de la energía potencial debe incluir los potenciales producidos por todas las fuerzas a las cuales la partícula se ve sometida. Por ejemplo en el caso de un quark, este se ve bajo la acción de la fuerza electromagnética, la fuerza débil y la fuerza de color, así que esto se debe añadir a la expresión del lagrangiano para un quark. No pasa lo mismo con un gluón ya que solo interactúa con partículas que tengan estados de color diferentes al estado de singlete. Se ve entonces que no todas las partículas interaccionan con las 3 fuerzas. Debido a esto, la expresión potencial en el lagrangiano es dividida en sectores. Estos sectores son: 45
  • 49. • El sector electro-débil que describe la interacción de una partícula un campo de fuerza electromagnética y fuerza débil. • El sector cromo-dinámico que describe la interacción de la misma par- tícula pero con un campo de fuerza de color. • Los términos de masa explican como las partículas mas masivas decaen en partículas con menos masa. También como todos los portadores de la fuerza electro-débil, en realidad son partículas sin masa pero, excepto por el fotón, adquieren masa por medio de un proceso conocido como mecanismo de Higgs. • Las partículas fantasma de Higgs llevan cuenta de ciertas redundancias que aparecen con la interacción entre las partículas con campos extraños producto del mecanismo de Higgs. • Los fantasmas de Faddeev-Popov llevan cuenta de las redundancias causadas por las interacciones electro-debiles. Saber que partícula interactúa con cual fuerza depende de las propiedades materiales presentes en la partícula y esta información puede ser extraída del lagrangiano. Una representación esquemática que deriva de esto es la figura 4.3. Por lo tanto se puede ver que no se está considerando el comportamiento de una partícula, que equivale a estudiar el lagrangiano completo sino solo el comportamiento de una de las interacciones que pueden llegar a afectar una partícula (el sector cromo-dinámico). Entonces, ¿Que probabilidad tiene la partícula X de experimentar un proce- so? La respuesta se consigue al resolver el lagrangiano asociado de esa partícula. Pero una partícula puede experimentar múltiples procesos a la hora de pa- sar de un estado a otro. A la secuencia de estos procesos dependientes se le denomina un camino. A su vez, una partícula puede tomar distintos caminos al cambiar de estado. La probabilidad de que tome un camino u otro depende de las probabilidades de los procesos que los componen. Entonces, ¿que probabili- dad tiene la partícula X de tomar un camino para cambiar de un estado a otro? La respuesta se considera en el capítulo denominado integrales de Feynman. 46
  • 50. Figura 4.3: Resumen de las interacciones entre las partículas elementales según el Modelo Estándar. 47
  • 51. Capítulo 5 Integrales de Feynman 5.1 Introducción Todas las partículas fundamentales están determinadas por sus propieda- des físicas. Cada propiedad posee un valor. Este valor es un elemento de un conjunto de posibles valores para esa propiedad. Al juego de valores que tiene la partícula en un tiempo determinado se le llama el estado de la partícula. Como se puede ver, en general, todas las propiedades a la larga dependen del tiempo. Cuando transcurre un intervalo de tiempo estas propiedades pueden cambiar, o mejor dicho, pueden cambiar los valores presentes en ellas. Entonces se dice que la partícula cambió de estado o que pasó de un estado inicial a uno final. 5.2 Probabilidad Para que una partícula pase de un estado A a un estado B necesita experi- mentar una secuencia de procesos físicos. A esta secuencia se le conoce como camino. Cuando una partícula cambia de estado puede hacerlo por uno u otro camino donde habrán caminos mas probables que otros. En la Mecánica Clásica se puede determinar que camino tomará la partícula con total precisión, es decir, solo hay un camino posible, y los demás no son posibles. No es ese el caso de la Mecánica Cuántica donde a lo sumo se conocerá la probabilidad de que la partícula tome un camino u otro. Al tomar en cuenta todos los caminos posibles se puede saber que probabilidad tiene realmente la partícula de llegar al estado B si se encuentra actualmente en el estado A. Para averiguar la probabilidad de que la partícula pase del estado A al B se utiliza la siguiente ecuación: P = |S|2 (5.1) 48
  • 52. donde S es la amplitud de probabilidad y P la probabilidad de que ocurra el evento. Cabe destacar que S es un número complejo porque es una amplitud de probabilidad en vez de una probabilidad. A su vez, S es la suma de todos los caminos probables. Como cada ampli- tud de probabilidad de que la partícula tome un camino es independiente de que tome otro camino, entonces las amplitudes de probabilidad se suman. Esto ocurre en el caso de los eventos independientes. En términos matemáticos se escribe de la siguiente manera: S = i pi (5.2) donde cada pi es la amplitud de probabilidad que tiene la partícula de tomar un camino i. Cada camino i puede ser un proceso complejo que se puede dividir en pro- cesos mas simples. Cada uno de estos procesos depende de lo que haya ocurrido anteriormente con la partícula en el camino, es decir, depende de los procesos anteriores. Entonces los procesos son eventos dependientes entre si. En este caso la amplitud de probabilidad asociada al camino es el producto de las am- plitudes de probabilidad de cada proceso que lo compone. Cada una de estas amplitudes de probabilidad se calcula al resolver las ecuaciones de movimiento que se deducen del lagrangiano de la partícula. Siguiendo la metodología de presentar primero el caso mas sencillo como introducción al caso de estudio, primero se analizará este asunto para la elec- trodinámica cuántica. Después se utilizarán los mismos conceptos para mostrar como se calculan las probabilidades con eventos donde esté involucrada la in- teracción fuerte. 5.3 Diagramas de Feynman Los procesos mas simples de un determinado evento se pueden representar gráficamente gracias a los diagramas de Feynman. En estos se dibuja un camino o la sección de un camino, seguido por unas partículas en un plano xy. El eje x u horizontal se corresponde al espacio mientras que el eje y o vertical representa al tiempo. En el caso de la electrodinámica cuántica los procesos mas simples que se pueden encontrar son 3[8], y se pueden representar en los diagramas de Feynman siguiendo estas convenciones: • Una línea ondulada representa a un fotón que se desplaza desde un punto en el espacio tiempo hasta otro punto en el espacio tiempo. • Una línea recta representa a un electrón que se desplaza desde un punto en el espacio tiempo hasta otro punto en el espacio tiempo. 49
  • 53. Figura 5.1: Desplazamiento de un fotón. Figura 5.2: Desplazamiento de un fermión. Figura 5.3: Absorción de un fo- tón por un electrón. • La unión de una línea recta con una ondulada en un punto del plano representa un electrón que emite o absorbe un fotón en algún punto del espacio tiempo. La representación de cada proceso simple se encuentra en la figura 5.3. Con esta representación visual se puede saber cual proceso es experimentado antes o después por la partícula si esta toma un determinado camino. También cuales procesos son posibles y cuales no. Además ayudan a entender lo que esta ocurriendo de una manera mas sencilla que observando una expresión matemá- tica. Sin embargo, los diagramas de Feynman aportan mas que solo información cualitativa. 5.4 Reglas de Feynman Gracias a las reglas de Feynman cada diagrama corresponde a una expre- sión matemática que una vez resuelta aportará información cuantitativa acerca del fenómeno físico. Esta información es la amplitud de probabilidad asociada a cada camino posible que puede tomar la partícula cuando pasa de un estado a otro. En la electrodinámica cuántica los fenómenos mas comunes tienen que ver con colisiones y dispersiones de partículas (scattering). En el estudio de estos fenómenos es mas importante conocer el momentum o cantidad de movimiento de las partículas que sus posiciones. Por lo tanto es conveniente modificar la interpretación de los diagramas de Feynman. Es decir, los mismos diagramas representan otros procesos físicos que 50
  • 54. α β −→ i /p−m+iε µ ν −→ −iηµν p2+iε α β µ −→ −ieγµ βα (2π) 4 δ(4) (p1 + p2 + p3) α −→ (uα(p, s)) α −→ (¯vα(p, s)) α −→ (¯uα(p, s)) α −→ (vα(p, s)) µ −→ µ k, λ µ −→ µ k, λ ∗ Figura 5.4: Reglas de Feynman para la electrodinámica cuántica son comunes en la teoría de dispersión. Ahora, una línea continua se lee como un electrón que tiene un momentum en un instante de tiempo dado y una línea ondulada representa lo mismo para un fotón. Por su parte un vértice representa la aniquilación de un electrón y la creación de otro junto con la absorción y creación de un fotón. Siguiendo esta convención las reglas de Feynman para el caso de la teoría de dispersión en la electrodinámica cuántica son como aparecen en la figura 5.4. Para ilustrar como se utilizan estas reglas, ellas se aplicarán al fenómeno conocido como dispersión de Compton donde un electrón y un fotón experi- mentan una colisión elástica. El diagrama de Feynman correspondiente aparece en la figura 5.5. Entonces la amplitud de probabilidad para el término de primer orden de la serie de perturbación de la matriz de dispersión o S-Matriz es: Mfi = (ie)2 ¯up s / (k , λ )∗ /p + /k + me (p + k)2 − m2 e /(k, λ)u(p, s) + (ie)2 ¯u(p , s ) (k, λ) /p + /k + me (p − k ) 2 − m2 e /(k , λ )∗ u(p, s) (5.3) Una vez hallada la amplitud de probabilidad Mfi se puede calcular la sección 51
  • 55. Figura 5.5: Caption µ, a ν, b −→ −iδab gµν k2+i − (1 − ξ) kµkν (k2)2 Figura 5.6: Propagación de un gluón. eficaz de este proceso de dispersión lo que nos dirá la probabilidad de que este proceso descrito por la figura 5.5 llegue a ocurrir. El método para hallar la sección eficaz queda fuera del alcance de esta tesis. 5.5 Diagramas de Feynman y la cromo-dinámica cuántica. Para representar los procesos que ocurren debido a la interacción fuerte se siguen las siguientes convenciones: • Los quarks se representan con la misma representación usada para los demás fermiones en la electrodinámica cuántica. Esto es, una línea sólida con una flecha en la dirección de crecimiento del tiempo. La etiqueta del quark en el diagrama indicará el sabor de este. • Los anti-quarks se representan igual que las demás anti-partículas, con una flecha en la dirección contraria al crecimiento del tiempo. • Los gluones se representan con una espiral tal como aparece en el diagrama 5.6 • Los piones se representan con una línea punteada. Esto aplica también para todos los bosones escalares. Los piones aparecen en el caso de la fuerza fuerte residual como mediadores de dicha fuerza. Estos no serán considerados en el presente trabajo. 52