Este documento presenta tres problemas matemáticos aún sin resolver: 1) P versus NP, que consiste en determinar si la inclusión entre las clases de complejidad P y NP es estricta. 2) La conjetura de Hodge, que dice que para variedades algebraicas proyectivas, los ciclos de Hodge son una combinación lineal racional de ciclos algebraicos. 3) La existencia de Yang-Mills del salto de masa, que describe partículas con masa positiva que poseen ondas clásicas que viajan a la velocidad de la luz.
El documento habla sobre la teoría de la computación. Explica que estudia los procesos abstractos que ocurren en la realidad y cómo pueden ser reproducidos a través de sistemas formales como computadoras. También describe las principales ramas de esta teoría como la teoría de autómatas, teoría de la computabilidad, teoría de la complejidad computacional y otros temas. Finalmente, resume brevemente la historia del desarrollo de esta disciplina y sus principales contribuidores.
El problema de las jarras de agua tema 6 prologOscar Roberto
Este documento presenta la solución al problema de las jarras de agua utilizando programación lógica. Primero introduce conceptos teóricos como teoría de grafos, árboles y búsqueda por profundidad y amplitud. Luego describe el problema y la solución mediante algoritmos y un código en Prolog. Finalmente concluye que la programación lógica es una herramienta poderosa para resolver este tipo de problemas lógicos.
El documento describe la técnica de programación dinámica. Presenta sus elementos clave como el principio de optimalidad de Bellman y la definición recursiva de la solución óptima. Explica cómo se calcula la solución óptima de forma ascendente mediante la memorización de soluciones a subproblemas. Incluye ejemplos como la multiplicación de matrices y el problema de la mochila.
El documento describe las clases de complejidad P, NP y NP-completo. La clase P incluye problemas que pueden resolverse en tiempo polinómico usando una máquina de Turing determinista. La clase NP incluye problemas que pueden comprobarse en tiempo polinómico. La clase NP-completo contiene los problemas NP más difíciles, que son igualmente difíciles de resolver.
Este documento presenta un libro sobre lógica para informática. El libro contiene cuatro capítulos que cubren lógica proposicional, lógica de predicados, lógica modal y lógica de programas, escritos por tres autores. Cada capítulo introduce conceptos básicos, sintaxis, semántica y mecanismos formales de razonamiento para el tipo de lógica correspondiente. El libro provee una introducción completa a diferentes áreas de la lógica formal relevante para la informática.
Este documento presenta una introducción a la lógica matemática. Explica que la lógica estudia el razonamiento y permite determinar si un argumento es válido. Se define una proposición y se introducen los conectivos lógicos and, or y not para formar proposiciones compuestas. También se explican las proposiciones condicionales y bicondicionales con sus tablas de verdad correspondientes. El objetivo final es que los estudiantes aprendan a realizar demostraciones formales mediante métodos directos y por
Problema de la ocho reinas. Implementación en Prolog.Mayra Villanueva
Este documento presenta el problema de las ocho reinas en ajedrez y su implementación en Prolog. Brevemente describe el problema, que consiste en colocar 8 reinas en un tablero de ajedrez de manera que ninguna esté amenazando a otra. Luego introduce conceptos clave como backtracking y búsqueda en profundidad que son utilizados para desarrollar un algoritmo y programa en Prolog que encuentre todas las posibles soluciones al problema de colocar N reinas en un tablero de ajedrez de dimensión N.
El documento habla sobre la teoría de la computación. Explica que estudia los procesos abstractos que ocurren en la realidad y cómo pueden ser reproducidos a través de sistemas formales como computadoras. También describe las principales ramas de esta teoría como la teoría de autómatas, teoría de la computabilidad, teoría de la complejidad computacional y otros temas. Finalmente, resume brevemente la historia del desarrollo de esta disciplina y sus principales contribuidores.
El problema de las jarras de agua tema 6 prologOscar Roberto
Este documento presenta la solución al problema de las jarras de agua utilizando programación lógica. Primero introduce conceptos teóricos como teoría de grafos, árboles y búsqueda por profundidad y amplitud. Luego describe el problema y la solución mediante algoritmos y un código en Prolog. Finalmente concluye que la programación lógica es una herramienta poderosa para resolver este tipo de problemas lógicos.
El documento describe la técnica de programación dinámica. Presenta sus elementos clave como el principio de optimalidad de Bellman y la definición recursiva de la solución óptima. Explica cómo se calcula la solución óptima de forma ascendente mediante la memorización de soluciones a subproblemas. Incluye ejemplos como la multiplicación de matrices y el problema de la mochila.
El documento describe las clases de complejidad P, NP y NP-completo. La clase P incluye problemas que pueden resolverse en tiempo polinómico usando una máquina de Turing determinista. La clase NP incluye problemas que pueden comprobarse en tiempo polinómico. La clase NP-completo contiene los problemas NP más difíciles, que son igualmente difíciles de resolver.
Este documento presenta un libro sobre lógica para informática. El libro contiene cuatro capítulos que cubren lógica proposicional, lógica de predicados, lógica modal y lógica de programas, escritos por tres autores. Cada capítulo introduce conceptos básicos, sintaxis, semántica y mecanismos formales de razonamiento para el tipo de lógica correspondiente. El libro provee una introducción completa a diferentes áreas de la lógica formal relevante para la informática.
Este documento presenta una introducción a la lógica matemática. Explica que la lógica estudia el razonamiento y permite determinar si un argumento es válido. Se define una proposición y se introducen los conectivos lógicos and, or y not para formar proposiciones compuestas. También se explican las proposiciones condicionales y bicondicionales con sus tablas de verdad correspondientes. El objetivo final es que los estudiantes aprendan a realizar demostraciones formales mediante métodos directos y por
Problema de la ocho reinas. Implementación en Prolog.Mayra Villanueva
Este documento presenta el problema de las ocho reinas en ajedrez y su implementación en Prolog. Brevemente describe el problema, que consiste en colocar 8 reinas en un tablero de ajedrez de manera que ninguna esté amenazando a otra. Luego introduce conceptos clave como backtracking y búsqueda en profundidad que son utilizados para desarrollar un algoritmo y programa en Prolog que encuentre todas las posibles soluciones al problema de colocar N reinas en un tablero de ajedrez de dimensión N.
The Houston Club is a private event venue located in downtown Houston that offers wedding and event packages. The document provides testimonials from satisfied clients praising the venue's food, service, and views of the city skyline. It also includes information on their various reception packages, room capacities, sample menus, and enhancements. The Houston Club strives to make events seamless and stress-free through their experience and assistance in planning weddings and social events.
El documento describe un taller práctico sobre 10 claves para la implementación de tendencias y enfoques innovadores en la enseñanza. El taller tiene como objetivo ayudar a los docentes a identificar los cambios necesarios para incorporar las TIC en el aula y currículo, y desarrollar las habilidades requeridas para el nuevo paradigma educativo basado en la tecnología. El taller se centra en temas como la creatividad docente, las nuevas competencias del siglo 21 y la aplicación de enfoques pedagógicos y tecnológicos innov
Este documento presenta un taller práctico sobre 10 claves para la implementación de tendencias y enfoques innovadores en la enseñanza. El taller tiene como objetivo ayudar a los docentes a identificar los cambios necesarios para incorporar las TIC al aula y currículo. A través de estrategias individuales y colaborativas, el taller busca que los docentes desarrollen las habilidades para contribuir al nuevo paradigma educativo propuesto por las TIC.
This document discusses contract management and contract lifecycle management. It provides an overview of available tools like contract templates and contract management software. It describes contracts as documents that represent rights and obligations over time. Effective contract management can cut cycle times, boost productivity, and ensure compliance. Contract lifecycle management bridges the gap between the theoretical contract and its real-world performance by providing a structured, cradle-to-grave process for contract creation, execution, and management. Key aspects of contract lifecycle management software include tracking contracts through their entire lifespan, managing milestones and obligations, and providing reports. The document lists legal department contacts for different contract and legal issues.
Este documento describe diferentes tipos de virus informáticos como virus de boot, gusano, caballo de Troya, bomba lógica, hoax y virus residente. Explica sus características principales como infectar la partición de arranque, propagarse sin ayuda de usuarios, esconderse en programas legítimos, activarse bajo ciertas condiciones, carecer de código malicioso pero propagar desinformación, y esconderse en la memoria RAM para infectar archivos.
Three customers provided positive feedback on events hosted at The Houston Club. Melissa K thanked the staff for their attention to detail and support in making her event successful. Robert E said their server was excellent and the facilities and food met their meeting needs. Mark Y appreciated the staff's responsiveness in finalizing details, ensuring dietary restrictions were met, and believed the positive feedback would not have been possible without their help.
The document discusses the student's experiences in their first semester college courses. They completed various assignments including a service learning project helping their church, writing a letter with advice for next year's class, and a scavenger hunt to learn campus locations. Journal entries helped the student improve self-motivation and identify strengths and weaknesses. Self-assessment scores increased in most areas. The main lessons taken from the course were improving self-motivation through goal-setting, continually self-assessing to improve weaknesses, and effective study techniques. The student's goals are to choose a major, graduate from a four-year university, get a well-paying job, own a house, and start a family.
El documento describe diferentes tipos de virus informáticos como virus, gusanos, caballos de Troya, bombas lógicas y hoaxes. Explica que un virus es un programa malicioso que se propaga infectando otros archivos, mientras que un gusano se propaga a otras computadoras de forma autónoma. También describe caballos de Troya, bombas lógicas, hoaxes y puertas de enlace. Finalmente, explica los tipos de virus de sobreescritura y residentes.
Este documento presenta tres problemas matemáticos aún sin resolver: 1) P versus NP, que consiste en determinar si la inclusión entre las clases de complejidad P y NP es estricta. 2) La conjetura de Hodge, que dice que para variedades algebraicas proyectivas, los ciclos de Hodge son una combinación lineal racional de ciclos algebraicos. 3) La existencia de Yang-Mills del salto de masa, que describe partículas con masa positiva que poseen ondas clásicas que viajan a la velocidad de la luz.
Este documento presenta un método para aprender la guitarra de manera más efectiva mediante la división del material en "pedazos cortos y sólidos" que se puedan dominar individualmente y luego unir para formar habilidades más grandes. Explica que dividir el aprendizaje en componentes más pequeños reduce la carga mental y permite automatizar las habilidades, haciéndolas más fáciles de ejecutar. También enfatiza la importancia de dominar cada pedazo corto antes de pasar al siguiente para evitar desarrollar malos há
Este documento presenta un manual de instalación para configurar un arranque dual de Windows 8.1 y Ubuntu en una misma computadora. Explica detalladamente los pasos para particionar el disco duro, instalar primero Windows 8.1 y luego Ubuntu, asignando cada sistema operativo a su propia partición. Al final, muestra que al reiniciar la computadora se podrá seleccionar cuál de los dos sistemas iniciar.
El documento describe los Siete Problemas del Milenio elegidos por el Instituto Clay de Matemáticas para premiar con un millón de dólares a quien resuelva al menos uno de estos problemas. Brevemente describe cada uno de los siete problemas, que incluyen el problema P contra NP, la conjetura de Hodge, las ecuaciones de Navier-Stokes, la conjetura de Poincaré, la hipótesis de Riemann, la teoría de Yang-Mills y la conjetura de Birch y Swinnerton-Dyer. Además,
El documento habla sobre los problemas NP en inteligencia artificial. Explica que existen cuatro formas de resolver problemas: aplicando una fórmula, usando una definición recursiva, aplicando un algoritmo convergente, o prueba y error. También distingue entre problemas de clase P, que se pueden resolver en tiempo polinómico, y problemas de clase NP, cuya solución puede ser verificada rápidamente aunque no se conozca un algoritmo de solución eficiente. Finalmente, menciona tres tipos de problemas NP: NP-completo, Co-
Las clases de complejidad computacional se definen considerando factores como el tipo de problema, el modelo de cómputo y los recursos acotados. La clase P contiene problemas solubles en tiempo polinómico por una máquina de Turing determinista. La clase NP incluye problemas de decisión para los cuales existe un certificado verificable en tiempo polinómico. El problema de satisfacibilidad booleana fue el primero en demostrarse NP-completo, lo que significa que es el problema más difícil en esta clase.
El documento habla sobre la complejidad computacional y la clasificación de problemas. Explica que los problemas se pueden clasificar como tratables (clase P) o intratables (clase NP), siendo los problemas NP-completos los más difíciles de la clase NP. También introduce conceptos como algoritmos deterministas vs no deterministas y define las clases P, NP y NP-completo.
El documento habla sobre la complejidad temporal de los algoritmos y cómo medir cuánto tarda un algoritmo en resolver un problema. Explica que la complejidad depende del tamaño del problema y que se mide contando las instrucciones que el algoritmo debe realizar. También define diferentes órdenes de complejidad como O(1), O(n), O(n log n) y O(n2) y explica la diferencia entre peor caso y mejor caso.
El documento habla sobre la complejidad computacional y la clasificación de problemas. Explica que los problemas se pueden dividir en tratables (aquellos que pueden resolverse en tiempo polinómico) e intratables (aquellos para los que no existen algoritmos polinómicos). También introduce las clases P y NP, donde P contiene problemas decidibles en tiempo polinómico y NP aquellos cuya solución puede verificarsen polinómicamente.
1) Los problemas aritméticos de varias operaciones combinadas (de más de una etapa) tienen una estructura más compleja que los problemas de una sola etapa, con más datos y relaciones entre los datos y la incógnita.
2) Para resolver estos problemas complejos, se deben tomar decisiones sobre qué operaciones realizar, entre qué cantidades y en qué orden.
3) El proceso de resolución implica identificar incógnitas auxiliares y establecer las relaciones entre los datos, incógnitas auxiliares e incógnita principal para determinar los pasos
The Houston Club is a private event venue located in downtown Houston that offers wedding and event packages. The document provides testimonials from satisfied clients praising the venue's food, service, and views of the city skyline. It also includes information on their various reception packages, room capacities, sample menus, and enhancements. The Houston Club strives to make events seamless and stress-free through their experience and assistance in planning weddings and social events.
El documento describe un taller práctico sobre 10 claves para la implementación de tendencias y enfoques innovadores en la enseñanza. El taller tiene como objetivo ayudar a los docentes a identificar los cambios necesarios para incorporar las TIC en el aula y currículo, y desarrollar las habilidades requeridas para el nuevo paradigma educativo basado en la tecnología. El taller se centra en temas como la creatividad docente, las nuevas competencias del siglo 21 y la aplicación de enfoques pedagógicos y tecnológicos innov
Este documento presenta un taller práctico sobre 10 claves para la implementación de tendencias y enfoques innovadores en la enseñanza. El taller tiene como objetivo ayudar a los docentes a identificar los cambios necesarios para incorporar las TIC al aula y currículo. A través de estrategias individuales y colaborativas, el taller busca que los docentes desarrollen las habilidades para contribuir al nuevo paradigma educativo propuesto por las TIC.
This document discusses contract management and contract lifecycle management. It provides an overview of available tools like contract templates and contract management software. It describes contracts as documents that represent rights and obligations over time. Effective contract management can cut cycle times, boost productivity, and ensure compliance. Contract lifecycle management bridges the gap between the theoretical contract and its real-world performance by providing a structured, cradle-to-grave process for contract creation, execution, and management. Key aspects of contract lifecycle management software include tracking contracts through their entire lifespan, managing milestones and obligations, and providing reports. The document lists legal department contacts for different contract and legal issues.
Este documento describe diferentes tipos de virus informáticos como virus de boot, gusano, caballo de Troya, bomba lógica, hoax y virus residente. Explica sus características principales como infectar la partición de arranque, propagarse sin ayuda de usuarios, esconderse en programas legítimos, activarse bajo ciertas condiciones, carecer de código malicioso pero propagar desinformación, y esconderse en la memoria RAM para infectar archivos.
Three customers provided positive feedback on events hosted at The Houston Club. Melissa K thanked the staff for their attention to detail and support in making her event successful. Robert E said their server was excellent and the facilities and food met their meeting needs. Mark Y appreciated the staff's responsiveness in finalizing details, ensuring dietary restrictions were met, and believed the positive feedback would not have been possible without their help.
The document discusses the student's experiences in their first semester college courses. They completed various assignments including a service learning project helping their church, writing a letter with advice for next year's class, and a scavenger hunt to learn campus locations. Journal entries helped the student improve self-motivation and identify strengths and weaknesses. Self-assessment scores increased in most areas. The main lessons taken from the course were improving self-motivation through goal-setting, continually self-assessing to improve weaknesses, and effective study techniques. The student's goals are to choose a major, graduate from a four-year university, get a well-paying job, own a house, and start a family.
El documento describe diferentes tipos de virus informáticos como virus, gusanos, caballos de Troya, bombas lógicas y hoaxes. Explica que un virus es un programa malicioso que se propaga infectando otros archivos, mientras que un gusano se propaga a otras computadoras de forma autónoma. También describe caballos de Troya, bombas lógicas, hoaxes y puertas de enlace. Finalmente, explica los tipos de virus de sobreescritura y residentes.
Este documento presenta tres problemas matemáticos aún sin resolver: 1) P versus NP, que consiste en determinar si la inclusión entre las clases de complejidad P y NP es estricta. 2) La conjetura de Hodge, que dice que para variedades algebraicas proyectivas, los ciclos de Hodge son una combinación lineal racional de ciclos algebraicos. 3) La existencia de Yang-Mills del salto de masa, que describe partículas con masa positiva que poseen ondas clásicas que viajan a la velocidad de la luz.
Este documento presenta un método para aprender la guitarra de manera más efectiva mediante la división del material en "pedazos cortos y sólidos" que se puedan dominar individualmente y luego unir para formar habilidades más grandes. Explica que dividir el aprendizaje en componentes más pequeños reduce la carga mental y permite automatizar las habilidades, haciéndolas más fáciles de ejecutar. También enfatiza la importancia de dominar cada pedazo corto antes de pasar al siguiente para evitar desarrollar malos há
Este documento presenta un manual de instalación para configurar un arranque dual de Windows 8.1 y Ubuntu en una misma computadora. Explica detalladamente los pasos para particionar el disco duro, instalar primero Windows 8.1 y luego Ubuntu, asignando cada sistema operativo a su propia partición. Al final, muestra que al reiniciar la computadora se podrá seleccionar cuál de los dos sistemas iniciar.
El documento describe los Siete Problemas del Milenio elegidos por el Instituto Clay de Matemáticas para premiar con un millón de dólares a quien resuelva al menos uno de estos problemas. Brevemente describe cada uno de los siete problemas, que incluyen el problema P contra NP, la conjetura de Hodge, las ecuaciones de Navier-Stokes, la conjetura de Poincaré, la hipótesis de Riemann, la teoría de Yang-Mills y la conjetura de Birch y Swinnerton-Dyer. Además,
El documento habla sobre los problemas NP en inteligencia artificial. Explica que existen cuatro formas de resolver problemas: aplicando una fórmula, usando una definición recursiva, aplicando un algoritmo convergente, o prueba y error. También distingue entre problemas de clase P, que se pueden resolver en tiempo polinómico, y problemas de clase NP, cuya solución puede ser verificada rápidamente aunque no se conozca un algoritmo de solución eficiente. Finalmente, menciona tres tipos de problemas NP: NP-completo, Co-
Las clases de complejidad computacional se definen considerando factores como el tipo de problema, el modelo de cómputo y los recursos acotados. La clase P contiene problemas solubles en tiempo polinómico por una máquina de Turing determinista. La clase NP incluye problemas de decisión para los cuales existe un certificado verificable en tiempo polinómico. El problema de satisfacibilidad booleana fue el primero en demostrarse NP-completo, lo que significa que es el problema más difícil en esta clase.
El documento habla sobre la complejidad computacional y la clasificación de problemas. Explica que los problemas se pueden clasificar como tratables (clase P) o intratables (clase NP), siendo los problemas NP-completos los más difíciles de la clase NP. También introduce conceptos como algoritmos deterministas vs no deterministas y define las clases P, NP y NP-completo.
El documento habla sobre la complejidad temporal de los algoritmos y cómo medir cuánto tarda un algoritmo en resolver un problema. Explica que la complejidad depende del tamaño del problema y que se mide contando las instrucciones que el algoritmo debe realizar. También define diferentes órdenes de complejidad como O(1), O(n), O(n log n) y O(n2) y explica la diferencia entre peor caso y mejor caso.
El documento habla sobre la complejidad computacional y la clasificación de problemas. Explica que los problemas se pueden dividir en tratables (aquellos que pueden resolverse en tiempo polinómico) e intratables (aquellos para los que no existen algoritmos polinómicos). También introduce las clases P y NP, donde P contiene problemas decidibles en tiempo polinómico y NP aquellos cuya solución puede verificarsen polinómicamente.
1) Los problemas aritméticos de varias operaciones combinadas (de más de una etapa) tienen una estructura más compleja que los problemas de una sola etapa, con más datos y relaciones entre los datos y la incógnita.
2) Para resolver estos problemas complejos, se deben tomar decisiones sobre qué operaciones realizar, entre qué cantidades y en qué orden.
3) El proceso de resolución implica identificar incógnitas auxiliares y establecer las relaciones entre los datos, incógnitas auxiliares e incógnita principal para determinar los pasos
Este documento describe cómo resolver sistemas de ecuaciones no lineales utilizando el software Derive 6. Explica que Derive 6 puede resolver cálculos simbólicos y numéricos de álgebra, trigonometría y cálculo de manera eficiente. A continuación, describe cómo representar gráficamente sistemas de ecuaciones no lineales y los posibles resultados, y cómo resolverlos analíticamente mediante sustitución o aproximadamente usando Derive 6. Finalmente, enumera algunas referencias bibliográficas relacionadas con sistemas de ecuaciones
Este documento explora el problema P vs NP en la teoría de la complejidad computacional. Explica las clases de complejidad P y NP, y cómo los problemas NP-completos son los más difíciles de resolver en NP. Aunque la mayoría de expertos creen que P ≠ NP, demostrarlo o refutarlo sigue siendo uno de los mayores retos abiertos, con importantes consecuencias si se resolviera.
El álgebra: Una perspectiva diferente, que la integra con conocimentos previosJames Smith
Una perspectiva diferente, que vincula los conocimientos básicos (y a veces, los avanzdos también) con temas que los alumnos ven en sus cursos del álgebra, para proporcionarle una comprehensión más amplia y profunda, que le ayudara en la actualidad asíc como en sus clases futuros.
Los Algoritmos En La Enseñanza De La Matemáticasguest21cdf17
Este documento describe la importancia de los algoritmos en la enseñanza de las matemáticas. Explica que un algoritmo es una secuencia de pasos para resolver un problema matemático de forma ordenada. Luego, discute algunos algoritmos tradicionales como el uso de ábacos y la multiplicación basada en suma. Finalmente, destaca tres beneficios clave de los algoritmos: permiten resolver problemas más fácilmente, mejorar la comprensión de números, y establecer relaciones matemáticas estrictas.
Este documento describe la importancia de los algoritmos en la enseñanza de las matemáticas. Define un algoritmo como una secuencia lineal de acciones para resolver un problema matemático. Explica algunos algoritmos tradicionales como la multiplicación basada en la suma doble y las máquinas de Pascal. También discute enfoques constructivistas para enseñar algoritmos que equilibren la comprensión conceptual con su uso como herramientas. Finalmente, destaca que los algoritmos permiten mejorar la resolución de problemas y la lectura de números.
Este documento presenta una introducción a los conceptos de heurísticas y problemas combinatorios. Explica que las heurísticas son técnicas que aumentan la eficiencia de la búsqueda de soluciones a problemas complejos al sacrificar en ocasiones la optimalidad. También define problemas combinatorios como aquellos con un número finito pero muy grande de soluciones posibles. Finalmente, distingue entre heurísticas de construcción, que encuentran una primera solución, y heurísticas de mejoramiento, que mejoran soluciones existentes.
Teoría de complejidad computacional (tcc).pptxYared Redman
La teoría de la complejidad computacional clasifica los problemas de acuerdo a su dificultad inherente y relaciona clases de complejidad. Analiza la complejidad de tiempo y espacio de los algoritmos para comprender qué hace que algunos problemas sean difíciles de resolver y otros fáciles. Un problema importante es determinar si P = NP, es decir, si los problemas que se pueden verificar rápidamente también se pueden resolver rápidamente.
Este documento presenta un resumen de un trabajo de investigación sobre el problema de la mochila. Brevemente describe el problema de la mochila, los algoritmos de backtracking y voraz utilizados para resolverlo, y la implementación del problema en Prolog como lenguaje de programación.
Este documento presenta un problema matemático que contiene una falacia. El autor realizó el problema paso a paso para identificar dónde estaba el error, determinando que la división de (x-3) era incorrecta y llevaba a un resultado falso de 1=0. El documento también define varios términos matemáticos como lógica aristotélica, demostración y operaciones algebraicas básicas. El autor concluye que aprendió a identificar falacias y aplicar sus conocimientos matemáticos para resolver el problema.
Este documento presenta un problema matemático que contiene una falacia. El autor realizó el problema paso a paso para identificar dónde estaba el error, determinando que la división de (x-3) era incorrecta y llevaba a un resultado falso de 1=0. El documento también define varios términos matemáticos como lógica aristotélica, demostración y operaciones algebraicas básicas. El autor concluye que aprendió a identificar falacias y aplicar sus conocimientos matemáticos para resolver el problema.
Este documento presenta un problema matemático que contiene una falacia. El autor realizó el problema paso a paso para identificar dónde estaba el error, determinando que la división de (x-3) era incorrecta y llevaba a un resultado falso de 1=0. El documento también define varios términos matemáticos como lógica aristotélica, demostración y operaciones algebraicas básicas. El autor concluye que aprendió a identificar falacias y aplicar sus conocimientos matemáticos para resolver el problema.
Este documento presenta un problema matemático que contiene una falacia. El autor realizó el problema paso a paso para identificar dónde estaba el error, determinando que la división de (x-3) era incorrecta y llevaba a un resultado falso de 1=0. El documento también define varios términos matemáticos como lógica aristotélica, demostración y operaciones algebraicas básicas. El autor concluye que aprendió a identificar falacias y aplicar sus conocimientos matemáticos para resolver el problema.
Similar a Final introduccion a la informatica (20)
Bienvenido al mundo real de la teoría organizacional. La suerte cambiante de Xerox
muestra la teoría organizacional en acción. Los directivos de Xerox estaban muy involucrados en la teoría organizacional cada día de su vida laboral; pero muchos nunca se
dieron cuenta de ello. Los gerentes de la empresa no entendían muy bien la manera en que
la organización se relacionaba con el entorno o cómo debía funcionar internamente. Los
conceptos de la teoría organizacional han ayudado a que Anne Mulcahy y Úrsula analicen
y diagnostiquen lo que sucede, así como los cambios necesarios para que la empresa siga
siendo competitiva. La teoría organizacional proporciona las herramientas para explicar
el declive de Xerox, entender la transformación realizada por Mulcahy y reconocer algunos pasos que Burns pudo tomar para mantener a Xerox competitiva.
Numerosas organizaciones han enfrentado problemas similares. Los directivos de
American Airlines, por ejemplo, que una vez fue la aerolínea más grande de Estados
Unidos, han estado luchando durante los últimos diez años para encontrar la fórmula
adecuada para mantener a la empresa una vez más orgullosa y competitiva. La compañía
matriz de American, AMR Corporation, acumuló $11.6 mil millones en pérdidas de 2001
a 2011 y no ha tenido un año rentable desde 2007.2
O considere los errores organizacionales dramáticos ilustrados por la crisis de 2008 en el sector de la industria hipotecaria
y de las finanzas en los Estados Unidos. Bear Stearns desapareció y Lehman Brothers se
declaró en quiebra. American International Group (AIG) buscó un rescate del gobierno
estadounidense. Otro icono, Merrill Lynch, fue salvado por formar parte de Bank of
America, que ya le había arrebatado al prestamista hipotecario Countrywide Financial
Corporation.3
La crisis de 2008 en el sector financiero de Estados Unidos representó un
cambio y una incertidumbre en una escala sin precedentes, y hasta cierto grado, afectó a
los gerentes en todo tipo de organizaciones e industrias del mundo en los años venideros.
El-Codigo-De-La-Abundancia para todos.pdfAshliMack
Si quieres alcanzar tus sueños y tener el estilo de vida que deseas, es primordial que te comprometas contigo mismo y realices todos los ejercicios que te propongo para recibieron lo que mereces, incluso algunos milagros que no tenías en mente
Mi Carnaval, sistema utilizará algoritmos de ML para optimizar la distribució...micarnavaltupatrimon
El sistema utilizará algoritmos de ML para optimizar la distribución de recursos, como el transporte, el alojamiento y la seguridad, en función de la afluencia prevista de turistas. La plataforma ofrecerá una amplia oferta de productos, servicios, tiquetería e información relevante para incentivar el uso de está y generarle valor al usuario, además, realiza un levantamiento de datos de los espectadores que se registran y genera la estadística demográfica, ayudando a reducir la congestión, las largas filas y otros problemas, así como a identificar áreas de alto riesgo de delincuencia y otros problemas de seguridad.
1. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Tres problemas matemáticos aun sin solución
Three Mathematical Problems Still Unsolved.
Autor 1: Aldahir Rojas Lancheros Autor 2: Michael Steven Rendón Villa
Ingeniería de sistemas, Universidad Tecnológica de Pereira, Pereira, Colombia
Correo-e: aldahirlancheros@gmail.com michael.rendon@utp.edu.co
Resumen---Muchos han sido los problemas matemáticos
planteados por el hombre. Muchos de ellos se han resuelto;
pero hay otros tantos que han sido planteados pero hasta el
día de hoy no se ha obtenido una respuesta o resultado
satisfactorio. En este trabajo investigativo daré a conocer tres
de los siete problemas matemáticos más famosos.
Palabras clave---Clases de complejidad-Es un conjunto de
problemas de decisión, Combinación lineal-Es una expresión
matemática que consiste en la suma entre pares de elementos,
Transliteración-Es la representación de los caracteres de un
sistema de escritura por medio de los símbolos de otro sistema
de escritura.
Abstract---Many have been the mathematical problems posed
by man. Many of them have been resolved; but there are
many others that have been raised but to date has not been
obtained a satisfactory answer or result. In this research I will
give you three of the seven most famous mathematical
problems.
Key Word---Complexity classes-A set of decision problems,
Linear Combination-Is a mathematical expression consisting
of the sum of pairs of elements, Transliteration-Is the
representation of the characters of a writing system by means
of the symbols of another system of writing.
I. INTRODUCCION
La historia de la matemática está vinculada a la resolución
de ciertos problemas, esta afirmación puede ser reputada
por cuatro puntos de vista:
Algunos problemas están en el origen del
desarrollo de las matemáticas.
La resolución de ciertos problemas ha motivado a
la aparición de nuevas ramas de la matemática.
Otros problemas han provocado rupturas
epistemológicas.
Hay problemas que han abierto crisis en los
fundamentos de la matemática.
A continuación veremos tres problemas matemáticos que
han sido planteados, que continúan sin solución. La
solución no es lo más importante, lo verdaderamente
trascendental es el método que se utiliza para resolver
dichas incógnitas, ya que el proceso que se lleva a cabo
resulta ser más importante y de más provecho que el propio
resultado.
Algunos de los problemas más famosos que se citaran en
profundidad más adelante son:
P versus NP: Consiste en decidir si la inclusión
entre las clases de complejidad P y NP es estricta.
La conjetura de Hodge: La conjetura de Hodge
dice que para variedades algebraicas proyectivas,
los ciclos de Hodge son una combinación
lineal racional de ciclos algebraicos.
Existencia de Yang-Mills del salto de masa:
En Física, la teoría cuántica de Yang-
Mills describe partículas con masa positiva que
poseen ondas clásicas que viajan a la velocidad de
la luz.
II. CONTENIDO
1. P versus NP.
El matemático Stephen Cook, que formuló este problema
en 1971, lo explica con el siguiente ejemplo:
Es sábado por la noche y llega usted a una fiesta
abarrotada de gente. La anfitriona le dice:
"Creo que conoces a Rosa, aquella chica de la esquina que
lleva un vestido rojo".
2. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
A usted le bastará una fracción de segundo para verificar si
la anfitriona está en lo cierto o no. Pero si en vez de eso la
anfitriona le hubiera dicho
"Mira por ahí a ver si conoces a alguien",
Usted puede tardar tres horas en hallar la respuesta.
Otro ejemplo:
Comprobar si un número determinado X es la raíz
cuadrada de Z.
Podríamos resolverlo de dos formas:
Calculando la raíz de Z y comparando con X (proceso lento
y engorroso)
O bien, elevando al cuadrado a X y comparando con Z
(simple multiplicación X·X)
La conclusión que sacamos de éste sencillo ejemplo es que
en algunos problemas comprobar la solución es más
eficiente que calcularla. La complejidad de la función
“elevar al cuadrado” es más simple que calcular la raíz
cuadrada.
¿Qué tiene que ver todo esto con P=NP, Problema P
(difícil de encontrar) contra NP (fácil de verificar)?
Pues bien, P es la clase de complejidad que contiene
problemas de decisión que se pueden resolver en un tiempo
polinómico. P contiene a la mayoría de problemas
naturales, resolución de ecuaciones, la realización de
sumas, productos, algoritmos de programación lineal,
funciones simples,... Por ejemplo la suma de dos números
naturales se resuelven en tiempo polinómico (para ser más
exactos es de orden 2n). Entre los problemas que se pueden
resolver en tiempo polinómico nos encontramos con
diversas variedades como los logarítmicos (log(n)), los
lineales (n), los cuadráticos (n2), los cúbicos (n3),... La
función de elevar al cuadrado está contenida en la clase P.
La clase de complejidad NP contiene problemas que no
pueden resolverse en un tiempo polinómico. Cuando se
dice que un algoritmo no puede obtener una solución a un
problema en tiempo polinómico siempre se intenta buscar
otro procedimiento que lo consiga mejorar. Frente a los
problemas contenidos en P tienen métodos de resolución
menos eficaces. Podemos ver que la operación de calcular
la raíz cuadrada se encuentra contenida en esta clase.
Está claro que todo problema P es también NP, esto es,
todo problema resoluble en tiempo polinomial mediante un
algoritmo adecuado (P), es también un problema que
admite una comprobación rápida (NP).
Pero, ¿y al revés? ¿Existen problemas NP que no sean P?
Esto es, ¿existen problemas que admiten una comprobación
de solución o no solución conjeturada y, en cambio, no
admiten en tiempo polinomial una resolución algorítmica?
(1) En el cálculo computacional pueden presentarse
problemas en donde el número de alternativas
posibles para una determinada condición de
proceso es tan grande que ni siquiera con las
supercomputadores existentes aún en nuestra
tecnología se podrían afrontar en toda la vida de
un ser humano, pues no tendría para ello el
suficiente tiempo (es el problema P). En cambio,
la verificación de que una determinada alternativa
verifica la condición de proceso es algo
prácticamente instantáneo (es el problema NP).
Ejemplo:
Queremos colocar 6000 libros en 200 estantes, de modo
que se cumpla la condición de que no estén juntos ciertos
libros de diferente materia, nos encontramos que el número
de alternativas posibles podría superar al número de
átomos de la Vía Láctea, con lo cual, el determinarlas todas
(problema P - difícil de encontrar) es precisamente eso,
muy difícil en la actual tecnología de la computación. En
cambio, el verificar una de estas alternativas como válida,
cuando alguien conjetura una solución, (problema NP -
fácil de verificar) es inmediato.
En estos ejemplos, en los que el problema NP es
comprobable de inmediato, pero el problema P parece no
existir, ¿se debe esto a que realmente el problema P no es
posible o bien que no se tiene la tecnología computacional
adecuada para su resolución de forma algorítmica en
tiempo polinomial?
Esta es la pregunta no contestada que da consistencia al
problema. Entre los ejemplos actuales más candentes está
el de la criptografía y la comprobación de claves
informáticas (NP) en contraposición al problema de
generación algorítmica de tales claves en un tiempo
polinomial (P).
A continuación un pequeño repaso del problema. Antes que
nada este es considerado el problema principal, más
importante, de las ciencias de la computación. Básicamente
el problema es "para ciertos problemas, lo mejor que
podemos hacer es una búsqueda bruta", o como escribe
Lipton "para ciertos problemas el algoritmo más obvio es
el mejor". NP como sabemos quiere decir "tiempo
polinomial no-determinístico", y P "tiempo polinomial
determinístico". Entonces los problemas o lenguajes con
algoritmos que corren en tiempo polinomial están en P, y
3. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
los problemas con algoritmo en tiempo polinomial no-
determinístico en NP.
Una caracterización más fácil de entender de problemas en
NP es la siguiente: Sea A un algoritmo que tiene dos
entradas, x que representa una instancia de un problema L
(e.g. SAT, TSP, etc.), y c que representa una solución al
problema. Entonces L están en NP si y solo si existe un
algoritmo determinístico que corre en tiempo polinomial A
y existe un c tal que A(x, c)=1, i.e. que c sea una respuesta
válida al problema. Generalmente a c se le llama solución,
certificado, testigo o simplemente prueba, i.e. una prueba
de que x tiene solución. La misma caracterización se puede
hacer para P, pero esta vez el algoritmo no tiene una prueba
c. Entonces decimos que L está en P si y solo si existe un
algoritmo determinístico que corre en tiempo polinomial A
tal que A(x)=1.
Fig.1
La gran diferencia está en el certificado. Los algoritmos
para lenguajes en P determinan una solución, mientras que
los algoritmos para lenguajes en NP verifican una solución.
Una buena analogía es: si yo resuelvo un problema
matemático por mi mismo (está en P), o estoy verificando
la solución de otra persona (en NP). Entonces, la diferencia
radica en que estamos comparando un proceso de
determinar una solución a un problema contra un proceso
de verificación de una solución ya dada para un problema.
P vs NP en términos computacionales se refiere a cotas
inferiores de problemas NP-completos. La conjetura es que
para estos problemas no existe un mejor algoritmo que el
de fuerza bruta, i.e. P≠NP. La mayoría de los científicos
creen que esto es cierto, y de ahí surgen un montón de
alternativas para resolver problemas NP-completos como
Búsqueda Local, Algoritmos Genéticos, etc. Y la eficiencia
de estos métodos está en que pueden verificar soluciones
en tiempo polinomial.
En el aspecto filosófico, P vs NP hace la siguiente
pregunta: ¿Puede la creatividad ser automatizada? Si yo
escribo un libro en el que trabaje 1 año, y lo mando a un
periódico para que un crítico lo lea, y la destruye
completamente en 2 semanas, ¿Qué es más difícil, escribir
el libro o criticar el libro? Intuitivamente el proceso
creativo es más complejo y requiere más tiempo, pero hasta
que no tengamos una prueba que indique sin duda alguna
nunca sabremos, por la misma razón que expuse en el
párrafo de arriba. Simplemente por la curiosidad del
hombre, tenemos que saber. [1] David Hilbert.
También la misma pregunta se extiende a otros ámbitos
como la física. La visión de las ciencias de la computación
y una parte de la comunidad de físicos, es que toda nuestra
realidad física es computable. Desde la evolución de los
seres vivos, hasta la formación de galaxias. Todo es visto
como un proceso que dado una entrada genera un salida.
Entonces salen preguntas como ¿Qué tan complejo es el
plegado de proteínas? ¿Qué pasa con la información y la
energía en un hoyo negro que se disipa en forma de
radiación de Hawking? etc., etc. Muchas de estas preguntas
están siendo respondidas por técnicas de ciencias de la
computación. Por ejemplo, sabemos que si P≠NP entonces
no podemos viajar en el tiempo, o no podemos movernos
más rápido que la luz, y otras conexiones más extrañas.
Aun así, estás conexiones dan evidencia a favor de que
P≠NP, o ¿no?
Así que P vs NP no solo se refiere a problemas que solo
interesan a las ciencias de la computación. Se refiere
también a problemas fundamentales de otras ciencias.
Inclusive podría decirse que es una de las preguntas más
fundamentales de las matemáticas. Saber si podemos
encontrar pruebas eficientemente nos da conocimiento de
cómo resolver otros problemas muy difíciles como la
Hipótesis de Riemann. Es por ello que el Clay Mathematics
Institute lo pone en su lista de problemas fundamentales.
Fig. 2.
2. La conjetura de Hodge:
La conjetura de Hodge fue propuesta por W. Hodge en
1950, y permanece al día de hoy como problema abierto.
Ha sido incluida en la lista de los siete Problemas del
4. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Milenio [11] con los que el Clay Mathematics Institute
(Cambridge,
Massachusetts, EEUU) ha querido celebrar el nuevo
milenio, dotándolos de un premio de un millón de dólares a
cada uno.
La conjetura de Hodge se enmarca en una zona de las
matemáticas donde interaccionan las áreas de la geometría
algebraica y la geometría diferencial, y donde además se
recogen ideas que provienen de la geometría aritmética
(conjeturas estándar de Grothendieck, teoría de motivos,. .
.), la topología algebraica, la física matemática (teorías
gauge, mirror symmetry), la geometría compleja, o la teoría
de ecuaciones diferenciales en variedades.
Es por tanto, un problema de enorme interés por sus
múltiples conexiones con diversas áreas, y que ha sido
motor de notables avances en geometría. No obstante, no
hay una idea clara de que línea de ataque llevaría a su
solución, ni siquiera de si la respuesta llegaría usando
técnicas de geometría algebraica, o con técnicas analíticas
de geometría diferencial. Es más, hay bastante división en
la creencia de que pueda ser probada o refutada.
Espacios proyectivos complejos
Como antes, consideremos una esfera de radio unidad pero
ahora el plano ecuatorial será el plano complejo C. La
esfera estará situada en el espacio complejo C², formado
por parejas de complejos (x,y), y se conoce por la esfera de
Riemann. Si nos fijamos en el conjunto de rectas
proyectivas de C² que parten de N, se define el espacio
proyectivo complejo CP¹ como ese conjunto de rectas.
Observemos que al definir el espacio proyectivo “hemos
bajado” una dimensión: desde C² definimos CP¹. Así, la
esfera de Riemann define el el espacio proyectivo complejo
de una dimensión, también llamado línea proyectiva.
Si en vez de usar el plano complejo C como plano
ecuatorial, usamos el espacio C², necesitaremos una esfera
en C³ (espacio formado por ternas de puntos (x, y, z)
complejos) que obviamente ya no podemos representar
gráficamente. Pero las ideas son las mismas, y
obtendríamos el espacio CP², el plano proyectivo complejo.
En general, usando n+1 dimensiones complejas obtenemos
un espacio proyectivo CP(n).
Formas algebraicas en el espacio CP²; variedades
El espacio CP² podemos definir rectas, círculos y cualquier
otra figura geométrica; en general una variedad algebraica
en CP² es el conjunto de puntos de C³ que cumplen una
ecuación algebraica F(x, y, z) = 0. Las variedades
(manifold en inglés) son generalizaciones de las figuras
que conocemos del espacio euclídeo a espacios abstractos
de cualquier dimensión.
Otro tipo de variedad es la variedad topológica: son
aquellas que, si las “observamos con una lupa”, veremos
que en pequeñas porciones la variedad “parece” un espacio
euclídeo; de forma más técnica se dice que localmente las
variedades topológicas son homomorfas al espacio
euclídeo.
Una subclase muy importante de las variedades topológicas
son las variedades diferenciables: localmente son
suficientemente “suaves” para poder aproximarlas por un
plano euclídeo. La esfera (en cualquier número de
dimensiones) es un ejemplo de variedad topológica
diferenciable.
El concepto de variedad es fundamental para muchas partes
de la geometría y la física matemática moderna, ya que
permite estudiar estructuras más complicadas que se
expresan y se entienden en términos de las propiedades
relativamente bien entendidas de variedades en espacios.
Subvariedades
Una subvariedad es un subconjunto de puntos de una
variedad elegidos de tal manera que dicho subconjunto es a
su vez una variedad.
En nuestro viaje hacia la conjetura de Hodge hasta ahora
tenemos un espacio “suave” que localmente se asemeja el
espacio euclidiano, pero a mayor escala ese "espacio" es
diferente, y que se describe por un grupo de ecuaciones. Lo
que hacemos ahora es dividir ese espacio en partes
geométricas más pequeñas y simples: las subvariedades.
Esto nos permite simplificar el estudio de las propiedades
de variedades abstractas, al descomponerlas en
subvariedades más simples. Pero antes introducimos el
concepto de topología.
Topología y espacios topológicos
La topología estudia las propiedades más fundamentales de
toda la geometría, en el sentido de que es más fácil que dos
objetos geométricos sean topológicamente equivalentes que
usando cualquier otra teoría geométrica, como la
algebraica. Por ejemplo, dos figuras aparentemente tan
distintas como un “donut” (hablando en propiedad tal
figura es un “toro”) y una jarra son topológicamente
equivalentes porque se puede convertir una en otra
mediante deformaciones continuas sin rasgar ni cortar:
5. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Fig. 3.
Por lo tanto una herramienta básica en el estudio de las
geometrías más complicadas y abstractas es considerar su
estructura topológica.
Un espacio topológico es una estructura matemática simple
formada por un conjunto S, un conjunto T de subconjuntos
de S, y unas reglas referentes a las uniones e
intersecciones de los subconjuntos de T. Por ejemplo, los
números reales (el conjunto S) junto con los intervalos de
reales (a, b) (todos ellos forman el conjunto T) y algunas
propiedades básicas de los números definen el espacio
topológico de los reales.
Es una estructura simple porque sólo depende de la teoría
de conjuntos. Por otra parte se puede relacionar la
topología de un espacio con su métrica (la forma como
medimos distancias); en estos espacios topológicos
métricos se definen y estudian distancias entre conjuntos,
así como proximidades, fronteras de conjuntos, etc.
Tipos de espacios
Hasta ahora hemos definido diferentes tipos de espacios:
euclídeos, proyectivos, reales, complejos, diferenciables,
topológicos... Es importante tener en cuenta que estas
clasificaciones se superponen. Así, por ejemplo, podemos
considerar en el espacio proyectivo complejo C² una
medida de la distancia, con lo cual lo dotamos de una
métrica (con lo cual será un espacio métrico); si además
consideramos sus propiedades topológicas, entonces
tratamos a C² como espacio topológico métrico.
Homotopías, homologías, grupos y clases
Cuando se estudian los espacios vectoriales se trabaja con
sus subespacios, más simples; de la misma misma forma,
se estudia un espacio topológico mirando subespacios
topológicos, como curvas o superficies. Puesto que hay
muchos posibles subespacios, se introduce una relación de
equivalencia (permite realizar una clasificación de los
subespacios en clases de equivalencias): la homotopía, o
invariabilidad de deformación.
Esta relación de equivalencia en la práctica es todavía
complicada; otra más sencilla de calcular es la homología:
dos figuras geométricas dentro de un espacio dado son
homólogas si juntas forman el contorno de una figura de
dimensiones superiores.
(2) La motivación original para la definición de
grupos de homología es la observación de que un
aspecto importante de la forma de un objeto son
sus huecos cerrados (“agujeros”). Debido a que un
hueco es algo que "no existe", no es trivial definir
un agujero, o cómo distinguir entre diferentes
tipos de agujeros. La homología es un método
matemático riguroso para detectar y clasificar
huecos,
Por ejemplo las vocales {A, E, I, O, U} consideradas como
formas se pueden clasificar en dos clases: sin huecos
cerrados {E, I, U} y con un hueco cerrado {A, O}.
A cualquier espacio topológico X se puede asociar un
conjunto Hk (X), siendo k un número natural, cuyos
elementos son clases de homología. El tamaño y la
estructura de Hk (X) ofrece información sobre el número
de “agujeros” en X.
Fig. 4.
Por ejemplo, un “toro” en el espacio euclídeo es una
superficie de revolución que se obtiene cuando un círculo
gira alrededor de una recta que está en su plano sin
cortarlo. Algebraicamente se expresa como la combinación
lineal de dos círculos distintos, como se muestra a la
derecha: uno de color rosa y otro de rojo. Hablando
informalmente, cada círculo es una clase de homología del
toro.
6. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Topológicamente, esto significa que un camino cerrado que
primero rodea al hueco del toro (como el círculo rosa) y
después da la la vuelta al cuerpo del toro (como el círculo
rojo) se puede deformar a un camino que primero rodea al
cuerpo y luego al hueco. El toro tiene una generalización a
dimensiones más altas, el toro n-dimensional, o el n-toro,
para abreviar, que se forma combinando n círculos. El toro
del espacio euclídeo es un 2-toro.
Ciclos algebraicos
Ahora que ya tenemos los conceptos de variedad, sub-
variedad y clases de homología, podemos definir los
“bloques” elementales que aparecen en la conjetura de
Hodge.
Primero de todo, decir que un resultado general es que en
una variedad, que hemos visto que se define por unas
ecuaciones, sus sub-variedades, también definidas por unas
ecuaciones, se pueden separar en clases de homología que
“recubren” la variedad.
En particular, un ciclo algebraico de una variedad
algebraica V es una clase de homología en V que se puede
expresarse como una combinación lineal de las
subvariedades de V.
El estudio de los ciclos algebraicos es en uno de los
principales objetivos de la geometría algebraica de las
variedades en general, siendo muy útil para descubrir
propiedades. La dificultad es: demostrar la existencia de
ciclos algebraicos es relativamente fácil, pero los métodos
actuales para construirlos son deficientes. Si tuviéramos
métodos prácticos de construcción de clases de homologías
de variedades (como los ciclos algebraicos) se podría
probar la existencia de subvariedades con ciertas
propiedades deseables prefijadas utilizando cálculos de
homología. Ello nos daría un potente instrumento de
estudio de las variedades en general.
De forma llana, la conjetura de Hodge se plantea como el
problema de representatividad de clases de homología,
llevada al mundo de la geometría compleja.
Un ciclo de Hodge es un tipo especial de clase de
homología en una variedad compleja algebraica que
cumple ciertas condiciones específicas que no
reproduciremos aquí. Se define por tanto de forma distinta
a los ciclos algebraicos. Recordemos que la existencia de
subvariedades con “buenas” propiedades de homología
nos facilita el estudio de las variedades en general; pues
bien, los ciclos de Hodge están definidos de forma que
tienen esas buenas propiedades. La descripción detallada
de dichas propiedades, su justificación, etc., son temas
especializados que quedan fuera del ámbito de este
artículo.
Hemos visto que los espacios topológicos son simples en el
sentido de que se definen por una pocas propiedades;
supongamos que en un cierto conjunto, que podría ser una
variedad A, definimos una topología, y también definimos
un subconjunto B de A que es diferenciable (recordemos
que las variedades diferenciables son una subclase de las
variedades topológicas).
Tenemos una variedad proyectiva compleja “suave" en el
espacio proyectivo CPn que se describe por un grupo de
ecuaciones de tal manera que tiene dimensión par (esto es
así porque los números complejos tienen dimensión 2, y la
dimensión resultante de CPn será (n+1) ·2, que es par).
Luego tomamos la topología de la variedad y la dividimos
en partes geométricas más pequeñas llamadas "ciclos de
Hodge".
La conjetura afirma que: para los tipos de espacios
llamados variedades algebraicas complejas proyectivas, los
ciclos topológicos de Hodge son iguales a combinaciones
racionales lineales de ciclos algebraicos.
Aplicaciones en cálculo diferencial e integral en variedades
Una forma diferencial es una generalización de los
conceptos de derivada, vector gradiente, rotacional, etc del
espacio euclídeo, aplicados a variedades diferenciables en
espacios abstractos. Resulta ser que en espacios
diferenciables existe una relación entre las clases de
homología de los ciclos y las clases de equivalencia de las
formas diferenciables.
Por otra parte, la integral definida de una función real f(x)
en un intervalo (a,b) es una suma que realizamos sobre una
liberalización de la función, usando el concepto de
diferencial dx:
Generalizando este concepto a funciones complejas
integradas sobre variedades,
El intervalo (a,b) se transforma en la variedad A, y el
integrando f(x)dx en la forma diferencial dw; la expresión
anterior es el enunciado del teorema de Stokes, que
relaciona la integral sobre la variedad con la integral sobre
la frontera de la variedad, dA. Gracias a la descomposición
de la variedad en elementos más simples, los ciclos, se
simplifica el estudio de la diferenciación y de la integración
en variedades. También el campo de estudio de las
ecuaciones diferenciales se beneficia de la teoría de los
ciclos y variedades.
7. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
3. Existencia de Yang-Mills del salto de la masa
Un campo de Yang-Mills es un tipo de campo físico usado
sobre todo en teoría cuántica de campos cuyo lagrangiano
tiene la propiedad de ser invariante bajo una
transformación de gauge local.
Fig. 5.
En 1954 Chen-Ning Yang y Robert L. Mills introdujeron
una teoría para describir la interacción débil (responsable
entre otras cosas de ciertas formas de radiactividad) y la
interacción fuerte (responsable entre otras cosas de la unión
de protones y neutrones para formar un núcleo). Esta teoría
ha sido fundamental en el estudio de partículas elementales
y física nuclear en los ´últimos casi sesenta años.
La teoría de Yang–Mills, que emerge por un lado de la
geometría diferencial y por otro lado de la física moderna,
en particular de la mecánica cuántica, es una generalización
de la teoría de Maxwell del electromagnetismo. No
obstante, hay una diferencia esencial entre las fuerzas
nucleares y la fuerza electromagnética:
La fuerza electromagnética se extiende a distancias muy
largas, mientras que las fuerzas nucleares son de muy corto
alcance. Esto se traduce en que los campos responsables de
las interacciones nucleares tienen que tener masa (en
contraste con lo que sucede con los fotones responsables de
la interacción electromagnética).
Se dice en este caso que existe un salto de masa.
El problema es que en la teoría clásica de Yang–Mills las
partículas no tienen masa. Sin embargo todos los
experimentos, y en particular el fenómeno denominado
libertad asintótica, indican que en la teoría cuántica los
campos de Yang–Mills que describen las interacciones
nucleares tienen masa no nula. El problema propuesto por
el Instituto Clay de Matemáticas consiste en demostrar de
modo matemáticamente riguroso la existencia de la teoría
de Yang–Mills cuántica y la existencia del salto de masa.
Electromagnetismo.
La interacción electromagnética la conocemos a
través de los fenómenos eléctricos y magnéticos de la vida
cotidiana. Para entender estos fenómenos tenemos que
postular que la materia tiene un atributo al que llamamos
carga eléctrica.
La ley de Coulomb establece que dos cargas estacionarias
ejercen una fuerza mutua que es inversamente proporcional
al cuadrado de la distancia que las separa. Esta fuerza es
similar a la fuerza gravitatoria ejercida entre dos masas con
las siguientes diferencias. Primero, la fuerza eléctrica es
mucho más fuerte, con un factor de 1035. Segundo, la
carga eléctrica puede ser positiva o negativa, de tal modo
que dos cargas de distinto signo se atraen y de igual signo
se repelen.
Del mismo modo que la masa actúa como fuente de un
campo gravitatorio, la carga eléctrica es la fuente de un
campo eléctrico. Una carga puntual q crea un campo
eléctrico radial alejándose de ella misma, de una magnitud
inversamente proporcional a la distancia al cuadrado de la
carga. Este es el denominado campo de Coulomb:
Campo de Coulomb = q
R
2
Otra carga q
0
En este campo experimenta una fuerza radial igual a q 0
veces el campo. La fuerza puede ser atractiva o repulsiva
dependiendo de si el signo de q 0 es distinto o igual al de q.
Una manera de visualizar el campo eléctrico es a través de
las “líneas de fuerza” tangentes a la dirección del campo en
cada punto. El “flujo” se define como el número de líneas
que cruzan la unidad de ´área perpendicular a la dirección
del campo.
Si dibujamos una esfera de radio r alrededor de una carga
eléctrica, la superficie de la esfera aumenta con r como r 2.
Como el campo eléctrico decrece como r−2, el número de
líneas de flujo que atraviesa la esfera es una constante que
depende de la carga. Esta propiedad geométrica, conocida
como ley de Gauss, y que es equivalente a la ley de
Coulomb, nos hace ver que no hay que pensar en la
interacción eléctrica como algo que se hace más débil con
el cuadrado de la distancia sino como algo que se propaga.
Por supuesto, según nos alejamos el campo es menos
intenso en un punto dado, pero la cantidad total de flujo
alrededor de la esfera es la misma con la distancia. Vemos
pues claramente que la electricidad es una fuerza de largo
alcance.
El potencial de Coulomb o potencial escalar debido a una
carga puntual q se define como Potencial de Coulomb = q
R
.
Una colección de cargas define un potencial escalar φ que
es la suma de los potenciales de Coulomb individuales. El
8. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
campo eléctrico E~ se expresa en términos del potencial
escalar como
E~ = ∇~ φ.
Nuestra primera experiencia con el magnetismo tiene que
ver con la atracción que un imán ejerce sobre una partícula
de hierro. Este fenómeno se describe por medio de un
campo magnético que ejerce una fuerza sobre la partícula
de hierro.
Hans Christian Oersted hizo el importante descubrimiento
de que una corriente eléctrica genera un campo magnético.
No hay análogo magnético de la carga. La fuente más
simple de un campo magnético no es un “monopolio
magnético” sino un “dipolo magnético”, que es equivalente
a un lazo de corriente. Esto hace que los fenómenos
magnéticos parezcan más complicados que los eléctricos.
Fuerzas nucleares y teoría de Yang–Mills.
Hemos visto que la interacción electromagnética se
introduce aplicando el principio de simetría gauge al grupo
U (1) de los números complejos de norma unidad. Yang y
Mills generalizaron este principio al grupo SU (2) de
matrices complejas 2 × 2 unitarias con determinante
unidad, obteniendo una generalización de las ecuaciones de
Maxwell que describe todas las interacciones
fundamentales entre partículas elementales.
Para explicar lo que Yang y Mills hicieron, pongámonos en
el contexto de la física nuclear de los años 1950. En esos
años los físicos estaban estudiando neutrones, protones y
mesones π. Hay tres tipos de mesones π según su carga sea
neutra, positiva o negativa: π 0, π +, π −.
La cosa curiosa es que los mesones π podían hacer que un
protón se convirtiese en un neutrón o que un neutrón se
convirtiese en un protón, o podían ser absorbidos por un
protón o por un neutrón:
p ←→ n + π +,
n ←→ p + π −.
La idea clave para explicar estos fenómenos está en la
conservación del denominado isospín, un atributo similar al
espín. Desde el punto de vista de las fuerzas nucleares, el
protón y el neutrón se comportan básicamente del mismo
modo. Podemos pensar en ellos como dos estados distintos
de una misma partícula a la que llamamos nucleón, que
tiene isospín 1/2. Matemáticamente podemos describir un
nucleón con una función de ondas con dos componentes:
ψ = (ψp)
(ψn)∈ C´2.
Podemos ahora representar a los mesones por medio de
matrices 2×2 del modo siguiente:
π+ ∼ (0 1)
(0 0)
,
π− ∼ (0 0)
(1 0)
,
π0 ∼ (1 0)
(0 −1)
.
La conservación del isospín es equivalente a la invariancia
bajo la acción de SU (2) (una simetría gauge global con
grupo SU (2)). La gran idea de Yang–Mills fue hacer lo
que Weyl había propuesto en el caso del
electromagnetismo pero con matrices.
En otras palabras, considerar derivadas covariantes
Dµ = ∂µ + Aµ, donde Aµ son matrices 2 × 2 (más
precisamente, matrices antihelmínticas de traza nula, es
decir elementos del ´algebra de Lie de SU (2)). Como en el
caso del electromagnetismo, podemos definir un campo
tensorial F y ecuaciones similares a las de Maxwell (más
adelante daremos la forma precisa de F y de estas
ecuaciones).
La gran diferencia es que ahora, debido a que SU (2) es un
grupo no sabeliano, F involucra términos cuadráticos en A,
dando lugar a ecuaciones diferenciales que, en contraste
con las ecuaciones de Maxwell, son no lineales, y como
consecuencia los campos de fuerza (mesones π) actúan
sobre sí mismos, cosa que no sucede con los rayos de luz.
Solo hay algo que no funciona en ´esta teoría. El problema
es que los protones y los neutrones no son partículas
elementales. Estos están formados por quarks. Esta idea fue
promovida por Richard P. Feynman y Murray Gell-Mann.
La idea es que hay dos estados para un quark: u y d (“up” y
“down” en inglés, respectivamente). Un nucleón está
constituido por tres quarks y los mesones son la
combinación de un quark y un antiquark:
p = {uud}, n = {udd}
π + = {u ¯d}
π− = {du¯}
Π0 = combinación de uu¯ y d ¯d.
Ecuaciones de Yang–Mills.
Para obtener las ecuaciones de Yang–Mills se aplica el
principio de mínima acción.
Recordemos que en mecánica clásica se define el
lagrangiano L como L = Energía cinética − Energía
potencial.
A partir del lagrangiano se define la acción S (γ) a lo largo
de un camino γ como
S (γ) = Z γ Ldt.
9. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
Según variamos el camino γ cambia la acción. El camino
correcto es el que minimiza la acción. Este viene dado por
las ecuaciones de Euler–Lagrange, equivalentes a las
ecuaciones de Newton. Para definir la acción de una
conexión se necesita que X este equipado de una métrica
riemanniana (o lorentziana, como en el caso del espacio-
tiempo). Se define entonces S(A) = Z X |FA| 2 d vol.
Donde d vol es la forma de volumen riemanniana y la
norma |FA| 2 se calcula usando conjuntamente una métrica
en g (la forma de Killing, por ejemplo) y la métrica de X.
Para ser más concretos consideraremos el caso en el que la
dimensión de X es 4 —después de todo, nuestro mayor
interés está en el caso X = R 4—. En esta situación el
operador de Hodge ∗ envía 2-formas en 2-formas de modo
que el producto interno L 2 de dos formas α y β viene dado
por hα, βi = Z X α ∧ ∗β. Entonces S(A) = − Z X Tr (FA ∧
∗FA). La ecuación de Euler–Lagrange de S(A) da la
ecuación de Yang-Mills:
dA ∗ FA = 0.
En R 4 equipado con la métrica eucl´ıdea o lorentziana la
identidad de Bianchi dAFA = 0 y la ecuación de Yang–
Mills dA ∗ FA = 0 se pueden escribir en términos de
derivadas covariantes ∇µ, respectivamente, como [∇µ, [∇ν,
∇σ]] + [∇ν, [∇σ, ∇µ]] + [∇σ, [∇µ, ∇ν]] = 0 y [∇µ, [∇µ, ∇ν]]
= 0, donde en la segunda ecuación se suma sobre los
índices repetidos con el consiguiente signo según la
métrica sea euclıdea o lorentziana (la velocidad de la luz se
ha normalizado a 1). Observemos que puesto que en
dimensión 4 el operador ∗ actuando sobre 2- formas es
invariante conforme, en el sentido de que dos métricas gµν
y ρ(x)gµν definen el mismo operador ∗, entonces es claro
que las ecuaciones de Yang–Mills dependen solo de la
estructura conforme. Esta importante propiedad de la teoría
de Maxwell se conserva pues en el caso no abeliano.
Como ya hemos mencionado varias veces, la teoría de
Maxwell es una teoría de Yang–Mills para el grupo U (1).
La curvatura en este caso es FA = dA y las ecuaciones de
Maxwell son equivalentes a dFA = 0 (identidad de Bianchi,
que en este caso es consecuencia de que d 2 = 0) y d ∗ FA
= 0.
Una consecuencia inmediata de (3) y (4) es que (4) se
cumple si FA satisface una de las dos ecuaciones ∗FA =
FA (auto dualidad) ∗FA = −FA (antiautodualidad).
Estas son ecuaciones de primer orden no lineales para la
conexión A que implican las ecuaciones de segundo orden
de Yang–Mills.
En R 4 con la métrica euclıdea la condición de
antiautodualidad corresponde al siguiente sistema de
ecuaciones para las matrices de la conexión Aµ (µ = 1, 2,
3, 4):
F12 + F34 = 0,
F14 + F23 = 0,
F13 + F42 = 0,
Donde Fµν = [∇µ, ∇ν] = ∂Aν ∂xµ − ∂Aµ ∂xν + [Aµ, Aν].
Teoría de Yang-Mills cuántica y modelo estándar.
En los años 1950 cuando la teoría de Yang–Mills fue
descubierta, se sabía que la versión cuántica de la teoría de
Maxwell —conocida como Electrodinámica Cuántica
(abreviado QED en inglés) — da una descripción
extremadamente ajustada de las fuerzas eléctricas y
magnéticas.
Así que resulto natural preguntarse si la teoría de Yang–
Mills podía describir las otras fuerzas de la naturaleza,
concretamente la interacción débil (responsable entre otras
cosas de ciertas formas de radiactividad) y la interacción
fuerte (responsable entre otras cosas de la unión entre
protones y neutrones para formar un núcleo). No obstante,
como ya hemos mencionado anteriormente, el hecho de
que los campos de Yang–Mills no tuvieran masa fue un
serio obstáculo para aplicar la teoría de Yang–Mills a estas
fuerzas ya que la interacción fuerte y débil son
interacciones de corto alcance y muchas de las partículas
tienen masa. Así pues no parecía que este tipo de
fenómenos tuvieran que ver con campos de largo alcance
que describen partículas sin masa.
En los años 1960 y años 1970, se superaron estos
obstáculos en la interpretación física de la teoría gauge no
abeliana. En el caso de la interacción débil, esto se logró
con la teoría electro débil de Glashow–Salam–Weinberg
con grupo gauge SU (2) × U (1). Introduciendo un “campo
de Higgs” adicional mediante el mecanismo de “ruptura
espontanea de simetría” se consigue dar masa a las
partículas gauge. El campo de Higgs es constante en el
vacío y reduce el grupo de estructura de SU (2) × U (1) a
un subgrupo U (1) embebido diagonalmente en SU (2) × U
(1). Debido a esta reducción, los campos de largo alcance
son solo los del electromagnetismo, de acuerdo con lo que
se ve en la naturaleza.
La solución del problema de la ausencia de masa en los
campos de Yang–Mills para la interacción fuerte es de una
naturaleza completamente distinta. La solución no se
obtuvo añadiendo campos adicionales a la teoría de Yang–
Mills, sino con el descubrimiento de una propiedad muy
importante de la misma teoría cuántica de Yang–Mills.
Esta propiedad se denomina libertad asintótica. De modo
aproximado, esta propiedad dice que a cortas distancias el
campo tiene un comportamiento cuántico muy similar al
comportamiento clásico, sin embargo, a distancias largas,
la teoría clásica no se corresponde con el comportamiento
cuántico del campo.
La libertad asintótica, junto con otros experimentos y
descubrimientos teóricos hechos en los años 1960 y años
10. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
1970, hicieron posible describir la interacción fuerte con
una teoría gauge no abeliana con grupo SU(3). Los campos
adicionales describen, a nivel clásico, quarks —objetos con
espín 1/2 de algún modo análogos al electrón, pero que se
transforman según la representación fundamental de SU (3)
—. La teoría gauge no abeliana de la interacción fuerte se
llama Cromo dinámica Cuántica (abreviado QCD, en
inglés).
El uso de la QCD para describir la interacción fuerte fue
motivado por una serie de descubrimientos experimentales
y teóricos hechos en los años 1960 y los años 1970, que
involucran simetrías y comportamiento a altas energías de
la interacción fuerte. Pero la teoría gauge no abeliana
clásica es muy diferente de las observaciones
experimentales de las interacciones fuertes. Para que la
QCD describa las interacciones fuertes con ´éxito, a nivel
cuántico tiene que tener al menos las siguientes dos
propiedades, ambas totalmente diferentes del
comportamiento de la teoría clásica:
o Tiene que tener un “salto de masa”, es decir, debe
existir una constante ∆ > 0 tal que toda excitación
del vacío tenga energía al menos ∆.
o Tiene que tener “confinamiento de los quarks”, es
decir, aunque la teoría se describa en términos de
campos elementales, tales como los campos del
quark, que se transforman de manera no trivial
bajo la acción de SU(3), los estados de las
partículas físicas —como el protón, neutrón y
pion— deben ser SU(3)-invariantes.
El primer punto es necesario para explicar por qué la
interacción fuerte es fuerte pero de rango corto; la
segunda es necesaria para explicar por qué no vemos
nunca un quark individual. (Otra propiedad también
requerida, que hemos obviado por simplificar es el que
haya “ruptura de la simetría quiral”).
Los experimentos y simulaciones por ordenador que se
han realizado desde finales de los años 1970 indican
fuertemente que la QCD debe tener estas propiedades.
Estas propiedades pueden verse hasta cierto punto en
cálculos teóricos realizados en varios modelos muy
simplificados (como las teorías gauge en retículos).
Pero no existe en estos momentos una explicación
teórica, y mucho menos matemáticamente completa,
que demuestre alguna de estas propiedades. Para
comprender los aspectos más básicos del proceso de
cuantización de la teoría de Yang–Mills, y formular el
problema del salto de masa con más precisión,
haremos un repaso breve al proceso de cuantizacion de
un sistema clásico, comenzando con la mecánica
cuántica.
Fig. 6.
Problema de existencia de Yang–Mills y salto de
masa.
Para establecer la existencia de una teoría gauge con
grupo de Lie G, uno debería definir una teoría cuántica
de campos en el sentido anteriormente descrito, con
los campos cuánticos en correspondencia con los
polinomios locales en la curvatura F y sus derivadas
covariantes, tales como Tr FµνFστ (x). Las funciones
de correlación de los campos cuánticos deben coincidir
a distancias cortas con las predicciones de la libertad
asintótica y la teoría de re normalización per turbativa.
(3) Puesto que el vector del vacío Ω es invariante por
el grupo de Poincar´e, es un vector propio con
energía nula, es decir HΩ = 0. El axioma de
energía positiva afirma que en cualquier teoría
cuántica de campos, el espectro de H está
contenido en el intervalo [0, ∞). Una teoría
cuántica tiene un salto de masa ∆ si H no tiene
valores propios en el intervalo (0, ∆) para algún ∆
> 0. El supremo de un tal ∆ es la masa m, y se
requiere que m < ∞.
Existencia de Yang–Mills y salto de masa. Probar que
para todo grupo de Lie compacto simple G, la teoría
cuántica de Yang–Mills en R 4 existe y tiene un salto
de masa ∆ > 0.
Primeros pasos y estrategias.
Como hemos visto, en la mecánica cuántica de
partículas la posición x y el momento p se convierten
en operadores que no conmutan y un estado cuántico
puede ser representado por una función de onda ψ(x),
lo que nos lleva al dominio del análisis funcional.
¿Qué sucede sin embargo si cuan tizamos un campo?
Por ejemplo si cuan tizamos el campo
11. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
electromagnético, las componentes E~ (x) y B~ (x) de
los campos eléctrico y magnético se convierten en
operadores que no conmutan y tenemos entonces que
considerar un ´algebra no conmutativa de dimensión
infinita. Este ´algebra se puede representar en un
espacio de Hilbert consistente en funciones de onda ψ
(B~), con lo que subimos un grado en la dificultad del
problema: el estado cuántico es una función sobre un
espacio de funciones (en este caso el espacio de
funciones es el espacio de todos los posibles B~).
Tenemos pues que hacer análisis funcional en un
espacio con infinitas variables, lo que representa un
nivel nuevo de dificultad.
El procedimiento más apropiado para cuan tizar la
teoría de Yang–Mills clásica resulta ser el método de
la integral de caminos de Feynman. Recordemos que
la acción de Yang–Mills con grupo de estructura G =
U(n) o G = SU(n) viene dada por
S(A) = 1 4g 2 Z X Tr (FA ∧ ∗FA)
Para un grupo simple G arbitrario se usa la forma de
Killing en el ´algebra de Lie de G. Entonces, se
considera la integral de caminos de Feynman sobre el
espacio A de conexiones dada formalmente por la
expresión
Z = 1 vol (G) Z A DA exp (−S(A)).
Como A es un espacio afín, formalmente tiene una
medida DA invariante por traslaciones (´única salvo
factor constante que se cancelar ‘a cuando definamos
las funciones de correlación). La integral de Feynman
para teorías gauge se formula normalmente sobre el
espacio A /G, donde G es el grupo de transformaciones
gauge. En lugar de hacer esto, aquí hemos dividido por
el volumen de G para definir Z.
Z se denomina “función de partición”, nombre que
viene de la física estadística (donde la integral es la
suma las amplitudes de probabilidad de todos los
estados microscópicos del sistema). A continuación se
eligen puntos xi ∈ X y “operadores locales” Oí (xi)
que sean polinomios en la curvatura y sus derivadas
covariantes, invariantes por transformaciones gauge,
en los puntos xi. Definimos
ZO = 1 vol (G) Z A DA exp (−S(A)) Y i Oí (xi).
Finalmente definimos los “valores esperados” o
“funciones de correlación”
h Y i Oi (xi) i = ZO/Z.
Para demostrar la existencia de la teoría de Yang–
Mills cuántica, se debe dar sentido riguroso a la
función de partición y a las funciones de correlación
(dando sentido a las integrales de caminos definidas
heurísticamente) y mostrar que satisfacen ciertos
axiomas relacionados con el hecho de que los Oi (xi)
pueden ser interpretados como operadores que actúan
en un espacio de Hilbert. Una manera de abordar el
problema (utilizada en simulaciones numéricas) y dar
sentido a la integral de caminos consiste en aproximar
el espacio A de conexiones por un espacio de
dimensión k y luego tomar el limite k → ∞. Esto se
puede hacer, por ejemplo, considerando la teoría de
Yang–Mills en un “retículo”, en otras palabras, con un
grafo Γ con vértices, lados y un conjunto de caras o
“plaquetas”, cada una de las cuales es un lazo (camino
cerrado) en Γ. Por ejemplo, podemos tomar como
vértices los puntos enteros Z 4 ⊂ R 4; los lados son las
líneas rectas que unen dos puntos con distancia unidad,
y las plaquetas los lazos de longitud cuatro. Una G-
conexión sobre Γ es entonces una aplicación de los
lados a G, y la curvatura de la conexión en una
plaqueta concreta es menos la traza de la holonomıa
alrededor del lazo menos la matriz identidad. La
acción de Yang–Mills puede definirse como la suma
del cuadrado de las curvaturas.
Con esta descripción explicita del espacio de
configuraciones se puede definir la teoría cuántica
reticular de Yang–Mills en un subgrafo finito γ de Γ
mediante la integral de Feynman
Z [γ, g2, G] = Z Yexp (−S) dUi
Donde la integral es sobre todas las holonom´ıas en γ,
en otras palabras, todas las aplicaciones de los lados en
G; la medida es el producto de la medida de Haar para
la holonom´ıa en cada lado y S es la acción de Yang–
Mills. Las otras cantidades físicas de interés son
valores esperados obtenidos utilizando esta medida.
Tomando como punto de partida estas integrales en
dimensión finita, el asunto de la existencia de una
teoría cuántica de Yang–Mills se traduce
esencialmente en si existe una manera razonable de
definir el límite de Z[γ, g2 , G] sobre subgrafos γ de Γ
cada vez más grandes para definir la integral de
Feynman en Γ. Tomar este límite involucraría
claramente el método de re normalización, y de hecho
el estudio de este ejemplo por Kenneth Wilson fue su
motivación original para estudiar el denominado grupo
de re normalización.
Se sabe bastante de las propiedades esperadas de este
límite utilizando una gran variedad de argumentos
físicos, como la libertad asintótica, etc. Una de las
propiedades más importantes es que en el límite g 2 →
0 y γ grande, se cree que la elección especifica de Γ
que aproxima a R 4 no es importante, y los
correspondientes valores esperados convergerán a las
funciones de correlación en la teoría cuántica de
campos continua. Además, ´estas deberían satisfacer
propiedades formales, como la invarianza por el grupo
de simetrías de la métrica plana en R 4 y otros axiomas
12. Scientia et Technica Año MMXVI, VI, XII de MMXVI. Universidad Tecnológica de Pereira.
Fecha de recepción: martes 6 de diciembre de 2016
Fecha de aceptación:
formalizados por Osterwalder–Schrader en [5]. Los
axiomas adicionales proporcionan las condiciones
suficientes para la construcción de un espacio de
Hilbert y la interpretación en términos de operadores
actuando en este espacio de Hilbert.
La parte correspondiente a la “existencia” en el
problema, consiste en establecer estos axiomas,
mientras que la parte correspondiente al salto de masa
involucra el decaimiento de las funciones de
correlación con la distancia. Por otro lado, no es
esencial seguir el método de las teorías gauge en
retículos. Existen otros modos de aproximar la integral
funcional de Feynman. Lo que es importante es poder
definir el límite a la teoría continua de campos.
También seria en principio posible abordar el
problema sin tomar límites.
La otra gran clase de modelos muy similares a la teoría
de Yang–Mills son las teorías supersimetricas de
Yang–Mills en dimensión cuatro. Estas son
modificaciones de la teoría de Yang–Mills que además
de conexiones involucran otros campos, en particular
campos “fermionicos” (las conexiones son campos
“bosonicos” y la supersimetrıa intercambia bosones y
fermiones). La condición básica es que el operador
Hamiltoniano que actúa sobre el espacio de Hilbert de
la teoría, y que genera la translación temporal, tenga
una raíz cuadrada que se denomina “súper carga”.
Fig. 7.
III. CONCLUSIONES
De acuerdo con lo planteado anteriormente,
podemos darnos cuenta de que en el universo se
encuentran cosas inimaginables por plantear, y
que cada uno de esos planteamientos puede o no
tener una o más posibles soluciones acertadas,
siete son los problemas más famosos sin
solucionarse, y es de suponer que faltan
demasiados por descubrirse y darles solución.
El ser humano en incontables circunstancias está
buscando problemas para superarse mentalmente,
está descubriendo dilemas inexplicables, que en
algún momento puedan ser explicados. Sin lugar a
dudas, la maquina humana esta relacionada con
inconmensurables problemas sin solución, el
simple hecho de que su funcionamiento sea tan
perfecto da mucho de que pensar. Continuando
con el humano, una de sus componentes
importantes y casi que desconocida es el cerebro,
se dice que un humano promedio solo utiliza el
10% de la capacidad del coeficiente intelectual, y
el resto de porcentaje ¿Qué?, qué pasaría si el
humano llegase a usar el 100% de si CI, alguna
vez lo pensaron?..
Alguna vez han pensado acerca de lo que pasaría
si el humano llegase a solucionar aquellos
problemas, Si lo han hecho seguro pensaron en lo
avanzados que deberían estar en los ámbitos
tecnológicos y científicos, de tal manera que la
habilidad para idear algoritmos con el fin de
solucionar problemas es mucho mayor a la que
ahora en el presente nos asombra.
IV. REFERENCIAS
(1) http://computacioncuantica.blogspot.com
.co/2010/08/la-importancia-de-p-vs-
np.html
(2) http://garf.ub.es/milenio/img/Presentacio
n_Hodge.pdf
(3) http://garf.ub.es/milenio/img/Presentacio
n_Yang-Mills.pdf