1. Editorial GOBIERNO DEL ESTADO DE
Llegamos al número seis de la revista C+TEC acompañados por nuestros editores huésped, la
Facultad de Ciencias Físico Matemáticas y el Instituto de Física y Matemáticas de la Universidad
Michoacana de San Nicolás de Hidalgo. Sus investigadores nos comparten en el dossier una
visión amplia y profunda sobre la nueva física en el siglo XXI.
Hablar de física resulta un reto, dado que nos remite a escenarios complejos; hablar
de las nuevas tendencias en su estudio resulta aún más complicado, ya que sus conceptos son
cada vez más difíciles de comprobar.
Pese a la dificultad, nuestros colaboradores nos explican cómo llegó la humanidad al
conocimiento de que la materia se constituye por átomos y la manera en que éstos interaccionan
entre sí, vinculándolo con sus aplicaciones tecnológicas y su invaluable utilidad para estudiar
los orígenes del Universo con experimentos tan importantes como los que lleva a cabo el Gran
Colisionador de Hadrones.
¿Cuál es el futuro de las computadoras? Probablemente uno de sus desarrollos
más prometedores es la computación cuántica, nanotecnología que supera las barreras de
la electrónica actual; los dispositivos podrán emplear bases cuánticas y ello representa una
posibilidad de procesamiento y almacenamiento aún insospechada.
Las certezas nos ayudan para sentirnos cómodos con nuestro conocimiento del mundo,
sin embargo en la física, -como en cualquier disciplina científica- son temporales; revoluciones
del conocimiento acostumbran replantear términos que considerábamos absolutos; el dossier
nos invita a preferir esta incertidumbre sobre los postulados que se presumen irrefutables.
Alguna vez hemos escuchado hablar de los hoyos negros; encontraremos valiosa
información acerca de su naturaleza, teorías sobre su origen, métodos de comprobación de su
existencia, clasificación y características; en suma, las respuestas que la ciencia nos brinda en
relación con tan enigmáticos objetos astronómicos.
Luz que manipula materia es el trabajo que realizan las pinzas ópticas, un campo de
estudio que avanza en nuestro país. Los principios y características de esta relación nos las
comparte en entrevista Karen Patricia Volke.
Presentamos en este número la sección FOMIX, un apartado pensado para informar los
resultados de proyectos de investigación que fueron apoyados con recursos del Fondo Mixto, en
los que concurre el Consejo Nacional de Ciencia y Tecnología (CONACYT) y el Gobierno del Estado
de Michoacán, programa que tiene por objetivo apoyar proyectos que generen conocimiento
y atiendan los problemas, necesidades u oportunidades de la entidad, contribuyendo así al
desarrollo económico y social. Iniciamos con el desarrollo del radio-observatorio del Centro de
Radioastronomía y Astrofísica de la UNAM, Campus Morelia.
Dante Ayala nos invita a mirar aspectos de la naturaleza como poseedores de un valor
económico, presenta un interesante análisis sobre la valoración económico – ambiental y su
papel en revelar la importancia de los recursos naturales para la sociedad.
Adán Fernando Mar ha desarrollado una aplicación tecnológica basada en ultrasonido
para auxiliar la movilidad de personas invidentes, nos cuenta cómo surgió la idea y su desarrollo
hasta el prototipo funcional; por su parte, Óscar Garduño y Ernesto Morales proponen la
realidad virtual como una alternativa para minimizar el efecto traumático del tratamiento
que reciben los niños con cáncer en el hospital; ambas son propuestas desarrolladas por
jóvenes investigadores que destacan proponiendo alternativas tecnológicas en la solución de
problemáticas concretas.
Vincular la industria con la ciencia resulta vital para efectuar la transferencia
de conocimientos y desarrollos tecnológicos, así lo señala Federico Stezano; por su parte,
Francisco Alcaraz nos invita a redescubrir el asombro que experimentamos cuando la ciencia
nos brinda respuestas.
Un videojuego antiguo ofrece nuevas posibilidades al jugador, en un cuento que nos
presenta Edgar Omar Avilés, por último Eduardo Mijangos nos comparte un texto sobre distintas
visiones del México moderno y contemporáneo, en la búsqueda de los actores políticos.
Estamos seguros que la lectura del presente número facilitará un acercamiento a la
física por un camino alterno, uno que antes que sostener la rigurosidad de la academia y de
convertirse en cátedra de números y ecuaciones, nos despierta la curiosidad sobre los grandes
misterios que su estudio intenta resolver.
MICHOACÁN
Leonel Godoy Rangel
Gobernador Constitucional del Estado
de Michoacán
Rafael Melgoza Radillo
Secretario de Gobierno
Mirella Guzmán Rosas
Secretaria de Finanzas y Administración
Manuel García Ruíz
Secretario de Seguridad Pública
Isidoro Ruíz Argáiz
Secretario de Desarrollo Económico
Genovevo Figueroa Zamudio
Secretario de Turismo
Patricia Flores Anguiano
Secretaria de Desarrollo Rural
Desiderio Camacho Garibo
Secretario de Comunicaciones
y Obras Públicas
Catalina Rosas Monge
Secretaria de Urbanismo
y Medio Ambiente
Graciela Carmina Andrade
García Peláez
Secretaria de Educación
Jaime Hernández Díaz
Secretario de Cultura
José Guadalupe Hernández Alcalá
Secretario de Salud
Minerva Bautista Gómez
Secretaria de Política Social
Alfonso Vargas Romero
Secretario de Pueblos Indígenas
Ma. Concepción Torres Zaragoza
Secretaria de la Mujer
Zaira Mandujano Fernández
Secretaria de los Migrantes
Claudia Stefanie Serna Hernández
Secretaria de los Jóvenes
J. Jesús Montejano Ramírez
Procurador General de Justicia
Erick López Barriga
Coordinador de Planeación
para el Desarrollo
Rosa María Gutiérrez Cárdenas
Coordinadora de Contraloría
Jesús Humberto Adame Ortíz
Coordinador General de
Comunicación Social
Pedro Mata Vázquez
Director General del Consejo Estatal de Ciencia y Tecnología de Michoacán.
2. CONTENIDO
SECCIONES
Breves de la
Registro periodístico
febrero - mayo 2011
Luz y materia, una nueva relación
Entrevista a la Dra. Karen
Patricia Volke Sepulveda
Francisco M. Juárez
OPINIÓN
04
50
Vinculación empresa,
academia, sociedad
Perspectivas de la vinculación
ciencia-industria para la
transferencia en México
Federico Stezano
¿Cuánto vale el vuelo de la
monarca?
Una aproximación
a la valoración
económico-ambiental
Dante Ariel Ayala Ortiz
44
Historia de la ciencia
Visiones del México moderno y
contemporáneo
La búsqueda de los actores políticos
Eduardo Mijangos
06
37
Desarrollo del radio-observatorio del Centro de
Radioastronomía y Astrofísica, UNAM, Campus Morelia
Stanley Eugene Kurtz
El calamar opta
por su tinta
Ciencia ficción
Vida extra
Édgar Omar Avilés
47
51
El oficio
del grafito
La nueva física en el
siglo XXI
Salvador Jara Guerrero,
Luis Manuel
Villaseñor Cendejas
Investigadores en formación
Bastón ultrasónico
para invidentes
Adán Fernando Mar Silva
09
12
Un mundo casi sin mentiras
Francisco Javier Alcaraz Ayala
38
Nodo
Tecnologías de la información
Realidad virtual para niños
con cáncer
Oscar Garduño Orozco,
Ernesto Morales Vargas 41
ciencia y la tecnología
Punto de
encuentro
2
3. DIRECTORIO COECYT
Pedro Mata Vázquez
DIRECTOR GENERAL
Romeo Amauri López Calderón
SUBDIRECCIÓN DE PLANEACIÓN Y FOMENTO
Rubén Salazar Jasso
SUBDIRECCIÓN DE VINCULACIÓN Y
DESARROLLO TECNOLÓGICO
Lilia Vázquez Diego
SUBDIRECCIÓN DE DIFUSIÓN
Clotilde Gómez Campos
DELEGADA ADMINISTRATIVA
DIRECTORIO C+TEC
COMITÉ EDITORIAL
Pedro Mata Vázquez
Consejo Estatal de Ciencia y Tecnología
Egberto Bedolla Becerril
Instituto de Investigaciones Metalúrgicas, UMSNH
Yolanda Gómez Castellanos
Centro de Radioastronomía y Astrofísica, UNAM
María Arcelia Gonzáles Butrón
Facultad de Economía, UMSNH
Martín Sánchez Rodríguez
El Colegio de Michoacán, A.C.
Napoleón Guzmán Ávila
Instituto de Investigaciones Históricas
Salvador Jara Guerrero
Facultad de Ciencias Físico Matemáticas, UMSNH
Omar Masera Cerutti
Centro de Investigaciones en Ecosistemas, UNAM-Morelia
Jorge Padilla González
Sistémica Grupo Consultor S.C.
Octavio Paredes López
Centro de Investigaciones y Estudios Avanzados, IPN-Irapuato
Luis Felipe Rodríguez Jorge
Centro de Radioastronomía y Astrofísica, UNAM-Morelia
Luis Manuel Villaseñor Cendejas
Instituto de Física y Matemáticas, UMSNH
COORDINACIÓN EDITORIAL
Lilia Vázquez Diego
EDITORES HUÉSPED
Salvador Jara Guerrero
Rector de la Universidad Michoacana
de San Nicolás de Hidalgo
Luis Manuel Villaseñor Cendejas
Instituto de Física y Matemáticas, UMSNH
EDITOR
Adrián Orozco Gutiérrez
DISEÑO GRÁFICO, EDITORIAL Y FORMACIÓN
Roberto Said López Madrigal
ASISTENCIA EDITORIAL
Julieta Piña Romero
Francisco Valenzuela Martínez
Margarita Blanco Velasco
CORRECCIÓN DE ESTILO
Guillermo Murray Prisant
IMPRESIÓN
Editorial Morevalladolid
DOSSIER
La física de las
partículas elementales
Luis Manuel
Villaseñor Cendejas
16
El ocaso de la certeza
en la física
Salvador Jara Guerrero
26
La nanotecnología en la
nueva electrónica basada
en el espín:
la espintrónica
Oracio Navarro
21
Los hoyos negros
José Antonio
González Cervera
Francisco Siddhartha
Guzmán Murillo
31
Escríbenos a:
revista.coecyt@gmail.com
C+TEC. DIVULGAR PARA TRANSFORMAR, Año 2, No.6, junio-septiembre 2011, es una publicación cuatrimestral editada por el Consejo Estatal de Ciencia y Tecnología. Batalla de
Casa Mata No. 66, Col. Chapultepec Sur, C.P. 58260, Morelia, Michoacán, Teléfonos y fax: 3249080, 3149907, 3248607, 3249113. Página Web: www.coecyt.michoacan.gob.mx, Correo
electrónico: revista.coecyt@gmail.com Editor responsable: Lilia Vázquez Diego. Reservas de Derechos al Uso Exclusivo No. 04-2009-101315000600-102, ISSN: en trámite. Impresa por
Editorial Morevalladolid S. de R.L. de C.V., Tlalpujahua No. 455, Col. Felicitas del Río, C.P. 58040, Morelia, Michoacán. Este número se terminó de imprimir el 1º de Junio de 2011
con un tiraje de 1,000 ejemplares. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Queda estrictamente prohibida la
reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización del Consejo Estatal de Ciencia y Tecnología.
3
4. Registro periodístico
febrero - mayo 2011
Sobresalen alumnos de la UTM en VexRobotic 2011 (La Voz de Michoacán)
I Alumnos de la carrera en Mantenimiento
Industrial de la Universidad Tecnológica
de Morelia obtuvieron el quinto lugar
entre 43 instituciones que participaron
en el Campeonato Nacional Universitario
VexRobotic 2011, celebrado en Tapachula,
Chiapas, el pasado 11 de marzo. Los
estudiantes michoacanos compitieron con universidades
tecnológicas de Jalisco, Zacatecas, Veracruz, Ciudad
Juárez y Tuxtla Gutiérrez, Chiapas. La participación en
esta justa se dio gracias al resultado que obtuvieron los
alumnos de esta institución en la edición internacional
del mismo evento, celebrado en noviembre de 2010,
donde obtuvieron el sexto lugar.
Convoca Tianguis de la Ciencia a más de 20,000 asistentes (Cambio de Michoacán)
II Por cada mil habitantes laboralmente activos en
México, sólo dos se dedican al desarrollo de la
ciencia y la tecnología, mientras en otros países
lo hacen 20, según los datos de la Organización
para la Cooperación y el Desarrollo Económico
(OCDE). Este organismo ha pedido a México
incrementar de manera sostenida la inversión
en ciencia y tecnología para los próximos años,
puesto que en México apenas se invierte el 0.4
por ciento de su Producto Interno Bruto (PIB), quedándose
muy por debajo del promedio de 2.3 por ciento del PIB entre
los países miembros de la OCDE. Ese fue uno de los motivos
que dieron cabida a una edición más del Tianguis de la
Ciencia, que se realizó el 8 y 9 de abril en la Universidad
Michoacana. Con la impartición de 400 talleres divididos
en nueve áreas del conocimiento; asistieron más de 20,000
personas y alrededor de 3,500 universitarios se involucraron
en la organización.
Buscan especialistas de la UNAM asegurar recursos hídricos del país (La Jornada Michoacán)
III Investigadores de la UNAM campus Morelia
buscan incidir en la definición de políticas
públicas que coadyuven en la seguridad
hídrica del país; es decir, contar con agua
de calidad para toda la ciudadanía,
tener capacidad de respuesta ante el
cambio climático y encontrar los arreglos
institucionales para la resolución de conflictos
por la tierra. Esta postura fue planteada durante el
coloquio Cambio Global, Seguridad Hídrica y Conflictos
Socioambientales en México, celebrado en el mes de
mayo. En ese marco se informó que en Michoacán las
zonas más vulnerables a la inseguridad hídrica son el río
Lerma, toda la franja del Bajío, así como Zamora y toda
la zona de los límites con Guanajuato.
Prevé la UMSNH para el próximo año integrar carreras de ingeniería espacial
(La Jornada Michoacán)
IV Durante la más reciente edición de la
Exporienta, las autoridades de la Universidad
Michoacana informaron que, a partir de
2012, la máxima casa de estudios podría
integrarse al grupo de universidades del
país que otorgan carreras relacionadas con
la ingeniería espacial, lo que posibilitaría en el corto
plazo la producción de satélites mexicanos, mismos que
pueden servir para realizar diagnósticos en cuanto a
las condiciones de vida de los habitantes del Estado,
factores climáticos e indicadores económicos.
Reconocen a mexicano con el Premio Príncipe de Asturias de Investigación (Milenio)
VEl neurobiólogo mexicano Arturo Álvarez-
Buylla, junto con sus compañeros Giacomo
Rizzolatti y Joseph Altman, fueron
condecorados con el Premio Príncipe de
Asturias de Investigación Científica y Técnica
2011 por sus importantes hallazgos en
la neurobiología. Estos científicos han
proporcionado pruebas sólidas para la
regeneración de neuronas en cerebros adultos y sus
investigaciones son un esperanzadora vía para combatir
enfermedades neurodegenerativas o asociadas al
cerebro, como el Alzheimer, el Parkinson o el Autismo.
Egresado de la UNAM, Álvarez-Buylla descubrió que
una sub-población de células gliales funciona como
progenitores primarios de nuevas neuronas.
4
5. Breves de la
ciencia y la tecnología
México encabeza almacenamiento de historial genético en América Latina (El Universal)
VI Más de 250,000 mexicanos podrían utilizar las células
madre de su cordón umbilical para salvar su vida o la
de sus familias en los próximos cinco años, estimaron
especialistas del Banco de Cordón Umbilical (BCU), que
tiene almacenadas unas 25,000 muestras en México
y 15,000 más en varios países de América Latina. Se
espera que en el siguiente lustro la cifra crezca ocho o
nueve veces más en nuestro país. Gracias
a esto, en México se ha logrado salvar la
vida a unas 170 personas mediante el
trasplante de células madre, sobre todo en
padecimientos como la leucemia e infartos
al miocardio.
Mexicanos crean el Taxi-aviso, una aplicación disponible para usuarios de Apple (Excélsior)
VII El ingeniero mexicano Emilio Güemes, al frente de un
grupo de programadores de la Universidad Veracruzana,
han desarrollado un software conocido como Taxi-
Aviso, aplicación que puede descargarse gratuitamente
en App Store. Esta herramienta cuenta con el registro
de más de 110 mil placas de taxis autorizadas en el
Distrito Federal, Nuevo León y sitios en aeropuertos de
todo México. Para poder utilizarlo se debe contar con los
dispositivos iPod touch, iPad o iPhone. Basta
con que el usuario tecleé el número de las
placas del taxi para saber si está registrado
legalmente ante las autoridades. Asimismo,
el dispositivo cuenta con taxímetro y mapa
virtual, además de que se conecta con
las redes sociales para reportar cualquier
incidente a bordo.
Robot ayuda a niños autistas (El Universal)
VIII Científicos de la Universidad de Hertfordshire, en Londres,
construyeron al robot Kaspar, que en una primera fase
experimental ya está ayudando a que niños autistas
desarrollen capacidades de socialización. Los infantes,
cuyo autismo oscila entre leve a grave, juegan con el
humanoide que está programado para sonreír, fruncir el
ceño, reír, guiñar el ojo y agitar los brazos.
Estas características predecibles son menos
complejas a las de un ser humano, cuyas
expresiones faciales resultan difíciles de
comprender para quien sufre de autismo.
Primer viaje turístico a la Luna en 2015 (El Universal)
IX Una compañía ya vendió el primer pasaje para viajar
alrededor de la Luna en 2015, por lo que sólo espera
colocar el segundo para que se confirme el despegue
de la primera nave. Los turistas partirían desde la Tierra
en una nave modelo Soyuz hasta la Estación Espacial
Internacional (EEI), donde permanecerán de ocho a
diez días. Después viajarían hasta la Luna para darle la
vuelta en tres días y medio. La nave pasaría
a menos de 100 km de su superficie, por lo
que los pasajeros podrán ver la Tierra de la
misma forma que lo hicieron los astronautas
de la misión Apollo. El viaje de regreso
supone otros tres días y medio.
La NASA se despide del Spirit en Marte (EFE)
X La agencia espacial estadounidense NASA abandonó
sus esfuerzos por restablecer la comunicación con
su robot explorador Spirit, atascado en las arenas de
Marte y con el cual se perdió contacto el año pasado.
Se cree que el invierno marciano dañó los componentes
internos y las conexiones eléctricas. El androide dejó
la Tierra en junio de 2003 propulsado por un cohete
Delta 2, y descendió en Marte, amortiguado
por bolsas de aire, en enero de 2004. La
gran aportación del Spirit al conocimiento
de Marte fue el hallazgo de pruebas de
que el planeta puede haber albergado en
tiempos remotos un ambiente habitable
para microbios.
5
6. Visiones
del México
moderno
y contemporáneo
La búsqueda de los actores políticos
Eduardo Mijangos1
La historia contemporánea de México se ha ido reconstruyendo desde diferentes
enfoques político-ideológicos. Estudios modernos han arrojado luz sobre las diferentes
imágenes que se han construido en torno al pasado reciente del país. En este sentido,
la monumental obra coordinada por Don Daniel Cosío Villegas (Historia Moderna
de México, Editorial Hermes, 1955-1974, en 8 volúmenes) constituye un hito en la
historiografía sobre el porfiriato; al romper con los estudios que caracterizaban este
periodo como una página oscura de la historia a través de la gestión de los gobiernos
posrevolucionarios, fue iluminada y rescatada, y se sentaron las bases de nuevas
investigaciones.
La complejidad sociopolítica imperante en el México de fines del siglo XIX y
las primeras décadas del XX, deja al descubierto la existencia de un abanico cultural
derivado de la polarización entre los grupos sociales, de un régimen autoritario que
después de más de tres décadas hizo crisis a raíz del proceso revolucionario de
1910, acontecimiento que constituye el punto de partida del México de nuestros
días.
La investigación de Cosío Villegas, a través del uso de fuentes de diversa
naturaleza (hemerográficas, literarias, testimoniales, entre otras) pretende rescatar
las voces de actores sociales y políticos del México porfiriano y posrevolucionario.
6
7. En particular, se centra en dilucidar los
significados de los procesos sociopolíticos que tuvieron
lugar en estos periodos de la historia de México;
así como estudiar las imágenes reproducidas en los
testimonios impresos que sobre el periodo se han
construido. Con ello, se busca la reconstrucción del
ambiente político-social para poder comprender la
naturaleza de las líneas generadoras de la opinión
pública mexicana, así como de las condiciones socio-culturales
prevalecientes en la nación durante el
porfiriato y la posrevolución.
La investigación se aboca al estudio de los
diversos actores y procesos sociopolíticos en su relación
y vínculos con otros actores: instituciones, el poder
político y la sociedad en general.
El interés en el discurso periodístico
En fechas recientes ha habido importantes esfuerzos
historiográficos sobre el México contemporáneo.
Sin embargo, se requiere redimensionar y repensar
los significados de los procesos sociopolíticos que
tuvieron lugar en estos periodos de la historia, así
como estudiar las imágenes reproducidas en los
testimonios impresos que sobre el periodo se han
construido. Es en esta línea en la que impacta el uso
de la prensa y de otras expresiones escritas como
fuente de investigación histórica.
La amplia bibliografía sobre el México de
los siglos XIX y XX da constancia de los adelantos
tecnológicos logrados, del uso del telégrafo,
la electricidad y el ferrocarril en el desarrollo y
transformaciones de las actividades informativas de ese
tiempo, que introdujeron en el ámbito de la modernidad
a la actividad periodística. En este sentido, el uso de la
prensa como generador y difusor de opinión pública
reviste especial importancia y complejidad.
Los periódicos, al reproducir y recrear la
realidad, posibilitaron que la sociedad formase
percepciones sobre su propio entorno y su circunstancia
histórica.
De igual manera, la prensa, en su función
como generadora de opiniones, mantuvo vínculos con
grupos de poder y representó intereses económicos
que es conveniente dilucidar. Es por ello que resulta
necesario considerar los principales asuntos ventilados
en la prensa porfirista, y la de inicios del siglo XX,
como un medio para conocer, revisitar, reflexionar,
interpretar y replantear preguntas que arrojen nuevas
respuestas sobre el discurrir de la sociedad y la política
en esta etapa de la historia.
7
8. El periodismo, para este periodo, constituye una
actividad especializada, realizada sistemáticamente,
y un espacio noticioso utilizado por las elites en el
poder; por ende, su labor se encamina a favorecer y
representar el interés del poder preponderante. En este
sentido, resulta indispensable revalorar el significado
de los discursos y de las representaciones que nos
permitan realizar una reevaluación de la memoria
histórica guardada en los acervos hemerográficos; y
así aproximarnos al conocimiento de los esfuerzos de
los grupos de poder político por construir un discurso
tendiente a influir en la opinión pública y en la
imaginación de amplios sectores sociales de México.
Consideramos que las prácticas discursivas, y
sus representaciones, develan prácticas políticas que
generan corrientes de opinión favorables al grupo
hegemónico, independientemente del periodo y/o
grupo de que se trate. De igual manera, los periódicos
son generadores y difusores de un conocimiento y
representación de las sociedades; es a través de estos
órganos como los discursos llegaron a amplios sectores
de la sociedad.
Estas consideraciones avalan el interés
académico, en tanto constituyen problemas de
investigación recientes y su abordaje acaso nos allane
el camino para valorar las condiciones en que se
construye nuestro presente.
1Instituto de Investigaciones Históricas,
Universidad Michoacana de San Nicolás de Hidalgo.
8
9. Bastón ultrasónico
para invidentes
Adán Fernando Mar Silva1
El desarrollo de tecnología que permita detectar obstáculos a distancia,
utilizando sistemas electrónicos o sensores programados, era una idea
que parecía extraída de ciencia ficción, o al menos en un principio así nos
pareció a un grupo de estudiantes quienes cursábamos el bachillerato;
se nos propuso realizar un proyecto para poder aprobar el semestre,
acostumbrados como estábamos a estudiar para exámenes, no era
precisamente lo que teníamos en mente, por lo que la idea no nos agradó
del todo.
Joaquín Estévez Delgado, nuestro profesor de Física nos propuso
la idea; siempre nos invitó a utilizar la imaginación como la mejor aliada
para resolver problemas de todo tipo. Recuerdo que sus exámenes nos
provocaban dolores de cabeza; parecían muy simples, pero siempre
implicaban ir más allá de aplicar la teoría aprendida en clases.
Bastón ultrasónico
9
10. Así fue que empezamos a desarrollar lo que
actualmente es una realidad y que surge gracias al
desarrollo de ideas que tratan de resolver problemas
que enfrentan muchas personas con algún tipo de
discapacidad, ya que al integrarse a la sociedad
encuentran condiciones complicadas en el ambiente,
quizá más adversas que su propia condición física.
Esto en gran parte debido a que la sociedad considera
prioritario resolver sus necesidades, dejando de lado la
posibilidad de auxiliar a personas que sufren alguna
clase de discapacidad visual, con mejoras tecnológicas
que pueden contribuir a incrementar su calidad de
vida.
La idea de crear un sistema integral para las
personas invidentes fue dividida en tres proyectos: unos
lentes que permitían la interacción con semáforos a
través de una alarma para saber si se puede cruzar la
calle con seguridad. El segundo, sería la realización de
un robot que siguiera líneas detectando cambios en la
intensidad luminosa y que pudiese servir como “perro
lazarillo”. Por último, el tercero consistió en un sistema
que permitiera detectar obstáculos a distancia y que
a través de señales vibratorias informa a la persona
invidente la presencia de un obstáculo que pudiese
causarle algún daño, es así como comienza este sueño
y las esperanzas de contribuir en algo a la problemática
que nos enfrentábamos.
Según la Organización Mundial de Salud (OMS,
2008) en el Mundo existen 34 millones de personas
invidentes y otras 124 millones que presentan alguna
discapacidad visual, en Michoacán los datos exactos
aún no se conocen, debido a que muchas personas
por temor a salir a la calle no tienen contacto con
asociaciones que pudieran ayudarles a tener mayor
posibilidad de integración a la sociedad. Uno de estos
centros de ayuda es el Centro de Invidentes en Michoacán
el cual cuenta con 49 integrantes, que para ayudarse
económicamente venden todo tipo de productos, y es
con ellos que en el año 2004 comenzamos a plantear un
bastón que permitiera a la persona invidente desplazarse
con mayor seguridad en su trayecto diario. Desde un
principio, el diseño se desarrolló tomando en cuenta las
necesidades de los usuarios potenciales; es así como se
esboza un mango que está conformado por sensores
de ultrasonido que permiten detectar obstáculos a una
distancia máxima de dos metros y una mínima de 70
centímetros, y es a través de cambios en la intensidad
de señales vibratorias como la persona puede saber a
qué distancia se encuentra el obstáculo sin necesidad de
interactuar con éste. El mango cuenta con tres sensores
que gracias a su ubicación permiten a la persona “leer”
en su totalidad la parte frontal de su cuerpo.
Además, cuenta con una señal auditiva que se
activa cuando el bastón cae al suelo, lo que permite al
10
11. usuario encontrarlo con facilidad. La pila es recargable
y cuenta con un sistema que avisa con una alarma
sonora cuando la carga está a punto de agotarse. El
mango fue el único inconveniente que tuvimos en un
principio, ya que los vibradores quedaron situados en
una posición incómoda y con un peso que no permitía
al usuario desplazarlo con facilidad. Este fue el primer
prototipo que sirvió para probar la funcionalidad de la
idea. Nos permitió participar en eventos regionales,
estatales y nacionales, en donde recibimos buenas
críticas e ideas para su mejoramiento. Empero, durante
los tres años siguientes el proyecto quedó detenido a
causa de dificultades personales, por lo que sólo se
mejoró su ergonomía.
A inicios de 2009, el proyecto por fin encuentra
eco en la sociedad y una consecuente mejora en todos
los aspectos, como la integración de un cargador de
la batería del bastón, optimización en el peso y en la
ergonomía, además de una reducción de su costo,
lo cual permite que sea tomado en cuenta como
un producto que facilita a los invidentes una mejor
integración a la sociedad. Todo ello nos llevó a participar
no sólo en eventos regionales, estatales y nacionales,
sino que se logró una participación internacional en
Brasil, gracias al apoyo del Consejo Estatal de Ciencia y
Tecnología, así como de la Secretaría de Educación en el
Estado, además del apoyo brindado por la Universidad
Michoacana de San Nicolás de Hidalgo. Obtuvimos
premios por la innovación del proyecto y su aplicación
en un grupo social altamente vulnerable que se encontraba
un poco olvidado.
Las funciones con las que actualmente cuenta
son dos sistemas de detección, uno para lugares en que
la interacción con obstáculos es más reducida, como en
un centro comercial, o mercado, en tal caso la detección
1Facultad de Biología,
Universidad Michoacana de San Nicolás de Hidalgo.
11
máxima del dispositivo es de 70 cm y la mínima 2
cm; por su parte si la persona necesita transitar en la
calle el riesgo de toparse con obstáculos que pudieran
causarle algún daño es mayor, por lo que la detección
de obstáculos máxima en este caso es de 2 m.
Para activar cualquier de las dos formas de
detección, se acciona un botón identificado en Braille.
Tres sensores conforman el sistema de detección
ubicados de tal forma que toda la parte frontal de la
persona se encuentra protegida y señales vibratorias
indican la distancia y el tamaño del objeto que pudiera
interactuar con el usuario del bastón; la señal audible para
que la persona encuentre con facilidad del dispositivo,
se integró de nueva cuenta. Una señal lumínica indica
a las personas no invidentes que la persona que transita
tiene algún problema visual, y de esta forma es posible
auxiliar a la persona en caso de ser necesario; la batería
es recargable y cuenta con un sistema de alarma que
indica cuando la batería necesita ser cargada, indica
también cuando el proceso de carga ha finalizado.
Es así como se desarrolló esta aventura llamada
“Bastón Ultrasónico para Invidentes”, una idea que se
logró gracias al apoyo de muchas personas e instituciones
y que nos ha llenado de satisfacciones. Actualmente es
un producto funcional que se encuentra en proceso de
lograr apoyo para su comercialización con el objetivo de
que las personas invidentes se desenvuelvan con mayor
independencia en la sociedad. Con ello estaremos
contribuyendo en el estado y el país a resolver problemas
utilizando la tecnología.
12. Las pinzas ópticas son dispositivos que permiten atrapar por
medio de luz -en este caso luz láser- objetos muy pequeños,
con tamaños que van desde fracciones de micras (unidad que
equivale a la millonésima parte de un metro) hasta decenas
de micras. Es posible atrapar –y manipular– con ellas, además
de la materia inorgánica, cosas vivas, como células, organelos
celulares, bacterias, entre otros. El funcionamiento de las pinzas
está basado en enfocar muy bien la luz del láser, a un punto muy
pequeño, de tal manera que los objetos son atraídos hacia las
regiones de mayor intensidad de la luz.
Luz y materia,
una nueva relación.
Entrevista a la Dra. Karen Patricia Volke Sepulveda1
Francisco M. Juárez Guerra2
¿En qué estado se encuentra la investigación sobre
pinzas ópticas en nuestro país?
En México se están realizando investigaciones con
pinzas ópticas, por ejemplo en el Instituto Nacional
de Astrofísica Óptica y Electrónica (INAOE) y en el
Centro de Investigación Científica y Educación Superior
(CICESE) en Ensenada, además de la investigación que
en este campo se lleva a cabo en la UNAM. Empezamos
bastante tarde con esta tecnología, fuimos el primer
laboratorio en la UNAM que empezó a hacer pinzas
ópticas; hoy en día afortunadamente hay ya bastantes
lugares más donde se lleva a cabo esta investigación
así como universidades interesadas en comenzar a
realizarlas.
¿Cuáles son las potencialidades que presenta este
campo de estudio?
Es en la biología donde las pinzas ópticas han
encontrado aplicaciones más relevantes; al tener la
capacidad de atrapar cosas vivas se posibilita ir aislando
poblaciones de células con las mismas características
para hacer estudios más controlados. Se pueden hacer
experimentos sobre una sola célula o sobre una bacteria
y esto ha traído repercusiones importantes; las pinzas
ópticas se pueden utilizar para procesos de fertilización
12
13. in Vitro, en donde se atrapa el espermatozoide y se le
guía hasta el óvulo. Desde el punto de vista de la física,
es una herramienta que nos permite estudiar cosas
tanto de la materia que podemos atrapar con las pinzas,
como de la luz en sí misma.
Supongamos que atrapamos una célula,
podemos observar su ciclo biológico, su división y muerte,
podemos caracterizar sus propiedades mecánicas,
por ejemplo su elasticidad y podemos observar en
tiempo real en combinación con otros métodos, qué
cambios químicos tienen lugar conforme ocurren estos
procesos.
Por ejemplo, los glóbulos rojos tienen
propiedades de elasticidad diferentes en pacientes
diabéticos respecto a los pacientes sanos, es
posible correlacionar estas propiedades con ciertas
enfermedades, de manera que se desarrollen incluso
métodos de diagnóstico.
¿Cuál es el mecanismo por medio del que, la luz es
capaz de manipular la materia?
Todos hemos tenido la experiencia del globo frotado
contra el cabello, cuando el cabello se levanta ocurre
porque hay un campo eléctrico, porque a pesar de que la
materia -usualmente- es eléctricamente neutra, cuando
frotamos el globo se redistribuyen las cargas eléctricas,
de modo que una parte queda cargada positivamente
y otra parte queda cargada negativamente, se genera
un campo eléctrico entre la cabeza y el globo, por eso
se levantan los cabellos. Todos hemos también jugado
con imanes, que se atraen o se repelen aún cuando no
estén en contacto; ese es otro ejemplo en que tenemos
campos de fuerza (acción a distancia), pero en ese
caso de origen magnético. En el caso de la luz, lo que
tenemos son campos eléctricos y magnéticos que oscilan
(cambian alternadamente de magnitud y dirección) muy
rápidamente en el tiempo, y a esto le llamamos ondas
electromagnéticas.
Hablando acerca de la interacción entre luz y
materia, el que juega un papel más importante es el
campo eléctrico de la luz. Al incidir sobre una partícula
neutra, como por ejemplo una pequeñísima esferita de
vidrio, el campo eléctrico de la luz hace que los átomos
o moléculas de la esfera se polaricen, es decir, que sus
centros de carga positiva y negativa se desplacen, y esto
provoca un campo eléctrico dentro de la partícula, pero
con dirección opuesta al de la luz. Si nosotros tenemos
una distribución de luz que no es homogénea, sino que
hay partes en donde es más intensa, la energía total
del sistema completo, del haz de luz más la partícula,
es menor cuando la esferita se coloca en la región
de máximo campo externo (mayor intensidad de luz),
porque a su vez el campo interno de la partícula,
que contrarresta al de la luz, va a ser mayor. Como
a la naturaleza le gusta existir con la mínima energía
posible, las partículas son atraídas hacia las regiones
de máxima intensidad de la luz por un mecanismo de
minimización de energía o, por decirlo de otro modo, de
ahorro energético de la naturaleza; sería una clase de
búsqueda del equilibrio.
Aunque esto ocurre para una gran cantidad de
materiales, como por ejemplo, partículas de vidrio, de
látex o incluso células inmersas en agua, en realidad
hay otros casos en que la energía se minimiza si las
partículas se alejan de las regiones de máxima intensidad
de luz, como sería el caso de burbujas de aire en agua.
La reacción que tenga una partícula ante la luz depende
de sus propiedades ópticas y de las propiedades del
medio en que se encuentra, pero esto no resulta en
una limitación para la técnica de pinzas ópticas, ya que
siempre es posible generar diferentes distribuciones de
luz para poder atrapar diversos tipos de partículas. El
hecho de moldear la distribución de la luz de acuerdo a
nuestras necesidades, es también una rama de estudio
de la óptica.
¿Se cuenta con la infraestructura y el nivel de
especialización adecuado para asegurar que las
próximas generaciones de investigadores encuentren
recursos para investigar esta área de la física?
La física experimental todavía tiene que ganar espacios,
en México el estudio de esta ciencia es joven y partió
de la física teórica, de la que en el país tenemos una
amplia tradición, sin embargo el estudio experimental
comenzó más tarde, ha tenido un camino más tortuoso,
porque se requieren más recursos para hacer física
experimental que para hacer física teórica.
13
14. 1Karen Volke Sepúlveda estudió la licenciatura en física en la Facultad
de Ciencias de la Universidad Nacional Autónoma de México y realizó
sus estudios de posgrado en el Instituto Nacional de Astrofísica Óptica
y Electrónica (INAOE). Obtuvo en 2003 el grado de doctor en ciencias
con especialidad en óptica, su tesis fue galardonada con el Premio
Weizmann, otorgado por el Instituto Weizmann y la Academia Mexicana
de Ciencias a la mejor tesis doctoral en ciencias exactas. Mereció también
el Premio Europeo de Óptica en el 2003 otorgado por la Sociedad
Europea de Óptica. Actualmente se desempeña como Investigador
Titular en el Instituto de Física de la UNAM, es miembro del sistema
Nacional de Investigadores, nivel II. En el 2010 recibió el Reconocimiento
Distinción Universidad Nacional para Jóvenes Académicos en el área de
Investigación en Ciencias Exactas.
2Estudiante del Posgrado en Ciencia e Ingeniería en Materiales,
Instituto de Investigaciones en Materiales,
UNAM.
Sin embargo, hoy ocupa un lugar importante
en México, se hacen investigaciones de frontera
reportadas en las mejores revistas internacionales, aún
así se necesita más apoyo y más espacios para equipar
nuevos laboratorios, además de plazas para contratar
jóvenes que se han preparado en relación a las nuevas
tecnologías; en provincia, la situación es más crítica,
hace falta apoyo sobre todo de las universidades, para
equipar laboratorios.
¿Qué tanta influencia ha tenido la investigación
avanzada en óptica en el desarrollo de nuevas
tecnologías?
Es una de las áreas que más aplicaciones puede encontrar,
como ejemplo, en la última década se ha desarrollado
una nueva área que combina biología con óptica, se
llama biofotónica; parte de utilizar la tecnología óptica
ya sea para tratamiento o para diagnóstico. La óptica
quizá es de las áreas de la física la que más impacto
ha tenido en la tecnología, especialmente desde el
surgimiento del láser, la cantidad de cosas de la vida
cotidiana que fueron desarrollados en base a la óptica
es enorme, los lectores de precios, reproductores de
CD, DVD, Blu-Ray, entre otros.
¿Cuál es el panorama en la sociedad respecto a la
comunicación pública de los temas avanzados de
física?
Es una responsabilidad muy importante la labor que
hacen las revistas y los medios diversos que se encargan
de hacer difusión de la ciencia y la investigación que se
hace en México, y por otra parte de los investigadores
quienes tenemos la responsabilidad de comunicarle a
la sociedad aquello sobre lo que trabajamos.
Cualquier sociedad que aspire a obtener
independencia económica está obligada a fortalecer
todas las áreas de investigación científica que
posteriormente van a desarrollar tecnología; es
importante la ciencia aplicada, no hay duda, pero
también es importante la ciencia desde el punto de
vista básico, lo más caro que puede uno vender son las
ideas, la tecnología. Es vital transmitir la importancia que
tiene desarrollar ciencia y tecnología en el país, porque en
última instancia es lo que nos puede hacer independientes.
¿En qué nivel se encuentra la investigación en pinzas
ópticas en nuestro país en comparación con la
investigación que en el mismo campo se realiza en
otros países?
A pesar de que es un laboratorio pequeño, hemos
conseguido resultados de impacto, se manifiesta en el
hecho de que nos invitan a dar pláticas, a congresos, lo
que hacemos se encuentra al mismo nivel de lo que se
hace en otras partes del mundo. En cuanto a la cantidad,
estamos haciendo menos cosas; en otros países cuentan
con laboratorios de mayor tamaño. Hace falta impulsar
más esta área porque estamos generando investigación
que en calidad pueden competir con lo que se hace en
el exterior, nos gustaría tener más infraestructura, en
calidad somos competitivos, en cantidad nos quedamos
muy cortos.
14
15.
16. La física de las
partículas
elementales
Luis Manuel Villaseñor Cendejas1
La investigación científica es fascinante. Hace apenas
200 años, nadie, ni siquiera los científicos que lograron
sorprendentes resultados, como Faraday y Maxwell,
sospechaban del enorme número de aplicaciones que
tendrían sus investigaciones y que hoy hacen nuestra
vida mucho más cómoda. Para ilustrar la importancia
de los experimentos científicos, vamos a describir
cómo se logró entender la estructura de los átomos.
17. Uno de los descubrimientos científicos más importantes a lo
largo de la historia de la humanidad es el hecho de que la materia
ordinaria está constituida por átomos. Este hallazgo fue inicialmente
sugerido hace cerca de 2400 años por los antiguos griegos, en
particular por el filósofo Demócrito, sin embargo, su confirmación
rigurosa y apegada al método científico se realizó hasta el año
1905, cuando Albert Einstein publicó un artículo en el que interpretó
correctamente el movimiento browniano. Este movimiento se llama
así en honor del botánico inglés Robert Brown, quien observó en
1827 que los granos de polen suspendidos en agua presentan un
movimiento aleatorio visible a través de un pequeño microscopio.
La interpretación de Einstein explica este movimiento como
consecuencia del choque aleatorio de las moléculas de agua con
los granos de polen.
Se dice que la materia ordinaria está constituida por átomos
—ya que existe otro tipo de materia en el Universo, llamada materia
oscura—. Gracias a varias observaciones astrofísicas que se han
realizado en los últimos 40 años, sabemos que la materia oscura es
6 veces más abundante que la materia ordinaria, sin embargo, aún
no sabemos de qué está constituida. Se le llama materia oscura
porque, a diferencia de la materia ordinaria, no emite luz y sólo
interacciona a través de dos tipos de fuerza, la llamada fuerza
débil y la fuerza gravitatoria. Hasta ahora la materia oscura se ha
podido detectar únicamente a través de sus
efectos gravitatorios a muy grandes escalas,
en las galaxias y los cúmulos de galaxias.
Sin embargo, en este momento hay un
gran número de científicos trabajando para
tratar de entender de qué está constituida
esta enigmática materia oscura y cómo
interacciona a través de la fuerza débil.
También existe otro componente del
Universo aún más cuantioso que la materia
oscura y de la cual sabemos aún menos. A
este componente se le llama energía oscura;
se estima que es 18 veces más abundante
que la materia ordinaria y su efecto hace
que nuestro Universo se expanda en forma
acelerada. A pesar de que la comunidad
científica estaba segura de que la expansión
del Universo debería disminuir con el
tiempo, la expansión acelerada del Universo
se descubrió por dos grupos de científicos
apenas en 1998 y resultó ser toda una
sorpresa.
A diferencia de los antiguos
griegos que desdeñaban los experimentos,
ahora sabemos que para entender
cómo funciona el Universo es necesario
realizarlos, mismos que se deben planear
cuidadosamente. Su importancia es vital,
ya que nos permiten poner a prueba todos
los aspectos de las teorías que vamos
elaborando, gradualmente, hasta que éstas,
nos proporcionan respuestas confiables y
duraderas acerca de la naturaleza. Esta
es la esencia del método científico, al
usarlo como guía hemos emprendido una
interminable aventura por los intrincados
parajes del conocimiento y hemos podido,
poco a poco, aplicar ese conocimiento
para el beneficio de la humanidad. Aunque
también sería justo decir que en contadas
ocasiones, como es el caso de la bomba
atómica, ese mismo conocimiento se ha
usado para causar muertes y destrucción.
Para ilustrar la importancia de los
experimentos vamos a describir cómo se
logró entender la estructura de los átomos.
El físico Ernest Rutherford realizó en
1911 una serie de experimentos en los que
lanzó proyectiles subatómicos con carga
eléctrica positiva, llamados partículas alfa, a
una lámina muy delgada de oro. Rutherford
y dos de sus estudiantes esperaban que
17
18. todos los proyectiles atravesaran la lámina
de oro, sin embargo, para su sorpresa
encontraron que en raras ocasiones los
proyectiles rebotaban.
Según su interpretación eso se debe
a que los átomos tienen casi toda su masa
concentrada en su centro, llamado núcleo.
El núcleo tiene también carga
positiva, de modo que los proyectiles positivos
rebotan cuando chocan de frente con el
núcleo, debido a que las cargas eléctricas
del mismo signo se repelen entre sí. El hecho
observado de que sólo una fracción muy
pequeña de los proyectiles rebotan significa
que el tamaño del núcleo es muy pequeño
comparado con el tamaño del átomo.
Aparte de los núcleos, los átomos
constan de otras partículas llamadas
electrones, que rodean a los núcleos y que
poseen carga negativa. Los electrones se
descubrieron en 1897 gracias a los trabajos
del físico Joseph John Thomson con un
aparato llamado tubo de rayos catódicos,
parecido a los cinescopios de las televisiones
antiguas. Los átomos son normalmente
neutros debido a que el número de protones
en el núcleo es igual al número de electrones que circundan el
núcleo. En la década de los treinta se descubrió que los núcleos de
los átomos están formados por neutrones y protones. Los protones
son partículas cargadas positivamente y los neutrones son partículas
que tienen casi la misma masa que los protones pero son neutros.
Es casi como un sistema solar en miniatura, salvo que el
movimiento de todas estas partículas subatómicas se rige por una
teoría que se elaboró gradualmente durante la primera mitad del
siglo XX, que se llama mecánica cuántica. Por cierto, Albert Einstein
contribuyó en forma crucial a desarrollar esta teoría que en la mayoría
de los casos contradice lo que esperaríamos con nuestro sentido
común. Son tan inusuales los conceptos de la mecánica cuántica
que el mismo Einstein pasó muchos de sus últimos años tratando
de encontrar, sin éxito, una teoría alternativa o menos enigmática.
Sin embargo, hoy en día contamos con muchos dispositivos de
alta tecnología como los láseres, las computadoras, el internet, los
celulares, los televisores, rayos X, equipos de diagnóstico y cura
de muchas enfermedades, etc., debido al profundo conocimiento
que tenemos del mundo microscópico a través de la mecánica
cuántica.
El tamaño de los átomos es muy pequeño, por ejemplo, para
que un átomo de Hidrógeno, el elemento más ligero y abundante,
se viera de un centímetro de diámetro tendríamos que amplificarlo
cien millones de veces. En otras palabras, se requerirían cien
millones de átomos de Hidrógeno puestos en hilera para completar
una línea de un centímetro. El tamaño de los núcleos es mucho más
pequeño, cerca de 100 mil veces más pequeño. Si imagináramos
que el núcleo de un átomo de Hidrógeno, que es simplemente un
protón, fuera del tamaño de uno de los puntos de este texto, de
alrededor de medio milímetro de diámetro, entonces el tamaño
de dicho átomo de Hidrógeno amplificado sería de cerca de 50
metros de diámetro. Aunque aún no hemos medido el tamaño de
los electrones, sabemos que son al menos cien veces más pequeños
que los protones, pero a medida que nuestros aparatos de medición
se hagan más sensibles quizá podríamos encontrar que son en
realidad mucho más pequeños.
El tamaño de los átomos no varía mucho, por ejemplo, el
tamaño de un átomo de Uranio, uno de los elementos más pesados
que existe en forma natural y 238 veces más pesado que un átomo de
Hoy en día contamos con
muchos dispositivos de alta
tecnología como los láseres, las
computadoras, el internet, los
celulares, los televisores, rayos
X, equipos de diagnóstico y cura
de muchas enfermedades, etc.,
debido al profundo conocimiento
que tenemos del mundo
microscópico a través de la
mecánica cuántica
18
19. Hidrógeno, es sólo cerca de cuatro veces
mayor que el tamaño de un átomo de
Hidrógeno. Podemos, en consecuencia,
decir que los átomos y las moléculas se
componen de casi puro espacio vacío.
Por suerte nos ha tocado vivir
en un momento muy interesante,
justo ahora y a nivel mundial, se están
realizando varios experimentos que nos
permitirán avanzar en el conocimiento
sobre cuáles son y cómo se comportan
las partículas elementales. Por ejemplo,
en el laboratorio europeo llamado CERN,
por sus siglas en francés (Organización
Europea para la Investigación Nuclear),
trabajan miles de científicos de decenas
de países, incluyendo a México. En
este laboratorio se realiza al momento
un experimento similar al que hiciera
Rutherford hace 100 años, pero usando
proyectiles que tienen energías miles de
millones de veces superiores.
Este experimento consiste en
acelerar protones hasta casi la velocidad
de la luz en un anillo de 27 km de
circunferencia, dentro del llamado Gran
Acelerador de Hadrones, mejor conocido
como LHC por sus siglas en inglés (Large
Hadron Collider). El propósito de este experimento es hacer chocar
los protones que viajan en un sentido del anillo con los que viajan
en sentido contrario. Como resultado de estos choques podremos
recrear algunas de las condiciones que existieron durante las primeras
fracciones de segundo después de que se creó el Universo.
A pesar de que el LHC fue anunciado por algunos medios
informativos cuando inició sus operaciones, en 2008, como el
experimento científico que acabaría con la Tierra, no hay ninguna
duda de que el LHC es completamente seguro. Los medios informaron
que las colisiones tan energéticas entre los protones producirían hoyos
negros, que, aunque microscópicos, gradualmente irían absorbiendo
toda la materia a su alrededor hasta acabar con nuestro planeta. Lo
que los medios no dijeron es que en la atmósfera de la Tierra ocurren
constantemente colisiones entre protones ultra energéticos, que
llegan a la tierra con energías 100 millones de veces mayores que los
protones del LHC, y los protones y neutrones que hay en los núcleos
de los átomos en la atmósfera terrestre. Estas colisiones ocurren con
energías efectivas que son decenas de veces mayores que las energías
que resultan de los choques entre protones en el LHC. Estos protones
que llegan a la tierra, llamados rayos cósmicos ultra energéticos, son
acelerados fuera de nuestra Galaxia por algún mecanismo acelerador
a escala cósmica que apenas estamos comenzando a entender.
Es fácil darse cuenta que si las colisiones del LHC fueran
peligrosas como anunciaron los medios, las colisiones de los rayos
cósmicos ultra energéticos con la Tierra, la habrían desaparecido desde
hace mucho tiempo. Pero, afortunadamente, nada de eso ocurre y
aquí estamos, intentando hacer el experimento más complejo que
jamás se haya intentado. La verdad es que no sabemos si se forman
o no hoyos negros microscópicos como consecuencia de las colisiones
entre protones con altas energías, lo que sí es seguro es que en caso de
que se formaran, estos hoyos negros se evaporarían inmediatamente,
sin causar daños, a través de un mecanismo de radiación que postuló
el famoso científico inglés Stephen Hawking.
Resulta que las investigaciones de los últimos 114 años, desde
que se descubrió el electrón en 1897, se pueden resumir en una teoría
que se llama el Modelo Estándar. Esta teoría es la más exitosa que
tenemos para entender cuáles son y cómo se comportan las partículas
elementales. El Modelo Estándar nos permite entender tres de las
cuatro fuerzas fundamentales que existen. Estas fuerzas son la fuerza
electromagnética, la fuerza débil y la fuerza fuerte. La cuarta fuerza
es la fuerza gravitacional, que, a pesar de los avances hechos por
científicos como Isaac Newton y Albert Einstein, es sumamente difícil
de entender cuando actúa a escalas microscópicas y no tenemos aún
un modelo satisfactorio de su comportamiento.
De todas las partículas que incorpora el Modelo Estándar,
solamente nos falta por descubrir una, de hecho la que falta es la más
importante, porque nos permitirá entender cómo es que las demás
partículas adquieren masa. Esta partícula se llama Higgs, en honor al
científico Peter Higgs. Las demás partículas del Modelo Estándar son
de dos tipos: leptones y quarks por un lado, y partículas intermediarias
de las interacciones, por el otro. Del primer tipo, quarks y leptones, la
partícula más conocida es el electrón, mientras que del segundo, el de
19
20. partículas intermediarias, la partícula más conocida es la
partícula de luz, también llamada fotón. En este esquema,
sabemos que los protones y neutrones están hechos de
quarks ligeros. Respecto a los últimos avances que hemos
hecho relacionados con las partículas elementales, tal
vez el lector se enteró que en 1995 se descubrió el quark
top en un laboratorio llamado Fermilab, situado cerca
de Chicago. Esta partícula es la más pesada de todos los
seis tipos de quarks que hemos descubierto hasta ahora.
Estos quarks, al igual que la partícula Higgs, ya habían
sido predichos por el Modelo Estándar.
1Instituto de Física y Matemáticas,
Universidad Michoacana de San Nicolás de Hidalgo.
El Gran Acelerador de Hadrones (LHC)
tiene el potencial para descubrir las
partículas que componen la materia oscura
del Universo
Respecto a la pregunta sobre si vale la pena
invertir decenas de miles de millones de dólares en este
tipo de investigaciones, podemos comentar que cuando
se empezó a estudiar la fuerza electromagnética, hace
apenas 200 años, nadie, ni siquiera los científicos
que lograron los primeros resultados, como Faraday
y Maxwell, sospechaban del enorme número de
aplicaciones que tendrían sus investigaciones y que
hoy hacen nuestra vida mucho más cómoda. La
investigación científica es fascinante: no sólo nos
proporciona conocimiento que nos permite entender
cada vez mejor a la Naturaleza, sino que además
constituye un importante eje de desarrollo integral de
los países.
Imagine el lector cómo sería nuestro estilo de
vida sin todos los beneficios que tenemos gracias a los
avances científicos y a sus aplicaciones tecnológicas.
Aunque el Modelo Estándar ha sido tan exitoso
para ayudarnos a entender las maneras en que se
comportan las partículas elementales, agrupadas en
tres familias de quarks y leptones, sabemos que no es
perfecto, porque no incorpora a la fuerza gravitacional.
Hoy día creemos que debemos encontrar una teoría que
incluya a todas las fuerzas y a todas las partículas. A esa
teoría se le conoce como Teoría del Todo. La Teoría del
Todo deberá permitirnos entender lo que son la Materia
y la Energía Oscuras. El LHC tiene también el potencial
para descubrir las partículas que componen la Materia
Oscura del Universo. El estudio de lo más pequeño, las
partículas elementales, y de lo más grande, el Universo,
están íntimamente relacionados.
Como el lector puede apreciar, el trabajo de
los científicos nunca termina, cuando se responde una
pregunta de inmediato surgen nuevos datos y nuevas
preguntas y así, paso a paso, con un interés cada vez
creciente, vamos mejorando nuestro conocimiento de la
Naturaleza.
Para saber más sobre las partículas y las fuerzas
elementales se puede consultar:
http://www.particleadventure.org/spanish/index.html
http://www.solociencia.com/fisica/
20
21. Las computadoras cuánticas están a la vuelta de la esquina. Los dispositivos cuyas
funciones se basan en el espín del electrón forman lo que se conoce como espintrónica
(electrónica basada en el espín) o magnetoelectrónica (transporte de electrones con
espín polarizado). Con este tipo de dispositivos se podrán crear discos duros, traductores
y unidades de procesamiento cuyo poder apenas comenzamos a captar
La nueva electrónica
basada en el espín:
la espintrónica
Oracio Navarro1
22. Uno de los temas de mayor relevancia a nivel mundial hoy en
día es la nanotecnología, cuya variedad de aplicaciones abarca
desde la obtención de nuevos productos para la medicina y la
solución de problemas ambientales, hasta su aplicación en la
producción de cosméticos
La nanotecnología hoy en día ya no es sólo una
ciencia del futuro, la gran cantidad de aplicaciones en
la vida cotidiana nos pueden dar cuenta de ello; por
ejemplo, entre las aplicaciones que ya están disponibles
en el mercado y que utilizan técnicas basadas en la
nanotecnología podemos mencionar las siguientes:
materiales más ligeros y más duros para la industria
aeronáutica y automotriz, cremas de protección solar que
absorben los rayos ultravioleta, lentes muy resistentes y
difíciles de rayar, nuevos sensores con aplicaciones en
la medicina, en el control del medio ambiente y en la
fabricación de productos químicos y farmacéuticos.
Incluso podemos mencionar su aplicación en la
industria de la construcción y las carreteras mediante
el uso de polímeros con memoria que pueden auto-restaurarse;
por ejemplo, las barreras de contención
que se restauran ellas mismas después de un choque.
En este sentido podemos decir que uno de los temas
de mayor relevancia a nivel mundial hoy en día es sin
duda la nanotecnología, cuya variedad de aplicaciones
abarca desde la obtención de nuevos productos para la
medicina y la solución de problemas ambientales, hasta
su aplicación en la producción de cosméticos.
Aún dentro del intervalo de la electrónica clásica,
el rápido avance en la miniaturización de los dispositivos
electrónicos ha permitido la fabricación de microchips.
En este sentido, sin embargo, se empiezan a alcanzar
algunos límites tecnológicos como el de la litografía y la
reducción de tamaño de los transistores. Con la llegada
de la nanotecnología, es decir, de la ciencia que se
dedica al estudio y manipulación de la materia a nivel
de los átomos y las moléculas —un nanómetro es la
mil millonésima parte de un metro (un punto seguido
de ocho ceros y un uno que usualmente se denota por
10-9 metros)— se tiene una oportunidad sin precedentes
para definir una nueva clase de dispositivos y así explorar
el mundo de la mecánica cuántica.
Además de su masa y su carga, los electrones
tienen una cantidad intrínseca de momento angular
llamada espín, casi como si fueran bolas giratorias. Una
de las características importantes de esta propiedad
cuántica del electrón, es que el espín tiene asociado un
campo magnético semejante al de un imán de barra.
Cabe recordar que los electrones en el átomo
cuentan con cuatro números cuánticos: n, l, m y s. Los
tres primeros determinan el orbital en que se encuentra
el electrón (una órbita es la región en la que el electrón
gira alrededor del núcleo). El número cuántico “s”,
denota el espín del electrón. Los científicos representan
el espín como un vector, para una esfera que gira de
oeste a este, el vector apunta hacia el norte o hacia
arriba. Para el espín opuesto apunta hacia abajo. En un
circuito eléctrico clásico los espines están orientados al
azar y no tienen efecto sobre el flujo de la corriente.
Por el contrario, los dispositivos espintrónicos
crean corrientes polarizadas de espín y lo usan para
controlar el flujo de corriente. Por consiguiente, resulta
de gran interés enfocarse directamente hacia el diseño
de aparatos cuánticos, es decir, dispositivos donde el
espín del electrón es fundamental. Los dispositivos cuyas
22
23. funciones se basan en el espín del electrón, forman lo
que se conoce como espintrónica (electrónica basada en
el espín) o magnetoelectrónica (transporte de electrones
con espín polarizado). Un ejemplo de los dispositivos que
funcionan con el espín del electrón puede ser el microchip
espintrónico (ver figura 1) o el transistor de efecto de
campo espintrónico conocido como FET de espín (ver
figura 2). La espintrónica utiliza tanto la carga como
el espín del electrón, este último está estrechamente
relacionado con el magnetismo y puede tomar sólo
dos valores, +1/2 o -1/2 (en unidades de energía).
Por consiguiente, uno de los requisitos para construir
un aparato espintrónico es disponer de un sistema que
pueda generar una corriente de electrones con “espín
polarizado” (donde todos los electrones tienen el mismo
valor del espín) y otro sistema que sea sensible a dicha
polarización. Dicho dispositivo espintrónico permitiría la
transmisión de un par de señales por un único canal
usando electrones con espín polarizado (con una señal
diferente para cada uno de los dos valores de espín), lo
que duplicará el ancho de banda del cable.
Uno de los aparatos espintrónicos más importantes
es el conocido como válvula de espín, un dispositivo con
una estructura de multicapas especialmente construidas
para detectar las transiciones magnéticas. En este tipo de
sensores se observa que, cuando las capas magnéticamente
activas se alinean en forma antiparalela, la resistencia es
alta y disminuye rápidamente cuando el alineamiento es
paralelo. El uso de este dispositivo ha sido muy común como
traductor en la cabeza de discos duros de computadora
(ver figura 3). Por consiguiente, entender el mecanismo
responsable del acoplamiento magnético en multicapas,
podría conducirnos a encontrar la óptima configuración de
la estructura para espintrónica. Lo anterior resulta ser uno
de los grandes retos para la nueva tecnología basada en
espintrónica.
La espintrónica puede tener un impacto radical
en los diferentes dispositivos de almacenamiento de
información (cintas magnéticas, celulares, discos duros
de las computadoras, Ipods, etc.). El uso convencional
del estado de un electrón en un semiconductor
es la representación binaria, por ejemplo, en una
Figura 1.Un ejemplo de los dispositivos que funcionan con el espín del
electrón puede ser el microchip espintrónico.
Figura 3. Los dos componentes de mayor interés desde el punto de vista
de la nanociencia en un disco duro son: el medio magnético donde se
almacena la información y la cabeza de lectura/escritura.
Figura 2. El FET de espín tiene una fuente y un colector, separados por
un canal semiconductor estrecho, igual que en un FET convencional. En
esta propuesta tanto la fuente como el colector son ferromagnéticos. La
fuente envía electrones con espín polarizado por el canal y esta corriente
de espines fluye fácilmente (figura de arriba). Cuando se aplica un voltaje
se produce un campo eléctrico en el canal (figura de abajo), el cual hace
que los electrones que se mueven más rápido precesen o roten. 23
24. computadora convencional cada bit tiene un valor
definido de 0 o 1. En espintrónica los estados del espín
del electrón, restringidos a espín hacia arriba (+1/2) o
espín hacia abajo (-1/2), podrían usarse también como
bits. Estos bits son más generales y se conocen como
bits cuánticos, que se denominan qubits (ver figura 4).
Los qubits son las unidades mínimas de
información cuántica, dicha información puede
representarse mediante el estado de un sistema cuántico
binario. Matemáticamente puede escribirse como un
vector de módulo unidad, los estados básicos de un
qubit son entonces |0> y |1> que corresponden al 0 y
1 del bit clásico (se pronuncian ket cero y ket uno). Pero
además el qubit puede encontrarse en un estado de
superposición cuántica, es decir, en una combinación
de los dos estados anteriores (|ψ> = α|0> + β|1>),
en esto es significativamente distinto al estado de un bit
clásico, que sólo puede tomar los valores de 0 y 1. Los
espines de los electrones son qubits naturales y pueden
dar lugar a las computadoras cuánticas.
Figura 4. a) En una computadora convencional cada bit tiene un valor
definido de 0 ó 1, de tal forma que una serie de 8 bits puede representar
un número. Los espines de los electrones también podrían usarse como
bits. b) Los estados básicos de un qubit son |0> y |1> que corresponden
a 0 y 1 del bit clásico, pero además el qubit puede encontrase en un
estado de superposición o bien como una combinación de los dos estados
anteriores, en esto es significativamente diferente al bit clásico que toma
sólo los valores de 0 y 1.
El magnetismo (y por lo tanto, el espín
del electrón) ha sido siempre importante para el
almacenamiento de información. Los primeros
discos duros de las computadoras utilizaron el efecto
conocido como magnetorresistencia (un cambio en
la resistencia eléctrica generado por la presencia de
24
25. un campo magnético) para leer datos almacenados
en dominios magnéticos. Actualmente, la mayoría de
las computadoras portátiles poseen discos duros de
alta densidad lo cual permite almacenar una inmensa
cantidad de datos por mm2. Los discos se basan en un
efecto espintrónico, la magnetorresistencia gigante,
para leer/escribir tal densidad de datos. Cuando
hablamos de magnetorresistencia gigante nos referimos
a que tenemos una reducción drástica de la resistencia
eléctrica (con campos magnéticos pequeños), del
orden de 100 veces la observada en metales simples,
multiplicando así por 100 la capacidad de guardar y
leer información en medios magnéticos.
El reciente descubrimiento de la magnetorresis-tencia
colosal (es decir, con valores de magnetorresistencia
gigantescos), propiedad que permite a los materiales
cambios considerables de su resistencia eléctrica en
presencia de campos magnéticos, ofrece grandes
oportunidades para el desarrollo de nuevas tecnologías
de la información como las cabezas de lectura/escritura
de discos duros para el almacenamiento magnético de
información con alta capacidad.
Con el fin de resaltar la importancia de las
investigaciones en magnetorresistencia colosal (efecto
espintrónico), podemos mencionar que en 2007 les fue
otorgado el premio nobel de Física a los investigadores
Albert Fert, de Francia, y Peter Gruenberg, de Alemania,
precisamente por este descubrimiento.
1Instituto de Investigaciones en Materiales,
Universidad Nacional Autónoma de México, Campus Morelia.
navarro@unam.mx
La espintrónica puede tener un impacto
radical en los diferentes dispositivos
de almacenamiento de información
(cintas magnéticas, celulares, discos
duros de las computadoras, Ipods, etc.)
25
26. El ocaso de la certeza
en la física
Salvador Jara Guerrero1
La mecánica cuántica y los sistemas dinámicos son el mejor ejemplo de una nueva
ciencia. Cualitativa, menos dura, que pone de manifiesto su dependencia del sujeto;
una ciencia más cercana a las humanidades y que contribuye al ideal de ver la ciencia
con la óptica del artista, y el arte con la de la vida.
27. Aristóteles fue el primer observador sistemático de la naturaleza y a quien se deben las primeras
explicaciones empíricas generales. En su libro Estudios Galileanos, Alexander Koyré considera a la
física aristotélica como el primer periodo en la historia del pensamiento científico. Según este escritor,
el segundo periodo sería la física medieval y, el tercero, el de la física matemática y experimental que
surge con los trabajos de Galileo Galilei y que dio lugar a la física clásica con Newton y Maxwell,
entre otros.
En la física clásica ya no tienen cabida los signos-secretos de los periodos anteriores, sino
sólo los fenómenos. El Universo y sus leyes se conciben desde entonces como independientes de
los hombres, libres de toda subjetividad. Las leyes de la física clásica nos permiten ver hacia atrás
y hacia adelante en el tiempo con toda precisión. Pero no todos los fenómenos son así; muchos
de ellos, aunque obedecen a leyes o a reglas, no se pueden predecir, son como el lanzamiento de
una moneda al aire, no sabemos con certeza el resultado. Sin embargo, dentro del paradigma de
la física clásica la falta de certeza en el resultado del lanzamiento de una moneda es solamente
ilusorio: si conociéramos con absoluta precisión las variables iniciales del lanzamiento de la moneda
y la velocidad del viento, las leyes de la física clásica nos permitirían predecir con toda certeza los
resultados.
La física clásica y su modelo de ciencia constituyeron un paradigma en el que se mostraba
que el destino del Universo ya estaba escrito, ya todo había sido previsto en la naturaleza que,
obediente de las leyes matemáticas, permitía predecir con certidumbre todos los fenómenos, y más
aún, explicarlos y comprenderlos con mecanismos realistas, pictóricos e imaginables. Pero a inicios
del siglo XX apareció la mecánica cuántica, la cual pone en entredicho los fundamentos clásicos al
aplicarlos al mundo microscópico, donde los objetos no se comportan como en el mundo cotidiano.
En efecto, la mecánica cuántica da lugar a una imagen del mundo muy distinta. La matemática que
se usa en la mecánica cuántica ya no permite imaginar los “objetos” de forma realista, como era
posible con la física clásica.
De acuerdo con la interpretación de Copenhague de la mecánica cuántica, el objeto que es
observado y el instrumento de observación forman un sistema indivisible; ya no podemos distinguir
el objeto físico de su interacción con nuestros instrumentos de percepción, estamos simplemente
entendiendo el instrumento en un sentido más amplio, como una extensión de los sentidos del
cuerpo. “Medición es todo lo que hay”, decía Niels Bohr. En la física cuántica los instrumentos son
nuestro medio general de comprender al mundo. El instrumento re-inventa al mundo.
27
28. El físico alemán Werner Heisenberg demostró
en 1927 que, a diferencia de lo que ocurre con la física
clásica, es imposible idear ningún método o instrumento
para determinar exacta y simultáneamente la posición
y la velocidad de cualquier objeto. Cuanto mayor es la
precisión con que determinamos la posición, menor es
la de su velocidad, y viceversa. Esa es la esencia del
principio de incertidumbre de Heisenberg.
También es apropiado mencionar la paradoja del
“gato de Schrodinger” que consiste en un experimento
pensado por Erwin Schrodinger, otro de los creadores de
la mecánica cuántica, en el que se pone un gato dentro
de una caja cerrada. Como parte del experimento se
adapta un dispositivo que mate al gato si un átomo
radiactivo emite una partícula. Finalmente, se prepara
al elemento radiactivo de modo que la probabilidad de
emisión sea exactamente de una partícula por cada
hora.
Es claro que al cabo de una hora habrá ocurrido
uno de los dos sucesos posibles: el átomo radiactivo ha
emitido una partícula o no la ha emitido. La probabilidad
de que ocurra una cosa o la otra es la misma. Usando
la física clásica como guía diríamos que en el interior
de la caja el gato está vivo o está muerto aún sin que
lo observemos. Pero no podemos saberlo si no abrimos
la caja para comprobarlo. Sin embargo, al usar la física
cuántica para describir lo que ocurre en el interior de
la caja llegamos a una conclusión muy extraña. El
estado del gato queda descrito por una función de onda
que es la superposición de dos estados combinados
al cincuenta por ciento: “gato vivo” y “gato muerto”.
Es decir, aplicando el formalismo cuántico, el gato no
está vivo o muerto sino en este estado superpuesto,
a menos que realicemos la medida al abrir la caja y
mirar dentro. Vemos que el sentido de realidad depende
fuertemente del observador, ciertamente podemos
pensar en identificar al mismo gato con el observador,
de modo que la realidad del gato auto-observador es
muy diferente de la realidad descrita por un observador
externo.
En otras palabras, partiendo de un gato vivo al
inicio del experimento, la descripción más completa que
la física nos permite hacer sobre el estado del gato al
cabo de una hora carece completamente de certeza.
Lo único que nos permite afirmar es que si repetimos
muchas veces este experimento, en el momento que
miramos dentro de la caja, justamente al cabo de una
hora, la mitad de las veces encontraremos al gato vivo y
la otra mitad lo encontraremos muerto. En forma similar
a lo que ocurre con el lanzamiento de una moneda.
28
29. La física cuántica nos reitera, después
de casi 100 años de debates por parte
de las mejores mentes, una completa
pérdida de la certeza en la descripción
del mundo. Según la física cuántica
el concepto mismo de realidad se
desvanece, el Universo se recrea con
cada acto de observación
29
El mismo Einstein tildaba esta descripción como
incompleta. Para él era inconcebible que nuestra mejor
teoría científica fuera incapaz de dotar de realidad a
algo tan cotidiano como un gato encerrado en una
caja. En 1935 escribió junto con dos de sus colegas,
Boris Podolsky and Nathan Rosen, un artículo en el que
argumentaron que la mecánica cuántica es una teoría
incompleta y sentaron las bases de lo que con el tiempo
se conocería como la “paradoja EPR”. Einstein murió en
1955 convencido de que con el tiempo se mejoraría la
mecánica cuántica a través de la incorporación de otras
variables, llamadas “ocultas”, para convertirla en una
teoría en la que “Dios no juegue a los dados”.
En 1964 el físico John Bell, del laboratorio CERN
en Ginebra Suiza, propuso una serie de experimentos
en cuyos resultados la mecánica cuántica y las teorías
cuánticas modificadas “a la Einstein”, es decir, con
variables ocultas, dan resultados diferentes. Sin embargo,
la tecnología para poder realizar estos experimentos
estuvo disponible sólo a partir de la década de los
ochentas. Afortunadamente, desde 1982 este tipo de
experimentos se han venido realizando, inicialmente por
el físico francés Alain Aspect, y después por otros físicos
con precisión cada vez mayor. Sorprendentemente
en todos los casos la mecánica cuántica ha salido
victoriosa.
Regresando a la paradoja del gato de
Schrodinger, podemos afirmar que la descripción más
completa que la ciencia puede hacer sobre el estado
del gato lo sitúa en un estado misterioso en el que no
está ni vivo ni muerto. O volviendo al problema de la
medición, la ciencia actual nos dice que un átomo
está desparramado por todo el Universo a menos que
hagamos una medición para determinar su posición. Es
decir, que la física cuántica nos reitera, después de casi
100 años de debates por parte de las mejores mentes,
una completa pérdida de la certeza en la descripción del
mundo. El problema va incluso más lejos, según la física
cuántica el concepto mismo de realidad se desvanece,
el Universo se recrea con cada acto de observación.
La física cuántica plantea un alejamiento del
realismo, en el sentido de la correspondencia entre
la teoría física y la realidad. La mecánica cuántica ha
traído consigo abstracciones cada vez más vagas, que
aparecen como extrañas, misteriosas y fascinantes.
De acuerdo con esta teoría las partículas subatómicas
no siguen leyes inmutables, su comportamiento no es
totalmente predecible y, además, todo está lleno de
indeterminación; en palabras del Premio Nobel Ilya
Prigogine: “lo natural contiene elementos esenciales de
azar e irreversibilidad”.
Pero de acuerdo con otras interpretaciones
más recientes, el azar cuántico es objetivo. Es decir,
no es producto de nuestra incapacidad para realizar
ciertas mediciones, como lo sostiene la interpretación
de Copenhague: el azar cuántico es equivalente al caso
del lanzamiento de una moneda al aire en el que la
sensibilidad del fenómeno no permite que midamos con
absoluta precisión y, por tanto, no podemos controlar
ni las condiciones iniciales ni el resultado. El azar en la
mecánica cuántica es una propiedad de la estructura
física del mundo, es irreductible.
Las consecuencias más importantes de esa
nueva concepción del mundo que nace con la mecánica
cuántica, independientemente de la interpretación que
se sostenga, son, en primer término, la existencia de una
incertidumbre permanente y, en segundo, la instalación
de la probabilidad en el lugar de la certeza. Lo que nos
informa la nueva teoría es que podemos calificar nuestra
percepción del mundo como borrosa y la realidad física
de mundo cuántico como siempre dudosa.
La física, y las ciencias naturales en general, ya
no se pueden concebir como ciencias que descubren
la realidad sino como métodos que nos son útiles para
ordenar la experiencia humana. La simplicidad y la
perfección dejaron de ser la imagen de la realidad,
dando paso al reconocimiento de la complejidad del
30. 1Facultad de Ciencias Físico Matemáticas,
Instituto de Investigaciones Filosóficas,
Universidad Michoacana de San Nicolás de Hidalgo.
No hay que temer a la incertidumbre,
hay que tener más miedo a la certeza,
porque esta última es la que puede
conducirnos ciegamente al cadalso
30
mundo, del que podemos construir modelos simples con
la conciencia de que son simplificaciones. En palabras
de Prigogine y Stengers: “La ciencia de hoy no puede
ya adjudicarse el derecho de negar la pertinencia y el
interés de otros puntos de vista, de negarse en particular
a escuchar los puntos de vista de las ciencias humanas,
de la filosofía y del arte”. Con la mecánica cuántica el
mundo es más interesante, menos rígido, y la actividad
científica se convierte en una actividad más creativa.
Y a pesar de todo no queda duda de la
potencia explicativa de la física cuántica para
estudiar los fenómenos del micro-mundo, de lo
infinitamente pequeño. Su uso es indispensable para
explicar la estructura de la materia, del átomo, de
los enlaces químicos; todas sus aplicaciones hacen
más cómoda nuestra vida. Pero ello no disminuye el
golpe, aparentemente irreversible, que propinó a las
concepciones deterministas y duras de la física clásica.
Por eso hay todavía quienes conservan la esperanza
einsteiniana de que la mecánica cuántica sólo constituye
un peldaño heurístico, una herramienta provisional; que
sólo se trata de una descripción incompleta del mundo
que con el tiempo será sustituida por una teoría del tipo
de la física clásica donde “Dios no juega a los dados”.
Hoy día la mecánica cuántica y los sistemas
dinámicos son el mejor ejemplo de una nueva ciencia,
más cualitativa, menos dura, que pone de manifiesto su
dependencia del sujeto; una ciencia que, por tanto, está
más cerca de las humanidades y que contribuye al ideal
de Nietzsche de ver la ciencia con la óptica del artista, y
el arte con la de la vida.
En la cotidianeidad es casi impensable prescindir
de la ciencia y la tecnología. Hacia donde miremos nuestra
vida depende en gran medida de los conocimientos
científicos y sus aplicaciones: desde los utensilios y
aparatos culinarios, los medicamentos, las prótesis y
la práctica médica hasta los materiales de la ropa que
vestimos y los de construcción. Todo está asociado en
mayor o menor medida al saber de la ciencia.
Los conocimientos científicos no sólo han
sorprendido por sus aplicaciones: las teorías científicas
en sí mismas son maravillosamente creativas, hermosas,
complejas y con amplio poder explicativo. Un ejemplo
que ilustra la potencia de la simplicidad para explicar lo
complejo es la teoría de la evolución, y más maravilloso
aún es observar cómo la evidencia posterior al nacimiento
de esa teoría ha ido encajando perfectamente en ella,
al grado que se considera como una de las teorías mejor
demostradas.
Con la mecánica cuántica se presentó una
ruptura aún mayor. Para ilustrarlo podemos imaginar
un diálogo entre dos personas; a la primera la podemos
identificar con la física clásica y la segunda como alguien
que vive en el mundo de la mecánica cuántica. Las
experiencias de estos personajes serían tan incompatibles
como lo son las respuestas a las preguntas: ¿puedes
estar en dos sitios al mismo tiempo?, ¿tu mamá
asegura que eres chaparro y tu papá que eres alto?
Mientras que cualquiera con sentido común contestaría
negativamente a ambas preguntas, quien viviera un
mundo cuántico no sólo respondería afirmativamente,
sino que le parecerían preguntas estúpidas.
Es posible que con la mecánica cuántica la
separación de lo que podríamos denominar el mundo
cotidiano y la física se haya hecho definitiva. Pero
esto no sólo ocurrió con la mecánica cuántica: el siglo
XX fue testigo, en todas las disciplinas científicas, de
innumerables sorpresas, desde las comunicaciones
hasta la clonación. Paradójicamente la ciencia actual
contribuye a la depreciación de la objetividad científica;
la nueva complejidad de la ciencia se presta para
justificar cuestiones místicas y esotéricas, colabora a
fortalecer la idea de que cualquier actividad o idea puede
justificarse “científicamente” a través de la noción de
incomprensibilidad: lo incomprensible es “científico”.
El ocaso de la certeza es un hecho que se
confirma cada día: no podemos confiar más en un
futuro seguro. Tanto desde las ciencias naturales como
desde las humanidades se observa un futuro cambiante
que, si bien depende de nosotros, no tiene un camino
seguro sino que está sujeto a infinidad de contingencias.
Pero este reconocimiento no lleva el signo de la derrota,
sino de una apertura que ratifica la libertad del ser
humano. No hay que temer a la incertidumbre, hay que
tener más miedo a la certeza, porque esta última es la
que puede conducirnos ciegamente al cadalso.
Bibliografía:
Salvador Jara Guerrero, El Ocaso de la Certeza,
Morevallado Editores y UMSNH, 2010.
31. Los hoyos
negros
José Antonio González Cervera1
Francisco Siddhartha Guzmán Murillo2
Existe una predicción de la Teoría General de la Relatividad que no hemos podido
encontrar. La comunidad científica involucrada ha puesto todo su empeño en
construir grandes detectores, así como en hacer las simulaciones y estudios necesarios
en las computadoras para tratar de detectar lo que hasta hoy no existe: ondas
gravitacionales.
32. La teoría de la gravitación de Newton nos permite entender casi todos
los fenómenos gravitacionales con los que estamos acostumbrados a
vivir aquí, en la Tierra: el movimiento de una bala de cañón, la hora en la
que sale y se pone el Sol, los eclipses de Luna, etc. Sin embargo, existen
un par de problemas con esta teoría: El primero es que existen algunos
efectos que no se entienden bien usando la gravedad newtoniana,
como, por ejemplo, el porqué la órbita de Mercurio precesa con el
tiempo, es decir, por qué cambia de posición con el tiempo. El segundo
es un problema conceptual: si el Sol “jala” a la Tierra hacia él, ¿en
dónde están las cuerdas con las que el Sol jala a la Tierra y a los otros
planetas y con los que la Tierra mantiene atada a la Luna?
Fue hasta 1915 cuando Albert Einstein publicó la Teoría General
de la Relatividad que se empezaron a resolver estos problemas. La
relatividad general permitió entender completamente los efectos que
no se entendían con la gravedad newtoniana y, además de eso, permitió
hacer nuevas predicciones de efectos que antes no se conocían. Por
ejemplo, nos permitió entender que la frecuencia de la luz sufre una
ligera alteración en presencia de un campo gravitacional intenso. Este
efecto es utilizado hoy en día en la construcción y funcionamiento de
los GPS que son utilizados todos los días en la navegación de aviones
y barcos.
Además de esto, también permitió entender conceptualmente
cómo es que la gravitación funciona. Lo que Einstein propuso es que
no existe una fuerza gravitacional que “jala” unos objetos hacia otros,
sino que todas las partículas se mueven en el espacio-tiempo que está
deformado por la materia que hay en él. De esta manera, cuando
la Tierra pasa cerca del Sol, su trayectoria se deforma ya que el Sol
deforma la estructura del espacio-tiempo haciendo que la Tierra se
mueva en una órbita elíptica y no en línea recta.
Como el espacio-tiempo es curvo, tal curvatura afecta la
trayectoria de todo lo que se mueva sobre él. En particular la luz
también sufre modificaciones en sus trayectorias. Esta idea es la que
permite estudiar el concepto de hoyo negro.
Los hoyos negros como resultado de una predicción. La solución de
Schwarzschild
La idea de tener un cuerpo con atracción gravitacional tal que ni
siquiera la luz pueda escapar de él existe desde 1783, formulada por
primera vez por el geofísico inglés John Michell. Desde aquel entonces,
utilizando la teoría de la gravedad de Newton, se estimaba que si un
cuerpo era lo suficientemente denso, la velocidad de escape sería tan
grande que ni siquiera la luz podría escapar de él. La idea de tener un
cuerpo del que ni la luz pudiera huir sugirió el término de hoyo negro.
Como el espacio-tiempo es
curvo, tal curvatura afecta la
trayectoria de todo lo que se
mueva sobre él. La luz también
sufre modificaciones en sus
trayectorias. Esta idea es la que
permite estudiar el concepto de
hoyo negro
32
33. Sin embargo, no fue hasta que Einstein publicó
la Teoría General de la Relatividad que este tema retomó
interés gracias a que aproximadamente un mes después
de la publicación de dicha teoría, Karl Schwarzschild
encontró una solución a las ecuaciones propuestas por
Einstein relacionada con la idea de hoyo negro. Las
propiedades del espacio-tiempo correspondientes a
dicha solución contienen ingredientes muy interesantes,
por una parte muestra una patología que hoy se conoce
como singularidad de la geometría, y por otra, el hecho
—más relevante aún— es que contiene una superficie
que cubre la singularidad, a partir de la cual las señales
luminosas son incapaces de escapar y, por tanto, no
pueden ser observadas desde regiones lejanas a la
singularidad. Dicha superficie equivale a un umbral que
separa una región visible de otra que no lo es, tal como
ocurre con el horizonte en la superficie de la Tierra,
es decir, a partir de cierta línea horizontal es imposible
ver más allá. Por esta propiedad es que a la superficie
umbral que cubre la singularidad en la geometría de
Schwarzschild se llamó horizonte de eventos.
Una de las propiedades del espacio-tiempo
descrito por la geometría de Schwarzschild es que por
una parte se trata de una geometría que no cambia
con el tiempo, y por otra, goza de simetría esférica, es
decir, que los efectos que causa en los alrededores de
la singularidad y del horizonte de eventos dependen
solamente de la distancia a la singularidad. Si en verdad
la Teoría de la Relatividad General es válida, es decir,
que si en lugar de la presencia de un objeto astronómico
como una estrella, la geometría se deforma, y si dicha
deformación determina el movimiento de los objetos
que rodean a dicha estrella, entonces, debe ser
posible verificarlo.
La solución de Schwarzschild no solamente
corresponde al espacio-tiempo de un hoyo negro,
sino también, dado que se trata de una solución de
espacio sin materia, correspondería al espacio-tiempo
en la región exterior de una estrella que no rota con
gran rapidez, es decir, sirve para modelar las regiones
cercanas pero exteriores a estrellas compactas o bien
estrellas ordinarias como el Sol.
Y de hecho se ha verificado. La Teoría de la
Relatividad General se construyó de tal manera que en
caso de que los campos gravitacionales sean débiles
se recupere la Teoría de la Gravitación Universal de
Newton, que ha sido verificada innumerables veces,
ya sea mediante la explicación del movimiento de los
planetas exteriores y los cometas, la predicción de
los eclipses y el movimiento de muchos otros objetos
celestes. Sin embargo, para una teoría —que se
conoce por ser robusta— no son las predicciones y
explicaciones de fenómenos que puede describir lo
que garantiza su validez. Afortunadamente, dentro del
Sistema Solar existe un planeta cuya órbita no podía
ser explicada mediante la combinación de la teoría de
Newton y las observaciones, tal planeta es Mercurio.
Se sabía desde mediados del siglo XIX, que la órbita
de Mercurio describe una órbita casi elíptica, y que sin
embargo precesa, es decir, se había observado que la
órbita de Mercurio cambia de posición con el tiempo.
A mediados del siglo XX, ya en la época de
la posguerra, el estudio de la geometría del
espacio-tiempo y, por tanto, el de los hoyos
negros, tomó un impulso importante, pues
se hicieron notables descubrimientos en
astrofísica, como las explosiones de rayos X
y de rayos gamma
Para explicar dicho fenómeno el matemático Urbain
Le Verrier recurrió a la posibilidad de que posiblemente
existiera otro planeta al que llamó Vulcano, cercano
al Sol, que no se había observado, y cuya presencia
explicaba la trayectoria de Mercurio. Sin embargo,
dicho planeta jamás fue observado y la trayectoria de
Mercurio significó un problema que permaneció abierto
hasta el siglo XX.
La órbita de Mercurio se convirtió entonces en
una buena posibilidad para probar la utilidad tanto de
la Teoría de la Relatividad General como de la solución
de Schwarzschild. Y en efecto, cuando la solución de
Schwarzschild se utiliza como la que describe al espacio-tiempo
alrededor del Sol, y se considera a Mercurio
como una partícula de prueba, es posible explicar la
trayectoria de Mercurio sin la necesidad de considerar
la presencia de algún planeta cercano.
A mediados del siglo XX, ya en la época de
la posguerra, el estudio de la geometría del espacio-tiempo
y, por tanto, el de los hoyos negros, tomó un
impulso importante, pues se hicieron importantes
descubrimientos en astrofísica, como las explosiones de
rayos X y de rayos gamma, cuyas fuentes podrían estar
asociadas a objetos tan compactos que serían la fuente
de intensos campos gravitacionales. Fue así que se
construyeron soluciones de las ecuaciones de Einstein
33
34. Existen distintas observaciones que corresponden
a la emisión de un gas caliente en regiones muy
localizadas del cielo en las frecuencias de rayos X y
gama. Pero, ¿de dónde viene el gas? Resulta que las
observaciones más comunes están asociadas a sistemas
binarios, es decir, que se trata de un sistema de dos
objetos de masa estelar que giran uno en torno al otro,
uno de ellos brillante y el otro no; debido a la naturaleza
gaseosa de las estrellas, el gas de la estrella brillante
estaría siendo atraído por el objeto invisible, el cual se
distribuiría en forma de disco en torno al objeto oscuro.
La luminosidad (el espectro, en términos
técnicos) del gas en tales regiones pequeñas del cielo
se ha podido explicar mediante la hipótesis de que las
partículas de gas han sido aceleradas por un hoyo negro
mediante los procesos descritos anteriormente.
Estas observaciones se complementan con
el hecho de que el objeto gravitacional en torno al
cual habría gas no se ve, de ahí que posiblemente se
suponga que son hoyos negros. El hecho frustrante por
el momento es que debido a que los hoyos negros se
encontrarían en regiones muy pequeñas del cielo, la
tecnología actual es insuficiente para tener la resolución
necesaria para determinar si los objetos que logran
acelerar el gas tienen horizontes de eventos o no, y se
espera que dicha pregunta sea respondida en el mediano
plazo, mediante otras observaciones relacionadas con
la radiación gravitacional (descrita abajo).
Los hoyos negros súper-masivos
Sin embargo, los objetos de masa estelar, esto es, de
masa del orden de algunas veces la masa del Sol, no
son las únicas evidencias de la existencia de los hoyos
negros. Existen otro tipo de objetos localizados en las
regiones centrales de un gran número de galaxias que
producen efectos que pueden ser explicados mediante
la presencia de hoyos negros. Uno muy cercano
corresponde al centro de la Vía Láctea, donde se ha
estudiado la trayectoria de varias estrellas. La aceleración
con la que se desplazan algunas de las estrellas es tal,
que es necesario suponer que en esa región hay un
objeto cuya masa es de aproximadamente 4 millones de
veces la masa del Sol, lo cual es una cantidad enorme,
y sin embargo, es una escala de masas intermedia entre
la masa de objetos estelares y la masa de las galaxias.
Este tipo de objetos supermasivos, al no estar
localizados en un sistema binario, se muestran de una
manera más sutil y menos energética que los hoyos
que tenían horizontes de eventos, pero que además
rotaban sobre su propio eje, lo que se llamó hoyos
negros rotantes. También se construyeron soluciones tipo
hoyo negro que poseían además carga eléctrica y otros
tantos parámetros adicionales con la expectativa de que
pudieran explicar observaciones astronómicas. De este
modo, el estudio de la geometría del espacio-tiempo
de los llamados hoyos negros maduró, al grado de que
“observarlos” se convirtió en una necesidad (en rigor no
se pueden examinar dada la definición del horizonte de
eventos), es decir, determinar con precisión los efectos
causados por un hoyo negro en fenómenos astrofísicos
que recientemente se habían estado estudiando.
Los hoyos negros como objetos astronómicos: cómo
se infiere que existen
De acuerdo con el estudio geométrico del espacio-tiempo
de un hoyo negro la luz emitida desde dentro del
horizonte de eventos no se puede examinar, y por tanto,
no es posible observar ningún fenómeno que ocurra
ahí dentro. Sin embargo, es posible intentar estudiar
lo que probablemente ocurre fuera del horizonte en los
alrededores del hoyo negro.
El espacio-tiempo de los hoyos negros tiene
varias propiedades impresionantes, pero una de ellas
—especialmente importante— está relacionada con el
efecto que tiene sobre las partículas que se aproximan
a la región del horizonte de eventos: las partículas se
aceleran de tal manera que pueden alcanzar velocidades
cercanas a la de la luz, y cuando en lugar de haber una
sola partícula hay muchas del mismo tipo moviéndose
en una región cercana al hoyo negro, el sistema es
entonces un gas cuyas partículas se mueven a altas
velocidades, un gas muy caliente. Un gas caliente tiene
la propiedad de que emite radiación electromagnética
(luz) de una energía que es mayor cuanta más alta es la
temperatura del gas. Un hoyo negro es una máquina que
calienta el gas que se aproxima a él, de tal manera que
la radiación emitida por el gas puede ser observable.
Al momento, los objetos de masa
estelar, esto es, de masa del orden de
algunas veces la masa del Sol, no son
las únicas evidencias de la existencia
de los hoyos negros
34