SlideShare una empresa de Scribd logo
1 de 78
1
Tema: Investigación de Nanotecnología-
Los Superconductores y Computadora
Cuántica
Carrera : Ingeniería de Sistemas
Curso : Física Electronica
Ciclo : IV
Profesor: Roberto Rodriguez
Cahuana
Integrante: Rodrigo Villanueva C
2014
2
DEDICATORIA
Con todo mi cariño y mi amor para las
personas que hicieron todo en la vida
para que yo pudiera lograr mis sueños,
por motivarme y darme la mano cuando
sentía que el camino se terminaba, a
ustedes por siempre mi Corazón y mi
agradecimiento.
A missss QUERIDOS VIEJITOS y mi Novia
3
INDICE Nanotecnología
Introducción------------------------------------------------------------ 4
Historia------------------------------------------------------------------- 5
Definición---------------------------------------------------------------- 6
Aplicaciones------------------------------------------------------------ 8
Avances------------------------------------------------------------------ 11
Conclusión---------------------------------------------------------------19
Bibliografía ------------------------------------------------------------ 20
Anexos ------------------------------------------------------------------ 21
INDICE SUPERCONDUCTORES
Introducción------------------------------------------------------------ 22
Historia------------------------------------------------------------------- 23
Definición---------------------------------------------------------------- 25
Uso------------------------------------------------------------------------ 27
Materiales --------------------------------------------------------------- 30
Tipos y Diferencia---------------------------------------------------- -31
Aplicaciones -----------------------------------------------------------34
Conclusiones --------------------------------------------------------- 40
Bibliografía-------------------------------------------------------------- 41
Anexo-------------------------------------------------------------------- 42
INDICE COMPUTADORA CUANTICA
Introducción------------------------------------------------------------ 43
Historia------------------------------------------------------------------- 44
Definición---------------------------------------------------------------- 46
Funcionamiento-------------------------------------------------------- 50
Aplicaciones------------------------------------------------------------ 53
Conclusión--------------------------------------------------------------- 76
Bibliografía ------------------------------------------------------------ 77
Anexos ------------------------------------------------------------------ 78
4
NANOTECNOLOGIA
INTRODUCCION
Al borde de la realidad se gesta una revolución tecnológica inmensa, a pesar de lo
minúsculas que son sus partes. Es allí donde la materia adquiere fundamento. En
este territorio, fuera del alcance de nuestras miradas, habitan los átomos, y la
medida oficial es el nanómetro, o lo que es lo mismo, una mil millonésima parte
de uno de nuestros metros.
Esta historia comenzó en 1959, pero nadie sabe cuándo, ni cómo, ni dónde va a
terminar. las visiones de un futuro desencadenado como consecuencia de la
manipulación de la materia al nivel de los átomos, incrustada en la promesa de la
revolución de la nanotecnología, contrasta con la advertencia de quienes nos
recuerdan que los sueños a veces se convierten en pesadillas.
5
Historia de la Nanotecnología
Uno de los pioneros en el campo de la Nanotecnología es
el Físico estadounidense Richard Feynman, que en el año
1959 en un congreso de la sociedad americana de Física
en Calltech, pronunció el discurso “There’s Plenty of Room
at the Bottom” (Hay mucho espacio ahí abajo) en el que
describe un proceso que permitiría manipular átomos y
moléculas en forma individual, a través de instrumentos de
gran precisión, de esta forma se podrían diseñar y construir
sistemas en la nanoescala átomo por átomo, en este discurso Feynman también
advierte que las propiedades de estos sistemas nanométricos, serían distintas a las
presentes en la macroescala.
En 1981 el Ingeniero estadounidense Eric Drexler,
inspirado en el discurso de Feynman, publica en la
revista Proceedings of the National Academy of
Sciences, el artículo “Molecular engineering: An
approach to the development of general capabilities for
molecular manipulation” en donde describe más en
detalle lo descrito años anteriores por Feynman. El
término “Nanotecnología” fue aplicado por primera vez
por Drexler en el año 1986, en su libro “Motores de la
creación: la próxima era de la Nanotecnología” en la que describe una máquina
nanotecnológica con capacidad de autoreplicarse, en este contexto propuso el
término de “plaga gris” para referirse a lo que sucedería si un nanobot
autoreplicante fuera liberado al ambiente.
Además de Drexler, el científico Japonés Norio Taniguchi, utilizó por primera vez
el término nano-tecnología en el año 1974, en la que define a la nano-tecnología
como el procesamiento, separación y manipulación de materiales átomo por átomo.
6
Que es Nanotecnología?
Definición
Nanotecnología, es el estudio y desarrollo de
sistemas en escala nanométrica, “nano” es
un prefijo del Sistema Internacional de
Unidades que viene del griego νάνος que
significa enano, y corresponde a un factor
10^-9, que aplicado a las unidades de
longitud, corresponde a una mil millonésima
parte de un metro (10^-9 Metros) es decir
1 Nanómetro, la nanotecnología estudia la
materia desde un nivel de resolución
nanométrica, entre 1 y
100 Nanómetros aprox. hay que saber que un átomo mide menos de 1 nanómetro
pero una molécula puede ser mayor, en esta escala se observan propiedades y
fenómenos totalmente nuevos, que se rigen bajo las leyes de la Mecánica Cuántica,
estas nuevas propiedades son las que los científicos aprovechan para crear nuevos
materiales (Nanomateriales) o dispositivos nanotecnológicos, de esta forma la
Nanotecnología promete soluciones a múltiples problemas que enfrenta
actualmente la humanidad, como los ambientales, energéticos, de salud
(nanomedicina), y muchos otros, sin embargo estas nuevas tecnologías pueden
conllevar a riesgos y peligros si son mal utilizadas.
7
La siguiente imagen muestra la unidad de medida de diversos sistemas, y la escala
a la que pertenecen (Nano o Micro).
8
Aplicaciones de la Nanotecnología
La Nanotecnología al definirse en base a la escala (nanoescala) y no al tipo de
sistema en estudio, es de carácter transversal y tiene aplicaciones en todas las
actividades del quehacer humano, como medioambiente, sector energético,
medicina, electrónica, exploración espacial, construcción, agricultura, cosmética,
etc…, es por ello que el impacto de la Nanotecnología en nuestra sociedad es muy
grande, y existe consenso de que Nanotecnología dará origen a la revolución
industrial del siglo XXI, tal como lo dijo Charles M. Vest’s (ex-Presidente del MIT
(Massachusetts Institute of Technology) en un discurso el año 2001. A continuación
se describen algunas de las áreas en donde tiene aplicación la Nanotecnología.
Medio Ambiente
Las aplicaciones de la Nanotecnología en el medio ambiente, involucran el
desarrollo de materiales, energías y procesos no contaminantes, tratamiento
de aguas residuales, desanilización de agua, descontaminación de suelos,
tratamiento de residuos, reciclaje de sustancias, nanosensores para la
detección de sustancias químicas dañinas o gases tóxicos.
Energía
Las aplicaciones de la Nanotecnología en sector energético, tiene relación
con la mejora de los sistemas de producción y almacenamiento de energía,
en especial aquellas energías limpias y renovables como la energía solar, o
basadas en el Hidrógeno, además de tecnologías que ayuden a reducir el
consumo energético a través del desarrollo de nuevos aislantes térmicos más
eficientes basados en nanomateriales. El aumento de la eficiencia de los
paneles solares y placas solares gracias a nanomateriales especializados en
la captura y almacenamiento de energía solar
9
Medicina
Las aplicaciones de la Nanotecnología en Medicina se
denomina Nanomedicina, y dentro de ella tenemos el desarrollo de
nanotransportadores de fármacos a lugares específicos del cuerpo, que
pueden ser útiles en el tratamiento del Cáncer u otras enfermedades,
biosensores moleculares con la capacidad de detectar alguna sustancia de
interés como glucosa o algún biomarcador de alguna enfermedad,
nanobots programados para reconocer y destruir células tumorales o bien
reparar algún tejido como el tejido óseo a raíz de un fractura, nanopartículas
con propiedades antisépticas y desinfectantes, etc..
Industria de Alimentos
Las aplicaciones de la Nanotecnología en la industria de Alimentos incluye
aplicaciones de nanosensores y nanochips útiles en el aseguramiento de la
calidad y seguridad del alimento, dispositivos que funcionen como nariz y
lengua electrónica, detección de frescura y vida útil de un alimento, detección
de microorganismos patógenos, aditivos, fármacos, metales pesados,
toxinas y otros contaminantes, desarrollo de Nanoenvases, Nanoalimentos
con propiedades funcionales nutritivas y saludables, o con mejores
propiedades organolépticas.
Textil
Desarrollo de tejidos que repelen las manchas y no se ensucian y sean
autolimpiables, antiolores, incorporación de nanochips electrónicos que den
la posibilidad de cambio de color a las telas, o bien el control de la
temperatura, estos últimos están dentro de lo que se llama “tejidos
inteligentes”
10
Construcción
Desarrollo de Materiales (Nanomateriales) más fuertes y ligeros, con mayor
resistencia, vidrios que repelen el polvo, humedad, pinturas con propiedades
especiales, materiales autorreparables, etc.
Electrónica
Las aplicaciones de la Nanotecnología en la electrónica comprenden el
desarrollo de componentes electrónicos que permitan aumentar
drásticamente la velocidad de procesamiento en las computadoras, creación
de semiconductores, nanocables cuánticos, circuitos basados en Grafeno o
Nanotubos de Carbono.
Tecnologías de la comunicación e informática
Las aplicaciones de la Nanotecnología en las tecnologías de la comunicación
e informática, comprende el desarrollo de sistemas de almacenamiento de
datos de mayor capacidad y menor tamaño, dispositivos de visualización
basados en materiales con mayor flexibilidad u otras propiedades como
transparencia que permitan crear pantallas flexibles y transparentes, además
el desarrollo de la computación cuántica.
Agricultura
Las aplicaciones de la Nanotecnología en la Agricultura, tienen relación con
mejoras en plaguicidas, herbicidas, fertilizantes, mejoramiento de suelos,
nanosensores en la detección de niveles de agua, Nitrógeno, agroquímicos,
etc...
Ganadería
Las aplicaciones de la Nanotecnología en la Ganadería dicen relación con el
desarrollo de Nanochips para identificación de animales, Nanopartículas para
11
administrar vacunas o fármacos, nanosensores para detectar
microorganismos y enfermedades además de sustancias tóxicas.
Cosmética
Las aplicaciones de la Nanotecnología en la cosmética implican el desarrollo
de cremas antiarrugas o cremas solares con nanopartículas.
AVANCES EN LA NANOTECNOLOGIA
Pronóstico del mercado de la nanotecnología para el 2014
En los próximos años, la nanotecnología está llamada a desempeñar un papel
fundamental en diversos segmentos de la industria. La evolución de esta tecnología
ha influido ya en un gran número de segmentos industriales y la actividad económica
generada a partir de ella ha sido de gran magnitud y amplio alcance. Los productos
basados en nanotecnología, que han tenido un enorme impacto en casi todos los
sectores industriales, están llegando ahora al mercado de los consumidores con
gran fuerza.
De acuerdo con las conclusiones del último informe, el aumento de las aplicaciones
de la tecnología en sectores como la electrónica, la cosmética y la defensa,
impulsaría el crecimiento del mercado mundial de la nanotecnología, que se prevé
que crecerá a una tasa compuesta anual de alrededor del 19% durante el período
2011-2014.
De acuerdo con el informe "Nanotechnology Market Forecast to 2014", las
compañías del campo de la electrónica están buscando nuevas formas de
incorporar la nanotecnología en productos de consumo como los equipos de música
y los teléfonos móviles, con el fin de mejorar sus capacidades de procesamiento.
Del mismo modo, la tecnología podría ayudar a mejorar los cosméticos cambiando
sus propiedades físicas. También se observó que el uso de la nanotecnología en
tecnologías de defensa proporciona un mejor rendimiento a menor coste. Además,
la tecnología en ciernes ha revolucionado el cuidado dental, dado que disminuye el
tiempo de cicatrización y mejora la integración ósea en los implantes dentales.
12
El informe analiza en detalle estas áreas de aplicación y las tendencias clave del
mercado. A pesar de que los nanomateriales seguirán dominando el mercado de la
nanotecnología en los próximos años, se estima que los nanodispositivos, en los
que se incluyen las herramientas de nanolitografía para la fabricación de la próxima
generación de semiconductores, crecerán a un ritmo mucho más rápido que los
nanomateriales en un futuro próximo. El análisis crucial a nivel nacional, incluido en
esta exhaustiva investigación, identificó que los EE.UU. es el mercado de
nanotecnología más destacado del mundo y seguirá disfrutando de la mayor porción
de la industria global.
Además de esto, el informe trata la financiación mundial de I + D en nanotecnología,
incluyendo la separación de financiación empresarial, pública y de capital riesgo,
junto con su pronóstico. También se ha tratado el análisis regional de los diferentes
tipos de financiación para el presente y el futuro. El informe abarca incluso un
análisis a nivel nacional de la financiación de I + D para proporcionar un
conocimiento profundo acerca de las inversiones relacionadas con la
nanotecnología.
Con el fin de ofrecer una visión equilibrada del mercado mundial de la
nanotecnología a los clientes, el informe también incluye los perfiles de los
principales participantes del sector, como Altair, Nanophase Tech y Nanosys, entre
otros. En general, el objetivo del estudio es ayudar a los clientes a conocer las
perspectivas del sector y tomar decisiones de inversión en función de ellas.
13
Unos ingenieros de Stanford perfeccionan los nanotubos de
carbono (CNT) para lograr una computación de alta eficiencia
energética
De acuerdo con estos ingenieros, los circuitos basados en CNT podrían
proporcionar una mejora de hasta diez veces en la eficiencia energética con
respecto a los de silicio.
Cuando se mostraron los primeros transistores de nanotubos rudimentarios en
1998, los investigadores imaginaron una nueva era de dispositivos electrónicos
informáticos avanzados y altamente eficientes. Sin embargo, esa promesa todavía
no se ha hecho realidad debido a importantes imperfecciones en los materiales,
inherentes a los nanotubos, que han llevado a los ingenieros a preguntarse si algún
día los nanotubos de carbono resultarían viables.
Aunque ha habido logros importantes en los circuitos de CNT con el paso de los
años, éstos se han producido sobre todo a nivel de nanotubos individuales. Continúa
habiendo al menos dos grandes barreras para que los nanotubos de carbono se
puedan aprovechar en tecnologías que tengan un impacto en la práctica:
 La alineación “perfecta” de los nanotubos ha resultado prácticamente
imposible de lograr, introduciendo vías de conducción perjudiciales y fallos
de funcionalidad en los circuitos.
 La presencia en los circuitos de CNT metálicos (frente a los deseables CNT
semiconductores) conduce a cortocircuitos, fugas de energía excesivas y
susceptibilidad al ruido.
Hasta el momento, ninguna técnica de síntesis de CNT ha logrado producir
exclusivamente nanotubos semiconductores. En los últimos años, un equipo de
ingenieros de Stanford asumió el reto. Al darse cuenta de que la mejora de los
procesos por sí sola nunca superará estas imperfecciones, los ingenieros lograron
eludir las barreras con un paradigma de diseño único inmune a la imperfección para
producir las primeras estructuras de lógica digital a escala de oblea completa a las
14
que no le afectan los CNT desalineados y mal posicionados.
Además, resolvieron los problemas de los nanotubos de carbono metálicos con la
invención de una técnica que elimina estos elementos indeseados de sus circuitos.
A continuación, los ingenieros demostraron las posibilidades de sus técnicas
creando los componentes esenciales de los sistemas digitales integrados: circuitos
aritméticos y almacenamiento secuencial, así como los primeros circuitos
integrados monolíticos tridimensionales con niveles extremos de integración.
Estos circuitos de nanotubos robustos de alta calidad son inmunes a los defectos
de los materiales que han dejado perplejos a los investigadores durante más de una
década, un difícil obstáculo que ha impedido una adopción más amplia de los
circuitos de nanotubos en el sector.
El avance representa un hito importante hacia los sistemas integrados a gran escala
(VLSI, por sus siglas en inglés) basados en nanotubos. Además, el enfoque de
diseño de Stanford no sacrifica prácticamente nada de la eficiencia energética de
los nanotubos de carbono y es compatible con los métodos de fabricación y las
infraestructuras existentes, impulsando a la tecnología a dar un paso importante
hacia la comercialización, según señalaron los ingenieros.
Regulación de la nanotecnología
La primera mina de asbesto se abrió en Quebec en 1874. En los años 50, el asbesto
(también conocido como amianto) fue ampliamente utilizado como aislante, material
ignífugo y nieve artificial. Hoy en día, sabemos que las fibras de asbesto pueden
introducirse en los pulmones y causar asbestosis, cáncer de pulmón y mesotelioma.
Aunque las preocupaciones sobre la seguridad del asbesto surgieron alrededor de
1900, su uso no fue prohibido por completo hasta 1999.
Las tecnologías nuevas y emergentes (como la modificación genética, la biología
sintética y la nanotecnología) ofrecen la posibilidad de un futuro más limpio, más
sano y mejor. Sin embargo, los riesgos de estas tecnologías no se conocen.
15
Se estima que hay más de 1.000 productos con nanotecnología que ya están en el
mercado: desde pelotas de tenis a protectores solares o calcetines sin olores.
¿Mirarán las generaciones futuras hacia atrás a nuestra actual ola de innovación
científica del mismo modo en que nosotros vemos la introducción del asbesto en el
mercado?
A medida que las sustancias químicas se hacen más pequeñas, sus
comportamientos y características pueden cambiar, y determinados nanomateriales
poseen propiedades que no se encuentran en sus equivalentes a tamaño natural.
La forma nanométrica del oro puede ser roja o azul; el platino es inerte a tamaño
natural y, en cambio, actúa como catalizador a nanoescala; etc. Estas nuevas
propiedades que poseen los nanomateriales pueden dar lugar a nuevas formas de
riesgo.
Los riesgos potenciales de la nanotecnología son a la vez desconocidos e
incognoscibles. Desconocidos porque hasta la fecha apenas se ha llevado a cabo
una evaluación de los riesgos (menos del 2% del dinero invertido en la investigación
relacionada con la nanotecnología se dedica al análisis de riesgos); e
incognoscibles, porque los conocimientos científicos sobre la evaluación de
productos químicos no ha seguido el ritmo de los conocimientos científicos en
nanotecnología. En pocas palabras, actualmente no somos capaces de evaluar
todas las propiedades inherentes de todos los Nanomateriales.
Además, las iniciativas de regulación para controlar el uso de la nanotecnología han
sido limitadas. Hay lagunas en los actuales marcos regulatorios que hacen que la
nanotecnología no esté cubierta en su totalidad. Algunas de estas lagunas existen
debido a una noción equivocada de que los nanomateriales son equivalentes a sus
iguales a tamaño natural. Otras lagunas se deben a que la legislación se basa en
umbrales o concentraciones. Dado que la nanotecnología es la tecnología de lo
diminuto, utilizar umbrales de regulación implica que la mayoría de la
nanotecnología va a estar por debajo del tonelaje correspondiente o los criterios de
concentración y, por lo tanto, evitará la regulación.
16
A partir de 2013, el Reglamento de Cosméticos de la UE exige que cualquier
cosmético que contenga Nanomateriales lo indique en la etiqueta. Aunque la
obligación es limitada: bastará con poner "(nano)" junto al ingrediente
correspondiente en la lista de ingredientes. Sin embargo, el etiquetado de productos
nano ha sido rechazado en otras jurisdicciones por su ineficacia. Basta con que nos
preguntemos cuándo fue la última vez que examinamos la lista de ingredientes de
un producto.
La regulación de la nanotecnología es difícil. Es necesario alcanzar un equilibrio
entre sus beneficios y sus riesgos potenciales. También es muy importante el modo
en que nosotros, como sociedad, hacemos frente a la incertidumbre, respondemos
a la innovación científica y enmarcamos el debate sobre el riesgo y la regulación.
Como vimos con el asbesto, podría marcar la diferencia entre la vida y la muerte.
Capturar patógenos ocultos con nanopartículas
Utilizan la nanotecnología para capturar patógenos ocultos
Unos investigadores de la Universidad de Florida Central han desarrollado una
técnica novedosa que podría proporcionar a los médicos una herramienta más
rápida y más sensible para la detección de patógenos asociados con la enfermedad
inflamatoria intestinal, incluida la enfermedad de Crohn.
La nueva técnica basada en nanopartículas también se puede utilizar para la
detección de otros microbios que han desafiado a los científicos durante siglos
debido a que se esconden profundamente en el tejido humano y son capaces de
reprogramar las células para evadir con éxito al sistema inmunológico.
Los microbios reaparecen años más tarde y pueden causar problemas de salud
graves, como se ha visto en casos de tuberculosis. Actualmente existen métodos
de prueba para encontrar estos microbios ocultos, pero requieren mucho tiempo
para completarse y, a menudo, retrasan la administración de un tratamiento eficaz
durante semanas o incluso meses.
El Profesor Asociado de la UCF J. Manuel Pérez y el profesor Saleh Naser y su
equipo de investigación han desarrollado un método que utiliza nanopartículas
17
recubiertas con marcadores de ADN específicos para los patógenos escurridizos.
La técnica es eficaz y más precisa que los métodos actuales, al detectar incluso
pequeñas cantidades de un patógeno. Más importante aún, tarda horas en lugar de
semanas o meses en ofrecer los resultados, pudiendo proporcionar a los médicos
una herramienta más rápida para ayudar a los pacientes. El trabajo de investigación
del grupo ha sido publicado recientemente en la revista PLoS ONE.
Congreso sobre el impacto económico de la nanotecnología
Simposio para explorar los impactos económicos de la
nanotecnología
Expertos de todo el mundo participarán en el Simposio Internacional de Evaluación
del impacto económico de la nanotecnología que tendrá lugar el próximo mes. El
Simposio está organizado por la American Association for the Advancement of
Science (Asociación Americana para el Avance de la Ciencia).
El 10 de febrero se abre el registro para el Simposio Internacional de Evaluación del
impacto económico de la nanotecnología , un encuentro de alto nivel organizado por
la Asociación Americana para el Avance de la Ciencia (AAAS, por sus siglas en
inglés) y patrocinado por la Organización para la Cooperación Económica y el
Desarrollo en colaboración con la National Nanotechnology Initiative (Iniciativa
Nacional de Nanotecnología) de los EE.UU. Oradores de todo el mundo participarán
en el acto que se celebrará los días 27 y 28 marzo en las instalaciones de la AAAS
en Washington, Distrito de Columbia.
El encuentro tiene el objetivo de evaluar las metodologías empleadas para la
evaluar el impacto de la nanotecnología en economías completas, teniendo en
cuenta la influencia de productos y materiales nuevos y de reemplazo, de los nuevos
mercados, los productos intermedios y finales y el empleo.
La lista de oradores confirmados incluye a Gregory Tassey, del Instituto Nacional
de Estándares y Tecnología (National Institute of Standards and Technology); Mark
Morrison, del Instituto británico de Nanotecnología (Britain's Institute for
Nanotechnology); Kazunobu Tanaka, de la Agencia de Ciencia y Tecnología de
Japón (Japan Science and Technology Agency); José Molapisi, del Departamento
18
de Ciencia y Tecnología de Sudáfrica (South Africa's Department of Science and
Technology); Julia Lane, de la Fundación Nacional para la Ciencia (National Science
Foundation); Travis Earles, gerente de Iniciativas de Materiales Avanzados y
Nanotecnología (Advanced Materials & Nanotechnology Initiatives) en Lockheed
Martin; y Kristen Loughery, de la EPA, entre otros.
19
Conclusión
Después de haber investigado y analizado el tema en profundidad, llegamos a la
conclusión de que la nanotecnología ha sido utilizada en los últimos tiempos como
una funciona primordial de los productos tecnológicos modernos. Hemos aprendido
y aprovechando de ella, recordando que muchos de los avances que hoy tenemos
como sociedad son gracias a la recién tratada. Con el tiempo la tecnología fue
increpando e implementando en nuevos avances, los cuales nos han dado nuevos
aportes médicos, sociales, económicos o simplemente del lujos que quizás hoy o
más adelante sean imprescindibles para el hombre
20
BIBLIOGRAFIA
http://www.nanotecnologia.cl/que-es-nanotecnologia/
http://es.wikipedia.org/wiki/Nanotecnolog%C3%ADa
http://www.euroresidentes.com/futuro/nanotecnologia/nanotecnologia_que_es.htm
http://www.nanotecnologia.cl/que-es-nanotecnologia/
21
ANEXOS
22
SUPERCONDUCTORES.
INTRODUCCION
La superconductividad es un fenómeno que denota el estado en el cual la
resistencia eléctrica de ciertos materiales de forma repentina hasta llegar a cero. La
temperatura por debajo de la cual la resistencia eléctrica de un material se aproxima
a cero absolutos se denomina temperatura crítica (Tc). Por encima de esta
temperatura, al material se le conoce como normal, y por debajo de Tc, se dice que
es superconductor. Además de la temperatura el estado superconductor También
depende de otras variables, como son el campo magnético (B) y la densidad de
corriente (J). De este modo, para que en material sea superconductor, la
temperatura critica del material, su campo magnético y su densidad de corriente no
deben ser superadas de unos valores específicos para cada caso, ya que para cada
material, superconductor existe una superficie crítica en el espacio de T.B. y J.
Para ilustrar lo dicho anteriormente presentamos la siguiente gráfica, donde se
representa la resistividad de un material normal respecto a la temperatura, el cobre,
frente a un material superconductor, como el mercurio. Podemos observar como la
resistividad del material superconductor cae bruscamente hasta un valor casi
inapreciable, mientras que la resistividad eléctrica del cobre decrece uniformemente
mientras disminuye la temperatura, y alcanza un valor mínimo a 0ºK.
Como anunciamos anteriormente la superconductividad depende del campo
magnético puesto que si un campo magnético suficientemente fuerte se aplica a un
superconductor a cualquier temperatura que este por debajo de su temperatura
crítica (Tc), el superconductor retorna a su estado normal. El campo magnético
aplicado necesario para restablecer la conductividad eléctrica normal en el
superconductor se denomina campo crítico (Hc)
23
Historia de la superconductividad
El descubrimiento
Ya en el siglo XIX se llevaron a cabo diversos experimentos para medir la resistencia
eléctrica a bajas temperaturas, siendo James Dewar el primer pionero en este
campo.
Sin embargo, la superconductividad como tal no se descubriría hasta 1911, año en
que el físico holandés Heike Kamerlingh Onnes observó que la resistencia eléctrica
del mercurio desaparecía bruscamente al enfriarse a 4 K (-269 °C), cuando lo que
se esperaba era que disminuyera gradualmente hasta el cero absoluto. Gracias a
sus descubrimientos, principalmente por su método para lograr la producción de
helio líquido, recibiría dos años más tarde el premio Nobel de física. Durante los
primeros años el fenómeno fue conocido como supraconductividad.
En 1913 se descubre que un campo magnético suficientemente grande también
destruye el estado superconductor, descubriéndose tres años después la existencia
de una corriente eléctrica crítica.
Puesto que se trata de un fenómeno esencialmente cuántico, no se hicieron grandes
avances en la comprensión de la superconductividad, puesto que la comprensión y
las herramientas matemáticas de que disponían los físicos de la época no fueron
suficientes para afrontar el problema hasta los años cincuenta. Por ello, la
investigación fue hasta entonces meramente fenomenológica, como por ejemplo el
descubrimiento del efecto Meissner en 1933 y su primera explicación mediante el
desarrollo de la ecuación de London dos años más tarde por parte de los
hermanos Fritz y Heinz London.
24
Premios Nobel de Física relacionados con la superconductividad
1972--John Bardeen (EEUU), Leon Neil
Cooper (EEUU), John Robert Schrieffer
(EEUU) (Link a nobelprize.org):
Por su contribución al desarrollo de la teoría de
los fenómenos en superconductores, conocida
como Teoría BCS (Teoría Bardeen-Cooper-
Schrieffer).
1973--Leo Esaki (Japon), Ivar Giaever
(Noruega), Brian David Josephson (Reino
Unido) Por sus descubrimientos
experimentales en relación con el efecto
túnel en semiconductores y
superconductores. Por el descubrimiento del
llamado efecto Josephson.
1987--Johannes Georg Bednorz (Alemania),
Karl Alexander Müller (Suiza)[5](Link a
nobelprize.org)[6]
Por sus descubrimientos revolucionarios de
superconductores en materiales cerámicos.
2003--Aleksey Alekséyevich Abrikósov
(Rusia), Vitaly L. Ginzburg (Rusia), Anthony
J. Leggett (Reino Unido)
Por sus contribuciones pioneras a la teoría
de los superconductores y superfluitos.
25
Fenomenología de los superconductores
Los conductores normales presentan pérdidas
cuando circulan corrientes en su interior. Esto
se debe a que la resistencia que poseen al
paso de una corriente eléctrica, transforma
parte de la energía eléctrica en energía
térmica. Sin embargo, algunos materiales se
comportan de forma extraña a muy bajas
temperaturas. Estos materiales, denominados
"superconductores", cuando son sometidos a
una temperatura mayor que una cierta
temperatura crítica (diferente para cada
material) presentan alta resistencia, por lo general mucho mayor que un conductor
normal y de esta manera decimos que el material se encuentra en su "estado
normal". Por el contrario, por debajo de la temperatura crítica presentan un
fenómeno en el cual la resistencia eléctrica disminuye rápidamente hasta llegar a
cero, decimos entonces que el material se encuentra en su "estado
superconductor". Otra de las propiedades que caracteriza a estos materiales es la
expulsión de campo magnético en el estado de superconducción conocida más
comúnmente como el Efecto Meissner. Esta última es la propiedad esencial del
estado superconductor.
Cuando el material pasa del estado normal al estado superconductor, el cambio en
la resistividad puede ser muy abrupto y se produce lo que en física se denomina
"cambio de fase". Si miramos el material a una temperatura mayor que la crítica,
encontraremos propiedades marcadamente distintas a las que veremos a
temperaturas menores que la crítica.
Existen varios tipos de cambios de fase como por ejemplo el cambio de fase que se
produce cuando enfriamos un recipiente con agua: si llegamos a enfriarlo lo
suficiente (por debajo de 0ºC), veremos que el agua simplemente se congela.
26
Las propiedades del agua a 25ºC y a -10ºC son claramente diferentes. Algo parecido
ocurre en el cambio de fase superconductor, solo que las propiedades que cambian
en la transición son propiedades eléctricas y magnéticas, y no propiedades
estructurales como en el ejemplo del agua. Es más, para el caso de los metales que
al enfriarlos se vuelven superconductores, se sabe que en la transición no hay
cambio en la estructura cristalina ni en las propiedades elásticas del material.
Las propiedades que cambian en la transición del estado normal al estado
superconductor son principalmente las propiedades magnéticas. En el estado
superconductor puro prácticamente no hay penetración de flujo magnético en el
material y los efectos termoeléctricos desaparecen.
Se han encontrado diferentes materiales que se vuelven superconductores por
enfriamiento, cada uno a su temperatura crítica propia. Algunas temperaturas
críticas son de apenas unos pocos grados Kelvin (recordar que 0ºK corresponde a
-273ºC), implicando un esfuerzo tecnológico importante el acceder a tan bajas
temperaturas; en los últimos años ha sido posible diseñar materiales cuyas
temperaturas críticas rondan las decenas de grados Kelvin, lo que en cierta medida
facilita su estudio y utilización.
Hay fundamentalmente dos razones por las que estos materiales despiertan tanto
interés. La primera es de índole económica. Para hacer uso de las propiedades
superconductoras de un material hay que enfriarlo por debajo de una temperatura
crítica. Cuanto más baja sea la temperatura a la que se deba trabajar, mayores
serán los costos de refrigeración. Si para alcanzar el estado de superconductividad
debe operarse a temperaturas inferiores a los 20 K, es necesario emplear helio
líquido. A temperaturas más altas se puede trabajar con hidrógeno, pero por encima
de 80 K se puede usar aire líquido, uno de los materiales refrigerantes más baratos
que existen. Cuando se superen ciertos inconvenientes de carácter técnico, los
nuevos superconductores se podrán emplear a escala industrial sin mayores costos
de refrigeración.
27
Pero hay una segunda razón por la que los físicos están interesados en estos
materiales. Hoy, después de algo más de un año de trabajo, hay una generalizada
convicción de que se está frente a un nuevo fenómeno físico. La teoría que
consiguió explicar el comportamiento de lo que podemos llamar
"superconductividad convencional", no puede hacerlo propio con la
superconductividad a temperaturas tan altas. Los mecanismos que dan origen a la
superconductividad en estos nuevos materiales son probablemente distintos a los
conocidos. Si esto es así, los físicos se encuentran frente a un gran desafío:
comprender y explicar a qué se debe la superconductividad de alta temperatura
crítica.
¿Para qué se usa un Superconductor?
Posibles aplicaciones de los
superconductores.
Antes de realizar una descripción de los usos
actuales y futuros de los superconductores les
recomiendo que vean el siguiente video donde
se realiza una interesante demostración del uso
de los mismos en trenes magnéticos.
Súper Tren Magnético!!!
Hasta ahora, la principal utilidad de un superconductor es la producción de campos
magnéticos muy intensos (del orden de miles de veces del campo magnético del
imán de la heladera). Estos campos tienen importantes aplicaciones en medicina
(RMN), frenos magnéticos, aceleradores, etc. Por otro lado, los campos magnéticos
intensos son necesarios para controlar los reactores de fusión nuclear, aún
experimentales, que serían una forma alternativa de producción de energía no
contaminante. Además, la posibilidad de tener materiales con resistencia nula
permitiría almacenar eficientemente energía eléctrica.
28
La aplicación más importante por el momento es la producción de campos
magnéticos, que se emplean, principalmente, en los laboratorios de física con fines
de investigación. Dentro de la investigación en el campo de la física, también se
utilizan electroimanes superconductores para generar campos magnéticos
altamente estables, útiles en los estudios de la resonancia magnética nuclear y la
microscopía electrónica de alta resolución. Son también utilizados en las cámaras
de burbujas que sirven para la detección de partículas y que requieren campos
magnéticos muy intensos.
Desde el punto de vista comercial, se cree que los motores y generadores
superconductores tendrán enormes consecuencias en lo social y económico.
También se desea utilizar electroimanes superconductores para la levitación de
trenes de transporte de pasajeros o de carga y a menos que investigaciones futuras
indiquen lo opuesto, parece que no existen problemas técnicos fundamentales con
este sistema. Sin embargo, se requieren algunas innovaciones técnicas antes de
poder completar un diseño comercial.
El descubrimiento de materiales superconductores cerámicos con una elevada
temperatura crítica hace aún más atractiva la idea de la utilización de materiales
superconductores para la transportación masiva (ver figura). Cuando menos ya no
se requerirá enfriar a temperatura de helio líquido, bastará con la refrigeración que
proporciona el nitrógeno líquido. Claro que aún sigue la búsqueda de materiales
cerámicos superconductores de temperatura crítica superior a la temperatura
ambiente y, si se logra hallarlos, ya no será necesaria la refrigeración del sistema,
reduciéndose así los costos de construcción y operación.
Por otro lado, desde el descubrimiento del llamado efecto Josephson y el desarrollo
alcanzado en el campo de los circuitos integrados trajeron como consecuencia una
perspectiva espléndida de aplicaciones de la superconductividad en la electrónica.
El efecto Josephson consiste en el paso de corrientes superconductoras a través
de una unión que, normalmente y desde un punto de vista clásico, no debería dejar
pasar ningún electrón. Es un fenómeno típicamente cuántico, explicable por la
mecánica cuántica.
29
La corriente Josephson está presente aun en ausencia de un voltaje aplicado a la
unión (que recibe el nombre de unión túnel). Esta corriente de voltaje cero depende
fuertemente de un campo magnético aplicado. Estas características permiten
disponer de un interesante interruptor para circuitos lógicos. Este efecto también se
observa, desde luego, en los nuevos materiales superconductores cerámicos.
Para las computadoras, el uso de dispositivos de efecto Josephson lleva a tiempos
de transferencia de corriente extremadamente breves. Los tiempos de respuesta de
un interruptor de efecto Josephson son de 5 a 10 picosegundos (un picosegundo es
igual a 0.000000000001 segundos).
La dificultad de la aplicación del efecto Josephson radica en la elaboración de la
unión en donde se da este efecto. Dicha unión ha de construirse con capas de óxido
de unos 30 angstroms y, además, las características han de ser estables ante
ciclajes térmicos y almacenamiento. Sin embargo, su utilización parece muy
ventajosa y polifacética.
El SQUID (dispositivo superconductor de interferencia cuántica, por sus siglas en
inglés) es uno de los dispositivos superconductores más utilizados. Existen dos tipos
de este dispositivo: el SQUID de corriente directa (cd) y el SQUID de radio
frecuencia (rf). Son los instrumentos más sensibles que existen para medir una gran
variedad de cantidades físicas: campos magnéticos, cambios espaciales de campos
magnéticos, susceptibilidades magnéticas, voltajes muy pequeños y
desplazamientos microscópicos.
Aunque, por ahora, es demasiado pronto para que estos dispositivos tengan una
gran repercusión en aplicaciones prácticas, dentro de la próxima década se espera
un gran auge, tanto en la variedad de estos dispositivos superconductores como en
la variedad de sus aplicaciones. Una de la más novedosa es en biomagnetismo,
donde se utilizan para detectar especialmente las fuentes de los pequeñísimos
campos magnéticos generados por el cerebro.
30
Materiales Superconductores
Existen muchos materiales que se vuelven superconductores al bajar la
temperatura. Algunos tienen una composición muy sencilla, son elementos
químicos como el plomo o el aluminio; otros involucran varios elementos y hay que
prepararlos en el laboratorio. Si nos fijamos en la respuesta de un superconductor
a un campo magnético podemos clasificar los materiales en superconductores de
tipo-I y superconductores de tipo-II
Debido a la repulsión de Coulomb los electrones generalmente se repelen. Para que
se formen los pares de Cooper es necesario que, de forma efectiva, los electrones
se atraigan. Aunque en todos los superconductores se forman pares de Cooper la
razón por la que se forman estos pares no parece ser la misma en todos ellos. Una
clasificación diferente de los superconductores se fija en el origen de la
superconductividad y clasifica a los superconductores en superconductores
convencionales y superconductores no-convencionales.
Según la teoría BCS de 1957 la interacción de los electrones con las vibraciones de
la red de iones resulta de forma efectiva en una interacción atractiva entre los
electrones gracias a la cual se forman los pares de Cooper y la superconductividad.
En algunos materiales como el plomo o el aluminio esta teoría explica bien los
resultados experimentales. Sin embargo, existen materiales, entre los que se
incluyen los superconductores de alta temperatura, en los que las interacciones de
red, al menos por sí solas, no parecen ser las responsables de la
superconductividad en estos sistemas.
Hablamos de superconductores convencionales si la formación de los pares de
Cooper está mediada por las vibraciones de la red de átomos (fonones) y
de superconductores no-convencionales cuando el origen es otro.
Aunque la superconductividad se descubrió hace más de un siglo, actualmente se
siguen descubriendo nuevos superconductores. Cuando se descubre un nuevo
superconductor hay un gran interés en saber si es convencional o no-convencional.
31
TIPOS Y DIFERENCIAS DE LOS SUPERCONDUCTORES
Existen diferencias importantes entre los superconductores que permiten
clasificarlos en dos grandes grupos. Ciertos metales; en particular los que tienen
bajas temperaturas de fusión y son mecánicamente suaves y de fácil obtención en
un alto grado de pureza y libres de esfuerzos mecánicos internos, exhiben
semejanzas en su comportamiento en el estado superconductor. Estos materiales
superconductores reciben el nombre de superconductores ideales,
superconductores Tipo I, o suaves.
Por otro lado, el comportamiento de muchas aleaciones y de algunos de los metales
superconductores más refractarios es complejo e individual, particularmente con
respecto a la forma cómo resultan afectados en el estado superconductor en
presencia de un campo magnético. A estos superconductores se les ha dado el
nombre de superconductores Tipo II, o si la superconductividad se conserva aun
bajo la influencia de campos magnéticos intensos, se les conoce con el nombre de
duros o de campo intenso.
Para entender mejor estas diferencias, veamos cómo un campo magnético aplicado
afecta a cada uno de los tipos de superconductores que hemos mencionado. Para
ello describiremos brevemente lo que es el efecto Meissner-Oschenfeld.
En 1933, W. Meissner y R. Oschenfeld encontraron experimentalmente que un
superconductor se comporta de manera tal que nunca permite que exista un campo
de inducción magnética en su interior. En otras palabras, no permite que un campo
magnético penetre en su interior. El campo magnético en el interior de un
superconductor no sólo está congelado, sino que vale siempre cero.
Una consecuencia inmediata de lo anterior es que el estado de magnetización del
material que pasa por la transición superconductora no depende de los pasos que
se hayan seguido al establecer el campo magnético. Esta consecuencia marca
32
también la diferencia fundamental entre lo que es un conductor perfecto y lo que es
un superconductor. Por conductor perfecto entendemos un material cuya resistencia
eléctrica es igual a cero. En tanto que un superconductor, además de presentar
resistencia cero, presenta también el efecto Meissner-Oschenfeld. Se puede
demostrar fácilmente que, en un conductor perfecto, el campo magnético tiene un
valor constante, esto es, está congelado en su interior, pero no necesariamente vale
cero, y esto trae como consecuencia que su estado de magnetización dependa
necesariamente de los pasos, que se hayan seguido para magnetizarlo.
Para entender más claramente la diferencia entre un conductor perfecto y un
superconductor; veamos qué ocurre cuando tratamos de magnetizar un conductor
perfecto y cuando tratamos de magnetizar un superconductor.
Consideremos primero al conductor perfecto, esto es, pensemos que la transición
nos lleva únicamente a un estado de resistencia cero sin el efecto Meissner-
Oschenfeld.
33
Penetración del campo magnético B, en el interior de un material considerado
solamente como conductor perfecto (es decir que sólo presenta resistencia eléctrica
igual a cero, pero no el efecto Meissner), al pasar por la temperatura de transición.
Ahora consideremos que la transición, además de llevar la muestra a un estado de
resistencia eléctrica cero, nos indica la existencia del efecto Meissner-Oschenfeld.
Penetración del campo magnético, B, en el interior de un material que es un
superconductor (es decir, que presenta resistencia eléctrica igual a cero y además
el efecto Meissner), al pasar la temperatura de transición.
Es necesario señalar que, si bien existe una clara diferencia entre lo que es un
superconductor y un conductor perfecto, los únicos conductores perfectos que se
han encontrado hasta ahora en la naturaleza son, precisamente, los
superconductores. Aún no se descubren conductores perfectos materiales con
resistencia cero y sin que presenten el efecto Meissner-Oschenfeld.
34
Aplicaciones
Los superconductores tienen numerosas aplicaciones. Actualmente, los imanes
más potentes se fabrican con bobinas de cables superconductores (electroimanes
superconductores). Este es el caso de los imanes que se utilizan en grandes
instalaciones científicas, como los aceleradores de partículas, y en medicina, como
los aparatos de resonancia magnética nuclear. Los imanes potentes son también
un componente importante de los generadores que transforman energía mecánica
en electricidad (como es el caso de los generadores eólicos e hidráulicos). El uso
de imanes producidos por bobinas superconductoras disminuyen las pérdidas
mecánicas en la producción de energías alternativas. De esta forma disminuye de
forma muy importante el peso y las dimensiones de los motores. Además el uso de
generadores superconductores disminuye la dependencia en las escasas tierras
raras que componen los imanes convencionales.
Con superconductores se pueden también fabricar detectores ultrasensibles de
campos magnéticos utilizando el efecto Josephson. Otras aplicaciones que están
en mayor o menor medida en desarrollo son relevantes para la eficiencia
energética (por ej. cables que conducen la electricidad sin pérdidas de energía)
y transportes (trenes que levitan).
Tren superconductor
Para poder desarrollar todo el potencial de
los superconductores necesitamos aún
superar ciertos retos relacionados con los
parámetros críticos de los
superconductores y con la propia
producción de los materiales.
35
ALGUNAS APLICACIONES DE LA SUPERCONDUCTIVIDAD
Puede decirse que existen tres tipos de aplicaciones de la
superconductividad:
1) La producción de grandes campos magnéticos. Al decir grandes nos
referimos tanto a una gran intensidad del campo magnético como al
espacio en el cual se crea el campo.
2) La fabricación de cables de transmisión de energía. Aunque éstos ya
se manufacturan a partir de los superconductores convencionales (no de
los nuevos superconductores cerámicos), actualmente no son competitivos
comercialmente con respecto a los cables aéreos normales, a menos de
que cubran una gran distancia (de cientos de kilómetros). En los casos en
que las líneas de transmisión deben ser subterráneas, habría cierta ventaja
económica con la utilización de los cables superconductores.
3) La fabricación de componentes circuitos electrónicos. Estos
dispositivos electrónicos fueron ideados originalmente con la intención de
utilizar la transición de estado normal a estado superconductor como un
interruptor, más resultaron decepcionantes con respecto a los logros
alcanzados por los transistores de películas delgadas y se ha abandonado
su uso en este aspecto. Este panorama puede cambiar con el
descubrimiento de los nuevos materiales superconductores cerámicos.
Cabe mencionar que son de gran interés los dispositivos basados en la
utilización del llamado efecto Josephson (que es el efecto de "tunelamiento"
conocido por la mecánica cuántica, pero de corriente de
superconductividad aun en ausencia de un voltaje aplicado). Resultan
superiores a otras tecnologías y tienen un gran campo de aplicación que va
desde la detección de señales del infrarrojo lejano que provienen del
espacio exterior, hasta pequeñísimos campos magnéticos que se producen
en el cerebro humano. También la corriente Josephson a voltaje cero
depende fuertemente de un campo magnético aplicado, lo que lleva a la
36
posibilidad de tener un interesante interruptor para circuitos lógicos en las
computadoras.
La aplicación más importante, en cuanto a la cantidad de material
empleado, es y será por mucho tiempo la producción de campos
magnéticos, que se emplean, principalmente, en los laboratorios de física
con fines de investigación, y es común ver pequeños electroimanes
superconductores que sirven para producir campos magnéticos con
intensidades del orden de 103 Oersted. Dentro de la investigación en el
campo de la física, también se utilizan electroimanes superconductores
para generar campos magnéticos altamente estables, útiles en los estudios
de la resonancia magnética nuclear y la microscopía electrónica de alta
resolución. Son muy utilizados en las cámaras de burbujas que sirven para
la detección de partículas y que requieren campos magnéticos muy
intensos.
ALGUNAS APLICACIONES DE LOS ELECTROIMANES
SUPERCONDUCTORES
Se han propuesto muchas aplicaciones industriales a gran escala de los
imanes superconductores. En la actualidad existen algunos métodos
alternativos que emplean campos magnéticos pero, si se aplica la
superconductividad en estas áreas, se espera obtener un ahorro
considerable en costos de operación. En algunas otras áreas el uso de
electroimanes superconductores ha hecho la idea técnica y
económicamente posible.
Algunas de las aplicaciones más importantes de los electroimanes
superconductores, sin que la lista pretenda ser exhaustiva, es la siguiente:
1) Aplicaciones biológicas. Se sabe desde hace mucho tiempo que los
campos magnéticos intensos afectan el crecimiento de plantas y animales.
Así, se han utilizado electroimanes superconductores para generar campos
37
magnéticos intensos y estudiar sus efectos en el crecimiento de plantas y
animales y, además, analizar su efecto en el comportamiento de estos
últimos.
2) Aplicaciones químicas. Es un hecho conocido que los campos
magnéticos pueden cambiar las reacciones químicas y ser utilizados en la
catálisis.
3) Aplicaciones médicas. Se han aplicado campos magnéticos para
arreglar arterias, sacar tumores y para sanar aneurismas sin cirugía.
También se estudia la influencia de los campos magnéticos en las
funciones vitales del cuerpo humano.
4) Levitación. Una aplicación muy importante es en el transporte masivo,
rápido y económico. La idea de usar una fuerza magnética para hacer
"flotar" vehículos de transporte ha estado en la mente de los científicos por
casi un siglo y la posible aplicación de la superconductividad a este
problema lo ha renovado y actualizado. Hay, esencialmente, dos métodos
posibles para conseguir la levitación. Uno corresponde a la utilización de
un sistema atractivo y el otro a un sistema repulsivo. Describiremos muy
brevemente los principios de funcionamiento de cada uno.
Dibujo que muestra un tren levitado por campos magnéticos
producidos por corrientes superconductoras.
38
El sistema atractivo ha sido investigado, principalmente, en Alemania y
Estados Unidos. Como es sabido, la fuerza magnética entre un material
ferromagnético colocado en el seno de un campo magnético y la fuente que
genera al campo magnético es siempre atractiva. El peso del vehículo es
sostenido por esta fuerza atractiva.
ALGUNAS APLICACIONES EN LA ELECTRÓNICA
La primera sugerencia para utilizar la transición del estado normal al estado
superconductor en la electrónica fue hecha en 1956. El dispositivo que se
propuso recibió el nombre de criotrón. A continuación haremos una
pequeña descripción de este dispositivo.
Consiste en un par de alambres superconductores, uno enrollado alrededor
de otro. Usualmente un alambre de niobio se coloca alrededor de un
alambre de tantalio, aislados eléctricamente entre sí.
El campo magnético crítico del niobio es bastante mayor que el del tantalio.
Ambos alambres se encuentran inicialmente en un estado superconductor.
Supongamos ahora que una corriente, I, pasa por el alambre de tantalio
que, al ser superconductor, no ofrece resistencia al paso de la corriente. Si
hacemos pasar una corriente IC, a través del alambre Nb, se genera un
campo magnético dentro del cual el alambre de tantalio (Ta) queda
inmerso. Si la corriente es suficientemente intensa se puede generar un
campo magnético que lleve al tantalio a su estado normal. Si esto ocurre,
aparece una resistencia eléctrica en el tantalio al paso de la corriente,
reduciéndose así el valor de esa corriente. Sin embargo, el alambre de Nb
puede permanecer en el estado superconductor ya que el campo
magnético crítico del Nb es mayor que el del Ta para la misma temperatura.
Por tanto, el valor de la corriente en el alambre del tantalio puede
controlarse con una corriente menor.
39
El alambre de tantalio recibe el nombre de alambre de paso o paso. El
alambre de niobio recibe el nombre de alambre de control, o control.
Por lo general el calibre del alambre de paso se toma lo más grande posible
para así tener en él la mayor cantidad de corriente.
Al principio se utilizaron criotrones como interruptores rápidos para su
posible uso en computadoras. Incluso, existen criotrones de películas
delgadas. En general, hubo bastante esfuerzo dedicado al desarrollo de
circuitos superconductores de criotrones. Sin embargo, a mediados de los
años sesenta, estos dispositivos habían perdido ya terreno respecto a los
dispositivos de transistores que funcionan a la temperatura ambiente.
La razón más importante, quizá, es que el criotrón no fue tan eficiente
comparado con las versiones mejoradas del transistor. Sin embargo, con
los nuevos materiales superconductores cerámicos los criotrones podrían
ser de nuevo competitivos, ya que en ellos las temperaturas de
refrigeración son mucho más grandes. Por otro lado, el criotrón se ha
utilizado y se utiliza para controlar corrientes en circuitos de imanes
superconductores.
Esquema que muestra al criotrón o relevador superconductor.
40
CONCLUSION
En el presente trabajo se ha logrado desarrollar los resultados matemáticos
históricos de la superconductividad convencional, a través de una nueva forma
de concebir la interacción electrón-fonón, con un manejo distinto de la teoría de
sistemas de muchas partículas, que está en el significado real de establecer
operadores de Bose como combinación lineal de operadores de Fermi, lo cual
arroja resultados correctos. Asimismo, se obtiene a partir de un proceso nuevo
de canonización del Hamiltoniano BCS fundamentado en la Teoría de Campo
Auto consistente la ley de dispersión y la ecuación de Eliashberg McMillan
obtenida, a través de la Teoría de los Problemas de Muchos Cuerpos
sustentada en la Grinística y la Técnica de Diagramas de Feynman. Lo anterior
da lugar a tener caminos alternativos para elaborar una nueva teoría futura para
tratar los problemas de cálculo de sistemas ligados formados por bosones y
fermiones interactuantes.
En el marco de esa tarea, se ha conseguido explicar una alternativa diferente a
planteamientos originales como el hamiltoniano BCS y la aplicación de la teoría
de bandas electrónicas, para determinar la ecuación de Eliashberg y McMillan.
Sin embargo, la aplicación de nuestros resultados al superconductor MgB2 no
garantiza un aparato teórico para enfrentar a la superconductividad de alta
temperatura crítica. Los intentos para explicar la superconductividad de alta Tc
se pueden dividir en dos tipos. Los que retoman la teoría BCS de interacción
electrón-fonón y los que proponen mecanismos diferentes. La falta de un
consenso obedece a la complejidad 118 de las estructuras cristalinas
involucradas. Otra característica que se presenta son los llamados escenarios,
que significa que hay partes de la muestra que se comportan de manera
diferente en la transición al estado superconductor.
41
BIBLIOGRAFIA
http://es.wikipedia.org/wiki/Superconductividad
http://descubriendo.fisica.unlp.edu.ar/descubriendo/index.php/%C2%BFQ
u%C3%A9_son_los_Superconductores%3F
http://www.unizar.es/icma/divulgacion/pdf/pdflevitsupercon.pdf
http://es.wikipedia.org/wiki/Clasificaci%C3%B3n_de_los_superconductore
s
42
ANEXO
43
COMPUTADORA CUANTICA
INTRODUCCION
Mucha gente usa el término Computación Cuántica para describir una potencia de
computación mucho mayor que la que existe hoy en día. Pero, ¿qué es?
La creación de encriptaciones prácticamente invulnerables o la búsqueda dentro de
bases de datos inmensas son aplicaciones que requieren un alto coste de cómputo
con los ordenadores actuales, pero que podrían realizarse, teóricamente, en tan
sólo unos segundos usando un ordenador cuántico, un dispositivo que basado en
la mecánica cuántica, dedicada a estudiar la energía y la materia a nivel atómico.
A lo largo de la historia el ser humano ha intentado construir máquinas que lo
sustituyan a la hora de realizar complejos cálculos matemáticos, de una forma
automática y mucho más rápida. Este avance ha sido más o menos constante según
pasaba el tiempo pero, ¿podrá continuar infinitamente?
La respuesta a la pregunta anterior es negativa, al menos si se sigue en la línea
actual, es decir, basándose en los mismos principios físicos a la hora de crear
componentes. Existe un claro límite, llamado efecto túnel, por el cual un componente
electrónico deja de funcionar correctamente, al traspasar los electrones las
"paredes" que delimitan los canales por los que deben circular, si son
excesivamente finas.
Esto ocurre por la sucesiva miniaturización de los elementos que componen un
computador, pues para ganar en velocidad de cómputo es necesaria, al menos en
el punto actual de la computación clásica, una reducción que acerque los puntos de
origen y destino de la información, así como otros aspectos físicos, que
proporcionan un mejor rendimiento.
Por tanto, es necesario un cambio, o el progreso quedará paralizado. Aquí es donde
nace la computación cuántica.
44
HISTORIA
Cuando teóricos tales como Richard
Feynmann, del California Institute of
Technology, de Pasadena (California); Paul
Benioff, de Argonne National Laboratory,
en Illinois; David Deutsch, de la
Universidad de Oxford, en Inglaterra, y
Charles Bennett, del T.J. Watson Research
Center de IBM en Yorktown Heights (Nueva
York), propusieron por primera vez el
concepto de las computadoras cuánticas
en las décadas de 1970 y 1980, muchos
científicos dudaron que alguna vez ese tipo
de computadora pudiera resultar práctica.
Pero en 1994, Peter Shor, de AT and T
Research, describió un algoritmo cuántico específicamente diseñado para factorizar
números grandes y exponencialmente más rápido que las computadoras
convencionales, lo suficientemente rápido como para birlar la seguridad de muchos
criptosistemas de clave pública. El potencial del algoritmo de Shor alentó a muchos
científicos a tratar de explotar las capacidades de las computadoras cuánticas. En
los últimos años, varios grupos de investigación de todo el mundo han alcanzado
progresos significativos en este campo.
Mientras estuvo en IBM, Chuang amplió su reputación como uno de los
experimentalistas en computación cuántica más importantes del mundo. Dirigió el
grupo que demostró la primera computadora cuántica de 1 qubit (en 1998 en la
Universidad de California en Berkeley). En IBM Almaden, Chuang y sus colegas
fueron los primeros en demostrar los importantes algoritmos cuánticos, el algoritmo
de Grover concebido en 1999 para hacer búsquedas en bases de datos con ayuda
de una computadora cuántica de 3 qubits, y la búsqueda de pedidos ideada el año
45
pasado (agosto del 2000) con una computadora cuántica de 5 qubits. La
factorización con el algoritmo de Shor anunciada hoy es el algoritmo más complejo
que se haya demostrado hasta ahora usando una computadora cuántica.
Además de su ambicioso programa experimental, la División de Investigación de
IBM Research es conocida también por sus muchas contribuciones teóricas en el
emergente campo de la información cuántica. Los científicos de IBM fueron pioneros
en criptografía cuántica, en comunicaciones cuánticas (incluso el concepto de
teleporte cuántico) y en metodologías eficientes para corregir errores. David
DiVincenzo, miembro del cuerpo de investigadores del laboratorio Watson de IBM,
ha promulgado los cinco criterios necesarios para construir una computadora
cuántica práctica: 1) un sistema físico de escala flexible con qubits bien
caracterizados; 2) capacidad de inicializar el estado de un qubit; 3) tiempos de
descoherencia más largos que el tiempo de operación de la puerta cuántica; 4) un
conjunto universal de puertas cuánticas; y 5) la capacidad de medir qubits
específicos.
46
COMPUTACION CUANTICA
Definición
La computación cuántica es un paradigma de computación distinto al de la
computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a
nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea
puede tener diferente complejidad en computación clásica y en computación
cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas
intratables pasan a ser tratables.
En la computación cuántica, a diferencia de la computación actual donde cada bit
puede estar en un estado discreto y alternativo a la vez, la unidad fundamental de
almacenamiento es el bit cuántico, donde cada bit cuántico puede tener múltiples
estados simultáneamente en un instante determinado, así reduciendo el tiempo de
ejecución de algunos algoritmos de miles de años a segundos.
La computación cuántica está basada en las interacciones del mundo atómico, y
tiene elementos como el bit cuántico, las compuertas cuánticas, los estados
confusos, la tele transportación cuántica, el paralelismo cuántico, y la criptografía
cuántica. Una arquitectura cuántica, muy aceptada entre los investigadores y
orientada a ser compatible con las actuales arquitecturas, cuenta con memoria y
una unidad de procesamiento aritmético/lógico, y con elementos cuánticos como la
tele transportadora de código y el planificador dinámico. Su avance teórico ha sido
muy exitoso, aun así, su realización depende de la futura implementación de una
computadora cuántica, sin embargo ya se está desarrollando tecnología comercial
basada en esta teoría.
47
COMPUTADORA CUÁNTICA
Una definición acerca de las computadoras cuánticas, ampliamente aceptada por
los investigadores, la concibe como un sistema de circuitos cuánticos, actuando en
un espacio de estados.
El circuito es una secuencia de transformaciones unitarias seguido por una
medición. Esas transformaciones, son llamadas compuertas cuánticas, y son
controladas por una computadora clásica. Así esto permite la superposición
simultánea de estados básicos (correspondientes a estados clásicos "0" y "1").
Hardware cuántico
Requerimientos de implementación.
Aún no se ha resuelto el problema de qué hardware sería el ideal para la
computación cuántica. Se ha definido una serie de condiciones que debe cumplir,
conocida como la lista de Di Vinzenzo, y actualmente hay varios candidatos a qubits.
Requisitos a cumplir:
 El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida
conocido y controlado.
 Ha de ser posible hacer manipulaciones a los qubits de forma controlada,
con un conjunto de operaciones que forme un conjunto universal de puertas
lógicas (para poder reproducir a cualquier otra puerta lógica posible).
 El sistema ha de mantener su coherencia cuántica a lo largo del
experimento.
 Ha de poder leerse el estado final del sistema, tras el cálculo.
 El sistema ha de ser escalable: tiene que haber una forma definida de
aumentar el número de qubits, para tratar con problemas de mayor coste
computacional.
Candidatos a qubits:
 Espines nucleares de moléculas en disolución, en un aparato de RMN.
 Flujo eléctrico en SQUIDs.
 Iones suspendidos en vacío.
48
 Puntos cuánticos en superficies sólidas.
 Imanes moleculares en micro-SQUIDs.
Circuitos para la computación cuántica.
Los investigadores afirman que en la computación cuántica se usarán los principios
de la mecánica cuántica, para realizar cálculos complejos en una fracción del tiempo
necesario hoy en día en los superordenadores más veloces.
A medida que avanza la teoría al respecto, los expertos van proponiendo avances
que permitirán que esta idea se haga realidad. Bajo estas líneas se propone un
circuito realizable de forma experimental y una manera eficiente de implementar una
computación cuántica escalable.
Es precisamente la habilidad de aumentar la escala de la tecnología, de aquella que
permite realizar experimentos de 1 ó 2 qubits, habituales en el laboratorio, a la que
nos proporcionará sistemas en los que participarán muchos qubits, lo que hará
posible construir un ordenador cuántico.
El próximo sistema radicalmente distinto para el procesamiento de información será
la computación cuántica.
Los investigadores afirman que en ella se usarán los principios de la mecánica
cuántica, para realizar cálculos complejos en una fracción del tiempo necesario hoy
en día en los superordenadores más veloces.
A medida que avanza la teoría al respecto, los expertos van proponiendo avances
que permitirán que esta idea se haga realidad. Un reciente artículo publicado en
Physical Review Letters, por ejemplo, propone un circuito realizable de forma
experimental y una manera eficiente de implementar una computación cuántica
escalable.
Es precisamente la habilidad de aumentar la escala de la tecnología, de aquella que
permite realizar experimentos de 1 ó 2 qubits, habituales en el laboratorio, a la que
49
nos proporcionará sistemas en los que participarán muchos qubits, lo que hará
posible construir un ordenador cuántico. Franco Nori, de la University of Michigan,
y sus colegas, han escrito un artículo en este sentido, titulado "Scalable quantum
computing with Josephson charge qubits".
Para implementar esta tecnología, será necesario preparar, manipular y medir el
frágil estado cuántico de un sistema. Esto no es fácil, y es por eso que hasta ahora
nos hemos centrado en qubits individuales. Pero para disponer de un ordenador
cuántico serán necesarios muchos qubits, y controlar la conectividad entre ellos.
Estas son las principales dificultades a las que nos enfrentamos, que el método de
Nori trata de solventar.
50
Funcionamiento.
La computación cuántica pretende utilizar un principio básico de la mecánica
cuántica por el cual todas las partículas subatómicas (protones, neutrones,
electrones, etc.) tienen una propiedad asociada llamada spin. El spin se asocia con
el movimiento de rotación de la partícula alrededor de un eje. Esta rotación puede
ser realizada en un sentido, o el opuesto. Si por ejemplo tomamos como bit al spin
de un protón, podemos usar una dirección como 1 y otra como 0. Estos bits,
tomados a partir del spin de las partículas han recibido el nombre de qubits.
Sin embargo, en mecánica cuántica el estado de una partícula se determina a través
de la asignación de una probabilidad, no podemos hablar de un estado 1 ó 0
claramente determinado. Esta aparente ambigüedad tiene una ventaja que
convierte a la computación cuántica en un desarrollo revolucionario: La lógica de un
bit es uno u otro, mientras que un qubit (nombre dado al bit cuántico) entraña el
concepto ambos a la vez. Si tomamos por ejemplo dos bits, sus estados posibles
son cuatro: 00, 01, 10, 11. Son necesario cuatro pares de bits para representar la
misma información que un solo par de qubits con comportamiento ambiguo.
Los qubits pueden representar en este caso cuatro números a la vez, cuatro
51
respuestas posibles a la vez. Procesamiento paralelo real, la Meca de la
computación. Sus aplicaciones principales entran en el campo de la criptografía y
teoría de número, y en el análisis de gigantescos volúmenes de información.
Qubits
No todos los problemas pueden ser resueltos por este tipo de lógica. Sin embargo,
una computadora cuántica podría resolver los que sí pueden, a una velocidad varias
veces superior a la de los microprocesadores conocidos hasta hoy, está también se
considera una tecnología hipotética, pues aún sólo se ha quedado en la
investigación sin llegar a desarrollar un sistema completo utilizando esta lógica, pero
aun así, si se logra implantar algún día será definitivamente demasiado cara debido
a las características necesarias para su buen funcionamiento.
52
Requerimientos de implementación
Para la implementación de una computadora cuántica, se deben cumplir al menos
cinco requisitos. Primero, se necesita un sistema de qubits. Segundo, los qubits
deben ser individualmente direccionables y deben interactuar con otros para
conformar compuertas lógicas de propósito general. Tercero, debe ser posible la
inicialización de las compuertas. Cuarto, se debe tener la posibilidad de extraer los
resultados computacionales. Y Quinto, es la necesidad de un tiempo de coherencia
duradero.
¿Qué cosas podrían hacerse con un computador cuántico?
Si fuera posible encontrar algoritmos y hardware que exploten eficientemente la
superposición del qubit, podrían obtenerse ahorros exponenciales en el tiempo de
procesamiento. Un ejemplo de esto es la factorización de números grandes
(encontrar números que al multiplicarse arrojen el número del cual son factores), en
donde las computadoras actuales ven incrementado su tiempo de procesamiento
en forma exponencial según aumente el número de dígitos de la cantidad a
factorizar.
De hecho, los algoritmos actuales para codificar y enviar en forma encriptado
información a través de Internet, basan su seguridad en la imposibilidad de las
computadoras actuales de encontrar en un tiempo razonable, los factores de un
determinado número. El computador cuántico haría obsoletos dichos mecanismos
de encriptación.
53
Otras aplicaciones posibles serían:
Encriptación: Si bien el computador cuántico haría obsoletos los mecanismos
actuales, también provee una solución alternativa basada no tanto en las
matemáticas, sino en las leyes de la física por lo que esta solución podría ser
prácticamente imposible de violar por los amantes de lo ajeno.
Teleportación: Se refiere a comunicar el estado físico de un objeto a otro objeto
ubicado en otra parte.
La factorización de grandes números: Una computadora actual se estima que
tardaría varios miles de millones de años para factorizar un número de 1000 dígitos,
mientras que un computador cuántico lo haría en ¡20 minutos!
La búsqueda en bases de datos: Las búsquedas en bases de datos no ordenadas
se realizan actualmente al azar (ningún algoritmo es más eficiente) y para localizar
un dato en especial se requiere en promedio de N/2 intentos, donde N es el número
total de datos. Un computador cuántico podría realizar lo anterior en un número de
intentos igual a la raíz cuadrada de N. Así por ejemplo si N es igual a un millón, una
computadora actual tendría que intentar 500,000 veces, mientras que el computador
cuántico lo haría sólo 1,000 veces.
¿Qué tan cerca estamos de contar con un computador así?
Se han hechos grandes progresos, sin embargo aún existen grandes dificultades
técnicas. Así por ejemplo, la superposición cuántica (la capacidad de un qubit de
existir en dos universos paralelos) es difícil de obtener y mantener ya que cualquier
interacción con el exterior obligará al qubit a adoptar un valor definido (fenómeno
conocido como "decoherencia")
Por otro lado, el qubit no puede ser construido a partir del transistor ya que este es
un elemento que sólo funciona en las computadoras actuales; más bien se deben
utilizar partículas o sistemas de partículas que manifiesten el fenómeno de la
interferencia cuántica. Se han hechos grandes progresos, sin embargo aún existen
grandes dificultades técnicas. Así por ejemplo, la superposición cuántica (la
54
capacidad de un qubit de existir en dos universos paralelos) es difícil de obtener y
mantener ya que cualquier interacción con el exterior obligará al qubit a adoptar un
valor definido (fenómeno conocido como "decoherencia”).
Además, el qubit no puede ser construido a partir del transistor ya que este es un
elemento que sólo funciona en las computadoras actuales; más bien se debe utilizar
partículas o sistemas de partículas que manifiesten el fenómeno de la interferencia
cuántica.
Diseñando indicadores automotrices con Arduino
Ingenieros de un equipo competidor de la carrera Le Mans investigó la forma
de diseñar un nuevo medidor de combustible para su vehículo Dodge Neon, y
descubrieron una forma sencilla y práctica utilizando la tarjeta de desarrollo
Arduino Uno.
Ingenieros de un equipo de la carrera automovilística Le Mans, innovaron con la
tarjeta Arduino Uno, al crear un indicador de combustible y luces de advertencia
para su coche que fallaron de último momento, demostrando que la creatividad y
una herramienta prediseñada de desarrollo pueden sacar de apuros.
55
Tal fue el éxito de su innovación, que los técnicos decidieron poner a disposición de
la comunidad la metodología y componentes que usaron para materializar este
sistema electrónico.
De esta forma, el artículo técnico fue cargado al sitio Design Concepts, donde uno
de los técnicos menciona que la idea les ocurrió durante las 24 Horas de Le Mans
2013 - Chubba Cheddar Enduro, competencia realizada en noviembre del año
pasado en Estados Unidos.
En esta justa automovilística los equipos utilizan coches que en muchas ocasiones
son de modelo atrasado, y deben recorrer circuitos conformados por grandes
distancias, por lo que la maquinaria y los sistemas eléctricos de los coches deben
estar trabajando adecuadamente.
CIRCUITO INTERNO DE MEDIDOR AUTOMOTRIZ
Previo a la carrera, los ingenieros rectificaron los diferentes módulos del vehículo,
en este caso un Dodge Neón pintado de vaca al que se le aplicó la innovación, de
esta forma los técnicos se percataron que el indicador de combustible y las luces de
señalización no funcionaban bien, siendo el medidor el más apremiante ya que no
56
podían arriesgarse a participar sin este recurso tan importante que de no funcionar,
podría ponerlos fuera de la competencia. De esta manera comenzaron una tormenta
de ideas y encontraron una puerta para solucionar en breve esas fallas.
“Mientras nos preparábamos para la carrera Le Mans 2013 de Chubba Cheddar, se
hizo evidente que tendríamos que ser creativos para implementar un indicador de
combustible debido a que el de nuestro coche estaba fallando y la depuración no
iba bien. Correr con un indicador de combustible fallo era claramente algo que
queríamos evitar”, comenta uno de los ingenieros. “Con un poco de investigación
fui capaz de determinar que el sensor del tanque de gasolina no era más que un
resistor variable. Para un módulo DIY podríamos prácticamente montar un
multímetro y observar la resistencia del sensor conforme el nivel de combustible
cambiaba. Esta idea parecía algo pirata incluso para las carreras Le Mans”, añadió
el miembro del ‘staff’.
Diagrama de bloques de indicador Arduino
Los técnicos debían luchar contratiempo y programar juntas técnicas para la
presentación de propuestas; el tiempo era un privilegio del cual no gozaban, ya que
era cuestión de horas el resolver los problemas o bien resignarse a declinar a la
competencia.
57
El reporte señala que los ingenieros navegaron por cerca de una hora en Internet y
descubrieron una tarjeta de desarrollo de nombre Arduino Uno, la cual contaba con
los módulos electrónicos necesarios para diseñar un sistema como lo que
buscaban, en este caso un indicador electrónico de combustible. A pesar de su
desconocimiento sobre el entorno ‘OpenSource’ para el desarrollo de hardware
automotriz, los técnicos inmediatamente descargaron un diseño de referencia que
al parecer se encontraba en el mismo sitio Web de la comunidad Arduino.
Este módulo era prácticamente una herramienta desconocida por los ingenieros,
pero hicieron uso de las hojas técnicas del portal y con ello comenzaron a planear
el módulo requerido. Al ver la funcionalidad de la tarjeta de desarrollo, vieron viable
innovar y decidieron integrar en el mismo proyecto un indicador de luz para nivel
bajo de combustible, temperatura y presión de aceite, es decir, un todo-en-uno.
En la siguiente imagen se aprecia el prototipo final de este módulo automotriz
multifuncional para monitoreo de combustible y fluidos.
La Caja Hammond se utilizó como cubierta para la tarjeta electrónica
Los ingenieros adelantaron que debido a los buenos resultados que consiguieron
con esta aplicación, han decidido desarrollar una nueva versión del módulo para la
siguiente justa Le Mans 2014.
Los materiales que utilizaron los técnicos fueron: Arduino Uno, módulo Microtivity
IM162 LCD 1602, Caja Negra Hammond 1591ESBK ABS, diodos rojos de 5mm pre-
58
cableados de 6V, resistencias varias, plataforma ‘Speed Studio’. En el mismo
documento se comparten los códigos de arranque y funcionamiento para cada una
de las fases operativas del sistema y las herramientas y protocolos que utilizaron
para finalizarlo
Apple estaría probando muestras de paneles OLED de 65″ para el
futuro iTV
Muchos son los rumores acerca de la televisión de Apple y poco a poco se van
sumando otros que evidencia que si bien puede que no entre en los planes cercanos
o incluso nunca se llegue a producir en serie, Apple está investigando y de qué
manera en este nicho de negocio. Según distintos informes, Apple está actualmente
probando paneles OLED de 65 pulgadas de una empresa coreana ‘sin nombre’ que
supuestamente montarían en el iTV , de acuerdo a las informaciones de la agencia
IBK Securities.
59
El Korea Herald ha hecho público un informe del analista Lee Seung -woo , que
dice: La compañía está fabricando paneles OLED de muestra en 65 pulgadas para
el iTV de Apple en colaboración con Apple. Aún así, no está claro si Apple va a
usarla para la producción masiva de su largamente rumoreada iTV , ya que todavía
están en fase de pruebas.
StoreDot promete cargar tu teléfono en sólo 30 segundos (y te lo demuestra en
vídeo)
Pongámonos en situación. Te han llamado para un plan de última hora, terminas de
colocarte tus mejores vestiduras y justo antes de salir de casa te das cuenta del
gran problema: la batería de tu teléfono está a punto de agotarse. Adiós a subir fotos
en Instagram de tu suculenta cena y a la localización de tus amigos por WhatsApp.
Pero tranquilo, hay solución, o al menos eso prometen en StoreDot.
Lo que comenzó siendo un departamento de nanotecnología de la Universidad de
Tel Aviv, es ahora una empresa encargada de dar vida a sistemas y tecnologías
realmente prometedores. Su último trabajo es este cargador instantáneo en forma
de prototipo, presentado en la conferencia Think Next de Microsoft y que presume
60
de ser capaz de cargar la batería de un Galaxy S3 en sólo 30 segundos gracias a
su tecnología de semiconductores biológicos (formado por péptidos, para ser
exactos).
Los incrédulos podrán salir de dudas gracias al vídeo que ha preparado la compañía
con la demostración, una grabación donde podrás que una vez conectado a la red
eléctrica, el terminal comenzará a recibir energía como si se encontrara en las
mismísimas manos de Magneto.
El prototipo de momento tiene el tamaño de un cargador de portátil, pero aseguran
que andan trabajando paralelamente para mejorar ese aspecto. La idea es poder
comenzar con la producción en algún momento del 2016, y su precio, dicen, estará
en torno a los 30 dólares.
61
De la pantalla de tu Tablet o teléfono fácil a la del TV
Woxter lanza al mercado un pequeño adaptador que permite compartir en modo espejo con
la televisión, aquello que tengamos en la tablet o el Smartphone. Se trata del Miracast 115,
que tiene unas medidas de 91x37x11 mm, veremos en la televisión lo mismo que en la
pantalla del Tablet o Smartphone. Es compatible con dispositivos Android (a partir de la
versión 4.2) y con protocolo DLNA, así como con la tecnología Airplay.
Cuenta con una resolución de 1080p a 50Hz.Es tan simple de usar como de conectar, tan sólo
hay que conectar el adaptador al puerto HDMI, sin cables, ya que funciona mediante
conexión WiFi. Así, podemos disfrutar de contenido multimedia, de navegar por Internet o
jugar en una pantalla grande. Otra ventaja de Miracast 115 es que se puede conectar a un
monitor con HDMI y como es tan pequeño y ligero, permite llevarlo a todas partes sin
esfuerzo. Dispone de un indicador LED de estado y una entrada USB 2.0 para cargarlo
cómodamente.
62
LiFi: Internet a través de la luz
Científicos de diferentes institutos a nivel mundial han logrado transmitir
datos inalámbricamente utilizando campos de luminiscencia en lugar de
ondas de radio (WiFi).
Una posible solución para prevenir en un futuro próximo el colapso del espectro
electromagnético debido a la saturación de datos, ha sido desarrollada por
científicos chinos, quienes crearon una tecnología que utiliza la luz para conectarse
a la red.
La nueva tecnología ha sido bautizada con el nombre de LiFi (Light-Fidelity) y fue
concebida en los laboratorios del Instituto de Física Técnica de Shanghái, en
colaboración con académicos de la Universidad de Fudán, ambos de China.
Se trata de una nueva técnica que utiliza diodos emisores de luz (LEDs) especiales
que hacen de la luminiscencia un transporte inalámbrico para el intercambio de
datos y acceso a Internet.
De acuerdo a los creadores de LiFi, liderados por el científico Chi Nan, el LED es
de solo 1 Watt y con estas características lograron generar un campo de
63
conectividad inalámbrico, haciendo que se conectaran a la red computadoras
convencionales que fueron utilizadas para la fase de experimentación.
La bombilla de LED utiliza también un microchip que se encarga de la administración
del flujo de datos con un rango de hasta 150 Mbps. Los investigadores han
precisado que esta tecnología superará considerablemente al WiFi y reducirá los
precios de suministro de servicios de Internet sin hilos en cuestión de unos años
más.
“Con el auge de los móviles se han establecido por todo el mundo millones de
estaciones para mejorar la señal, pero la mayoría de la energía se consume
rápidamente”, explicó Chi en referencia con los modernos sistemas basados en
WiFi. “Allí donde haya una bombilla habría señal de Internet”, arguyó.
Los científicos que han madurado esta tecnología
utilizaron diodos emisores de luz de diversos colores y
un microchip especial para lograr convertirlo en un
medio inalámbrico para transferencia de datos.
Es importante reconocer que esta tecnología ha sido perseguida no solo por los
investigadores chinos a cargo del Dr. Nan, pues también por otros grupos científicos
64
a nivel internacional que han invertido tiempo y recursos para destapar esta
novedosa propuesta de acceso a Internet a través de la luz, como sucede desde
2011 en territorio británico.
Realizando una búsqueda por los sitios Web de universidades en el mundo,
encontramos que un centro de investigación de la India, llamado RKGITW, publicó
en 2012 un artículo científico sobre una tecnología similar a la creada por los
ingenieros chinos, y bajo el título de “LiFi: La Tecnología del Futuro en
Comunicaciones Inalámbricas”, los especialistas hindúes detallan la manera de
cómo se puede transmitir datos a través de diodos de luz.
Sin lugar a dudas esta tecnología ya no es propiedad de un solo grupo de científicos,
y al menos hay 3 equipos de investigación de tres diferentes regiones del mundo
que han anunciado avances en este campo.
Pero ciertamente al desarrollarse nuevas tecnologías también debe ponerse a
prueba su viabilidad, por ejemplo, si tal tecnología resulta compatible con la actual
infraestructura industrial y sus protocolos que son utilizados en los sistemas. Para
esta tecnología, el grupo chino reconoció que, aunque son muy atractivas las
comunicaciones inalámbricas con LiFi, se debe replantear la necesidad de un
rediseño de muchos de los equipos o dispositivos electrónicos que funcionan como
receptores o emisores de telecomunicaciones, a fin de establecer un nuevo
protocolo de emparejamiento con LiFi.
65
Cómo funciona LiFi
Los créditos legítimos sobre los primeros avances de esta tecnología han sido
asignados a científicos de la Universidad de Edimburgo, Inglaterra, y su propuesta
fue rápidamente adoptada para su maduración por otras instituciones a nivel
mundial.
La forma en cómo funciona es presuntamente muy simple –detalla el documento
hindú-, ya que cuando el diodo emisor se encuentra encendido (on) se puede
transmitir un 1 digital, y cuando está apagado (off) se envía un 0. De esta manera
el LED pueden switchear on/off de manera muy rápida, lo cual se genera una
frecuencia necesaria para la transmisión de datos.
Desarrollan una tecnología que multiplica por diez la
velocidad de la fibra óptica
TEMAS RELACIONADOS
Científicos de Suiza han creado un nuevo modo de organizar los pulsos de luz que
transportan la información
REUTERSUn hombre gestionando cables de conexión a internet
66
Un grupo de investigadores suizo ha desarrollado un método que multiplica por
diez el ancho de banda de la fibra óptica al reducir el espacio entre los pulsos
de luz que transportan la información, lo que permite que circulen más datos y en
menos tiempo.
La principal innovación de esta tecnología es su concepto basado en el
tratamiento de la luz y para aplicarla sólo es necesario cambiar la fuente emisora,
mientras que otras alternativas ya existentes para aumentar la velocidad de la fibra
óptica implican cambiar toda la infraestructura, con el consecuente coste.
La tecnología de la fibra óptica transporta la información a través de impulsos
luminosos que hasta ahora viajaban «en fila india», lo que suponía dejar espacios
sin usar entre unos y otros para evitar interferencias.
Los científicos de la Escuela Politécnica de la Universidad de Lausana(EPFL, en
francés) en Suiza han ideado un método a través del cual es posible superponer
parcialmente estos pulsos de luz como las piezas de un rompecabezas y
aprovechar así los espacios que antes quedaban sin utilizar para transportar más
información, lo que permite explotar la capacidad total de la fibra.
Este método permite producir de forma casi perfecta estos pulsos de luz
llamados Nyquist, lo que soluciona el problema de la aparición de interferencias.
«Estos impulsos unidos en forma de 'puzzle' tienen la capacidad de unirse los
unos con los otros, lo que hace que interfieran entre sí, pero no en el sitio preciso
donde la información va codificada», explicó en un comunicado el miembro del
Grupo para la Fibra Óptica (GFO) de la EPFL, Camille Brès.
Un rompecabezas
La idea de utilizar pulsos de luz en «puzzle» para mejorar la capacidad de la fibra
óptica no es nueva, pero nadie hasta ahora había conseguido llevarla a cabo sin
utilizar sofisticadas infraestructuras.
Los científicos de la EPFL crearon un láser y un modulador con el que consiguieron
unos pulsos de luz perfectos al 99%, un resultado nunca alcanzado mediante otras
tecnologías.
67
«Nuestros resultados son demasiado buenos para ser verdad», señaló el otro
miembro del Grupo para la Fibra Óptica (GFO) de la EPFL, Luc Thévenaz, co-
creador de esta tecnología junto con Brès.
Esta tecnología sólo tiene el inconveniente de que no será posible intensificar aún
más en el futuro el tráfico de información, ya que si los impulsos de luz se emiten
con poca separación entre sí no podrían transmitir la información correctamente.
«Una cierta distancia entre cada uno de los impulsos tiene que serrespetada para
evitar interferencias», explicó Thévenaz.
En los sistemas de comunicación modernos, como el intercambio de información
entre dos teléfonos móviles, los datos se transportan de una antena a otra a
través de fibra óptica mediante pulsos luminosos encendidos que equivalen al
número uno y apagados que corresponden al cero.
De este proceso resulta un código binario compuesto por una lista de unos y ceros
que permite al receptor descifrar el mensaje original.
68
Empresa devela esperanza para ciegos
La firma OrCam Technologies presentó una pequeña pero novedosa cámara
que permite a personas con deficiencia visual o ciegas recuperar
artificialmente sus capacidades de visión. El aparato integra un
microprocesador Freescale i.MX 6, que permite respuestas en tiempo real.
(ElectronicosOnline.com Magazine / Oswaldo Barajas)
Una nueva tecnología compuesta por una pequeña cámara portátil, algoritmia de
computación y un microprocesador, podría resolver las penurias que atraviesan las
personas con déficit visual o un grado considerable de ceguera, pues funciona de
igual manera que la visión humana.
En su sitio de Internet la compañía OrCam, fundada en 2010, detalla el modo
operativo y composición técnica de su videocámara y su unidad central de
procesamiento portátil que la complementa.
“Tenemos el hardware y software para desarrollar dispositivos que ofrezcan el
mismo nivel que la visión humana. Los aparatos pueden reconocer objetos,
escenarios y contextos”, menciona textualmente la empresa.
Con el lanzamiento de su propuesta, la compañía inició una propaganda global
sobre el nivel de innovación de su tecnología, dejando claro que el objetivo de la
misma es ayudar a las personas con algún grado de ceguera a valerse por sí
mismas, cultivando una absoluta independencia y por consiguiente ayudándoles a
reincorporarse a la sociedad.
69
La cámara OrCam trabaja mediante la identificación de contenido, textos, objetos y
escenarios que procesa posteriormente en audio que el usuario escucha como
frases descriptivas en inglés. El portador solo debe apuntar con su dedo en dirección
de las gafas donde está colocada la camarita, lo que desea que el sistema
reconozca, y entonces el módulo le dirá lo que su dedo está apuntando.
El usuario solo señala en la dirección donde desea que la camarita le indique
de qué se trata.
“La OrCam puede leer casi cualquier tipo de texto impreso en inglés, ya sea un libro,
un periódico o señalética de calle, incluso un menú de restaurante”, explicó Erez
Na´aman, vicepresidente de Ingeniería y Desarrollo de Negocios de OrCam
Technologies.
El sistema equipa un microprocesador Freescale i.MX 6Quad, con el que la
videocámara procesa avanzados algoritmos de visión en tiempo real, lo que le
70
confiere las capacidades necesarias a los invidentes para determinar lo que se
encuentra frente a ellos.
La camarita tiene un cable que la conecta con el módulo central y una batería que
la alimenta por unas 4 horas y media, además de un sujetador universal para que
las personas aseguren el dispositivo a sus gafas.
Los invidentes ahora pueden ayudarse para leer texto como periódicos o revistas.
De acuerdo a la compañía, el gran reto de sus ingenieros fue el lograr que los
mismos algoritmos de cómputo realizaran un escenario artificial de identificación de
patrones y características para determinar la descripción, algo que sin duda la
convierte en una innovación altamente valorada para esta función. “Imagina que tu
celular tuviera un solo botón, al presionarlo conoce todo lo que quieres. Este es el
tipo de experiencia que intentamos proporcionar a nuestros usuarios. Tú no tienes
qué decirle que hacer”, mencionar el representante de la empresa.
71
El módulo puede ser utilizado por el usuario para reconocer productos cuando vaya a realizar
sus compras al supermercado
La persona puede utilizar esta camarita por ejemplo cuando asiste al supermercado
para realizar compras y su condición de invidente o problemas de visión no le
permite identificar los productos o pasillos, incluso ver la denominación de los
billetes o tarjetas bancarias con los que intenta pagar. También, cuando va por la
calle, el usuario solamente tiene que utilizar su dedo para apuntar en dirección de
la camarita para que le indique la ruta de autobús que se acerca, la luz en que se
encuentra el semáforo, o bien, leer los nombres de las calles cercanas.
La empresa busca desplegar su tecnología y hallar otras aplicaciones a sus
innovadores algoritmos de cómputo, no descartando que a corto o mediano plazo
se pueda perfeccionar el dispositivo para sea aún más discreto a la vista. Para ver
el video demostrativo puede acceder al sitio de la empresa:http://www.orcam.com/
Transistor, ni cuántico ni eléctrico
Un transistor completamente óptico fue desarrollado por científicos del
Instituto Tecnológico de Massachusetts (MIT) y utiliza luz para trabajar en
lugar de electricidad o giros atómicos como ocurre con la tecnología cuántica.
(ElectronicosOnline.com Magazine / Oswaldo Barajas)
Unidades lógicas que funcionan con luz en lugar de electricidad o giros atómicos
para realizar sus funciones de procesamiento de datos, como ocurre con los
72
transistores convencionales o cuánticos, respectivamente, han sido desarrolladas
por ingenieros del Instituto Tecnológico de Massachusetts (MIT) con el objetivo de
comenzar a diseñar CPUs más potentes que las computadoras tradicionales.
A esta clase de unidades se le conoce como transistores basados en óptica
computacional, sin embargo, requieren partículas de luz (fotones) para modificar su
comportamiento.
Los investigadores del MIT señalaron en su reporte técnico que de manera natural
los transistores ópticos reaccionan adversamente a lo que comúnmente se registra
en los transistores convencionales: dos fotones que colisionan en un espacio al
vacío simplemente pasan uno a través del otro.
En su comunicado, el MIT señala que previamente se realizaron pruebas en esta
misma línea de investigación científica, pero con la colaboración de académicos de
la Universidad de Harvard y la Universidad Tecnológica de Vienna, de tal manera
que lograron documentar los resultados experimentales de las pruebas elaboradas
con un único fotón. El resultado fue que, con esa única partícula de luz se logró
generar un sistema de control óptico interno.
Los especialistas mencionan además que en lo que respecta a la física cuántica,
las unidades lógicas son más fáciles de ver en partículas individuales que en
agrupaciones, de esta manera la capacidad de utilizar un solo fotón para ‘switchear’
podría hacerlo útil para la computación cuántica.
73
Científicos del MIT utilizaron una técnica de partículas de luz para incitar el funcionamiento
de transistores ópticos.
El eje central de los transistores ópticos del MIT es un par de espejos altamente
reflectantes que trabajan como interruptores, y éstos a su vez constituyen lo que es
conocido como un resonador óptico.
“Si tuvieras un solo espejo, toda la luz se regresaría”, explicó Vladan Vuletic,
Profesor Investigador del MIT. “Cuando tienes dos espejos, algo muy extraño
sucede”, sostuvo.
El ingeniero Vladan sugiere que la luz puede ser considerada como partículas o
fotones, pero también como ondas en un campo electromagnético.
74
De esta manera los académicos señalaron que los fotones pueden ser retenidos por
un solo espejo, pero en el caso de la descripción sobre las ondas, el campo
electromagnético se mueve entre el espacio de los espejos. Si la distancia entre los
espejos se calibra con precisión y relativamente a la longitud de onda de la luz,
“básicamente un campo muy grande se forma internamente y anula el regreso de
las partículas, y éstas continúan adelante”, mencionó Vuletic. “En otras palabras,
los espejos se vuelven transparentes a la luz de la longitud de onda correcta”.
Los Transistores poseen micro espejos que funcionan como interruptores y
componen un resonador de control interno.
La cavidad generada entre los espejos es rellanada con gas de átomos de cesio
superenfriados. Esos átomos no interfieren con el paso de la luz entre los espejos,
pero si una sola “puerta de fotones” se dispara en medio de ellos en un ángulo
diferente golpeando un solo electrón de un átomo en un estado de energía más alto,
75
la física de la cavidad cambia lo suficiente como para hacer que la luz pase a través
de él.
“Es exactamente la misma historia, excepto que en lugar de utilizar átomos ultra-
enfriados en la cavidad, usas una cavidad microscópica en un chip y utilizas un
punto cuántico crecido al interior de este semiconductor como un átomo artificial”,
añade el MIT. “Habría pasos adicionales que la gente debería tomar a fin de aplicar
la estructura adecuada para el nivel de energía. Pero en principio, la física podría
ser traducida a una plataforma que se integrara de una manera más sencilla.”
El resultado de este experimento espera abrir los caminos para la fabricación de
chips más potentes y que sean una opción adicional a las líneas de investigación
basadas en física cuántica o microelectrónica.
Trabajo final fisica electronica
Trabajo final fisica electronica
Trabajo final fisica electronica

Más contenido relacionado

La actualidad más candente (17)

Presentacion 007
Presentacion 007Presentacion 007
Presentacion 007
 
Nanotecnología
NanotecnologíaNanotecnología
Nanotecnología
 
Nanotubos
NanotubosNanotubos
Nanotubos
 
Nota de investigación
Nota de investigaciónNota de investigación
Nota de investigación
 
Trabajo final111
Trabajo final111Trabajo final111
Trabajo final111
 
nano
nanonano
nano
 
Nanotecnología
NanotecnologíaNanotecnología
Nanotecnología
 
Nanotecnología
NanotecnologíaNanotecnología
Nanotecnología
 
La nanotecnologia
La nanotecnologia La nanotecnologia
La nanotecnologia
 
Nanotecnología
NanotecnologíaNanotecnología
Nanotecnología
 
Evolución de la nanotecnología
Evolución de la nanotecnologíaEvolución de la nanotecnología
Evolución de la nanotecnología
 
Nanotecnologia
NanotecnologiaNanotecnologia
Nanotecnologia
 
LA NANOTECNOLOGIA
LA NANOTECNOLOGIALA NANOTECNOLOGIA
LA NANOTECNOLOGIA
 
Nanotecnologia
NanotecnologiaNanotecnologia
Nanotecnologia
 
Nanotecnología
NanotecnologíaNanotecnología
Nanotecnología
 
Nanotecnologia
NanotecnologiaNanotecnologia
Nanotecnologia
 
Nanotecnologia
NanotecnologiaNanotecnologia
Nanotecnologia
 

Destacado

Fisica electronica
Fisica electronicaFisica electronica
Fisica electronicaChuy Rojas
 
Transistor. vicent chiner
Transistor. vicent chinerTransistor. vicent chiner
Transistor. vicent chinermaria1madrid
 
Nuevo trabajo de fisica electronica
Nuevo trabajo de fisica electronicaNuevo trabajo de fisica electronica
Nuevo trabajo de fisica electronicamelendez975248561
 
Trabajo Hoces Duraton
Trabajo Hoces Duraton Trabajo Hoces Duraton
Trabajo Hoces Duraton caucaromana
 
Fuentes+de+voltaje
Fuentes+de+voltajeFuentes+de+voltaje
Fuentes+de+voltajeTensor
 
Fuentes de voltaje
Fuentes de voltajeFuentes de voltaje
Fuentes de voltajeTensor
 
Estructura atómica de los materiales
Estructura atómica de los materialesEstructura atómica de los materiales
Estructura atómica de los materialesEduardrum Garcia
 
Fundamentos de electricidad basica
Fundamentos de electricidad basicaFundamentos de electricidad basica
Fundamentos de electricidad basicaEduardo Acosta
 
Estructura atómica de los materiales
Estructura atómica de los materialesEstructura atómica de los materiales
Estructura atómica de los materialesAndres Marquez
 
Estructura atómica de los materiales
Estructura atómica de los materialesEstructura atómica de los materiales
Estructura atómica de los materialesNathaly Ramirez
 
Trabajo final de fisica i
Trabajo final de fisica iTrabajo final de fisica i
Trabajo final de fisica iedwinelkin
 
Objetivos generales educacion fisica
Objetivos generales educacion fisicaObjetivos generales educacion fisica
Objetivos generales educacion fisicaoravla2011
 
Alimentación del motor alternativo
Alimentación del motor alternativoAlimentación del motor alternativo
Alimentación del motor alternativoquimrubau
 
Fundamentos de Electricidad
Fundamentos de ElectricidadFundamentos de Electricidad
Fundamentos de ElectricidadYimmy Bernal
 

Destacado (15)

Fisica electronica
Fisica electronicaFisica electronica
Fisica electronica
 
Trabacol1 27
Trabacol1 27Trabacol1 27
Trabacol1 27
 
Transistor. vicent chiner
Transistor. vicent chinerTransistor. vicent chiner
Transistor. vicent chiner
 
Nuevo trabajo de fisica electronica
Nuevo trabajo de fisica electronicaNuevo trabajo de fisica electronica
Nuevo trabajo de fisica electronica
 
Trabajo Hoces Duraton
Trabajo Hoces Duraton Trabajo Hoces Duraton
Trabajo Hoces Duraton
 
Fuentes+de+voltaje
Fuentes+de+voltajeFuentes+de+voltaje
Fuentes+de+voltaje
 
Fuentes de voltaje
Fuentes de voltajeFuentes de voltaje
Fuentes de voltaje
 
Estructura atómica de los materiales
Estructura atómica de los materialesEstructura atómica de los materiales
Estructura atómica de los materiales
 
Fundamentos de electricidad basica
Fundamentos de electricidad basicaFundamentos de electricidad basica
Fundamentos de electricidad basica
 
Estructura atómica de los materiales
Estructura atómica de los materialesEstructura atómica de los materiales
Estructura atómica de los materiales
 
Estructura atómica de los materiales
Estructura atómica de los materialesEstructura atómica de los materiales
Estructura atómica de los materiales
 
Trabajo final de fisica i
Trabajo final de fisica iTrabajo final de fisica i
Trabajo final de fisica i
 
Objetivos generales educacion fisica
Objetivos generales educacion fisicaObjetivos generales educacion fisica
Objetivos generales educacion fisica
 
Alimentación del motor alternativo
Alimentación del motor alternativoAlimentación del motor alternativo
Alimentación del motor alternativo
 
Fundamentos de Electricidad
Fundamentos de ElectricidadFundamentos de Electricidad
Fundamentos de Electricidad
 

Similar a Trabajo final fisica electronica

Similar a Trabajo final fisica electronica (20)

La nanotecnología
La nanotecnologíaLa nanotecnología
La nanotecnología
 
La nanotecnología
La nanotecnologíaLa nanotecnología
La nanotecnología
 
Nanotecnología
NanotecnologíaNanotecnología
Nanotecnología
 
Nanotecnologia
NanotecnologiaNanotecnologia
Nanotecnologia
 
Informatica Nanotecnología Ambato
Informatica Nanotecnología AmbatoInformatica Nanotecnología Ambato
Informatica Nanotecnología Ambato
 
Nanotecnología Grilli Monte Grande
Nanotecnología Grilli Monte GrandeNanotecnología Grilli Monte Grande
Nanotecnología Grilli Monte Grande
 
Nanotecnologia Ntics
 Nanotecnologia Ntics Nanotecnologia Ntics
Nanotecnologia Ntics
 
La nanotecnología
La nanotecnologíaLa nanotecnología
La nanotecnología
 
Ensayo nanotecnologia
Ensayo nanotecnologiaEnsayo nanotecnologia
Ensayo nanotecnologia
 
Nanotecnologia
NanotecnologiaNanotecnologia
Nanotecnologia
 
Investigacion final
Investigacion finalInvestigacion final
Investigacion final
 
Presentac..
Presentac..Presentac..
Presentac..
 
Nanotecnología.pptx5454
Nanotecnología.pptx5454Nanotecnología.pptx5454
Nanotecnología.pptx5454
 
Nanotecnologia
NanotecnologiaNanotecnologia
Nanotecnologia
 
NANOTECNOLOGIA
NANOTECNOLOGIANANOTECNOLOGIA
NANOTECNOLOGIA
 
La nanotenologia
La nanotenologiaLa nanotenologia
La nanotenologia
 
NANO-TECNOLOGIA
NANO-TECNOLOGIANANO-TECNOLOGIA
NANO-TECNOLOGIA
 
Edixon sanchez y shirley rueda
Edixon sanchez y shirley ruedaEdixon sanchez y shirley rueda
Edixon sanchez y shirley rueda
 
Nanotecnología.pptm
Nanotecnología.pptmNanotecnología.pptm
Nanotecnología.pptm
 
Nanotecnología
NanotecnologíaNanotecnología
Nanotecnología
 

Más de Rodrigo Villanueva (8)

Diferencia tecnologica
Diferencia tecnologicaDiferencia tecnologica
Diferencia tecnologica
 
Cristales líquidos
Cristales líquidosCristales líquidos
Cristales líquidos
 
Los transistores
Los transistoresLos transistores
Los transistores
 
Circuito rectificador
Circuito rectificadorCircuito rectificador
Circuito rectificador
 
Diodos
DiodosDiodos
Diodos
 
Semiconductores
SemiconductoresSemiconductores
Semiconductores
 
Solidos cristalinos
Solidos cristalinosSolidos cristalinos
Solidos cristalinos
 
Solidos cristalinos
Solidos cristalinosSolidos cristalinos
Solidos cristalinos
 

Trabajo final fisica electronica

  • 1. 1 Tema: Investigación de Nanotecnología- Los Superconductores y Computadora Cuántica Carrera : Ingeniería de Sistemas Curso : Física Electronica Ciclo : IV Profesor: Roberto Rodriguez Cahuana Integrante: Rodrigo Villanueva C 2014
  • 2. 2 DEDICATORIA Con todo mi cariño y mi amor para las personas que hicieron todo en la vida para que yo pudiera lograr mis sueños, por motivarme y darme la mano cuando sentía que el camino se terminaba, a ustedes por siempre mi Corazón y mi agradecimiento. A missss QUERIDOS VIEJITOS y mi Novia
  • 3. 3 INDICE Nanotecnología Introducción------------------------------------------------------------ 4 Historia------------------------------------------------------------------- 5 Definición---------------------------------------------------------------- 6 Aplicaciones------------------------------------------------------------ 8 Avances------------------------------------------------------------------ 11 Conclusión---------------------------------------------------------------19 Bibliografía ------------------------------------------------------------ 20 Anexos ------------------------------------------------------------------ 21 INDICE SUPERCONDUCTORES Introducción------------------------------------------------------------ 22 Historia------------------------------------------------------------------- 23 Definición---------------------------------------------------------------- 25 Uso------------------------------------------------------------------------ 27 Materiales --------------------------------------------------------------- 30 Tipos y Diferencia---------------------------------------------------- -31 Aplicaciones -----------------------------------------------------------34 Conclusiones --------------------------------------------------------- 40 Bibliografía-------------------------------------------------------------- 41 Anexo-------------------------------------------------------------------- 42 INDICE COMPUTADORA CUANTICA Introducción------------------------------------------------------------ 43 Historia------------------------------------------------------------------- 44 Definición---------------------------------------------------------------- 46 Funcionamiento-------------------------------------------------------- 50 Aplicaciones------------------------------------------------------------ 53 Conclusión--------------------------------------------------------------- 76 Bibliografía ------------------------------------------------------------ 77 Anexos ------------------------------------------------------------------ 78
  • 4. 4 NANOTECNOLOGIA INTRODUCCION Al borde de la realidad se gesta una revolución tecnológica inmensa, a pesar de lo minúsculas que son sus partes. Es allí donde la materia adquiere fundamento. En este territorio, fuera del alcance de nuestras miradas, habitan los átomos, y la medida oficial es el nanómetro, o lo que es lo mismo, una mil millonésima parte de uno de nuestros metros. Esta historia comenzó en 1959, pero nadie sabe cuándo, ni cómo, ni dónde va a terminar. las visiones de un futuro desencadenado como consecuencia de la manipulación de la materia al nivel de los átomos, incrustada en la promesa de la revolución de la nanotecnología, contrasta con la advertencia de quienes nos recuerdan que los sueños a veces se convierten en pesadillas.
  • 5. 5 Historia de la Nanotecnología Uno de los pioneros en el campo de la Nanotecnología es el Físico estadounidense Richard Feynman, que en el año 1959 en un congreso de la sociedad americana de Física en Calltech, pronunció el discurso “There’s Plenty of Room at the Bottom” (Hay mucho espacio ahí abajo) en el que describe un proceso que permitiría manipular átomos y moléculas en forma individual, a través de instrumentos de gran precisión, de esta forma se podrían diseñar y construir sistemas en la nanoescala átomo por átomo, en este discurso Feynman también advierte que las propiedades de estos sistemas nanométricos, serían distintas a las presentes en la macroescala. En 1981 el Ingeniero estadounidense Eric Drexler, inspirado en el discurso de Feynman, publica en la revista Proceedings of the National Academy of Sciences, el artículo “Molecular engineering: An approach to the development of general capabilities for molecular manipulation” en donde describe más en detalle lo descrito años anteriores por Feynman. El término “Nanotecnología” fue aplicado por primera vez por Drexler en el año 1986, en su libro “Motores de la creación: la próxima era de la Nanotecnología” en la que describe una máquina nanotecnológica con capacidad de autoreplicarse, en este contexto propuso el término de “plaga gris” para referirse a lo que sucedería si un nanobot autoreplicante fuera liberado al ambiente. Además de Drexler, el científico Japonés Norio Taniguchi, utilizó por primera vez el término nano-tecnología en el año 1974, en la que define a la nano-tecnología como el procesamiento, separación y manipulación de materiales átomo por átomo.
  • 6. 6 Que es Nanotecnología? Definición Nanotecnología, es el estudio y desarrollo de sistemas en escala nanométrica, “nano” es un prefijo del Sistema Internacional de Unidades que viene del griego νάνος que significa enano, y corresponde a un factor 10^-9, que aplicado a las unidades de longitud, corresponde a una mil millonésima parte de un metro (10^-9 Metros) es decir 1 Nanómetro, la nanotecnología estudia la materia desde un nivel de resolución nanométrica, entre 1 y 100 Nanómetros aprox. hay que saber que un átomo mide menos de 1 nanómetro pero una molécula puede ser mayor, en esta escala se observan propiedades y fenómenos totalmente nuevos, que se rigen bajo las leyes de la Mecánica Cuántica, estas nuevas propiedades son las que los científicos aprovechan para crear nuevos materiales (Nanomateriales) o dispositivos nanotecnológicos, de esta forma la Nanotecnología promete soluciones a múltiples problemas que enfrenta actualmente la humanidad, como los ambientales, energéticos, de salud (nanomedicina), y muchos otros, sin embargo estas nuevas tecnologías pueden conllevar a riesgos y peligros si son mal utilizadas.
  • 7. 7 La siguiente imagen muestra la unidad de medida de diversos sistemas, y la escala a la que pertenecen (Nano o Micro).
  • 8. 8 Aplicaciones de la Nanotecnología La Nanotecnología al definirse en base a la escala (nanoescala) y no al tipo de sistema en estudio, es de carácter transversal y tiene aplicaciones en todas las actividades del quehacer humano, como medioambiente, sector energético, medicina, electrónica, exploración espacial, construcción, agricultura, cosmética, etc…, es por ello que el impacto de la Nanotecnología en nuestra sociedad es muy grande, y existe consenso de que Nanotecnología dará origen a la revolución industrial del siglo XXI, tal como lo dijo Charles M. Vest’s (ex-Presidente del MIT (Massachusetts Institute of Technology) en un discurso el año 2001. A continuación se describen algunas de las áreas en donde tiene aplicación la Nanotecnología. Medio Ambiente Las aplicaciones de la Nanotecnología en el medio ambiente, involucran el desarrollo de materiales, energías y procesos no contaminantes, tratamiento de aguas residuales, desanilización de agua, descontaminación de suelos, tratamiento de residuos, reciclaje de sustancias, nanosensores para la detección de sustancias químicas dañinas o gases tóxicos. Energía Las aplicaciones de la Nanotecnología en sector energético, tiene relación con la mejora de los sistemas de producción y almacenamiento de energía, en especial aquellas energías limpias y renovables como la energía solar, o basadas en el Hidrógeno, además de tecnologías que ayuden a reducir el consumo energético a través del desarrollo de nuevos aislantes térmicos más eficientes basados en nanomateriales. El aumento de la eficiencia de los paneles solares y placas solares gracias a nanomateriales especializados en la captura y almacenamiento de energía solar
  • 9. 9 Medicina Las aplicaciones de la Nanotecnología en Medicina se denomina Nanomedicina, y dentro de ella tenemos el desarrollo de nanotransportadores de fármacos a lugares específicos del cuerpo, que pueden ser útiles en el tratamiento del Cáncer u otras enfermedades, biosensores moleculares con la capacidad de detectar alguna sustancia de interés como glucosa o algún biomarcador de alguna enfermedad, nanobots programados para reconocer y destruir células tumorales o bien reparar algún tejido como el tejido óseo a raíz de un fractura, nanopartículas con propiedades antisépticas y desinfectantes, etc.. Industria de Alimentos Las aplicaciones de la Nanotecnología en la industria de Alimentos incluye aplicaciones de nanosensores y nanochips útiles en el aseguramiento de la calidad y seguridad del alimento, dispositivos que funcionen como nariz y lengua electrónica, detección de frescura y vida útil de un alimento, detección de microorganismos patógenos, aditivos, fármacos, metales pesados, toxinas y otros contaminantes, desarrollo de Nanoenvases, Nanoalimentos con propiedades funcionales nutritivas y saludables, o con mejores propiedades organolépticas. Textil Desarrollo de tejidos que repelen las manchas y no se ensucian y sean autolimpiables, antiolores, incorporación de nanochips electrónicos que den la posibilidad de cambio de color a las telas, o bien el control de la temperatura, estos últimos están dentro de lo que se llama “tejidos inteligentes”
  • 10. 10 Construcción Desarrollo de Materiales (Nanomateriales) más fuertes y ligeros, con mayor resistencia, vidrios que repelen el polvo, humedad, pinturas con propiedades especiales, materiales autorreparables, etc. Electrónica Las aplicaciones de la Nanotecnología en la electrónica comprenden el desarrollo de componentes electrónicos que permitan aumentar drásticamente la velocidad de procesamiento en las computadoras, creación de semiconductores, nanocables cuánticos, circuitos basados en Grafeno o Nanotubos de Carbono. Tecnologías de la comunicación e informática Las aplicaciones de la Nanotecnología en las tecnologías de la comunicación e informática, comprende el desarrollo de sistemas de almacenamiento de datos de mayor capacidad y menor tamaño, dispositivos de visualización basados en materiales con mayor flexibilidad u otras propiedades como transparencia que permitan crear pantallas flexibles y transparentes, además el desarrollo de la computación cuántica. Agricultura Las aplicaciones de la Nanotecnología en la Agricultura, tienen relación con mejoras en plaguicidas, herbicidas, fertilizantes, mejoramiento de suelos, nanosensores en la detección de niveles de agua, Nitrógeno, agroquímicos, etc... Ganadería Las aplicaciones de la Nanotecnología en la Ganadería dicen relación con el desarrollo de Nanochips para identificación de animales, Nanopartículas para
  • 11. 11 administrar vacunas o fármacos, nanosensores para detectar microorganismos y enfermedades además de sustancias tóxicas. Cosmética Las aplicaciones de la Nanotecnología en la cosmética implican el desarrollo de cremas antiarrugas o cremas solares con nanopartículas. AVANCES EN LA NANOTECNOLOGIA Pronóstico del mercado de la nanotecnología para el 2014 En los próximos años, la nanotecnología está llamada a desempeñar un papel fundamental en diversos segmentos de la industria. La evolución de esta tecnología ha influido ya en un gran número de segmentos industriales y la actividad económica generada a partir de ella ha sido de gran magnitud y amplio alcance. Los productos basados en nanotecnología, que han tenido un enorme impacto en casi todos los sectores industriales, están llegando ahora al mercado de los consumidores con gran fuerza. De acuerdo con las conclusiones del último informe, el aumento de las aplicaciones de la tecnología en sectores como la electrónica, la cosmética y la defensa, impulsaría el crecimiento del mercado mundial de la nanotecnología, que se prevé que crecerá a una tasa compuesta anual de alrededor del 19% durante el período 2011-2014. De acuerdo con el informe "Nanotechnology Market Forecast to 2014", las compañías del campo de la electrónica están buscando nuevas formas de incorporar la nanotecnología en productos de consumo como los equipos de música y los teléfonos móviles, con el fin de mejorar sus capacidades de procesamiento. Del mismo modo, la tecnología podría ayudar a mejorar los cosméticos cambiando sus propiedades físicas. También se observó que el uso de la nanotecnología en tecnologías de defensa proporciona un mejor rendimiento a menor coste. Además, la tecnología en ciernes ha revolucionado el cuidado dental, dado que disminuye el tiempo de cicatrización y mejora la integración ósea en los implantes dentales.
  • 12. 12 El informe analiza en detalle estas áreas de aplicación y las tendencias clave del mercado. A pesar de que los nanomateriales seguirán dominando el mercado de la nanotecnología en los próximos años, se estima que los nanodispositivos, en los que se incluyen las herramientas de nanolitografía para la fabricación de la próxima generación de semiconductores, crecerán a un ritmo mucho más rápido que los nanomateriales en un futuro próximo. El análisis crucial a nivel nacional, incluido en esta exhaustiva investigación, identificó que los EE.UU. es el mercado de nanotecnología más destacado del mundo y seguirá disfrutando de la mayor porción de la industria global. Además de esto, el informe trata la financiación mundial de I + D en nanotecnología, incluyendo la separación de financiación empresarial, pública y de capital riesgo, junto con su pronóstico. También se ha tratado el análisis regional de los diferentes tipos de financiación para el presente y el futuro. El informe abarca incluso un análisis a nivel nacional de la financiación de I + D para proporcionar un conocimiento profundo acerca de las inversiones relacionadas con la nanotecnología. Con el fin de ofrecer una visión equilibrada del mercado mundial de la nanotecnología a los clientes, el informe también incluye los perfiles de los principales participantes del sector, como Altair, Nanophase Tech y Nanosys, entre otros. En general, el objetivo del estudio es ayudar a los clientes a conocer las perspectivas del sector y tomar decisiones de inversión en función de ellas.
  • 13. 13 Unos ingenieros de Stanford perfeccionan los nanotubos de carbono (CNT) para lograr una computación de alta eficiencia energética De acuerdo con estos ingenieros, los circuitos basados en CNT podrían proporcionar una mejora de hasta diez veces en la eficiencia energética con respecto a los de silicio. Cuando se mostraron los primeros transistores de nanotubos rudimentarios en 1998, los investigadores imaginaron una nueva era de dispositivos electrónicos informáticos avanzados y altamente eficientes. Sin embargo, esa promesa todavía no se ha hecho realidad debido a importantes imperfecciones en los materiales, inherentes a los nanotubos, que han llevado a los ingenieros a preguntarse si algún día los nanotubos de carbono resultarían viables. Aunque ha habido logros importantes en los circuitos de CNT con el paso de los años, éstos se han producido sobre todo a nivel de nanotubos individuales. Continúa habiendo al menos dos grandes barreras para que los nanotubos de carbono se puedan aprovechar en tecnologías que tengan un impacto en la práctica:  La alineación “perfecta” de los nanotubos ha resultado prácticamente imposible de lograr, introduciendo vías de conducción perjudiciales y fallos de funcionalidad en los circuitos.  La presencia en los circuitos de CNT metálicos (frente a los deseables CNT semiconductores) conduce a cortocircuitos, fugas de energía excesivas y susceptibilidad al ruido. Hasta el momento, ninguna técnica de síntesis de CNT ha logrado producir exclusivamente nanotubos semiconductores. En los últimos años, un equipo de ingenieros de Stanford asumió el reto. Al darse cuenta de que la mejora de los procesos por sí sola nunca superará estas imperfecciones, los ingenieros lograron eludir las barreras con un paradigma de diseño único inmune a la imperfección para producir las primeras estructuras de lógica digital a escala de oblea completa a las
  • 14. 14 que no le afectan los CNT desalineados y mal posicionados. Además, resolvieron los problemas de los nanotubos de carbono metálicos con la invención de una técnica que elimina estos elementos indeseados de sus circuitos. A continuación, los ingenieros demostraron las posibilidades de sus técnicas creando los componentes esenciales de los sistemas digitales integrados: circuitos aritméticos y almacenamiento secuencial, así como los primeros circuitos integrados monolíticos tridimensionales con niveles extremos de integración. Estos circuitos de nanotubos robustos de alta calidad son inmunes a los defectos de los materiales que han dejado perplejos a los investigadores durante más de una década, un difícil obstáculo que ha impedido una adopción más amplia de los circuitos de nanotubos en el sector. El avance representa un hito importante hacia los sistemas integrados a gran escala (VLSI, por sus siglas en inglés) basados en nanotubos. Además, el enfoque de diseño de Stanford no sacrifica prácticamente nada de la eficiencia energética de los nanotubos de carbono y es compatible con los métodos de fabricación y las infraestructuras existentes, impulsando a la tecnología a dar un paso importante hacia la comercialización, según señalaron los ingenieros. Regulación de la nanotecnología La primera mina de asbesto se abrió en Quebec en 1874. En los años 50, el asbesto (también conocido como amianto) fue ampliamente utilizado como aislante, material ignífugo y nieve artificial. Hoy en día, sabemos que las fibras de asbesto pueden introducirse en los pulmones y causar asbestosis, cáncer de pulmón y mesotelioma. Aunque las preocupaciones sobre la seguridad del asbesto surgieron alrededor de 1900, su uso no fue prohibido por completo hasta 1999. Las tecnologías nuevas y emergentes (como la modificación genética, la biología sintética y la nanotecnología) ofrecen la posibilidad de un futuro más limpio, más sano y mejor. Sin embargo, los riesgos de estas tecnologías no se conocen.
  • 15. 15 Se estima que hay más de 1.000 productos con nanotecnología que ya están en el mercado: desde pelotas de tenis a protectores solares o calcetines sin olores. ¿Mirarán las generaciones futuras hacia atrás a nuestra actual ola de innovación científica del mismo modo en que nosotros vemos la introducción del asbesto en el mercado? A medida que las sustancias químicas se hacen más pequeñas, sus comportamientos y características pueden cambiar, y determinados nanomateriales poseen propiedades que no se encuentran en sus equivalentes a tamaño natural. La forma nanométrica del oro puede ser roja o azul; el platino es inerte a tamaño natural y, en cambio, actúa como catalizador a nanoescala; etc. Estas nuevas propiedades que poseen los nanomateriales pueden dar lugar a nuevas formas de riesgo. Los riesgos potenciales de la nanotecnología son a la vez desconocidos e incognoscibles. Desconocidos porque hasta la fecha apenas se ha llevado a cabo una evaluación de los riesgos (menos del 2% del dinero invertido en la investigación relacionada con la nanotecnología se dedica al análisis de riesgos); e incognoscibles, porque los conocimientos científicos sobre la evaluación de productos químicos no ha seguido el ritmo de los conocimientos científicos en nanotecnología. En pocas palabras, actualmente no somos capaces de evaluar todas las propiedades inherentes de todos los Nanomateriales. Además, las iniciativas de regulación para controlar el uso de la nanotecnología han sido limitadas. Hay lagunas en los actuales marcos regulatorios que hacen que la nanotecnología no esté cubierta en su totalidad. Algunas de estas lagunas existen debido a una noción equivocada de que los nanomateriales son equivalentes a sus iguales a tamaño natural. Otras lagunas se deben a que la legislación se basa en umbrales o concentraciones. Dado que la nanotecnología es la tecnología de lo diminuto, utilizar umbrales de regulación implica que la mayoría de la nanotecnología va a estar por debajo del tonelaje correspondiente o los criterios de concentración y, por lo tanto, evitará la regulación.
  • 16. 16 A partir de 2013, el Reglamento de Cosméticos de la UE exige que cualquier cosmético que contenga Nanomateriales lo indique en la etiqueta. Aunque la obligación es limitada: bastará con poner "(nano)" junto al ingrediente correspondiente en la lista de ingredientes. Sin embargo, el etiquetado de productos nano ha sido rechazado en otras jurisdicciones por su ineficacia. Basta con que nos preguntemos cuándo fue la última vez que examinamos la lista de ingredientes de un producto. La regulación de la nanotecnología es difícil. Es necesario alcanzar un equilibrio entre sus beneficios y sus riesgos potenciales. También es muy importante el modo en que nosotros, como sociedad, hacemos frente a la incertidumbre, respondemos a la innovación científica y enmarcamos el debate sobre el riesgo y la regulación. Como vimos con el asbesto, podría marcar la diferencia entre la vida y la muerte. Capturar patógenos ocultos con nanopartículas Utilizan la nanotecnología para capturar patógenos ocultos Unos investigadores de la Universidad de Florida Central han desarrollado una técnica novedosa que podría proporcionar a los médicos una herramienta más rápida y más sensible para la detección de patógenos asociados con la enfermedad inflamatoria intestinal, incluida la enfermedad de Crohn. La nueva técnica basada en nanopartículas también se puede utilizar para la detección de otros microbios que han desafiado a los científicos durante siglos debido a que se esconden profundamente en el tejido humano y son capaces de reprogramar las células para evadir con éxito al sistema inmunológico. Los microbios reaparecen años más tarde y pueden causar problemas de salud graves, como se ha visto en casos de tuberculosis. Actualmente existen métodos de prueba para encontrar estos microbios ocultos, pero requieren mucho tiempo para completarse y, a menudo, retrasan la administración de un tratamiento eficaz durante semanas o incluso meses. El Profesor Asociado de la UCF J. Manuel Pérez y el profesor Saleh Naser y su equipo de investigación han desarrollado un método que utiliza nanopartículas
  • 17. 17 recubiertas con marcadores de ADN específicos para los patógenos escurridizos. La técnica es eficaz y más precisa que los métodos actuales, al detectar incluso pequeñas cantidades de un patógeno. Más importante aún, tarda horas en lugar de semanas o meses en ofrecer los resultados, pudiendo proporcionar a los médicos una herramienta más rápida para ayudar a los pacientes. El trabajo de investigación del grupo ha sido publicado recientemente en la revista PLoS ONE. Congreso sobre el impacto económico de la nanotecnología Simposio para explorar los impactos económicos de la nanotecnología Expertos de todo el mundo participarán en el Simposio Internacional de Evaluación del impacto económico de la nanotecnología que tendrá lugar el próximo mes. El Simposio está organizado por la American Association for the Advancement of Science (Asociación Americana para el Avance de la Ciencia). El 10 de febrero se abre el registro para el Simposio Internacional de Evaluación del impacto económico de la nanotecnología , un encuentro de alto nivel organizado por la Asociación Americana para el Avance de la Ciencia (AAAS, por sus siglas en inglés) y patrocinado por la Organización para la Cooperación Económica y el Desarrollo en colaboración con la National Nanotechnology Initiative (Iniciativa Nacional de Nanotecnología) de los EE.UU. Oradores de todo el mundo participarán en el acto que se celebrará los días 27 y 28 marzo en las instalaciones de la AAAS en Washington, Distrito de Columbia. El encuentro tiene el objetivo de evaluar las metodologías empleadas para la evaluar el impacto de la nanotecnología en economías completas, teniendo en cuenta la influencia de productos y materiales nuevos y de reemplazo, de los nuevos mercados, los productos intermedios y finales y el empleo. La lista de oradores confirmados incluye a Gregory Tassey, del Instituto Nacional de Estándares y Tecnología (National Institute of Standards and Technology); Mark Morrison, del Instituto británico de Nanotecnología (Britain's Institute for Nanotechnology); Kazunobu Tanaka, de la Agencia de Ciencia y Tecnología de Japón (Japan Science and Technology Agency); José Molapisi, del Departamento
  • 18. 18 de Ciencia y Tecnología de Sudáfrica (South Africa's Department of Science and Technology); Julia Lane, de la Fundación Nacional para la Ciencia (National Science Foundation); Travis Earles, gerente de Iniciativas de Materiales Avanzados y Nanotecnología (Advanced Materials & Nanotechnology Initiatives) en Lockheed Martin; y Kristen Loughery, de la EPA, entre otros.
  • 19. 19 Conclusión Después de haber investigado y analizado el tema en profundidad, llegamos a la conclusión de que la nanotecnología ha sido utilizada en los últimos tiempos como una funciona primordial de los productos tecnológicos modernos. Hemos aprendido y aprovechando de ella, recordando que muchos de los avances que hoy tenemos como sociedad son gracias a la recién tratada. Con el tiempo la tecnología fue increpando e implementando en nuevos avances, los cuales nos han dado nuevos aportes médicos, sociales, económicos o simplemente del lujos que quizás hoy o más adelante sean imprescindibles para el hombre
  • 22. 22 SUPERCONDUCTORES. INTRODUCCION La superconductividad es un fenómeno que denota el estado en el cual la resistencia eléctrica de ciertos materiales de forma repentina hasta llegar a cero. La temperatura por debajo de la cual la resistencia eléctrica de un material se aproxima a cero absolutos se denomina temperatura crítica (Tc). Por encima de esta temperatura, al material se le conoce como normal, y por debajo de Tc, se dice que es superconductor. Además de la temperatura el estado superconductor También depende de otras variables, como son el campo magnético (B) y la densidad de corriente (J). De este modo, para que en material sea superconductor, la temperatura critica del material, su campo magnético y su densidad de corriente no deben ser superadas de unos valores específicos para cada caso, ya que para cada material, superconductor existe una superficie crítica en el espacio de T.B. y J. Para ilustrar lo dicho anteriormente presentamos la siguiente gráfica, donde se representa la resistividad de un material normal respecto a la temperatura, el cobre, frente a un material superconductor, como el mercurio. Podemos observar como la resistividad del material superconductor cae bruscamente hasta un valor casi inapreciable, mientras que la resistividad eléctrica del cobre decrece uniformemente mientras disminuye la temperatura, y alcanza un valor mínimo a 0ºK. Como anunciamos anteriormente la superconductividad depende del campo magnético puesto que si un campo magnético suficientemente fuerte se aplica a un superconductor a cualquier temperatura que este por debajo de su temperatura crítica (Tc), el superconductor retorna a su estado normal. El campo magnético aplicado necesario para restablecer la conductividad eléctrica normal en el superconductor se denomina campo crítico (Hc)
  • 23. 23 Historia de la superconductividad El descubrimiento Ya en el siglo XIX se llevaron a cabo diversos experimentos para medir la resistencia eléctrica a bajas temperaturas, siendo James Dewar el primer pionero en este campo. Sin embargo, la superconductividad como tal no se descubriría hasta 1911, año en que el físico holandés Heike Kamerlingh Onnes observó que la resistencia eléctrica del mercurio desaparecía bruscamente al enfriarse a 4 K (-269 °C), cuando lo que se esperaba era que disminuyera gradualmente hasta el cero absoluto. Gracias a sus descubrimientos, principalmente por su método para lograr la producción de helio líquido, recibiría dos años más tarde el premio Nobel de física. Durante los primeros años el fenómeno fue conocido como supraconductividad. En 1913 se descubre que un campo magnético suficientemente grande también destruye el estado superconductor, descubriéndose tres años después la existencia de una corriente eléctrica crítica. Puesto que se trata de un fenómeno esencialmente cuántico, no se hicieron grandes avances en la comprensión de la superconductividad, puesto que la comprensión y las herramientas matemáticas de que disponían los físicos de la época no fueron suficientes para afrontar el problema hasta los años cincuenta. Por ello, la investigación fue hasta entonces meramente fenomenológica, como por ejemplo el descubrimiento del efecto Meissner en 1933 y su primera explicación mediante el desarrollo de la ecuación de London dos años más tarde por parte de los hermanos Fritz y Heinz London.
  • 24. 24 Premios Nobel de Física relacionados con la superconductividad 1972--John Bardeen (EEUU), Leon Neil Cooper (EEUU), John Robert Schrieffer (EEUU) (Link a nobelprize.org): Por su contribución al desarrollo de la teoría de los fenómenos en superconductores, conocida como Teoría BCS (Teoría Bardeen-Cooper- Schrieffer). 1973--Leo Esaki (Japon), Ivar Giaever (Noruega), Brian David Josephson (Reino Unido) Por sus descubrimientos experimentales en relación con el efecto túnel en semiconductores y superconductores. Por el descubrimiento del llamado efecto Josephson. 1987--Johannes Georg Bednorz (Alemania), Karl Alexander Müller (Suiza)[5](Link a nobelprize.org)[6] Por sus descubrimientos revolucionarios de superconductores en materiales cerámicos. 2003--Aleksey Alekséyevich Abrikósov (Rusia), Vitaly L. Ginzburg (Rusia), Anthony J. Leggett (Reino Unido) Por sus contribuciones pioneras a la teoría de los superconductores y superfluitos.
  • 25. 25 Fenomenología de los superconductores Los conductores normales presentan pérdidas cuando circulan corrientes en su interior. Esto se debe a que la resistencia que poseen al paso de una corriente eléctrica, transforma parte de la energía eléctrica en energía térmica. Sin embargo, algunos materiales se comportan de forma extraña a muy bajas temperaturas. Estos materiales, denominados "superconductores", cuando son sometidos a una temperatura mayor que una cierta temperatura crítica (diferente para cada material) presentan alta resistencia, por lo general mucho mayor que un conductor normal y de esta manera decimos que el material se encuentra en su "estado normal". Por el contrario, por debajo de la temperatura crítica presentan un fenómeno en el cual la resistencia eléctrica disminuye rápidamente hasta llegar a cero, decimos entonces que el material se encuentra en su "estado superconductor". Otra de las propiedades que caracteriza a estos materiales es la expulsión de campo magnético en el estado de superconducción conocida más comúnmente como el Efecto Meissner. Esta última es la propiedad esencial del estado superconductor. Cuando el material pasa del estado normal al estado superconductor, el cambio en la resistividad puede ser muy abrupto y se produce lo que en física se denomina "cambio de fase". Si miramos el material a una temperatura mayor que la crítica, encontraremos propiedades marcadamente distintas a las que veremos a temperaturas menores que la crítica. Existen varios tipos de cambios de fase como por ejemplo el cambio de fase que se produce cuando enfriamos un recipiente con agua: si llegamos a enfriarlo lo suficiente (por debajo de 0ºC), veremos que el agua simplemente se congela.
  • 26. 26 Las propiedades del agua a 25ºC y a -10ºC son claramente diferentes. Algo parecido ocurre en el cambio de fase superconductor, solo que las propiedades que cambian en la transición son propiedades eléctricas y magnéticas, y no propiedades estructurales como en el ejemplo del agua. Es más, para el caso de los metales que al enfriarlos se vuelven superconductores, se sabe que en la transición no hay cambio en la estructura cristalina ni en las propiedades elásticas del material. Las propiedades que cambian en la transición del estado normal al estado superconductor son principalmente las propiedades magnéticas. En el estado superconductor puro prácticamente no hay penetración de flujo magnético en el material y los efectos termoeléctricos desaparecen. Se han encontrado diferentes materiales que se vuelven superconductores por enfriamiento, cada uno a su temperatura crítica propia. Algunas temperaturas críticas son de apenas unos pocos grados Kelvin (recordar que 0ºK corresponde a -273ºC), implicando un esfuerzo tecnológico importante el acceder a tan bajas temperaturas; en los últimos años ha sido posible diseñar materiales cuyas temperaturas críticas rondan las decenas de grados Kelvin, lo que en cierta medida facilita su estudio y utilización. Hay fundamentalmente dos razones por las que estos materiales despiertan tanto interés. La primera es de índole económica. Para hacer uso de las propiedades superconductoras de un material hay que enfriarlo por debajo de una temperatura crítica. Cuanto más baja sea la temperatura a la que se deba trabajar, mayores serán los costos de refrigeración. Si para alcanzar el estado de superconductividad debe operarse a temperaturas inferiores a los 20 K, es necesario emplear helio líquido. A temperaturas más altas se puede trabajar con hidrógeno, pero por encima de 80 K se puede usar aire líquido, uno de los materiales refrigerantes más baratos que existen. Cuando se superen ciertos inconvenientes de carácter técnico, los nuevos superconductores se podrán emplear a escala industrial sin mayores costos de refrigeración.
  • 27. 27 Pero hay una segunda razón por la que los físicos están interesados en estos materiales. Hoy, después de algo más de un año de trabajo, hay una generalizada convicción de que se está frente a un nuevo fenómeno físico. La teoría que consiguió explicar el comportamiento de lo que podemos llamar "superconductividad convencional", no puede hacerlo propio con la superconductividad a temperaturas tan altas. Los mecanismos que dan origen a la superconductividad en estos nuevos materiales son probablemente distintos a los conocidos. Si esto es así, los físicos se encuentran frente a un gran desafío: comprender y explicar a qué se debe la superconductividad de alta temperatura crítica. ¿Para qué se usa un Superconductor? Posibles aplicaciones de los superconductores. Antes de realizar una descripción de los usos actuales y futuros de los superconductores les recomiendo que vean el siguiente video donde se realiza una interesante demostración del uso de los mismos en trenes magnéticos. Súper Tren Magnético!!! Hasta ahora, la principal utilidad de un superconductor es la producción de campos magnéticos muy intensos (del orden de miles de veces del campo magnético del imán de la heladera). Estos campos tienen importantes aplicaciones en medicina (RMN), frenos magnéticos, aceleradores, etc. Por otro lado, los campos magnéticos intensos son necesarios para controlar los reactores de fusión nuclear, aún experimentales, que serían una forma alternativa de producción de energía no contaminante. Además, la posibilidad de tener materiales con resistencia nula permitiría almacenar eficientemente energía eléctrica.
  • 28. 28 La aplicación más importante por el momento es la producción de campos magnéticos, que se emplean, principalmente, en los laboratorios de física con fines de investigación. Dentro de la investigación en el campo de la física, también se utilizan electroimanes superconductores para generar campos magnéticos altamente estables, útiles en los estudios de la resonancia magnética nuclear y la microscopía electrónica de alta resolución. Son también utilizados en las cámaras de burbujas que sirven para la detección de partículas y que requieren campos magnéticos muy intensos. Desde el punto de vista comercial, se cree que los motores y generadores superconductores tendrán enormes consecuencias en lo social y económico. También se desea utilizar electroimanes superconductores para la levitación de trenes de transporte de pasajeros o de carga y a menos que investigaciones futuras indiquen lo opuesto, parece que no existen problemas técnicos fundamentales con este sistema. Sin embargo, se requieren algunas innovaciones técnicas antes de poder completar un diseño comercial. El descubrimiento de materiales superconductores cerámicos con una elevada temperatura crítica hace aún más atractiva la idea de la utilización de materiales superconductores para la transportación masiva (ver figura). Cuando menos ya no se requerirá enfriar a temperatura de helio líquido, bastará con la refrigeración que proporciona el nitrógeno líquido. Claro que aún sigue la búsqueda de materiales cerámicos superconductores de temperatura crítica superior a la temperatura ambiente y, si se logra hallarlos, ya no será necesaria la refrigeración del sistema, reduciéndose así los costos de construcción y operación. Por otro lado, desde el descubrimiento del llamado efecto Josephson y el desarrollo alcanzado en el campo de los circuitos integrados trajeron como consecuencia una perspectiva espléndida de aplicaciones de la superconductividad en la electrónica. El efecto Josephson consiste en el paso de corrientes superconductoras a través de una unión que, normalmente y desde un punto de vista clásico, no debería dejar pasar ningún electrón. Es un fenómeno típicamente cuántico, explicable por la mecánica cuántica.
  • 29. 29 La corriente Josephson está presente aun en ausencia de un voltaje aplicado a la unión (que recibe el nombre de unión túnel). Esta corriente de voltaje cero depende fuertemente de un campo magnético aplicado. Estas características permiten disponer de un interesante interruptor para circuitos lógicos. Este efecto también se observa, desde luego, en los nuevos materiales superconductores cerámicos. Para las computadoras, el uso de dispositivos de efecto Josephson lleva a tiempos de transferencia de corriente extremadamente breves. Los tiempos de respuesta de un interruptor de efecto Josephson son de 5 a 10 picosegundos (un picosegundo es igual a 0.000000000001 segundos). La dificultad de la aplicación del efecto Josephson radica en la elaboración de la unión en donde se da este efecto. Dicha unión ha de construirse con capas de óxido de unos 30 angstroms y, además, las características han de ser estables ante ciclajes térmicos y almacenamiento. Sin embargo, su utilización parece muy ventajosa y polifacética. El SQUID (dispositivo superconductor de interferencia cuántica, por sus siglas en inglés) es uno de los dispositivos superconductores más utilizados. Existen dos tipos de este dispositivo: el SQUID de corriente directa (cd) y el SQUID de radio frecuencia (rf). Son los instrumentos más sensibles que existen para medir una gran variedad de cantidades físicas: campos magnéticos, cambios espaciales de campos magnéticos, susceptibilidades magnéticas, voltajes muy pequeños y desplazamientos microscópicos. Aunque, por ahora, es demasiado pronto para que estos dispositivos tengan una gran repercusión en aplicaciones prácticas, dentro de la próxima década se espera un gran auge, tanto en la variedad de estos dispositivos superconductores como en la variedad de sus aplicaciones. Una de la más novedosa es en biomagnetismo, donde se utilizan para detectar especialmente las fuentes de los pequeñísimos campos magnéticos generados por el cerebro.
  • 30. 30 Materiales Superconductores Existen muchos materiales que se vuelven superconductores al bajar la temperatura. Algunos tienen una composición muy sencilla, son elementos químicos como el plomo o el aluminio; otros involucran varios elementos y hay que prepararlos en el laboratorio. Si nos fijamos en la respuesta de un superconductor a un campo magnético podemos clasificar los materiales en superconductores de tipo-I y superconductores de tipo-II Debido a la repulsión de Coulomb los electrones generalmente se repelen. Para que se formen los pares de Cooper es necesario que, de forma efectiva, los electrones se atraigan. Aunque en todos los superconductores se forman pares de Cooper la razón por la que se forman estos pares no parece ser la misma en todos ellos. Una clasificación diferente de los superconductores se fija en el origen de la superconductividad y clasifica a los superconductores en superconductores convencionales y superconductores no-convencionales. Según la teoría BCS de 1957 la interacción de los electrones con las vibraciones de la red de iones resulta de forma efectiva en una interacción atractiva entre los electrones gracias a la cual se forman los pares de Cooper y la superconductividad. En algunos materiales como el plomo o el aluminio esta teoría explica bien los resultados experimentales. Sin embargo, existen materiales, entre los que se incluyen los superconductores de alta temperatura, en los que las interacciones de red, al menos por sí solas, no parecen ser las responsables de la superconductividad en estos sistemas. Hablamos de superconductores convencionales si la formación de los pares de Cooper está mediada por las vibraciones de la red de átomos (fonones) y de superconductores no-convencionales cuando el origen es otro. Aunque la superconductividad se descubrió hace más de un siglo, actualmente se siguen descubriendo nuevos superconductores. Cuando se descubre un nuevo superconductor hay un gran interés en saber si es convencional o no-convencional.
  • 31. 31 TIPOS Y DIFERENCIAS DE LOS SUPERCONDUCTORES Existen diferencias importantes entre los superconductores que permiten clasificarlos en dos grandes grupos. Ciertos metales; en particular los que tienen bajas temperaturas de fusión y son mecánicamente suaves y de fácil obtención en un alto grado de pureza y libres de esfuerzos mecánicos internos, exhiben semejanzas en su comportamiento en el estado superconductor. Estos materiales superconductores reciben el nombre de superconductores ideales, superconductores Tipo I, o suaves. Por otro lado, el comportamiento de muchas aleaciones y de algunos de los metales superconductores más refractarios es complejo e individual, particularmente con respecto a la forma cómo resultan afectados en el estado superconductor en presencia de un campo magnético. A estos superconductores se les ha dado el nombre de superconductores Tipo II, o si la superconductividad se conserva aun bajo la influencia de campos magnéticos intensos, se les conoce con el nombre de duros o de campo intenso. Para entender mejor estas diferencias, veamos cómo un campo magnético aplicado afecta a cada uno de los tipos de superconductores que hemos mencionado. Para ello describiremos brevemente lo que es el efecto Meissner-Oschenfeld. En 1933, W. Meissner y R. Oschenfeld encontraron experimentalmente que un superconductor se comporta de manera tal que nunca permite que exista un campo de inducción magnética en su interior. En otras palabras, no permite que un campo magnético penetre en su interior. El campo magnético en el interior de un superconductor no sólo está congelado, sino que vale siempre cero. Una consecuencia inmediata de lo anterior es que el estado de magnetización del material que pasa por la transición superconductora no depende de los pasos que se hayan seguido al establecer el campo magnético. Esta consecuencia marca
  • 32. 32 también la diferencia fundamental entre lo que es un conductor perfecto y lo que es un superconductor. Por conductor perfecto entendemos un material cuya resistencia eléctrica es igual a cero. En tanto que un superconductor, además de presentar resistencia cero, presenta también el efecto Meissner-Oschenfeld. Se puede demostrar fácilmente que, en un conductor perfecto, el campo magnético tiene un valor constante, esto es, está congelado en su interior, pero no necesariamente vale cero, y esto trae como consecuencia que su estado de magnetización dependa necesariamente de los pasos, que se hayan seguido para magnetizarlo. Para entender más claramente la diferencia entre un conductor perfecto y un superconductor; veamos qué ocurre cuando tratamos de magnetizar un conductor perfecto y cuando tratamos de magnetizar un superconductor. Consideremos primero al conductor perfecto, esto es, pensemos que la transición nos lleva únicamente a un estado de resistencia cero sin el efecto Meissner- Oschenfeld.
  • 33. 33 Penetración del campo magnético B, en el interior de un material considerado solamente como conductor perfecto (es decir que sólo presenta resistencia eléctrica igual a cero, pero no el efecto Meissner), al pasar por la temperatura de transición. Ahora consideremos que la transición, además de llevar la muestra a un estado de resistencia eléctrica cero, nos indica la existencia del efecto Meissner-Oschenfeld. Penetración del campo magnético, B, en el interior de un material que es un superconductor (es decir, que presenta resistencia eléctrica igual a cero y además el efecto Meissner), al pasar la temperatura de transición. Es necesario señalar que, si bien existe una clara diferencia entre lo que es un superconductor y un conductor perfecto, los únicos conductores perfectos que se han encontrado hasta ahora en la naturaleza son, precisamente, los superconductores. Aún no se descubren conductores perfectos materiales con resistencia cero y sin que presenten el efecto Meissner-Oschenfeld.
  • 34. 34 Aplicaciones Los superconductores tienen numerosas aplicaciones. Actualmente, los imanes más potentes se fabrican con bobinas de cables superconductores (electroimanes superconductores). Este es el caso de los imanes que se utilizan en grandes instalaciones científicas, como los aceleradores de partículas, y en medicina, como los aparatos de resonancia magnética nuclear. Los imanes potentes son también un componente importante de los generadores que transforman energía mecánica en electricidad (como es el caso de los generadores eólicos e hidráulicos). El uso de imanes producidos por bobinas superconductoras disminuyen las pérdidas mecánicas en la producción de energías alternativas. De esta forma disminuye de forma muy importante el peso y las dimensiones de los motores. Además el uso de generadores superconductores disminuye la dependencia en las escasas tierras raras que componen los imanes convencionales. Con superconductores se pueden también fabricar detectores ultrasensibles de campos magnéticos utilizando el efecto Josephson. Otras aplicaciones que están en mayor o menor medida en desarrollo son relevantes para la eficiencia energética (por ej. cables que conducen la electricidad sin pérdidas de energía) y transportes (trenes que levitan). Tren superconductor Para poder desarrollar todo el potencial de los superconductores necesitamos aún superar ciertos retos relacionados con los parámetros críticos de los superconductores y con la propia producción de los materiales.
  • 35. 35 ALGUNAS APLICACIONES DE LA SUPERCONDUCTIVIDAD Puede decirse que existen tres tipos de aplicaciones de la superconductividad: 1) La producción de grandes campos magnéticos. Al decir grandes nos referimos tanto a una gran intensidad del campo magnético como al espacio en el cual se crea el campo. 2) La fabricación de cables de transmisión de energía. Aunque éstos ya se manufacturan a partir de los superconductores convencionales (no de los nuevos superconductores cerámicos), actualmente no son competitivos comercialmente con respecto a los cables aéreos normales, a menos de que cubran una gran distancia (de cientos de kilómetros). En los casos en que las líneas de transmisión deben ser subterráneas, habría cierta ventaja económica con la utilización de los cables superconductores. 3) La fabricación de componentes circuitos electrónicos. Estos dispositivos electrónicos fueron ideados originalmente con la intención de utilizar la transición de estado normal a estado superconductor como un interruptor, más resultaron decepcionantes con respecto a los logros alcanzados por los transistores de películas delgadas y se ha abandonado su uso en este aspecto. Este panorama puede cambiar con el descubrimiento de los nuevos materiales superconductores cerámicos. Cabe mencionar que son de gran interés los dispositivos basados en la utilización del llamado efecto Josephson (que es el efecto de "tunelamiento" conocido por la mecánica cuántica, pero de corriente de superconductividad aun en ausencia de un voltaje aplicado). Resultan superiores a otras tecnologías y tienen un gran campo de aplicación que va desde la detección de señales del infrarrojo lejano que provienen del espacio exterior, hasta pequeñísimos campos magnéticos que se producen en el cerebro humano. También la corriente Josephson a voltaje cero depende fuertemente de un campo magnético aplicado, lo que lleva a la
  • 36. 36 posibilidad de tener un interesante interruptor para circuitos lógicos en las computadoras. La aplicación más importante, en cuanto a la cantidad de material empleado, es y será por mucho tiempo la producción de campos magnéticos, que se emplean, principalmente, en los laboratorios de física con fines de investigación, y es común ver pequeños electroimanes superconductores que sirven para producir campos magnéticos con intensidades del orden de 103 Oersted. Dentro de la investigación en el campo de la física, también se utilizan electroimanes superconductores para generar campos magnéticos altamente estables, útiles en los estudios de la resonancia magnética nuclear y la microscopía electrónica de alta resolución. Son muy utilizados en las cámaras de burbujas que sirven para la detección de partículas y que requieren campos magnéticos muy intensos. ALGUNAS APLICACIONES DE LOS ELECTROIMANES SUPERCONDUCTORES Se han propuesto muchas aplicaciones industriales a gran escala de los imanes superconductores. En la actualidad existen algunos métodos alternativos que emplean campos magnéticos pero, si se aplica la superconductividad en estas áreas, se espera obtener un ahorro considerable en costos de operación. En algunas otras áreas el uso de electroimanes superconductores ha hecho la idea técnica y económicamente posible. Algunas de las aplicaciones más importantes de los electroimanes superconductores, sin que la lista pretenda ser exhaustiva, es la siguiente: 1) Aplicaciones biológicas. Se sabe desde hace mucho tiempo que los campos magnéticos intensos afectan el crecimiento de plantas y animales. Así, se han utilizado electroimanes superconductores para generar campos
  • 37. 37 magnéticos intensos y estudiar sus efectos en el crecimiento de plantas y animales y, además, analizar su efecto en el comportamiento de estos últimos. 2) Aplicaciones químicas. Es un hecho conocido que los campos magnéticos pueden cambiar las reacciones químicas y ser utilizados en la catálisis. 3) Aplicaciones médicas. Se han aplicado campos magnéticos para arreglar arterias, sacar tumores y para sanar aneurismas sin cirugía. También se estudia la influencia de los campos magnéticos en las funciones vitales del cuerpo humano. 4) Levitación. Una aplicación muy importante es en el transporte masivo, rápido y económico. La idea de usar una fuerza magnética para hacer "flotar" vehículos de transporte ha estado en la mente de los científicos por casi un siglo y la posible aplicación de la superconductividad a este problema lo ha renovado y actualizado. Hay, esencialmente, dos métodos posibles para conseguir la levitación. Uno corresponde a la utilización de un sistema atractivo y el otro a un sistema repulsivo. Describiremos muy brevemente los principios de funcionamiento de cada uno. Dibujo que muestra un tren levitado por campos magnéticos producidos por corrientes superconductoras.
  • 38. 38 El sistema atractivo ha sido investigado, principalmente, en Alemania y Estados Unidos. Como es sabido, la fuerza magnética entre un material ferromagnético colocado en el seno de un campo magnético y la fuente que genera al campo magnético es siempre atractiva. El peso del vehículo es sostenido por esta fuerza atractiva. ALGUNAS APLICACIONES EN LA ELECTRÓNICA La primera sugerencia para utilizar la transición del estado normal al estado superconductor en la electrónica fue hecha en 1956. El dispositivo que se propuso recibió el nombre de criotrón. A continuación haremos una pequeña descripción de este dispositivo. Consiste en un par de alambres superconductores, uno enrollado alrededor de otro. Usualmente un alambre de niobio se coloca alrededor de un alambre de tantalio, aislados eléctricamente entre sí. El campo magnético crítico del niobio es bastante mayor que el del tantalio. Ambos alambres se encuentran inicialmente en un estado superconductor. Supongamos ahora que una corriente, I, pasa por el alambre de tantalio que, al ser superconductor, no ofrece resistencia al paso de la corriente. Si hacemos pasar una corriente IC, a través del alambre Nb, se genera un campo magnético dentro del cual el alambre de tantalio (Ta) queda inmerso. Si la corriente es suficientemente intensa se puede generar un campo magnético que lleve al tantalio a su estado normal. Si esto ocurre, aparece una resistencia eléctrica en el tantalio al paso de la corriente, reduciéndose así el valor de esa corriente. Sin embargo, el alambre de Nb puede permanecer en el estado superconductor ya que el campo magnético crítico del Nb es mayor que el del Ta para la misma temperatura. Por tanto, el valor de la corriente en el alambre del tantalio puede controlarse con una corriente menor.
  • 39. 39 El alambre de tantalio recibe el nombre de alambre de paso o paso. El alambre de niobio recibe el nombre de alambre de control, o control. Por lo general el calibre del alambre de paso se toma lo más grande posible para así tener en él la mayor cantidad de corriente. Al principio se utilizaron criotrones como interruptores rápidos para su posible uso en computadoras. Incluso, existen criotrones de películas delgadas. En general, hubo bastante esfuerzo dedicado al desarrollo de circuitos superconductores de criotrones. Sin embargo, a mediados de los años sesenta, estos dispositivos habían perdido ya terreno respecto a los dispositivos de transistores que funcionan a la temperatura ambiente. La razón más importante, quizá, es que el criotrón no fue tan eficiente comparado con las versiones mejoradas del transistor. Sin embargo, con los nuevos materiales superconductores cerámicos los criotrones podrían ser de nuevo competitivos, ya que en ellos las temperaturas de refrigeración son mucho más grandes. Por otro lado, el criotrón se ha utilizado y se utiliza para controlar corrientes en circuitos de imanes superconductores. Esquema que muestra al criotrón o relevador superconductor.
  • 40. 40 CONCLUSION En el presente trabajo se ha logrado desarrollar los resultados matemáticos históricos de la superconductividad convencional, a través de una nueva forma de concebir la interacción electrón-fonón, con un manejo distinto de la teoría de sistemas de muchas partículas, que está en el significado real de establecer operadores de Bose como combinación lineal de operadores de Fermi, lo cual arroja resultados correctos. Asimismo, se obtiene a partir de un proceso nuevo de canonización del Hamiltoniano BCS fundamentado en la Teoría de Campo Auto consistente la ley de dispersión y la ecuación de Eliashberg McMillan obtenida, a través de la Teoría de los Problemas de Muchos Cuerpos sustentada en la Grinística y la Técnica de Diagramas de Feynman. Lo anterior da lugar a tener caminos alternativos para elaborar una nueva teoría futura para tratar los problemas de cálculo de sistemas ligados formados por bosones y fermiones interactuantes. En el marco de esa tarea, se ha conseguido explicar una alternativa diferente a planteamientos originales como el hamiltoniano BCS y la aplicación de la teoría de bandas electrónicas, para determinar la ecuación de Eliashberg y McMillan. Sin embargo, la aplicación de nuestros resultados al superconductor MgB2 no garantiza un aparato teórico para enfrentar a la superconductividad de alta temperatura crítica. Los intentos para explicar la superconductividad de alta Tc se pueden dividir en dos tipos. Los que retoman la teoría BCS de interacción electrón-fonón y los que proponen mecanismos diferentes. La falta de un consenso obedece a la complejidad 118 de las estructuras cristalinas involucradas. Otra característica que se presenta son los llamados escenarios, que significa que hay partes de la muestra que se comportan de manera diferente en la transición al estado superconductor.
  • 43. 43 COMPUTADORA CUANTICA INTRODUCCION Mucha gente usa el término Computación Cuántica para describir una potencia de computación mucho mayor que la que existe hoy en día. Pero, ¿qué es? La creación de encriptaciones prácticamente invulnerables o la búsqueda dentro de bases de datos inmensas son aplicaciones que requieren un alto coste de cómputo con los ordenadores actuales, pero que podrían realizarse, teóricamente, en tan sólo unos segundos usando un ordenador cuántico, un dispositivo que basado en la mecánica cuántica, dedicada a estudiar la energía y la materia a nivel atómico. A lo largo de la historia el ser humano ha intentado construir máquinas que lo sustituyan a la hora de realizar complejos cálculos matemáticos, de una forma automática y mucho más rápida. Este avance ha sido más o menos constante según pasaba el tiempo pero, ¿podrá continuar infinitamente? La respuesta a la pregunta anterior es negativa, al menos si se sigue en la línea actual, es decir, basándose en los mismos principios físicos a la hora de crear componentes. Existe un claro límite, llamado efecto túnel, por el cual un componente electrónico deja de funcionar correctamente, al traspasar los electrones las "paredes" que delimitan los canales por los que deben circular, si son excesivamente finas. Esto ocurre por la sucesiva miniaturización de los elementos que componen un computador, pues para ganar en velocidad de cómputo es necesaria, al menos en el punto actual de la computación clásica, una reducción que acerque los puntos de origen y destino de la información, así como otros aspectos físicos, que proporcionan un mejor rendimiento. Por tanto, es necesario un cambio, o el progreso quedará paralizado. Aquí es donde nace la computación cuántica.
  • 44. 44 HISTORIA Cuando teóricos tales como Richard Feynmann, del California Institute of Technology, de Pasadena (California); Paul Benioff, de Argonne National Laboratory, en Illinois; David Deutsch, de la Universidad de Oxford, en Inglaterra, y Charles Bennett, del T.J. Watson Research Center de IBM en Yorktown Heights (Nueva York), propusieron por primera vez el concepto de las computadoras cuánticas en las décadas de 1970 y 1980, muchos científicos dudaron que alguna vez ese tipo de computadora pudiera resultar práctica. Pero en 1994, Peter Shor, de AT and T Research, describió un algoritmo cuántico específicamente diseñado para factorizar números grandes y exponencialmente más rápido que las computadoras convencionales, lo suficientemente rápido como para birlar la seguridad de muchos criptosistemas de clave pública. El potencial del algoritmo de Shor alentó a muchos científicos a tratar de explotar las capacidades de las computadoras cuánticas. En los últimos años, varios grupos de investigación de todo el mundo han alcanzado progresos significativos en este campo. Mientras estuvo en IBM, Chuang amplió su reputación como uno de los experimentalistas en computación cuántica más importantes del mundo. Dirigió el grupo que demostró la primera computadora cuántica de 1 qubit (en 1998 en la Universidad de California en Berkeley). En IBM Almaden, Chuang y sus colegas fueron los primeros en demostrar los importantes algoritmos cuánticos, el algoritmo de Grover concebido en 1999 para hacer búsquedas en bases de datos con ayuda de una computadora cuántica de 3 qubits, y la búsqueda de pedidos ideada el año
  • 45. 45 pasado (agosto del 2000) con una computadora cuántica de 5 qubits. La factorización con el algoritmo de Shor anunciada hoy es el algoritmo más complejo que se haya demostrado hasta ahora usando una computadora cuántica. Además de su ambicioso programa experimental, la División de Investigación de IBM Research es conocida también por sus muchas contribuciones teóricas en el emergente campo de la información cuántica. Los científicos de IBM fueron pioneros en criptografía cuántica, en comunicaciones cuánticas (incluso el concepto de teleporte cuántico) y en metodologías eficientes para corregir errores. David DiVincenzo, miembro del cuerpo de investigadores del laboratorio Watson de IBM, ha promulgado los cinco criterios necesarios para construir una computadora cuántica práctica: 1) un sistema físico de escala flexible con qubits bien caracterizados; 2) capacidad de inicializar el estado de un qubit; 3) tiempos de descoherencia más largos que el tiempo de operación de la puerta cuántica; 4) un conjunto universal de puertas cuánticas; y 5) la capacidad de medir qubits específicos.
  • 46. 46 COMPUTACION CUANTICA Definición La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. En la computación cuántica, a diferencia de la computación actual donde cada bit puede estar en un estado discreto y alternativo a la vez, la unidad fundamental de almacenamiento es el bit cuántico, donde cada bit cuántico puede tener múltiples estados simultáneamente en un instante determinado, así reduciendo el tiempo de ejecución de algunos algoritmos de miles de años a segundos. La computación cuántica está basada en las interacciones del mundo atómico, y tiene elementos como el bit cuántico, las compuertas cuánticas, los estados confusos, la tele transportación cuántica, el paralelismo cuántico, y la criptografía cuántica. Una arquitectura cuántica, muy aceptada entre los investigadores y orientada a ser compatible con las actuales arquitecturas, cuenta con memoria y una unidad de procesamiento aritmético/lógico, y con elementos cuánticos como la tele transportadora de código y el planificador dinámico. Su avance teórico ha sido muy exitoso, aun así, su realización depende de la futura implementación de una computadora cuántica, sin embargo ya se está desarrollando tecnología comercial basada en esta teoría.
  • 47. 47 COMPUTADORA CUÁNTICA Una definición acerca de las computadoras cuánticas, ampliamente aceptada por los investigadores, la concibe como un sistema de circuitos cuánticos, actuando en un espacio de estados. El circuito es una secuencia de transformaciones unitarias seguido por una medición. Esas transformaciones, son llamadas compuertas cuánticas, y son controladas por una computadora clásica. Así esto permite la superposición simultánea de estados básicos (correspondientes a estados clásicos "0" y "1"). Hardware cuántico Requerimientos de implementación. Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y actualmente hay varios candidatos a qubits. Requisitos a cumplir:  El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.  Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible).  El sistema ha de mantener su coherencia cuántica a lo largo del experimento.  Ha de poder leerse el estado final del sistema, tras el cálculo.  El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional. Candidatos a qubits:  Espines nucleares de moléculas en disolución, en un aparato de RMN.  Flujo eléctrico en SQUIDs.  Iones suspendidos en vacío.
  • 48. 48  Puntos cuánticos en superficies sólidas.  Imanes moleculares en micro-SQUIDs. Circuitos para la computación cuántica. Los investigadores afirman que en la computación cuántica se usarán los principios de la mecánica cuántica, para realizar cálculos complejos en una fracción del tiempo necesario hoy en día en los superordenadores más veloces. A medida que avanza la teoría al respecto, los expertos van proponiendo avances que permitirán que esta idea se haga realidad. Bajo estas líneas se propone un circuito realizable de forma experimental y una manera eficiente de implementar una computación cuántica escalable. Es precisamente la habilidad de aumentar la escala de la tecnología, de aquella que permite realizar experimentos de 1 ó 2 qubits, habituales en el laboratorio, a la que nos proporcionará sistemas en los que participarán muchos qubits, lo que hará posible construir un ordenador cuántico. El próximo sistema radicalmente distinto para el procesamiento de información será la computación cuántica. Los investigadores afirman que en ella se usarán los principios de la mecánica cuántica, para realizar cálculos complejos en una fracción del tiempo necesario hoy en día en los superordenadores más veloces. A medida que avanza la teoría al respecto, los expertos van proponiendo avances que permitirán que esta idea se haga realidad. Un reciente artículo publicado en Physical Review Letters, por ejemplo, propone un circuito realizable de forma experimental y una manera eficiente de implementar una computación cuántica escalable. Es precisamente la habilidad de aumentar la escala de la tecnología, de aquella que permite realizar experimentos de 1 ó 2 qubits, habituales en el laboratorio, a la que
  • 49. 49 nos proporcionará sistemas en los que participarán muchos qubits, lo que hará posible construir un ordenador cuántico. Franco Nori, de la University of Michigan, y sus colegas, han escrito un artículo en este sentido, titulado "Scalable quantum computing with Josephson charge qubits". Para implementar esta tecnología, será necesario preparar, manipular y medir el frágil estado cuántico de un sistema. Esto no es fácil, y es por eso que hasta ahora nos hemos centrado en qubits individuales. Pero para disponer de un ordenador cuántico serán necesarios muchos qubits, y controlar la conectividad entre ellos. Estas son las principales dificultades a las que nos enfrentamos, que el método de Nori trata de solventar.
  • 50. 50 Funcionamiento. La computación cuántica pretende utilizar un principio básico de la mecánica cuántica por el cual todas las partículas subatómicas (protones, neutrones, electrones, etc.) tienen una propiedad asociada llamada spin. El spin se asocia con el movimiento de rotación de la partícula alrededor de un eje. Esta rotación puede ser realizada en un sentido, o el opuesto. Si por ejemplo tomamos como bit al spin de un protón, podemos usar una dirección como 1 y otra como 0. Estos bits, tomados a partir del spin de las partículas han recibido el nombre de qubits. Sin embargo, en mecánica cuántica el estado de una partícula se determina a través de la asignación de una probabilidad, no podemos hablar de un estado 1 ó 0 claramente determinado. Esta aparente ambigüedad tiene una ventaja que convierte a la computación cuántica en un desarrollo revolucionario: La lógica de un bit es uno u otro, mientras que un qubit (nombre dado al bit cuántico) entraña el concepto ambos a la vez. Si tomamos por ejemplo dos bits, sus estados posibles son cuatro: 00, 01, 10, 11. Son necesario cuatro pares de bits para representar la misma información que un solo par de qubits con comportamiento ambiguo. Los qubits pueden representar en este caso cuatro números a la vez, cuatro
  • 51. 51 respuestas posibles a la vez. Procesamiento paralelo real, la Meca de la computación. Sus aplicaciones principales entran en el campo de la criptografía y teoría de número, y en el análisis de gigantescos volúmenes de información. Qubits No todos los problemas pueden ser resueltos por este tipo de lógica. Sin embargo, una computadora cuántica podría resolver los que sí pueden, a una velocidad varias veces superior a la de los microprocesadores conocidos hasta hoy, está también se considera una tecnología hipotética, pues aún sólo se ha quedado en la investigación sin llegar a desarrollar un sistema completo utilizando esta lógica, pero aun así, si se logra implantar algún día será definitivamente demasiado cara debido a las características necesarias para su buen funcionamiento.
  • 52. 52 Requerimientos de implementación Para la implementación de una computadora cuántica, se deben cumplir al menos cinco requisitos. Primero, se necesita un sistema de qubits. Segundo, los qubits deben ser individualmente direccionables y deben interactuar con otros para conformar compuertas lógicas de propósito general. Tercero, debe ser posible la inicialización de las compuertas. Cuarto, se debe tener la posibilidad de extraer los resultados computacionales. Y Quinto, es la necesidad de un tiempo de coherencia duradero. ¿Qué cosas podrían hacerse con un computador cuántico? Si fuera posible encontrar algoritmos y hardware que exploten eficientemente la superposición del qubit, podrían obtenerse ahorros exponenciales en el tiempo de procesamiento. Un ejemplo de esto es la factorización de números grandes (encontrar números que al multiplicarse arrojen el número del cual son factores), en donde las computadoras actuales ven incrementado su tiempo de procesamiento en forma exponencial según aumente el número de dígitos de la cantidad a factorizar. De hecho, los algoritmos actuales para codificar y enviar en forma encriptado información a través de Internet, basan su seguridad en la imposibilidad de las computadoras actuales de encontrar en un tiempo razonable, los factores de un determinado número. El computador cuántico haría obsoletos dichos mecanismos de encriptación.
  • 53. 53 Otras aplicaciones posibles serían: Encriptación: Si bien el computador cuántico haría obsoletos los mecanismos actuales, también provee una solución alternativa basada no tanto en las matemáticas, sino en las leyes de la física por lo que esta solución podría ser prácticamente imposible de violar por los amantes de lo ajeno. Teleportación: Se refiere a comunicar el estado físico de un objeto a otro objeto ubicado en otra parte. La factorización de grandes números: Una computadora actual se estima que tardaría varios miles de millones de años para factorizar un número de 1000 dígitos, mientras que un computador cuántico lo haría en ¡20 minutos! La búsqueda en bases de datos: Las búsquedas en bases de datos no ordenadas se realizan actualmente al azar (ningún algoritmo es más eficiente) y para localizar un dato en especial se requiere en promedio de N/2 intentos, donde N es el número total de datos. Un computador cuántico podría realizar lo anterior en un número de intentos igual a la raíz cuadrada de N. Así por ejemplo si N es igual a un millón, una computadora actual tendría que intentar 500,000 veces, mientras que el computador cuántico lo haría sólo 1,000 veces. ¿Qué tan cerca estamos de contar con un computador así? Se han hechos grandes progresos, sin embargo aún existen grandes dificultades técnicas. Así por ejemplo, la superposición cuántica (la capacidad de un qubit de existir en dos universos paralelos) es difícil de obtener y mantener ya que cualquier interacción con el exterior obligará al qubit a adoptar un valor definido (fenómeno conocido como "decoherencia") Por otro lado, el qubit no puede ser construido a partir del transistor ya que este es un elemento que sólo funciona en las computadoras actuales; más bien se deben utilizar partículas o sistemas de partículas que manifiesten el fenómeno de la interferencia cuántica. Se han hechos grandes progresos, sin embargo aún existen grandes dificultades técnicas. Así por ejemplo, la superposición cuántica (la
  • 54. 54 capacidad de un qubit de existir en dos universos paralelos) es difícil de obtener y mantener ya que cualquier interacción con el exterior obligará al qubit a adoptar un valor definido (fenómeno conocido como "decoherencia”). Además, el qubit no puede ser construido a partir del transistor ya que este es un elemento que sólo funciona en las computadoras actuales; más bien se debe utilizar partículas o sistemas de partículas que manifiesten el fenómeno de la interferencia cuántica. Diseñando indicadores automotrices con Arduino Ingenieros de un equipo competidor de la carrera Le Mans investigó la forma de diseñar un nuevo medidor de combustible para su vehículo Dodge Neon, y descubrieron una forma sencilla y práctica utilizando la tarjeta de desarrollo Arduino Uno. Ingenieros de un equipo de la carrera automovilística Le Mans, innovaron con la tarjeta Arduino Uno, al crear un indicador de combustible y luces de advertencia para su coche que fallaron de último momento, demostrando que la creatividad y una herramienta prediseñada de desarrollo pueden sacar de apuros.
  • 55. 55 Tal fue el éxito de su innovación, que los técnicos decidieron poner a disposición de la comunidad la metodología y componentes que usaron para materializar este sistema electrónico. De esta forma, el artículo técnico fue cargado al sitio Design Concepts, donde uno de los técnicos menciona que la idea les ocurrió durante las 24 Horas de Le Mans 2013 - Chubba Cheddar Enduro, competencia realizada en noviembre del año pasado en Estados Unidos. En esta justa automovilística los equipos utilizan coches que en muchas ocasiones son de modelo atrasado, y deben recorrer circuitos conformados por grandes distancias, por lo que la maquinaria y los sistemas eléctricos de los coches deben estar trabajando adecuadamente. CIRCUITO INTERNO DE MEDIDOR AUTOMOTRIZ Previo a la carrera, los ingenieros rectificaron los diferentes módulos del vehículo, en este caso un Dodge Neón pintado de vaca al que se le aplicó la innovación, de esta forma los técnicos se percataron que el indicador de combustible y las luces de señalización no funcionaban bien, siendo el medidor el más apremiante ya que no
  • 56. 56 podían arriesgarse a participar sin este recurso tan importante que de no funcionar, podría ponerlos fuera de la competencia. De esta manera comenzaron una tormenta de ideas y encontraron una puerta para solucionar en breve esas fallas. “Mientras nos preparábamos para la carrera Le Mans 2013 de Chubba Cheddar, se hizo evidente que tendríamos que ser creativos para implementar un indicador de combustible debido a que el de nuestro coche estaba fallando y la depuración no iba bien. Correr con un indicador de combustible fallo era claramente algo que queríamos evitar”, comenta uno de los ingenieros. “Con un poco de investigación fui capaz de determinar que el sensor del tanque de gasolina no era más que un resistor variable. Para un módulo DIY podríamos prácticamente montar un multímetro y observar la resistencia del sensor conforme el nivel de combustible cambiaba. Esta idea parecía algo pirata incluso para las carreras Le Mans”, añadió el miembro del ‘staff’. Diagrama de bloques de indicador Arduino Los técnicos debían luchar contratiempo y programar juntas técnicas para la presentación de propuestas; el tiempo era un privilegio del cual no gozaban, ya que era cuestión de horas el resolver los problemas o bien resignarse a declinar a la competencia.
  • 57. 57 El reporte señala que los ingenieros navegaron por cerca de una hora en Internet y descubrieron una tarjeta de desarrollo de nombre Arduino Uno, la cual contaba con los módulos electrónicos necesarios para diseñar un sistema como lo que buscaban, en este caso un indicador electrónico de combustible. A pesar de su desconocimiento sobre el entorno ‘OpenSource’ para el desarrollo de hardware automotriz, los técnicos inmediatamente descargaron un diseño de referencia que al parecer se encontraba en el mismo sitio Web de la comunidad Arduino. Este módulo era prácticamente una herramienta desconocida por los ingenieros, pero hicieron uso de las hojas técnicas del portal y con ello comenzaron a planear el módulo requerido. Al ver la funcionalidad de la tarjeta de desarrollo, vieron viable innovar y decidieron integrar en el mismo proyecto un indicador de luz para nivel bajo de combustible, temperatura y presión de aceite, es decir, un todo-en-uno. En la siguiente imagen se aprecia el prototipo final de este módulo automotriz multifuncional para monitoreo de combustible y fluidos. La Caja Hammond se utilizó como cubierta para la tarjeta electrónica Los ingenieros adelantaron que debido a los buenos resultados que consiguieron con esta aplicación, han decidido desarrollar una nueva versión del módulo para la siguiente justa Le Mans 2014. Los materiales que utilizaron los técnicos fueron: Arduino Uno, módulo Microtivity IM162 LCD 1602, Caja Negra Hammond 1591ESBK ABS, diodos rojos de 5mm pre-
  • 58. 58 cableados de 6V, resistencias varias, plataforma ‘Speed Studio’. En el mismo documento se comparten los códigos de arranque y funcionamiento para cada una de las fases operativas del sistema y las herramientas y protocolos que utilizaron para finalizarlo Apple estaría probando muestras de paneles OLED de 65″ para el futuro iTV Muchos son los rumores acerca de la televisión de Apple y poco a poco se van sumando otros que evidencia que si bien puede que no entre en los planes cercanos o incluso nunca se llegue a producir en serie, Apple está investigando y de qué manera en este nicho de negocio. Según distintos informes, Apple está actualmente probando paneles OLED de 65 pulgadas de una empresa coreana ‘sin nombre’ que supuestamente montarían en el iTV , de acuerdo a las informaciones de la agencia IBK Securities.
  • 59. 59 El Korea Herald ha hecho público un informe del analista Lee Seung -woo , que dice: La compañía está fabricando paneles OLED de muestra en 65 pulgadas para el iTV de Apple en colaboración con Apple. Aún así, no está claro si Apple va a usarla para la producción masiva de su largamente rumoreada iTV , ya que todavía están en fase de pruebas. StoreDot promete cargar tu teléfono en sólo 30 segundos (y te lo demuestra en vídeo) Pongámonos en situación. Te han llamado para un plan de última hora, terminas de colocarte tus mejores vestiduras y justo antes de salir de casa te das cuenta del gran problema: la batería de tu teléfono está a punto de agotarse. Adiós a subir fotos en Instagram de tu suculenta cena y a la localización de tus amigos por WhatsApp. Pero tranquilo, hay solución, o al menos eso prometen en StoreDot. Lo que comenzó siendo un departamento de nanotecnología de la Universidad de Tel Aviv, es ahora una empresa encargada de dar vida a sistemas y tecnologías realmente prometedores. Su último trabajo es este cargador instantáneo en forma de prototipo, presentado en la conferencia Think Next de Microsoft y que presume
  • 60. 60 de ser capaz de cargar la batería de un Galaxy S3 en sólo 30 segundos gracias a su tecnología de semiconductores biológicos (formado por péptidos, para ser exactos). Los incrédulos podrán salir de dudas gracias al vídeo que ha preparado la compañía con la demostración, una grabación donde podrás que una vez conectado a la red eléctrica, el terminal comenzará a recibir energía como si se encontrara en las mismísimas manos de Magneto. El prototipo de momento tiene el tamaño de un cargador de portátil, pero aseguran que andan trabajando paralelamente para mejorar ese aspecto. La idea es poder comenzar con la producción en algún momento del 2016, y su precio, dicen, estará en torno a los 30 dólares.
  • 61. 61 De la pantalla de tu Tablet o teléfono fácil a la del TV Woxter lanza al mercado un pequeño adaptador que permite compartir en modo espejo con la televisión, aquello que tengamos en la tablet o el Smartphone. Se trata del Miracast 115, que tiene unas medidas de 91x37x11 mm, veremos en la televisión lo mismo que en la pantalla del Tablet o Smartphone. Es compatible con dispositivos Android (a partir de la versión 4.2) y con protocolo DLNA, así como con la tecnología Airplay. Cuenta con una resolución de 1080p a 50Hz.Es tan simple de usar como de conectar, tan sólo hay que conectar el adaptador al puerto HDMI, sin cables, ya que funciona mediante conexión WiFi. Así, podemos disfrutar de contenido multimedia, de navegar por Internet o jugar en una pantalla grande. Otra ventaja de Miracast 115 es que se puede conectar a un monitor con HDMI y como es tan pequeño y ligero, permite llevarlo a todas partes sin esfuerzo. Dispone de un indicador LED de estado y una entrada USB 2.0 para cargarlo cómodamente.
  • 62. 62 LiFi: Internet a través de la luz Científicos de diferentes institutos a nivel mundial han logrado transmitir datos inalámbricamente utilizando campos de luminiscencia en lugar de ondas de radio (WiFi). Una posible solución para prevenir en un futuro próximo el colapso del espectro electromagnético debido a la saturación de datos, ha sido desarrollada por científicos chinos, quienes crearon una tecnología que utiliza la luz para conectarse a la red. La nueva tecnología ha sido bautizada con el nombre de LiFi (Light-Fidelity) y fue concebida en los laboratorios del Instituto de Física Técnica de Shanghái, en colaboración con académicos de la Universidad de Fudán, ambos de China. Se trata de una nueva técnica que utiliza diodos emisores de luz (LEDs) especiales que hacen de la luminiscencia un transporte inalámbrico para el intercambio de datos y acceso a Internet. De acuerdo a los creadores de LiFi, liderados por el científico Chi Nan, el LED es de solo 1 Watt y con estas características lograron generar un campo de
  • 63. 63 conectividad inalámbrico, haciendo que se conectaran a la red computadoras convencionales que fueron utilizadas para la fase de experimentación. La bombilla de LED utiliza también un microchip que se encarga de la administración del flujo de datos con un rango de hasta 150 Mbps. Los investigadores han precisado que esta tecnología superará considerablemente al WiFi y reducirá los precios de suministro de servicios de Internet sin hilos en cuestión de unos años más. “Con el auge de los móviles se han establecido por todo el mundo millones de estaciones para mejorar la señal, pero la mayoría de la energía se consume rápidamente”, explicó Chi en referencia con los modernos sistemas basados en WiFi. “Allí donde haya una bombilla habría señal de Internet”, arguyó. Los científicos que han madurado esta tecnología utilizaron diodos emisores de luz de diversos colores y un microchip especial para lograr convertirlo en un medio inalámbrico para transferencia de datos. Es importante reconocer que esta tecnología ha sido perseguida no solo por los investigadores chinos a cargo del Dr. Nan, pues también por otros grupos científicos
  • 64. 64 a nivel internacional que han invertido tiempo y recursos para destapar esta novedosa propuesta de acceso a Internet a través de la luz, como sucede desde 2011 en territorio británico. Realizando una búsqueda por los sitios Web de universidades en el mundo, encontramos que un centro de investigación de la India, llamado RKGITW, publicó en 2012 un artículo científico sobre una tecnología similar a la creada por los ingenieros chinos, y bajo el título de “LiFi: La Tecnología del Futuro en Comunicaciones Inalámbricas”, los especialistas hindúes detallan la manera de cómo se puede transmitir datos a través de diodos de luz. Sin lugar a dudas esta tecnología ya no es propiedad de un solo grupo de científicos, y al menos hay 3 equipos de investigación de tres diferentes regiones del mundo que han anunciado avances en este campo. Pero ciertamente al desarrollarse nuevas tecnologías también debe ponerse a prueba su viabilidad, por ejemplo, si tal tecnología resulta compatible con la actual infraestructura industrial y sus protocolos que son utilizados en los sistemas. Para esta tecnología, el grupo chino reconoció que, aunque son muy atractivas las comunicaciones inalámbricas con LiFi, se debe replantear la necesidad de un rediseño de muchos de los equipos o dispositivos electrónicos que funcionan como receptores o emisores de telecomunicaciones, a fin de establecer un nuevo protocolo de emparejamiento con LiFi.
  • 65. 65 Cómo funciona LiFi Los créditos legítimos sobre los primeros avances de esta tecnología han sido asignados a científicos de la Universidad de Edimburgo, Inglaterra, y su propuesta fue rápidamente adoptada para su maduración por otras instituciones a nivel mundial. La forma en cómo funciona es presuntamente muy simple –detalla el documento hindú-, ya que cuando el diodo emisor se encuentra encendido (on) se puede transmitir un 1 digital, y cuando está apagado (off) se envía un 0. De esta manera el LED pueden switchear on/off de manera muy rápida, lo cual se genera una frecuencia necesaria para la transmisión de datos. Desarrollan una tecnología que multiplica por diez la velocidad de la fibra óptica TEMAS RELACIONADOS Científicos de Suiza han creado un nuevo modo de organizar los pulsos de luz que transportan la información REUTERSUn hombre gestionando cables de conexión a internet
  • 66. 66 Un grupo de investigadores suizo ha desarrollado un método que multiplica por diez el ancho de banda de la fibra óptica al reducir el espacio entre los pulsos de luz que transportan la información, lo que permite que circulen más datos y en menos tiempo. La principal innovación de esta tecnología es su concepto basado en el tratamiento de la luz y para aplicarla sólo es necesario cambiar la fuente emisora, mientras que otras alternativas ya existentes para aumentar la velocidad de la fibra óptica implican cambiar toda la infraestructura, con el consecuente coste. La tecnología de la fibra óptica transporta la información a través de impulsos luminosos que hasta ahora viajaban «en fila india», lo que suponía dejar espacios sin usar entre unos y otros para evitar interferencias. Los científicos de la Escuela Politécnica de la Universidad de Lausana(EPFL, en francés) en Suiza han ideado un método a través del cual es posible superponer parcialmente estos pulsos de luz como las piezas de un rompecabezas y aprovechar así los espacios que antes quedaban sin utilizar para transportar más información, lo que permite explotar la capacidad total de la fibra. Este método permite producir de forma casi perfecta estos pulsos de luz llamados Nyquist, lo que soluciona el problema de la aparición de interferencias. «Estos impulsos unidos en forma de 'puzzle' tienen la capacidad de unirse los unos con los otros, lo que hace que interfieran entre sí, pero no en el sitio preciso donde la información va codificada», explicó en un comunicado el miembro del Grupo para la Fibra Óptica (GFO) de la EPFL, Camille Brès. Un rompecabezas La idea de utilizar pulsos de luz en «puzzle» para mejorar la capacidad de la fibra óptica no es nueva, pero nadie hasta ahora había conseguido llevarla a cabo sin utilizar sofisticadas infraestructuras. Los científicos de la EPFL crearon un láser y un modulador con el que consiguieron unos pulsos de luz perfectos al 99%, un resultado nunca alcanzado mediante otras tecnologías.
  • 67. 67 «Nuestros resultados son demasiado buenos para ser verdad», señaló el otro miembro del Grupo para la Fibra Óptica (GFO) de la EPFL, Luc Thévenaz, co- creador de esta tecnología junto con Brès. Esta tecnología sólo tiene el inconveniente de que no será posible intensificar aún más en el futuro el tráfico de información, ya que si los impulsos de luz se emiten con poca separación entre sí no podrían transmitir la información correctamente. «Una cierta distancia entre cada uno de los impulsos tiene que serrespetada para evitar interferencias», explicó Thévenaz. En los sistemas de comunicación modernos, como el intercambio de información entre dos teléfonos móviles, los datos se transportan de una antena a otra a través de fibra óptica mediante pulsos luminosos encendidos que equivalen al número uno y apagados que corresponden al cero. De este proceso resulta un código binario compuesto por una lista de unos y ceros que permite al receptor descifrar el mensaje original.
  • 68. 68 Empresa devela esperanza para ciegos La firma OrCam Technologies presentó una pequeña pero novedosa cámara que permite a personas con deficiencia visual o ciegas recuperar artificialmente sus capacidades de visión. El aparato integra un microprocesador Freescale i.MX 6, que permite respuestas en tiempo real. (ElectronicosOnline.com Magazine / Oswaldo Barajas) Una nueva tecnología compuesta por una pequeña cámara portátil, algoritmia de computación y un microprocesador, podría resolver las penurias que atraviesan las personas con déficit visual o un grado considerable de ceguera, pues funciona de igual manera que la visión humana. En su sitio de Internet la compañía OrCam, fundada en 2010, detalla el modo operativo y composición técnica de su videocámara y su unidad central de procesamiento portátil que la complementa. “Tenemos el hardware y software para desarrollar dispositivos que ofrezcan el mismo nivel que la visión humana. Los aparatos pueden reconocer objetos, escenarios y contextos”, menciona textualmente la empresa. Con el lanzamiento de su propuesta, la compañía inició una propaganda global sobre el nivel de innovación de su tecnología, dejando claro que el objetivo de la misma es ayudar a las personas con algún grado de ceguera a valerse por sí mismas, cultivando una absoluta independencia y por consiguiente ayudándoles a reincorporarse a la sociedad.
  • 69. 69 La cámara OrCam trabaja mediante la identificación de contenido, textos, objetos y escenarios que procesa posteriormente en audio que el usuario escucha como frases descriptivas en inglés. El portador solo debe apuntar con su dedo en dirección de las gafas donde está colocada la camarita, lo que desea que el sistema reconozca, y entonces el módulo le dirá lo que su dedo está apuntando. El usuario solo señala en la dirección donde desea que la camarita le indique de qué se trata. “La OrCam puede leer casi cualquier tipo de texto impreso en inglés, ya sea un libro, un periódico o señalética de calle, incluso un menú de restaurante”, explicó Erez Na´aman, vicepresidente de Ingeniería y Desarrollo de Negocios de OrCam Technologies. El sistema equipa un microprocesador Freescale i.MX 6Quad, con el que la videocámara procesa avanzados algoritmos de visión en tiempo real, lo que le
  • 70. 70 confiere las capacidades necesarias a los invidentes para determinar lo que se encuentra frente a ellos. La camarita tiene un cable que la conecta con el módulo central y una batería que la alimenta por unas 4 horas y media, además de un sujetador universal para que las personas aseguren el dispositivo a sus gafas. Los invidentes ahora pueden ayudarse para leer texto como periódicos o revistas. De acuerdo a la compañía, el gran reto de sus ingenieros fue el lograr que los mismos algoritmos de cómputo realizaran un escenario artificial de identificación de patrones y características para determinar la descripción, algo que sin duda la convierte en una innovación altamente valorada para esta función. “Imagina que tu celular tuviera un solo botón, al presionarlo conoce todo lo que quieres. Este es el tipo de experiencia que intentamos proporcionar a nuestros usuarios. Tú no tienes qué decirle que hacer”, mencionar el representante de la empresa.
  • 71. 71 El módulo puede ser utilizado por el usuario para reconocer productos cuando vaya a realizar sus compras al supermercado La persona puede utilizar esta camarita por ejemplo cuando asiste al supermercado para realizar compras y su condición de invidente o problemas de visión no le permite identificar los productos o pasillos, incluso ver la denominación de los billetes o tarjetas bancarias con los que intenta pagar. También, cuando va por la calle, el usuario solamente tiene que utilizar su dedo para apuntar en dirección de la camarita para que le indique la ruta de autobús que se acerca, la luz en que se encuentra el semáforo, o bien, leer los nombres de las calles cercanas. La empresa busca desplegar su tecnología y hallar otras aplicaciones a sus innovadores algoritmos de cómputo, no descartando que a corto o mediano plazo se pueda perfeccionar el dispositivo para sea aún más discreto a la vista. Para ver el video demostrativo puede acceder al sitio de la empresa:http://www.orcam.com/ Transistor, ni cuántico ni eléctrico Un transistor completamente óptico fue desarrollado por científicos del Instituto Tecnológico de Massachusetts (MIT) y utiliza luz para trabajar en lugar de electricidad o giros atómicos como ocurre con la tecnología cuántica. (ElectronicosOnline.com Magazine / Oswaldo Barajas) Unidades lógicas que funcionan con luz en lugar de electricidad o giros atómicos para realizar sus funciones de procesamiento de datos, como ocurre con los
  • 72. 72 transistores convencionales o cuánticos, respectivamente, han sido desarrolladas por ingenieros del Instituto Tecnológico de Massachusetts (MIT) con el objetivo de comenzar a diseñar CPUs más potentes que las computadoras tradicionales. A esta clase de unidades se le conoce como transistores basados en óptica computacional, sin embargo, requieren partículas de luz (fotones) para modificar su comportamiento. Los investigadores del MIT señalaron en su reporte técnico que de manera natural los transistores ópticos reaccionan adversamente a lo que comúnmente se registra en los transistores convencionales: dos fotones que colisionan en un espacio al vacío simplemente pasan uno a través del otro. En su comunicado, el MIT señala que previamente se realizaron pruebas en esta misma línea de investigación científica, pero con la colaboración de académicos de la Universidad de Harvard y la Universidad Tecnológica de Vienna, de tal manera que lograron documentar los resultados experimentales de las pruebas elaboradas con un único fotón. El resultado fue que, con esa única partícula de luz se logró generar un sistema de control óptico interno. Los especialistas mencionan además que en lo que respecta a la física cuántica, las unidades lógicas son más fáciles de ver en partículas individuales que en agrupaciones, de esta manera la capacidad de utilizar un solo fotón para ‘switchear’ podría hacerlo útil para la computación cuántica.
  • 73. 73 Científicos del MIT utilizaron una técnica de partículas de luz para incitar el funcionamiento de transistores ópticos. El eje central de los transistores ópticos del MIT es un par de espejos altamente reflectantes que trabajan como interruptores, y éstos a su vez constituyen lo que es conocido como un resonador óptico. “Si tuvieras un solo espejo, toda la luz se regresaría”, explicó Vladan Vuletic, Profesor Investigador del MIT. “Cuando tienes dos espejos, algo muy extraño sucede”, sostuvo. El ingeniero Vladan sugiere que la luz puede ser considerada como partículas o fotones, pero también como ondas en un campo electromagnético.
  • 74. 74 De esta manera los académicos señalaron que los fotones pueden ser retenidos por un solo espejo, pero en el caso de la descripción sobre las ondas, el campo electromagnético se mueve entre el espacio de los espejos. Si la distancia entre los espejos se calibra con precisión y relativamente a la longitud de onda de la luz, “básicamente un campo muy grande se forma internamente y anula el regreso de las partículas, y éstas continúan adelante”, mencionó Vuletic. “En otras palabras, los espejos se vuelven transparentes a la luz de la longitud de onda correcta”. Los Transistores poseen micro espejos que funcionan como interruptores y componen un resonador de control interno. La cavidad generada entre los espejos es rellanada con gas de átomos de cesio superenfriados. Esos átomos no interfieren con el paso de la luz entre los espejos, pero si una sola “puerta de fotones” se dispara en medio de ellos en un ángulo diferente golpeando un solo electrón de un átomo en un estado de energía más alto,
  • 75. 75 la física de la cavidad cambia lo suficiente como para hacer que la luz pase a través de él. “Es exactamente la misma historia, excepto que en lugar de utilizar átomos ultra- enfriados en la cavidad, usas una cavidad microscópica en un chip y utilizas un punto cuántico crecido al interior de este semiconductor como un átomo artificial”, añade el MIT. “Habría pasos adicionales que la gente debería tomar a fin de aplicar la estructura adecuada para el nivel de energía. Pero en principio, la física podría ser traducida a una plataforma que se integrara de una manera más sencilla.” El resultado de este experimento espera abrir los caminos para la fabricación de chips más potentes y que sean una opción adicional a las líneas de investigación basadas en física cuántica o microelectrónica.