Biela 7.65
REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONSTRUCCIÓN
AÑO 3
NÚMERO 12
ABRIL DE 2016
ISSN 2386-639X
12
9 772386 639006
Explosivos
industriales
Lubricantes
EL PETROLEO.
FIEBRE DEL ORO
NEGRO.
CONTENIDO
2 Nº12. Abri l de 2016
Accesibilidad en las
comunidades de vecinos
Ciclos deAire-Combustible en
motores alternativos
Diseño solar pasivo en
Edificación
Diseño bioclimático
Puentes sobre las aguas de
Rules
La Radioactividad
Evolución en los
transistores
Fundamentos para el
formado de metales
Página 8
Página 4
Página 18
Página 12
Página 26
Página 22
Página 30
Página 34
3Nº12. Abri l de 2016
Biela 7.65 es el órgano de expresión del Centro de Formación IAE. info@ingenierosalejercito.com
Edita el Centro de Formación IAE.
Dirección: L.T. de Garnez Consejo de Redacción: Juan González; Alvaro Manuel Sanchez; Álvaro Titos ; José Emilio Fernández; Iván García ; Raquel Hernández; Jose Maria Lozano ;
Francisco Navarro; Joaquín Toro; Antonio Climent; Rebecca Renuncio; Jorge Peña; Francisco Escamez; Marcos Cerdán; Miguel Silva; José Vicente Jurado; Alejandro Larruy; Pablo Alonso;
Alberto Martín; Antonio Flores; Marta Sanz del Burgo; Fernando Martel; Yeray Estévez; Adrian Quijada; Sergio Hurtado; Adrián Jiménez; Juan Manuel Alfaro; Alfonso Rojo; Andrés Siñeriz;
Pablo Escribano ; Mikel Meno; Juan José Espinosa; Marta Bartolomé; Rocío B. Higueras ; José Manuel Ibáñez Poveda; Iban Cabrera ; Carlos Mollá ; Pedro Manuel Vélez; Carlos Medrano;
Eduardo Baselga; Marcos Maldonado; Alejandro Gómez, Marta González, Laura García, Rubén Bonilla, Daniel Trujillo, Ángel Santos, Luis Manuel Delgado, Diego Fernández, Miriam Cle-
mente, María Fernández, Victor García, Rebeca Rosado. Secretaría del Consejo de Redacción: Félix-Álvaro Pajares. Paseo de las Delicias. Madrid. Imprime: Centro de Impresión DaBe
Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción.
Explosivos industriales
Lubricantes
Evolución de los transistores
Fiebre del Oro Negro.
Petróleo
Ductilidad del Hormigón
Técnicas de Mantenimiento.
Método RCM
Página 38
Página 44
Página 56
Página 52
Página 62
Página 48
Contaminación en España
Página 68
Primeros pasos de la Aviación
Página 72
En muchos edificios, aun disponiendo de ascensor,
existen barreras arquitectónicas para personas en silla
de ruedas o con movilidad reducida.
La existencia de pequeños diferencias de nivel que se
salvan con escaleras o con un medio no accesible, se
convierten a menudo en grandes
barreras.
Las Comunidades de Propietarios
están obligadas a la mejora de la
accesibilidad y en los edificios con
cierta antigüedad se puede requerir
de obras para satisfacer los requisi-
tos básicos de seguridad, habitabi-
lidad y accesibilidad universal de
modo que se permita el uso ade-
cuado y fácil para todos sus usua-
rios y especialmente para las perso-
nas con discapacidad.
No se debe obviar que todos, con
el paso del tiempo seremos mayo-
res y necesitarán de espacio de fácil
acceso y circulación.
¿Qué se entiende por accesibilidad?
Se puede entender como la posibili-
dad de tener acceso, paso o entra-
da a un lugar o actividad sin limita-
ción alguna por razón de deficien-
cia, discapacidad, o minusvalía.
¿Dónde se recoge la regulación de la accesibilidad?
Existe una serie de regulaciones de distinta índole que
recogen la accesibilidad en sus requerimientos; desde
el artículo 9 de la Constitución Española que exige a
los poderes públicos garantizar el máximo bienestar de
vida a todos los ciudadanos.
Pasando por el artículo 148 de la
propia Constitución Españo-
la, que atribuye a las Comunidades
Autónomas la competencia en
materia de ordenación del territo-
rio, urbanismo, vivienda y en ma-
teria de asistencia social (las cuales
han establecido normativas para
garantizar dicha accesibilidad).
Asimismo, debe mencionarse la
Ley 51/2003, del 2 de diciembre,
cita la igualdad de oportunidades,
no discriminación y accesibilidad
universal de las personas con dis-
capacidad.
O la más actual, el 11 de abril de
este año entró en vigor el Real
Decreto 233/2013, por el que se
regula el Plan Estatal de fomento
del alquiler de viviendas, la reha-
bilitación edificatoria, y la regene-
ración y renovación urbanas.
LA ACCESIBILIDAD EN LAS COMUNIDADES DE
VECINOS
ANTONIO CLIMENT ALÓS. ARQUITECTO TÉCNICO.
4 Nº12. Abril de 2016
Imagen 1. Situación muy habitual que va desapareciendo
Fuente: heartofearthcompany.wordpress.com
Imagen 2. Rampa mal ejecutada. Excesiva pendiente y con
salida muy peligrosa, directa a la calle.
Fuente: www.tuedificioenforma.es
La cual establece que se considerarán actuaciones para
realizar los ajustes razonables en materia de accesibili-
dad, las que adecuen los edificios y los accesos a las
viviendas y locales.
¿Qué se necesita para instalar elementos que faciliten la movili-
dad de las personas discapacitadas en un edificio?
Desde la reforma de la Ley de Propiedad Horizontal de
2003, la realización de obras que tengan por finalidad la
supresión de barreras arquitectónicas, requerirá el voto
favorable de la mayoría de los propietarios que, a su
vez, representen la mayoría de las cuotas de participa-
ción.
Esto quiere decir que exige una doble mayoría. En pri-
mer lugar de propietarios; esto es, si son 7 propietarios,
deberían estar a favor, como mínimo 4. En segundo
lugar, de cuotas. Cuando un propietario tiene una casa
de mayor superficie o varias propiedades, su porcentaje
de participación es mayor, en ese caso hace falta que el
porcentaje sumado de las personas que quieren instalar
el ascensor o la rampa alcance, como mínimo, el 51%.
Llegados a ese punto, y en virtud de la Ley de Propie-
dad Horizontal, "Los acuerdos válidamente adoptados
con arreglo a lo dispuesto en esta norma obligan a to-
dos los propietarios". Esto quiere decir que si la mayo-
ría de los vecinos están de acuerdo en instalar un as-
censor o una rampa, dicho acuerdo obliga al resto de
los copropietarios.
Si aún así la Comunidad se
negase, a través de la vía admi-
nistrativa, se podría llegar a la
imposición de sanciones a la
Comunidad.
¿Es necesario contar con un deter-
minado porcentaje de minusvalía
para exigir la instalación de elemen-
tos que faciliten la accesibilidad?
En ninguna ley se establece la
necesidad de una determinada
minusvalía para poder instalar
este tipo de elementos.
Ahora bien, en caso de falta de
acuerdo y a efectos legales se
considera que valdría con con-
tar con una minusvalía de al
menos el 33 %.
¿Quién ha de pagar la instalación del ascensor o la rampa?
Tal como establece la Ley de Propiedad Horizontal, la
instalación del ascensor obligaría a todos los propieta-
rios del inmueble, debiendo éstos abonar el ascensor o
la rampa en su totalidad "con arreglo a la cuota de par-
ticipación fijada en el título de propiedad”.
En el caso de los ascensores, suele suceder que los ve-
cinos de pisos bajos no tienen inconveniente a que se
instale el ascensor, pero lo que no quieren es pagar. Tal
como dice la ley, el acuerdo de instalación obliga a to-
dos los propietarios a pagar, pero en algunos casos lo
que se suele hacer es instalar una llave en el ascensor.
Imagen 3. Tabla resumen de los diferentes campos en los que se centra el concepto de accesibilidad hoy en día.
Fuente: elaboración propia.
Imagen 4. Zaguán ejecutado originalmente con rampa, pero con una pendiente
excesiva que la hace totalmente inservible.
5Nº12. Abri l de 2016
competentes del Ayuntamiento, a la vista
del mencionado proyecto, concederán, o
no, la licencia de obra. Es decir, la licencia
de obra es posterior al acuerdo de instala-
ción del ascensor.
Normalmente y, en relación con la instala-
ción de ascensores, se suele plantear el
problema de la reducción del hueco de la
escalera. En cuanto a las dimensiones de
ésta, en principio, las normas técnicas de la
edificación, establecen que debe tener una
anchura mínima de 100 cms (puede variar
según la comunidad autónoma). Sin em-
bargo, en algunos casos los Ayuntamientos
han concedido licencia para reducir la esca-
lera, si con ello se facilita la instalación de ascensores
para personas ancianas o discapacitadas.
Incluso, los Ayuntamientos conceden licencia para ins-
talar ascensores pequeños, donde no llega a entrar una
silla de ruedas, porque tienen la consideración que un
ascensor pequeño es mejor que no tener ascensor.
Por todo ello, cada Comunidad debe evaluar de la
mano del técnico correspondiente la problemática de
sus espacios comunes y realizar según las necesidades
la mejor solución.
¿Hay alternativas a la negativa de la Comunidad de Propieta-
rios de instalar el ascensor o la rampa?
En el caso en que no se pueda aprobar la instalación
del ascensor o la rampa, con carácter general, puede
recurrirse a lo establecido por la Ley 15/1995, de 30 de
mayo, sobre limites del dominio sobre inmuebles para
eliminar barreras arquitectónicas a las personas con
discapacidad (BOE de 31 de mayo de 1995).
Dentro del campo de aplicación de dicha ley, se en-
cuentran las personas con discapacidad, pero se esta-
blece expresamente que son directamente aplicables
por los mayores de setenta años sin que sea necesario
que acrediten su discapacidad con certificado de mi-
nusvalía.
En realidad, el pago debería distribuirse conforme al
sistema de porcentaje establecido en la escritura de di-
visión horizontal y por ello sería ilegal la modificación
de dichas cuotas.
Una vez se ha llegado a un acuerdo en la Comunidad
suele suceder que las reformas para mejorar la accesibi-
lidad llevadas a cabo en los portales de entrada, zagua-
nes y demás zonas comunes han sido soluciones poco
funcionales por haber sido resueltas de una manera
confusa, por múltiples y variadas causas: falta de cono-
cimiento de las necesidades reales de las personas con
discapacidad, por querer solucionar la situación con los
menos recursos económicos posibles, no requerir ase-
soramiento técnico, etc.
Para evitar dichos casos (imagen 2 y 4, por ejemplo) se
debe realizar un estudio de cada caso dada las necesida-
des personales y las características del espacio físico.
No debiendo suponer una carga desproporcionada,
aparte de que se debe realizar un proyecto de obra por
un Arquitecto o Arquitecto Técnico. Los servicios
Imagen 5. Comparación del antes y el después, en zaguán típico de los años
90, tras eliminación de la escalera de acceso y bajar el ascensor a cota 0, para
conseguir el acceso a “pie llano”
Fuente: proyectos.habitissimo.es
6 Nº12. Abri l de 2016
“El buen diseño capacita, el mal diseño discapacita”
Declaración de Estocolmo del EIDD
Los requisitos que deben existir:
- Ser el titular o el usuario de la vivienda una persona
con disminución permanente para andar, subir escale-
ras o salvar barreras arquitectónicas, se precise o no el
uso de prótesis o de silla de ruedas.
- Ser necesarias las obras de reforma en el interior de la
finca o en los pasos de comunicación con la vía pública
para salvar barreras arquitectónicas, siempre que las
obras no afecten a la estructura o fábrica del edificio,
que no menoscaben la resistencia de los materiales em-
pleados en la construcción.
El procedimiento es el siguiente:
La persona discapacitada notificará por escrito, a la
Comunidad de propietarios, la necesidad de ejecutar las
obras de adecuación por causa de minusvalía
(acompañándose del proyecto técnico9.
En el plazo máximo de sesenta días, la Comunidad
comunicarán por escrito al solicitante su consentimien-
to o su oposición razonada a la ejecución de las obras.
Transcurrido dicho plazo si no hay comunicación algu-
na, se entenderá consentida la ejecución de las obras.
Los gastos que originen las obras correrán a cargo del
solicitante de las mismas, sin perjuicio de las ayudas,
exenciones o subvenciones que pueda obtener.
Normalmente suelen existir subvenciones concedidas
por los servicios de vivienda y
urbanismo, así como los servi-
cios sociales, para la remoción
de las barreras que impiden, o
dificultan, la movilidad de las
personas con discapacidad.
Las obras de adecuación reali-
zadas quedarán en beneficio
de la propiedad de la finca.
Por suerte, las viviendas de
nueva construcción ya hace
años que tienen que tener una
entrada accesible que se deno-
mina “a pie llano”; pero el si-
guiente paso es sin duda, es la
vivienda. Además, los propios
urbanistas deben de diseñar y
adaptar los espacios públicos,
para que no sólo no tengan
barreras sino que la accesibili-
dad este presente desde el pro-
yecto básico, en la idea original, sin adaptaciones.
Muchos de los vecinos no paran a pensar que esas mo-
dificaciones revalorizarán su piso para una posible ven-
ta, y son los técnicos los que tienen que hacerles ver
ese tipo de cosas.
Invertir 500, 2000 u 8000 euros por vecino en conse-
guir accesibilidad tiene un retorno muy claro, ya no en
dinero, sino sobretodo en calidad de vida.
El zaguán y las zonas comunes, se van adaptando y
construyendo de forma más lógica y funcional, pero ¿y
las viviendas?¿acaso esas personas que necesitan un
acceso cómodo a su vivienda, no tienen necesidades
dentro de ella?
Por tanto ya sabemos por donde se debe seguir con la
accesibilidad en las edificaciones residenciales, prestan-
do atención desde el principio al diseño.
REFERENCIAS Y BIBLIOGRAFÍA:
- www.discapnet.es
-www.five .es/calidade ntuvivienda/datos/
IVE_accesibilidad_salvaralturas_zaguan.pdf
-www.discapnet.es/Castellano/areastematicas/
derechos/faqs/Paginas/faqs.aspx
7Nº12. Abri l de 2016
Imagen 6. Diferentes métodos para eliminar o suplir las barreras arquitectónicas.
Fuente: elaboración propia.
ciclos termodinámicos para valo-
res constantes de propiedades
termodinámicas se usan como
procedimientos básicos a tratar
en el estudio inicial de motores.
Sin embargo, el uso de ciclos en
donde las propiedades termodi-
námicas (para gases perfectos),
además de la composición de
gases en el interior del cilindro,
son variables, resultan ser dema-
siados tediosos.
Para solventar esta limitación,
diseñamos una hoja de cálculo
que hace posible el análisis del
ciclo aire-combustible en un ci-
lindro de cualquier tipo de motor
considerando la composición de
gases y variación de las propieda-
des termodinámicas con la tem-
peratura (considerando los gases
como perfectos).
Datos de entrada y estimacio-
nes
Se parte de los datos generales
del motor: tipo de motor (Motor
de Encendido Provocado MEP o
Motor de Encendido por Com-
presión MEC), duración del ciclo
(2 Tiempos o 4 Tiempos), Carre-
ra geométrica S, Diámetro del
pistón D, longitud de biela L,
relación de compresión r.
Además hay que tener en cuenta
el ángulo de Retraso al Cierre de
Admisión RCA en el caso de mo-
tores de 4 Tiempos, ángulo de
Retraso al Cierre del Escape RCE
en motores de 2T.
El tipo de combustible es otro
dato a introducir, además de su
Poder Calorífico Inferior PCI y
densidad ρc.
Los procedimientos de cálculo de
ciclos termodinámicos en moto-
res pasan de ser muy sencillos,
donde la composición de gases
(normalmente aire) y sus varia-
bles termodinámicas son cons-
tantes a lo largo de todo el ciclo,
hasta modelos cuyos resultados
precisan de la integración de
ecuaciones diferenciales por mé-
todos numéricos.
Introducción
Los métodos de evaluación de
ANÁLISIS DEL CICLO DE
AIRE-COMBUSTIBLE EN
MOTORES ALTERNATIVOS
ÁLVARO TITOS LÓPEZ. GRADO EN INGENIERÍA MECÁNICA
8 Nº12. Abril de 2016
Imagen 2. Etapas de motor de combustión alterna 4 Tiempos. www.contenido-del-blog.blogspot.com.es
Imagen 1. Motor radial. www.taringa.net
será característico de-
bido a que es el ins-
tante en donde el inte-
rior del cilindro está
lleno de la masa que
evolucionará durante
las fases de compre-
sión y expansión. Esta
masa es la suma de la
masa de aire retenida,
más la de combustible
y además la de los ga-
ses residuales del ciclo anterior
que no han salido de la cámara
del cilindro.
Introducimos en el análisis del
ciclo un término adicional: frac-
ción de entrega de calor de com-
bustible a volumen constante FV.
Esto permite analizar el ciclo de
la forma más sencilla posible,
como un ciclo Sabathé, imagen 3.
Se determina una fracción de re-
siduales determinada Xr y FV con
el objeto de establecer un rendi-
miento de calidad ηg en torno al
80% como se muestra en la ima-
gen 4.En la evaluación del ciclo
termodinámico se evalúa la pre-
sión del punto de inicio de la
Se establece un rendimiento de la
combustión ηc, dependiente del
dosado relativo FR. Con todos
estos datos se conocerá entonces
qué fracción del calor del com-
bustible qc se aporta al ciclo qap
También hay que introducir la
velocidad de giro n, par efectivo
Me, consumo de combustible Cc
y rendimiento volumétrico ηv
para 4 Tiempos o el coeficiente
de admisión RS en motores de 2
Tiempos. Además de tener en
cuenta en motores de 2 Tiempos
RS, consideramos un valor del
rendimiento de retención ηRET:
Procedimiento de cálculo
El ciclo a analizar partirá de un
valor de referencia que será el
que corresponda al punto del
RCA en motores de 4 Tiempos o
RCE para 2 Tiempos. Este valor
Imagen 4.. Esquema general del proceso de cálculo. Colección de imágenes del departamento de Máqui-
nas Térmicas de la UJA.
9Nº12. Abri l de 2016
Imagen 3. Diagrama P-v Ciclo Sabathé.
www.wikipedia.com
La fracción de entrega de calor de combustible a volumen constante Fv, permite analizar el
ciclo de la forma más sencilla posible, como un ciclo Sabathé
lor no es el inicial, se vuelve a
calcular el punto final de la com-
presión con el valor anterior has-
ta que el valor de dicho exponen-
te converge a un valor estable.
Para un motor MEP, este proce-
so se lleva a cabo con una mezcla
de aire, gases residuales y com-
bustible vaporizado. Para un mo-
tor MEC, la mezcla contiene aire
y gases residuales.
El calor aportado en la transfor-
mación 2-3 es igual a un cv medio
entre ambos puntos multiplicado
por el incremento de temperatu-
ras, aquí se itera de la misma.
compresión mediante la ecuación
de las adiabáticas. Se determina-
rán el resto de los puntos del
proceso evaluando las diferentes
transformaciones esquematizado
en la imagen 5, esto es, a partir
del punto de referencia y con el
volumen que tenemos en el pun-
to 1, haciendo uso de las ecuacio-
nes de las adiabáticas, podemos
obtener la presión en dicho pun-
to, por lo que con esos dos datos
ya podemos obtener todas las
propiedades termodinámicas del
punto 1. Lo siguiente será realizar
la compresión del ciclo, 1-2, ob-
teniendo las propiedades del pun-
to 2. Al ser un ciclo sabathé ten-
dremos dos aportes de calor a
volumen constante (2-3) y a pre-
sión constante (3-4), con los que
calculamos los puntos 3 y 4 res-
pectivamente, teniendo por últi-
mo una expansión 4-5, obtenien-
do finalmente las propiedades
termodinámicas del punto 5.
Para el cálculo del coeficiente
adiabático γ, se realiza mediante
el proceso iterativo. Evaluaremos
la compresión, conocido el punto
1 se calcula el valor del punto
final de la compresión teórica
(punto 2) considerando un expo-
nente adiabático determinado γ.
En ese momento, se evalúa el
valor del exponente adiabático
medio entre ambos puntos
(relación entre los incrementos
de entalpía y de energía interna
entre ambos puntos). Si este va-
10 Nº12. Abri l de 2016
En un motor MEP hay una mezcla de aire, gases residuales y combustible vaporizado.
Para un motor MEC, la mezcla contiene aire y gases residuales
Imagen 5. Procedimiento de cálculo del ciclo termodinámico. Galería de imágenes del departamento de
Máquinas Térmicas de la UJA
cigüeñal que da lugar a un volu-
men en la cámara de combustión
que hace que las propiedades ter-
modinámicas sean
las obtenidas con la
masa contenida de
gases.
Para la evaluación
de los gases residua-
les se considera la
siguiente suposi-
ción: Conocidos los
puntos 1, 2, 3, 4 y 5
del ciclo, desde el
punto cinco se ex-
panden los gases a
volumen constante
hasta el punto 1 de
forma ideal (sin salir
ninguna masa de gases del cilin-
dro). Si se supone que desde el
punto 1 hasta el final F, existe un
escape a presión constante, y ade-
más es adiabático, la ecuación
anterior queda como sigue, tras
considerar las relaciones termodi-
námicas asociadas y ecuación de
gases perfectos:
Para que se cumpla esta igualdad
con las condiciones establecidas,
la temperatura del punto 1 debe
mantenerse constante. Esto se
consigue a costa de reducir la
masa interior del cilindro confor-
me disminuye su volumen. Para
el volumen de la cámara de com-
bustión en el PMS y su propia
temperatura, se obtiene la masa
retenida final. La relación entre
este valor y la masa considerada
fija dará lugar a la fracción de
residuales.
Conclusiones
El estudio de los ciclos termodi-
námicos en motores presenta una
dificultad creciente conforme se
van disminuyendo las hipótesis
simplificativas. Los modelos de
cálculo que consideran como
fluido operante el aire como
combustible comprenden un
cálculo diferencial que puede re-
sultar muy complejo.
El procedimiento descrito permi-
te comprobar como varían los
resultados intermedios y totales
conforme modifica parámetros
como la fracción de entrega de
calor a volumen constante o frac-
ción de residuales.
forma que antes con el exponen-
te adiabático, pero ahora se reali-
za con el calor específico a volu-
men constante cv entre los pun-
tos 2 y 3. El aporte de calor del
combustible a presión constante
será igual a un calor específico
medio a presión constante cp por
el incremento de temperaturas
entre 3 y 4. Aquí hay una dificul-
tad adicional, ya que es preciso
buscar el valor del volumen del
cilindro en donde se cumplen
estas condiciones, por lo que des-
pués de tener un valor estable de
cp y por lo tanto el resto de pro-
piedades termodinámicas, se bus-
ca un valor del ángulo de giro del
11Nº12. Abri l de 2016
REFERENCIAS Y BIBLIOGRAFÍA:
- Cruz Peragón, Fernando, 2005, Análisis de metodologías de optimización inteligentes para la determinación de la
presión en cámara de combustión en motores alternativos de combustión interna.
- Heywood J.B., 1988, Internal Combustion Engines Fundamentals, McGraw-Hill
- Muñoz, M. y Payri, F., 1990, Motores de Combustión Interna Alternativos.
- Apuntes de la asignatura Máquinas Térmicas, E.P.S. de Jaén, Universidad de Jaén.
- Titos López, Álvaro. 2015, Trabajo dirigido Análisis del ciclo de aire-combustible en motores alternativos, Máquinas
térmicas, E.P.S. de Jaén, Universidad de Jaén.
Imagen 6. Ciclo real de un motor de 4 tiempos en función del ángulo de
giro del eje cigüeñal. Galería de imágenes del departamento de Máquinas
Térmicas de la UJA
Diversas causas justifican la ten-
dencia al alza de los consumos
energéticos, tales como el incre-
mento del número de hogares, el
mayor confort requerido por los
mismos y, consecuentemente, el
aumento de equipamiento.
El hogar medio español consume
unos 10.521 kWh anuales, lo que
equivale a 0,038 TJ o también a
0,85 tep al año. Las viviendas en
bloque, pisos, de la zona Medite-
rránea se presentan como los
menos intensivos en energía, 0,53
tep anuales, mientras que las vi-
viendas unifamiliares del sector
continental son las más consumi-
doras con 1,69 tep/año. De me-
dia los alojamientos unifamiliares
consumen 2 veces más que los
pisos.
El consumo de combustibles es
determinante en términos de
energía final al consumo eléctri-
co, siendo 1,8 veces superior. El
62% del consumo eléctrico obe-
dece al equipamiento de electro-
domésticos, y en menor medida a
la iluminación, cocina y los servi-
cios de calefacción y agua calien-
te.
Considerando el conjunto de ser-
vicios y equipamiento disponible
en los hogares españoles, es el
servicio de la calefacción el ma-
yor demandante de energía, con
cerca de la mitad de todo el con-
sumo del sector.
El sector residencial es determi-
nante en el contexto energético
actual, tanto nacional como co-
munitario, puesto que sus nece-
sidades energéticas en términos
de energía final en España signifi-
can el 17% del consumo final
total y el 25% de la demanda de
energía eléctrica en España. El
uso de energía en las viviendas
supone la quinta parte de las emi-
siones de gases de efecto inverna-
dero de nuestro país. Si además
añadimos las que se originan du-
rante el proceso de construcción
de los edificios, supone que este
sector concentra la tercera parte
del total de emisiones nacionales
de gases de efecto invernadero.
12 Nº12. Abril de 2016
IMPORTANCIA DEL DISEÑO SOLAR PASIVO EN EL
SECTOR EDIFICACIÓN
IVÁN GARCÍA IGLESIAS. INGENERÍA DE CAMINOS, CANALES Y PUERTOS
La construcción de nuevos edifi-
cios bajo requisitos de diseño y
eficiencia energética mucho más
exigentes que los actuales y que
demanden poca o ninguna ener-
gía (edificios de consumo de
energía casi cero o nulo) será una
obligación para los países de la
UE a partir del 31 de diciembre
de 2020.
La Directiva 2010/31/CE define
como edificio de consumo de
energía casi nulo como aquel
“edificio con un nivel de eficien-
cia energética muy alto, donde la
cantidad casi nula o muy baja de
energía requerida debería estar
cubierta, en muy amplia medida,
por energía procedente de fuen-
tes renovables, incluida energía
procedente de fuentes renovables
producida in situ o en el en-
torno” (art. 2.2)).
En España, a nivel legislativo ya
se han empezado a dar los prime-
ros pasos para alcanzar estos ob-
jetivos aunque hay bastante es-
cepticismo sobre si se podrán
conseguir. Destaca por su impor-
tancia el RD 235/2013 del 5 de
abril en el que se aprueba el
“procedimiento básico para la
certificación energética de edifi-
cios”; como gran novedad aporta
sobre todo la obligación de certi-
ficar los edificios existentes en
los casos de venta o alquiler, pero
además refleja en su disposición
adicional segunda “Edificios de
consumo casi nulo” las exigen-
cias de la directiva 2010/31/UE
como propias de la normativa
española.
Numerosos factores, desde la
forma, orientación, inclinación de
los muros, tamaño y ubicación de
aperturas, hasta las superficies y
materiales constituyentes de su
piel y estructura condicionan la
respuesta térmica de un edificio.
Los ocupantes del espacio inte-
rior influyen en el comporta-
miento térmico debido a su acti-
vidad metabólica, por accionar
aparatos eléctricos que liberen
calor, modifiquen la humedad o
la circulación del aire, implantan-
do sistemas de protección a la
radiación como toldos o simple-
mente abriendo las ventanas o
puertas.
Las modernas tendencias arqui-
tectónicas y los nuevos conoci-
mientos energéticos sugieren que
hay que construir edificios que
ofrezcan el máximo confort, utili-
zando racionalmente la energía y
aprovechando de la mejor mane-
ra todas las fuentes energéticas
naturales disponibles, aunque si
no se optimiza previamente la
envolvente térmica de los edifi-
cios, medidas como mejorar la
eficiencia energética de las insta-
laciones o incorporar energías
renovables en las viviendas pre-
sentan unos efectos muy limita-
dos.
Utilizando sistemas de climatiza-
ción natural podemos ahorrar
energía destinada a calefacción, si
se diseñan los edificios evaluando
adecuadamente el movimiento de
flujos energéticos y obrando en
consecuencia, regulando y distri-
buyendo los mismos por medio
de la arquitectura creando un há-
bitat interior confortable con un
mínimo aporte de energía auxi-
liar. Los sistemas de climatización
natural son llamados también
sistemas pasivos.
Cuando se proyecta un edificio,
sería conveniente analizar las di-
ferentes posibilidades que ofre-
cen los elementos arquitectónicos
Existe en la actualidad un amplio
consenso sobre la importancia
estratégica de los edificios para
alcanzar los objetivos comunita-
rios de eficiencia energética y de
reducción de emisiones de gases
de efecto invernadero. La estrate-
gia europea en materia energética
se orienta al compromiso conoci-
do como “20/20/20” en 2020.
13Nº12. Abri l de 2016
Tabla 1. Consumo energético del sector residen-
cial
Gráfica 1. Estructura de consumo según uso
energético
Gráfica 2. Objetivo europeo 20/20/20.
en forma de calefacción o refrige-
ración.
4. Sistemas de protección y con-
trol: elementos como aleros, vo-
ladizos, umbráculos, persianas,
toldos de protección frente a la
radiación solar, compuertas de
regulación de aberturas de pro-
tección frente a la ventilación,
vegetación que permite la protec-
ción a la vez frente al viento y la
irradiación incidente, etc. Es ob-
vio que cada elemento menciona-
do tendrá un comportamiento
diferente frente a las condiciones
climáticas exteriores y afectará la
velocidad de respuesta del edifi-
cio debido a que la dosificación
de las energías exteriores se efec-
túa de manera distinta.
La calefacción solar pasiva se
produce de la siguiente manera:
el vidrio, que envuelve el aire in-
terior de la envolvente es trans-
parente a la luz visible pero impe-
netrable al calor. La luz visible
penetra el vidrio y calienta las
superficies de los objetos del in-
terior, los cuales emiten radiación
infrarroja y el calor no puede es-
capar ya que la radiación infrarro-
ja no pueda penetrar el vidrio, y
el aire dentro del cristal se vuelve
constantemente más caliente.
en cuanto al comportamiento
térmico del edificio. Estos ele-
mentos de la envolvente deberían
tener la misión de gestionar la
energía térmica del ambiente ex-
terior y satisfacer la captación,
almacenaje y distribución de
energía.
Podemos realizar la siguiente cla-
sificación de dichos elementos
atendiendo a su función térmica:
1. Sistemas captadores: encarga-
dos de recibir la energía proce-
dente de la radiación solar y
transferirla al interior en forma
de calor. Son elementos traslúci-
dos de la envolvente como venta-
nas, lucernarios, invernaderos,
etc. Así como elementos de obra
maciza o grandes volúmenes de
agua que ayudan a captar y distri-
buir el calor exterior.
2. Sistemas de inercia: masas tér-
micas en el suelo, en paredes y
cubiertas permiten que parte de
la radiación solar incidente se
acumule en forma de calor redu-
ciendo las oscilaciones en la tem-
peratura interior y posibilitando
la transmisión de mismo con un
cierto retardo cuando disminuya
la temperatura exterior. Grandes
masas de tierra o roca rodeando
el edificio pueden cumplir tam-
bién una función similar.
3. Sistemas de ventilación y trata-
miento de aire: Permiten el paso
del aire por su interior y mejoran
las condiciones de temperatura y
humedad por medio de la ventila-
ción y la distribución de la misma
14 Nº12. Abri l de 2016
“En calefacción solar pasiva, la energía solar calienta edificios sin necesidad de bombas o
ventiladores que distribuyan el calor ”
Dibujo 1. Calentamiento solar pasivo. Mediante la radiación solar y un diseño óptimo de la envolven-
te, es posible calentar una vivienda sin utilizar aparatos mecánicos.
la pared absorbente de radiación.
Posteriormente el calor se irradia
por todo el edificio durante la
noche o durante días nubosos,
atenuando la diferencia de tem-
peraturas.
“Una casa pasiva es un edificio
en el que el confort térmico (ISO
7730) se puede lograr por el ca-
lentamiento o enfriamiento del
flujo de volumen de aire fresco,
que es requerido para lograr con-
diciones de calidad de aire en
interiores, sin la necesidad de más
recirculación de aire”.
El aire interior en una casa biocli-
mática permanece más caliente
que el aire exterior durante los
meses de invierno. Estas edifica-
ciones normalmente requieren
calefacción adicional en climas
fríos, pero muy lejos de lo que
podría esperarse en una casa con-
vencional.
Se trata de viviendas con un alto
grado de aislamiento, un control
riguroso de las infiltraciones de
aire y de los puentes térmicos,
unas carpinterías de gran calidad
y un aprovechamiento óptimo
del soleamiento de forma tal que
mediante un recuperador de ca-
lor, que recoge el aire caliente del
interior (procedente de la combi-
nación de la captación solar, el
calor de las personas y el genera-
do por la iluminación artificial y
los electrodomésticos) y lo mez-
cla con aire fresco exterior, se
consigue el aporte necesario para
la climatización de la vivienda.
En el hemisferio norte, ventanas
grandes orientadas al sur reciben
más luz solar total durante el día
que las ventanas orientadas en
otras direcciones. La luz solar
entrante a través de las ventanas
aporta calor que es luego almace-
nado en suelos y muros hechos
de hormigón o piedra o en depó-
sitos de agua. Este calor almace-
nado es transmitido a lo largo del
edificio naturalmente por con-
vección, la circulación que ocurre
por causa del aire cálido eleva y
refrigera el aire que desciende.
El uso de árboles y de plantas se
puede seleccionar para absorber
calor, creando el estado de som-
breamiento (particularmente en el
caso de las plantas de hojas cadu-
cas) y para crear abrigo del vien-
to.
Una posible solución para captar
calor en el interior es disponer de
un invernadero acristalado. Los
rayos solares son absorbidos por
la pared trasera de modo que el
calor, se queda almacenado en el
edificio. El invernadero es sim-
plemente un sistema de almace-
namiento térmico de pa-
red expandida. Situando ventanas
o pequeños ventiladores entre el
invernadero y la vivienda, conse-
guiremos que el calor entre de
manera sencilla. Mediante la dis-
posición de un toldo se consigue
evitar un sobrecalentamiento esti-
val. Se puede automatizar el
En calefacción solar pasiva, la
energía solar calienta edificios sin
necesidad de bombas o ventila-
dores que distribuyan el calor.
Ciertos diseños característicos
son incorporados para calentar
edificios en invierno y ayudarles a
mantener el fresco en verano.
Hay dos estrategias pasivas bási-
cas de la energía solar:
1. Ganancia solar directa: la ga-
nancia directa implica la coloca-
ción de ventanas, claraboyas y
aberturas para controlar la canti-
dad de radiación solar directa que
llega al interior y para calentar el
aire y las superficies dentro del
edificio. En el interior deben dis-
ponerse materiales capaces de
almacenar energía situados en el
suelo, fachadas y techo. Es difícil
controlar su funcionamiento.
2.Ganancia solar indirecta: las
paredes y los techos de almacena-
miento en función de la situación
de la masa térmica. La radiación
incide primero en la masa térmica
situada entre el sol y el espacio
habitable. El calor se almacena en
15Nº12. Abri l de 2016
Imagen 1. Energía solar térmica. Aprovecha-
miento directo de la energía solar para disponer
de agua caliente sanitaria y calefacción en vivien-
das. [www.renov-arte.es]
Imagen 2. Vegetación de hoja caduca permite
el soleamiento de los huecos de la vivienda en
invierno y lo dificulta en verano.
[www.construction21.org]
tendiendo a enfriarse principal-
mente hacia el exterior e invir-
tiendo el flujo de aire. Esto per-
mite optimizar el confort interior
a pesar de las bajas temperaturas
externas.
Para un mejor funcionamiento,
cabe la posibilidad de controlar el
flujo de aire para que no se in-
vierta durante el periodo noc-
turno. Este control de termocir-
culación permitirá un mayor ren-
dimiento del muro. Disponiendo
de una persiana convencional se
evitarán pérdidas de calor por la
parte acristalada.
En verano, este sistema requerirá
sombreamiento al igual que el
resto de huecos acristalados. Las
aberturas permanecerán cerradas
durante el día y se destaparán por
la noche creando un lazo convec-
tivo inverso al deseado en in-
vierno, que permitirá refrigerar el
aire de la estancia.
El espesor del muro determinará
el desfase de la onda térmica cap-
tada. Por norma general se utili-
zarán grandes espesores para lo-
cales ocupados durante la mayor
parte del día, o donde se necesite
un aporte mayor en periodo noc-
turno.
Existen otros sistemas para apro-
vechar la energía solar de manera
pasiva, que aún siendo menos
empleados, cabe mencionar los
siguientes:
- Muro de agua: su funciona-
miento es similar al del muro
trombe, con la diferencia de que
en este sistema se utiliza el agua
que tiene una masa térmica mu-
cho mayor, se deben colocar
aproximadamente 200 litros/m²
de superficie de captación y per-
mitir las corrientes de convección
sistema de forma que permita
adecuar la temperatura interior a
la de confort. Se puede automati-
zar el sistema de forma que per-
mita adecuar la temperatura inte-
rior a la de confort.
Otro sistema pasivo de captación
solar es el muro Trombe. Consis-
te en un muro orientado al sol
fabricado con materiales que per-
mitan absorber el calor como
masa térmica, como hormigón,
piedra o adobe. Se pinta de color
oscuro y se deja un espacio para
colocar un vidrio grueso para
provocar efecto invernadero a
partir de la incidencia del sol. Se
disponen aberturas entre la parte
superior e inferior del cristal y del
muro que manera que se forme
un lazo convectivo con el interior
de la vivienda.
Durante el día, la radiación solar
atraviesa la lámina de vidrio ca-
lentando la superficie oscura del
muro y almacenando el calor en
la masa térmica de este, aumen-
tando la temperatura del aire
existente entre el muro y el vi-
drio, que se introduce en el inte-
rior a través de las aberturas. Por
la noche, el calor escapa del muro
Imagen 3. Ejemplo de captación de energía solar
mediante invernadero adosado.
[www.lekune.com]
16 Nº12. Abri l de 2016
Imagen 4. Casa solar pasiva en Nikaia, Grecia. Diseñada por Christina Zerva Architects. La casa está
envuelta por bloques orgánicos prefabricados que pasivamente mantienen una temperatura agradable
durante el calor del verano y el frío del invierno. [www.trendir.com]
Dibujo 2. Ejemplo de muro Trombe
mo en otras soluciones, de este
modo la energía se transmite al
interior del edificio por radiación.
- Techo verde o cubierta ajardi-
nada: los techos verdes pueden
ser considerados como aislamien-
to térmico adicional, provocando
la reducción del uso de energía
para calentar o para refrigerar los
edificios. la capa de vegetación
amortigua el estrés de temperatu-
ra durante el verano y el invierno
(35 ° C durante el año), y las dife-
rencias de temperatura entre el
día y la noche (15 ° C durante 24
horas).
La casa solar pasiva tiene un in-
cremento entre un 5% y un 10%
sobre el coste habitual, debido a
la mayor calidad térmica de los
materiales y a una mayor estan-
queidad y aislamiento de la envol-
vente, pero permitirá reducir has-
ta un 80% las necesidades ener-
géticas de calefacción, refrigera-
ción e iluminación, haciendo la
edificación más respetuosa con la
naturaleza.
huecos entre los depósitos de
agua favoreciendo de este modo
los intercambios de calor.
- Cubierta de agua: consiste en la
colocación de elementos rellena-
dos con agua sobre la cubierta
previamente pintada con colores
oscuros, si además se cubren con
vidrio se obtienen mejores resul-
tados en cuanto a su acumula-
ción. En invierno se deben cubrir
mientras que durante el verano
deben permanecer expuestos y
durante la noche se deben abrir
permitiendo así que cedan el ca-
lor.
- Solera de grava: se utiliza la gra-
va aislada como deposito acumu-
lador, procurando evitar que la
humedad del terreno se transmita
a la grava. Se puede hacer circular
aire caliente por su interior para
calentarla o utilizar un vidrio co-
17Nº12. Abri l de 2016
“La casa solar pasiva tiene un incremento entre un 5% y un 10% sobre el coste habitual
pero permitirá reducir hasta un 80% las necesidades energéticas”
REFERENCIAS Y
BIBLIOGRAFÍA:
- IDAE, Análisis del consumo
energético del sector residencial
en España, Madrid, Instituto
para la Diversificación y Ahorro
de Energía, 2011.
- Mazria, Edward. Passive Solar
Energy Book. Pennsylvania,
Rodale Press, 1979.
- Passive Solar Design
<http://
www.passivesolar.com>.
Imagen 5. Karuna House, Oregon. Diseñada por Holst Architecture. La vivienda es la primera en el mundo en conseguir los 3 estándares de eficiencia energéti-
ca más exigentes en cuanto a diseño pasivo: Passive House (PHIUS +), Minergie P-ECO y LEED Home Platinum. Dispone de un envolvente optimizada con
diseño solar pasivo para disminuir necesidades energéticas, requiriendo únicamente de un generador fotovoltaico de 10 kW. [www.phius.org]
dado que carece de sentido con-
seguir un ahorro energético en
determinada zona y tener pérdi-
das de calor en otra.
Así, el diseño de un edificio debe
hacerse globalmente de modo
que sus diferentes elementos
compongan un todo armónico,
de modo que cada elemento
cumpla una misión bioclimática y
funcional.
Las estrategias que debemos de
tener en cuenta son las siguientes:
estudio del solar elegido, clima de
la vivienda, control del clima por
medios constructivos, control del
clima con ayudas artificiales, ven-
tilación natural y enfriamiento en
verano y diseño del entorno.
Estudio del solar
Para elegir y planificar un solar
debemos observar varios elemen-
tos que tienen gran importancia a
la hora de construir un edificio
aliado con el entorno.
Así, lo que debemos de tener en
cuenta será: límites (límites de
propiedad, construcciones veci-
nas, vías de comunicación , for-
ma del solar…), la orientación, el
sol (localizaremos el Sur para
orientar los elementos captadores
de energía), el viento (debemos
de proteger la vivienda de los
vientos dominantes en invierno),
la topografía, la vegetación, el
agua (precipitaciones, presencia
de agua subterránea y capas
La arquitectura bioclimática es la
arquitectura diseñada de tal ma-
nera que nos permita conseguir
un máximo confort dentro del
edificio con un gasto energético
mínimo. Aprovechando las con-
diciones climáticas de su entorno
y los elementos climáticos exter-
nos para conseguir el confort
deseado en el interior. En caso de
que fuese necesario un aporte
energético extra, se recurriría a
fuentes de energía renovables
siempre que fuese posible.
Durante la fase de diseño del edi-
ficio es importante contemplar
todos los elementos en su con-
junto: estructuras, cerramientos,
instalaciones, revestimientos, etc.,
18 Nº12.Abril de 2016
ESTRATEGIAS PARA EL DISEÑO BIOCLIMÁTICO
VÍCTOR GARCÍA IGLESIAS. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
de los factores climáticos en los
cuales la gran mayoría de las per-
sonas se encuentran cómodas.
Estos factores son:
La temperatura del local. Las
personas se sienten confortables
en hogares cuya temperatura esté
entre los 18 y los 24º C.
Velocidad del aire. La velocidad
del aire en el interior de una vi-
vienda debería ser en invierno de
0.1 m/s. En primavera y otoño
algo más elevada, hasta 0.3 m/s.
La humedad relativa. La hume-
dad relativa del aire debe estar
entre el 30 y el 70%.
El tipo de actividad que se desa-
rrollará. Deberán estar a menor
temperatura los espacios en los
que se desarrolla algún tipo de
actividad física y aquellos ocupa-
dos por personas con ropa abri-
gada.
Densidad de personas en el local.
Si un local va a estar ocupado por
muchas personas, sus necesida-
des de caldeo serán menores.
Variaciones atmosféricas que
producen efectos sensoriales. La
sensación de confort también
depende de otros factores como
son los ruidos, vapores, olores,
presencia de humos y el grado de
polución atmosférica.
Aislamiento. Disponemos de me-
canismos que utilizados conjun-
tamente nos permiten regular de
modo bastante satisfactorio los
intercambios de energía con el
ambiente exterior.
freáticas), el hielo (temperatura
mínima que alcanzan las heladas),
las construcciones adyacentes, los
puntos de abastecimiento (agua,
gas, electricidad, saneamiento,
telefonía, etc.), la geología del
terreno (estudio geotécnico, pre-
sencia de gas Radón y capas geo-
páticas) y radiaciones electromag-
néticas (cables de alta tensión,
transformadores de electricidad y
antenas de telefonía).
Clima de la vivienda
La vivienda debe proporcionar a
sus ocupantes una sensación de
comodidad y agrado que les ayu-
de a desarrollar plenamente sus
capacidades. Deben conocerse las
actividades que se desarrollarán
dentro del edificio para adecuar
los elementos de regulación del
clima a las mismas. La necesidad
de aporte calorífico de un edificio
dependerá de su situación, diseño
y del poder aislante de su envol-
tura externa.
Aunque cada persona es diferen-
te se han estudiado los márgenes
Imagen 2. Esquema de una casa bioclimática piloto.
Ref: arquitecta Vanesa Serrano Romero
19Nº12.Abril de 2016
Imagen 1. Mansión en la isla de Sedir, Turquía.
Se combinan los paneles fotovoltaicos con un
sistema geotérmico y otro biológico.
Ref: Arquitecto Luis de Garrido
La captación activa de energía
solar se hace mediante mecanis-
mos artificiales, como colectores
solares, captación de otros tipos
de energías renovables, como
energía eólica, geotérmica, etc.,
aportes de calor debidos a la que-
ma de combustibles o al empleo
de energías no renovables, apor-
tes de calor debido a las personas
que se encuentran en el interior.
Sistemas activos
Se llaman sistemas activos a los
artefactos mecánicos que com-
plementan la construcción biocli-
mática y permiten captar las ener-
gías del entorno con un mayor
aprovechamiento y un mínimo
consumo energético.
Ventilación.
Los sistemas de ventilación son
los elementos constructivos que
se encargan de la renovación del
aire contenido en el edificio. Para
ello extraen el aire viciado e in-
troducen aire fresco.
Deberá compaginarse la estan-
queidad del edificio necesaria
para evitar filtraciones de aire
indeseadas con una buena venti-
lación que aporte el aire de reno-
vación necesario.
En la actualidad se poseen los
conocimientos necesarios sobre
ventilación como para poder ven-
tilar y refrigerar en verano un
edificio sin la ayuda de elementos
artificiales de acondicionamiento
de aire. Para lograrlo es necesario
contar con un diseño constructi-
vo adecuado. Lo que resultaría
muy difícil sería pretender enfriar
por medio de ventilación natural
un edificio mal concebido desde
el punto de vista climático.
Para comprender los mecanismos
de funcionamiento de un sistema
de ventilación se deben tener en
cuenta los siguientes principios
básicos:
- El efecto de enfriamiento de-
pende de la dirección y velocidad
del aire. A la velocidad de 1 m/s,
el efecto de enfriamiento equivale
a 5º C. de la masa de aire seco y
en reposo.
- El movimiento del aire a través
de un edificio se debe a las dife-
rencias de presión y temperatura
de las masas de aire.
Control del clima por medios
constructivos
Para lograr un clima confortable
en el interior de los edificios es
necesario lograr un equilibrio
entre las pérdidas de energía y los
aportes energéticos.
Las pérdidas de calor de un edifi-
cio se producen a través de los
cerramientos, por un diseño que
ofrezca una gran superficie de
contacto con el exterior favore-
ciendo de este modo los inter-
cambios de calor.
Las ganancias de calor en un edi-
ficio se producen por la capta-
ción solar pasiva de la radiación
solar a través de los vidrios de las
ventanas y de elementos cons-
tructivos creados para tal fin, co-
mo invernaderos, muros Trombe
y elementos de diseño.
20 Nº12.Abril de 2016
Imagen 3. El rascacielos bioclimático
Ref: arquitecto Ken Yeang
“La vivienda debe proporcionar a sus ocupantes una sensación de comodidad y agrado”
frescas de verano, así como su
intensidad para poder hacer una
estimación del espesor de las ba-
rreras cortavientos necesarias.
Contaminación. Es importante
señalar la dirección en que se en-
cuentran los elementos de conta-
minación sonora y la proximidad
de otros elementos contaminan-
tes, como industrias, vertederos y
focos de malos olores.
Vegetación existente. Se anotará
la situación de las zonas despeja-
das, de las masas boscosas, del
tipo de arbolado y densidad del
follaje.
Modificación del entorno. El es-
pacio interior de la vivienda debe
encontrar continuidad al acceder
al exterior.
El aire frío tiende a bajar y el cáli-
do sube hacia el techo.
Para que un sistema de ventila-
ción sea de modo eficaz, es nece-
sario que funcionen adecuada-
mente la captación de aire, el re-
corrido del aire a través de la casa
y la salida del aire.
Diseño del entorno
Podemos enumerar los puntos a
tener en cuenta a la hora de plan-
tear el diseño del entorno para
crear microclimas favorables des-
de el punto de vista climático.
Los más importantes son:
La topografía del terreno, los al-
rededores y el agua.
Radiación solar. Debemos de
tener en cuenta todos los elemen-
tos que proyecten sombra sobre
la parcela: edificaciones cercanas,
arbolado, montes cercanos, etc.
Viento. Debemos conocer la di-
rección de los vientos fríos domi-
nantes en invierno y de las brisas
Imagen 4. Teda: la urbanización sostenible más
grande del mundo situada en China.
Ref: arq.com.mx
21Nº12.Abril de 2016
Imagen 5. Células solares de capa fina desarro-
lladas por investigadores suizos.
Ref: suelosolar.com
“En la actualidad se poseen los conocimientos necesarios sobre ventilación para poder
ventilar un edificio sin la ayuda de elementos artificiales ”
REFERENCIAS Y
BIBLIOGRAFÍA:
- GONZALO, Guillermo
Enrique. Manual de Arquitectura
Bioclimática. Argentina: nobuko,
2003.
- GARCÍA, María Dolores.
Viviendas Bioclimáticas en
Galicia.
- DE GARRIDO, Luis. Energía-
Cero. Barcelona: monsa, 2014.
- DE GARRIDO, Luis.
Arquitectura Bioclimática
Extrema. Barcelona: monsa,
2014.
LOS PUENTES SOBRE LAS AGUAS DE RULES
JUAN GONZÁLEZ GONZÁLEZ. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
los afluentes del embalse de Ru-
les, e incluso el propio embalse.
MARCO TERRITORIAL
Este conjunto de viaductos se
ubica en la Autovía de Sierra Ne-
vada A-44, también llamada de la
Costa Tropical, dentro del tramo
comprendido entre las localida-
des de Ízbor y Vélez de Benauda-
lla en la provincia de Granada.
Esta autovía pertenece a la Red
de Carreteras del Estado y comu-
nica de norte a sur las localidades
de Bailén (Jaén) y La Gorgoracha
(Granada) con un trazado de 183
kilómetros que vertebra la comu-
nicación entre ambas provincias y
une la costa mediterránea andalu-
za con los parajes del interior
oriental de la región. Transversal-
mente a esta vía se enlazan otras
en diferentes puntos, desempe-
ñando la función de distribución
del tráfico de este a oeste de la
comunidad, como son la A-4, la
A-316, la A-308, la A-92 y la A-7.
En concreto el tramo Ízbor-
Vélez tiene una longitud de 10
kilómetros entre los punto kilo-
métricos 166 y 167. Cuenta con
dos enlaces en ambos extremos y
una concentración de 6 viaductos
con longitud total de 2,7 kilóme-
tros. Esto indica que casi el trein-
ta por ciento del recorrido se rea-
liza sobre estructura, lo que le
concede un carácter singular a
este tramo.
Otras características distintivas
aparecen en este trayecto, pues
5,34 millones de metros cúbicos
de terreno debieron ser excava-
dos y hasta 2,72 millones de me-
tros cúbicos de tierras conforman
los terraplenes de la infraestruc-
tura, además de cuatro pasos in-
feriores que favorecen la permea-
bilidad transversal del trazado.
En sentido desde Granada hacia
la costa los puentes que nos en-
contramos son: Viaducto de Íz-
bor o de Rules, Viaducto de Las
Lomas I, Viaducto de las Lomas
II, Viaducto del Embalse de Ru-
les o del Guadalfeo, Viaducto de
Miranda y Viaducto de Vicario.
Cuando el viajero se desplaza por
carretera desde la ciudad de Gra-
nada hacia la costa mediterránea
de dicha provincia o viceversa,
aprecia que en uno de los tramos
de la ruta el vehículo en el que se
desplaza avanza sobre una vía
que discurre apoyada en una serie
de estructuras que, sin duda, no
le dejan indiferente. El motivo
puede ser de diversa índole, aun-
que mucho tiene que ver el am-
plio abanico de particularidades
que rodean a estos viaductos des-
de puntos de vista tan distintos
como la dimensión, el enclave, la
frecuencia con que se hallan o el
obstáculo que sortean.
Nos hallamos ante el conjunto de
puentes que sortean las aguas de
22 Nº12. Abril de 2016
Imagen 1. Puente de Ízbor siguiendo el cauce del río del mismo nombre.
Fotografía propia.
ductos de Las Lomas.
Menos de 500 metros más ade-
lante en el itinerario tiene lugar la
desembocadura del río Ízbor en
el río Guadalfeo, y es en este área
donde se extiende una cola del
Embalse de Rules. Este hecho
vuelve a hacer imprescindible la
construcción de un asombroso
viaducto de casi 600 metros que
cruza las aguas de este embalse.
No muy lejos de éste último nos
encontramos con los barrancos
de Miranda y Vicario que llevan
sus intermitentes y torrenciales
cursos hidrológicos hasta el Em-
balse de Rules volviendo a obli-
gar a los ingenieros a recurrir a
soluciones estructurales para pro-
seguir con el trazado de la auto-
vía. La orografía es tan exagera-
damente sinuosa que en el caso
del último de los barrancos, el de
Vicario, no fue posible proyectar
ninguna pila sobre sus laderas
diseñándose en consecuencia un
modelo de puente con una única
gran pila central que resalta su
esbeltez por encima de cualquier
otra característica.
Los materiales constituyentes del
terreno son formaciones de cali-
zas y dolomías en general con
intercalaciones locales de margas,
yesos, arcillitas, mármoles o es-
quistos. De forma más específica
los estudios geotécnicos advirtie-
ron de problemas de tipo geo-
morfológico que incluyen movi-
mientos potenciales de tipo desli-
zamiento o desprendimiento. La
zona está catalogada por tanto
por el Instituto Geológico y Mi-
nero de España como área sus-
ceptible de hundimientos en for-
maciones carbonatadas.
A todo esto se une la alta sismici-
dad de esta localización geográfi-
ca.
Estas premisas influyeron de for-
ma decisiva en la adopción de
soluciones como cimentaciones
profundas compuestas por pilo-
tes de gran calibre arriostrados en
encepados de gran consideración
o sostenimiento de taludes con el
uso de gunita y bulones. Incluso
fueron necesarias las ejecuciones
de rellenos al pie de taludes para
proteger éstos de erosiones o
movimientos de tierra indesea-
bles, así como la implantación de
disipadores y transmisores de
energía ante terremotos.
CONDICIONANTES DEL
TERRENO
Desde el punto de vista topográ-
fico e hidrográfico las singulari-
dades son de marcada importan-
cia. Para empezar el tramo de
autovía comienza discurriendo a
lo largo de la margen izquierda
del río Ízbor ya que la única posi-
bilidad de atravesar estos parajes
abruptos es utilizar las laderas
que delimitan dicho curso hidro-
lógico. Precisamente la peculiari-
dad reside en que no se atraviesa
perpendicularmente dicho río,
sino que se bordea por una de
sus inclinadas orillas, lo que obli-
ga a llevar a cabo el diseño del
primero de los viaductos, el de
Ízbor. Dicha estructura se utiliza
también a su vez para salvar el
desnivel que se produce en la
desembocadura del río Lanjarón,
que vierte sus aguas en el río Íz-
bor precisamente en un punto de
su margen izquierda.
La continua sucesión de barran-
cos escarpados que desembocan
en el Ízbor vuelven a hacer nece-
saria la implantación de los via-
Imagen 3. Puentes de Las Lomas I, en primer
plano, y de Las Lomas II, al fondo a la derecha,
salvando laderas inestables y escarpadas.
Fotografía propia.
Imagen 2. Localización de los viaductos en el tramo entre Ízbor y Vélez en la A-44.
23Nº12. Abri l de 2016
Consta de 15 vanos con una luz
máxima de 140 metros en unos
de ellos y el tablero está com-
puesto por cajón monocelular de
hormigón pretensado con almas
inclinadas, siendo de canto varia-
ble en un tramo de 270 metros
construido mediante voladizos
sucesivos y de sección constante
en el resto de su longitud ejecuta-
da con autocimbra.
2-Viaducto de Las Lomas I: de
478 metros de longitud divididos
en 11 vanos, sus pilas llegan hasta
los 46 metros de altura y el table-
ro es de hormigón armado y vi-
gas artesa de 40 metros de luz.
3-Viaducto de Las Lomas II: de
características estructurales seme-
jantes al anterior viaducto, éste se
extiende durante 158 metros de
longitud divididos en 4 vanos.
4-Viaducto del Embalse de Rules
o del Guadalfeo: se trata de un
puente de 585 metros de longitud
divididos en 5 vanos de luces de
hasta 140 metros y cuyas pilas
llegan hasta los 90 metros de al-
tura. La sección transversal del
tablero es una celosía metálica en
W constituida por tres cajones
pentagonales superiores de 1 me-
tro de canto y dos cajones de
iguales dimensiones en el cordón
inferior. Sobre esta sección metá-
lica se dispone una losa de hor-
migón armado.
5-Viaducto de Miranda: tiene 360
metros de longitud con un total
de siete pilas, de las cuales la más
alta posee 50 metros de altura. La
tipología del tablero es de hormi-
gón armado y viga artesa de 40
metros.
6-Viaducto de Vicario: su tablero
de 175 metros de largo se apoya
sobre sus dos estribos y su única
pila central de 63,5 metros. La
sección del tablero se forma por
un cajón metálico de acero es-
tructural con sistema de puntales
y jabalcones sobre el que se hor-
migona una losa forjado nervada.
El proceso constructivo emplea-
do es el sistema de empuje me-
diante nariz.
Las pilas en todos ellos son de
hormigón armado unicelulares y
únicamente varía la sección rec-
tangular u octogonal y el encofra-
do utilizado deslizante o trepante.
COMENTARIO ESTRUC-
TURAL
La tipología estructural que nos
podemos encontrar en esta se-
cuencia de puentes es variada y
en algunos casos completamente
distinta, llegando a distinguirse
desde secciones de tablero metá-
lico a otras de hormigón armado.
Para entender mejor la repercu-
sión estructural y dimensional de
este conjunto ingenieril se pue-
den señalar como características
fundamentales las siguientes
cuestiones de cada uno de los
viaductos del tramo:
1-Viaducto de Ízbor o de Rules:
dispone de una longitud total de
924,63 metros y una altura media
de pilas superior a los 63 metros.
“La tipología estructural que nos podemos encontrar en esta secuencia de puentes es
variada y en algunos casos completamente distinta”
24 Nº12. Abri l de 2016
Imagen 4. Tablero de cajón metálico con jabalcones y puntales bajo losa forjado nervada. Tramo entre uno
de los estribos y la pila central única del Puente de Vicario.
Fotografía propia.
siste en una estructura comple-
mentaria que actúa reduciendo
los esfuerzos durante el empuje a
través de unos cables que pasan
por la cabeza de dicha torre y se
articulan tanto a la celosía a lan-
zar en su extremo en voladizo
como simétricamente en la parte
posterior del tablero.
Este procedimiento de atiranta-
miento realiza la función de un
pretensado exterior disminuyen-
do los momentos flectores por
peso propio y los esfuerzos que
tienen lugar al apoyar las prime-
ras secciones del tablero a la pila.
Unos gatos hidráulicos se encar-
gan de empujar la celosía hasta
que ésta se apoya en la pila y se
desactiva la tensión de los tenso-
res.
Otros gatos hidráulicos situados
en la base de los tensores de ati-
rantamiento varían la tensión en
los cables, varían los esfuerzos de
las secciones en voladizo y dismi-
nuyen la flecha de flexión de di-
cho voladizo durante el empuje.
La gran longitud de los vanos del
viaducto suponía que este proce-
dimiento se llevara a cabo sobre
dimensiones excepcionales.
A todo esto hay que añadir que el
trazado geométrico del puente
venía dado en planta por una cur-
va de 17200 metros y en alzado
por una pendiente descendiente
del 0,2075, con lo que contaba
con el añadido de la necesaria
precisión en la colocación defini-
tiva de la estructura para satisfa-
cer dichas imposiciones geomé-
tricas.
En resumen, se puede considerar
sin ningún género de dudas que
los puentes sobre las aguas de
Rules constituyen un desafío in-
genieril de gran envergadura.
EL RETO CONSTRUCTIVO
Evidentemente, la gran cantidad
de condicionantes mencionados
anteriormente junto con la diver-
sidad de tipos de puentes proyec-
tados suponían un auténtico reto
constructivo para las empresas
que ejecutaron las obras. Aunque
es de especial interés mencionar
que el reto particular más asom-
broso recaía en la materialización
del Viaducto sobre el Embalse de
Rules, dado que es uno de los
puentes metálicos con mayores
luces llevadas a cabo mediante el
procedimiento de empuje.
Este mecanismo constructivo se
basa en construir el tablero metá-
lico, que en este caso es una celo-
sía con sección en forma de W,
en un parque de fabricación ubi-
cado en uno de los estribos e ir
empujándolo con la ayuda de
unos elementos de empuje o ga-
tos hidráulicos. La gran luz de
dos de sus vanos centrales (140
metros) requirió la ayuda de una
torre de atirantamiento de 40
metros de altura. Esta torre con-
Imagen 6. Puente del Embalse de Rules o del
Guadalfeo durante el proceso de empuje del
tablero mediante torre de atirantamiento.
Ref: Ficha técnica Torroja Ingeniería.
REFERENCIAS Y
BIBLIOGRAFÍA:
Páginas web de:
- Mancomunidad del Valle de
Lecrín y Ayuntamiento de
Durcal. www.adurcal.com/
mancomunidad
- Ministerio de Fomento.
www.fomento.gob.es
- Instituto Geológico y Minero
de España. www.igme.esImagen 5. Puente del Embalse de Rules durante la construcción del forjado superior, ya acabado el empuje.
Fotografía propia.
25Nº12. Abri l de 2016
INTRODUCCIÓN
Noche del sábado 26 de Abril de 1986. Los
ciudadanos de la modesta ciudad de Pripyat (cercana a
Chernobyl, Ucrania) son sorprendidos por una enorme
bola de fuego que ascendía en el cielo, como si de un
sol se tratara. La enorme esfera resplandeciente no era
más que una de las consecuencias producidas por la
explosión del reactor número cuatro de la recién estre-
nada central nuclear. Trataban de averiguar si las turbi-
nas eran capaces de generar tanta electricidad como
para alimentar las bombas de refrigeración en caso de
fallo. Sin embargo, durante la prueba, se produjo un
aumento inesperado de potencia en el reactor, lo que
provocó la catástrofe. La explosión redujo a escombros
la infraestructura (Figura 1) que cubría esta zona de la
central, liberando al exterior la enorme bola de fuego y
una desorbitada cantidad de radiación que no haría más
que seguir creciendo y expandiéndose por todo el glo-
bo terrestre.
La gente salió de sus casas para observar el
fenómeno. Sentían como si estuviera lloviendo, pero
no había ni gota de agua. Algo les caía sobre la piel. Se
trataba nada más y nada menos de partículas radioacti-
vas, enormemente nocivas para el medio ambiente y
para los seres vivos. Algunos de ellos pudieron vivir lo
suficiente para describir más tarde esta situación. Otros
murieron como consecuencia de terribles heridas
(quemaduras radioactivas) , cáncer y otros males pro-
vocados por la peligrosa radioactividad.
El gobierno temía que la noticia del suceso se
extendiera por todo el territorio con las consecuencias
que todo ello conllevaría. Por ello, desarrolló una polí-
tica de ocultismo que lo único que consiguió fue retra-
sar las medidas paliativas y conseguir que mucha gente
que podría haber sido evacuada muriera sin saber qué
estaba sucediendo.
Tras el esfuerzo de muchísimos valientes y la
muerte de la mayor parte de ellos, se consiguió cons-
truir un armazón de hormigón que envuelve la zona de
principal emisión radioactiva. La nube que ya se había
emitido, fue expandiéndose y llegó prácticamente a
todos los rincones del mundo. En España, varias cen-
trales nucleares (equipadas con medidores) detectaron
la presencia de radioactividad. Afortunadamente, la
concentración fue disminuyendo a medida que se aleja-
ba del centro de sucesos o zona 0.
Hoy en día, la ciudad de Pripyat y los alrededo-
res se encuentran totalmente deshabitados. Se cuenta
que existe algunas especies de animales que sí son ca-
paces de habitar las zonas contaminadas. Sin embargo,
la sensación que transmite lo que queda hoy en día, es
de un paraje totalmente deshabitado, exceptuando a
organismos resistentes a la radioactividad y seres vivos
mutados y adaptados, uno de las tantas consecuencias
de la radioactividad. En la Figura 2 se puede observar
la famosa noria del parque de atracciones de Pripyat,
LA RADIOACTIVIDAD
JOSÉ MANUEL IBÁÑEZ POVEDA. INGENIERO INDUSTRIAL.
26 Nº12. Abril de 2016
Figura 1: El reactor.
Ref: www.boston.com
empleada en diversos largometrajes y buque insignia de
la desolación que produce la radioactividad allí por
donde pasa.
LA RADIOACTIVIDAD
Gracias a sucesos como el de Chernóbyl o Fu-
kushima podemos ver el poder de destrucción de la
radioactividad en contraposición de los beneficios que
aporta la energía nuclear a la sociedad. Pero, ¿Qué es
exactamente la radioactividad?
La radioactividad se puede definir como el fe-
nómeno físico a través del cual los núcleos de determi-
nados elementos de la tabla periódica emiten
"radiaciones" en forma electromagnética (rayos X y
rayos Gamma) o en forma corpuscular (partículas Alfa,
partículas Beta, neutrones). Para seguir desarrollando el
concepto de radioactividad debemos hacer alusión a
los isótopos. Los isótopos son átomos que pertenecen
a un mismo elemento químico de la tabla periódica,
que disponen del mismo número de protones pero
distinto número de neutrones. Por lo tanto tendrán
igual número atómico pero difieren en la masa atómi-
ca. Algunos se pueden encontrar en la naturaleza
(Uranio 235 y Uranio 238) y otros son creados artifi-
cialmente por el ser humano (Yodo 129, Yodo 131,
Yodo 133).
La radioactividad es una propiedad intrínseca
de los isótopos que son considerados "inestables", es
decir, que en busca de su estado fundamental necesitan
perder energía y lo hacen de forma espontánea. Pueden
variar la energía de sus electrones (emisión de rayos X),
de sus nucleones (rayos Gamma) o de otras partículas,
variando su naturaleza y pasando a ser un átomo más
ligero y por lo tanto, un elemento distinto en la tabla
periódica. Un ejemplo podría ser el Uranio, que tras el
paso de los siglos se acaba convirtiendo en Plomo Pb.
A pesar de ser un fenómeno que se da de forma natu-
ral en los isótopos inestables, también es posible pro-
vocar la emisión de energía mediante el bombardeo de
núcleos estables con las partículas apropiadas. Este
proceso se conoce como radioactividad artificial o in-
ducida y basándose en este principio se obtienen apli-
caciones beneficiosas de la radioactividad para la socie-
dad, como las radiografías o la obtención de energía en
las centrales nucleares (siempre que se haga de forma
controlada).
En la Figura 3 podemos observar el poder de
penetración de los distintos tipos de radioactividad ci-
tados. Las partículas Alfa, son núcleos de Helio (dos
protones y dos neutrones, carga total positiva) y son
poco penetrantes (las detiene una simple hoja de papel)
pero muy ionizantes. Las partículas Beta son flujos de
electrones y a pesar de tener un poder de penetración
mayor (un panel de metacrilato para detenerlas) son
menos ionizantes que las anteriores. La radiación
Figura 2: La noria de Pripyat.
Ref: labitacoradelmiedo.wordpress.com
27Nº12. Abri l de 2016
toallitas fabricadas para este fin. Conviene saber que
los órganos reproductores son 50 veces más vulnera-
bles que la piel frente a la radiación. Otras partes como
la glándula tiroides, el hígado o la médula ósea también
presentan una mayor debilidad hacia este fenómeno. El
segundo factor está relacionado con el tiempo de expo-
sición (mayor tiempo en contacto conlleva un mayor
riesgo y mayor cantidad de daños en el organismo).
Por último, el tercer factor es la concentración de la
radiación. A mayor concentración, mucho mayor ries-
go. Como claro ejemplo se puede describir lo que suce-
día con los ciudadanos que trabajaron en el reactor nú-
mero 4 de la central de Chernóbyl. La concentración
de radiación era tan alta en determinadas zonas, que
algunos trabajadores, tratando de realizar tareas como
soldar, contribuir a construir el sarcófago de hormigón
o simplemente trazar un mapa con la distribución de
las nubes radioactivas, morían en apenas unos segun-
dos (a pesar de portar pesadas protecciones de plomo).
Otra característica a destacar de la radiación es
la forma caprichosa de distribuirse, ya que es de forma
totalmente no uniforme. Es posible que nos encontre-
mos en una zona con una concentración muy baja o
nula y unos metros adelante la concentración se dispa-
re a niveles desorbitados. Aquéllos que trazaban los
mapas radioactivos en el lugar del desastre, en ocasio-
nes tenían la mala fortuna de encontrarse con una nube
Gamma se trata de ondas electromagnéticas y debido
a su alto poder de penetración es necesario emplear un
panel de plomo para detenerlo. La radiación neutró-
nica (neutrones) posee un gran poder de penetración,
por ello es necesario usar hormigón para frenar su
avance.
Algunos isótopos irradian durante cortos pe-
riodos de tiempo, volviéndose estables y, por tanto,
dejando de emitir radiación. Sin embargo, algunos de
ellos mantienen su actividad radioactiva durante mu-
cho tiempo (en ocasiones, hasta miles de millones de
años). Por ello, el medio ambiente de las zonas afecta-
das por este tipo de catástrofes o simplemente en los
lugares que se guarda los residuos radioactivos, queda
totalmente dañado y prácticamente irrecuperable, in-
cluyendo tanto la flora como la fauna. La mejor solu-
ción es, sin duda, evitar a toda costa este tipo de acci-
dentes o almacenar los residuos en lugares habilitados y
preparados para ello.
Los riesgos para la salud dependen principal-
mente de tres factores. El primero de ellos es el tipo de
contacto con el agente radioactivo. La situación más
peligrosa es la ingesta o la aspiración de partículas ra-
dioactivas, mientras que la adhesión de estas partículas
a la superficie de la piel se considera de menor impor-
tancia ya que, en ocasiones, pueden ser retiradas con
Figura 3: Poder de penetración de la radiación.
Ref: losmundosdebrana.wordpress.com.
28 Nº12. Abri l de 2016
de alta concentración y morían a los pocos segundos.
Los compañeros que venían detrás, con la información
de los caídos predecesores seguían avanzando en el
trazado de los mapas.
Tras conocer un poco más de cerca el compor-
tamiento y las vicisitudes de la radiación, comprende-
mos por qué se cuestiona en ocasiones el empleo de la
energía nuclear, capaz de proporcionarnos una gran
cantidad de energía pero con la certeza de que estamos
manipulando un fenómeno capaz de destruirnos.
EL ACCIDENTE DE FUKUSHIMA
No es necesario remontarnos a 1986 para en-
contrar un accidente con consecuencias radioactivas.
En el año 2011 se produjo un terremoto de magnitud 9
en la escala sismológica que castigó con fuerza a la civi-
lización nipona. Además de los propios destrozos y
pérdidas de vidas humanas provocados por el seísmo
en sí, se desarrollaron una serie de consecuencias pos-
teriores. Una de ellas fue el desastre de la central de
Fukushima.
El 11 Marzo, el día que se produjo el terremo-
to los reactores nucleares 1, 2 y 3 de la central se en-
contraban operando en condiciones habituales, mien-
tras que los reactores 4, 5 y 6 no se encontraban en
funcionamiento debido a tareas de mantenimiento pre-
ventivo. Tras la detección del seísmo, los tres reactores
en funcionamiento se desconectaron automáticamente,
con la consecuente parada de producción de energía
eléctrica. En condiciones normales, los equipos de re-
frigeración pueden extraer energía del tendido eléctrico
sin problema alguno, pero aquel día el terremoto había
dañado la red, dejándola completamente inservible. La
siguiente medida de seguridad para que no se detenga
la refrigeración consistía en la generación de electrici-
dad mediante grupos electrógenos diésel. Sin embargo,
el sistema no estaba preparado para el tsunami que
irrumpió en la central devastando todo lo que encon-
traba por su paso.
La enorme magnitud de dicho tsunami, que
alcanzó 40,5 metros de altura en algunos puntos, junto
con la ausencia de muro de contención desembocó en
la incapacitación absoluta de los sistemas de refrigera-
ción.
Las primeras consecuencias aparecieron en
forma de fusión parcial del núcleo en los reactores 1, 2
y 3 y diversas explosiones de hidrógeno. Además de los
incendios que se produjeron, los restos del combusti-
ble nuclear almacenados en piscinas habilitadas para
ello empezaron a sobrecalentarse debido también a la
falta de refrigeración con la consecuente emisión de
radiación.
Las autoridades se vieron obligadas a evacuar
la población que habitaba los alrededores. El radio de
evacuación fue siendo ampliado hasta llegar a los 40
km. Se declaró inmediatamente el estado de emergen-
cia nuclear. Finalmente se constató que en los reactores
1, 2 y 3, en funcionamiento durante el terremoto, se
había producido la fusión del núcleo.
Al igual que ocurrió en Pripyat en 1986, se en-
contraron multitud de consecuencias derivadas del ac-
cidente radioactivo. Otro hecho histórico que nos ad-
vierte sobre el empleo de esta asombrosa fuente de
energía.
Figura 4: Los gatos del tejado. Héroes olvidados.
Ref: elgoon.blogspot.com
29Nº12. Abri l de 2016
“Según la naturaleza del contacto con la radiación la salud se verá afectada en mayor o
menor medida.”-
Si existe una construcción que
aproveche perfectamente la luz
natural tendrá que utilizar estos
dos sistemas conjuntamente.
La principal diferencia entre am-
bos es la necesidad de una inver-
sión en maquinaria para el apro-
vechamiento activo de la radia-
ción solar. Esta inversión es ele-
vada y su amortización depende-
rá exclusivamente del ahorro
energético que produzca, será
una mejor inversión en lugares
donde la radiación solar sea ma-
yor.
El artículo se centrará en los sis-
temas pasivos, ya que, a priori, no
conllevan un aumento del presu-
puesto de la obra y su rendimien-
to puede ser tan eficiente como la
inversión en sistemas activos de
aprovechamiento solar.
La radiación solar
Como punto de partida, es nece-
sario explicar brevemente como
percibimos la radiación solar. La
a atmósfera, las nubes, el aire, la
contaminación, ejercen de filtros
de la radiación solar, dejando lle-
gar a la superficie solo un peque-
ño porcentaje de esta radiación.
Pero aún es mas importante el
espesor de atmósfera que tiene
que atravesar, que va variando
según la hora del día y el mes del
año.
Desde hace unas décadas, está
surgiendo una nueva actitud en la
arquitectura. Después de una
época donde el confort interior
de un edificio se confiaba única-
mente a máquinas, los motivos
económicos provocaron una re-
cuperación de los modelos de la
arquitectura vernácula. El lugar,
los materiales locales y sobre to-
do el sol, están tomando una im-
portancia capital en esta arquitec-
tura.
El aprovechamiento de la luz
solar puede reducir hasta un 50%
el gasto energético de una vivien-
da, lo que conlleva un ahorro
importante tanto económica co-
mo ecológicamente. Además,
está científicamente probado, que
la luz solar influye positivamente
en la vida cotidiana de las perso-
nas.
Sistemas activos y pasivos
Existen dos formas de aprove-
char la luz solar: los sistemas
activos y los sistemas pasivos.
Los sistemas solares activos utili-
zan aparatos mecánicos para pro-
ducir energía o transportar el ca-
lor. Los paneles solares térmicos
o fotovoltaicos son los principa-
les exponentes de este sistema.
Los sistemas pasivos emplean
distintos elementos del edificio
para conseguir el máximo confort
posible sin la utilización de me-
dios mecánicos para lograrlo.
Esto no es nada nuevo, la arqui-
tectura tradicional está llena de
ejemplos de como un análisis del
clima, del territorio, de los mate-
riales y su consiguiente aplicación
a los elementos arquitectónicos,
provoca una mejora notable del
ambiente interior.
LA RADIACIÓN SOLAR EN
LA EDIFICACIÓN
YERAY ESTÉVEZ CERVIÑO. ARQUITECTO.
30 Nº12. Abri l de 2016
Imagen 1. Balance de la radiación solar (w/m2).
Ref: www.meteovision.es
intercambio de calor. Existen tres
procesos básicos de transferencia
de calor: conducción, convección
y radiación.
El calor absorbido por un mate-
rial se desplaza por el cuerpo por
conducción. Las moléculas más
calientes transfieren su energía a
las moléculas contiguas con me-
nor temperatura.
La convección es el fenómeno
por el que un material transfiere
su calor a las moléculas de un
fluido. Cuando el fluido se calien-
ta, baja su densidad y se desplaza
hacia arriba.
Por último, la radiación es la pro-
piedad que tiene cada material de
emitir energía en todas las direc-
ciones por el movimiento de sus
moléculas.
Almacenamiento de calor
Tan importante como captar la
radiación solar es almacenar el
calor recibido. Es importante la
utilización de materiales con gran
inercia térmica, es decir, con una
alta capacidad de conservar el
calor.
Estrategias en invierno
Las directrices básicas para un
buen sistema pasivo de calefac-
ción solar son, primero, la facha-
da sur con grandes superficies de
vidrio para captar la máxima ra-
diación solar y, segundo, un ma-
terial de buena inercia térmica
para absorber el calor y distri-
buirlo, piedra o cerámica.
Como es lógico, el uso de algunas
de estas estrategias dependerá de
la época del año en que nos en-
contremos y da la ubicación de la
edificación. No se tienen las mis-
mas necesidades climáticas en
verano que en invierno, ni en
Bilbao que en Murcia.
A continuación se desarrollarán
unas serie de estrategias a tener
en cuenta en la edificación.
La inclinación del eje de la tierra
hace que, estando en el hemisfe-
rio Norte, en los meses de verano
se reciban más horas de radica-
ción que incide perpendicular-
mente en la superficie. Este ángu-
lo decrece en los meses de in-
vierno.
El sol traza aparentemente un
arco sobre el cielo, de Este a
Oeste y que pasa por el Sur al
mediodía solar. Esto hace que la
orientación Sur reciba la radia-
ción solar directamente, la orien-
tación Norte, sin embargo, no
recibe radiación directa, por lo
que la radiación recibida será mu-
cho menor. En el hemisferio Sur
todas estas premisas serían a la
inversa.
Intercambio térmico
Teniendo claro como se recibe la
radiación solar, ahora pasaremos
a estudiar como se intercambia
este calor recibido. Cuando un
material se calienta, busca un
equilibrio de temperatura con el
entrono, se producen flujos de
Imagen 2. Angulo de incidencia de la radiación solar según la época del año.
Ref: www.decoracionyinteriores.wordpress.com
31Nº12. Abri l de 2016
Imagen 3. Ejemplos de transmisión de calor
por el material con alta inercia térmica.
Ref: www.certificadosenergeticos.com
Distribución
La distribución interior también
debería estar influida por el solea-
miento. Los espacios mas utiliza-
dos, como la sala de estar, tendría
que estar orientados a Sur, mien-
tras que espacios no vivideros
como el garaje, cuartos de instala-
ciones, o aseos, podrían estar
orientados al Norte. Hay que te-
ner en cuenta que es la orienta-
ción más fría y la que menos sol
recibe. Decidir entre las orienta-
ciones Este y Oeste, ya depende
del usuario, en la primera se reci-
be el sol por la mañana y en la
segunda, del mediodía hasta la
puesta de sol.
Situación de las ventanas
El vidrio es un material con una
mala transmitancia térmica, lo
que provoca grandes pérdidas de
calor en el interior de los edifi-
cios. Es importante considerar
donde y como disponer las ven-
tanas.
La mejor orientación para poner
las superficies de vidrio es la Sur,
que en invierno recibe cerca del
triple de radiación que otra orien-
tación. Durante el verano, la fa-
chada Sur recibe gran cantidad de
radiación pero menos que la Es-
te, la Oeste y la cubierta. La
orientación Sur debería tener la
mayor superficie de vidrio, una
moderada en Este y Oeste y una
superficie pequeña en el Norte.
Refrigeración en verano
Como hemos visto, los sistemas
solares pasivos se sustentan en
dos pilares fundamentales, la cap-
tación de calor con ventanas a
Sur, y su almacenamiento con
materiales de gran inercia térmi-
ca. Hasta ahora, las estrategias
que hemos visto tienen el objeti-
vo de calentar un edificio. Estos
elementos empeoran, a priori, el
confort térmico interior en los
meses de verano, pues si no se
controla la captación solar, pue-
den crearse condiciones con altas
temperaturas que pueden resultar
molestas.
Es importante que las ventanas
sean practicables o tengan alguna
rejilla de ventilación, sobre todo
en la parte superior. Por las no-
ches se abren para ventilar, y se
crea una corriente con el aire frío
del exterior que empuja el aire
caliente hacia arriba expulsándolo
al exterior.
Ubicación
En la elección del emplazamiento
del edificio está en juego gran
parte del buen funcionamiento
climático del mismo. Si el objeti-
vo es recibir la mayor cantidad de
radiación posible, se debe elegir
el punto del terreno donde exis-
tan menos obstáculos, edificios
cercanos, árboles existentes o
cualquier elemento que pueda
arrojar sombra o evitar el solea-
miento de nuestra edificación.
La situación ideal climáticamente
sería en la mitad superior de una
ladera con orientación Sur.
Para un eficaz aprovechamiento
de la luz solar, lo ideal es que el
edificio se disponga en un eje
Este-Oeste, exponiendo la máxi-
ma superficie al Sur.
Geometría
La geometría de la edificación
también tiene gran importancia.
Lo ideal en el diseño de un edifi-
cio es que la relación entre super-
ficie exterior y volumen construi-
do sea lo mas pequeña posible.
Teóricamente la forma ideal es
una semiesfera.
32 Nº12. Abri l de 2016
Imagen 4. Optimización de superficies para
evitar pérdidas de calor.
Ref: Neufert
Un sistema de calefacción solar se basa en la captación de radiación con grandes superficies
de vidrio a Sur, y un material con buena inercia térmica para absorber y trasmitir ese calor.
Imagen 5. Distribución de la planta según la
orientación.
Ref: www.renov-arte.es
entrada en invierno. El tamaño
de este voladizo dependerá de la
latitud, pero a modo estimativo,
se puede decir que la longitud en
perpendicular a la fachada está
comprendida entre la mitad y una
cuarta parte de la altura del vi-
drio.
Sin embargo, un sistema fijo no
es la solución ideal. Las pantallas
móviles sería una opción mejor,
ya que pueden adaptarse al sol
mes a mes, pero es una opción
mas costosa y requiere manteni-
miento y mano de obra.
Los elementos de protección in-
terior, como persianas, cortinas,
son menos eficaces pero su uso
está mas generalizado y su man-
tenimiento es casi nulo.
En las orientaciones Este, Oeste
y Norte, las protecciones hori-
zontales son menos eficaces. Un
sistema de lamas verticales evita
mejor la radiación solar y, al igual
que en las horizontales, su efica-
cia mejora al ser móviles.
Vegetación
La vegetación puede jugar un
papel muy importante en la cli-
matización del edificio. La utiliza-
ción de emparrados o arboles a
Sur, es un método muy utilizado
en la arquitectura popular.
La vegetación se corresponde
con el clima, un emparrado man-
tiene sus hojas en verano y las
pierde en invierno, evitando y
permitiendo, respectivamente, la
entrada de rayos de sol. Lo mis-
mo ocurre con los árboles de
hoja caduca, que aparte de otros
beneficios, estéticos, ecológicos,
son un elemento muy eficaz para
conseguir el confort climático
dentro de una edificación.
Como hemos visto existen multi-
tud de formas de conseguir un
confort térmico interior con in-
dependencia de la utilización de
medios mecánicos. Con sistemas
sencillos, sin mantenimiento y
ecológicamente sostenibles, se
puede eliminar o reducir el uso
de calefacción y aire acondiciona-
do, lo que beneficia a nuestros
bolsillos y a la salud del planeta.
Todo parte de un exhaustivo aná-
lisis del clima y de las construc-
ciones tradicionales de cada re-
gión.
Durante el día es importante ais-
larse de la radiación solar, mante-
niendo el edificio cerrado.
Elementos de protección solar
En verano el sol está mas alto
que en invierno, por lo que los
rayos de sol inciden mas perpen-
dicularmente. Esto es beneficio-
so, ya que la radiación directa
entra con mayor dificultad en los
paños de vidrio con orientación
Sur.
Aún así, para evitar un sobreca-
lentamiento en verano, es intere-
sante incorporar en el diseño de
los edificios una serie de elemen-
tos que protejan de la radiación
solar.
Aleros y lamas
Un alero en la parte superior de
una venta con orientación Sur,
evita la entrada directa de radia-
ción solar en verano y permite la
Imagen 7. Efecto de un árbol de hoja caduca
en la climatización de una vivienda.
Ref: www.biuarquitectura.com
33Nº12. Abri l de 2016
REFERENCIAS Y BIBLIOGRAFÍA:
- NEUFERT, Ernst. El arte de proyectar en arquitectura. Editorial Gustavo Gili. Barcelona, 1995.
- MAZRIA, Edward. El libro de la energía solar pasiva. Editorial Gustavo Gili. Barcelona, 1984.
- DÍAZ VELILLA, Jorge Pablo. Sistemas de energías renovables. Ediciones Paraninfo. Madrid, 2015.
- www.eoi.es
Imagen 6. Incidencia solar en un alero en una
ventana con orientación Sur.
Ref: www.sitiosolar.com
En el día a día usamos muchos utensilios metálicos con
formas muy diferentes, vamos a tratar de entender co-
mo es posible moldear esos meta-
les que en principio parecen tan
duros y poco flexibles.
El formado de metales incluye
varios procesos de manufactura
en los cuales se usa la deforma-
ción plástica para cambiar la for-
ma de las piezas metálicas.
La deformación resulta del uso de
una herramienta la cual aplica es-
fuerzos que exceden la resistencia
a la fluencia del metal. Por tanto,
el metal se deforma para tomar la
forma que determinemos.
En general, se aplica el esfuerzo
de compresión para deformar
plásticamente el metal. Sin embar-
go, algunos procesos de formado
estiran el metal, mientras que
otros lo doblan y otros más lo
cortan.
Para formar exitosamente un me-
tal éste debe poseer ciertas propie-
dades. Las propiedades conve-
nientes para el formado son:
Baja resistencia a la fluencia y Alta ductilidad.
Estas propiedades son afectadas por la temperatura. La
ductilidad se incrementa y la resistencia a la fluencia se
reduce cuando se aumenta la tem-
peratura de trabajo.
El efecto de la temperatura da
lugar a la siguiente clasificación:
Trabajo en frío, trabajo en caliente
por debajo de la temperatura de
recristalización y trabajo en calien-
te por encima de la temperatura
de recristalización.
La velocidad de deformación y la
fricción son factores adicionales
que afectan el desempeño del de-
formado de metales.
Cuando el metal se deforma en
frío aumenta su resistencia debido
al endurecimiento por deforma-
ción, creando acritud, pero si el
metal se deforma a una tempera-
tura lo suficientemente elevada
(por arriba del punto de recristali-
zación) no ocurre el endureci-
miento por deformación, en su
lugar se forman nuevos granos
libres de deformación, esta tem-
peratura es aproximadamente al
50% de la temperatura de fusión del metal, llamándose
temperatura de recristalización y se requiere
FUNDAMENTOS DEL FORMADO DE METALES
REBECA ROSADO MARTÍNEZ, ING. TEC. INDUSTRIAL
34 Nº12. Abril de 2016
Imagen. Nº 1 Nos sorprendería la facilidad con la que se traba-
jan los diferentes metales, solo hay que conocer el proceso..
Fuente: www.thefabricator.com
Imagen Nº 2 Los ejemplos de útiles en la vida diaria son muy
numerosos, en la imagen vemos diferentes piezas de automo-
ción Fuente: www.aida-global.com/
aproximadamente una hora para la formación de nue-
vos granos.
Una definición de recristalización que nos permite en-
tender el proceso es: Formación de nuevos cristales
metálicos libres de tensiones, eliminando así el metal
perturbado por la deformación en frío. Operación que
se realiza para purificar sustancias sólidas y que consis-
te en disolver en repetidas etapas sus cristales, favore-
ciendo con ello la formación de otros nuevos.
Un lingote metálico tiene un uso muy reducido hasta
que le es dada una forma tal que pueda usarse en un
proceso de manufactura.
Si el lingote es admitido en frío, se vuelve bastante difí-
cil, si no imposible, convertir el material por medios
mecánicos en una forma estructural, acero en barra o
lámina.
Sin embargo, si el lingote se trabaja en caliente, puede
martillarse, prensarse, laminarse o extruirse en otras
formas. Debido a la oxidación y otras desventajas del
trabajo en caliente a temperaturas elevadas, la mayoría
de los metales ferrosos se trabajan en frío o se termi-
nan en frío después del trabajo en caliente para obtener
un buen acabado superficial, alta exactitud dimensional
y mejorar las propiedades mecánicas.
Las características principales son:
Por encima de la temperatura mínima de recristaliza-
ción la forma de la pieza se
puede alterar significativamen-
te.
Se requiere menor potencia
para deformar el metal.
Las propiedades de resistencia
son generalmente isotrópicas
debido a la ausencia de una
estructura orientada de granos
creada en el trabajo en frío.
El trabajo en caliente no pro-
duce endurecimiento de la
pieza por deformación.
Precisión dimensional más
baja.
Mayores requerimientos de
energía (piezas más resisten-
tes).
Oxidación de la superficie de
trabajo.
El utillaje está sometido a elevados desgastes y consi-
guientes mantenimientos.
Las tecnologías de fabricación para el proceso de con-
formado en caliente son:
Laminación, forja, extrusión, estirado, doblado y em-
butido.
Teniendo en cuenta los usos de los productos metáli-
cos obtenidos (automóvil, minería, ferrocarril, cons-
trucción naval, etc…) y el volumen fabricado, se consi-
deran como procesos más relevantes dentro del con-
formado en caliente la laminación en caliente y la forja.
Imagen Nº 3. Diagrama de flexión/deformación. Aquí se ve claramente cuando un material pasa de estar en su zona
elástica a su zona plástica, donde las deformaciones no se recuperan por completo..
Fuente: www.sites.upiicsa.ipn
Imagen Nº 4. La deformación por temperatura de un material cambia su red
cristalina. Fuente: www.batanga.com
35Nº12. Abri l de 2016
tas que no son eliminables.
-Una temperatura baja de calentamiento origina la dis-
minución de la plasticidad del acero, eleva la resistencia
de deformación y puede originar grietas durante la la-
minación.
Por tanto la temperatura óptima de trabajo no es un
solo valor, sino que varía en cierto rango de temperatu-
ra entre un límite superior y un límite inferior.
Un efecto del trabajo en caliente con la operación de
laminado, es el refinamiento del grano causado por
recristalización.
El laminado en caliente tiene las ventajas siguientes:
-La porosidad en el metal es considerablemente elimi-
nada. La mayoría de los lingotes fundidos contienen
muchas pequeñas sopladuras. Estas son prensadas y a
la vez eliminadas por la alta presión de trabajo.
-Las impurezas en forma de inclusiones son destroza-
das y distribuidas a través del metal.
-Los granos gruesos o prismáticos son refinados. Dado
que este trabajo está en el rango recristalino, se mantie-
ne hasta que se proporcione una estructura de grano
fino.
-Las propiedades físicas generalmente se mejoran, prin-
cipalmente debido al refinamiento del grano. La ducti-
lidad y la resistencia al impacto se perfeccionan, su re-
sistencia se incrementa y se desarrolla una gran homo-
geneidad en el metal.
-La cantidad de energía necesaria para cambiar la forma
del acero en estado plástico es mucho menor que la
requerida cuando el acero está frío.
Desventajas del laminado en caliente:
Debido a la alta temperatura del metal existe una rápi-
da oxidación o escamado de la superficie con acompa-
ñamiento de un pobre acabado superficial. Como re-
sultado del escamado no pueden mantenerse toleran-
cias cerradas.
Aquí vamos a tratar solo el laminado en caliente ya que
es un método de fabricación más interesante y más
extendido que la forja.
-Laminación en caliente:
Es un conformado en el cual se hace pasar el metal por
trenes de rodillos que le dan una forma progresivamen-
te más parecida a la deseada.
La laminación es la deformación plástica de los metales
o aleaciones, realizada por la deformación mecánica
entre cilindros.
En el proceso de laminado en caliente, el lingote cola-
do se calienta al rojo vivo en un horno denominado
foso de termodifusión, donde básicamente los tochos,
se elevan a una temperatura entre los 900°C y los
1.200°C.
Se calientan con el fin de proporcionar ductilidad y
maleabilidad para que sea más fácil la reducción de área
a la cual va a ser sometido.
Durante el proceso de calentamiento de los tochos se
debe tener en cuenta:
-Una temperatura alta de calentamiento del acero pue-
de originar un crecimiento excesivo de los granos y un
defecto llamado “quemado del acero” que origina grie-
36 Nº12. Abri l de 2016
Imagen Nº 5 .Los trenes de laminado deforman el material y cambian el tama-
ño del grano. Fuente: https://www..weebly.com
Cuando el metal se deforma en frío aumenta su resistencia debido al endurecimiento por
deformación.
El equipo para trabajo en caliente y los costos de man-
tenimiento son altos, pero el proceso es económico
comparado con el trabajo de metales a bajas tempera-
turas.
Con el paso de los años ha habido una clara tendencia
a optimizar el proceso. Un tren de laminación puede
definirse como máquina de fabricación para trabajar
materiales por presión entre cilindros rotativos. Pero
esta definición no está completa, ya que en la mayoría
de los casos la laminación de un metal necesita varias
etapas tecnológicas, siendo además necesarias ciertas
operaciones auxiliares, como pueden ser:
El transporte de los materiales, su almacenaje, manipu-
lación, corte en las longitudes requeridas, recalentado-
res, enfriadores, mecanizado posterior, etc...
La demanda de fabricación en serie del material lami-
nado lleva consigo un alto grado de mecanizado y por
tanto un alto grado de automatización. Las máquinas
que trabajan el metal laminado se colocan en una cade-
na de fabricación y se conectan con los medios necesa-
rios que permitan transportar las piezas de una máqui-
na a la siguiente. Estos sistemas de máquinas son típi-
cos de los talleres más modernos y suelen englobarse
también en el tren de laminación.
El primer par de rodillos por el que pasa el lingote se
conoce como tren de desbaste o de eliminación de as-
perezas. Después del tren de desbaste, el acero pasa a
trenes de laminado en bruto y a los trenes de acabado
que lo reducen a láminas con la sección transversal co-
rrecta.
Hay que tener en cuenta que también los rodillos se
llegan a deformar un poco debido a las altas presiones
que se alcanzan.
Un tren de laminación moderno de gran producción
es, generalmente, un conjunto complejo de máquinas y
mecanismos que realizan una serie de operaciones con-
secutivas e interrelacionadas.
El desarrollo de la tecnología, en general, y de la auto-
matización en particular, subraya el principio de enlazar
todas las etapas de la fabricación, desde la materia pri-
ma hasta el embalaje de los productos terminados, en
una cadena automatizada.
Según todos los requisitos que tengan las diferentes
etapas de la fabricación nos encontramos con diferen-
tes tipos de Trenes de Laminación (según disposición
en planta):
Abierto: con juegos de rodillos en línea, usando el mis-
mo motor para accionarlos.
Continuos: juegos de rodillos unos detrás de otros, sin
interrupciones.
Cross-Country: son mixtos de Continuos y Abiertos
(zig-zag).
La elección de un sistema u otro, o incluso disponer de
varios trenes, del mismo o de diferentes tipos, se toma-
rá teniendo en cuenta el Lay-out de nuestro lugar de
trabajo, de la longitud de las piezas a formar y por su
puesto habrá que llegar a una solución de compromiso
que englobe lo técnico con lo económico.
37Nº12. Abri l de 2016
Una temperatura alta de calentamiento puede originar un crecimiento excesivo de los
granos y un defecto llamado “quemado del acero” que origina grietas no eliminables.
REFERENCIAS Y BIBLIOGRAFÍA:
- Protocolo www.escuelaing.edu.co.
-www.weebly.com
-Wikipedia, Procesos Térmicos.
-www.batanga.com
-Wikipedia, Laminación
-www.thefabricator.com
-www.sites.upiicsa.ipn
mente de 1 000 a 10 000 veces mayor que el volumen
original del espacio donde se alojó el explosivo. Estos
fenómenos son aprovechados para realizar un trabajo
mecánico aplicado a la rotura de materiales pétreos
constituyendo lo que se conoce como la “técnica de
voladura de rocas”.
Hoy en día, los explosivos constituyen una herramienta
básica y fundamental tanto para la explotación minera
como para las grandes obras de ingeniería civil.
RESEÑA HISTORICA
El uso de los explosivos ha evolucionado constante-
mente, desde unos inicios bastante rudimentarios hasta
llegar a los sofisticados productos comerciales que
existen hoy día.
El primer explosivo conocido fue la pólvora, llamada
también “polvo negro”. Se cree que empezó a utilizar-
se hacia el siglo XIII en Europa, donde aparecen ins-
trucciones sobre su uso en escritos del filósofo francis-
cano inglés Roger Bacon, siendo el único explosivo
conocido durante siglos. Su invención y primeros usos
se atribuye históricamente a los chinos que pudieron
haber sido los creadores de esta mezcla de sustancias
para la fabricación de fuegos artificiales.
Un material ex-
plosivo se puede
definir como un
compuesto o una
mezcla de sustan-
cias en estado
sólido, líquido o
gaseoso, que me-
diante reacciones
químicas de óxi-
do-reducción, es
capaz de trans-
formarse en un
breve espacio de
tiempo (del orden de fracciones de microsegundo), en
un producto gaseoso y condensado, cuyo volumen ini-
cial se convierte en una masa gaseosa que alcanza altas
temperaturas y presiones muy elevadas.
Así, los explosivos comerciales son una mezcla de sus-
tancias, combustibles y oxidantes, que incentivadas
debidamente, dan lugar a una reacción exotérmica muy
rápida, que genera una serie de productos gaseosos a
alta temperatura y presión, químicamente más estables,
y que ocupan un volumen mucho mayor, aproximada-
EXPLOSIVOS INDUSTRIALES
ALVARO M. SÁNCHEZ GUISÁNDEZ. GRADUADO EN INGENIERÍA MINERA.
Imagen Nº1. Ilustración representando el inicio de
un proyectil por parte de un guerrero chino, a los
cuales se les atribuye la invención de la pólvora
negra. www.confuciomag.com
38 Nº12. Abril de 2016
líquido presentaba múltiples problemas a la hora de
hacer uso de él en labores industriales ya que se filtraba
a través de las hendiduras de la roca cuando se vertía
en un barreno, con la consiguiente pérdida de efectivi-
dad, y se requería de un gran cuidado para colocarlo y
detonarlo debido a su gran inestabilidad. Fueron tan
frecuentes los accidentes durante su uso, que incluso se
prohibió su empleo en algunos países y la voladura de
un barco cargado con gran cantidad de este explosivo,
causó tal conmoción, que se creyó necesario impedir
radicalmente su empleo en todos los países civilizados
del mundo.
Fue el químico sueco Alfred Nobel quien resolvió el
problema de los explosivos enérgicos en 1866. Mezcló
la nitroglicerina con ciertas clases de tierras porosas y
produjo una especie de serrín, que llamó «dinamita».
Dos veces más enérgica que la pólvora y mucho más
segura, la dinamita revolucionó la ciencia de los explo-
sivos. Hizo posible la ejecución de las grandes obras de
ingeniería en nuestros tiempos y dio lugar al desarrollo
de la industria minera en el mundo desde 1870.
La invención de la dinamita, y con ella los modernos
explosivos industriales, ha marcado una época en la
historia de la civilización, permitiendo al hombre cam-
biar la faz de la Tierra en función de sus necesidades.
Alfred Nobel, además de ser un excelente químico,
ingeniero e inventor, también destaca por ser el crea-
dor de los premios que llevan su nombre.
ORIGEN DE LOS MODERNOS EXPLOSIVOS
Hasta bien entrado el siglo XIX la pólvora negra fue el
explosivo más energético disponible que podía usarse
con unas medianas condiciones de seguridad. Fue en
este siglo cuando la investigación en el campo de los
explosivos comenzó a despegar.
En 1847 el químico italiano Ascanio Sobrero , traba-
jando en la Universidad de Turín, trató la glicerina con
ácido nítrico y produjo el primer explosivo energético,
la nitroglicerina. Este nuevo compuesto alcanzó una
trágica notoriedad con el nombre de «aceite explosivo»,
pues se trataba de un compuesto muy sensible que ex-
plotaba al menor impacto. Al tratarse de un explosivo
Imagen Nº2. Alfred Nobel, Inventor de la dinamita y creador de los premios
que llevan su nombre.
Imagen Nº3. Monte Rushmore, EEUU. Ejemplo de como el poder de los explosivos es capaz de esculpir el paisaje a voluntad.
39Nº12. Abri l de 2016
común en minería y construcción civil estando normal-
mente destinado su uso para realizar voladuras en roca.
Cualquier explosivo posee unas características diferen-
ciadoras que hacen que resulte más o menos idóneo
para una aplicación concreta. Esta diferenciación no
sólo se da entre las diferentes familias de explosivos,
sino incluso dentro de cada una de ellas.
La elección de un explosivo, teniendo en cuenta sus
propiedades físicas y químicas, se basa en los siguientes
parámetros:
• Potencia explosiva
• Velocidad de detonación
• Densidad de encartuchado
• Resistencia al agua
• Sensibilidad
• Humos.
A continuación se hacen algunas consideraciones rela-
tivas a cada una de estas propiedades.
Potencia explosiva
En general, la potencia puede definirse como la capaci-
dad de un explosivo para quebrantar y proyectar la ro-
ca a volar., aunque en la voladura de rocas blandas un
explosivo con baja potencia y velocidad de detonación
quebranta y proyecta mejor la roca que un explosivo
más potente.
Realmente, esta propiedad es el resultado de una com-
CLASIFICACIÓN DE LOS EXPLOSIVOS
En términos generales los explosivos por su forma de
reacción se clasifican en: explosivos químicos y explo-
sivos nucleares.
Los explosivos químicos actúan por procesos de reac-
ción química de detonación producidos por efecto de
una onda de choque. Están mayormente vinculados a
compuestos nitrados y son los de aplicación común en
minería y construcción civil. Los nucleares están vincu-
lados a la desintegración de materiales como uranio
235 y plutonio, proceso que desprende inmensas canti-
dades de energía. Su empleo actual es en el campo mili-
tar y de investigación.
Aunque no se clasifican como explosivos, algunos pro-
ductos especiales actúan como una explosión física sin
detonación previa, producida por la súbita expansión
de gases inertes licuados como el CO2.
Un ejemplo de esto son los sistemas
Cardox. Este sistema remplaza los ex-
plosivos por tubos que son llenados
con CO2 líquido (exactamente igual
que un extintor). Cuando una pequeña
carga eléctrica es aplicada al tubo, el
reactivo químico hace que, de forma
instantánea, el CO2 líquido se trans-
forme en gas. Su empleo está limitado
a ambientes con alto nivel de grisú en
las minas de carbón, o donde no se
puede emplear explosivos convencio-
nales.
EXPLOSIVOS QUÍMICOS INDUS-
TRIALES
Como se ha comentado anteriormente
son los explosivos de aplicación más
Imagen Nº5. Diferentes tipos de explosivos industriales en diferentes formatos de encartuchado y granel.
www.maxam.com
40 Nº12. Abri l de 2016
Imagen Nº5. Una de las características de los explosivos es la mayor o menor
producción de humos tóxicos, que se hace critica en trabajos de interior.
http://www.response.cl/
binación entre la presión de detonación y el volumen
de gases a alta presión y temperatura producidos en la
explosión.
Velocidad de detonación
La velocidad de detonación de un explosivo puede de-
finirse como la velocidad con que la onda de detona-
ción se propaga a través del explosivo.
La energía cedida por un explosivo en su detonación
puede separarse en dos términos. Por un lado, la de la
onda de detonación, encargada de crear fisuras en la
roca y por otro la de los gases a elevada presión y tem-
peratura, que deben proceder al agrandamiento de las
grietas iniciales y al desplazamiento de la roca.
Los explosivos de alta velocidad se denominan rompe-
dores. Son explosivos susceptibles de empleo en forma
de cargas adosadas, es decir, sin confinamiento, por lo
que el trabajo producido por los gases tiene poco inte-
rés. Son, además, explosivos adecuados para la voladu-
ra de rocas duras y frágiles, donde la fisuración se pro-
duce por esa potencia de la onda de detonación. Por el
contrario, si la roca es blanda y deleznable, es mejor
que la explosión dé lugar a una gran cantidad de gases.
La velocidad de detonación es una propiedad determi-
nante en la selección del tipo de explosivo idóneo para
la voladura de una roca en particular.
Densidad de encartuchado
La densidad de encartuchado depende del propio peso
específico del explosivo y del
grado de compactación. Se determina de forma que en
cada explosivo sea la óptima para desarrollar su máxi-
ma velocidad, potencia, etc.
Resistencia al agua
El comportamiento de cualquier explosivo ante la hu-
medad o el agua depende de los elementos que entren
a formar parte de su composición y de su propia cons-
titución. En los explosivos gelatinosos, a medida que
aumente la proporción de sales oxidantes disminuye la
resistencia al agua, especialmente en el caso de nitrato
amónico, ya que este producto es altamente higroscó-
pico. Por el con-
trario, a medida
que aumenta la
proporción de
nitroglicerina
aumenta la resis-
tencia al agua.
Ésta es la razón
por la que las
gomas tienen una
mejor resistencia
al agua que los
explosivos pulve-
rulentos.
Estas reglas dejan de cumplirse en los hidrogeles o en
las modernas emulsiones, las cuales, por su propia
constitución, poseen una excelente resistencia al agua.
Sensibilidad
La sensibilidad puede definirse como la facilidad relati-
va de un explosivo para detonar cuando se le somete a
un estímulo exterior siendo un parámetro fundamental
para la seguridad en el manejo de explosivos.
Hoy en día los productos existentes tienen un alto gra-
do de seguridad, así, los actuales hidrogeles y emulsio-
nes son insensibles a cualquier golpe o rozamiento.
Humos
Los humos de una voladura están formados por el
conjunto de gases resultantes de la explosión. En ellos
existen gases derivados de la reacción química de los
componentes del explosivo, producidos por una deto-
nación, y, además, vapor de agua y finas partículas de
los productos propios del explosivo y de la roca vola-
da.
Los humos producidos en voladuras contienen gases
nocivos, como óxido de carbono o vapores nitrosos,
por lo que su presencia en labores subterráneas con
ventilación deficiente puede ocasionar molestias o into-
xicaciones graves de las personas que se encuentren en
ellas.
Imagen Nº6. Barreno completamente lleno de
agua que denota la importancia de contar con
explosivos resistentes al agua. www.upv.es
41Nº12. Abri l de 2016
“La invención de la dinamita ha marcado una época en la historia de la civilización”-
los tramos situados entre los barrenos, sin dañar el res-
to de la roca. Por esta razón, la pólvora negra se em-
plea preferentemente para separar bloques grandes de
rocas ornamentales (mármoles, granitos, etc..) de su
macizo.
No precisa la acción de detonador para su iniciación,
siendo suficiente el empleo de la mecha lenta.
Explosivos sensibilizados con nitroglicerina/
nitroglicol
En el proceso de fabricación de estos explosivos pri-
mero la nitroglicerina o nitroglicol se gelatiniza con
nitrocelulosa. Por adición a esta mezcla inicial de una
cierta proporción de nitrato amónico, se obtienen los
explosivos gelatinosos sensibilizados con nitroglicerina,
que en nuestro país se conocen con el nombre de Go-
mas especiales.
En general, estos explosivos tienen una consistencia
plástica que permite un buen encartuchado y una bue-
na resistencia al agua, por lo que se pueden utilizar en
todas las condiciones por encima y por debajo del nivel
freático e incluso bajo el mar.
Estas propiedades junto con su elevada potencia explo-
siva, densidad y velocidad de detonación, hacen que
estos explosivos sean adecuados para la voladura de las
rocas más duras.
ANFO
Su denominación proviene directamente de sus siglas
en inglés: Ammonium Nitrate -Fuel Oil.
Estas combinaciones están constituidas fundamental-
mente por nitrato amónico y un producto combustible
líquido, de manera que este tipo de explosivo de alta
potencia puede llegar a fabricarse de forma casera o
artesanal, ya que sus principales componentes son ac-
cesibles al público en general. De acuerdo con las apli-
caciones a que se les destine, pueden llevar incorpora-
do un combustible sólido u otro aditivo que les confie-
ra propiedades especiales. El ANFO es un material
granulado, por lo que una de las ventajas más impor-
tantes de estos productos es la posibilidad de realizar la
TIPOS DE EXPLOSIVOS INDUSTRIALES
Los diferentes tipos de explosivos industriales pueden
agruparse en seis grandes
familias, cada una de las cuales posee unas característi-
cas diferenciadoras claras.
Estas grandes familias son:
 Pólvora de mina
 Explosivos sensibilizados con NG/NGCOL
 ANFO
 Hidrogeles
 Emulsiones Explosivas
 ANFO pesado
Pólvora de mina
La pólvora de mina es un producto que en su aplica-
ción deflagra (VD < 2000 m/s), en lugar de detonar
como sucede en el resto de los explosivos. Cuando la
pólvora negra se inicia confinada dentro de un barreno
no se produce una onda de choque. Sólo actúan los
gases sobre la roca, presionándola y rompiéndola en
Nº de Imagen. Explicación. Si la imagen no es original nuestra debemos
poner:
Ref: el origen, la web, el libro, etc.
42 Nº12. Abri l de 2016
“...este tipo de explosivo de alta potencia puede llegar a fabricarse de forma casera o
artesanal...”-
De esta manera se consigue que este tipo de explosivos
mantenga propiedades similares a las de los hidrogeles,
sobre todo en cuanto a la resistencia al agua.
ANFO pesado
Se conoce con el nombre de Anfo pesado o HeavyAn-
fo, al explosivo resultante de la mezcla de una Emul-
sión y un ANFO. Presenta características intermedias
entre sus dos componentes, mejorando la resistencia al
agua del ANFO. Al tener mayor densidad y potencia,
aumenta su rendimiento por lo que puede ampliarse su
uso en la voladura de cualquier tipo de material, con un
coste menor de la voladura. Este tipo de explosivo es
altamente seguro frente a estímulos subsónicos, roces,
impactos, etc., permitiendo su carga a granel o mecani-
zada por medio de bombeo desde camión. Su sensibili-
dad es la apropiada para iniciarse con un multiplicador
o un cartucho de explosivo sensible al detonador.
En resumen, podemos concluir que el uso de explosi-
vos en actividades industriales a evolucionado enorme-
mente desde sus orígenes, con los primeros compues-
tos de pólvora negra, pasando por los accidentados
días del uso de
nitroglicerina lí-
quida y el poste-
rior invento de la
dinamita por Al-
fred Nobel, hasta
los modernos
productos indus-
triales que ofre-
cen una enorme
diferencia en po-
tencia y sobre
todo en seguridad
de transporte y
manejo.
carga a granel del mismo, bien desde sacos, bien desde
camiones cargadores. Por el contrario, el principal in-
conveniente es su nula resistencia al agua.
Otra de sus mayores ventajas es la seguridad en el ma-
nejo y el buen rendimiento en la voladura de rocas
blandas o muy fracturadas, pues su explosión produce
un gran volumen de gases.
Hidrogeles
Los hidrogeles o papillas explosivas, comercializadas
en nuestro país con el nombre de Riogeles, son com-
posiciones explosivas formuladas a base de un oxidan-
te, generalmente nitratos inorgánicos, y de un reductor
con suficiente defecto de oxígeno, junto con gelatini-
zantes y estabilizantes, que le dan una buena consisten-
cia e impiden la difusión en su interior del posible agua
exterior, por lo que resiste muy bien la humedad y el
agua en los barrenos.
Estos geles explosivos son muy seguros ante estímulos
subsónicos, sus humos son muy poco tóxicos, tienen
elevada potencia y permiten su carga a granel y mecani-
zada.
Esta última ventaja supone a su vez una mejora en el
rendimiento del explosivo, pues se produce el llenado
total del barreno, evitando el encartuchado y minimi-
zando el personal y el tiempo de carga de la voladura.
Emulsiones
Desde un punto de vista químico, una emulsión se de-
fine como una dispersión estable de un líquido inmisci-
ble en otro, lo cual se consigue mediante agentes que
favorecen este proceso (emulsificantes) y una fuerte
agitación mecánica.
Esta emulsión es como un ANFO, donde el nitrato
está disuelto en agua, y posteriormente cada partícula
de esa disolución se ha recubierto con el aceite mineral.
Nº de Imagen. Explicación. Si la imagen no es original nuestra debemos poner:
Ref: el origen, la web, el libro, etc.
REFERENCIAS Y
BIBLIOGRAFÍA:
 Manual para uso de Explosivos
(Blasters Handbook) Du Pont -
175 Aniversary - ISEE
 Manual Práctico de Voladura
Exsa
 www.maxam.net
43Nº12. Abri l de 2016
El uso del lubricante se remonta a 4000 años
antes de nuestra era. Ya los egipcios recurrían a la grasa
para resolver los problemas de fricción en su carruajes,
grasas que estaban elaboradas con cal mezclada con
grasas animales y aceites vegetales.
Estos lubricantes persistieron hasta el siglo
XIX cuando se desarrollaron las
primeras grasas a base de aceites
minerales. Esta grasa sólida, llama-
da briqueta, se utilizó hasta media-
dos del siglo XX, cuando el desa-
rrollo de los motores de vapor
impulsó la mejora de los lubrican-
tes, llegando a productos mucho
más semejantes a los que tenemos
hoy en día.
La RAE define lubricante
como aquella sustancia que aplica-
da entre dos superficies en contac-
to disminuye su fricción. Sin em-
bargo esta es una visión algo sim-
plista de lo que es realmente un
lubricante. Desde el punto de vis-
ta ingenieril las aplicaciones del
lubricante son mucho más exten-
sas. Entre ellas están: reducir la
fricción; reducir el desgaste; redu-
cir el consumo de energía; elimi-
nar el calor generado; proteger
contra la herrumbre y corrosión;
eliminar contaminantes; evitar la entrada de contami-
nantes; aislar eléctricamente; transmitir potencia; trans-
ferir calor; reducir ruidos.
Como puede apreciarse hay muchas cosas que
considerar para seleccionar el lubricante más adecuado
para cada ocasión, por eso es imprescindible entender
bien cuál es su comportamiento en situaciones de ser-
vicio.
Lo primero que debe saberse es que existen
tres situaciones en función de como sea la capa de lu-
bricación:
Lubricación a película delgada o límite
Se da cuando el espesor
de la película es inferior a la altura
de algunas crestas superficiales, o
dicho de otro modo, cuando las
superficies deslizantes se tocan en
sus crestas mayores (imagen 1).
Esto implica un alto des-
gaste de material por la alta fric-
ción, lo que a su vez se traduce en
una gran generación de calor y
mayor gasto de potencia.
Para evitar esto a los lu-
bricantes puede añadírseles aditi-
vos de extrema presión tanto de
acción física que se adhieren a
las superficies metálicas por afini-
dad o polaridad y forman una pe-
lícula resistente y de alta lubrici-
dad (bisulfuro de molibdeno, gra-
fito, teflón, óxido de zinc, etc.)
como de acción química que, a
alta temperatura, forman sulfuros,
fosfuros, cloruros de bajo coefi-
ciente de fricción (compuestos de
azufre, fósforo cloro zinc, plomo etc.).
Lubricación hidrodinámica
Si las crestas no entran en contacto las molécu-
las de fluido adyacentes a las superficies metálicas son
absorbidas o adheridas a estas y viajan con la superficie
y a su misma velocidad.
LUBRICANTES
ALFONSO ROJO LAHUERTA. INGENIERO INDUSTRIAL
44 Nº12. Abril de 2016
Imagen 1. a) régimen hidrodinámico b) régimen mixto c) régi-
men límite
Ref: http://www.widman.biz/
Imagen 2. Régimen elastohidrodinámico
Ref: evolution.skf.com
Si las superficies son paralelas no se produce
presión sobre la superficie superior. Si son convergen-
tes se genera una presión hidrodinámica que es capaz
de separar las superficies con una película de lubrican-
te.
Si se alcanza esta lubricación las superficies no
se tocarán y no habrá desgaste. Para ello deberá cum-
plirse que las superficies sean convergentes y se aco-
plen bien una a la otra. Además deberán moverse a
velocidad y carga constante.
Lubricación elastohidrodinámica (EHD)
Se da en cuando las superficies no acoplan
bien (tienen poca superficie de contacto) como puede
ser el caso de los rodamientos o engranajes.
Al no haber mucha superficie de contacto toda
la carga recae en aquella zona que sí toca a la otra. De-
bido a ello se produce una deformación elástica en ese
área. La carga se reparte entonces entre toda la zona
deformada de un modo no lineal. Estas presiones, co-
nocidas como presiones hertzianas, son máximas en la
zona central y de salida del contacto (imagen 2).
De este modo se distinguen tres zonas: región
convergente a la entrada, zona plana de superficies
coincidentes y región divergente a la salida.
Es importante saber que la viscosidad (η) de
un fluido crece con la presión (p) según :
Siendo η0 la viscosidad a presión atmosférica y α el
coeficiente viscosidad-presión.
También debemos se conscientes de que la película
EHD es unas 1000 veces más delgada que extensa, lo
que se traduce en que es sumamente delgada.
Sabiendo eso podemos entender como se
desarrollará el proceso de lubricación. La superficie en
movimiento arrastra al fluido a la entrada creando una
presión hidrodinámica. Este aumento de presión supo-
ne un incremento en la viscosidad como ya hemos vis-
to. Esta presión consigue vencer a la presión hertziana
que hay al borde de la zona deformada . De este modo
el lubricante consigue entrar en la zona plana y no pue-
de salir de ella debido a que la viscosidad es enorme y
la película demasiado delgada. Este efecto es favoreci-
do por la alta velocidad (del orden de milisegundos) a
la que el fluido pasa por la región hertziana.
Imagen 4. Regímenes de lubricación de un eje en un cojinete
Ref: mantenimientoindustrial.wikispaces.com
Imagen 3. Incremento de la viscosidad de un fluido con la presión
Ref: http://www1.lsbu.ac.uk/
45Nº12. Abri l de 2016
Que el valor de la carga influya tan poco puede
resultar extraño, pero se debe a que al aumentar la car-
ga aumentará la presión hertziana, incrementado la de-
formación y por lo tanto aumentando la región hertzia-
na, que favorece del mismo modo que R, por lo que no
supone tanta influencia como podría creerse.
En la práctica los espesores suelen estar alrede-
dor de las 0.5 micras.
Para saber en que régimen está operando el
lubricante resulta muy útil recurrir a la llamada curva de
Stribeck. En ella se relaciona el coeficiente de fricción
con el factor ηu/ω. En la curva (imagen 5) puede verse
como la parte izquierda corresponde al régimen límite
mientras que la parte derecha al régimen hidrodinámi-
co. La parte intermedia es el régimen de transición co-
nocido como mixto.
Una vez estudiados los procesos de lubricación
podemos pasar a los tipos de lubricantes. Los hay de
varios tipos:
Sólidos
Son polvos que se adhieren a las superficies
reduciendo la fricción entre ellas. Ejemplos: bisulfuro
de molibdeno, grafito, teflón, cobre, aluminio, plata,
óxidos, etc.
Líquidos
A su vez se clasifican en :
 Aceites minerales: compuestos de hidrocarburos
petrolíferos convencionales.
 Aceites sintéticos: procedentes del petróleo
(alquilbenceno, polialfaolefinas, polibutenos,
etc.) y no procedentes del petróleo (esteres, gli-
coles, siliconas, etc.)
 Aceites semisintéticos: su aceite es mezcla de
bases minerales y sintéticas.
 Emulsiones y soluciones: emulsiones de aceite
en agua (taladrinas), de glicoles en agua ( hidráu-
licos), etc.
Por lo tanto podemos decir que la zona de en-
trada bombea el lubricante hacia dentro, la zona her-
tziana lo conduce y la salida lo descarga.
El espesor de la capa puede calcularse según la
siguiente expresión un tanto compleja:
Donde:
 h: espesor de la película
 μ: viscosidad del fluido a presión atmosférica
 α: coeficiente característico del fluido
 u: velocidad media
 R: radio del cilindro
 ω: carga por unidad de longitud
 E: módulo elástico del cilindro
Como puede apreciarse lo que más influye en
su grosor son la viscosidad y velocidad (mayor presión
hidrodinámica a la entrada), el coeficiente (mayor au-
mento de la viscosidad con la presión) y el radio del
cilindro (mayor presión hertziana).
Imagen 5. Curva de Stribeck
Ref: ingesaerospace-mechanicalengineering.blogspot.com
46 Nº12. Abri l de 2016
Lubricar bien una máquina no es algo tan sencillo como en un principio podría pensarse
Pastosos o semisólidos
Compuestos de aceites más espesantes y aditi-
vos. Se dividen en:
 Grasas de espesante orgánico: las más corrientes.
Son la grasas de jabones metálicos (litio, calcio,
aluminio, etc)
 Grasas de espesante inorgánico: espesante cons-
tituido de arcillas.
 Grasas sintéticas: constituidas por un aceite sin-
tético y un espesante orgánico o inorgánico.
 Pastas lubricantes: compuestos de aceites espesa-
dos con polvos lubricantes sólidos.
Lubricantes de película seca
Se adhieren a las superficies metálicas como un
barniz. Ejemplos son las resinas, disolventes de las resi-
nas y aditivos lubricantes sólidos.
Lubricantes en aerosol
Se pulverizan sobre la superficie. Compuestos
de aceites minerales o sintéticos, aditivos sólidos y lí-
quidos y aditivos pastosos como grasas.
Conocidos los lubricantes que hay en el merca-
do restaría saber qué propiedades se deben mirar para
escoger el mejor lubricante. Evidentemente se deberá
seleccionar en función de la maquinaria que deba lubri-
carse y dependiendo de las condiciones de trabajo. No
obstante siempre hay unas propiedades que deben es-
tudiarse. Entre ellas destacan:
 Viscosidad: la propiedad más importante. Mide
su resistencia a fluir. Mecanismos a alta veloci-
dad requerirán aceites de baja viscosidad y vice-
versa. Si la viscosidad es demasiado reducida se
producirán fuertes desgastes en la máquina
mientras que si es demasiado elevada podrían
producirse averías o desgastes excesivas deriva-
dos del incremento de calor desprendido. La
viscosidad tiende a aumentar con el tiempo.
 Untuosidad: propiedad por la que los lubricantes
se adhieren a las superficies metálicas. Mide la
posibilidad de que una película se mantenga más
o menos tiempo entre ambas superficies. De-
pende tanto del lubricante como de la superficie.
 Punto de congelación: si el fluido solidifica per-
dería sus propiedades que lo hacen apropiado
como lubricante.
 Desemulsión: mide la habilidad de un aceite para
separarse del agua
 Punto de gota: temperatura a la cual la grasa pasa
de estado semisólido a líquido.
Aparte de otros como el peso específico, índi-
ce de acidez la tendencia a formar espuma, resistencia a
corrosión, poder antiherrumbre, consistencia, estabili-
dad, punto de evaporación, rendimiento a alta tempe-
ratura, etc.
No es, por lo tanto, lubricar bien una máquina
algo tan sencillo como en un principio hubiera podido
pensarse. La elección del lubricante requiere un estudio
que depende, como hemos visto, de muchos factores.
REFERENCIAS Y BIBLIOGRAFÍA:
- Pilar Lafont Morgado. Cálculo de Máquinas. Madrid,
España: Sección de Publicaciones de la Escuela Técnica
de Ingenieros Industriales. Universidad Politécnica.
- Francisco Resusta Melgar. La lubricación y los
lubricantes. TMI SI
- http://www.elcomercio.com/origen-lubricantes.html
47Nº12. Abri l de 2016
Imagen 6. Aceite lubricante sobre un engranaje
Ref: lubindustrial.blogspot.com
El método RCM (Reliability Centered Maintenance) o
Mantenimiento Centrado en la Fiabilidad es un método
de amplia utilización que permite determinar las necesi-
dades de mantenimiento en cualquier tipo de máquina,
equipo o activo físico, en su entorno de operación.
Es un método que identifica las funciones de un siste-
ma, la forma en que esas funciones pueden fallar y que
establece a priori tareas de mantenimiento preventivas
aplicables y efectivas, basadas siempre en consideracio-
nes que tienen que ver con la seguridad y la economía
del sistema.
La utilización del método RCM ha aumentado, puesto
que es un sistema idóneo para diseñar el mantenimien-
to en aquellos sistemas que requieren una alta fiabilidad
o cuando es necesario mantener una determinada insta-
lación funcionando a su capacidad máxima de manera
continua.
El método RCM genera, por tanto, un programa de
mantenimiento preventivo cuya implantación va a per-
mitir la detección de fallos con la antelación suficiente
para que puedan ser subsanados de forma rápida y con
las mínimas interrupciones del funcionamiento del sis-
tema; la eliminación de las causas de algunos fallos an-
tes de que tengan lugar; la eliminación de las causas de
algunos fallos mediante cambios en el diseño y la iden-
tificación de aquellos fallos que merman la seguridad
del sistema.
Este método se empezó a utilizar en la aviación comer-
cial. Posteriormente en la década de los ochenta se em-
pezó a utilizar en el mantenimiento de centrales nuclea-
res, consiguiéndose una reducción de costes de mate-
riales y mano de obra de mantenimiento del orden del
30%-40%. A partir de entonces, se ha implantado en
todo tipo de industrias, desde la minería hasta la indus-
tria química, reduciéndose el número, frecuencia y con-
tenido de las revisiones generales de los sistemas, au-
mentando la disponibilidad de los equipos y reducien-
do los costes de mantenimiento y volumen de los in-
ventarios.
DESCRIPCIÓN DEL MÉTODO RCM.
Para que un mantenimiento se considere que utiliza
este método se tienen que dar los siguientes siete pa-
sos:
1º.– Identificación del elemento a analizar:
Es necesario establecer el sistema al que se va a aplicar
el método RCM, definir sus límites y estructura. Se de-
be definir la parte de nuestras instalaciones a estudiar,
objeto de mantenimiento y la parte o elementos que
quedarán excluidos de este estudio, así como la com-
posición del sistema a estudiar, los elementos de nivel
inferior, siguiendo una estructura de árbol hasta el nivel
que se considere indivisible, desde el punto de vista de
su mantenimiento.
Con objeto de ser prácticos y economizar costes de
gestión y de mantenimiento, solo se aplicará este méto-
do a aquellos sistemas o elementos de la planta indus-
trial que estén suficientemente justificados. Aparece
entonces el concepto de criticidad del elemento, lo cual
es una medida de riesgo en la operación de un equipo y
depende de la probabilidad de que se produzca un fallo
y su severidad, considerando factores de seguridad.
Una vez obtenida la lista ordenada de equipos en fun-
ción de su criticidad, los elementos con mayor relevan-
cia deben ser estudiados en primer lugar.
2º.– Determinación de las funciones del elemento:
Una vez realizado el paso 1, se debe volver a estudiar
las funciones de los elementos seleccionados. En este
momento se hace el estudio de una forma más detalla-
da, orientando la definición de las funciones hacia la
obtención de posibles fallos y modos de fallo, que es el
objetivo de este paso.
TÉCNICAS DE MANTENIMIENTO. EL MÉTODO
RCM.
JOSÉ EMILIO FERNÁNDEZ GARCÍA. INGENIERO TÉCNICO AERONÁUTICO.
48 Nº12. Abril de 2016
Es posible que, tras este estudio funcional, se decida
ampliar o restringir el sistema en estudio, conforme al
equipo humano que lo realiza.
3º.– Determinación de lo que constituirá un fallo de las
funciones:
El usuario siempre espera de un determinado dispositi-
vo o elemento que desempeñe su función requerida
con un nivel aceptable. Cuando esto no ocurre es por-
que dicho elemento se ha averiado.
Debe distinguirse entre el fallo (fallo funcional) y las
causas del mismo o conjunto de eventos (modos de
fallo) que lo terminan provocando. Cuando hablamos
de fallo debe considerarse el fallo de una determinada
función y no solamente fallo general, ya que sus causas
y los efectos del mismo pueden ser completamente
diferentes según sea la función afectada.
Se puede definir el fallo funcional como la inaptitud de
un dispositivo para llevar a cabo una función con un
grado de prestación aceptable por el usuario.
Según esta definición, se entiende por fallo funcional
tanto aquél en el que el dispositivo cesa en su aptitud
para producir una función, como aquel en el que conti-
núa funcionando, proporcionando la función requeri-
da, pero sin alcanzar unos límites de prestación acepta-
bles (fallo parcial).
Estos fallos parciales son casi siempre causados por
diferentes modos de fallo, siendo sus causas también
diferentes. Por ello se deben registrar todos los fallos
funcionales que pudieran afectar a cada función. Cuan-
do el cumplimiento de una función de un elemento
debe estar acotado entre un límite superior y otro infe-
rior (ejemplo el ajuste mecánico de una máquina para
obtener una determinada forma o dimensiones de un
producto en su proceso de fabricación), los fallos que
provocan el incumplimiento de la función por el límite
superior, así como los modos de fallo y consecuencias,
suelen ser diferentes a los relativos al límite inferior,
por lo que ambos tipos de fallos funcionales deben
recogerse y estudiarse separadamente.
Por otra parte, al definirse los fallos funcionales debe
tenerse en cuenta tanto al usuario, como a los técnicos
de mantenimiento, ya que sus opiniones pueden ser
completamente diferentes. La consideración de que un
dispositivo esté averiado puede ser distinta según el
técnico que lo observe: mantenimiento, producción,
seguridad laboral, calidad, etc…
Por tanto, para poder definirlos fallos funcionales, de-
ben establecerse, de forma previa, los límites de los
niveles de prestación del dispositivo. Estos límites de-
ben ser establecidos por el personal de operación con-
juntamente con el de mantenimiento y con todo aquél
cuyo trabajo se pueda ver afectado por el funciona-
miento del dispositivo.
4º y 5º.– Aplicación de AMFE o AMFEC:
Los pasos cuarto y quinto consisten en la realización
de un análisis modal de fallos y de los efectos de los
mismos (método AMFE que es cualitativo y analiza las
consecuencias sobre el sistema de todos los posibles
fallos que puedan afectar a un componente, propo-
niendo medidas para evitarlos o para minimizar las
consecuencias de los mismos). Sin embargo, este análi-
sis modal, dentro del método RCM, debe incluir no
sólo los fallos que hayan ocurrido al elemento, si no el
conjunto de los fallos posibles, que pueden ser enton-
ces prevenidos en su totalidad.
Imagen 2. Descripción general de las etapas del método RCM.
Imagen 1. Objetivos del método RCM.
Ref: http://www.monografias.com/
49Nº12. Abri l de 2016
La elaboración de este documento final será un proce-
so que consumirá tiempo y una buena cantidad de re-
cursos del departamento de mantenimiento.
DESCRIPCIÓN DE LA LÓGICA RCM.
La lógica RCM se aplica a cada uno de los elementos
que han sido seleccionados. Estos elementos están a su
vez integrados por otros, que llamamos componentes,
para distinguirlos del elemento principal en estudio.
El fallo es la pérdida de la aptitud de un elemento para
proporcionar la función requerida, mientras que el mo-
do de fallo es el proceso mediante el cual finalmente se
produce el fallo. En este proceso, que es el modo de
fallo, se van produciendo fallos de distintos compo-
nentes, que afectan a sus funciones y que no son las del
elemento principal, que arrancan de una causa primera,
a la que se pueden ir superponiendo otras en el mismo
momento y a lo largo del proceso.
Durante el proceso, aunque existen componentes ave-
riados (estado después del fallo), no se puede afirmar
que el elemento principal haya fallado hasta que deje de
ser apto para proporcionar la función requerida. Ese
fallo habrá tenido un último desencadenante, materiali-
zado por el fallo de un componente determinado, pues
bien a efectos del estudio RCM, el fallo de ese último
componente se considera como modo de fallo princi-
pal.
Cuando los fallos no son ocultos, que es el caso que
mas se da en la mayoría de los equipos, podemos anti-
ciparnos al fallo, mediante acciones de carácter predic-
tivo, monitorizando su funcionamiento o sustituyendo
o interviniendo en el equipo.
Ya se ha visto que se puede predecir o detectar el pro-
blema antes de que el sistema falle, sin embargo, hay
que tener en cuenta que no solo es necesario detectar
el problema, sino que debemos asegurarnos de que se
dispone del tiempo necesario para resolverlo antes de
que deje de prestar la función requerida.
medidas para evitarlos o para minimizar las consecuen-
cias de los mismos). Sin embargo, este análisis modal,
dentro del método RCM, debe incluir no sólo los fallos
que hayan ocurrido al elemento, si no el conjunto de
los fallos posibles, que pueden ser entonces prevenidos
en su totalidad.
Para cada elemento es necesario clasificar sus posibles
fallos ocultos, en función de las consecuencias que ten-
gan para la seguridad, el medio ambiente, la produc-
ción y el mantenimiento. Según la importancia de esas
consecuencias, se llevarán a cabo acciones para elimi-
narlas o, la menos, mitigarlas, en aquellos casos en que
no sea posible encontrar operaciones adecuadas de
mantenimiento preventivo o predictivo que eviten el
fallo. Un ejemplo de fallos ocultos lo tenemos en los
rociadores de agua (sprinklers), en los sistemas contra
incendios. Un fallo en uno de estos elementos no pue-
de ser detectado cuando se encuentra en condiciones
normales de operación, pues en estas condiciones el
elemento no rocía agua, sino que permanece pasivo,
sin embargo, diseñando los rociadores con cierto crite-
rio es posible mitigar las consecuencias del fallo de al-
guno de los elementos.
6º y 7º.– Utilización de la lógica RCM y documenta-
ción del programa de mantenimiento:
Finalmente, la aplicación de la lógica RCM, sexto pun-
to del método, conduce a un conjunto de acciones
concretas a aplicar a cada uno de los elementos selec-
cionados. La documentación detallada y concreta de
estas acciones, de manera que puedan implementarse,
constituye el séptimo y último punto de este método.
Consiste en un documento que recogerá el conjunto de
tareas a realizar sobre cada uno de los elementos selec-
cionados, agrupadas por frecuencias, técnicas a em-
plear, localización, etc… Esta fase final del RCM no es
fácil, ni rápida, debido a que tienen diversas funciones
cada uno y para cada función distintos modos posibles
de fallo, con distintos efectos y consecuencias y, para
eliminar la causa de cada modo de fallo, existe una ta-
rea de mantenimiento.
50 Nº12. Abri l de 2016
“El método RCM es un sistema idóneo para diseñar el mantenimiento en aquellos sistemas
que requieren una alta fiabilidad”-
Como ejemplo se puede poner el fallo de la inyección
de motores diésel a alta potencia, monitorizando la
temperatura del gasoil. Si se detecta una subida anóma-
la de la temperatura, al ser esta suficientemente lenta
en relación con el agotamiento de las vida del inyector,
es posible reemplazarlo en la práctica totalidad de los
casos, ya que esta operación se puede realizar en un día
sin que se hayan perdido horas de trabajo del equipo
en cuestión.
MONITORIZACIÓN DEL EQUIPO, ALTERA-
CIONES DE CONDICIÓN Y REPARACIÓN.
Partiendo de la Imagen 5, TM es el tiempo máximo
que puede estar funcionando el equipo hasta que se
produzca el fallo, después de que haya ocurrido la alte-
ración de la condición que permite anticipar el fallo. Si
este intervalo de tiempo fuese más o menos largo se-
gún las circunstancias, TM será el menor de esos posi-
bles valores, es decir, el mas desfavorable para poder
reaccionar una vez alterada la condición del equipo.
Cuando el conocimiento de la condición no es en tiem-
po real, la frecuencia de monitorización será aquella
que permita reparar el equipo. Con una cierta holgura,
una vez conocida la alteración de su condición, a través
de la monitorización y antes de que se produzca el fa-
llo, es decir T<TM-TR, dónde TR es el tiempo para
reparar o reemplazar el elemento. Si se quiere garanti-
zar una determinada holgura mínima para poder reali-
zar la reparación a tiempo, se deberá cumplir
T<TM-(TR+Hmin).
Existen otros casos en los que, o bien no puede moni-
torizarse el equipo, o la monitorización no ofrece ga-
rantías para la posible subsanación a tiempo del proble-
ma, o donde simplemente la monitorización no resulta
económicamente conveniente. Muchos de estos casos
corresponden a modos de fallo altamente predecibles,
como por ejemplo los fallos de las correas de distribu-
ción en los automóviles. El cliente recibe la indicación
de cambiar la correa, por ejemplo casa 70.000 u 80.000
Km.. Inspeccionando la correa raramente se puede
predecir cuando va a fallar, pero conociendo los kiló-
metros que ha realizado el vehículo con la correa en
cuestión, puede conocerse con bastante exactitud su
vida útil restante.
Por el contrario cuando se trata de componentes caros
y de alta responsabilidad, en que la aleatoriedad del
fallo y la falta de predicción mediante técnicas de mo-
nitorización, hacen imposible anticiparse al fallo, solo
cabe soportar las consecuencias del fallo, que induda-
blemente más tarde o mas temprano se van a producir
o actuar mediante el rediseño para eliminar las causas
del fallo, mejorar la fiabilidad del elemento, hacerlo
predecible o, finalmente, eliminar los efectos negativos
del fallo. Esto siempre lleva aparejado un coste, por lo
que es necesario estudiar la viabilidad económica de las
soluciones adoptadas en relación con las consecuencias
del fallo.
La parte final del esquema de la lógica RCM se refiere
al caso de que los fallos no puedan predecirse o ni si
quiera detectarse, por ser ocultos, mediante acciones
predictivas, ni tampoco mediante sustituciones periódi-
cas, se podrá entonces optar por el rediseño del ele-
mento, o bien por aceptar las consecuencias del fallo.
Imagen 4. Descripción de la lógica del método RCM.
51Nº12. Abri l de 2016
REFERENCIAS Y BIBLIOGRAFÍA:
- CRESPO, Adolfo. Mantenimiento centrado en fiabilidad
(RCM). Técnica de optimización de planes de mantenimiento:
Técnicas de ingeniería de mantenimiento y fiabilidad aplicadas.
- https://mantenimientoindustrial.wikispaces.com/
- www.monografias.com/Ingenieria
- www.mantenimientoplanificado.com/
El transistor bipolar fue inventa-
do en los Laboratorios Bell de
Estados Unidos en diciembre de
1947 por John Bardeen, Walter
HouserBrattain y William Brad-
ford Shockley, quienes fueron
galardonados con el Premio No-
bel de Física en 1956. Fue el sus-
tituto de la válvula termoiónica
de tres electrodos, o tríodo.
El transistor de efecto campo fue
patentado antes que el transistor
BJT (en 1930), pero no se dispo-
nía de la tecnología necesaria pa-
ra fabricarlos masivamente.
En el año 1956 el premio Nobel
de física fue compartido por tres
grandes científicos: William Brad-
ford Shockley, John Bardeen y
Walter HouserBrattain por el que
es considerado como el mayor
desarrollo tecnológico del siglo
XX: el transistor. La historia de
cómo se inició la carrera por la
miniaturización de los dispositi-
vos tecnológicos que aún no ha
terminado en nuestros días me
parece fascinante. Llena de bri-
llantez, peleas y afán de supera-
ción.
En el año 1956 el premio Nobel
de física fue compartido por tres
grandes científicos: WilliamBrad-
fordShockley, JohnBardeen y
WalterHouserBrattain por el que
es considerado como el mayor
desarrollo tecnológico del siglo
XX: el transistor. La historia de
cómo se inició la carrera por la
El transistor es un dispositivo
electrónico semiconductor utili-
zado para entregar una señal de
salida en respuesta a una señal de
entrada. Cumple funciones de
amplificador, oscilador, conmuta-
dor o rectificador.
EVOLUCIÓN DE LOS TRANSISTORES
LAURA GARCÍA GARCÍA. INGENIERÍA INDUSTRIAL.
Imagen 1. Evolución del transistor en tamaño
Fuente: http://evotrancistores.blogspot.com.es/
52 Nº12. Abril de 2016
Imagen 2. Transistores
Fuente: https://circuitosintegrados.wordpress.com
como el lenguaje de programa-
ción C, la astronomía radial, el
sistema operativo Unix, y lo que
nos atañe, el transistor.
En 1947, durante el conocido
como “Mes milagroso” entre el
17 de noviembre y el 23 de di-
ciembre realizaron infinidad de
pruebas para mejorar el dispositi-
vo hasta llegar a conseguir su
objetivo: el primer transistor de
contacto puntual, hecho con dos
púas de metal (oro) que se pre-
sionan sobre la superficie de ma-
terial semiconductor (germanio)
en posiciones muy próximas en-
tre si.
En estos primeros circuitos inte-
grados, los transistores tenían
dimensiones típicas de alrededor
de 1 cm. En 1971 el microproce-
sador de Intel 4004 tenía unos
2000 transistores, mientras que
hoy en día, un “viejo” Pentium
IV tiene unos 10 millones de
transistores, con dimensiones
típicas de alrededor de 0.00001
cm. Desde 1970, cada año y me-
dio aproximadamente, las dimen-
siones de los transistores se fue-
ron reduciendo a la mitad (Ley de
Moore).
Hoy, por ejemplo, un chip Pen-
tium Pro de Intel, el corazón de
algunos de los más avanzados
computadores personales, tiene
5,5 millones de transistores. Intel
espera llegar a mil millones de
transistores en su procesador
central para el año 2011.Los
chips de memoria, que son más
fáciles de fabricar que las galletas
de la suerte, esperan tener mu-
chos miles de millones de transis-
tores en aproximadamente una
década, para que así computado-
res del tamaño de un refrigerador
se reduzcan hasta caber en un
escritorio.
miniaturización de los dispositi-
vos tecnológicos que aún no ha
terminado en nuestros días me
parece fascinante. Llena de bri-
llantez, peleas y afán de supera-
ción.
En 1906 el inventor Lee De Fo-
rest desarrolló un tríodo en un
tubo de vacío. Colocando este
invento a lo largo de la línea tele-
fónica se podía amplificar la señal
lo suficiente como para poder
hacer llamadas a larga distancia.
El tríodo está compuesto de tres
partes: un cátodo que emite elec-
trones, un ánodo que los capta y
una rejilla situada entre los dos a
la que se puede aplicar tensión.
Los tubos de vacío producían
mucho calor, necesitaban mucha
energía y debían ser reemplaza-
dos continuamente. Era necesa-
rio otro método para amplificar
la señal. Buscando respuestas la
compañía creó en 1926 un centro
de investigación conocido como
Laboratorios Telefónicos Bell
(Bell Labs), responsable de des-
cubrimientos tan importantes
Imagen 4. Diferentes transistores (evolución)
Fuente: https://circuitosintegrados.wordpress.com
Imagen 3. Tubo de vacío
Fuente: http://elpais.com/
53Nº12. Abri l de 2016
Imagen 5. Tamaño transistor
Fuente: http://evotrancistores.blogspot.com.es/
un flujo de electrones con tal pre-
cisión, que puede controlar el
paso de un electrón individual.
En julio del 2015 un equipo de
investigadores han desarrollado
un transistor capaz de controlar
el flujo de electrones individuales
a partir de una molécula y 12
átomos.
Los investigadores lograron en-
samblar átomos uno por uno,
tomando un cristal de arseniuro
de indio y colocando doce áto-
mos de indio en forma hexagonal
en la parte superior de este, con
una molécula de ftalocianina en
el centro. Para esta tarea, usaron
un microscopio de efecto túnel
altamente estable (STM por sus
siglas en ingles).
Según explican los investigado-
res, la molécula central está sólo
débilmente unida a la superficie
de cristal debajo de ella, y esto
significa que, cuando la punta del
microscopio está muy cerca de la
molécula y se aplica un voltaje,
los electrones individuales pue-
den pasar entre la superficie del
cristal y la punta del microscopio.
Los átomos cargados positiva-
mente alrededor de la molécula,
actúan como la puerta del transis-
tor, regulando el flujo de electro-
nes y permitiendo un funciona-
miento fiable del transistor mole-
cular.
Estos nuevos transistores mole-
culares se pueden desarrollar con
dos moléculas. La ftalocianina
(H2Pc,), un compuesto de color
verde azulado muy usado como
pigmento y colorante, y la ftalo-
cianina de cobre (CuPc), de color
azul brillante y usos similares.
Las curvas intensidad corriente
de los transistores de una sola
molécula de CuPc son llamativas
(comparadas con las de otras
propuestas anteriores que suelen
mostrar histéresis). Para obtener
La invención del transistor fue lo
que hizo posible toda la tecnolo-
gía que hoy día nos rodea y nos
envuelve, ya que gran parte de
ella, es la miniaturización de tec-
nología ya existente, como GPS,
Barómetros, Termómetros, etc…
A un tamaño que podamos car-
gar, digamos en el bolsillo. Ade-
más, el poder de cada uno de los
gadgets que tenemos se ha podi-
do incrementar al ser capaces de
poder poner mayor cantidad de
transistores en menos espacio.
Un mundo de nuevas posibilida-
des acaba de abrirse gracias a un
equipo internacional de investiga-
dores conformado por Alemanes,
Japoneses y Estadounidenses,
quienes han logrado crear un
transistor a partir de una sola
molécula y una docena de áto-
mos, el cual es capaz de manejar
Imagen 6. Evolución del transistor desde su invención en Bell Labs en 1947.
Fuente: Porticus Centre
“Nuevo transistor con una sola molécula de ftalocianina”
54 Nº12. Abri l de 2016
Imagen 7.
Fuente: http://www.solociencia.com/
estas curvas se usó el microsco-
pio de efecto túnel (STM).
Las curvas intensidad corriente
para los transistores de una sola
molécula de H2Pc son más pare-
cidas a las de propuestas anterio-
res, mostrando una histéresis. La
conmutación biestable puede
tener sus aplicaciones, pero tiene
que ser mucho más limpia. Aún
así, los autores del nuevo estudio
en Nature Physics consideran estos
resultados como muy promete-
dores.
Ahora los investigadores trabajan
en entender mejor como funcio-
na este fenómeno y el vínculo
que existe entre la orientación
molecular y la conductividad. Si
se logra entender y explotar, este
conocimiento podría ayudar a
construir nanoestructuras con un
control bastante preciso sobre los
electrones individuales que pue-
den llevar a nuevos tipos de se-
miconductores de alto rendi-
miento y nuevos nanomateriales.
55Nº12. Abri l de 2016
Imagen 8. Una molécula de ftalocianina en un hexágono de 12 átomos de indio bajo el microscopio de
efecto túnel .
Fuente: U.S. Naval ResearchLaboratory (NRL).
REFERENCIAS Y BIBLIOGRAFÍA:
- https://circuitosintegrados.wordpress.com
- http://www.solociencia.com/
Imagen 9.
Fuente: http://www.solociencia.com/
cos y prensas hidráulicas, entre otros. El principal pro-
blema radica en la falta de infraestructuras y su desa-
rrollo comparada con las energías actuales. Incluso en
determinadas ocasiones la energía necesaria para pro-
ducir una energía renovable es mayor que la que ésta es
capaz de producir, careciendo de sentido el crearla.
En este artículo se pretende dar una idea del gran im-
pacto que el petróleo tiene en el mundo actual, además
de su enorme importancia estando presente en la ma-
yoría de aspectos de nuestro día a día. ¿Qué es lo que
hace que sea una fuente tan preciada? ¿Cómo afectaría
al mundo su extinción? Explicaremos su formación y
explotación así como sus distintos usos y excelentes
propiedades que lo hacen idóneo para su utilización en
infinidad de procesos y aplicaciones.
Introducción
El petróleo es la principal fuente de energía no renova-
ble actualmente consumida en el planeta, seguida del
carbón y el gas natural. Estas fuentes de energía se en-
cuentran por tiempo limitado en la naturaleza. Esto
hace necesario contar con otros tipos de energía alter-
nativa para garantizar un futuro esperanzador ante el
continuo crecimiento tanto de la población como de la
economía mundial.
Como consecuencia de ello y teniendo presente a su
vez la contaminación ambiental, durante los últimos
años se ha intentado aprovechar fuentes naturales co-
mo el viento, los rayos de sol o el agua para producir
energías renovables a través de aerogeneradores (con
su origen en los molinos de viento), paneles fotovoltai-
LA FIEBRE DEL ORO NEGRO: EL PETRÓLEO
FRANCISCO DE ASÍS NAVARRO MADUEÑO. INGENIERO SUPERIOR INDUSTRIAL
56 Nº12. Abri l de 2016
medio del barril es de 31,56$ (debido al exceso de ofer-
ta actual), muy lejos de los 100$ que se pagaba en 2014.
Además, aunque la oferta ha crecido en los últimos
meses provocando el descenso de su valor, se espera
un crecimiento de la demanda tal que el desequilibrio
actual entre oferta-demanda se vaya reduciendo gra-
dualmente hasta recuperar su valor. Esta cantidad in-
gente de números explica, en gran parte, los grandes
conflictos políticos y armados que han surgido a lo
largo de los años y que probablemente continuarán
hasta que se produzca la extinción de este oro negro.
¿Como se produce el petróleo?
La teoría más aceptada en cuanto a la producción del
petróleo es que éste se originó a través de la descom-
posición de restos de animales y algas microscópicas
que se acumularon en el fondo del mar y que durante
miles de años fueron enterrados con pesadas capas de
sedimentos aglomerados formando rocas. En unas de-
terminadas condiciones de presión, volumen y tempe-
ratura se transformó (reacción química) muy lentamen-
te en los hidrocarburos fósiles que conocemos hoy en
día como petróleo y gas natural.
Breve historia (2)
Aunque el petróleo se conoce des-
de la prehistoria, no fue hasta el
año 1859 cuando Edwin Drake
consiguió, en una pequeña locali-
dad de Pensilvania (EE.UU), per-
forar el primer pozo de petróleo
del mundo. Así, el 27 de agosto de
1859, a 21 metros de profundidad,
nació la industria petrolera, que
cambiaría y revolucionaría el
mundo para siempre. De esta for-
ma, en 1860 en los pozos del no-
roeste de Pensilvania se produje-
ron varios de cientos de miles de
barriles y en 1862 la producción
alcanzó los 3 millones de barriles.
En los primeros comienzos, el petróleo crudo fue utili-
zado medicinalmente para tratar el reumatismo y los
esguinces. Más tarde, Samuel Kier refinaría el petróleo
para obtener queroseno (líquido inflamable) y utilizarlo
comercialmente para ser quemado en linternas que
hasta ese momento consumían aceite de ballena, cada
vez más costoso debido a su escasez.
La producción y los continuos hallazgos de nuevos
pozos petroleros convirtieron EE.UU en uno de los
mayores productores de petróleo del mundo. La poste-
rior aparición de los motores de combustión y automó-
viles (1895) convirtió al petróleo, continuando en la
actualidad, como la principal fuente de energía del
mundo.
Al igual que EE.UU, otros países del mundo se pusie-
ron manos a la obra y con métodos cada vez más pre-
cisos fueron saliendo a la luz aquellos que también po-
seían yacimientos de petróleo a gran escala. Así, las
economías de Arabia Saudí, Estados Unidos y Rusia
lideran el ranking mundial de producción petrolífera(4)
con una aportación de más de un 30% de la produc-
ción total mundial diaria.
Actualmente, la Organización de Países Exportadores
de Petróleo (OPEP) ha estimado que el mundo consu-
mirá, en 2016, un total de 94,04 millones de barriles de
crudo al día (mbd), que a 159 litros por barril hace un
total de 24.356,36 millones de litros consumidos cada
día. En el momento de escribir este artículo, el precio
57Nº12. Abri l de 2016
Imagen 1. Torre de perforación utilizada para la extracción de petróleo.
Fuente: CORBIS
En 2016 el mundo necesitará 24.356
millones de litros de petróleo al día
En cuanto a su aprovechamiento, aproximadamente el
47% del barril se destina a la gasolina de automoción,
un 23% se transforma en gasóleo y el 30% restante se
utiliza para sostener el mundo que conocemos a día de
hoy.
Tras obtener muchos componentes de la destilación,
ninguno es un producto acabado y muchos de ellos
necesitan un procesado (etapa 2) para eliminar elemen-
tos contaminantes como el azufre. Nótese la gran ver-
Características y aplicaciones del petróleo
Pero, ¿qué es lo que hace que el petróleo sea tan valio-
so? ¿Porqué es indispensable para el desarrollo de la
vida humana? ¿Qué aplicaciones tiene además de la que
se conoce como combustible?. La respuesta es muy
sencilla: porque se encuentra presente en absoluta-
mente todo lo que nos rodea.
El petróleo es una mezcla de moléculas de hidrógeno y
carbono formando todo tipo de enlaces que se cono-
cen como hidrocarburos. Algunos de ellos como el
metano (CH4) son relativamente ligeros y fáciles de
conseguir mientras que otros como el aceite empleado
en vehículos contiene cadenas de más de 50 carbonos.
Antes de ser utilizado, el petróleo ha ser sometido a
una serie de procedimientos conocidos como refina-
do.
El refinado sirve para transformar el crudo en un cen-
tenar de productos diferentes y se puede dividir en 4
etapas claramente diferenciadas: destilación, limpieza
con agua, crackeado y mezclado, en ese orden. Quizá la
más importante sea la primera pues en ella se separan
las distintas moléculas (aunque éstas no son aun pro-
ductos finales). Como se puede observar en la siguiente
ilustración, el proceso de refinado es
muy sencillo: se calienta el crudo a
unos 370°C y se separan las distintas
moléculas presentes en el petróleo,
pues éstas evaporan a distintas tem-
peraturas. De esta forma estas molé-
culas en fase gas y separadas se elevan
a lo largo de la torre y se enfrían, con-
densándose a distintos niveles. Así, los
hidrocarburos más ligeros (utilizados,
por ejemplo, para la fabricación de
aspirinas) suben hasta lo más alto de la
torre, mientras que los más pesados
(utilizados para el aceite de motor y
asfalto) se quedan en el nivel más bajo.
Como resultado el crudo uniforme se
ha separado en muchos componentes
entre los que se destaca la gasolina,
gasóleo, aceites lubricantes y combusti-
ble para motores diésel, barcos y avio-
nes.
Imagen 3. Proceso de refinado de petróleo y los elementos más importantes obtenidos de ello.
58 Nº12. Abri l de 2016
Imagen 2. Aprovechamiento de un barril de petróleo.
satilidad del petróleo, que hasta sus elementos conta-
minantes tienen una utilidad comercial (en el caso del
azufre se puede utilizar como fertilizante agrícola o en
los extintores o neumáticos).
Durante el crackeado (etapa 3) se fragmentan molécu-
las en algunas más sencillas y se obtiene un combusti-
ble utilizado en barcos y el propileno(H2C=CH–CH3):
materia prima utilizada en maquillajes, dentífricos, anti-
congelantes, pinturas y sobre todo en plásticos. El
plástico es uno de los subproductos del petróleo más
abundante que existe. Es tan valioso, además de sus
propiedades, porque puede moldearse prácticamente
de cualquier forma. Encontramos plásticos allá donde
vamos: paracaídas, ventanas antibalas, parabrisas, bañe-
ras, pelotas de golf, gafas de sol y vista, cascos, hogar,
textil, aviación, electrónica, medicina y un largo etc.
Otro gas muy valioso obtenido del refinado es el pro-
pano. Aunque durante los primeros años se desechaba
como residuo, actualmente tiene una gran importancia
en el mercado usándose en millones de hogares en for-
ma de calefacción y energía
(vitrocerámica o barbacoas).
Por último, y no menos im-
portante, gracias al petróleo
tenemos aceites lubricantes,
utilizados para evitar el au-
mento de temperatura por
fricción de las piezas de
cualquier máquina de fabri-
cación de múltiples produc-
tos indispensables en nues-
tra vida diaria.
Como podemos comprobar
la importancia del petróleo
se encuentra más que justifi-
cada tras conocer las innu-
merables ventajas que posee
con respecto a otras fuentes de energía además de su
manejo, versatilidad y facilidad para ser transportado.
La industria petroquímica proporciona el material base
para hacer todo lo que nos podamos imaginar.
Existencias petróleo
Tras demostrar su importancia, saber la enorme canti-
dad de barriles diarios consumidos y, sobretodo, sa-
biendo que se trata de un combustible fósil no renova-
ble, puede que se esté preguntando: ¿cuánto petróleo
queda? ¿habrá suficiente petróleo para tener una cali-
dad de vida sin precios desproporcionados debidos a
su escasez? Han sido muchas las hipótesis formuladas a
lo largo de los años, siendo una de las más conocidas la
teoría del pico de Hubbert o del cenit del petróleo.
M. King Hubbert fue un geofísico capaz de predecir,
con quince años de antelación y pese a que pocos le
creyeron, el pico de producción de petróleo de los Es-
tados Unidos, que se produjo en diciembre de 1970.
Para ello creó un modelo matemático que predecía el
Imagen 4. Hipótesis sobre el Pico del Petróleo.
Fuente: ASPO 2005 (Association for the Study of Peak Oil)
59Nº12. Abri l de 2016
Una vez que se descubre un yacimiento, se estima que transcurren 40 años desde que un
país alcanza el pico de descubrimiento hasta que alcanza el pico de producción
sector de energías renovables para disminuir esta de-
pendencia en la mayor medida posible de cara a un
futuro en el que ciertas fuentes de energías o combusti-
bles fósiles, como el petróleo, escaseen.
Alternativas energéticas
Como venimos anticipando a lo largo del artículo, las
reservas mundiales de combustibles fósiles se agotarán
en un futuro no muy lejano y es necesario encontrar
fuentes de energía alternativas y, a poder ser, menos
contaminantes. El problema es que es muy difícil en-
contrar una energía tan eficiente y aprovechable como
el petróleo. De la tecnología que seamos capaces de
desarrollar en los próximos años dependerá el éxito o
fracaso de las nuevas alternativas energéticas.
Al encarar esta situación, muchos científicos tratan de
desarrollar un método de obtención de hidrógeno
gaseoso como una fuente alternativa de energía. Éste
podría ser utilizado en motores de automóviles y en
celdas de combustible para producir electricidad, con la
gran ventaja de que los productos obtenidos no son
contaminantes, sino agua: 2H2(g) + O2 ->H2O(l). El
problema es que no es fácil obtener hidrógeno gaseoso
ya que no se encuentra de forma natural en la naturale-
za, y su proceso de obtención acaba siendo ineficiente.
Cuando se logre salvar este obstáculo se podría obte-
ner hidrógeno del agua del mar, por ejemplo.
Otros tipos de energía alternativa las podemos obser-
var durante algún viaje largo que hagamos por carretera
o simplemente observando desde la ventada del tren.
Hablamos de las energías eólicas y solar. Los aeroge-
neradores aprovechan la energía del viento para con-
vertirla en energía eléctrica que suministran a través de
las redes de distribución. Es un recurso abundante,
renovable y limpio. La energía eólica ha sido la tercera
fuente de generación eléctrica en España en 2015. En
cuanto a la solar fotovoltaica, como su propio nombre
indica, transforma la radiación solar en electricidad. Y
es que, ¿qué mejor que obtener energía de una fuente
que tenemos diariamente al alcance de nuestra mano?
A pesar de ello, la fotovoltaica abarca tan sólo el 1% de
la energía que se produce en el mundo.
Las empresas también son conscientes del potencial y
ahorro que se podría obtener a partir de energías reno-
nivel de extracción del petróleo a lo largo del tiempo y
nos auguraba que la producción mundial de petróleo
llegaría a su cenit y descendería tan rápido como cre-
ció. No se puede saber con certeza cuándo ocurrirá
esto, debido a los posibles descubrimientos de nuevas
reservas o la forma de extraer el mismo con más efi-
ciencia, pero sí que ello sucederá en un futuro no muy
lejano pues 54 de los 65 mayores países productores de
petróleo han llegado a su cenit de producción (5), tal y
como podemos comprobar en la Figura 4.
El problema del petróleo ya no es que el ritmo de des-
cubrimiento de nuevos yacimientos llegara a su cenit
hace 50 años y su producción, según Hubbert, entre
pronto en decadencia, es que vivimos en una sociedad
más desarrollada que nunca, tecnológica y económica-
mente, que demanda cada vez más petróleo que el año
anterior y que dificulta que se puedan seguir mante-
niendo este ritmo de producción por tiempo indefini-
do.
Dependencia energética: España
Desgraciadamente, la situación de España en materia
energética no es muy alentadora pues es el octavo país
con más dependencia energética según la UE. Aunque
bien es cierto que ésta ha tendido a disminuir durante
los últimos años gracias al incremento en el uso de las
energías renovables, importa el 72,9% de la energía que
consume(9). El principal problema de España es su
dependencia a los combustibles fósiles como el petró-
leo y el gas. Como sabemos carece de yacimientos de
petróleo y tampoco tiene bolsas de gas, por lo que la
solución se centra en apostar por las energías renova-
bles que independicen su economía de las fuentes de
energía foráneas. Teniendo en mente el modelo mate-
mático de Hubber, es determinante trabajar en este
60 Nº12. Abri l de 2016
¿Sabías que... 1.000 millones de barriles de
petróleo satisfarían la demanda mundial
sólo durante 12 días?
que las grandes multinacionales no cambien su modelo
de negocio. Mientras tanto, la sociedad podría aportar
su grano de arena a través de infinidad de situaciones:
utilizando transporte público en lugar de coger el co-
che para ir de un lugar a otro (o simplemente caminan-
do más), apoyando los comercios locales, utilizando
bolsas de tela en lugar de plástico, reciclando, usando
con moderación el aire acondicionado o la calefacción,
el agua caliente, evitando dejar varias luces encendidas
o el cargador enchufado una vez se ha retirado el mó-
vil, etc. En definitiva, este artículo pretende concienciar
al lector del valor que tiene la energía, más allá de lo
que haya que pagar por consumirla. Somos muy afor-
tunados por el simple hecho de tenerla en nuestros
hogares y no deberíamos desperdiciarla. Gracias a
nuestra pequeña colaboración, estaremos cuidando el
medio ambiente y con ello el futuro de nuestros hijos y
nietos.
Nadie sabe con exactitud cuando se acabará el petró-
leo, pero si hay una cosa en la que todos están de
acuerdo: es cuestión de tiempo que el petróleo se agote
como recurso primario natural. Es una realidad y cuan-
to antes la afrontemos, mejor.
vables (además del respeto por el medio ambiente) y,
pensando en el cliente, ofrecen algunas opciones ener-
géticas asequibles económicamente como, es el caso de
las baterías de Tesla Powerwall. Powerwall son unas
baterías con tecnología ion-litio hechas para autoabas-
tecer la energía consumida en los hogares e intentar
que familias y empresas disminuyan el coste de su fac-
tura eléctrica, además de cuidar el medio ambiente.
Tesla las presentó en mayo de 2015 y aún tiene que
superar obstáculos en ciertos países por temas políti-
cos, pues para las eléctricas supondría una disminución
considerable de energía suministrada. Afortunadamen-
te para los consumidores ya le han salido competidores
como las baterías de Orison o la batería RaStore lanza-
da hace un mes por una empresa valencia llama Solar
Rocket.
Otros tipos de energía alternativa conseguida hasta el
momento son la hidroeléctrica (obtenida de la caída
del agua desde cierta altura a un nivel inferior y aprove-
chada para accionar turbinas), la nuclear, la bioener-
gética, la geotérmica o la oceánica (se extrae energía
mediante la radiación solar incidente sobre los océanos
o mediante las mareas).
Todas ellas tienen una característica común:
aprovechar el uso de las energías renovables
y minimizar la dependencia de las fuentes de
energía actuales, haciendo del mundo un lu-
gar mucho más eficiente y menos conta-
minante.
Conclusiones y recomendaciones
La economía global crece a un ritmo aproxi-
mado de un 3% anual, requiriendo cada vez
más combustibles no renovables, en cantida-
des mayores a la que pueden reponerse.
Desgraciadamente hasta que deje de ser ren-
table la extracción del petróleo es probable
REFERENCIAS Y BIBLIOGRAFÍA:
1) Post Carbon institute
2) American Chemical Society: ACS
3) Organización de Países Exportadores de Petróleo (OPEP)
4) US Energy Information Administration
5) Peeking at Peak Oil: Authors: Aleklett, Kjell. 2005
6) http://www.ecologiaverde.com
7) US Energy Information Administration
8) http://www.aeeolica.org
9) Oficina estadística de la UE, Eurostat
61Nº12. Abri l de 2016
La tierra tardó 5 millones de años en producir los combustibles fósiles
que consume el mundo en un año.
tre otros factores de la cuantía
mecánica de las armaduras. Para
conocer la capacidad dúctil del
hormigón armado como material
compuesto, es necesario exami-
nar previamente las característi-
cas de ductilidad de sus compo-
nentes: hormigón y acero.
Tipos de ductilidad:
 Ductilidad del material (με)
caracteriza las deformaciones
plásticas del material.
 Ductilidad de sección
(curvatura) (μχ, μφ) se refiere a
las deformaciones plásticas de
las secciones transversales.
 Ductilidad de barra (rotación)
(μθ) cuantifica las rotaciones
plásticas que pueden tener lugar
en elementos estructurales tales
como vigas o columnas. Este
tipo de ductilidad a menudo se
utiliza también para las cone-
xiones entre los miembros
estructurales.
 Ductilidad Estruct ural
(desplazamiento) (μδ) es una
medida global del comporta-
miento inelástico de sistemas
estructurales sometidos a cargas
horizontales. (Imagen 3).
Como cuantificarla:
Sheikh & Khoury propusieron es
sus investigaciones sobre el dise-
ño de columnas en zonas sísmi-
cas, una clasificación de la ductili-
dad de sección (curvatura) μϕ,
definida ésta como el cociente
entre la curvatura pos pico ϕ2
Introducción
El concepto de ductilidad se em-
pezó a introducir en la década de
los setenta al revisar el comporta-
miento de estructuras dañadas
por terremotos durante esa épo-
ca. Se puede definir como la ca-
pacidad que tienen las estructu-
ras, sus componentes o los mate-
riales que las constituyen de de-
formarse más allá del límite elás-
tico sin pérdida de resistencia y
de acumular energía durante los
ciclos de carga (histéresis). Con-
traria a esta definición es la de
fragilidad, que implica una pérdi-
da súbita y completa de la resis-
tencia de una sección, elemento o
estructura en el momento en el
que se produce un incremento
del desplazamiento.
Uno de los criterios usados nor-
malmente para cuantificar la duc-
tilidad de una estructura, es eva-
luar la capacidad de rotación
plástica en ciertas regiones de la
misma. Este es el factor más im-
portante en el análisis con redis-
tribución de momentos. La capa-
cidad de rotación plástica depen-
de de varios factores relaciona-
dos: nivel de tensión, ductilidad
de la armadura, número de barras
transversales y resistencia del
hormigón. El propósito de este
criterio es permitir a la estructura
fallar de una manera dúctil. Es
necesario determinar como la
ductilidad afecta a la rigidez de
las estructuras de hormigón y
como la cuantía de la armadura
transversal afecta a la rotación
plástica. La capacidad de rotación
plástica de una sección es inver-
samente proporcional a la pro-
fundidad de la fibra neutra en
rotura (x/d), y esta depende, en-
DUCTILIDAD DEL MATERIAL Y
DUCTILIDAD ESTRUCTURAL.
LÍMITES Y CONCEPTOS..
LUIS MANUEL DELGADO DELGADO. INGENIERO DE CAMINOS, C. Y P.
62 Nº12. Abril de 2016
Imagen 1. Parámetro de ductilidad (curvatura) .
Ref: CEB –FIB Model Code 2010
hormigón. Por ello, su ductilidad
o el comportamiento frente a
solicitaciones de compresión,
depende del tipo y grado de con-
finamiento que tenga, es decir, el
grado de impedimento que en-
cuentre el desarrollo de las micro
fisuras. Cuando el confinamiento
es el adecuado, el hormigón me-
jora no sólo su capacidad resis-
tente, sino también su capacidad
de deformarse de forma dúctil.
En la práctica, este grado de con-
finamiento es suministrado por la
colocación de otros materiales
estructurales (acero de armar,
tanto longitudinal como transver-
sal) o no estructurales como los
que constituyen los cerramientos.
De esta forma, el hormigón que-
da confinado en el interior de la
jaula tridimensional formada por
las armaduras longitudinales y los
estribos colocados transversal-
mente). En la (Imagen 2) puede
observarse la diferencia entre los
diagramas tensión-deformación
del hormigón con y sin confina-
miento.
La curva tensión-deformación del
hormigón en compresión presen-
ta un valor máximo para una de-
formación unitaria alrededor del
0,2 %. A partir de éste valor, la
tensión máxima, en un ensayo de
deformación controlada se redu-
ce. La deformación última del
hormigón alcanza valores entre el
0,3% y el 0,5% para hormigones
comunes sin confinamiento, de-
pendiendo del tipo de hormigón.
En la (Imagen 4) pueden verse
diagramas tensión-deformación
típicos para hormigones con dife-
rentes resistencias. Los valores de
las deformaciones indican que los
hormigones de altas resistencias
son más frágiles que los de bajas
resistencias, lo que deja claro que
las altas resistencias no implican
necesariamente alta ductilidad.
Sin embargo, la ductilidad estruc-
tural no tiene por qué ser menor
que en hormigones convenciona-
les.
correspondiente al 80% del mo-
mento máximo que soporta la
sección y la curvatura ϕ1 corres-
pondiente a la intersección entre
la línea recta (comportamiento
perfectamente elástico) que pasa
por el origen y por el 75% del
momento máximo y el momento
máximo. (Imagen 1).
Ductilidad del hormigón
El hormigón, sometido a un esta-
do uniaxial de tensiones tiene un
comportamiento marcadamente
frágil incluso frente a solicitacio-
nes de compresión. En este ma-
terial, la relación tensión-
deformación se ve afectada por el
desarrollo de micro y macro fisu-
ras en su estructura. En particu-
lar, se forman micro fisuras en la
superficie de contacto árido-
mortero, incluso antes de la pues-
ta en carga. Estas micro fisuras,
originadas por la retracción, se-
gregación o por tensiones debi-
das a variaciones térmicas en la
pasta de cemento, aumentan al
aumentar la tensión y constituyen
el punto más débil del compuesto
hormigón.
El desarrollo de estas fisuras, ini-
cialmente invisibles, contribuye al
comportamiento no lineal en la
relación tensión-deformación del
Imagen 3. Medidas de ductilidad para estructuras (a), elementos (b) y materiales constituyentes (c) .
Ref: Ductility of FRP–concrete systems: Investigations at different length
63Nº12. Abri l de 2016
Imagen 2. Diferencia entre los diagramas σ-ε del
hormigón con y sin confinamiento .
Ref: Strength and ductility of confined concrete
los aceros pueden tener distintos
grados de ductilidad, en función
de su capacidad de deformación
plástica.
La forma clásica para evaluar la
ductilidad de un acero se basa en
la consideración de una serie de
variables que, de forma aislada o
combinadas entre sí, miden la
ductilidad. Se cuantifica en base a
los datos obtenidos mediante la
realización del ensayo de tracción
y referidos a la capacidad resis-
tente por encima del límite elásti-
co, la capacidad máxima de de-
formación y el alargamiento re-
manente después de rotura.
Ductilidad de la sección
La ductilidad necesaria en una
estructura de hormigón armado
se puede conseguir mediante la
adopción de un diseño estructu-
ral adecuado y, sobre todo, de la
realización de secciones dúctiles
en todos los elementos que for-
man la estructura. La ductilidad
de la sección viene determinada
por su capacidad para soportar
una gran deformación plástica sin
una significativa pérdida de la
capacidad portante desde el inicio
del comportamiento plástico has-
ta el agotamiento. Anteriormente,
se ha visto cómo una sección de
hormigón armado está constitui-
da por dos materiales de natura-
leza muy diferente: el hormigón,
relativamente heterogéneo y frá-
gil y es el acero, bastante más
homogéneo en sus características,
el que ha de proporcionar la duc-
tilidad precisa a nivel de sección
para que cada elemento estructu-
ral alcance la capacidad de defor-
mación requerida.
Una premisa básica para que una
sección sea dúctil es que el hor-
migón no alcance su agotamiento
a compresión cuando el acero
está todavía lejos de su alarga-
miento máximo. Es decir, una
sección de hormigón será frágil
cuando es el hormigón el causan-
te de su colapso por llegar a su
agotamiento en compresión y
será tanto más frágil cuanto, para
esta situación de agotamiento del
hormigón, el acero se encuentre
más lejos de su alargamiento má-
ximo. (Imagen 5).
El ángulo formado por la sección
deformada respecto de la inicial
se denomina curvatura. Curvatu-
ra elástica, es la parte de la curva-
tura total ocurrida hasta que el
acero alcanza el alargamiento co-
rrespondiente a su límite elástico.
Curvatura plástica es, por tanto,
Ductilidad del acero
El comportamiento dúctil de las
estructuras está condicionado por
las características mecánicas del
acero usado como armadura. La
ductilidad está relacionada con la
capacidad del acero de absorción
de energía hasta la rotura (área
total bajo la curva tensión-
deformación). Esta energía de-
pende, de manera muy importan-
te, aunque no única, dada la for-
ma creciente de endurecimiento
por deformación de la curva de
tracción a partir del límite elásti-
co, del grado de deformación
plástica que puede experimentar
un acero hasta la rotura. Por tan-
to, la ductilidad del acero puede
definirse como “la capacidad del
mismo para admitir alargamien-
tos importantes bajo tensiones
iguales o superiores a su límite
elástico” o bien, como “la capa-
cidad del acero para deformarse
sin romperse bajo tensiones que
superan su comportamiento elás-
tico”. Desde este punto de vista,
64 Nº12. Abri l de 2016
Imagen 4. Diagramas σ-ε de hormigones de
diferentes resistencias. .
Ref: Tesis Doctoral Esther Moreno
“Una sección de hormigón será frágil cuando es el hormigón el causante de su colapso por
llegar a su agotamiento en compresión”-
Imagen 5. Análisis del comportamiento hasta
rotura.
Ref: Asignatura MIH UPV
se sitúa en la frontera entre el
colapso del acero y del hormigón.
De igual forma, para cada tipo de
acero existe un valor crítico de la
profundidad de la fibra neutra. A
continuación se señalan distintas
formas de aumentar o disminuir
la ductilidad de una sección. En
cualquier caso, debe verificarse la
compatibilidad entre deformacio-
nes y las condiciones de equili-
brio de la pieza.
Factores que aumentan la ductili-
dad de una sección:
 Mayor ductilidad del acero.
 Mayor porcentaje de acero
comprimido.
 Mayor relación fs/fy.
 Mayor Ԑmáx.
 Evitar en el cálculo de seccio-
nes cuantías elevadas o muy
reducidas de armadura de trac-
ción.
 Mayor resistencia a compresión
del hormigón.
 Mayor deformación última del
hormigón, que puede conse-
guirse mediante zunchado con
armadura transversal.
 Limitar superiormente los es-
fuerzos axiales de compresión
relativos.
Factores que disminuyen la ducti-
lidad de una sección:
 Mayor porcentaje de cuantía del
acero en tracción.
 Mayor límite elástico del acero.
 Mayor solicitación de compre-
sión axial.
 Mayor adherencia hormigón-
acero.
la diferencia entre la total y la
elástica. La rotación se define
como el ángulo formado entre las
caras de una sección cualquiera
de una pieza, producido por la
deformación de ésta. La rotación
se refiere a dos secciones deter-
minadas de la pieza en un mismo
estado de deformación, mientras
que la curvatura se refiere a una
sección concreta también en un
determinado estado de deforma-
ción. En ocasiones y con el fin de
simplificar los modelos para reali-
zar los cálculos, la rotación plásti-
ca se supone acumulada en una
sección de la pieza que se deno-
mina rótula concentrada. Estas
rótulas concentradas se sitúan en
las secciones críticas que son
aquellas que dentro de las de una
pieza son susceptibles de dar lu-
gar a una rótula plástica por su
situación y características. La ro-
tación de una rótula es el ángulo
total entre las caras extremas de
la zona plastificada y la capacidad
de rotación de una rótula plástica
es la rotación máxima que admite
en el momento en el que su sec-
ción crítica alcanza el colapso. En
definitiva, para que una sección
sea dúctil, debe admitir curvatu-
ras plásticas importantes y a ma-
yor ductilidad del acero, mayor
capacidad de rotación de la sec-
ción del acero, mayor capacidad
de rotación de la sección.
Es necesario conocer también los
diversos factores que afectan a la
ductilidad de la sección, entre los
que destacan la resistencia y capa-
cidad de los materiales hormigón
y acero, las cuantías mecánicas de
armaduras de compresión y trac-
ción, la geometría de la sección y
la presencia de esfuerzo axil. Para
cada tipo de acero y de hormi-
gón, existe una cuantía crítica que
65Nº12. Abri l de 2016
Imagen 6. Explicación. Si la imagen no es original nuestra debemos poner:
Ref: Asignatura MIH UPV.
pequeño. La trabajabilidad del
material, que está mucho más
ligado a la relación l/d, conduce a
preferir fibras cortas. Por otro
lado, para controlar las macro
fisuras las fibras deben ser lo su-
ficientemente largas para estar
adecuadamente ancladas en la
matriz, si bien por requerimien-
tos de trabajabilidad las fibras
largas deben ser usadas en meno-
res proporciones que las cortas.
En definitiva, la resistencia a trac-
ción y la ductilidad del material
pueden ser incrementadas em-
pleando una alta proporción de
fibras cortas y, para mejorar la
capacidad resistente y la ductili-
dad de la estructura, se debe aña-
dir una cierta cantidad más baja
de fibras largas.
En hormigones reforzados con
fibras metálicas (SFRC), se pue-
den presentar dos tipos de com-
portamiento tras la fisuración. Un
comportamiento después de la
formación de fisuras de ablanda-
miento en tracción uniaxial
(Imagen 8 a) o de endurecimien-
to para una matriz de hormigón
de muy alto rendimiento y alto
contenido de fibras (Imagen 8 b).
Puesto que los mecanismos de
refuerzo de fibra se activan prin-
cipalmente después de la fisura-
ción de la matriz de hormigón,
las fibras tienen una influencia
marginal en el comportamiento
de los elementos no agrietados.
Por lo tanto, la resistencia a la
tracción del hormigón está rela-
cionada con la resistencia de la
matriz y no está influenciada por
las fibras.
La resistencia (post-cracking) a la
tensión residual, es la que repre-
senta un parámetro de diseño
importante para las estructuras de
FRC, es la propiedad mecánica
más influenciada por el refuerzo
de fibras.
Debido a las dificultades en la
realización de ensayos de tracción
uniaxial, se emplean ensayos de
flexión con vigas con pequeñas
muescas como método de prue-
ba estándar para la clasificación
FRC. Dado que el comporta-
miento de flexión es marcada-
mente diferente del comporta-
miento uniaxial de tensión, puede
ocurrir que los materiales de
ablandamiento en tensión pre-
sente un comportamiento de en-
durecimiento en la flexión.
Ductilidad en los Fiber-
reinforced concrete (FRC)
El efecto de las fibras en las dife-
rentes etapas del proceso de fisu-
ración del hormigón se refleja a
dos escalas: material y estructural.
Así, en la fase de fisuración alea-
toria, las fibras cosen las fisuras
activas y retardan el desarrollo,
incrementando la resistencia y la
ductilidad a escala del material,
mientras que en la etapa en que
las macro fisuras se propagan, las
fibras también cosen las fisuras y
así aportan mayor capacidad re-
sistente y ductilidad a escala es-
tructural.
Cuando se requiere que las fibras
actúen en las micro fisuras, se
debe adicionar un gran número
de fibras y su diámetro debe ser
Imagen 8. Resistencia (post-cracking) a la ten-
sión residual..
Ref: Fibre reinforced concrete: new design
perspectives
66 Nº12. Abri l de 2016
“La resistencia (post-cracking) a la tensión residual, es la que representa un parámetro de
diseño importante para las estructuras de FRC”-
 La no linealidad del conjunto
(hormigón-acero), como se ob-
serva en los diagramas tensión-
deformación de las secciones.
 La fisuración del hormigón, que
afecta a la rigidez de la sección
y, en consecuencia, a la defor-
mabilidad de las estructuras y a
las leyes de esfuerzos solicitan-
tes.
 La presencia de armaduras, que
en determinadas zonas (por
ejemplo, en nudos), puede dar
lugar a leyes de esfuerzos distin-
tas de las deducidas de un análi-
sis simplificado, elástico- lineal,
con rigidez constante.
 La ductilidad es difícil de cuan-
tificar, falta de consenso.
 En (FRC) la resistencia a trac-
ción y la ductilidad del material
pueden ser incrementadas em-
pleando una alta proporción de
fibras cortas y, para mejorar la
capacidad resistente y la ductili-
dad de la estructura, se debe
añadir una cierta cantidad más
baja de fibras largas.
En el código modelo en el artícu-
lo 7.7.2 correspondiente a princi-
pios de diseño de estructuras de
FRC en estado límite de servicio.
En cuanto a requerimiento de
ductilidad, indica que todas las
estructuras de FRC que no dis-
pongan de un armado convencio-
nal han de satisfacer una de las
dos condiciones siguientes:
δu ≥ 20 δSLS
δpico ≥ 5 δSLS
Donde δu es el desplazamiento
último, δpico es el desplazamien-
to bajo carga máxima y δSLS es
el desplazamiento debido a la
carga de servicio bajo hipótesis
de análisis elástico lineal no fisu-
rado y módulo de Young inicial.
(Imagen 10)
Conclusión
 La heterogeneidad del conjunto
hormigón-acero, hace que el
comportamiento y propiedades
de una sección de hormigón
armado difieran considerable-
mente de los correspondientes
a cada uno de los elementos
que lo componen. Dicho com-
portamiento está caracterizado
fundamentalmente por:
Imagen 10. Grafica carga-desplazamiento del
FRC. .
Ref: CEB –FIB Model Code 2010
REFERENCIAS Y BIBLIOGRAFÍA:
 Marco di Prisco, Giovanni Plizzari, Lucie Vandewalle, Fibre
reinforced concrete: new design perspectives, Materials and
Structures (2009) 42:1261–128, RILEM 2009.
 Model Code 2010, 7.7 Verification of safety and serviceability of
FRC structures, 7.7.2 Design principles.
 Moreno Fernández, Esther. Corrosión de armaduras en estructuras
de hormigón. Tesis Doctoral. U. Carlos III, 2008.
 Murat Saatcioglu, Salim R. Razvi, STRENGTH AND DUCTILITY
OF CONFINED CONCRETE, Journal of Structural Engineering,
Vol. 118, No.6, June, 1992.
 NCSE02, ANEJO 10º, Requisitos especiales recomendados para
estructuras sometidas a acciones sísmicas
 Oguz Gunes, Denvid Lau, Chakrapan Tuakta, Oral Büyüköztürk,
Ductility of FRP–concrete systems: Investigations at different length
scales, Construction and Building Materials 49 (2013) 915–925,
ELSEVIER.
67Nº12. Abri l de 2016
Imagen 9. Distintos comportamientos del FRC. .
Ref: Fibre reinforced concrete: new design
perspectives
.
el mundo independientemente de
su posición económica o ideoló-
gica. Aunque obviamente si al-
guien posee una fuerza política
determinada, sus acciones pue-
den tener un mayor impacto en
comparación con el ciudadano de
a pie. El presente artículo, hace
hincapié en la contaminación que
se produce en nuestro país ya que
es lo que nos afecta de forma
más directa.
Contaminación en España
La contaminación en España está
directamente relacionada con
nuestro modelo de desarrollo.
Cuando se habla de contamina-
ción ambiental se está haciendo
referencia a cualquier agente, ya
sea físico, químico o biológico,
que en determinada forma y can-
tidad sea perjudicial para la salud
y el bienestar de la población o
de cualquier forma de vida ani-
mal o vegetal. Aunque cuando se
habla de contaminación, lo pri-
mero en que se piensa es en la
contaminación atmosférica, tam-
bién hay otros tipos de contami-
nación como la del suelo o las
aguas. Por desgracia, en España
ha habido desastres ecológicos
muy serios como, por ejemplo, el
caso del vertido de petróleo del
barco Prestige en las costas galle-
gas en el año 2002 o el derrame
de aguas ácidas y lodos tóxicos
en la mina de pirita de Aznalcó-
llar (Sevilla) en el año 1998, que
afectó al Parque Natural de Do-
ñana.
La contaminación hídrica afecta
especialmente a nuestro país, se-
ñalándose por parte de determi-
nados grupos ecologistas, como
Greenpeace, que al año en Espa-
ña se vierten en las aguas 2 millo-
nes de toneladas de contaminan-
tes. Esto es especialmente grave,
debido a que recuperar océanos,
mares o ríos contaminados es
muy complicado, siendo en algu-
nos casos el daño irreparable.
Introducción
En términos generales, cuando se
habla de contaminación la gente
suele pensar en que los más afec-
tados por ella son el suelo, las
plantas, los animales y otros ele-
mentos del entorno donde se
produce. Si bien es cierto que
flora, fauna y otros elementos se
ven seriamente afectados, no me-
nos cierto es que el ser humano
también es víctima de la contami-
nación ambiental. Lejos de redu-
cirse, la contaminación va a más,
y el actual estilo de vida, especial-
mente en los países desarrollados
económicamente, hace que se
incrementen las emisiones de
sustancias nocivas para el me-
dioambiente y todos los que lo
forman, incluidos los humanos.
Otro prejuicio, que la gente suele
tener, es el hecho de pensar que
el cuidado del medioambiente
pertenece exclusivamente a deter-
minados sectores ideológicos o
políticos, idea errónea puesto que
esto es algo que concierne a todo
LA CONTAMINACIÓN
AMBIENTAL EN ESPAÑA.
JUAN MANUEL ALFARO ÁLVARO. INGENIERO INDUSTRIAL.
68 Nº12. Abril de 2016
Imagen 1. Costa gallega tras el accidente del
Prestige. Imagen extraída de la página web:
http://www.greenpeace.org
y variable, midiéndose mediante
el Índice de Calidad General
(ICG), que se obtiene mediante la
combinación de las mediciones
de 23 parámetros que afectan a la
composición del agua, la toxici-
dad, la eutrofización, que es el
desarrollo de determinadas algas
debido a la acumulación de resi-
duos orgánicos, la idoneidad de
acoger vida y a otra serie de ca-
racterísticas vinculadas con la
calidad del agua. Destaca la con-
taminación de algunas costas es-
pañolas debido principalmente a
los desechos generados por el
turismo que pueden a llegar a
contarse por toneladas.
Otro riesgo a tener en cuenta, es
la excesiva explotación del agua,
ya que puede deteriorarse su cali-
dad e incluso su disponibilidad.
Una excesiva extracción de aguas
subterráneas por encima de los
niveles de recarga, produce una
merma de los niveles freáticos,
que son los niveles superiores de
las capas freáticas o acuíferos,
reduce la calidad de las aguas,
produce también la salinización
del agua, como en las costas, y
modifica algunos entornos im-
portantes para la estabilidad de
los ecosistemas, como los hume-
dales. Las cuencas más excesiva-
mente explotadas en nuestro país
están ubicadas en las Islas Cana-
rias, en las Islas Baleares y en el
tercio sureste del territorio penin-
sular, que son las zonas donde
existe un balance desfavorable
del agua pero que cuentan con
valiosos acuíferos.
Otro foco de contaminación y de
merma de la calidad ambiental
en España es el debido a los resi-
duos. La cantidad de estos gene-
rada por habitante cada año va a
más como consecuencia del mo-
do de vida, por lo que es una
preocupación significativa que se
intenta paliar con sistemas de
recogida selectiva de residuos,
para su gestión, reciclaje o reutili-
zación, como ocurre con el com-
postaje.
Uno de los ejemplos de este tipo
de contaminación es el del Río
Tinto, especialmente a su paso
por Niebla, provincia de Huelva,
donde presenta un nivel de ph de
2,5 estimándose que por las aguas
del río circulan más de 1.000 to-
neladas de cobre y más de 8.000
toneladas de hierro. Aunque en el
caso del Río Tinto, muchas aso-
ciaciones ecologistas reflejan que
esta contaminación se debe prin-
cipalmente a la actividad minera
de la zona, es cierto que hay estu-
dios de biólogos que indican que
gran parte de esta contaminación
es natural e incluso se produce a
profundidades de 600 metros
debido a fuentes ácidas situadas
en el subsuelo. En cualquier caso,
ya sea natural o generada por el
hombre, la contaminación de esta
zona es evidente.
El agua es un recurso esencial en
nuestro país y su calidad puede
variar de manera muy fácil ante
cualquier foco contaminante, por
muy pequeño que sea. Las princi-
pales causas de la contaminación
de las aguas subterráneas son: los
vertidos urbanos, los vertidos de
la industria y los fertilizantes que
se depositan en el terreno y se
filtran, ya sean los relacionados
con la agricultura intensiva, espe-
cialmente por los productos fito-
sanitarios o plaguicidas, o los vin-
culados a los excrementos de los
animales. En estos casos, el agua
puede llegar a tener una gran can-
tidad de nitratos que pueden per-
judicar a la salud humana. Ade-
más de los nitratos, el amonio
(NH4) es otro compuesto a tener
en cuenta debido a su inclusión
en el agua debido a las redes de
saneamiento. En España la con-
taminación de los ríos es diversa
Imagen 2. Río Tinto a su paso por Huelva. Imagen obtenida de la web http://www.efeverde.com/
69Nº12. Abri l de 2016
fenol o tolueno, debidos al trata-
miento de maderas; y los clorofe-
noles presentes en plaguicidas y
herbicidas.
Pese a que pueda parecer que
existen muchas leyes medioam-
bientales que protegen nuestro
entorno, en España antes del año
1998 no existían normativas que
protegieran los suelos de la con-
taminación. Como se ha dicho
los suelos contaminados se sue-
len dar en zonas con una alta ac-
tividad industrial, esto se traduce
en que las comunidades autóno-
mas más afectadas por este tipo
de suelos son la Comunidad de
Madrid, Cataluña, País Vasco, la
Comunidad Valenciana y Andalu-
cía. Para atacar este problema las
leyes de protección reflejan cuan-
do un suelo se puede considerar
contaminado, cuáles son las cau-
sas que lo producen y qué trata-
mientos o remedios tanto econó-
micos como técnicos se deben
poner en marcha para subsanar
esta situación. En general, las
leyes españolas priorizan el trata-
miento de la contaminación “in
situ”, pero las empresas que se
dedican a esto no son numerosas,
por lo que las comunidades autó-
nomas elaboran planes propios
como el País Vasco o la Comuni-
dad de Madrid, que ofrece opor-
tunidades de I+D en las infraes-
tructuras de tratamiento. En ge-
neral, es preferible el tratamiento
de residuos, el saneamiento del
suelo y su valorización a la elimi-
nación en los vertederos. Las téc-
nicas de tratamiento “in situ” se
prefieren a las “ex situ” porque
son más económicas, no se ne-
cesita excavar el suelo por lo que
generan menos polvo y liberan
menos contaminantes, aunque
tienen inconvenientes como el
alargado plazo de ejecución, la
dificultad en su manejo y su me-
nor eficacia en suelos no permea-
bles. Las principales técnicas “in
situ” son: el lavado, donde se
introduce una disolución en el
suelo para eliminar los contami-
nantes; la vitrificación, que con-
siste en el uso de electrodos; la
solidificación; la aireación, que
consiste en la extracción de vapo-
res mediante la aplicación de un
chorro de aire; la separación elec-
trocinética, mediante la aplicación
de un campo eléctrico; los muros
de tratamiento; y una serie de
técnicas biológicas de diversa
índole como la bioaireación, la
inyección de peróxido de hidró-
geno y el uso de plantas para me-
tales y contaminantes orgánicos.
El suelo también es un recurso
básico para cualquier ecosistema
y para las actividades que las per-
sonas realizan en ellos, además de
ser sensible a la contaminación
por lo esta supone un fuerte im-
pacto para el entorno. Las princi-
pales amenazas a las que se en-
frenta el suelo son la erosión, la
salinización, la contaminación,
como por ejemplo la debida a los
residuos urbanos, y la reducción
de la biodiversidad. Las activida-
des industriales son las que prin-
cipalmente contaminan el suelo y
las principales sustancias conta-
minantes son: los hidrocarburos;
los metales pesados, como cobre,
plomo o zinc, que se producen
en industrias de revestimientos
metálicas y de reciclaje de bate-
rías; los aceites minerales, debi-
dos al petróleo y los automóviles;
los disolventes halogenados co-
mo el tricloroetano; los compues-
tos aromáticos como el benceno,
Imagen 3.. Drenaje de ácido en la mina de San Quintín, en Ciudad Real. Fuente: Universidad Complu-
tense de Madrid. Imagen extraída de la web: http://www.madrimasd.org
70 Nº12. Abri l de 2016
“El 95% de la población de España respira aire contaminado”
han estado destinadas a que la
gente no use tan frecuentemente
los vehículos particulares y a pro-
mover el uso de transporte públi-
co, pero han sido parches tempo-
rales para solucionar un proble-
ma puntual, pero el problema
general sigue estando muy pre-
sente. Estas medidas se aplican
según los niveles de contamina-
ción y según el tipo de contami-
nante, de forma que en casos
extremos de polución se podría
restringir el uso de los vehículos
e incluso prohibir los automóvi-
les de combustible diesel. Estas
medidas son bastante impopula-
res, por eso se van demorando en
el tiempo o aplicando de forma
suave para evitar conflictos políti-
cos con la población, que en mu-
chos casos no es consciente del
peligro al que se expone.
Según estudios de algunas organi-
zaciones ecologistas, como Eco-
logistas en Acción, se estima que
el 95% de la población de España
respira aire contaminado, esto
supone que 45 millones de espa-
ñoles respiran un aire de mala
calidad que puede afectar seria-
mente a su salud. Se estima tam-
bién según estos informes, que
aproximadamente 27.000 muer-
tes al año, en España, están rela-
cionadas de forma directa o indi-
recta con la mala calidad del aire,
que afecta especialmente a niños,
ancianos, embarazadas y perso-
nas con afecciones respiratorias.
Y es que, en general, la gente está
poco concienciada del peligro al
que se expone al respirar diaria-
mente aire que supera los niveles
permitidos de contaminantes.
La contaminación más célebre,
por ser habitual en las grandes
ciudades como Madrid, es la at-
mosférica que tiene un fuerte
impacto sobre la salud humana
debido, obviamente, al aire que
se inhala. En los últimos años en
Madrid, se ha hecho famoso el
dióxido de nitrógeno (NO2), por
ser uno de los contaminantes que
más supera los niveles permitidos
en la capital de España. Y es que
las emisiones de gases contami-
nantes a la atmósfera merman
significativamente la calidad del
aire y provocan elevados niveles
de contaminación que repercuten
en el deterior de la salud humana
y del medioambiente, principal-
mente en las zonas de gran pro-
ducción de energía, las grandes
ciudades, especialmente debido al
elevado número de automóviles y
los lugares con una importante
actividad industrial.
Los principales contaminantes
que afectan al aire son el dióxido
de carbono (CO2), que es el prin-
cipal gas de efecto invernadero, el
monóxido de carbono (CO), los
aerosoles, los óxidos de nitró-
geno, los óxidos de azufre, los
hidrocarburos y el ozono tropos-
férico. Para reducir esta serie de
contaminantes hay normativas
tanto europeas, como estatales,
autonómicas y municipales, pero
aún así sigue siendo un problema
que lejos de resolverse va a más.
Algunas medidas que se han to-
mado en ciudades como Madrid,
Imagen 4. Paseo de la Castellana de Madrid en 2011, repleto de vehículos y con una visible contamina-
ción del aire. Fotografía obtenida de la web: http://ecovoz.blogcindario.com
REFERENCIAS Y BIBLIOGRAFÍA:
 Páginas web consultadas:
 http://www.ign.es
 http://elblogverde.com/contaminacion-del-suelo/
 http://www.elmundo.es/ciencia/2015/06/23/55894b35ca4741472f8b457c.html
71Nº12. Abri l de 2016
Laurent d’Arlandes, lo realizaron en una máquina crea-
da por el hombre. Uno de los primeros diseños fué
hecho por Sir George Cayley en 1804. A diferencia de
pioneros anteriores, Cayley se dedicó al estudio del
vuelo desde una perpectiva científica. De hecho es
considerado el primer científico de la historia de la
aviación. Notablemente se le atribuye el descubrimien-
to de la fuerza producida por el aire al fluir por encima
de una superficie curvada, que empuja la superficie ha-
cia arriba. Esta fuerza después fue conocida como sus-
tentación. George Cayley, realmente, hizo una gran
contribución a la ciencia aeronáutica. En 1848 William
Henson y John Stringfellow construyen el carruaje aé-
reo de vapor que realiza un vuelo de 40 metros antes
de estrellarse contra un muro. George Cayley hizo in-
tentos similares, pero con vehículos no motorizados.
El primero de ellos en 1849, en el cual hizo volar a un
niño de 10 años, y el segundo en 1853, en el cual voló
su cochero. Ambos exitosos. En 1852 el ingeniero
francés Henri Giffard inventó el dirigible, recorriendo
en su primer vuelo 24 kilómetros. Otros importantes
en esta época fueron realizados por el carpintero aus-
tríaco-húngaro Jan Wnęk en un planeador controlable,
el francés Jean-Marie Le Bris y su Albatross, y el fran-
cés Felix du Temple y su Monoplane.
El hombre ob-
servaba con ad-
miración el vuelo
de los pájaros y
soñaba con con-
quistar el cielo
a l g ú n d í a .
El empeño por
ganar la carrera
hasta lo más alto
ha pasado por
muchas etapas,
no exentas de
dificultades, has-
ta llegar al desarrollo tecnológico de la aviación tal y
como la entendemos ahora. Qui-
zás fue Leonardo Da Vinci el primero que proyectó
sobre papel su idea de cómo deberían ser las maquinas
para poder volar, un boceto de todo lo que vendría
más adelante. En los siglos XVIII y XIX comenzaron
los experimentos con los globos de aire caliente. Barto-
lomeu Lourenço de Gusmão, logró alzar el vuelo de
un aerostato, en 1709. Sin embargo, el primer vuelo en
globo del que se tienen constancia se realizó en París,
en 1783. Jean-François Pilâtre de Rozier y François
LOS PRIMEROS PASOS EN LA HISTORIA DE LA
AVIACIÓN.
ADRIÁN JIMÉNEZ MARTÍN. INGENIERO T. AERONAÚTICO.
El hombre desde sus antepasados siempre han
soñado con volar.
Ref: http://avionesestiludos.blogspot.com.es/
72 Nº12. Abril de 2016
Llienthal documentó extensivamente sus vuelos, inclu-
so con fotografías, razón por la cual es uno de los pio-
neros más conocidos de la época. Lamentablemente el
año 1896, después de haber realizado más de 2500 vue-
los exitosos, se precipitó a tierra cuando una ráfaga de
viento rompió el ala de su planeador. Cayó desde una
altura de 17 metros y se fracturó la columna. Falleció al
día siguiente en una clínica en Berlín, el 10 de Agosto
de 1896. Sus últimas palabras fueron: "pequeños sacri-
ficios deben hacerse".
Más tarde, serían los hermanos Wright quienes, tras
varios experimentos con planeadores, fabricarían en
1903 un avión biplano, llamado “The Flyer” . Fue el
primer avión dotado de maniobrabilidad longitudinal y
vertical, un aparato impulsado por un motor de gasoli-
na de cuatro cilindros y 16 H.P. El primer intento de
despegue lo realizaron el 14 de diciembre de aquel año
y constituyó un fracaso, pues el aparato sólo alcanzó a
levantarse levemente de la tierra, estrellándose después
de haber permanecido apenas tres segundos y medio
en el aire. Pero tres días más tarde, el 17 de diciembre
de 1903, el "Flyer" volvió a despegar, con Orville en
los mandos, logrando mantenerse doce segundos en
vuelo. La proeza de que una máquina más pesada que
el aire pudiera remontarse por su propia fuerza y volar
sin reducción de velocidad había sido por fin lograda, y
el avión con tanta ahínco perseguido, era ya una reali-
dad.
Otro personaje
importante en
ese tiempo fue el
pionero inglés
Francis Herbert
Wenham quien,
si bien no pudo
construir un mo-
delo exitoso,
realizó importan-
tes descubri-
mientos en el
campo de la ae-
ronáutica. Cons-
truyó, además, el primer túnel de viento. Los años pos-
teriores a 1880 se caracterizaron por intensos estudios
y un mayor desarrollo de la ciencia del vuelo. Estos
estudios y avances finalmente dieron como resultado la
construcción de los primeros planeadores de uso prác-
tico. En particular destacó el alemán Otto Lilienthal.
Realizó una investigación muy extensa, basándose en el
trabajo de Wenham. Este trabajo fue publicado en
1889 con el nombre de El vuelo de los pájaros como
base de la aviación. Además diseñó y construyó diver-
sos planeadores, cada uno con mejoras significativas
respecto al anterior. El más conocido se llamó Der-
witzer, debido a que fue probado cerca de Derwitz, en
Brandeburgo. Para el año 1891 podía realizar vuelos de
más de 25 metros sin dificultad, creando hasta 18 mo-
delos distintos en los siguientes cinco años.
Wilbur y Orville Wright.
Ref: http://historiaybiografias.com/wright/
Uno de los intentos de los hermanos Wright.
73Nº12. Abri l de 2016
tenacidad para lograr el despegue de aparatos más pe-
sados que el aire. En Rusia, Nicolás Joukovsky, "el pa-
dre de la aviación", según los soviéticos, creaba un ins-
tituto de aerodinámica y enseñaba mecánica. En Italia,
Arturo Crocco y Riccaldoni construían hidroplanos
para estudiar la hélice; y en Alemania, Karl Jatho efec-
tuaba, en agosto y noviembre de 1903, sendos saltos de
20 y 60 metros, respectivamente, con un aparato accio-
nado por un motor de gasolina, que, al no poder man-
tenerse en el aire, no constituyeron propiamente vue-
los. En definitiva, iba a ser Francia el país europeo en
que la aviación daría sus más tempranos frutos. El 25
de mayo de 1905 el capitán Ferdinand Ferber se con-
vierte en el primer europeo en pilotar un aeroplano
provisto de un motor de explosión, un biplano equipa-
do con un Peugeot 12 C.V. Por esa época se empieza a
hablar ya de los hermanos Gabriel y Charles Voisin,
quienes, tras experimentar con numerosos planeadores
sobre las aguas del Sena, inauguran la primera fábrica
de construcción aerodinámica del mundo. El honor de
ser el primer piloto oficialmente reconocido corres-
pondió a un brasileño avecindado en París, llamado
Alberto Santos Dumont. Este último hecho tuvo lugar
el 12 de noviembre de 1906, cuando el inventor y aero-
nauta latinoamericano voló 220 metros a una altura
aproximada de 6 metros, estableciendo el record mun-
dial de velocidad, con 41,2 kilómetros por hora. La
proeza fue lograda con un gran biplano equipado con
un motor Antoinette de 50 H.P. y provisto de ruedas
que le permitieron un despegue y un aterrizaje de rela-
tiva suavidad, en comparación con los bruscos toques
Inmediatamente
después, en el curso
del mismo día, fue-
ron realizados otros
tres exitosos ensa-
yos, cediéndose al-
ternativamente am-
bos hermanos los
comandos. Final-
mente, con Wil-
bur como piloto,
el frágil biplano
de dos hélices
conectadas al motor por medio de cadenas de bicicleta,
realizó un triunfal vuelo de 59 segundos, sobre una
distancia de 260 metros, con lo que no quedó lugar a
dudas de que el mundo estaba ante la presencia de un
nuevo y revolucionario medio de transporte. Curiosa-
mente, a pesar de los testigos que presenciaron la haza-
ña de los hermanos Wright y del comunicado a la pren-
sa que éstos enviaron el 5 de enero de 1904, el primer
vuelo en aeroplano de la historia pasó casi por comple-
to desapercibido. Al parecer, los Wright, con su actitud
de elegir un desierto poco menos que inaccesible para
realizar sus experimentos y de negarse a dar la menor
información previa acerca de su máquina y sus méto-
dos, se granjearon la antipatía de los periodistas, los
cuales en un comienzo ignoraron sistemáticamente sus
actividades. Así, sin publicidad de ninguna especie, am-
bos hermanos continuaron perfeccionando su invento,
y tras varios vuelos cada vez más prolongados, el 4 de
octubre de 1905, Wilbur voló 33
minutos 17 segundos, alcanzando a
recorrer una distancia cercana a los
40 kilómetros. Pero el silencio per-
sistió y sólo un periódico de poca
monta, especializado en la cría de
abejas, publicó un artículo. El 7 de
noviembre de 1910, realizaron el
primer vuelo comercial del mundo.
Este vuelo, realizado entre Dayton y
Columbus (Ohio), duró una hora y
dos minutos, recorriendo 100 kiló-
metros y rompiendo un nuevo ré-
cord de velocidad, alcanzando los
97 km/h. Mientras en los EE.UU.
triunfaban silenciosamente Wilbur y
Orville Wright, en la vieja Europa
numerosos pioneros trabajaban con Dumont con su “ 14 bis ”
74 Nº12. Abri l de 2016
Santos Dumont. Retrato con la Torre Eifel al
fondo.
París, 1906.
de tierra del aparato de los hermanos Wrihht. Santos Du-
mont bautizó este aeroplano con el nombre de "14 bis".
Establecer cuál fue el primer vuelo con un avión tripula-
do siempre ha despertado una gran controversia. Por un
lado, los hermanos Wright efectuaron el primer vuelo en
una aeronave motorizada. Patentaron la manera de
controlarlo en tres dimensiones lo que constituye la
base de las aeronaves actuales de alas fijas. El avión
ganó altitud al acabar el recorrido sobre los raíles, reco-
rriendo 37 metros a una velocidad media de 48 km/h,
durante los 12 segundos que duró el vuelo. Sin embar-
go, muchos consideran que el pionero de la aviación
fue Alberto Santos Dumont ya que en su caso despegó
apoyado con sus propias ruedas, mientras que los her-
manos Wright necesitaron la ayuda de un riel y un lan-
zador. Casi un año justo después del record de Santos
Dumont, el 13 de noviembre de 1907, un aparato as-
cendió por primera vez en forma vertical, al hacer su
aparición en escena un primitivo helicóptero que elevó
a su piloto y constructor, Paul Cornu, a la reducidísima
"altura" de 30 centímetros. Estaba lejos aún el momen-
to en que Juan de la Cierva diera a conocer su eficaz au-
togiro, pero de todas maneras este prematuro ensayo
constituyó un hito importante, pues demostró la factibili-
dad del despegue vertical. Más aún, pocos días más tarde,
la máquina de Cornu reafirmó su éxito al ascender un
metro y medio, no sólo con su piloto, sino que con el
hermano de éste, que se había aferrado a la armazón. No
obstante la llamativa experiencia de Cornu, son otros los
nombres que ocupan las primeras planas de los periódi-
cos galos de la época, como Esnault Pelterie, Delagrange,
De Pischoff, que el 6 de diciembre de 1907 vuela medio
kilómetro con un motor Anzani de 25 hp y Henri Far-
man, que alcanza a recorrer una distancia de 771 metros
el 26 de octubre de aquel mismo año, utilizando un mo-
tor Antoinette de 50 hp.
En los primeros días de 1908 un acontecimiento impor-
tante atrajo la atención de todo el mundo: el 13 de enero,
pilotando un biplano construido por Voisin y equipado
con un motor Antoinette de 40/50 hp, el ya célebre Hen-
ri Faenan ganó el gran premio de aviación Deutsch-
Archdeacon, instituido en 1904 para recompensar al pri
mer aviador que recorriera un kilómetro en circuito cerra-
do. Así, tuvieron que transcurrir cuatro largos años para
que alguien estuviera en condiciones de cumplir con el
requisito exigido para llevarse los 50 mil francos de re-
compensa. El aeroplano que efectuó la prueba había sido
encargado el 19 de junio de 1907 a las fábricas Voisin,
estipulándose estas drásticas condiciones en la carta de
solicitud: "este aparato debe volar un kilómetro en línea
recta, de lo contrario, M. Farman no deberá nada a M.
Voisin". Pero Gabriel Voisin trabajó a conciencia y gra-
cias al aeroplano salido de su fábrica, Farman no sólo
venció en el gran premio, desplazando a los demás parti-
cipantes, aviadores la talla de Blériot, Delagrange, Esnault
Pelterie, Ferber, Santos Dumont y Traian Vuia, sino que
consiguió también dos records homologados por la
F.A.I.: el de distancia, con 771 metros, y el de velocidad,
con 52,7 km/h. Pero mientras en Francia Farman se cu-
bría de laureles, al otro lado del Atlántico, en los EE.UU.,
la aviación cobraba su primera víctima, al perecer en un
accidente, el teniente Thomas Selfridge, quien volaba en
calidad de pasajero de Orville Wright, durante una prueba
para el ejército norteamericano. Milagrosamente, el prota-
gonista del primer vuelo en avión de la historia libró con
vida de este percance. En el año 1909 Farman llevó a ca-
bo una proeza, un acontecimiento verdaderamente gran-
de en la historia de la aviación, el primer cruce del Canal
de la Mancha.
Preparativos para el cruce del Canal.
Ref: aeromodelr.wikidot.com/
75Nº12. Abri l de 2016
“Una máquina más pesada que el
aire puede volar por su propia fuerza. ”
76 Nº12. Abri l de 2016
Y EL MES QUE VIENE...
Página 8
Página 4
Página 16
Página 12
Página 28
Página 22
Página 32
Página 44
Página 40
Bombas de agua
Dispositivo Medioambiental de
Producción de Aire Puro
Cubiertas Ajardinadas
Fluidos No-Newtonianos
Encendido eléctrico en motores
de combustión interna alternati-
vos
Voladuras a cielo abierto.
Cubiertas Colgantes de
Hormigón
Membranas en depuración de
aguas residuales industriales
Ventajas y Riesgos de la
Energía Nuclear
La Ionosfera
Página 36
77Nº12. Abri l de 2016
Página 54
Página 48
Página 64
Página 60
Energía Geotérmica de muy
baja temperatura
Confort térmico en el inte-
rior de las viviendas
Bombas de Calor
El secreto de las
Cajas Negras
Mejora de las Cargas Huecas
utilizando un telémetro Láser
Página 68
Página 74
Placas de circuito impreso
Biomateriales. Aplicaciones
en la Ingeniería Biomédica
Página 80
Puente Atirantado en Ta-
lavera de la Reina
Página 64
Página 72
Robótica ROS
BB77ISSN 2386-639X
12
9 772386 639006

1604 Biela 7.65 Nº12

  • 1.
    Biela 7.65 REVISTA DELMUNDO DE LA INGENIERÍA Y LA CONSTRUCCIÓN AÑO 3 NÚMERO 12 ABRIL DE 2016 ISSN 2386-639X 12 9 772386 639006 Explosivos industriales Lubricantes EL PETROLEO. FIEBRE DEL ORO NEGRO.
  • 2.
    CONTENIDO 2 Nº12. Abril de 2016 Accesibilidad en las comunidades de vecinos Ciclos deAire-Combustible en motores alternativos Diseño solar pasivo en Edificación Diseño bioclimático Puentes sobre las aguas de Rules La Radioactividad Evolución en los transistores Fundamentos para el formado de metales Página 8 Página 4 Página 18 Página 12 Página 26 Página 22 Página 30 Página 34
  • 3.
    3Nº12. Abri lde 2016 Biela 7.65 es el órgano de expresión del Centro de Formación IAE. info@ingenierosalejercito.com Edita el Centro de Formación IAE. Dirección: L.T. de Garnez Consejo de Redacción: Juan González; Alvaro Manuel Sanchez; Álvaro Titos ; José Emilio Fernández; Iván García ; Raquel Hernández; Jose Maria Lozano ; Francisco Navarro; Joaquín Toro; Antonio Climent; Rebecca Renuncio; Jorge Peña; Francisco Escamez; Marcos Cerdán; Miguel Silva; José Vicente Jurado; Alejandro Larruy; Pablo Alonso; Alberto Martín; Antonio Flores; Marta Sanz del Burgo; Fernando Martel; Yeray Estévez; Adrian Quijada; Sergio Hurtado; Adrián Jiménez; Juan Manuel Alfaro; Alfonso Rojo; Andrés Siñeriz; Pablo Escribano ; Mikel Meno; Juan José Espinosa; Marta Bartolomé; Rocío B. Higueras ; José Manuel Ibáñez Poveda; Iban Cabrera ; Carlos Mollá ; Pedro Manuel Vélez; Carlos Medrano; Eduardo Baselga; Marcos Maldonado; Alejandro Gómez, Marta González, Laura García, Rubén Bonilla, Daniel Trujillo, Ángel Santos, Luis Manuel Delgado, Diego Fernández, Miriam Cle- mente, María Fernández, Victor García, Rebeca Rosado. Secretaría del Consejo de Redacción: Félix-Álvaro Pajares. Paseo de las Delicias. Madrid. Imprime: Centro de Impresión DaBe Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción. Explosivos industriales Lubricantes Evolución de los transistores Fiebre del Oro Negro. Petróleo Ductilidad del Hormigón Técnicas de Mantenimiento. Método RCM Página 38 Página 44 Página 56 Página 52 Página 62 Página 48 Contaminación en España Página 68 Primeros pasos de la Aviación Página 72
  • 4.
    En muchos edificios,aun disponiendo de ascensor, existen barreras arquitectónicas para personas en silla de ruedas o con movilidad reducida. La existencia de pequeños diferencias de nivel que se salvan con escaleras o con un medio no accesible, se convierten a menudo en grandes barreras. Las Comunidades de Propietarios están obligadas a la mejora de la accesibilidad y en los edificios con cierta antigüedad se puede requerir de obras para satisfacer los requisi- tos básicos de seguridad, habitabi- lidad y accesibilidad universal de modo que se permita el uso ade- cuado y fácil para todos sus usua- rios y especialmente para las perso- nas con discapacidad. No se debe obviar que todos, con el paso del tiempo seremos mayo- res y necesitarán de espacio de fácil acceso y circulación. ¿Qué se entiende por accesibilidad? Se puede entender como la posibili- dad de tener acceso, paso o entra- da a un lugar o actividad sin limita- ción alguna por razón de deficien- cia, discapacidad, o minusvalía. ¿Dónde se recoge la regulación de la accesibilidad? Existe una serie de regulaciones de distinta índole que recogen la accesibilidad en sus requerimientos; desde el artículo 9 de la Constitución Española que exige a los poderes públicos garantizar el máximo bienestar de vida a todos los ciudadanos. Pasando por el artículo 148 de la propia Constitución Españo- la, que atribuye a las Comunidades Autónomas la competencia en materia de ordenación del territo- rio, urbanismo, vivienda y en ma- teria de asistencia social (las cuales han establecido normativas para garantizar dicha accesibilidad). Asimismo, debe mencionarse la Ley 51/2003, del 2 de diciembre, cita la igualdad de oportunidades, no discriminación y accesibilidad universal de las personas con dis- capacidad. O la más actual, el 11 de abril de este año entró en vigor el Real Decreto 233/2013, por el que se regula el Plan Estatal de fomento del alquiler de viviendas, la reha- bilitación edificatoria, y la regene- ración y renovación urbanas. LA ACCESIBILIDAD EN LAS COMUNIDADES DE VECINOS ANTONIO CLIMENT ALÓS. ARQUITECTO TÉCNICO. 4 Nº12. Abril de 2016 Imagen 1. Situación muy habitual que va desapareciendo Fuente: heartofearthcompany.wordpress.com Imagen 2. Rampa mal ejecutada. Excesiva pendiente y con salida muy peligrosa, directa a la calle. Fuente: www.tuedificioenforma.es
  • 5.
    La cual estableceque se considerarán actuaciones para realizar los ajustes razonables en materia de accesibili- dad, las que adecuen los edificios y los accesos a las viviendas y locales. ¿Qué se necesita para instalar elementos que faciliten la movili- dad de las personas discapacitadas en un edificio? Desde la reforma de la Ley de Propiedad Horizontal de 2003, la realización de obras que tengan por finalidad la supresión de barreras arquitectónicas, requerirá el voto favorable de la mayoría de los propietarios que, a su vez, representen la mayoría de las cuotas de participa- ción. Esto quiere decir que exige una doble mayoría. En pri- mer lugar de propietarios; esto es, si son 7 propietarios, deberían estar a favor, como mínimo 4. En segundo lugar, de cuotas. Cuando un propietario tiene una casa de mayor superficie o varias propiedades, su porcentaje de participación es mayor, en ese caso hace falta que el porcentaje sumado de las personas que quieren instalar el ascensor o la rampa alcance, como mínimo, el 51%. Llegados a ese punto, y en virtud de la Ley de Propie- dad Horizontal, "Los acuerdos válidamente adoptados con arreglo a lo dispuesto en esta norma obligan a to- dos los propietarios". Esto quiere decir que si la mayo- ría de los vecinos están de acuerdo en instalar un as- censor o una rampa, dicho acuerdo obliga al resto de los copropietarios. Si aún así la Comunidad se negase, a través de la vía admi- nistrativa, se podría llegar a la imposición de sanciones a la Comunidad. ¿Es necesario contar con un deter- minado porcentaje de minusvalía para exigir la instalación de elemen- tos que faciliten la accesibilidad? En ninguna ley se establece la necesidad de una determinada minusvalía para poder instalar este tipo de elementos. Ahora bien, en caso de falta de acuerdo y a efectos legales se considera que valdría con con- tar con una minusvalía de al menos el 33 %. ¿Quién ha de pagar la instalación del ascensor o la rampa? Tal como establece la Ley de Propiedad Horizontal, la instalación del ascensor obligaría a todos los propieta- rios del inmueble, debiendo éstos abonar el ascensor o la rampa en su totalidad "con arreglo a la cuota de par- ticipación fijada en el título de propiedad”. En el caso de los ascensores, suele suceder que los ve- cinos de pisos bajos no tienen inconveniente a que se instale el ascensor, pero lo que no quieren es pagar. Tal como dice la ley, el acuerdo de instalación obliga a to- dos los propietarios a pagar, pero en algunos casos lo que se suele hacer es instalar una llave en el ascensor. Imagen 3. Tabla resumen de los diferentes campos en los que se centra el concepto de accesibilidad hoy en día. Fuente: elaboración propia. Imagen 4. Zaguán ejecutado originalmente con rampa, pero con una pendiente excesiva que la hace totalmente inservible. 5Nº12. Abri l de 2016
  • 6.
    competentes del Ayuntamiento,a la vista del mencionado proyecto, concederán, o no, la licencia de obra. Es decir, la licencia de obra es posterior al acuerdo de instala- ción del ascensor. Normalmente y, en relación con la instala- ción de ascensores, se suele plantear el problema de la reducción del hueco de la escalera. En cuanto a las dimensiones de ésta, en principio, las normas técnicas de la edificación, establecen que debe tener una anchura mínima de 100 cms (puede variar según la comunidad autónoma). Sin em- bargo, en algunos casos los Ayuntamientos han concedido licencia para reducir la esca- lera, si con ello se facilita la instalación de ascensores para personas ancianas o discapacitadas. Incluso, los Ayuntamientos conceden licencia para ins- talar ascensores pequeños, donde no llega a entrar una silla de ruedas, porque tienen la consideración que un ascensor pequeño es mejor que no tener ascensor. Por todo ello, cada Comunidad debe evaluar de la mano del técnico correspondiente la problemática de sus espacios comunes y realizar según las necesidades la mejor solución. ¿Hay alternativas a la negativa de la Comunidad de Propieta- rios de instalar el ascensor o la rampa? En el caso en que no se pueda aprobar la instalación del ascensor o la rampa, con carácter general, puede recurrirse a lo establecido por la Ley 15/1995, de 30 de mayo, sobre limites del dominio sobre inmuebles para eliminar barreras arquitectónicas a las personas con discapacidad (BOE de 31 de mayo de 1995). Dentro del campo de aplicación de dicha ley, se en- cuentran las personas con discapacidad, pero se esta- blece expresamente que son directamente aplicables por los mayores de setenta años sin que sea necesario que acrediten su discapacidad con certificado de mi- nusvalía. En realidad, el pago debería distribuirse conforme al sistema de porcentaje establecido en la escritura de di- visión horizontal y por ello sería ilegal la modificación de dichas cuotas. Una vez se ha llegado a un acuerdo en la Comunidad suele suceder que las reformas para mejorar la accesibi- lidad llevadas a cabo en los portales de entrada, zagua- nes y demás zonas comunes han sido soluciones poco funcionales por haber sido resueltas de una manera confusa, por múltiples y variadas causas: falta de cono- cimiento de las necesidades reales de las personas con discapacidad, por querer solucionar la situación con los menos recursos económicos posibles, no requerir ase- soramiento técnico, etc. Para evitar dichos casos (imagen 2 y 4, por ejemplo) se debe realizar un estudio de cada caso dada las necesida- des personales y las características del espacio físico. No debiendo suponer una carga desproporcionada, aparte de que se debe realizar un proyecto de obra por un Arquitecto o Arquitecto Técnico. Los servicios Imagen 5. Comparación del antes y el después, en zaguán típico de los años 90, tras eliminación de la escalera de acceso y bajar el ascensor a cota 0, para conseguir el acceso a “pie llano” Fuente: proyectos.habitissimo.es 6 Nº12. Abri l de 2016 “El buen diseño capacita, el mal diseño discapacita” Declaración de Estocolmo del EIDD
  • 7.
    Los requisitos quedeben existir: - Ser el titular o el usuario de la vivienda una persona con disminución permanente para andar, subir escale- ras o salvar barreras arquitectónicas, se precise o no el uso de prótesis o de silla de ruedas. - Ser necesarias las obras de reforma en el interior de la finca o en los pasos de comunicación con la vía pública para salvar barreras arquitectónicas, siempre que las obras no afecten a la estructura o fábrica del edificio, que no menoscaben la resistencia de los materiales em- pleados en la construcción. El procedimiento es el siguiente: La persona discapacitada notificará por escrito, a la Comunidad de propietarios, la necesidad de ejecutar las obras de adecuación por causa de minusvalía (acompañándose del proyecto técnico9. En el plazo máximo de sesenta días, la Comunidad comunicarán por escrito al solicitante su consentimien- to o su oposición razonada a la ejecución de las obras. Transcurrido dicho plazo si no hay comunicación algu- na, se entenderá consentida la ejecución de las obras. Los gastos que originen las obras correrán a cargo del solicitante de las mismas, sin perjuicio de las ayudas, exenciones o subvenciones que pueda obtener. Normalmente suelen existir subvenciones concedidas por los servicios de vivienda y urbanismo, así como los servi- cios sociales, para la remoción de las barreras que impiden, o dificultan, la movilidad de las personas con discapacidad. Las obras de adecuación reali- zadas quedarán en beneficio de la propiedad de la finca. Por suerte, las viviendas de nueva construcción ya hace años que tienen que tener una entrada accesible que se deno- mina “a pie llano”; pero el si- guiente paso es sin duda, es la vivienda. Además, los propios urbanistas deben de diseñar y adaptar los espacios públicos, para que no sólo no tengan barreras sino que la accesibili- dad este presente desde el pro- yecto básico, en la idea original, sin adaptaciones. Muchos de los vecinos no paran a pensar que esas mo- dificaciones revalorizarán su piso para una posible ven- ta, y son los técnicos los que tienen que hacerles ver ese tipo de cosas. Invertir 500, 2000 u 8000 euros por vecino en conse- guir accesibilidad tiene un retorno muy claro, ya no en dinero, sino sobretodo en calidad de vida. El zaguán y las zonas comunes, se van adaptando y construyendo de forma más lógica y funcional, pero ¿y las viviendas?¿acaso esas personas que necesitan un acceso cómodo a su vivienda, no tienen necesidades dentro de ella? Por tanto ya sabemos por donde se debe seguir con la accesibilidad en las edificaciones residenciales, prestan- do atención desde el principio al diseño. REFERENCIAS Y BIBLIOGRAFÍA: - www.discapnet.es -www.five .es/calidade ntuvivienda/datos/ IVE_accesibilidad_salvaralturas_zaguan.pdf -www.discapnet.es/Castellano/areastematicas/ derechos/faqs/Paginas/faqs.aspx 7Nº12. Abri l de 2016 Imagen 6. Diferentes métodos para eliminar o suplir las barreras arquitectónicas. Fuente: elaboración propia.
  • 8.
    ciclos termodinámicos paravalo- res constantes de propiedades termodinámicas se usan como procedimientos básicos a tratar en el estudio inicial de motores. Sin embargo, el uso de ciclos en donde las propiedades termodi- námicas (para gases perfectos), además de la composición de gases en el interior del cilindro, son variables, resultan ser dema- siados tediosos. Para solventar esta limitación, diseñamos una hoja de cálculo que hace posible el análisis del ciclo aire-combustible en un ci- lindro de cualquier tipo de motor considerando la composición de gases y variación de las propieda- des termodinámicas con la tem- peratura (considerando los gases como perfectos). Datos de entrada y estimacio- nes Se parte de los datos generales del motor: tipo de motor (Motor de Encendido Provocado MEP o Motor de Encendido por Com- presión MEC), duración del ciclo (2 Tiempos o 4 Tiempos), Carre- ra geométrica S, Diámetro del pistón D, longitud de biela L, relación de compresión r. Además hay que tener en cuenta el ángulo de Retraso al Cierre de Admisión RCA en el caso de mo- tores de 4 Tiempos, ángulo de Retraso al Cierre del Escape RCE en motores de 2T. El tipo de combustible es otro dato a introducir, además de su Poder Calorífico Inferior PCI y densidad ρc. Los procedimientos de cálculo de ciclos termodinámicos en moto- res pasan de ser muy sencillos, donde la composición de gases (normalmente aire) y sus varia- bles termodinámicas son cons- tantes a lo largo de todo el ciclo, hasta modelos cuyos resultados precisan de la integración de ecuaciones diferenciales por mé- todos numéricos. Introducción Los métodos de evaluación de ANÁLISIS DEL CICLO DE AIRE-COMBUSTIBLE EN MOTORES ALTERNATIVOS ÁLVARO TITOS LÓPEZ. GRADO EN INGENIERÍA MECÁNICA 8 Nº12. Abril de 2016 Imagen 2. Etapas de motor de combustión alterna 4 Tiempos. www.contenido-del-blog.blogspot.com.es Imagen 1. Motor radial. www.taringa.net
  • 9.
    será característico de- bidoa que es el ins- tante en donde el inte- rior del cilindro está lleno de la masa que evolucionará durante las fases de compre- sión y expansión. Esta masa es la suma de la masa de aire retenida, más la de combustible y además la de los ga- ses residuales del ciclo anterior que no han salido de la cámara del cilindro. Introducimos en el análisis del ciclo un término adicional: frac- ción de entrega de calor de com- bustible a volumen constante FV. Esto permite analizar el ciclo de la forma más sencilla posible, como un ciclo Sabathé, imagen 3. Se determina una fracción de re- siduales determinada Xr y FV con el objeto de establecer un rendi- miento de calidad ηg en torno al 80% como se muestra en la ima- gen 4.En la evaluación del ciclo termodinámico se evalúa la pre- sión del punto de inicio de la Se establece un rendimiento de la combustión ηc, dependiente del dosado relativo FR. Con todos estos datos se conocerá entonces qué fracción del calor del com- bustible qc se aporta al ciclo qap También hay que introducir la velocidad de giro n, par efectivo Me, consumo de combustible Cc y rendimiento volumétrico ηv para 4 Tiempos o el coeficiente de admisión RS en motores de 2 Tiempos. Además de tener en cuenta en motores de 2 Tiempos RS, consideramos un valor del rendimiento de retención ηRET: Procedimiento de cálculo El ciclo a analizar partirá de un valor de referencia que será el que corresponda al punto del RCA en motores de 4 Tiempos o RCE para 2 Tiempos. Este valor Imagen 4.. Esquema general del proceso de cálculo. Colección de imágenes del departamento de Máqui- nas Térmicas de la UJA. 9Nº12. Abri l de 2016 Imagen 3. Diagrama P-v Ciclo Sabathé. www.wikipedia.com La fracción de entrega de calor de combustible a volumen constante Fv, permite analizar el ciclo de la forma más sencilla posible, como un ciclo Sabathé
  • 10.
    lor no esel inicial, se vuelve a calcular el punto final de la com- presión con el valor anterior has- ta que el valor de dicho exponen- te converge a un valor estable. Para un motor MEP, este proce- so se lleva a cabo con una mezcla de aire, gases residuales y com- bustible vaporizado. Para un mo- tor MEC, la mezcla contiene aire y gases residuales. El calor aportado en la transfor- mación 2-3 es igual a un cv medio entre ambos puntos multiplicado por el incremento de temperatu- ras, aquí se itera de la misma. compresión mediante la ecuación de las adiabáticas. Se determina- rán el resto de los puntos del proceso evaluando las diferentes transformaciones esquematizado en la imagen 5, esto es, a partir del punto de referencia y con el volumen que tenemos en el pun- to 1, haciendo uso de las ecuacio- nes de las adiabáticas, podemos obtener la presión en dicho pun- to, por lo que con esos dos datos ya podemos obtener todas las propiedades termodinámicas del punto 1. Lo siguiente será realizar la compresión del ciclo, 1-2, ob- teniendo las propiedades del pun- to 2. Al ser un ciclo sabathé ten- dremos dos aportes de calor a volumen constante (2-3) y a pre- sión constante (3-4), con los que calculamos los puntos 3 y 4 res- pectivamente, teniendo por últi- mo una expansión 4-5, obtenien- do finalmente las propiedades termodinámicas del punto 5. Para el cálculo del coeficiente adiabático γ, se realiza mediante el proceso iterativo. Evaluaremos la compresión, conocido el punto 1 se calcula el valor del punto final de la compresión teórica (punto 2) considerando un expo- nente adiabático determinado γ. En ese momento, se evalúa el valor del exponente adiabático medio entre ambos puntos (relación entre los incrementos de entalpía y de energía interna entre ambos puntos). Si este va- 10 Nº12. Abri l de 2016 En un motor MEP hay una mezcla de aire, gases residuales y combustible vaporizado. Para un motor MEC, la mezcla contiene aire y gases residuales Imagen 5. Procedimiento de cálculo del ciclo termodinámico. Galería de imágenes del departamento de Máquinas Térmicas de la UJA
  • 11.
    cigüeñal que dalugar a un volu- men en la cámara de combustión que hace que las propiedades ter- modinámicas sean las obtenidas con la masa contenida de gases. Para la evaluación de los gases residua- les se considera la siguiente suposi- ción: Conocidos los puntos 1, 2, 3, 4 y 5 del ciclo, desde el punto cinco se ex- panden los gases a volumen constante hasta el punto 1 de forma ideal (sin salir ninguna masa de gases del cilin- dro). Si se supone que desde el punto 1 hasta el final F, existe un escape a presión constante, y ade- más es adiabático, la ecuación anterior queda como sigue, tras considerar las relaciones termodi- námicas asociadas y ecuación de gases perfectos: Para que se cumpla esta igualdad con las condiciones establecidas, la temperatura del punto 1 debe mantenerse constante. Esto se consigue a costa de reducir la masa interior del cilindro confor- me disminuye su volumen. Para el volumen de la cámara de com- bustión en el PMS y su propia temperatura, se obtiene la masa retenida final. La relación entre este valor y la masa considerada fija dará lugar a la fracción de residuales. Conclusiones El estudio de los ciclos termodi- námicos en motores presenta una dificultad creciente conforme se van disminuyendo las hipótesis simplificativas. Los modelos de cálculo que consideran como fluido operante el aire como combustible comprenden un cálculo diferencial que puede re- sultar muy complejo. El procedimiento descrito permi- te comprobar como varían los resultados intermedios y totales conforme modifica parámetros como la fracción de entrega de calor a volumen constante o frac- ción de residuales. forma que antes con el exponen- te adiabático, pero ahora se reali- za con el calor específico a volu- men constante cv entre los pun- tos 2 y 3. El aporte de calor del combustible a presión constante será igual a un calor específico medio a presión constante cp por el incremento de temperaturas entre 3 y 4. Aquí hay una dificul- tad adicional, ya que es preciso buscar el valor del volumen del cilindro en donde se cumplen estas condiciones, por lo que des- pués de tener un valor estable de cp y por lo tanto el resto de pro- piedades termodinámicas, se bus- ca un valor del ángulo de giro del 11Nº12. Abri l de 2016 REFERENCIAS Y BIBLIOGRAFÍA: - Cruz Peragón, Fernando, 2005, Análisis de metodologías de optimización inteligentes para la determinación de la presión en cámara de combustión en motores alternativos de combustión interna. - Heywood J.B., 1988, Internal Combustion Engines Fundamentals, McGraw-Hill - Muñoz, M. y Payri, F., 1990, Motores de Combustión Interna Alternativos. - Apuntes de la asignatura Máquinas Térmicas, E.P.S. de Jaén, Universidad de Jaén. - Titos López, Álvaro. 2015, Trabajo dirigido Análisis del ciclo de aire-combustible en motores alternativos, Máquinas térmicas, E.P.S. de Jaén, Universidad de Jaén. Imagen 6. Ciclo real de un motor de 4 tiempos en función del ángulo de giro del eje cigüeñal. Galería de imágenes del departamento de Máquinas Térmicas de la UJA
  • 12.
    Diversas causas justificanla ten- dencia al alza de los consumos energéticos, tales como el incre- mento del número de hogares, el mayor confort requerido por los mismos y, consecuentemente, el aumento de equipamiento. El hogar medio español consume unos 10.521 kWh anuales, lo que equivale a 0,038 TJ o también a 0,85 tep al año. Las viviendas en bloque, pisos, de la zona Medite- rránea se presentan como los menos intensivos en energía, 0,53 tep anuales, mientras que las vi- viendas unifamiliares del sector continental son las más consumi- doras con 1,69 tep/año. De me- dia los alojamientos unifamiliares consumen 2 veces más que los pisos. El consumo de combustibles es determinante en términos de energía final al consumo eléctri- co, siendo 1,8 veces superior. El 62% del consumo eléctrico obe- dece al equipamiento de electro- domésticos, y en menor medida a la iluminación, cocina y los servi- cios de calefacción y agua calien- te. Considerando el conjunto de ser- vicios y equipamiento disponible en los hogares españoles, es el servicio de la calefacción el ma- yor demandante de energía, con cerca de la mitad de todo el con- sumo del sector. El sector residencial es determi- nante en el contexto energético actual, tanto nacional como co- munitario, puesto que sus nece- sidades energéticas en términos de energía final en España signifi- can el 17% del consumo final total y el 25% de la demanda de energía eléctrica en España. El uso de energía en las viviendas supone la quinta parte de las emi- siones de gases de efecto inverna- dero de nuestro país. Si además añadimos las que se originan du- rante el proceso de construcción de los edificios, supone que este sector concentra la tercera parte del total de emisiones nacionales de gases de efecto invernadero. 12 Nº12. Abril de 2016 IMPORTANCIA DEL DISEÑO SOLAR PASIVO EN EL SECTOR EDIFICACIÓN IVÁN GARCÍA IGLESIAS. INGENERÍA DE CAMINOS, CANALES Y PUERTOS
  • 13.
    La construcción denuevos edifi- cios bajo requisitos de diseño y eficiencia energética mucho más exigentes que los actuales y que demanden poca o ninguna ener- gía (edificios de consumo de energía casi cero o nulo) será una obligación para los países de la UE a partir del 31 de diciembre de 2020. La Directiva 2010/31/CE define como edificio de consumo de energía casi nulo como aquel “edificio con un nivel de eficien- cia energética muy alto, donde la cantidad casi nula o muy baja de energía requerida debería estar cubierta, en muy amplia medida, por energía procedente de fuen- tes renovables, incluida energía procedente de fuentes renovables producida in situ o en el en- torno” (art. 2.2)). En España, a nivel legislativo ya se han empezado a dar los prime- ros pasos para alcanzar estos ob- jetivos aunque hay bastante es- cepticismo sobre si se podrán conseguir. Destaca por su impor- tancia el RD 235/2013 del 5 de abril en el que se aprueba el “procedimiento básico para la certificación energética de edifi- cios”; como gran novedad aporta sobre todo la obligación de certi- ficar los edificios existentes en los casos de venta o alquiler, pero además refleja en su disposición adicional segunda “Edificios de consumo casi nulo” las exigen- cias de la directiva 2010/31/UE como propias de la normativa española. Numerosos factores, desde la forma, orientación, inclinación de los muros, tamaño y ubicación de aperturas, hasta las superficies y materiales constituyentes de su piel y estructura condicionan la respuesta térmica de un edificio. Los ocupantes del espacio inte- rior influyen en el comporta- miento térmico debido a su acti- vidad metabólica, por accionar aparatos eléctricos que liberen calor, modifiquen la humedad o la circulación del aire, implantan- do sistemas de protección a la radiación como toldos o simple- mente abriendo las ventanas o puertas. Las modernas tendencias arqui- tectónicas y los nuevos conoci- mientos energéticos sugieren que hay que construir edificios que ofrezcan el máximo confort, utili- zando racionalmente la energía y aprovechando de la mejor mane- ra todas las fuentes energéticas naturales disponibles, aunque si no se optimiza previamente la envolvente térmica de los edifi- cios, medidas como mejorar la eficiencia energética de las insta- laciones o incorporar energías renovables en las viviendas pre- sentan unos efectos muy limita- dos. Utilizando sistemas de climatiza- ción natural podemos ahorrar energía destinada a calefacción, si se diseñan los edificios evaluando adecuadamente el movimiento de flujos energéticos y obrando en consecuencia, regulando y distri- buyendo los mismos por medio de la arquitectura creando un há- bitat interior confortable con un mínimo aporte de energía auxi- liar. Los sistemas de climatización natural son llamados también sistemas pasivos. Cuando se proyecta un edificio, sería conveniente analizar las di- ferentes posibilidades que ofre- cen los elementos arquitectónicos Existe en la actualidad un amplio consenso sobre la importancia estratégica de los edificios para alcanzar los objetivos comunita- rios de eficiencia energética y de reducción de emisiones de gases de efecto invernadero. La estrate- gia europea en materia energética se orienta al compromiso conoci- do como “20/20/20” en 2020. 13Nº12. Abri l de 2016 Tabla 1. Consumo energético del sector residen- cial Gráfica 1. Estructura de consumo según uso energético Gráfica 2. Objetivo europeo 20/20/20.
  • 14.
    en forma decalefacción o refrige- ración. 4. Sistemas de protección y con- trol: elementos como aleros, vo- ladizos, umbráculos, persianas, toldos de protección frente a la radiación solar, compuertas de regulación de aberturas de pro- tección frente a la ventilación, vegetación que permite la protec- ción a la vez frente al viento y la irradiación incidente, etc. Es ob- vio que cada elemento menciona- do tendrá un comportamiento diferente frente a las condiciones climáticas exteriores y afectará la velocidad de respuesta del edifi- cio debido a que la dosificación de las energías exteriores se efec- túa de manera distinta. La calefacción solar pasiva se produce de la siguiente manera: el vidrio, que envuelve el aire in- terior de la envolvente es trans- parente a la luz visible pero impe- netrable al calor. La luz visible penetra el vidrio y calienta las superficies de los objetos del in- terior, los cuales emiten radiación infrarroja y el calor no puede es- capar ya que la radiación infrarro- ja no pueda penetrar el vidrio, y el aire dentro del cristal se vuelve constantemente más caliente. en cuanto al comportamiento térmico del edificio. Estos ele- mentos de la envolvente deberían tener la misión de gestionar la energía térmica del ambiente ex- terior y satisfacer la captación, almacenaje y distribución de energía. Podemos realizar la siguiente cla- sificación de dichos elementos atendiendo a su función térmica: 1. Sistemas captadores: encarga- dos de recibir la energía proce- dente de la radiación solar y transferirla al interior en forma de calor. Son elementos traslúci- dos de la envolvente como venta- nas, lucernarios, invernaderos, etc. Así como elementos de obra maciza o grandes volúmenes de agua que ayudan a captar y distri- buir el calor exterior. 2. Sistemas de inercia: masas tér- micas en el suelo, en paredes y cubiertas permiten que parte de la radiación solar incidente se acumule en forma de calor redu- ciendo las oscilaciones en la tem- peratura interior y posibilitando la transmisión de mismo con un cierto retardo cuando disminuya la temperatura exterior. Grandes masas de tierra o roca rodeando el edificio pueden cumplir tam- bién una función similar. 3. Sistemas de ventilación y trata- miento de aire: Permiten el paso del aire por su interior y mejoran las condiciones de temperatura y humedad por medio de la ventila- ción y la distribución de la misma 14 Nº12. Abri l de 2016 “En calefacción solar pasiva, la energía solar calienta edificios sin necesidad de bombas o ventiladores que distribuyan el calor ” Dibujo 1. Calentamiento solar pasivo. Mediante la radiación solar y un diseño óptimo de la envolven- te, es posible calentar una vivienda sin utilizar aparatos mecánicos.
  • 15.
    la pared absorbentede radiación. Posteriormente el calor se irradia por todo el edificio durante la noche o durante días nubosos, atenuando la diferencia de tem- peraturas. “Una casa pasiva es un edificio en el que el confort térmico (ISO 7730) se puede lograr por el ca- lentamiento o enfriamiento del flujo de volumen de aire fresco, que es requerido para lograr con- diciones de calidad de aire en interiores, sin la necesidad de más recirculación de aire”. El aire interior en una casa biocli- mática permanece más caliente que el aire exterior durante los meses de invierno. Estas edifica- ciones normalmente requieren calefacción adicional en climas fríos, pero muy lejos de lo que podría esperarse en una casa con- vencional. Se trata de viviendas con un alto grado de aislamiento, un control riguroso de las infiltraciones de aire y de los puentes térmicos, unas carpinterías de gran calidad y un aprovechamiento óptimo del soleamiento de forma tal que mediante un recuperador de ca- lor, que recoge el aire caliente del interior (procedente de la combi- nación de la captación solar, el calor de las personas y el genera- do por la iluminación artificial y los electrodomésticos) y lo mez- cla con aire fresco exterior, se consigue el aporte necesario para la climatización de la vivienda. En el hemisferio norte, ventanas grandes orientadas al sur reciben más luz solar total durante el día que las ventanas orientadas en otras direcciones. La luz solar entrante a través de las ventanas aporta calor que es luego almace- nado en suelos y muros hechos de hormigón o piedra o en depó- sitos de agua. Este calor almace- nado es transmitido a lo largo del edificio naturalmente por con- vección, la circulación que ocurre por causa del aire cálido eleva y refrigera el aire que desciende. El uso de árboles y de plantas se puede seleccionar para absorber calor, creando el estado de som- breamiento (particularmente en el caso de las plantas de hojas cadu- cas) y para crear abrigo del vien- to. Una posible solución para captar calor en el interior es disponer de un invernadero acristalado. Los rayos solares son absorbidos por la pared trasera de modo que el calor, se queda almacenado en el edificio. El invernadero es sim- plemente un sistema de almace- namiento térmico de pa- red expandida. Situando ventanas o pequeños ventiladores entre el invernadero y la vivienda, conse- guiremos que el calor entre de manera sencilla. Mediante la dis- posición de un toldo se consigue evitar un sobrecalentamiento esti- val. Se puede automatizar el En calefacción solar pasiva, la energía solar calienta edificios sin necesidad de bombas o ventila- dores que distribuyan el calor. Ciertos diseños característicos son incorporados para calentar edificios en invierno y ayudarles a mantener el fresco en verano. Hay dos estrategias pasivas bási- cas de la energía solar: 1. Ganancia solar directa: la ga- nancia directa implica la coloca- ción de ventanas, claraboyas y aberturas para controlar la canti- dad de radiación solar directa que llega al interior y para calentar el aire y las superficies dentro del edificio. En el interior deben dis- ponerse materiales capaces de almacenar energía situados en el suelo, fachadas y techo. Es difícil controlar su funcionamiento. 2.Ganancia solar indirecta: las paredes y los techos de almacena- miento en función de la situación de la masa térmica. La radiación incide primero en la masa térmica situada entre el sol y el espacio habitable. El calor se almacena en 15Nº12. Abri l de 2016 Imagen 1. Energía solar térmica. Aprovecha- miento directo de la energía solar para disponer de agua caliente sanitaria y calefacción en vivien- das. [www.renov-arte.es] Imagen 2. Vegetación de hoja caduca permite el soleamiento de los huecos de la vivienda en invierno y lo dificulta en verano. [www.construction21.org]
  • 16.
    tendiendo a enfriarseprincipal- mente hacia el exterior e invir- tiendo el flujo de aire. Esto per- mite optimizar el confort interior a pesar de las bajas temperaturas externas. Para un mejor funcionamiento, cabe la posibilidad de controlar el flujo de aire para que no se in- vierta durante el periodo noc- turno. Este control de termocir- culación permitirá un mayor ren- dimiento del muro. Disponiendo de una persiana convencional se evitarán pérdidas de calor por la parte acristalada. En verano, este sistema requerirá sombreamiento al igual que el resto de huecos acristalados. Las aberturas permanecerán cerradas durante el día y se destaparán por la noche creando un lazo convec- tivo inverso al deseado en in- vierno, que permitirá refrigerar el aire de la estancia. El espesor del muro determinará el desfase de la onda térmica cap- tada. Por norma general se utili- zarán grandes espesores para lo- cales ocupados durante la mayor parte del día, o donde se necesite un aporte mayor en periodo noc- turno. Existen otros sistemas para apro- vechar la energía solar de manera pasiva, que aún siendo menos empleados, cabe mencionar los siguientes: - Muro de agua: su funciona- miento es similar al del muro trombe, con la diferencia de que en este sistema se utiliza el agua que tiene una masa térmica mu- cho mayor, se deben colocar aproximadamente 200 litros/m² de superficie de captación y per- mitir las corrientes de convección sistema de forma que permita adecuar la temperatura interior a la de confort. Se puede automati- zar el sistema de forma que per- mita adecuar la temperatura inte- rior a la de confort. Otro sistema pasivo de captación solar es el muro Trombe. Consis- te en un muro orientado al sol fabricado con materiales que per- mitan absorber el calor como masa térmica, como hormigón, piedra o adobe. Se pinta de color oscuro y se deja un espacio para colocar un vidrio grueso para provocar efecto invernadero a partir de la incidencia del sol. Se disponen aberturas entre la parte superior e inferior del cristal y del muro que manera que se forme un lazo convectivo con el interior de la vivienda. Durante el día, la radiación solar atraviesa la lámina de vidrio ca- lentando la superficie oscura del muro y almacenando el calor en la masa térmica de este, aumen- tando la temperatura del aire existente entre el muro y el vi- drio, que se introduce en el inte- rior a través de las aberturas. Por la noche, el calor escapa del muro Imagen 3. Ejemplo de captación de energía solar mediante invernadero adosado. [www.lekune.com] 16 Nº12. Abri l de 2016 Imagen 4. Casa solar pasiva en Nikaia, Grecia. Diseñada por Christina Zerva Architects. La casa está envuelta por bloques orgánicos prefabricados que pasivamente mantienen una temperatura agradable durante el calor del verano y el frío del invierno. [www.trendir.com] Dibujo 2. Ejemplo de muro Trombe
  • 17.
    mo en otrassoluciones, de este modo la energía se transmite al interior del edificio por radiación. - Techo verde o cubierta ajardi- nada: los techos verdes pueden ser considerados como aislamien- to térmico adicional, provocando la reducción del uso de energía para calentar o para refrigerar los edificios. la capa de vegetación amortigua el estrés de temperatu- ra durante el verano y el invierno (35 ° C durante el año), y las dife- rencias de temperatura entre el día y la noche (15 ° C durante 24 horas). La casa solar pasiva tiene un in- cremento entre un 5% y un 10% sobre el coste habitual, debido a la mayor calidad térmica de los materiales y a una mayor estan- queidad y aislamiento de la envol- vente, pero permitirá reducir has- ta un 80% las necesidades ener- géticas de calefacción, refrigera- ción e iluminación, haciendo la edificación más respetuosa con la naturaleza. huecos entre los depósitos de agua favoreciendo de este modo los intercambios de calor. - Cubierta de agua: consiste en la colocación de elementos rellena- dos con agua sobre la cubierta previamente pintada con colores oscuros, si además se cubren con vidrio se obtienen mejores resul- tados en cuanto a su acumula- ción. En invierno se deben cubrir mientras que durante el verano deben permanecer expuestos y durante la noche se deben abrir permitiendo así que cedan el ca- lor. - Solera de grava: se utiliza la gra- va aislada como deposito acumu- lador, procurando evitar que la humedad del terreno se transmita a la grava. Se puede hacer circular aire caliente por su interior para calentarla o utilizar un vidrio co- 17Nº12. Abri l de 2016 “La casa solar pasiva tiene un incremento entre un 5% y un 10% sobre el coste habitual pero permitirá reducir hasta un 80% las necesidades energéticas” REFERENCIAS Y BIBLIOGRAFÍA: - IDAE, Análisis del consumo energético del sector residencial en España, Madrid, Instituto para la Diversificación y Ahorro de Energía, 2011. - Mazria, Edward. Passive Solar Energy Book. Pennsylvania, Rodale Press, 1979. - Passive Solar Design <http:// www.passivesolar.com>. Imagen 5. Karuna House, Oregon. Diseñada por Holst Architecture. La vivienda es la primera en el mundo en conseguir los 3 estándares de eficiencia energéti- ca más exigentes en cuanto a diseño pasivo: Passive House (PHIUS +), Minergie P-ECO y LEED Home Platinum. Dispone de un envolvente optimizada con diseño solar pasivo para disminuir necesidades energéticas, requiriendo únicamente de un generador fotovoltaico de 10 kW. [www.phius.org]
  • 18.
    dado que carecede sentido con- seguir un ahorro energético en determinada zona y tener pérdi- das de calor en otra. Así, el diseño de un edificio debe hacerse globalmente de modo que sus diferentes elementos compongan un todo armónico, de modo que cada elemento cumpla una misión bioclimática y funcional. Las estrategias que debemos de tener en cuenta son las siguientes: estudio del solar elegido, clima de la vivienda, control del clima por medios constructivos, control del clima con ayudas artificiales, ven- tilación natural y enfriamiento en verano y diseño del entorno. Estudio del solar Para elegir y planificar un solar debemos observar varios elemen- tos que tienen gran importancia a la hora de construir un edificio aliado con el entorno. Así, lo que debemos de tener en cuenta será: límites (límites de propiedad, construcciones veci- nas, vías de comunicación , for- ma del solar…), la orientación, el sol (localizaremos el Sur para orientar los elementos captadores de energía), el viento (debemos de proteger la vivienda de los vientos dominantes en invierno), la topografía, la vegetación, el agua (precipitaciones, presencia de agua subterránea y capas La arquitectura bioclimática es la arquitectura diseñada de tal ma- nera que nos permita conseguir un máximo confort dentro del edificio con un gasto energético mínimo. Aprovechando las con- diciones climáticas de su entorno y los elementos climáticos exter- nos para conseguir el confort deseado en el interior. En caso de que fuese necesario un aporte energético extra, se recurriría a fuentes de energía renovables siempre que fuese posible. Durante la fase de diseño del edi- ficio es importante contemplar todos los elementos en su con- junto: estructuras, cerramientos, instalaciones, revestimientos, etc., 18 Nº12.Abril de 2016 ESTRATEGIAS PARA EL DISEÑO BIOCLIMÁTICO VÍCTOR GARCÍA IGLESIAS. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
  • 19.
    de los factoresclimáticos en los cuales la gran mayoría de las per- sonas se encuentran cómodas. Estos factores son: La temperatura del local. Las personas se sienten confortables en hogares cuya temperatura esté entre los 18 y los 24º C. Velocidad del aire. La velocidad del aire en el interior de una vi- vienda debería ser en invierno de 0.1 m/s. En primavera y otoño algo más elevada, hasta 0.3 m/s. La humedad relativa. La hume- dad relativa del aire debe estar entre el 30 y el 70%. El tipo de actividad que se desa- rrollará. Deberán estar a menor temperatura los espacios en los que se desarrolla algún tipo de actividad física y aquellos ocupa- dos por personas con ropa abri- gada. Densidad de personas en el local. Si un local va a estar ocupado por muchas personas, sus necesida- des de caldeo serán menores. Variaciones atmosféricas que producen efectos sensoriales. La sensación de confort también depende de otros factores como son los ruidos, vapores, olores, presencia de humos y el grado de polución atmosférica. Aislamiento. Disponemos de me- canismos que utilizados conjun- tamente nos permiten regular de modo bastante satisfactorio los intercambios de energía con el ambiente exterior. freáticas), el hielo (temperatura mínima que alcanzan las heladas), las construcciones adyacentes, los puntos de abastecimiento (agua, gas, electricidad, saneamiento, telefonía, etc.), la geología del terreno (estudio geotécnico, pre- sencia de gas Radón y capas geo- páticas) y radiaciones electromag- néticas (cables de alta tensión, transformadores de electricidad y antenas de telefonía). Clima de la vivienda La vivienda debe proporcionar a sus ocupantes una sensación de comodidad y agrado que les ayu- de a desarrollar plenamente sus capacidades. Deben conocerse las actividades que se desarrollarán dentro del edificio para adecuar los elementos de regulación del clima a las mismas. La necesidad de aporte calorífico de un edificio dependerá de su situación, diseño y del poder aislante de su envol- tura externa. Aunque cada persona es diferen- te se han estudiado los márgenes Imagen 2. Esquema de una casa bioclimática piloto. Ref: arquitecta Vanesa Serrano Romero 19Nº12.Abril de 2016 Imagen 1. Mansión en la isla de Sedir, Turquía. Se combinan los paneles fotovoltaicos con un sistema geotérmico y otro biológico. Ref: Arquitecto Luis de Garrido
  • 20.
    La captación activade energía solar se hace mediante mecanis- mos artificiales, como colectores solares, captación de otros tipos de energías renovables, como energía eólica, geotérmica, etc., aportes de calor debidos a la que- ma de combustibles o al empleo de energías no renovables, apor- tes de calor debido a las personas que se encuentran en el interior. Sistemas activos Se llaman sistemas activos a los artefactos mecánicos que com- plementan la construcción biocli- mática y permiten captar las ener- gías del entorno con un mayor aprovechamiento y un mínimo consumo energético. Ventilación. Los sistemas de ventilación son los elementos constructivos que se encargan de la renovación del aire contenido en el edificio. Para ello extraen el aire viciado e in- troducen aire fresco. Deberá compaginarse la estan- queidad del edificio necesaria para evitar filtraciones de aire indeseadas con una buena venti- lación que aporte el aire de reno- vación necesario. En la actualidad se poseen los conocimientos necesarios sobre ventilación como para poder ven- tilar y refrigerar en verano un edificio sin la ayuda de elementos artificiales de acondicionamiento de aire. Para lograrlo es necesario contar con un diseño constructi- vo adecuado. Lo que resultaría muy difícil sería pretender enfriar por medio de ventilación natural un edificio mal concebido desde el punto de vista climático. Para comprender los mecanismos de funcionamiento de un sistema de ventilación se deben tener en cuenta los siguientes principios básicos: - El efecto de enfriamiento de- pende de la dirección y velocidad del aire. A la velocidad de 1 m/s, el efecto de enfriamiento equivale a 5º C. de la masa de aire seco y en reposo. - El movimiento del aire a través de un edificio se debe a las dife- rencias de presión y temperatura de las masas de aire. Control del clima por medios constructivos Para lograr un clima confortable en el interior de los edificios es necesario lograr un equilibrio entre las pérdidas de energía y los aportes energéticos. Las pérdidas de calor de un edifi- cio se producen a través de los cerramientos, por un diseño que ofrezca una gran superficie de contacto con el exterior favore- ciendo de este modo los inter- cambios de calor. Las ganancias de calor en un edi- ficio se producen por la capta- ción solar pasiva de la radiación solar a través de los vidrios de las ventanas y de elementos cons- tructivos creados para tal fin, co- mo invernaderos, muros Trombe y elementos de diseño. 20 Nº12.Abril de 2016 Imagen 3. El rascacielos bioclimático Ref: arquitecto Ken Yeang “La vivienda debe proporcionar a sus ocupantes una sensación de comodidad y agrado”
  • 21.
    frescas de verano,así como su intensidad para poder hacer una estimación del espesor de las ba- rreras cortavientos necesarias. Contaminación. Es importante señalar la dirección en que se en- cuentran los elementos de conta- minación sonora y la proximidad de otros elementos contaminan- tes, como industrias, vertederos y focos de malos olores. Vegetación existente. Se anotará la situación de las zonas despeja- das, de las masas boscosas, del tipo de arbolado y densidad del follaje. Modificación del entorno. El es- pacio interior de la vivienda debe encontrar continuidad al acceder al exterior. El aire frío tiende a bajar y el cáli- do sube hacia el techo. Para que un sistema de ventila- ción sea de modo eficaz, es nece- sario que funcionen adecuada- mente la captación de aire, el re- corrido del aire a través de la casa y la salida del aire. Diseño del entorno Podemos enumerar los puntos a tener en cuenta a la hora de plan- tear el diseño del entorno para crear microclimas favorables des- de el punto de vista climático. Los más importantes son: La topografía del terreno, los al- rededores y el agua. Radiación solar. Debemos de tener en cuenta todos los elemen- tos que proyecten sombra sobre la parcela: edificaciones cercanas, arbolado, montes cercanos, etc. Viento. Debemos conocer la di- rección de los vientos fríos domi- nantes en invierno y de las brisas Imagen 4. Teda: la urbanización sostenible más grande del mundo situada en China. Ref: arq.com.mx 21Nº12.Abril de 2016 Imagen 5. Células solares de capa fina desarro- lladas por investigadores suizos. Ref: suelosolar.com “En la actualidad se poseen los conocimientos necesarios sobre ventilación para poder ventilar un edificio sin la ayuda de elementos artificiales ” REFERENCIAS Y BIBLIOGRAFÍA: - GONZALO, Guillermo Enrique. Manual de Arquitectura Bioclimática. Argentina: nobuko, 2003. - GARCÍA, María Dolores. Viviendas Bioclimáticas en Galicia. - DE GARRIDO, Luis. Energía- Cero. Barcelona: monsa, 2014. - DE GARRIDO, Luis. Arquitectura Bioclimática Extrema. Barcelona: monsa, 2014.
  • 22.
    LOS PUENTES SOBRELAS AGUAS DE RULES JUAN GONZÁLEZ GONZÁLEZ. INGENIERO DE CAMINOS, CANALES Y PUERTOS. los afluentes del embalse de Ru- les, e incluso el propio embalse. MARCO TERRITORIAL Este conjunto de viaductos se ubica en la Autovía de Sierra Ne- vada A-44, también llamada de la Costa Tropical, dentro del tramo comprendido entre las localida- des de Ízbor y Vélez de Benauda- lla en la provincia de Granada. Esta autovía pertenece a la Red de Carreteras del Estado y comu- nica de norte a sur las localidades de Bailén (Jaén) y La Gorgoracha (Granada) con un trazado de 183 kilómetros que vertebra la comu- nicación entre ambas provincias y une la costa mediterránea andalu- za con los parajes del interior oriental de la región. Transversal- mente a esta vía se enlazan otras en diferentes puntos, desempe- ñando la función de distribución del tráfico de este a oeste de la comunidad, como son la A-4, la A-316, la A-308, la A-92 y la A-7. En concreto el tramo Ízbor- Vélez tiene una longitud de 10 kilómetros entre los punto kilo- métricos 166 y 167. Cuenta con dos enlaces en ambos extremos y una concentración de 6 viaductos con longitud total de 2,7 kilóme- tros. Esto indica que casi el trein- ta por ciento del recorrido se rea- liza sobre estructura, lo que le concede un carácter singular a este tramo. Otras características distintivas aparecen en este trayecto, pues 5,34 millones de metros cúbicos de terreno debieron ser excava- dos y hasta 2,72 millones de me- tros cúbicos de tierras conforman los terraplenes de la infraestruc- tura, además de cuatro pasos in- feriores que favorecen la permea- bilidad transversal del trazado. En sentido desde Granada hacia la costa los puentes que nos en- contramos son: Viaducto de Íz- bor o de Rules, Viaducto de Las Lomas I, Viaducto de las Lomas II, Viaducto del Embalse de Ru- les o del Guadalfeo, Viaducto de Miranda y Viaducto de Vicario. Cuando el viajero se desplaza por carretera desde la ciudad de Gra- nada hacia la costa mediterránea de dicha provincia o viceversa, aprecia que en uno de los tramos de la ruta el vehículo en el que se desplaza avanza sobre una vía que discurre apoyada en una serie de estructuras que, sin duda, no le dejan indiferente. El motivo puede ser de diversa índole, aun- que mucho tiene que ver el am- plio abanico de particularidades que rodean a estos viaductos des- de puntos de vista tan distintos como la dimensión, el enclave, la frecuencia con que se hallan o el obstáculo que sortean. Nos hallamos ante el conjunto de puentes que sortean las aguas de 22 Nº12. Abril de 2016 Imagen 1. Puente de Ízbor siguiendo el cauce del río del mismo nombre. Fotografía propia.
  • 23.
    ductos de LasLomas. Menos de 500 metros más ade- lante en el itinerario tiene lugar la desembocadura del río Ízbor en el río Guadalfeo, y es en este área donde se extiende una cola del Embalse de Rules. Este hecho vuelve a hacer imprescindible la construcción de un asombroso viaducto de casi 600 metros que cruza las aguas de este embalse. No muy lejos de éste último nos encontramos con los barrancos de Miranda y Vicario que llevan sus intermitentes y torrenciales cursos hidrológicos hasta el Em- balse de Rules volviendo a obli- gar a los ingenieros a recurrir a soluciones estructurales para pro- seguir con el trazado de la auto- vía. La orografía es tan exagera- damente sinuosa que en el caso del último de los barrancos, el de Vicario, no fue posible proyectar ninguna pila sobre sus laderas diseñándose en consecuencia un modelo de puente con una única gran pila central que resalta su esbeltez por encima de cualquier otra característica. Los materiales constituyentes del terreno son formaciones de cali- zas y dolomías en general con intercalaciones locales de margas, yesos, arcillitas, mármoles o es- quistos. De forma más específica los estudios geotécnicos advirtie- ron de problemas de tipo geo- morfológico que incluyen movi- mientos potenciales de tipo desli- zamiento o desprendimiento. La zona está catalogada por tanto por el Instituto Geológico y Mi- nero de España como área sus- ceptible de hundimientos en for- maciones carbonatadas. A todo esto se une la alta sismici- dad de esta localización geográfi- ca. Estas premisas influyeron de for- ma decisiva en la adopción de soluciones como cimentaciones profundas compuestas por pilo- tes de gran calibre arriostrados en encepados de gran consideración o sostenimiento de taludes con el uso de gunita y bulones. Incluso fueron necesarias las ejecuciones de rellenos al pie de taludes para proteger éstos de erosiones o movimientos de tierra indesea- bles, así como la implantación de disipadores y transmisores de energía ante terremotos. CONDICIONANTES DEL TERRENO Desde el punto de vista topográ- fico e hidrográfico las singulari- dades son de marcada importan- cia. Para empezar el tramo de autovía comienza discurriendo a lo largo de la margen izquierda del río Ízbor ya que la única posi- bilidad de atravesar estos parajes abruptos es utilizar las laderas que delimitan dicho curso hidro- lógico. Precisamente la peculiari- dad reside en que no se atraviesa perpendicularmente dicho río, sino que se bordea por una de sus inclinadas orillas, lo que obli- ga a llevar a cabo el diseño del primero de los viaductos, el de Ízbor. Dicha estructura se utiliza también a su vez para salvar el desnivel que se produce en la desembocadura del río Lanjarón, que vierte sus aguas en el río Íz- bor precisamente en un punto de su margen izquierda. La continua sucesión de barran- cos escarpados que desembocan en el Ízbor vuelven a hacer nece- saria la implantación de los via- Imagen 3. Puentes de Las Lomas I, en primer plano, y de Las Lomas II, al fondo a la derecha, salvando laderas inestables y escarpadas. Fotografía propia. Imagen 2. Localización de los viaductos en el tramo entre Ízbor y Vélez en la A-44. 23Nº12. Abri l de 2016
  • 24.
    Consta de 15vanos con una luz máxima de 140 metros en unos de ellos y el tablero está com- puesto por cajón monocelular de hormigón pretensado con almas inclinadas, siendo de canto varia- ble en un tramo de 270 metros construido mediante voladizos sucesivos y de sección constante en el resto de su longitud ejecuta- da con autocimbra. 2-Viaducto de Las Lomas I: de 478 metros de longitud divididos en 11 vanos, sus pilas llegan hasta los 46 metros de altura y el table- ro es de hormigón armado y vi- gas artesa de 40 metros de luz. 3-Viaducto de Las Lomas II: de características estructurales seme- jantes al anterior viaducto, éste se extiende durante 158 metros de longitud divididos en 4 vanos. 4-Viaducto del Embalse de Rules o del Guadalfeo: se trata de un puente de 585 metros de longitud divididos en 5 vanos de luces de hasta 140 metros y cuyas pilas llegan hasta los 90 metros de al- tura. La sección transversal del tablero es una celosía metálica en W constituida por tres cajones pentagonales superiores de 1 me- tro de canto y dos cajones de iguales dimensiones en el cordón inferior. Sobre esta sección metá- lica se dispone una losa de hor- migón armado. 5-Viaducto de Miranda: tiene 360 metros de longitud con un total de siete pilas, de las cuales la más alta posee 50 metros de altura. La tipología del tablero es de hormi- gón armado y viga artesa de 40 metros. 6-Viaducto de Vicario: su tablero de 175 metros de largo se apoya sobre sus dos estribos y su única pila central de 63,5 metros. La sección del tablero se forma por un cajón metálico de acero es- tructural con sistema de puntales y jabalcones sobre el que se hor- migona una losa forjado nervada. El proceso constructivo emplea- do es el sistema de empuje me- diante nariz. Las pilas en todos ellos son de hormigón armado unicelulares y únicamente varía la sección rec- tangular u octogonal y el encofra- do utilizado deslizante o trepante. COMENTARIO ESTRUC- TURAL La tipología estructural que nos podemos encontrar en esta se- cuencia de puentes es variada y en algunos casos completamente distinta, llegando a distinguirse desde secciones de tablero metá- lico a otras de hormigón armado. Para entender mejor la repercu- sión estructural y dimensional de este conjunto ingenieril se pue- den señalar como características fundamentales las siguientes cuestiones de cada uno de los viaductos del tramo: 1-Viaducto de Ízbor o de Rules: dispone de una longitud total de 924,63 metros y una altura media de pilas superior a los 63 metros. “La tipología estructural que nos podemos encontrar en esta secuencia de puentes es variada y en algunos casos completamente distinta” 24 Nº12. Abri l de 2016 Imagen 4. Tablero de cajón metálico con jabalcones y puntales bajo losa forjado nervada. Tramo entre uno de los estribos y la pila central única del Puente de Vicario. Fotografía propia.
  • 25.
    siste en unaestructura comple- mentaria que actúa reduciendo los esfuerzos durante el empuje a través de unos cables que pasan por la cabeza de dicha torre y se articulan tanto a la celosía a lan- zar en su extremo en voladizo como simétricamente en la parte posterior del tablero. Este procedimiento de atiranta- miento realiza la función de un pretensado exterior disminuyen- do los momentos flectores por peso propio y los esfuerzos que tienen lugar al apoyar las prime- ras secciones del tablero a la pila. Unos gatos hidráulicos se encar- gan de empujar la celosía hasta que ésta se apoya en la pila y se desactiva la tensión de los tenso- res. Otros gatos hidráulicos situados en la base de los tensores de ati- rantamiento varían la tensión en los cables, varían los esfuerzos de las secciones en voladizo y dismi- nuyen la flecha de flexión de di- cho voladizo durante el empuje. La gran longitud de los vanos del viaducto suponía que este proce- dimiento se llevara a cabo sobre dimensiones excepcionales. A todo esto hay que añadir que el trazado geométrico del puente venía dado en planta por una cur- va de 17200 metros y en alzado por una pendiente descendiente del 0,2075, con lo que contaba con el añadido de la necesaria precisión en la colocación defini- tiva de la estructura para satisfa- cer dichas imposiciones geomé- tricas. En resumen, se puede considerar sin ningún género de dudas que los puentes sobre las aguas de Rules constituyen un desafío in- genieril de gran envergadura. EL RETO CONSTRUCTIVO Evidentemente, la gran cantidad de condicionantes mencionados anteriormente junto con la diver- sidad de tipos de puentes proyec- tados suponían un auténtico reto constructivo para las empresas que ejecutaron las obras. Aunque es de especial interés mencionar que el reto particular más asom- broso recaía en la materialización del Viaducto sobre el Embalse de Rules, dado que es uno de los puentes metálicos con mayores luces llevadas a cabo mediante el procedimiento de empuje. Este mecanismo constructivo se basa en construir el tablero metá- lico, que en este caso es una celo- sía con sección en forma de W, en un parque de fabricación ubi- cado en uno de los estribos e ir empujándolo con la ayuda de unos elementos de empuje o ga- tos hidráulicos. La gran luz de dos de sus vanos centrales (140 metros) requirió la ayuda de una torre de atirantamiento de 40 metros de altura. Esta torre con- Imagen 6. Puente del Embalse de Rules o del Guadalfeo durante el proceso de empuje del tablero mediante torre de atirantamiento. Ref: Ficha técnica Torroja Ingeniería. REFERENCIAS Y BIBLIOGRAFÍA: Páginas web de: - Mancomunidad del Valle de Lecrín y Ayuntamiento de Durcal. www.adurcal.com/ mancomunidad - Ministerio de Fomento. www.fomento.gob.es - Instituto Geológico y Minero de España. www.igme.esImagen 5. Puente del Embalse de Rules durante la construcción del forjado superior, ya acabado el empuje. Fotografía propia. 25Nº12. Abri l de 2016
  • 26.
    INTRODUCCIÓN Noche del sábado26 de Abril de 1986. Los ciudadanos de la modesta ciudad de Pripyat (cercana a Chernobyl, Ucrania) son sorprendidos por una enorme bola de fuego que ascendía en el cielo, como si de un sol se tratara. La enorme esfera resplandeciente no era más que una de las consecuencias producidas por la explosión del reactor número cuatro de la recién estre- nada central nuclear. Trataban de averiguar si las turbi- nas eran capaces de generar tanta electricidad como para alimentar las bombas de refrigeración en caso de fallo. Sin embargo, durante la prueba, se produjo un aumento inesperado de potencia en el reactor, lo que provocó la catástrofe. La explosión redujo a escombros la infraestructura (Figura 1) que cubría esta zona de la central, liberando al exterior la enorme bola de fuego y una desorbitada cantidad de radiación que no haría más que seguir creciendo y expandiéndose por todo el glo- bo terrestre. La gente salió de sus casas para observar el fenómeno. Sentían como si estuviera lloviendo, pero no había ni gota de agua. Algo les caía sobre la piel. Se trataba nada más y nada menos de partículas radioacti- vas, enormemente nocivas para el medio ambiente y para los seres vivos. Algunos de ellos pudieron vivir lo suficiente para describir más tarde esta situación. Otros murieron como consecuencia de terribles heridas (quemaduras radioactivas) , cáncer y otros males pro- vocados por la peligrosa radioactividad. El gobierno temía que la noticia del suceso se extendiera por todo el territorio con las consecuencias que todo ello conllevaría. Por ello, desarrolló una polí- tica de ocultismo que lo único que consiguió fue retra- sar las medidas paliativas y conseguir que mucha gente que podría haber sido evacuada muriera sin saber qué estaba sucediendo. Tras el esfuerzo de muchísimos valientes y la muerte de la mayor parte de ellos, se consiguió cons- truir un armazón de hormigón que envuelve la zona de principal emisión radioactiva. La nube que ya se había emitido, fue expandiéndose y llegó prácticamente a todos los rincones del mundo. En España, varias cen- trales nucleares (equipadas con medidores) detectaron la presencia de radioactividad. Afortunadamente, la concentración fue disminuyendo a medida que se aleja- ba del centro de sucesos o zona 0. Hoy en día, la ciudad de Pripyat y los alrededo- res se encuentran totalmente deshabitados. Se cuenta que existe algunas especies de animales que sí son ca- paces de habitar las zonas contaminadas. Sin embargo, la sensación que transmite lo que queda hoy en día, es de un paraje totalmente deshabitado, exceptuando a organismos resistentes a la radioactividad y seres vivos mutados y adaptados, uno de las tantas consecuencias de la radioactividad. En la Figura 2 se puede observar la famosa noria del parque de atracciones de Pripyat, LA RADIOACTIVIDAD JOSÉ MANUEL IBÁÑEZ POVEDA. INGENIERO INDUSTRIAL. 26 Nº12. Abril de 2016 Figura 1: El reactor. Ref: www.boston.com
  • 27.
    empleada en diversoslargometrajes y buque insignia de la desolación que produce la radioactividad allí por donde pasa. LA RADIOACTIVIDAD Gracias a sucesos como el de Chernóbyl o Fu- kushima podemos ver el poder de destrucción de la radioactividad en contraposición de los beneficios que aporta la energía nuclear a la sociedad. Pero, ¿Qué es exactamente la radioactividad? La radioactividad se puede definir como el fe- nómeno físico a través del cual los núcleos de determi- nados elementos de la tabla periódica emiten "radiaciones" en forma electromagnética (rayos X y rayos Gamma) o en forma corpuscular (partículas Alfa, partículas Beta, neutrones). Para seguir desarrollando el concepto de radioactividad debemos hacer alusión a los isótopos. Los isótopos son átomos que pertenecen a un mismo elemento químico de la tabla periódica, que disponen del mismo número de protones pero distinto número de neutrones. Por lo tanto tendrán igual número atómico pero difieren en la masa atómi- ca. Algunos se pueden encontrar en la naturaleza (Uranio 235 y Uranio 238) y otros son creados artifi- cialmente por el ser humano (Yodo 129, Yodo 131, Yodo 133). La radioactividad es una propiedad intrínseca de los isótopos que son considerados "inestables", es decir, que en busca de su estado fundamental necesitan perder energía y lo hacen de forma espontánea. Pueden variar la energía de sus electrones (emisión de rayos X), de sus nucleones (rayos Gamma) o de otras partículas, variando su naturaleza y pasando a ser un átomo más ligero y por lo tanto, un elemento distinto en la tabla periódica. Un ejemplo podría ser el Uranio, que tras el paso de los siglos se acaba convirtiendo en Plomo Pb. A pesar de ser un fenómeno que se da de forma natu- ral en los isótopos inestables, también es posible pro- vocar la emisión de energía mediante el bombardeo de núcleos estables con las partículas apropiadas. Este proceso se conoce como radioactividad artificial o in- ducida y basándose en este principio se obtienen apli- caciones beneficiosas de la radioactividad para la socie- dad, como las radiografías o la obtención de energía en las centrales nucleares (siempre que se haga de forma controlada). En la Figura 3 podemos observar el poder de penetración de los distintos tipos de radioactividad ci- tados. Las partículas Alfa, son núcleos de Helio (dos protones y dos neutrones, carga total positiva) y son poco penetrantes (las detiene una simple hoja de papel) pero muy ionizantes. Las partículas Beta son flujos de electrones y a pesar de tener un poder de penetración mayor (un panel de metacrilato para detenerlas) son menos ionizantes que las anteriores. La radiación Figura 2: La noria de Pripyat. Ref: labitacoradelmiedo.wordpress.com 27Nº12. Abri l de 2016
  • 28.
    toallitas fabricadas paraeste fin. Conviene saber que los órganos reproductores son 50 veces más vulnera- bles que la piel frente a la radiación. Otras partes como la glándula tiroides, el hígado o la médula ósea también presentan una mayor debilidad hacia este fenómeno. El segundo factor está relacionado con el tiempo de expo- sición (mayor tiempo en contacto conlleva un mayor riesgo y mayor cantidad de daños en el organismo). Por último, el tercer factor es la concentración de la radiación. A mayor concentración, mucho mayor ries- go. Como claro ejemplo se puede describir lo que suce- día con los ciudadanos que trabajaron en el reactor nú- mero 4 de la central de Chernóbyl. La concentración de radiación era tan alta en determinadas zonas, que algunos trabajadores, tratando de realizar tareas como soldar, contribuir a construir el sarcófago de hormigón o simplemente trazar un mapa con la distribución de las nubes radioactivas, morían en apenas unos segun- dos (a pesar de portar pesadas protecciones de plomo). Otra característica a destacar de la radiación es la forma caprichosa de distribuirse, ya que es de forma totalmente no uniforme. Es posible que nos encontre- mos en una zona con una concentración muy baja o nula y unos metros adelante la concentración se dispa- re a niveles desorbitados. Aquéllos que trazaban los mapas radioactivos en el lugar del desastre, en ocasio- nes tenían la mala fortuna de encontrarse con una nube Gamma se trata de ondas electromagnéticas y debido a su alto poder de penetración es necesario emplear un panel de plomo para detenerlo. La radiación neutró- nica (neutrones) posee un gran poder de penetración, por ello es necesario usar hormigón para frenar su avance. Algunos isótopos irradian durante cortos pe- riodos de tiempo, volviéndose estables y, por tanto, dejando de emitir radiación. Sin embargo, algunos de ellos mantienen su actividad radioactiva durante mu- cho tiempo (en ocasiones, hasta miles de millones de años). Por ello, el medio ambiente de las zonas afecta- das por este tipo de catástrofes o simplemente en los lugares que se guarda los residuos radioactivos, queda totalmente dañado y prácticamente irrecuperable, in- cluyendo tanto la flora como la fauna. La mejor solu- ción es, sin duda, evitar a toda costa este tipo de acci- dentes o almacenar los residuos en lugares habilitados y preparados para ello. Los riesgos para la salud dependen principal- mente de tres factores. El primero de ellos es el tipo de contacto con el agente radioactivo. La situación más peligrosa es la ingesta o la aspiración de partículas ra- dioactivas, mientras que la adhesión de estas partículas a la superficie de la piel se considera de menor impor- tancia ya que, en ocasiones, pueden ser retiradas con Figura 3: Poder de penetración de la radiación. Ref: losmundosdebrana.wordpress.com. 28 Nº12. Abri l de 2016
  • 29.
    de alta concentracióny morían a los pocos segundos. Los compañeros que venían detrás, con la información de los caídos predecesores seguían avanzando en el trazado de los mapas. Tras conocer un poco más de cerca el compor- tamiento y las vicisitudes de la radiación, comprende- mos por qué se cuestiona en ocasiones el empleo de la energía nuclear, capaz de proporcionarnos una gran cantidad de energía pero con la certeza de que estamos manipulando un fenómeno capaz de destruirnos. EL ACCIDENTE DE FUKUSHIMA No es necesario remontarnos a 1986 para en- contrar un accidente con consecuencias radioactivas. En el año 2011 se produjo un terremoto de magnitud 9 en la escala sismológica que castigó con fuerza a la civi- lización nipona. Además de los propios destrozos y pérdidas de vidas humanas provocados por el seísmo en sí, se desarrollaron una serie de consecuencias pos- teriores. Una de ellas fue el desastre de la central de Fukushima. El 11 Marzo, el día que se produjo el terremo- to los reactores nucleares 1, 2 y 3 de la central se en- contraban operando en condiciones habituales, mien- tras que los reactores 4, 5 y 6 no se encontraban en funcionamiento debido a tareas de mantenimiento pre- ventivo. Tras la detección del seísmo, los tres reactores en funcionamiento se desconectaron automáticamente, con la consecuente parada de producción de energía eléctrica. En condiciones normales, los equipos de re- frigeración pueden extraer energía del tendido eléctrico sin problema alguno, pero aquel día el terremoto había dañado la red, dejándola completamente inservible. La siguiente medida de seguridad para que no se detenga la refrigeración consistía en la generación de electrici- dad mediante grupos electrógenos diésel. Sin embargo, el sistema no estaba preparado para el tsunami que irrumpió en la central devastando todo lo que encon- traba por su paso. La enorme magnitud de dicho tsunami, que alcanzó 40,5 metros de altura en algunos puntos, junto con la ausencia de muro de contención desembocó en la incapacitación absoluta de los sistemas de refrigera- ción. Las primeras consecuencias aparecieron en forma de fusión parcial del núcleo en los reactores 1, 2 y 3 y diversas explosiones de hidrógeno. Además de los incendios que se produjeron, los restos del combusti- ble nuclear almacenados en piscinas habilitadas para ello empezaron a sobrecalentarse debido también a la falta de refrigeración con la consecuente emisión de radiación. Las autoridades se vieron obligadas a evacuar la población que habitaba los alrededores. El radio de evacuación fue siendo ampliado hasta llegar a los 40 km. Se declaró inmediatamente el estado de emergen- cia nuclear. Finalmente se constató que en los reactores 1, 2 y 3, en funcionamiento durante el terremoto, se había producido la fusión del núcleo. Al igual que ocurrió en Pripyat en 1986, se en- contraron multitud de consecuencias derivadas del ac- cidente radioactivo. Otro hecho histórico que nos ad- vierte sobre el empleo de esta asombrosa fuente de energía. Figura 4: Los gatos del tejado. Héroes olvidados. Ref: elgoon.blogspot.com 29Nº12. Abri l de 2016 “Según la naturaleza del contacto con la radiación la salud se verá afectada en mayor o menor medida.”-
  • 30.
    Si existe unaconstrucción que aproveche perfectamente la luz natural tendrá que utilizar estos dos sistemas conjuntamente. La principal diferencia entre am- bos es la necesidad de una inver- sión en maquinaria para el apro- vechamiento activo de la radia- ción solar. Esta inversión es ele- vada y su amortización depende- rá exclusivamente del ahorro energético que produzca, será una mejor inversión en lugares donde la radiación solar sea ma- yor. El artículo se centrará en los sis- temas pasivos, ya que, a priori, no conllevan un aumento del presu- puesto de la obra y su rendimien- to puede ser tan eficiente como la inversión en sistemas activos de aprovechamiento solar. La radiación solar Como punto de partida, es nece- sario explicar brevemente como percibimos la radiación solar. La a atmósfera, las nubes, el aire, la contaminación, ejercen de filtros de la radiación solar, dejando lle- gar a la superficie solo un peque- ño porcentaje de esta radiación. Pero aún es mas importante el espesor de atmósfera que tiene que atravesar, que va variando según la hora del día y el mes del año. Desde hace unas décadas, está surgiendo una nueva actitud en la arquitectura. Después de una época donde el confort interior de un edificio se confiaba única- mente a máquinas, los motivos económicos provocaron una re- cuperación de los modelos de la arquitectura vernácula. El lugar, los materiales locales y sobre to- do el sol, están tomando una im- portancia capital en esta arquitec- tura. El aprovechamiento de la luz solar puede reducir hasta un 50% el gasto energético de una vivien- da, lo que conlleva un ahorro importante tanto económica co- mo ecológicamente. Además, está científicamente probado, que la luz solar influye positivamente en la vida cotidiana de las perso- nas. Sistemas activos y pasivos Existen dos formas de aprove- char la luz solar: los sistemas activos y los sistemas pasivos. Los sistemas solares activos utili- zan aparatos mecánicos para pro- ducir energía o transportar el ca- lor. Los paneles solares térmicos o fotovoltaicos son los principa- les exponentes de este sistema. Los sistemas pasivos emplean distintos elementos del edificio para conseguir el máximo confort posible sin la utilización de me- dios mecánicos para lograrlo. Esto no es nada nuevo, la arqui- tectura tradicional está llena de ejemplos de como un análisis del clima, del territorio, de los mate- riales y su consiguiente aplicación a los elementos arquitectónicos, provoca una mejora notable del ambiente interior. LA RADIACIÓN SOLAR EN LA EDIFICACIÓN YERAY ESTÉVEZ CERVIÑO. ARQUITECTO. 30 Nº12. Abri l de 2016 Imagen 1. Balance de la radiación solar (w/m2). Ref: www.meteovision.es
  • 31.
    intercambio de calor.Existen tres procesos básicos de transferencia de calor: conducción, convección y radiación. El calor absorbido por un mate- rial se desplaza por el cuerpo por conducción. Las moléculas más calientes transfieren su energía a las moléculas contiguas con me- nor temperatura. La convección es el fenómeno por el que un material transfiere su calor a las moléculas de un fluido. Cuando el fluido se calien- ta, baja su densidad y se desplaza hacia arriba. Por último, la radiación es la pro- piedad que tiene cada material de emitir energía en todas las direc- ciones por el movimiento de sus moléculas. Almacenamiento de calor Tan importante como captar la radiación solar es almacenar el calor recibido. Es importante la utilización de materiales con gran inercia térmica, es decir, con una alta capacidad de conservar el calor. Estrategias en invierno Las directrices básicas para un buen sistema pasivo de calefac- ción solar son, primero, la facha- da sur con grandes superficies de vidrio para captar la máxima ra- diación solar y, segundo, un ma- terial de buena inercia térmica para absorber el calor y distri- buirlo, piedra o cerámica. Como es lógico, el uso de algunas de estas estrategias dependerá de la época del año en que nos en- contremos y da la ubicación de la edificación. No se tienen las mis- mas necesidades climáticas en verano que en invierno, ni en Bilbao que en Murcia. A continuación se desarrollarán unas serie de estrategias a tener en cuenta en la edificación. La inclinación del eje de la tierra hace que, estando en el hemisfe- rio Norte, en los meses de verano se reciban más horas de radica- ción que incide perpendicular- mente en la superficie. Este ángu- lo decrece en los meses de in- vierno. El sol traza aparentemente un arco sobre el cielo, de Este a Oeste y que pasa por el Sur al mediodía solar. Esto hace que la orientación Sur reciba la radia- ción solar directamente, la orien- tación Norte, sin embargo, no recibe radiación directa, por lo que la radiación recibida será mu- cho menor. En el hemisferio Sur todas estas premisas serían a la inversa. Intercambio térmico Teniendo claro como se recibe la radiación solar, ahora pasaremos a estudiar como se intercambia este calor recibido. Cuando un material se calienta, busca un equilibrio de temperatura con el entrono, se producen flujos de Imagen 2. Angulo de incidencia de la radiación solar según la época del año. Ref: www.decoracionyinteriores.wordpress.com 31Nº12. Abri l de 2016 Imagen 3. Ejemplos de transmisión de calor por el material con alta inercia térmica. Ref: www.certificadosenergeticos.com
  • 32.
    Distribución La distribución interiortambién debería estar influida por el solea- miento. Los espacios mas utiliza- dos, como la sala de estar, tendría que estar orientados a Sur, mien- tras que espacios no vivideros como el garaje, cuartos de instala- ciones, o aseos, podrían estar orientados al Norte. Hay que te- ner en cuenta que es la orienta- ción más fría y la que menos sol recibe. Decidir entre las orienta- ciones Este y Oeste, ya depende del usuario, en la primera se reci- be el sol por la mañana y en la segunda, del mediodía hasta la puesta de sol. Situación de las ventanas El vidrio es un material con una mala transmitancia térmica, lo que provoca grandes pérdidas de calor en el interior de los edifi- cios. Es importante considerar donde y como disponer las ven- tanas. La mejor orientación para poner las superficies de vidrio es la Sur, que en invierno recibe cerca del triple de radiación que otra orien- tación. Durante el verano, la fa- chada Sur recibe gran cantidad de radiación pero menos que la Es- te, la Oeste y la cubierta. La orientación Sur debería tener la mayor superficie de vidrio, una moderada en Este y Oeste y una superficie pequeña en el Norte. Refrigeración en verano Como hemos visto, los sistemas solares pasivos se sustentan en dos pilares fundamentales, la cap- tación de calor con ventanas a Sur, y su almacenamiento con materiales de gran inercia térmi- ca. Hasta ahora, las estrategias que hemos visto tienen el objeti- vo de calentar un edificio. Estos elementos empeoran, a priori, el confort térmico interior en los meses de verano, pues si no se controla la captación solar, pue- den crearse condiciones con altas temperaturas que pueden resultar molestas. Es importante que las ventanas sean practicables o tengan alguna rejilla de ventilación, sobre todo en la parte superior. Por las no- ches se abren para ventilar, y se crea una corriente con el aire frío del exterior que empuja el aire caliente hacia arriba expulsándolo al exterior. Ubicación En la elección del emplazamiento del edificio está en juego gran parte del buen funcionamiento climático del mismo. Si el objeti- vo es recibir la mayor cantidad de radiación posible, se debe elegir el punto del terreno donde exis- tan menos obstáculos, edificios cercanos, árboles existentes o cualquier elemento que pueda arrojar sombra o evitar el solea- miento de nuestra edificación. La situación ideal climáticamente sería en la mitad superior de una ladera con orientación Sur. Para un eficaz aprovechamiento de la luz solar, lo ideal es que el edificio se disponga en un eje Este-Oeste, exponiendo la máxi- ma superficie al Sur. Geometría La geometría de la edificación también tiene gran importancia. Lo ideal en el diseño de un edifi- cio es que la relación entre super- ficie exterior y volumen construi- do sea lo mas pequeña posible. Teóricamente la forma ideal es una semiesfera. 32 Nº12. Abri l de 2016 Imagen 4. Optimización de superficies para evitar pérdidas de calor. Ref: Neufert Un sistema de calefacción solar se basa en la captación de radiación con grandes superficies de vidrio a Sur, y un material con buena inercia térmica para absorber y trasmitir ese calor. Imagen 5. Distribución de la planta según la orientación. Ref: www.renov-arte.es
  • 33.
    entrada en invierno.El tamaño de este voladizo dependerá de la latitud, pero a modo estimativo, se puede decir que la longitud en perpendicular a la fachada está comprendida entre la mitad y una cuarta parte de la altura del vi- drio. Sin embargo, un sistema fijo no es la solución ideal. Las pantallas móviles sería una opción mejor, ya que pueden adaptarse al sol mes a mes, pero es una opción mas costosa y requiere manteni- miento y mano de obra. Los elementos de protección in- terior, como persianas, cortinas, son menos eficaces pero su uso está mas generalizado y su man- tenimiento es casi nulo. En las orientaciones Este, Oeste y Norte, las protecciones hori- zontales son menos eficaces. Un sistema de lamas verticales evita mejor la radiación solar y, al igual que en las horizontales, su efica- cia mejora al ser móviles. Vegetación La vegetación puede jugar un papel muy importante en la cli- matización del edificio. La utiliza- ción de emparrados o arboles a Sur, es un método muy utilizado en la arquitectura popular. La vegetación se corresponde con el clima, un emparrado man- tiene sus hojas en verano y las pierde en invierno, evitando y permitiendo, respectivamente, la entrada de rayos de sol. Lo mis- mo ocurre con los árboles de hoja caduca, que aparte de otros beneficios, estéticos, ecológicos, son un elemento muy eficaz para conseguir el confort climático dentro de una edificación. Como hemos visto existen multi- tud de formas de conseguir un confort térmico interior con in- dependencia de la utilización de medios mecánicos. Con sistemas sencillos, sin mantenimiento y ecológicamente sostenibles, se puede eliminar o reducir el uso de calefacción y aire acondiciona- do, lo que beneficia a nuestros bolsillos y a la salud del planeta. Todo parte de un exhaustivo aná- lisis del clima y de las construc- ciones tradicionales de cada re- gión. Durante el día es importante ais- larse de la radiación solar, mante- niendo el edificio cerrado. Elementos de protección solar En verano el sol está mas alto que en invierno, por lo que los rayos de sol inciden mas perpen- dicularmente. Esto es beneficio- so, ya que la radiación directa entra con mayor dificultad en los paños de vidrio con orientación Sur. Aún así, para evitar un sobreca- lentamiento en verano, es intere- sante incorporar en el diseño de los edificios una serie de elemen- tos que protejan de la radiación solar. Aleros y lamas Un alero en la parte superior de una venta con orientación Sur, evita la entrada directa de radia- ción solar en verano y permite la Imagen 7. Efecto de un árbol de hoja caduca en la climatización de una vivienda. Ref: www.biuarquitectura.com 33Nº12. Abri l de 2016 REFERENCIAS Y BIBLIOGRAFÍA: - NEUFERT, Ernst. El arte de proyectar en arquitectura. Editorial Gustavo Gili. Barcelona, 1995. - MAZRIA, Edward. El libro de la energía solar pasiva. Editorial Gustavo Gili. Barcelona, 1984. - DÍAZ VELILLA, Jorge Pablo. Sistemas de energías renovables. Ediciones Paraninfo. Madrid, 2015. - www.eoi.es Imagen 6. Incidencia solar en un alero en una ventana con orientación Sur. Ref: www.sitiosolar.com
  • 34.
    En el díaa día usamos muchos utensilios metálicos con formas muy diferentes, vamos a tratar de entender co- mo es posible moldear esos meta- les que en principio parecen tan duros y poco flexibles. El formado de metales incluye varios procesos de manufactura en los cuales se usa la deforma- ción plástica para cambiar la for- ma de las piezas metálicas. La deformación resulta del uso de una herramienta la cual aplica es- fuerzos que exceden la resistencia a la fluencia del metal. Por tanto, el metal se deforma para tomar la forma que determinemos. En general, se aplica el esfuerzo de compresión para deformar plásticamente el metal. Sin embar- go, algunos procesos de formado estiran el metal, mientras que otros lo doblan y otros más lo cortan. Para formar exitosamente un me- tal éste debe poseer ciertas propie- dades. Las propiedades conve- nientes para el formado son: Baja resistencia a la fluencia y Alta ductilidad. Estas propiedades son afectadas por la temperatura. La ductilidad se incrementa y la resistencia a la fluencia se reduce cuando se aumenta la tem- peratura de trabajo. El efecto de la temperatura da lugar a la siguiente clasificación: Trabajo en frío, trabajo en caliente por debajo de la temperatura de recristalización y trabajo en calien- te por encima de la temperatura de recristalización. La velocidad de deformación y la fricción son factores adicionales que afectan el desempeño del de- formado de metales. Cuando el metal se deforma en frío aumenta su resistencia debido al endurecimiento por deforma- ción, creando acritud, pero si el metal se deforma a una tempera- tura lo suficientemente elevada (por arriba del punto de recristali- zación) no ocurre el endureci- miento por deformación, en su lugar se forman nuevos granos libres de deformación, esta tem- peratura es aproximadamente al 50% de la temperatura de fusión del metal, llamándose temperatura de recristalización y se requiere FUNDAMENTOS DEL FORMADO DE METALES REBECA ROSADO MARTÍNEZ, ING. TEC. INDUSTRIAL 34 Nº12. Abril de 2016 Imagen. Nº 1 Nos sorprendería la facilidad con la que se traba- jan los diferentes metales, solo hay que conocer el proceso.. Fuente: www.thefabricator.com Imagen Nº 2 Los ejemplos de útiles en la vida diaria son muy numerosos, en la imagen vemos diferentes piezas de automo- ción Fuente: www.aida-global.com/
  • 35.
    aproximadamente una horapara la formación de nue- vos granos. Una definición de recristalización que nos permite en- tender el proceso es: Formación de nuevos cristales metálicos libres de tensiones, eliminando así el metal perturbado por la deformación en frío. Operación que se realiza para purificar sustancias sólidas y que consis- te en disolver en repetidas etapas sus cristales, favore- ciendo con ello la formación de otros nuevos. Un lingote metálico tiene un uso muy reducido hasta que le es dada una forma tal que pueda usarse en un proceso de manufactura. Si el lingote es admitido en frío, se vuelve bastante difí- cil, si no imposible, convertir el material por medios mecánicos en una forma estructural, acero en barra o lámina. Sin embargo, si el lingote se trabaja en caliente, puede martillarse, prensarse, laminarse o extruirse en otras formas. Debido a la oxidación y otras desventajas del trabajo en caliente a temperaturas elevadas, la mayoría de los metales ferrosos se trabajan en frío o se termi- nan en frío después del trabajo en caliente para obtener un buen acabado superficial, alta exactitud dimensional y mejorar las propiedades mecánicas. Las características principales son: Por encima de la temperatura mínima de recristaliza- ción la forma de la pieza se puede alterar significativamen- te. Se requiere menor potencia para deformar el metal. Las propiedades de resistencia son generalmente isotrópicas debido a la ausencia de una estructura orientada de granos creada en el trabajo en frío. El trabajo en caliente no pro- duce endurecimiento de la pieza por deformación. Precisión dimensional más baja. Mayores requerimientos de energía (piezas más resisten- tes). Oxidación de la superficie de trabajo. El utillaje está sometido a elevados desgastes y consi- guientes mantenimientos. Las tecnologías de fabricación para el proceso de con- formado en caliente son: Laminación, forja, extrusión, estirado, doblado y em- butido. Teniendo en cuenta los usos de los productos metáli- cos obtenidos (automóvil, minería, ferrocarril, cons- trucción naval, etc…) y el volumen fabricado, se consi- deran como procesos más relevantes dentro del con- formado en caliente la laminación en caliente y la forja. Imagen Nº 3. Diagrama de flexión/deformación. Aquí se ve claramente cuando un material pasa de estar en su zona elástica a su zona plástica, donde las deformaciones no se recuperan por completo.. Fuente: www.sites.upiicsa.ipn Imagen Nº 4. La deformación por temperatura de un material cambia su red cristalina. Fuente: www.batanga.com 35Nº12. Abri l de 2016
  • 36.
    tas que noson eliminables. -Una temperatura baja de calentamiento origina la dis- minución de la plasticidad del acero, eleva la resistencia de deformación y puede originar grietas durante la la- minación. Por tanto la temperatura óptima de trabajo no es un solo valor, sino que varía en cierto rango de temperatu- ra entre un límite superior y un límite inferior. Un efecto del trabajo en caliente con la operación de laminado, es el refinamiento del grano causado por recristalización. El laminado en caliente tiene las ventajas siguientes: -La porosidad en el metal es considerablemente elimi- nada. La mayoría de los lingotes fundidos contienen muchas pequeñas sopladuras. Estas son prensadas y a la vez eliminadas por la alta presión de trabajo. -Las impurezas en forma de inclusiones son destroza- das y distribuidas a través del metal. -Los granos gruesos o prismáticos son refinados. Dado que este trabajo está en el rango recristalino, se mantie- ne hasta que se proporcione una estructura de grano fino. -Las propiedades físicas generalmente se mejoran, prin- cipalmente debido al refinamiento del grano. La ducti- lidad y la resistencia al impacto se perfeccionan, su re- sistencia se incrementa y se desarrolla una gran homo- geneidad en el metal. -La cantidad de energía necesaria para cambiar la forma del acero en estado plástico es mucho menor que la requerida cuando el acero está frío. Desventajas del laminado en caliente: Debido a la alta temperatura del metal existe una rápi- da oxidación o escamado de la superficie con acompa- ñamiento de un pobre acabado superficial. Como re- sultado del escamado no pueden mantenerse toleran- cias cerradas. Aquí vamos a tratar solo el laminado en caliente ya que es un método de fabricación más interesante y más extendido que la forja. -Laminación en caliente: Es un conformado en el cual se hace pasar el metal por trenes de rodillos que le dan una forma progresivamen- te más parecida a la deseada. La laminación es la deformación plástica de los metales o aleaciones, realizada por la deformación mecánica entre cilindros. En el proceso de laminado en caliente, el lingote cola- do se calienta al rojo vivo en un horno denominado foso de termodifusión, donde básicamente los tochos, se elevan a una temperatura entre los 900°C y los 1.200°C. Se calientan con el fin de proporcionar ductilidad y maleabilidad para que sea más fácil la reducción de área a la cual va a ser sometido. Durante el proceso de calentamiento de los tochos se debe tener en cuenta: -Una temperatura alta de calentamiento del acero pue- de originar un crecimiento excesivo de los granos y un defecto llamado “quemado del acero” que origina grie- 36 Nº12. Abri l de 2016 Imagen Nº 5 .Los trenes de laminado deforman el material y cambian el tama- ño del grano. Fuente: https://www..weebly.com Cuando el metal se deforma en frío aumenta su resistencia debido al endurecimiento por deformación.
  • 37.
    El equipo paratrabajo en caliente y los costos de man- tenimiento son altos, pero el proceso es económico comparado con el trabajo de metales a bajas tempera- turas. Con el paso de los años ha habido una clara tendencia a optimizar el proceso. Un tren de laminación puede definirse como máquina de fabricación para trabajar materiales por presión entre cilindros rotativos. Pero esta definición no está completa, ya que en la mayoría de los casos la laminación de un metal necesita varias etapas tecnológicas, siendo además necesarias ciertas operaciones auxiliares, como pueden ser: El transporte de los materiales, su almacenaje, manipu- lación, corte en las longitudes requeridas, recalentado- res, enfriadores, mecanizado posterior, etc... La demanda de fabricación en serie del material lami- nado lleva consigo un alto grado de mecanizado y por tanto un alto grado de automatización. Las máquinas que trabajan el metal laminado se colocan en una cade- na de fabricación y se conectan con los medios necesa- rios que permitan transportar las piezas de una máqui- na a la siguiente. Estos sistemas de máquinas son típi- cos de los talleres más modernos y suelen englobarse también en el tren de laminación. El primer par de rodillos por el que pasa el lingote se conoce como tren de desbaste o de eliminación de as- perezas. Después del tren de desbaste, el acero pasa a trenes de laminado en bruto y a los trenes de acabado que lo reducen a láminas con la sección transversal co- rrecta. Hay que tener en cuenta que también los rodillos se llegan a deformar un poco debido a las altas presiones que se alcanzan. Un tren de laminación moderno de gran producción es, generalmente, un conjunto complejo de máquinas y mecanismos que realizan una serie de operaciones con- secutivas e interrelacionadas. El desarrollo de la tecnología, en general, y de la auto- matización en particular, subraya el principio de enlazar todas las etapas de la fabricación, desde la materia pri- ma hasta el embalaje de los productos terminados, en una cadena automatizada. Según todos los requisitos que tengan las diferentes etapas de la fabricación nos encontramos con diferen- tes tipos de Trenes de Laminación (según disposición en planta): Abierto: con juegos de rodillos en línea, usando el mis- mo motor para accionarlos. Continuos: juegos de rodillos unos detrás de otros, sin interrupciones. Cross-Country: son mixtos de Continuos y Abiertos (zig-zag). La elección de un sistema u otro, o incluso disponer de varios trenes, del mismo o de diferentes tipos, se toma- rá teniendo en cuenta el Lay-out de nuestro lugar de trabajo, de la longitud de las piezas a formar y por su puesto habrá que llegar a una solución de compromiso que englobe lo técnico con lo económico. 37Nº12. Abri l de 2016 Una temperatura alta de calentamiento puede originar un crecimiento excesivo de los granos y un defecto llamado “quemado del acero” que origina grietas no eliminables. REFERENCIAS Y BIBLIOGRAFÍA: - Protocolo www.escuelaing.edu.co. -www.weebly.com -Wikipedia, Procesos Térmicos. -www.batanga.com -Wikipedia, Laminación -www.thefabricator.com -www.sites.upiicsa.ipn
  • 38.
    mente de 1000 a 10 000 veces mayor que el volumen original del espacio donde se alojó el explosivo. Estos fenómenos son aprovechados para realizar un trabajo mecánico aplicado a la rotura de materiales pétreos constituyendo lo que se conoce como la “técnica de voladura de rocas”. Hoy en día, los explosivos constituyen una herramienta básica y fundamental tanto para la explotación minera como para las grandes obras de ingeniería civil. RESEÑA HISTORICA El uso de los explosivos ha evolucionado constante- mente, desde unos inicios bastante rudimentarios hasta llegar a los sofisticados productos comerciales que existen hoy día. El primer explosivo conocido fue la pólvora, llamada también “polvo negro”. Se cree que empezó a utilizar- se hacia el siglo XIII en Europa, donde aparecen ins- trucciones sobre su uso en escritos del filósofo francis- cano inglés Roger Bacon, siendo el único explosivo conocido durante siglos. Su invención y primeros usos se atribuye históricamente a los chinos que pudieron haber sido los creadores de esta mezcla de sustancias para la fabricación de fuegos artificiales. Un material ex- plosivo se puede definir como un compuesto o una mezcla de sustan- cias en estado sólido, líquido o gaseoso, que me- diante reacciones químicas de óxi- do-reducción, es capaz de trans- formarse en un breve espacio de tiempo (del orden de fracciones de microsegundo), en un producto gaseoso y condensado, cuyo volumen ini- cial se convierte en una masa gaseosa que alcanza altas temperaturas y presiones muy elevadas. Así, los explosivos comerciales son una mezcla de sus- tancias, combustibles y oxidantes, que incentivadas debidamente, dan lugar a una reacción exotérmica muy rápida, que genera una serie de productos gaseosos a alta temperatura y presión, químicamente más estables, y que ocupan un volumen mucho mayor, aproximada- EXPLOSIVOS INDUSTRIALES ALVARO M. SÁNCHEZ GUISÁNDEZ. GRADUADO EN INGENIERÍA MINERA. Imagen Nº1. Ilustración representando el inicio de un proyectil por parte de un guerrero chino, a los cuales se les atribuye la invención de la pólvora negra. www.confuciomag.com 38 Nº12. Abril de 2016
  • 39.
    líquido presentaba múltiplesproblemas a la hora de hacer uso de él en labores industriales ya que se filtraba a través de las hendiduras de la roca cuando se vertía en un barreno, con la consiguiente pérdida de efectivi- dad, y se requería de un gran cuidado para colocarlo y detonarlo debido a su gran inestabilidad. Fueron tan frecuentes los accidentes durante su uso, que incluso se prohibió su empleo en algunos países y la voladura de un barco cargado con gran cantidad de este explosivo, causó tal conmoción, que se creyó necesario impedir radicalmente su empleo en todos los países civilizados del mundo. Fue el químico sueco Alfred Nobel quien resolvió el problema de los explosivos enérgicos en 1866. Mezcló la nitroglicerina con ciertas clases de tierras porosas y produjo una especie de serrín, que llamó «dinamita». Dos veces más enérgica que la pólvora y mucho más segura, la dinamita revolucionó la ciencia de los explo- sivos. Hizo posible la ejecución de las grandes obras de ingeniería en nuestros tiempos y dio lugar al desarrollo de la industria minera en el mundo desde 1870. La invención de la dinamita, y con ella los modernos explosivos industriales, ha marcado una época en la historia de la civilización, permitiendo al hombre cam- biar la faz de la Tierra en función de sus necesidades. Alfred Nobel, además de ser un excelente químico, ingeniero e inventor, también destaca por ser el crea- dor de los premios que llevan su nombre. ORIGEN DE LOS MODERNOS EXPLOSIVOS Hasta bien entrado el siglo XIX la pólvora negra fue el explosivo más energético disponible que podía usarse con unas medianas condiciones de seguridad. Fue en este siglo cuando la investigación en el campo de los explosivos comenzó a despegar. En 1847 el químico italiano Ascanio Sobrero , traba- jando en la Universidad de Turín, trató la glicerina con ácido nítrico y produjo el primer explosivo energético, la nitroglicerina. Este nuevo compuesto alcanzó una trágica notoriedad con el nombre de «aceite explosivo», pues se trataba de un compuesto muy sensible que ex- plotaba al menor impacto. Al tratarse de un explosivo Imagen Nº2. Alfred Nobel, Inventor de la dinamita y creador de los premios que llevan su nombre. Imagen Nº3. Monte Rushmore, EEUU. Ejemplo de como el poder de los explosivos es capaz de esculpir el paisaje a voluntad. 39Nº12. Abri l de 2016
  • 40.
    común en mineríay construcción civil estando normal- mente destinado su uso para realizar voladuras en roca. Cualquier explosivo posee unas características diferen- ciadoras que hacen que resulte más o menos idóneo para una aplicación concreta. Esta diferenciación no sólo se da entre las diferentes familias de explosivos, sino incluso dentro de cada una de ellas. La elección de un explosivo, teniendo en cuenta sus propiedades físicas y químicas, se basa en los siguientes parámetros: • Potencia explosiva • Velocidad de detonación • Densidad de encartuchado • Resistencia al agua • Sensibilidad • Humos. A continuación se hacen algunas consideraciones rela- tivas a cada una de estas propiedades. Potencia explosiva En general, la potencia puede definirse como la capaci- dad de un explosivo para quebrantar y proyectar la ro- ca a volar., aunque en la voladura de rocas blandas un explosivo con baja potencia y velocidad de detonación quebranta y proyecta mejor la roca que un explosivo más potente. Realmente, esta propiedad es el resultado de una com- CLASIFICACIÓN DE LOS EXPLOSIVOS En términos generales los explosivos por su forma de reacción se clasifican en: explosivos químicos y explo- sivos nucleares. Los explosivos químicos actúan por procesos de reac- ción química de detonación producidos por efecto de una onda de choque. Están mayormente vinculados a compuestos nitrados y son los de aplicación común en minería y construcción civil. Los nucleares están vincu- lados a la desintegración de materiales como uranio 235 y plutonio, proceso que desprende inmensas canti- dades de energía. Su empleo actual es en el campo mili- tar y de investigación. Aunque no se clasifican como explosivos, algunos pro- ductos especiales actúan como una explosión física sin detonación previa, producida por la súbita expansión de gases inertes licuados como el CO2. Un ejemplo de esto son los sistemas Cardox. Este sistema remplaza los ex- plosivos por tubos que son llenados con CO2 líquido (exactamente igual que un extintor). Cuando una pequeña carga eléctrica es aplicada al tubo, el reactivo químico hace que, de forma instantánea, el CO2 líquido se trans- forme en gas. Su empleo está limitado a ambientes con alto nivel de grisú en las minas de carbón, o donde no se puede emplear explosivos convencio- nales. EXPLOSIVOS QUÍMICOS INDUS- TRIALES Como se ha comentado anteriormente son los explosivos de aplicación más Imagen Nº5. Diferentes tipos de explosivos industriales en diferentes formatos de encartuchado y granel. www.maxam.com 40 Nº12. Abri l de 2016 Imagen Nº5. Una de las características de los explosivos es la mayor o menor producción de humos tóxicos, que se hace critica en trabajos de interior. http://www.response.cl/
  • 41.
    binación entre lapresión de detonación y el volumen de gases a alta presión y temperatura producidos en la explosión. Velocidad de detonación La velocidad de detonación de un explosivo puede de- finirse como la velocidad con que la onda de detona- ción se propaga a través del explosivo. La energía cedida por un explosivo en su detonación puede separarse en dos términos. Por un lado, la de la onda de detonación, encargada de crear fisuras en la roca y por otro la de los gases a elevada presión y tem- peratura, que deben proceder al agrandamiento de las grietas iniciales y al desplazamiento de la roca. Los explosivos de alta velocidad se denominan rompe- dores. Son explosivos susceptibles de empleo en forma de cargas adosadas, es decir, sin confinamiento, por lo que el trabajo producido por los gases tiene poco inte- rés. Son, además, explosivos adecuados para la voladu- ra de rocas duras y frágiles, donde la fisuración se pro- duce por esa potencia de la onda de detonación. Por el contrario, si la roca es blanda y deleznable, es mejor que la explosión dé lugar a una gran cantidad de gases. La velocidad de detonación es una propiedad determi- nante en la selección del tipo de explosivo idóneo para la voladura de una roca en particular. Densidad de encartuchado La densidad de encartuchado depende del propio peso específico del explosivo y del grado de compactación. Se determina de forma que en cada explosivo sea la óptima para desarrollar su máxi- ma velocidad, potencia, etc. Resistencia al agua El comportamiento de cualquier explosivo ante la hu- medad o el agua depende de los elementos que entren a formar parte de su composición y de su propia cons- titución. En los explosivos gelatinosos, a medida que aumente la proporción de sales oxidantes disminuye la resistencia al agua, especialmente en el caso de nitrato amónico, ya que este producto es altamente higroscó- pico. Por el con- trario, a medida que aumenta la proporción de nitroglicerina aumenta la resis- tencia al agua. Ésta es la razón por la que las gomas tienen una mejor resistencia al agua que los explosivos pulve- rulentos. Estas reglas dejan de cumplirse en los hidrogeles o en las modernas emulsiones, las cuales, por su propia constitución, poseen una excelente resistencia al agua. Sensibilidad La sensibilidad puede definirse como la facilidad relati- va de un explosivo para detonar cuando se le somete a un estímulo exterior siendo un parámetro fundamental para la seguridad en el manejo de explosivos. Hoy en día los productos existentes tienen un alto gra- do de seguridad, así, los actuales hidrogeles y emulsio- nes son insensibles a cualquier golpe o rozamiento. Humos Los humos de una voladura están formados por el conjunto de gases resultantes de la explosión. En ellos existen gases derivados de la reacción química de los componentes del explosivo, producidos por una deto- nación, y, además, vapor de agua y finas partículas de los productos propios del explosivo y de la roca vola- da. Los humos producidos en voladuras contienen gases nocivos, como óxido de carbono o vapores nitrosos, por lo que su presencia en labores subterráneas con ventilación deficiente puede ocasionar molestias o into- xicaciones graves de las personas que se encuentren en ellas. Imagen Nº6. Barreno completamente lleno de agua que denota la importancia de contar con explosivos resistentes al agua. www.upv.es 41Nº12. Abri l de 2016 “La invención de la dinamita ha marcado una época en la historia de la civilización”-
  • 42.
    los tramos situadosentre los barrenos, sin dañar el res- to de la roca. Por esta razón, la pólvora negra se em- plea preferentemente para separar bloques grandes de rocas ornamentales (mármoles, granitos, etc..) de su macizo. No precisa la acción de detonador para su iniciación, siendo suficiente el empleo de la mecha lenta. Explosivos sensibilizados con nitroglicerina/ nitroglicol En el proceso de fabricación de estos explosivos pri- mero la nitroglicerina o nitroglicol se gelatiniza con nitrocelulosa. Por adición a esta mezcla inicial de una cierta proporción de nitrato amónico, se obtienen los explosivos gelatinosos sensibilizados con nitroglicerina, que en nuestro país se conocen con el nombre de Go- mas especiales. En general, estos explosivos tienen una consistencia plástica que permite un buen encartuchado y una bue- na resistencia al agua, por lo que se pueden utilizar en todas las condiciones por encima y por debajo del nivel freático e incluso bajo el mar. Estas propiedades junto con su elevada potencia explo- siva, densidad y velocidad de detonación, hacen que estos explosivos sean adecuados para la voladura de las rocas más duras. ANFO Su denominación proviene directamente de sus siglas en inglés: Ammonium Nitrate -Fuel Oil. Estas combinaciones están constituidas fundamental- mente por nitrato amónico y un producto combustible líquido, de manera que este tipo de explosivo de alta potencia puede llegar a fabricarse de forma casera o artesanal, ya que sus principales componentes son ac- cesibles al público en general. De acuerdo con las apli- caciones a que se les destine, pueden llevar incorpora- do un combustible sólido u otro aditivo que les confie- ra propiedades especiales. El ANFO es un material granulado, por lo que una de las ventajas más impor- tantes de estos productos es la posibilidad de realizar la TIPOS DE EXPLOSIVOS INDUSTRIALES Los diferentes tipos de explosivos industriales pueden agruparse en seis grandes familias, cada una de las cuales posee unas característi- cas diferenciadoras claras. Estas grandes familias son:  Pólvora de mina  Explosivos sensibilizados con NG/NGCOL  ANFO  Hidrogeles  Emulsiones Explosivas  ANFO pesado Pólvora de mina La pólvora de mina es un producto que en su aplica- ción deflagra (VD < 2000 m/s), en lugar de detonar como sucede en el resto de los explosivos. Cuando la pólvora negra se inicia confinada dentro de un barreno no se produce una onda de choque. Sólo actúan los gases sobre la roca, presionándola y rompiéndola en Nº de Imagen. Explicación. Si la imagen no es original nuestra debemos poner: Ref: el origen, la web, el libro, etc. 42 Nº12. Abri l de 2016 “...este tipo de explosivo de alta potencia puede llegar a fabricarse de forma casera o artesanal...”-
  • 43.
    De esta manerase consigue que este tipo de explosivos mantenga propiedades similares a las de los hidrogeles, sobre todo en cuanto a la resistencia al agua. ANFO pesado Se conoce con el nombre de Anfo pesado o HeavyAn- fo, al explosivo resultante de la mezcla de una Emul- sión y un ANFO. Presenta características intermedias entre sus dos componentes, mejorando la resistencia al agua del ANFO. Al tener mayor densidad y potencia, aumenta su rendimiento por lo que puede ampliarse su uso en la voladura de cualquier tipo de material, con un coste menor de la voladura. Este tipo de explosivo es altamente seguro frente a estímulos subsónicos, roces, impactos, etc., permitiendo su carga a granel o mecani- zada por medio de bombeo desde camión. Su sensibili- dad es la apropiada para iniciarse con un multiplicador o un cartucho de explosivo sensible al detonador. En resumen, podemos concluir que el uso de explosi- vos en actividades industriales a evolucionado enorme- mente desde sus orígenes, con los primeros compues- tos de pólvora negra, pasando por los accidentados días del uso de nitroglicerina lí- quida y el poste- rior invento de la dinamita por Al- fred Nobel, hasta los modernos productos indus- triales que ofre- cen una enorme diferencia en po- tencia y sobre todo en seguridad de transporte y manejo. carga a granel del mismo, bien desde sacos, bien desde camiones cargadores. Por el contrario, el principal in- conveniente es su nula resistencia al agua. Otra de sus mayores ventajas es la seguridad en el ma- nejo y el buen rendimiento en la voladura de rocas blandas o muy fracturadas, pues su explosión produce un gran volumen de gases. Hidrogeles Los hidrogeles o papillas explosivas, comercializadas en nuestro país con el nombre de Riogeles, son com- posiciones explosivas formuladas a base de un oxidan- te, generalmente nitratos inorgánicos, y de un reductor con suficiente defecto de oxígeno, junto con gelatini- zantes y estabilizantes, que le dan una buena consisten- cia e impiden la difusión en su interior del posible agua exterior, por lo que resiste muy bien la humedad y el agua en los barrenos. Estos geles explosivos son muy seguros ante estímulos subsónicos, sus humos son muy poco tóxicos, tienen elevada potencia y permiten su carga a granel y mecani- zada. Esta última ventaja supone a su vez una mejora en el rendimiento del explosivo, pues se produce el llenado total del barreno, evitando el encartuchado y minimi- zando el personal y el tiempo de carga de la voladura. Emulsiones Desde un punto de vista químico, una emulsión se de- fine como una dispersión estable de un líquido inmisci- ble en otro, lo cual se consigue mediante agentes que favorecen este proceso (emulsificantes) y una fuerte agitación mecánica. Esta emulsión es como un ANFO, donde el nitrato está disuelto en agua, y posteriormente cada partícula de esa disolución se ha recubierto con el aceite mineral. Nº de Imagen. Explicación. Si la imagen no es original nuestra debemos poner: Ref: el origen, la web, el libro, etc. REFERENCIAS Y BIBLIOGRAFÍA:  Manual para uso de Explosivos (Blasters Handbook) Du Pont - 175 Aniversary - ISEE  Manual Práctico de Voladura Exsa  www.maxam.net 43Nº12. Abri l de 2016
  • 44.
    El uso dellubricante se remonta a 4000 años antes de nuestra era. Ya los egipcios recurrían a la grasa para resolver los problemas de fricción en su carruajes, grasas que estaban elaboradas con cal mezclada con grasas animales y aceites vegetales. Estos lubricantes persistieron hasta el siglo XIX cuando se desarrollaron las primeras grasas a base de aceites minerales. Esta grasa sólida, llama- da briqueta, se utilizó hasta media- dos del siglo XX, cuando el desa- rrollo de los motores de vapor impulsó la mejora de los lubrican- tes, llegando a productos mucho más semejantes a los que tenemos hoy en día. La RAE define lubricante como aquella sustancia que aplica- da entre dos superficies en contac- to disminuye su fricción. Sin em- bargo esta es una visión algo sim- plista de lo que es realmente un lubricante. Desde el punto de vis- ta ingenieril las aplicaciones del lubricante son mucho más exten- sas. Entre ellas están: reducir la fricción; reducir el desgaste; redu- cir el consumo de energía; elimi- nar el calor generado; proteger contra la herrumbre y corrosión; eliminar contaminantes; evitar la entrada de contami- nantes; aislar eléctricamente; transmitir potencia; trans- ferir calor; reducir ruidos. Como puede apreciarse hay muchas cosas que considerar para seleccionar el lubricante más adecuado para cada ocasión, por eso es imprescindible entender bien cuál es su comportamiento en situaciones de ser- vicio. Lo primero que debe saberse es que existen tres situaciones en función de como sea la capa de lu- bricación: Lubricación a película delgada o límite Se da cuando el espesor de la película es inferior a la altura de algunas crestas superficiales, o dicho de otro modo, cuando las superficies deslizantes se tocan en sus crestas mayores (imagen 1). Esto implica un alto des- gaste de material por la alta fric- ción, lo que a su vez se traduce en una gran generación de calor y mayor gasto de potencia. Para evitar esto a los lu- bricantes puede añadírseles aditi- vos de extrema presión tanto de acción física que se adhieren a las superficies metálicas por afini- dad o polaridad y forman una pe- lícula resistente y de alta lubrici- dad (bisulfuro de molibdeno, gra- fito, teflón, óxido de zinc, etc.) como de acción química que, a alta temperatura, forman sulfuros, fosfuros, cloruros de bajo coefi- ciente de fricción (compuestos de azufre, fósforo cloro zinc, plomo etc.). Lubricación hidrodinámica Si las crestas no entran en contacto las molécu- las de fluido adyacentes a las superficies metálicas son absorbidas o adheridas a estas y viajan con la superficie y a su misma velocidad. LUBRICANTES ALFONSO ROJO LAHUERTA. INGENIERO INDUSTRIAL 44 Nº12. Abril de 2016 Imagen 1. a) régimen hidrodinámico b) régimen mixto c) régi- men límite Ref: http://www.widman.biz/ Imagen 2. Régimen elastohidrodinámico Ref: evolution.skf.com
  • 45.
    Si las superficiesson paralelas no se produce presión sobre la superficie superior. Si son convergen- tes se genera una presión hidrodinámica que es capaz de separar las superficies con una película de lubrican- te. Si se alcanza esta lubricación las superficies no se tocarán y no habrá desgaste. Para ello deberá cum- plirse que las superficies sean convergentes y se aco- plen bien una a la otra. Además deberán moverse a velocidad y carga constante. Lubricación elastohidrodinámica (EHD) Se da en cuando las superficies no acoplan bien (tienen poca superficie de contacto) como puede ser el caso de los rodamientos o engranajes. Al no haber mucha superficie de contacto toda la carga recae en aquella zona que sí toca a la otra. De- bido a ello se produce una deformación elástica en ese área. La carga se reparte entonces entre toda la zona deformada de un modo no lineal. Estas presiones, co- nocidas como presiones hertzianas, son máximas en la zona central y de salida del contacto (imagen 2). De este modo se distinguen tres zonas: región convergente a la entrada, zona plana de superficies coincidentes y región divergente a la salida. Es importante saber que la viscosidad (η) de un fluido crece con la presión (p) según : Siendo η0 la viscosidad a presión atmosférica y α el coeficiente viscosidad-presión. También debemos se conscientes de que la película EHD es unas 1000 veces más delgada que extensa, lo que se traduce en que es sumamente delgada. Sabiendo eso podemos entender como se desarrollará el proceso de lubricación. La superficie en movimiento arrastra al fluido a la entrada creando una presión hidrodinámica. Este aumento de presión supo- ne un incremento en la viscosidad como ya hemos vis- to. Esta presión consigue vencer a la presión hertziana que hay al borde de la zona deformada . De este modo el lubricante consigue entrar en la zona plana y no pue- de salir de ella debido a que la viscosidad es enorme y la película demasiado delgada. Este efecto es favoreci- do por la alta velocidad (del orden de milisegundos) a la que el fluido pasa por la región hertziana. Imagen 4. Regímenes de lubricación de un eje en un cojinete Ref: mantenimientoindustrial.wikispaces.com Imagen 3. Incremento de la viscosidad de un fluido con la presión Ref: http://www1.lsbu.ac.uk/ 45Nº12. Abri l de 2016
  • 46.
    Que el valorde la carga influya tan poco puede resultar extraño, pero se debe a que al aumentar la car- ga aumentará la presión hertziana, incrementado la de- formación y por lo tanto aumentando la región hertzia- na, que favorece del mismo modo que R, por lo que no supone tanta influencia como podría creerse. En la práctica los espesores suelen estar alrede- dor de las 0.5 micras. Para saber en que régimen está operando el lubricante resulta muy útil recurrir a la llamada curva de Stribeck. En ella se relaciona el coeficiente de fricción con el factor ηu/ω. En la curva (imagen 5) puede verse como la parte izquierda corresponde al régimen límite mientras que la parte derecha al régimen hidrodinámi- co. La parte intermedia es el régimen de transición co- nocido como mixto. Una vez estudiados los procesos de lubricación podemos pasar a los tipos de lubricantes. Los hay de varios tipos: Sólidos Son polvos que se adhieren a las superficies reduciendo la fricción entre ellas. Ejemplos: bisulfuro de molibdeno, grafito, teflón, cobre, aluminio, plata, óxidos, etc. Líquidos A su vez se clasifican en :  Aceites minerales: compuestos de hidrocarburos petrolíferos convencionales.  Aceites sintéticos: procedentes del petróleo (alquilbenceno, polialfaolefinas, polibutenos, etc.) y no procedentes del petróleo (esteres, gli- coles, siliconas, etc.)  Aceites semisintéticos: su aceite es mezcla de bases minerales y sintéticas.  Emulsiones y soluciones: emulsiones de aceite en agua (taladrinas), de glicoles en agua ( hidráu- licos), etc. Por lo tanto podemos decir que la zona de en- trada bombea el lubricante hacia dentro, la zona her- tziana lo conduce y la salida lo descarga. El espesor de la capa puede calcularse según la siguiente expresión un tanto compleja: Donde:  h: espesor de la película  μ: viscosidad del fluido a presión atmosférica  α: coeficiente característico del fluido  u: velocidad media  R: radio del cilindro  ω: carga por unidad de longitud  E: módulo elástico del cilindro Como puede apreciarse lo que más influye en su grosor son la viscosidad y velocidad (mayor presión hidrodinámica a la entrada), el coeficiente (mayor au- mento de la viscosidad con la presión) y el radio del cilindro (mayor presión hertziana). Imagen 5. Curva de Stribeck Ref: ingesaerospace-mechanicalengineering.blogspot.com 46 Nº12. Abri l de 2016 Lubricar bien una máquina no es algo tan sencillo como en un principio podría pensarse
  • 47.
    Pastosos o semisólidos Compuestosde aceites más espesantes y aditi- vos. Se dividen en:  Grasas de espesante orgánico: las más corrientes. Son la grasas de jabones metálicos (litio, calcio, aluminio, etc)  Grasas de espesante inorgánico: espesante cons- tituido de arcillas.  Grasas sintéticas: constituidas por un aceite sin- tético y un espesante orgánico o inorgánico.  Pastas lubricantes: compuestos de aceites espesa- dos con polvos lubricantes sólidos. Lubricantes de película seca Se adhieren a las superficies metálicas como un barniz. Ejemplos son las resinas, disolventes de las resi- nas y aditivos lubricantes sólidos. Lubricantes en aerosol Se pulverizan sobre la superficie. Compuestos de aceites minerales o sintéticos, aditivos sólidos y lí- quidos y aditivos pastosos como grasas. Conocidos los lubricantes que hay en el merca- do restaría saber qué propiedades se deben mirar para escoger el mejor lubricante. Evidentemente se deberá seleccionar en función de la maquinaria que deba lubri- carse y dependiendo de las condiciones de trabajo. No obstante siempre hay unas propiedades que deben es- tudiarse. Entre ellas destacan:  Viscosidad: la propiedad más importante. Mide su resistencia a fluir. Mecanismos a alta veloci- dad requerirán aceites de baja viscosidad y vice- versa. Si la viscosidad es demasiado reducida se producirán fuertes desgastes en la máquina mientras que si es demasiado elevada podrían producirse averías o desgastes excesivas deriva- dos del incremento de calor desprendido. La viscosidad tiende a aumentar con el tiempo.  Untuosidad: propiedad por la que los lubricantes se adhieren a las superficies metálicas. Mide la posibilidad de que una película se mantenga más o menos tiempo entre ambas superficies. De- pende tanto del lubricante como de la superficie.  Punto de congelación: si el fluido solidifica per- dería sus propiedades que lo hacen apropiado como lubricante.  Desemulsión: mide la habilidad de un aceite para separarse del agua  Punto de gota: temperatura a la cual la grasa pasa de estado semisólido a líquido. Aparte de otros como el peso específico, índi- ce de acidez la tendencia a formar espuma, resistencia a corrosión, poder antiherrumbre, consistencia, estabili- dad, punto de evaporación, rendimiento a alta tempe- ratura, etc. No es, por lo tanto, lubricar bien una máquina algo tan sencillo como en un principio hubiera podido pensarse. La elección del lubricante requiere un estudio que depende, como hemos visto, de muchos factores. REFERENCIAS Y BIBLIOGRAFÍA: - Pilar Lafont Morgado. Cálculo de Máquinas. Madrid, España: Sección de Publicaciones de la Escuela Técnica de Ingenieros Industriales. Universidad Politécnica. - Francisco Resusta Melgar. La lubricación y los lubricantes. TMI SI - http://www.elcomercio.com/origen-lubricantes.html 47Nº12. Abri l de 2016 Imagen 6. Aceite lubricante sobre un engranaje Ref: lubindustrial.blogspot.com
  • 48.
    El método RCM(Reliability Centered Maintenance) o Mantenimiento Centrado en la Fiabilidad es un método de amplia utilización que permite determinar las necesi- dades de mantenimiento en cualquier tipo de máquina, equipo o activo físico, en su entorno de operación. Es un método que identifica las funciones de un siste- ma, la forma en que esas funciones pueden fallar y que establece a priori tareas de mantenimiento preventivas aplicables y efectivas, basadas siempre en consideracio- nes que tienen que ver con la seguridad y la economía del sistema. La utilización del método RCM ha aumentado, puesto que es un sistema idóneo para diseñar el mantenimien- to en aquellos sistemas que requieren una alta fiabilidad o cuando es necesario mantener una determinada insta- lación funcionando a su capacidad máxima de manera continua. El método RCM genera, por tanto, un programa de mantenimiento preventivo cuya implantación va a per- mitir la detección de fallos con la antelación suficiente para que puedan ser subsanados de forma rápida y con las mínimas interrupciones del funcionamiento del sis- tema; la eliminación de las causas de algunos fallos an- tes de que tengan lugar; la eliminación de las causas de algunos fallos mediante cambios en el diseño y la iden- tificación de aquellos fallos que merman la seguridad del sistema. Este método se empezó a utilizar en la aviación comer- cial. Posteriormente en la década de los ochenta se em- pezó a utilizar en el mantenimiento de centrales nuclea- res, consiguiéndose una reducción de costes de mate- riales y mano de obra de mantenimiento del orden del 30%-40%. A partir de entonces, se ha implantado en todo tipo de industrias, desde la minería hasta la indus- tria química, reduciéndose el número, frecuencia y con- tenido de las revisiones generales de los sistemas, au- mentando la disponibilidad de los equipos y reducien- do los costes de mantenimiento y volumen de los in- ventarios. DESCRIPCIÓN DEL MÉTODO RCM. Para que un mantenimiento se considere que utiliza este método se tienen que dar los siguientes siete pa- sos: 1º.– Identificación del elemento a analizar: Es necesario establecer el sistema al que se va a aplicar el método RCM, definir sus límites y estructura. Se de- be definir la parte de nuestras instalaciones a estudiar, objeto de mantenimiento y la parte o elementos que quedarán excluidos de este estudio, así como la com- posición del sistema a estudiar, los elementos de nivel inferior, siguiendo una estructura de árbol hasta el nivel que se considere indivisible, desde el punto de vista de su mantenimiento. Con objeto de ser prácticos y economizar costes de gestión y de mantenimiento, solo se aplicará este méto- do a aquellos sistemas o elementos de la planta indus- trial que estén suficientemente justificados. Aparece entonces el concepto de criticidad del elemento, lo cual es una medida de riesgo en la operación de un equipo y depende de la probabilidad de que se produzca un fallo y su severidad, considerando factores de seguridad. Una vez obtenida la lista ordenada de equipos en fun- ción de su criticidad, los elementos con mayor relevan- cia deben ser estudiados en primer lugar. 2º.– Determinación de las funciones del elemento: Una vez realizado el paso 1, se debe volver a estudiar las funciones de los elementos seleccionados. En este momento se hace el estudio de una forma más detalla- da, orientando la definición de las funciones hacia la obtención de posibles fallos y modos de fallo, que es el objetivo de este paso. TÉCNICAS DE MANTENIMIENTO. EL MÉTODO RCM. JOSÉ EMILIO FERNÁNDEZ GARCÍA. INGENIERO TÉCNICO AERONÁUTICO. 48 Nº12. Abril de 2016
  • 49.
    Es posible que,tras este estudio funcional, se decida ampliar o restringir el sistema en estudio, conforme al equipo humano que lo realiza. 3º.– Determinación de lo que constituirá un fallo de las funciones: El usuario siempre espera de un determinado dispositi- vo o elemento que desempeñe su función requerida con un nivel aceptable. Cuando esto no ocurre es por- que dicho elemento se ha averiado. Debe distinguirse entre el fallo (fallo funcional) y las causas del mismo o conjunto de eventos (modos de fallo) que lo terminan provocando. Cuando hablamos de fallo debe considerarse el fallo de una determinada función y no solamente fallo general, ya que sus causas y los efectos del mismo pueden ser completamente diferentes según sea la función afectada. Se puede definir el fallo funcional como la inaptitud de un dispositivo para llevar a cabo una función con un grado de prestación aceptable por el usuario. Según esta definición, se entiende por fallo funcional tanto aquél en el que el dispositivo cesa en su aptitud para producir una función, como aquel en el que conti- núa funcionando, proporcionando la función requeri- da, pero sin alcanzar unos límites de prestación acepta- bles (fallo parcial). Estos fallos parciales son casi siempre causados por diferentes modos de fallo, siendo sus causas también diferentes. Por ello se deben registrar todos los fallos funcionales que pudieran afectar a cada función. Cuan- do el cumplimiento de una función de un elemento debe estar acotado entre un límite superior y otro infe- rior (ejemplo el ajuste mecánico de una máquina para obtener una determinada forma o dimensiones de un producto en su proceso de fabricación), los fallos que provocan el incumplimiento de la función por el límite superior, así como los modos de fallo y consecuencias, suelen ser diferentes a los relativos al límite inferior, por lo que ambos tipos de fallos funcionales deben recogerse y estudiarse separadamente. Por otra parte, al definirse los fallos funcionales debe tenerse en cuenta tanto al usuario, como a los técnicos de mantenimiento, ya que sus opiniones pueden ser completamente diferentes. La consideración de que un dispositivo esté averiado puede ser distinta según el técnico que lo observe: mantenimiento, producción, seguridad laboral, calidad, etc… Por tanto, para poder definirlos fallos funcionales, de- ben establecerse, de forma previa, los límites de los niveles de prestación del dispositivo. Estos límites de- ben ser establecidos por el personal de operación con- juntamente con el de mantenimiento y con todo aquél cuyo trabajo se pueda ver afectado por el funciona- miento del dispositivo. 4º y 5º.– Aplicación de AMFE o AMFEC: Los pasos cuarto y quinto consisten en la realización de un análisis modal de fallos y de los efectos de los mismos (método AMFE que es cualitativo y analiza las consecuencias sobre el sistema de todos los posibles fallos que puedan afectar a un componente, propo- niendo medidas para evitarlos o para minimizar las consecuencias de los mismos). Sin embargo, este análi- sis modal, dentro del método RCM, debe incluir no sólo los fallos que hayan ocurrido al elemento, si no el conjunto de los fallos posibles, que pueden ser enton- ces prevenidos en su totalidad. Imagen 2. Descripción general de las etapas del método RCM. Imagen 1. Objetivos del método RCM. Ref: http://www.monografias.com/ 49Nº12. Abri l de 2016
  • 50.
    La elaboración deeste documento final será un proce- so que consumirá tiempo y una buena cantidad de re- cursos del departamento de mantenimiento. DESCRIPCIÓN DE LA LÓGICA RCM. La lógica RCM se aplica a cada uno de los elementos que han sido seleccionados. Estos elementos están a su vez integrados por otros, que llamamos componentes, para distinguirlos del elemento principal en estudio. El fallo es la pérdida de la aptitud de un elemento para proporcionar la función requerida, mientras que el mo- do de fallo es el proceso mediante el cual finalmente se produce el fallo. En este proceso, que es el modo de fallo, se van produciendo fallos de distintos compo- nentes, que afectan a sus funciones y que no son las del elemento principal, que arrancan de una causa primera, a la que se pueden ir superponiendo otras en el mismo momento y a lo largo del proceso. Durante el proceso, aunque existen componentes ave- riados (estado después del fallo), no se puede afirmar que el elemento principal haya fallado hasta que deje de ser apto para proporcionar la función requerida. Ese fallo habrá tenido un último desencadenante, materiali- zado por el fallo de un componente determinado, pues bien a efectos del estudio RCM, el fallo de ese último componente se considera como modo de fallo princi- pal. Cuando los fallos no son ocultos, que es el caso que mas se da en la mayoría de los equipos, podemos anti- ciparnos al fallo, mediante acciones de carácter predic- tivo, monitorizando su funcionamiento o sustituyendo o interviniendo en el equipo. Ya se ha visto que se puede predecir o detectar el pro- blema antes de que el sistema falle, sin embargo, hay que tener en cuenta que no solo es necesario detectar el problema, sino que debemos asegurarnos de que se dispone del tiempo necesario para resolverlo antes de que deje de prestar la función requerida. medidas para evitarlos o para minimizar las consecuen- cias de los mismos). Sin embargo, este análisis modal, dentro del método RCM, debe incluir no sólo los fallos que hayan ocurrido al elemento, si no el conjunto de los fallos posibles, que pueden ser entonces prevenidos en su totalidad. Para cada elemento es necesario clasificar sus posibles fallos ocultos, en función de las consecuencias que ten- gan para la seguridad, el medio ambiente, la produc- ción y el mantenimiento. Según la importancia de esas consecuencias, se llevarán a cabo acciones para elimi- narlas o, la menos, mitigarlas, en aquellos casos en que no sea posible encontrar operaciones adecuadas de mantenimiento preventivo o predictivo que eviten el fallo. Un ejemplo de fallos ocultos lo tenemos en los rociadores de agua (sprinklers), en los sistemas contra incendios. Un fallo en uno de estos elementos no pue- de ser detectado cuando se encuentra en condiciones normales de operación, pues en estas condiciones el elemento no rocía agua, sino que permanece pasivo, sin embargo, diseñando los rociadores con cierto crite- rio es posible mitigar las consecuencias del fallo de al- guno de los elementos. 6º y 7º.– Utilización de la lógica RCM y documenta- ción del programa de mantenimiento: Finalmente, la aplicación de la lógica RCM, sexto pun- to del método, conduce a un conjunto de acciones concretas a aplicar a cada uno de los elementos selec- cionados. La documentación detallada y concreta de estas acciones, de manera que puedan implementarse, constituye el séptimo y último punto de este método. Consiste en un documento que recogerá el conjunto de tareas a realizar sobre cada uno de los elementos selec- cionados, agrupadas por frecuencias, técnicas a em- plear, localización, etc… Esta fase final del RCM no es fácil, ni rápida, debido a que tienen diversas funciones cada uno y para cada función distintos modos posibles de fallo, con distintos efectos y consecuencias y, para eliminar la causa de cada modo de fallo, existe una ta- rea de mantenimiento. 50 Nº12. Abri l de 2016 “El método RCM es un sistema idóneo para diseñar el mantenimiento en aquellos sistemas que requieren una alta fiabilidad”-
  • 51.
    Como ejemplo sepuede poner el fallo de la inyección de motores diésel a alta potencia, monitorizando la temperatura del gasoil. Si se detecta una subida anóma- la de la temperatura, al ser esta suficientemente lenta en relación con el agotamiento de las vida del inyector, es posible reemplazarlo en la práctica totalidad de los casos, ya que esta operación se puede realizar en un día sin que se hayan perdido horas de trabajo del equipo en cuestión. MONITORIZACIÓN DEL EQUIPO, ALTERA- CIONES DE CONDICIÓN Y REPARACIÓN. Partiendo de la Imagen 5, TM es el tiempo máximo que puede estar funcionando el equipo hasta que se produzca el fallo, después de que haya ocurrido la alte- ración de la condición que permite anticipar el fallo. Si este intervalo de tiempo fuese más o menos largo se- gún las circunstancias, TM será el menor de esos posi- bles valores, es decir, el mas desfavorable para poder reaccionar una vez alterada la condición del equipo. Cuando el conocimiento de la condición no es en tiem- po real, la frecuencia de monitorización será aquella que permita reparar el equipo. Con una cierta holgura, una vez conocida la alteración de su condición, a través de la monitorización y antes de que se produzca el fa- llo, es decir T<TM-TR, dónde TR es el tiempo para reparar o reemplazar el elemento. Si se quiere garanti- zar una determinada holgura mínima para poder reali- zar la reparación a tiempo, se deberá cumplir T<TM-(TR+Hmin). Existen otros casos en los que, o bien no puede moni- torizarse el equipo, o la monitorización no ofrece ga- rantías para la posible subsanación a tiempo del proble- ma, o donde simplemente la monitorización no resulta económicamente conveniente. Muchos de estos casos corresponden a modos de fallo altamente predecibles, como por ejemplo los fallos de las correas de distribu- ción en los automóviles. El cliente recibe la indicación de cambiar la correa, por ejemplo casa 70.000 u 80.000 Km.. Inspeccionando la correa raramente se puede predecir cuando va a fallar, pero conociendo los kiló- metros que ha realizado el vehículo con la correa en cuestión, puede conocerse con bastante exactitud su vida útil restante. Por el contrario cuando se trata de componentes caros y de alta responsabilidad, en que la aleatoriedad del fallo y la falta de predicción mediante técnicas de mo- nitorización, hacen imposible anticiparse al fallo, solo cabe soportar las consecuencias del fallo, que induda- blemente más tarde o mas temprano se van a producir o actuar mediante el rediseño para eliminar las causas del fallo, mejorar la fiabilidad del elemento, hacerlo predecible o, finalmente, eliminar los efectos negativos del fallo. Esto siempre lleva aparejado un coste, por lo que es necesario estudiar la viabilidad económica de las soluciones adoptadas en relación con las consecuencias del fallo. La parte final del esquema de la lógica RCM se refiere al caso de que los fallos no puedan predecirse o ni si quiera detectarse, por ser ocultos, mediante acciones predictivas, ni tampoco mediante sustituciones periódi- cas, se podrá entonces optar por el rediseño del ele- mento, o bien por aceptar las consecuencias del fallo. Imagen 4. Descripción de la lógica del método RCM. 51Nº12. Abri l de 2016 REFERENCIAS Y BIBLIOGRAFÍA: - CRESPO, Adolfo. Mantenimiento centrado en fiabilidad (RCM). Técnica de optimización de planes de mantenimiento: Técnicas de ingeniería de mantenimiento y fiabilidad aplicadas. - https://mantenimientoindustrial.wikispaces.com/ - www.monografias.com/Ingenieria - www.mantenimientoplanificado.com/
  • 52.
    El transistor bipolarfue inventa- do en los Laboratorios Bell de Estados Unidos en diciembre de 1947 por John Bardeen, Walter HouserBrattain y William Brad- ford Shockley, quienes fueron galardonados con el Premio No- bel de Física en 1956. Fue el sus- tituto de la válvula termoiónica de tres electrodos, o tríodo. El transistor de efecto campo fue patentado antes que el transistor BJT (en 1930), pero no se dispo- nía de la tecnología necesaria pa- ra fabricarlos masivamente. En el año 1956 el premio Nobel de física fue compartido por tres grandes científicos: William Brad- ford Shockley, John Bardeen y Walter HouserBrattain por el que es considerado como el mayor desarrollo tecnológico del siglo XX: el transistor. La historia de cómo se inició la carrera por la miniaturización de los dispositi- vos tecnológicos que aún no ha terminado en nuestros días me parece fascinante. Llena de bri- llantez, peleas y afán de supera- ción. En el año 1956 el premio Nobel de física fue compartido por tres grandes científicos: WilliamBrad- fordShockley, JohnBardeen y WalterHouserBrattain por el que es considerado como el mayor desarrollo tecnológico del siglo XX: el transistor. La historia de cómo se inició la carrera por la El transistor es un dispositivo electrónico semiconductor utili- zado para entregar una señal de salida en respuesta a una señal de entrada. Cumple funciones de amplificador, oscilador, conmuta- dor o rectificador. EVOLUCIÓN DE LOS TRANSISTORES LAURA GARCÍA GARCÍA. INGENIERÍA INDUSTRIAL. Imagen 1. Evolución del transistor en tamaño Fuente: http://evotrancistores.blogspot.com.es/ 52 Nº12. Abril de 2016 Imagen 2. Transistores Fuente: https://circuitosintegrados.wordpress.com
  • 53.
    como el lenguajede programa- ción C, la astronomía radial, el sistema operativo Unix, y lo que nos atañe, el transistor. En 1947, durante el conocido como “Mes milagroso” entre el 17 de noviembre y el 23 de di- ciembre realizaron infinidad de pruebas para mejorar el dispositi- vo hasta llegar a conseguir su objetivo: el primer transistor de contacto puntual, hecho con dos púas de metal (oro) que se pre- sionan sobre la superficie de ma- terial semiconductor (germanio) en posiciones muy próximas en- tre si. En estos primeros circuitos inte- grados, los transistores tenían dimensiones típicas de alrededor de 1 cm. En 1971 el microproce- sador de Intel 4004 tenía unos 2000 transistores, mientras que hoy en día, un “viejo” Pentium IV tiene unos 10 millones de transistores, con dimensiones típicas de alrededor de 0.00001 cm. Desde 1970, cada año y me- dio aproximadamente, las dimen- siones de los transistores se fue- ron reduciendo a la mitad (Ley de Moore). Hoy, por ejemplo, un chip Pen- tium Pro de Intel, el corazón de algunos de los más avanzados computadores personales, tiene 5,5 millones de transistores. Intel espera llegar a mil millones de transistores en su procesador central para el año 2011.Los chips de memoria, que son más fáciles de fabricar que las galletas de la suerte, esperan tener mu- chos miles de millones de transis- tores en aproximadamente una década, para que así computado- res del tamaño de un refrigerador se reduzcan hasta caber en un escritorio. miniaturización de los dispositi- vos tecnológicos que aún no ha terminado en nuestros días me parece fascinante. Llena de bri- llantez, peleas y afán de supera- ción. En 1906 el inventor Lee De Fo- rest desarrolló un tríodo en un tubo de vacío. Colocando este invento a lo largo de la línea tele- fónica se podía amplificar la señal lo suficiente como para poder hacer llamadas a larga distancia. El tríodo está compuesto de tres partes: un cátodo que emite elec- trones, un ánodo que los capta y una rejilla situada entre los dos a la que se puede aplicar tensión. Los tubos de vacío producían mucho calor, necesitaban mucha energía y debían ser reemplaza- dos continuamente. Era necesa- rio otro método para amplificar la señal. Buscando respuestas la compañía creó en 1926 un centro de investigación conocido como Laboratorios Telefónicos Bell (Bell Labs), responsable de des- cubrimientos tan importantes Imagen 4. Diferentes transistores (evolución) Fuente: https://circuitosintegrados.wordpress.com Imagen 3. Tubo de vacío Fuente: http://elpais.com/ 53Nº12. Abri l de 2016 Imagen 5. Tamaño transistor Fuente: http://evotrancistores.blogspot.com.es/
  • 54.
    un flujo deelectrones con tal pre- cisión, que puede controlar el paso de un electrón individual. En julio del 2015 un equipo de investigadores han desarrollado un transistor capaz de controlar el flujo de electrones individuales a partir de una molécula y 12 átomos. Los investigadores lograron en- samblar átomos uno por uno, tomando un cristal de arseniuro de indio y colocando doce áto- mos de indio en forma hexagonal en la parte superior de este, con una molécula de ftalocianina en el centro. Para esta tarea, usaron un microscopio de efecto túnel altamente estable (STM por sus siglas en ingles). Según explican los investigado- res, la molécula central está sólo débilmente unida a la superficie de cristal debajo de ella, y esto significa que, cuando la punta del microscopio está muy cerca de la molécula y se aplica un voltaje, los electrones individuales pue- den pasar entre la superficie del cristal y la punta del microscopio. Los átomos cargados positiva- mente alrededor de la molécula, actúan como la puerta del transis- tor, regulando el flujo de electro- nes y permitiendo un funciona- miento fiable del transistor mole- cular. Estos nuevos transistores mole- culares se pueden desarrollar con dos moléculas. La ftalocianina (H2Pc,), un compuesto de color verde azulado muy usado como pigmento y colorante, y la ftalo- cianina de cobre (CuPc), de color azul brillante y usos similares. Las curvas intensidad corriente de los transistores de una sola molécula de CuPc son llamativas (comparadas con las de otras propuestas anteriores que suelen mostrar histéresis). Para obtener La invención del transistor fue lo que hizo posible toda la tecnolo- gía que hoy día nos rodea y nos envuelve, ya que gran parte de ella, es la miniaturización de tec- nología ya existente, como GPS, Barómetros, Termómetros, etc… A un tamaño que podamos car- gar, digamos en el bolsillo. Ade- más, el poder de cada uno de los gadgets que tenemos se ha podi- do incrementar al ser capaces de poder poner mayor cantidad de transistores en menos espacio. Un mundo de nuevas posibilida- des acaba de abrirse gracias a un equipo internacional de investiga- dores conformado por Alemanes, Japoneses y Estadounidenses, quienes han logrado crear un transistor a partir de una sola molécula y una docena de áto- mos, el cual es capaz de manejar Imagen 6. Evolución del transistor desde su invención en Bell Labs en 1947. Fuente: Porticus Centre “Nuevo transistor con una sola molécula de ftalocianina” 54 Nº12. Abri l de 2016 Imagen 7. Fuente: http://www.solociencia.com/
  • 55.
    estas curvas seusó el microsco- pio de efecto túnel (STM). Las curvas intensidad corriente para los transistores de una sola molécula de H2Pc son más pare- cidas a las de propuestas anterio- res, mostrando una histéresis. La conmutación biestable puede tener sus aplicaciones, pero tiene que ser mucho más limpia. Aún así, los autores del nuevo estudio en Nature Physics consideran estos resultados como muy promete- dores. Ahora los investigadores trabajan en entender mejor como funcio- na este fenómeno y el vínculo que existe entre la orientación molecular y la conductividad. Si se logra entender y explotar, este conocimiento podría ayudar a construir nanoestructuras con un control bastante preciso sobre los electrones individuales que pue- den llevar a nuevos tipos de se- miconductores de alto rendi- miento y nuevos nanomateriales. 55Nº12. Abri l de 2016 Imagen 8. Una molécula de ftalocianina en un hexágono de 12 átomos de indio bajo el microscopio de efecto túnel . Fuente: U.S. Naval ResearchLaboratory (NRL). REFERENCIAS Y BIBLIOGRAFÍA: - https://circuitosintegrados.wordpress.com - http://www.solociencia.com/ Imagen 9. Fuente: http://www.solociencia.com/
  • 56.
    cos y prensashidráulicas, entre otros. El principal pro- blema radica en la falta de infraestructuras y su desa- rrollo comparada con las energías actuales. Incluso en determinadas ocasiones la energía necesaria para pro- ducir una energía renovable es mayor que la que ésta es capaz de producir, careciendo de sentido el crearla. En este artículo se pretende dar una idea del gran im- pacto que el petróleo tiene en el mundo actual, además de su enorme importancia estando presente en la ma- yoría de aspectos de nuestro día a día. ¿Qué es lo que hace que sea una fuente tan preciada? ¿Cómo afectaría al mundo su extinción? Explicaremos su formación y explotación así como sus distintos usos y excelentes propiedades que lo hacen idóneo para su utilización en infinidad de procesos y aplicaciones. Introducción El petróleo es la principal fuente de energía no renova- ble actualmente consumida en el planeta, seguida del carbón y el gas natural. Estas fuentes de energía se en- cuentran por tiempo limitado en la naturaleza. Esto hace necesario contar con otros tipos de energía alter- nativa para garantizar un futuro esperanzador ante el continuo crecimiento tanto de la población como de la economía mundial. Como consecuencia de ello y teniendo presente a su vez la contaminación ambiental, durante los últimos años se ha intentado aprovechar fuentes naturales co- mo el viento, los rayos de sol o el agua para producir energías renovables a través de aerogeneradores (con su origen en los molinos de viento), paneles fotovoltai- LA FIEBRE DEL ORO NEGRO: EL PETRÓLEO FRANCISCO DE ASÍS NAVARRO MADUEÑO. INGENIERO SUPERIOR INDUSTRIAL 56 Nº12. Abri l de 2016
  • 57.
    medio del barriles de 31,56$ (debido al exceso de ofer- ta actual), muy lejos de los 100$ que se pagaba en 2014. Además, aunque la oferta ha crecido en los últimos meses provocando el descenso de su valor, se espera un crecimiento de la demanda tal que el desequilibrio actual entre oferta-demanda se vaya reduciendo gra- dualmente hasta recuperar su valor. Esta cantidad in- gente de números explica, en gran parte, los grandes conflictos políticos y armados que han surgido a lo largo de los años y que probablemente continuarán hasta que se produzca la extinción de este oro negro. ¿Como se produce el petróleo? La teoría más aceptada en cuanto a la producción del petróleo es que éste se originó a través de la descom- posición de restos de animales y algas microscópicas que se acumularon en el fondo del mar y que durante miles de años fueron enterrados con pesadas capas de sedimentos aglomerados formando rocas. En unas de- terminadas condiciones de presión, volumen y tempe- ratura se transformó (reacción química) muy lentamen- te en los hidrocarburos fósiles que conocemos hoy en día como petróleo y gas natural. Breve historia (2) Aunque el petróleo se conoce des- de la prehistoria, no fue hasta el año 1859 cuando Edwin Drake consiguió, en una pequeña locali- dad de Pensilvania (EE.UU), per- forar el primer pozo de petróleo del mundo. Así, el 27 de agosto de 1859, a 21 metros de profundidad, nació la industria petrolera, que cambiaría y revolucionaría el mundo para siempre. De esta for- ma, en 1860 en los pozos del no- roeste de Pensilvania se produje- ron varios de cientos de miles de barriles y en 1862 la producción alcanzó los 3 millones de barriles. En los primeros comienzos, el petróleo crudo fue utili- zado medicinalmente para tratar el reumatismo y los esguinces. Más tarde, Samuel Kier refinaría el petróleo para obtener queroseno (líquido inflamable) y utilizarlo comercialmente para ser quemado en linternas que hasta ese momento consumían aceite de ballena, cada vez más costoso debido a su escasez. La producción y los continuos hallazgos de nuevos pozos petroleros convirtieron EE.UU en uno de los mayores productores de petróleo del mundo. La poste- rior aparición de los motores de combustión y automó- viles (1895) convirtió al petróleo, continuando en la actualidad, como la principal fuente de energía del mundo. Al igual que EE.UU, otros países del mundo se pusie- ron manos a la obra y con métodos cada vez más pre- cisos fueron saliendo a la luz aquellos que también po- seían yacimientos de petróleo a gran escala. Así, las economías de Arabia Saudí, Estados Unidos y Rusia lideran el ranking mundial de producción petrolífera(4) con una aportación de más de un 30% de la produc- ción total mundial diaria. Actualmente, la Organización de Países Exportadores de Petróleo (OPEP) ha estimado que el mundo consu- mirá, en 2016, un total de 94,04 millones de barriles de crudo al día (mbd), que a 159 litros por barril hace un total de 24.356,36 millones de litros consumidos cada día. En el momento de escribir este artículo, el precio 57Nº12. Abri l de 2016 Imagen 1. Torre de perforación utilizada para la extracción de petróleo. Fuente: CORBIS En 2016 el mundo necesitará 24.356 millones de litros de petróleo al día
  • 58.
    En cuanto asu aprovechamiento, aproximadamente el 47% del barril se destina a la gasolina de automoción, un 23% se transforma en gasóleo y el 30% restante se utiliza para sostener el mundo que conocemos a día de hoy. Tras obtener muchos componentes de la destilación, ninguno es un producto acabado y muchos de ellos necesitan un procesado (etapa 2) para eliminar elemen- tos contaminantes como el azufre. Nótese la gran ver- Características y aplicaciones del petróleo Pero, ¿qué es lo que hace que el petróleo sea tan valio- so? ¿Porqué es indispensable para el desarrollo de la vida humana? ¿Qué aplicaciones tiene además de la que se conoce como combustible?. La respuesta es muy sencilla: porque se encuentra presente en absoluta- mente todo lo que nos rodea. El petróleo es una mezcla de moléculas de hidrógeno y carbono formando todo tipo de enlaces que se cono- cen como hidrocarburos. Algunos de ellos como el metano (CH4) son relativamente ligeros y fáciles de conseguir mientras que otros como el aceite empleado en vehículos contiene cadenas de más de 50 carbonos. Antes de ser utilizado, el petróleo ha ser sometido a una serie de procedimientos conocidos como refina- do. El refinado sirve para transformar el crudo en un cen- tenar de productos diferentes y se puede dividir en 4 etapas claramente diferenciadas: destilación, limpieza con agua, crackeado y mezclado, en ese orden. Quizá la más importante sea la primera pues en ella se separan las distintas moléculas (aunque éstas no son aun pro- ductos finales). Como se puede observar en la siguiente ilustración, el proceso de refinado es muy sencillo: se calienta el crudo a unos 370°C y se separan las distintas moléculas presentes en el petróleo, pues éstas evaporan a distintas tem- peraturas. De esta forma estas molé- culas en fase gas y separadas se elevan a lo largo de la torre y se enfrían, con- densándose a distintos niveles. Así, los hidrocarburos más ligeros (utilizados, por ejemplo, para la fabricación de aspirinas) suben hasta lo más alto de la torre, mientras que los más pesados (utilizados para el aceite de motor y asfalto) se quedan en el nivel más bajo. Como resultado el crudo uniforme se ha separado en muchos componentes entre los que se destaca la gasolina, gasóleo, aceites lubricantes y combusti- ble para motores diésel, barcos y avio- nes. Imagen 3. Proceso de refinado de petróleo y los elementos más importantes obtenidos de ello. 58 Nº12. Abri l de 2016 Imagen 2. Aprovechamiento de un barril de petróleo.
  • 59.
    satilidad del petróleo,que hasta sus elementos conta- minantes tienen una utilidad comercial (en el caso del azufre se puede utilizar como fertilizante agrícola o en los extintores o neumáticos). Durante el crackeado (etapa 3) se fragmentan molécu- las en algunas más sencillas y se obtiene un combusti- ble utilizado en barcos y el propileno(H2C=CH–CH3): materia prima utilizada en maquillajes, dentífricos, anti- congelantes, pinturas y sobre todo en plásticos. El plástico es uno de los subproductos del petróleo más abundante que existe. Es tan valioso, además de sus propiedades, porque puede moldearse prácticamente de cualquier forma. Encontramos plásticos allá donde vamos: paracaídas, ventanas antibalas, parabrisas, bañe- ras, pelotas de golf, gafas de sol y vista, cascos, hogar, textil, aviación, electrónica, medicina y un largo etc. Otro gas muy valioso obtenido del refinado es el pro- pano. Aunque durante los primeros años se desechaba como residuo, actualmente tiene una gran importancia en el mercado usándose en millones de hogares en for- ma de calefacción y energía (vitrocerámica o barbacoas). Por último, y no menos im- portante, gracias al petróleo tenemos aceites lubricantes, utilizados para evitar el au- mento de temperatura por fricción de las piezas de cualquier máquina de fabri- cación de múltiples produc- tos indispensables en nues- tra vida diaria. Como podemos comprobar la importancia del petróleo se encuentra más que justifi- cada tras conocer las innu- merables ventajas que posee con respecto a otras fuentes de energía además de su manejo, versatilidad y facilidad para ser transportado. La industria petroquímica proporciona el material base para hacer todo lo que nos podamos imaginar. Existencias petróleo Tras demostrar su importancia, saber la enorme canti- dad de barriles diarios consumidos y, sobretodo, sa- biendo que se trata de un combustible fósil no renova- ble, puede que se esté preguntando: ¿cuánto petróleo queda? ¿habrá suficiente petróleo para tener una cali- dad de vida sin precios desproporcionados debidos a su escasez? Han sido muchas las hipótesis formuladas a lo largo de los años, siendo una de las más conocidas la teoría del pico de Hubbert o del cenit del petróleo. M. King Hubbert fue un geofísico capaz de predecir, con quince años de antelación y pese a que pocos le creyeron, el pico de producción de petróleo de los Es- tados Unidos, que se produjo en diciembre de 1970. Para ello creó un modelo matemático que predecía el Imagen 4. Hipótesis sobre el Pico del Petróleo. Fuente: ASPO 2005 (Association for the Study of Peak Oil) 59Nº12. Abri l de 2016 Una vez que se descubre un yacimiento, se estima que transcurren 40 años desde que un país alcanza el pico de descubrimiento hasta que alcanza el pico de producción
  • 60.
    sector de energíasrenovables para disminuir esta de- pendencia en la mayor medida posible de cara a un futuro en el que ciertas fuentes de energías o combusti- bles fósiles, como el petróleo, escaseen. Alternativas energéticas Como venimos anticipando a lo largo del artículo, las reservas mundiales de combustibles fósiles se agotarán en un futuro no muy lejano y es necesario encontrar fuentes de energía alternativas y, a poder ser, menos contaminantes. El problema es que es muy difícil en- contrar una energía tan eficiente y aprovechable como el petróleo. De la tecnología que seamos capaces de desarrollar en los próximos años dependerá el éxito o fracaso de las nuevas alternativas energéticas. Al encarar esta situación, muchos científicos tratan de desarrollar un método de obtención de hidrógeno gaseoso como una fuente alternativa de energía. Éste podría ser utilizado en motores de automóviles y en celdas de combustible para producir electricidad, con la gran ventaja de que los productos obtenidos no son contaminantes, sino agua: 2H2(g) + O2 ->H2O(l). El problema es que no es fácil obtener hidrógeno gaseoso ya que no se encuentra de forma natural en la naturale- za, y su proceso de obtención acaba siendo ineficiente. Cuando se logre salvar este obstáculo se podría obte- ner hidrógeno del agua del mar, por ejemplo. Otros tipos de energía alternativa las podemos obser- var durante algún viaje largo que hagamos por carretera o simplemente observando desde la ventada del tren. Hablamos de las energías eólicas y solar. Los aeroge- neradores aprovechan la energía del viento para con- vertirla en energía eléctrica que suministran a través de las redes de distribución. Es un recurso abundante, renovable y limpio. La energía eólica ha sido la tercera fuente de generación eléctrica en España en 2015. En cuanto a la solar fotovoltaica, como su propio nombre indica, transforma la radiación solar en electricidad. Y es que, ¿qué mejor que obtener energía de una fuente que tenemos diariamente al alcance de nuestra mano? A pesar de ello, la fotovoltaica abarca tan sólo el 1% de la energía que se produce en el mundo. Las empresas también son conscientes del potencial y ahorro que se podría obtener a partir de energías reno- nivel de extracción del petróleo a lo largo del tiempo y nos auguraba que la producción mundial de petróleo llegaría a su cenit y descendería tan rápido como cre- ció. No se puede saber con certeza cuándo ocurrirá esto, debido a los posibles descubrimientos de nuevas reservas o la forma de extraer el mismo con más efi- ciencia, pero sí que ello sucederá en un futuro no muy lejano pues 54 de los 65 mayores países productores de petróleo han llegado a su cenit de producción (5), tal y como podemos comprobar en la Figura 4. El problema del petróleo ya no es que el ritmo de des- cubrimiento de nuevos yacimientos llegara a su cenit hace 50 años y su producción, según Hubbert, entre pronto en decadencia, es que vivimos en una sociedad más desarrollada que nunca, tecnológica y económica- mente, que demanda cada vez más petróleo que el año anterior y que dificulta que se puedan seguir mante- niendo este ritmo de producción por tiempo indefini- do. Dependencia energética: España Desgraciadamente, la situación de España en materia energética no es muy alentadora pues es el octavo país con más dependencia energética según la UE. Aunque bien es cierto que ésta ha tendido a disminuir durante los últimos años gracias al incremento en el uso de las energías renovables, importa el 72,9% de la energía que consume(9). El principal problema de España es su dependencia a los combustibles fósiles como el petró- leo y el gas. Como sabemos carece de yacimientos de petróleo y tampoco tiene bolsas de gas, por lo que la solución se centra en apostar por las energías renova- bles que independicen su economía de las fuentes de energía foráneas. Teniendo en mente el modelo mate- mático de Hubber, es determinante trabajar en este 60 Nº12. Abri l de 2016 ¿Sabías que... 1.000 millones de barriles de petróleo satisfarían la demanda mundial sólo durante 12 días?
  • 61.
    que las grandesmultinacionales no cambien su modelo de negocio. Mientras tanto, la sociedad podría aportar su grano de arena a través de infinidad de situaciones: utilizando transporte público en lugar de coger el co- che para ir de un lugar a otro (o simplemente caminan- do más), apoyando los comercios locales, utilizando bolsas de tela en lugar de plástico, reciclando, usando con moderación el aire acondicionado o la calefacción, el agua caliente, evitando dejar varias luces encendidas o el cargador enchufado una vez se ha retirado el mó- vil, etc. En definitiva, este artículo pretende concienciar al lector del valor que tiene la energía, más allá de lo que haya que pagar por consumirla. Somos muy afor- tunados por el simple hecho de tenerla en nuestros hogares y no deberíamos desperdiciarla. Gracias a nuestra pequeña colaboración, estaremos cuidando el medio ambiente y con ello el futuro de nuestros hijos y nietos. Nadie sabe con exactitud cuando se acabará el petró- leo, pero si hay una cosa en la que todos están de acuerdo: es cuestión de tiempo que el petróleo se agote como recurso primario natural. Es una realidad y cuan- to antes la afrontemos, mejor. vables (además del respeto por el medio ambiente) y, pensando en el cliente, ofrecen algunas opciones ener- géticas asequibles económicamente como, es el caso de las baterías de Tesla Powerwall. Powerwall son unas baterías con tecnología ion-litio hechas para autoabas- tecer la energía consumida en los hogares e intentar que familias y empresas disminuyan el coste de su fac- tura eléctrica, además de cuidar el medio ambiente. Tesla las presentó en mayo de 2015 y aún tiene que superar obstáculos en ciertos países por temas políti- cos, pues para las eléctricas supondría una disminución considerable de energía suministrada. Afortunadamen- te para los consumidores ya le han salido competidores como las baterías de Orison o la batería RaStore lanza- da hace un mes por una empresa valencia llama Solar Rocket. Otros tipos de energía alternativa conseguida hasta el momento son la hidroeléctrica (obtenida de la caída del agua desde cierta altura a un nivel inferior y aprove- chada para accionar turbinas), la nuclear, la bioener- gética, la geotérmica o la oceánica (se extrae energía mediante la radiación solar incidente sobre los océanos o mediante las mareas). Todas ellas tienen una característica común: aprovechar el uso de las energías renovables y minimizar la dependencia de las fuentes de energía actuales, haciendo del mundo un lu- gar mucho más eficiente y menos conta- minante. Conclusiones y recomendaciones La economía global crece a un ritmo aproxi- mado de un 3% anual, requiriendo cada vez más combustibles no renovables, en cantida- des mayores a la que pueden reponerse. Desgraciadamente hasta que deje de ser ren- table la extracción del petróleo es probable REFERENCIAS Y BIBLIOGRAFÍA: 1) Post Carbon institute 2) American Chemical Society: ACS 3) Organización de Países Exportadores de Petróleo (OPEP) 4) US Energy Information Administration 5) Peeking at Peak Oil: Authors: Aleklett, Kjell. 2005 6) http://www.ecologiaverde.com 7) US Energy Information Administration 8) http://www.aeeolica.org 9) Oficina estadística de la UE, Eurostat 61Nº12. Abri l de 2016 La tierra tardó 5 millones de años en producir los combustibles fósiles que consume el mundo en un año.
  • 62.
    tre otros factoresde la cuantía mecánica de las armaduras. Para conocer la capacidad dúctil del hormigón armado como material compuesto, es necesario exami- nar previamente las característi- cas de ductilidad de sus compo- nentes: hormigón y acero. Tipos de ductilidad:  Ductilidad del material (με) caracteriza las deformaciones plásticas del material.  Ductilidad de sección (curvatura) (μχ, μφ) se refiere a las deformaciones plásticas de las secciones transversales.  Ductilidad de barra (rotación) (μθ) cuantifica las rotaciones plásticas que pueden tener lugar en elementos estructurales tales como vigas o columnas. Este tipo de ductilidad a menudo se utiliza también para las cone- xiones entre los miembros estructurales.  Ductilidad Estruct ural (desplazamiento) (μδ) es una medida global del comporta- miento inelástico de sistemas estructurales sometidos a cargas horizontales. (Imagen 3). Como cuantificarla: Sheikh & Khoury propusieron es sus investigaciones sobre el dise- ño de columnas en zonas sísmi- cas, una clasificación de la ductili- dad de sección (curvatura) μϕ, definida ésta como el cociente entre la curvatura pos pico ϕ2 Introducción El concepto de ductilidad se em- pezó a introducir en la década de los setenta al revisar el comporta- miento de estructuras dañadas por terremotos durante esa épo- ca. Se puede definir como la ca- pacidad que tienen las estructu- ras, sus componentes o los mate- riales que las constituyen de de- formarse más allá del límite elás- tico sin pérdida de resistencia y de acumular energía durante los ciclos de carga (histéresis). Con- traria a esta definición es la de fragilidad, que implica una pérdi- da súbita y completa de la resis- tencia de una sección, elemento o estructura en el momento en el que se produce un incremento del desplazamiento. Uno de los criterios usados nor- malmente para cuantificar la duc- tilidad de una estructura, es eva- luar la capacidad de rotación plástica en ciertas regiones de la misma. Este es el factor más im- portante en el análisis con redis- tribución de momentos. La capa- cidad de rotación plástica depen- de de varios factores relaciona- dos: nivel de tensión, ductilidad de la armadura, número de barras transversales y resistencia del hormigón. El propósito de este criterio es permitir a la estructura fallar de una manera dúctil. Es necesario determinar como la ductilidad afecta a la rigidez de las estructuras de hormigón y como la cuantía de la armadura transversal afecta a la rotación plástica. La capacidad de rotación plástica de una sección es inver- samente proporcional a la pro- fundidad de la fibra neutra en rotura (x/d), y esta depende, en- DUCTILIDAD DEL MATERIAL Y DUCTILIDAD ESTRUCTURAL. LÍMITES Y CONCEPTOS.. LUIS MANUEL DELGADO DELGADO. INGENIERO DE CAMINOS, C. Y P. 62 Nº12. Abril de 2016 Imagen 1. Parámetro de ductilidad (curvatura) . Ref: CEB –FIB Model Code 2010
  • 63.
    hormigón. Por ello,su ductilidad o el comportamiento frente a solicitaciones de compresión, depende del tipo y grado de con- finamiento que tenga, es decir, el grado de impedimento que en- cuentre el desarrollo de las micro fisuras. Cuando el confinamiento es el adecuado, el hormigón me- jora no sólo su capacidad resis- tente, sino también su capacidad de deformarse de forma dúctil. En la práctica, este grado de con- finamiento es suministrado por la colocación de otros materiales estructurales (acero de armar, tanto longitudinal como transver- sal) o no estructurales como los que constituyen los cerramientos. De esta forma, el hormigón que- da confinado en el interior de la jaula tridimensional formada por las armaduras longitudinales y los estribos colocados transversal- mente). En la (Imagen 2) puede observarse la diferencia entre los diagramas tensión-deformación del hormigón con y sin confina- miento. La curva tensión-deformación del hormigón en compresión presen- ta un valor máximo para una de- formación unitaria alrededor del 0,2 %. A partir de éste valor, la tensión máxima, en un ensayo de deformación controlada se redu- ce. La deformación última del hormigón alcanza valores entre el 0,3% y el 0,5% para hormigones comunes sin confinamiento, de- pendiendo del tipo de hormigón. En la (Imagen 4) pueden verse diagramas tensión-deformación típicos para hormigones con dife- rentes resistencias. Los valores de las deformaciones indican que los hormigones de altas resistencias son más frágiles que los de bajas resistencias, lo que deja claro que las altas resistencias no implican necesariamente alta ductilidad. Sin embargo, la ductilidad estruc- tural no tiene por qué ser menor que en hormigones convenciona- les. correspondiente al 80% del mo- mento máximo que soporta la sección y la curvatura ϕ1 corres- pondiente a la intersección entre la línea recta (comportamiento perfectamente elástico) que pasa por el origen y por el 75% del momento máximo y el momento máximo. (Imagen 1). Ductilidad del hormigón El hormigón, sometido a un esta- do uniaxial de tensiones tiene un comportamiento marcadamente frágil incluso frente a solicitacio- nes de compresión. En este ma- terial, la relación tensión- deformación se ve afectada por el desarrollo de micro y macro fisu- ras en su estructura. En particu- lar, se forman micro fisuras en la superficie de contacto árido- mortero, incluso antes de la pues- ta en carga. Estas micro fisuras, originadas por la retracción, se- gregación o por tensiones debi- das a variaciones térmicas en la pasta de cemento, aumentan al aumentar la tensión y constituyen el punto más débil del compuesto hormigón. El desarrollo de estas fisuras, ini- cialmente invisibles, contribuye al comportamiento no lineal en la relación tensión-deformación del Imagen 3. Medidas de ductilidad para estructuras (a), elementos (b) y materiales constituyentes (c) . Ref: Ductility of FRP–concrete systems: Investigations at different length 63Nº12. Abri l de 2016 Imagen 2. Diferencia entre los diagramas σ-ε del hormigón con y sin confinamiento . Ref: Strength and ductility of confined concrete
  • 64.
    los aceros puedentener distintos grados de ductilidad, en función de su capacidad de deformación plástica. La forma clásica para evaluar la ductilidad de un acero se basa en la consideración de una serie de variables que, de forma aislada o combinadas entre sí, miden la ductilidad. Se cuantifica en base a los datos obtenidos mediante la realización del ensayo de tracción y referidos a la capacidad resis- tente por encima del límite elásti- co, la capacidad máxima de de- formación y el alargamiento re- manente después de rotura. Ductilidad de la sección La ductilidad necesaria en una estructura de hormigón armado se puede conseguir mediante la adopción de un diseño estructu- ral adecuado y, sobre todo, de la realización de secciones dúctiles en todos los elementos que for- man la estructura. La ductilidad de la sección viene determinada por su capacidad para soportar una gran deformación plástica sin una significativa pérdida de la capacidad portante desde el inicio del comportamiento plástico has- ta el agotamiento. Anteriormente, se ha visto cómo una sección de hormigón armado está constitui- da por dos materiales de natura- leza muy diferente: el hormigón, relativamente heterogéneo y frá- gil y es el acero, bastante más homogéneo en sus características, el que ha de proporcionar la duc- tilidad precisa a nivel de sección para que cada elemento estructu- ral alcance la capacidad de defor- mación requerida. Una premisa básica para que una sección sea dúctil es que el hor- migón no alcance su agotamiento a compresión cuando el acero está todavía lejos de su alarga- miento máximo. Es decir, una sección de hormigón será frágil cuando es el hormigón el causan- te de su colapso por llegar a su agotamiento en compresión y será tanto más frágil cuanto, para esta situación de agotamiento del hormigón, el acero se encuentre más lejos de su alargamiento má- ximo. (Imagen 5). El ángulo formado por la sección deformada respecto de la inicial se denomina curvatura. Curvatu- ra elástica, es la parte de la curva- tura total ocurrida hasta que el acero alcanza el alargamiento co- rrespondiente a su límite elástico. Curvatura plástica es, por tanto, Ductilidad del acero El comportamiento dúctil de las estructuras está condicionado por las características mecánicas del acero usado como armadura. La ductilidad está relacionada con la capacidad del acero de absorción de energía hasta la rotura (área total bajo la curva tensión- deformación). Esta energía de- pende, de manera muy importan- te, aunque no única, dada la for- ma creciente de endurecimiento por deformación de la curva de tracción a partir del límite elásti- co, del grado de deformación plástica que puede experimentar un acero hasta la rotura. Por tan- to, la ductilidad del acero puede definirse como “la capacidad del mismo para admitir alargamien- tos importantes bajo tensiones iguales o superiores a su límite elástico” o bien, como “la capa- cidad del acero para deformarse sin romperse bajo tensiones que superan su comportamiento elás- tico”. Desde este punto de vista, 64 Nº12. Abri l de 2016 Imagen 4. Diagramas σ-ε de hormigones de diferentes resistencias. . Ref: Tesis Doctoral Esther Moreno “Una sección de hormigón será frágil cuando es el hormigón el causante de su colapso por llegar a su agotamiento en compresión”- Imagen 5. Análisis del comportamiento hasta rotura. Ref: Asignatura MIH UPV
  • 65.
    se sitúa enla frontera entre el colapso del acero y del hormigón. De igual forma, para cada tipo de acero existe un valor crítico de la profundidad de la fibra neutra. A continuación se señalan distintas formas de aumentar o disminuir la ductilidad de una sección. En cualquier caso, debe verificarse la compatibilidad entre deformacio- nes y las condiciones de equili- brio de la pieza. Factores que aumentan la ductili- dad de una sección:  Mayor ductilidad del acero.  Mayor porcentaje de acero comprimido.  Mayor relación fs/fy.  Mayor Ԑmáx.  Evitar en el cálculo de seccio- nes cuantías elevadas o muy reducidas de armadura de trac- ción.  Mayor resistencia a compresión del hormigón.  Mayor deformación última del hormigón, que puede conse- guirse mediante zunchado con armadura transversal.  Limitar superiormente los es- fuerzos axiales de compresión relativos. Factores que disminuyen la ducti- lidad de una sección:  Mayor porcentaje de cuantía del acero en tracción.  Mayor límite elástico del acero.  Mayor solicitación de compre- sión axial.  Mayor adherencia hormigón- acero. la diferencia entre la total y la elástica. La rotación se define como el ángulo formado entre las caras de una sección cualquiera de una pieza, producido por la deformación de ésta. La rotación se refiere a dos secciones deter- minadas de la pieza en un mismo estado de deformación, mientras que la curvatura se refiere a una sección concreta también en un determinado estado de deforma- ción. En ocasiones y con el fin de simplificar los modelos para reali- zar los cálculos, la rotación plásti- ca se supone acumulada en una sección de la pieza que se deno- mina rótula concentrada. Estas rótulas concentradas se sitúan en las secciones críticas que son aquellas que dentro de las de una pieza son susceptibles de dar lu- gar a una rótula plástica por su situación y características. La ro- tación de una rótula es el ángulo total entre las caras extremas de la zona plastificada y la capacidad de rotación de una rótula plástica es la rotación máxima que admite en el momento en el que su sec- ción crítica alcanza el colapso. En definitiva, para que una sección sea dúctil, debe admitir curvatu- ras plásticas importantes y a ma- yor ductilidad del acero, mayor capacidad de rotación de la sec- ción del acero, mayor capacidad de rotación de la sección. Es necesario conocer también los diversos factores que afectan a la ductilidad de la sección, entre los que destacan la resistencia y capa- cidad de los materiales hormigón y acero, las cuantías mecánicas de armaduras de compresión y trac- ción, la geometría de la sección y la presencia de esfuerzo axil. Para cada tipo de acero y de hormi- gón, existe una cuantía crítica que 65Nº12. Abri l de 2016 Imagen 6. Explicación. Si la imagen no es original nuestra debemos poner: Ref: Asignatura MIH UPV.
  • 66.
    pequeño. La trabajabilidaddel material, que está mucho más ligado a la relación l/d, conduce a preferir fibras cortas. Por otro lado, para controlar las macro fisuras las fibras deben ser lo su- ficientemente largas para estar adecuadamente ancladas en la matriz, si bien por requerimien- tos de trabajabilidad las fibras largas deben ser usadas en meno- res proporciones que las cortas. En definitiva, la resistencia a trac- ción y la ductilidad del material pueden ser incrementadas em- pleando una alta proporción de fibras cortas y, para mejorar la capacidad resistente y la ductili- dad de la estructura, se debe aña- dir una cierta cantidad más baja de fibras largas. En hormigones reforzados con fibras metálicas (SFRC), se pue- den presentar dos tipos de com- portamiento tras la fisuración. Un comportamiento después de la formación de fisuras de ablanda- miento en tracción uniaxial (Imagen 8 a) o de endurecimien- to para una matriz de hormigón de muy alto rendimiento y alto contenido de fibras (Imagen 8 b). Puesto que los mecanismos de refuerzo de fibra se activan prin- cipalmente después de la fisura- ción de la matriz de hormigón, las fibras tienen una influencia marginal en el comportamiento de los elementos no agrietados. Por lo tanto, la resistencia a la tracción del hormigón está rela- cionada con la resistencia de la matriz y no está influenciada por las fibras. La resistencia (post-cracking) a la tensión residual, es la que repre- senta un parámetro de diseño importante para las estructuras de FRC, es la propiedad mecánica más influenciada por el refuerzo de fibras. Debido a las dificultades en la realización de ensayos de tracción uniaxial, se emplean ensayos de flexión con vigas con pequeñas muescas como método de prue- ba estándar para la clasificación FRC. Dado que el comporta- miento de flexión es marcada- mente diferente del comporta- miento uniaxial de tensión, puede ocurrir que los materiales de ablandamiento en tensión pre- sente un comportamiento de en- durecimiento en la flexión. Ductilidad en los Fiber- reinforced concrete (FRC) El efecto de las fibras en las dife- rentes etapas del proceso de fisu- ración del hormigón se refleja a dos escalas: material y estructural. Así, en la fase de fisuración alea- toria, las fibras cosen las fisuras activas y retardan el desarrollo, incrementando la resistencia y la ductilidad a escala del material, mientras que en la etapa en que las macro fisuras se propagan, las fibras también cosen las fisuras y así aportan mayor capacidad re- sistente y ductilidad a escala es- tructural. Cuando se requiere que las fibras actúen en las micro fisuras, se debe adicionar un gran número de fibras y su diámetro debe ser Imagen 8. Resistencia (post-cracking) a la ten- sión residual.. Ref: Fibre reinforced concrete: new design perspectives 66 Nº12. Abri l de 2016 “La resistencia (post-cracking) a la tensión residual, es la que representa un parámetro de diseño importante para las estructuras de FRC”-
  • 67.
     La nolinealidad del conjunto (hormigón-acero), como se ob- serva en los diagramas tensión- deformación de las secciones.  La fisuración del hormigón, que afecta a la rigidez de la sección y, en consecuencia, a la defor- mabilidad de las estructuras y a las leyes de esfuerzos solicitan- tes.  La presencia de armaduras, que en determinadas zonas (por ejemplo, en nudos), puede dar lugar a leyes de esfuerzos distin- tas de las deducidas de un análi- sis simplificado, elástico- lineal, con rigidez constante.  La ductilidad es difícil de cuan- tificar, falta de consenso.  En (FRC) la resistencia a trac- ción y la ductilidad del material pueden ser incrementadas em- pleando una alta proporción de fibras cortas y, para mejorar la capacidad resistente y la ductili- dad de la estructura, se debe añadir una cierta cantidad más baja de fibras largas. En el código modelo en el artícu- lo 7.7.2 correspondiente a princi- pios de diseño de estructuras de FRC en estado límite de servicio. En cuanto a requerimiento de ductilidad, indica que todas las estructuras de FRC que no dis- pongan de un armado convencio- nal han de satisfacer una de las dos condiciones siguientes: δu ≥ 20 δSLS δpico ≥ 5 δSLS Donde δu es el desplazamiento último, δpico es el desplazamien- to bajo carga máxima y δSLS es el desplazamiento debido a la carga de servicio bajo hipótesis de análisis elástico lineal no fisu- rado y módulo de Young inicial. (Imagen 10) Conclusión  La heterogeneidad del conjunto hormigón-acero, hace que el comportamiento y propiedades de una sección de hormigón armado difieran considerable- mente de los correspondientes a cada uno de los elementos que lo componen. Dicho com- portamiento está caracterizado fundamentalmente por: Imagen 10. Grafica carga-desplazamiento del FRC. . Ref: CEB –FIB Model Code 2010 REFERENCIAS Y BIBLIOGRAFÍA:  Marco di Prisco, Giovanni Plizzari, Lucie Vandewalle, Fibre reinforced concrete: new design perspectives, Materials and Structures (2009) 42:1261–128, RILEM 2009.  Model Code 2010, 7.7 Verification of safety and serviceability of FRC structures, 7.7.2 Design principles.  Moreno Fernández, Esther. Corrosión de armaduras en estructuras de hormigón. Tesis Doctoral. U. Carlos III, 2008.  Murat Saatcioglu, Salim R. Razvi, STRENGTH AND DUCTILITY OF CONFINED CONCRETE, Journal of Structural Engineering, Vol. 118, No.6, June, 1992.  NCSE02, ANEJO 10º, Requisitos especiales recomendados para estructuras sometidas a acciones sísmicas  Oguz Gunes, Denvid Lau, Chakrapan Tuakta, Oral Büyüköztürk, Ductility of FRP–concrete systems: Investigations at different length scales, Construction and Building Materials 49 (2013) 915–925, ELSEVIER. 67Nº12. Abri l de 2016 Imagen 9. Distintos comportamientos del FRC. . Ref: Fibre reinforced concrete: new design perspectives .
  • 68.
    el mundo independientementede su posición económica o ideoló- gica. Aunque obviamente si al- guien posee una fuerza política determinada, sus acciones pue- den tener un mayor impacto en comparación con el ciudadano de a pie. El presente artículo, hace hincapié en la contaminación que se produce en nuestro país ya que es lo que nos afecta de forma más directa. Contaminación en España La contaminación en España está directamente relacionada con nuestro modelo de desarrollo. Cuando se habla de contamina- ción ambiental se está haciendo referencia a cualquier agente, ya sea físico, químico o biológico, que en determinada forma y can- tidad sea perjudicial para la salud y el bienestar de la población o de cualquier forma de vida ani- mal o vegetal. Aunque cuando se habla de contaminación, lo pri- mero en que se piensa es en la contaminación atmosférica, tam- bién hay otros tipos de contami- nación como la del suelo o las aguas. Por desgracia, en España ha habido desastres ecológicos muy serios como, por ejemplo, el caso del vertido de petróleo del barco Prestige en las costas galle- gas en el año 2002 o el derrame de aguas ácidas y lodos tóxicos en la mina de pirita de Aznalcó- llar (Sevilla) en el año 1998, que afectó al Parque Natural de Do- ñana. La contaminación hídrica afecta especialmente a nuestro país, se- ñalándose por parte de determi- nados grupos ecologistas, como Greenpeace, que al año en Espa- ña se vierten en las aguas 2 millo- nes de toneladas de contaminan- tes. Esto es especialmente grave, debido a que recuperar océanos, mares o ríos contaminados es muy complicado, siendo en algu- nos casos el daño irreparable. Introducción En términos generales, cuando se habla de contaminación la gente suele pensar en que los más afec- tados por ella son el suelo, las plantas, los animales y otros ele- mentos del entorno donde se produce. Si bien es cierto que flora, fauna y otros elementos se ven seriamente afectados, no me- nos cierto es que el ser humano también es víctima de la contami- nación ambiental. Lejos de redu- cirse, la contaminación va a más, y el actual estilo de vida, especial- mente en los países desarrollados económicamente, hace que se incrementen las emisiones de sustancias nocivas para el me- dioambiente y todos los que lo forman, incluidos los humanos. Otro prejuicio, que la gente suele tener, es el hecho de pensar que el cuidado del medioambiente pertenece exclusivamente a deter- minados sectores ideológicos o políticos, idea errónea puesto que esto es algo que concierne a todo LA CONTAMINACIÓN AMBIENTAL EN ESPAÑA. JUAN MANUEL ALFARO ÁLVARO. INGENIERO INDUSTRIAL. 68 Nº12. Abril de 2016 Imagen 1. Costa gallega tras el accidente del Prestige. Imagen extraída de la página web: http://www.greenpeace.org
  • 69.
    y variable, midiéndosemediante el Índice de Calidad General (ICG), que se obtiene mediante la combinación de las mediciones de 23 parámetros que afectan a la composición del agua, la toxici- dad, la eutrofización, que es el desarrollo de determinadas algas debido a la acumulación de resi- duos orgánicos, la idoneidad de acoger vida y a otra serie de ca- racterísticas vinculadas con la calidad del agua. Destaca la con- taminación de algunas costas es- pañolas debido principalmente a los desechos generados por el turismo que pueden a llegar a contarse por toneladas. Otro riesgo a tener en cuenta, es la excesiva explotación del agua, ya que puede deteriorarse su cali- dad e incluso su disponibilidad. Una excesiva extracción de aguas subterráneas por encima de los niveles de recarga, produce una merma de los niveles freáticos, que son los niveles superiores de las capas freáticas o acuíferos, reduce la calidad de las aguas, produce también la salinización del agua, como en las costas, y modifica algunos entornos im- portantes para la estabilidad de los ecosistemas, como los hume- dales. Las cuencas más excesiva- mente explotadas en nuestro país están ubicadas en las Islas Cana- rias, en las Islas Baleares y en el tercio sureste del territorio penin- sular, que son las zonas donde existe un balance desfavorable del agua pero que cuentan con valiosos acuíferos. Otro foco de contaminación y de merma de la calidad ambiental en España es el debido a los resi- duos. La cantidad de estos gene- rada por habitante cada año va a más como consecuencia del mo- do de vida, por lo que es una preocupación significativa que se intenta paliar con sistemas de recogida selectiva de residuos, para su gestión, reciclaje o reutili- zación, como ocurre con el com- postaje. Uno de los ejemplos de este tipo de contaminación es el del Río Tinto, especialmente a su paso por Niebla, provincia de Huelva, donde presenta un nivel de ph de 2,5 estimándose que por las aguas del río circulan más de 1.000 to- neladas de cobre y más de 8.000 toneladas de hierro. Aunque en el caso del Río Tinto, muchas aso- ciaciones ecologistas reflejan que esta contaminación se debe prin- cipalmente a la actividad minera de la zona, es cierto que hay estu- dios de biólogos que indican que gran parte de esta contaminación es natural e incluso se produce a profundidades de 600 metros debido a fuentes ácidas situadas en el subsuelo. En cualquier caso, ya sea natural o generada por el hombre, la contaminación de esta zona es evidente. El agua es un recurso esencial en nuestro país y su calidad puede variar de manera muy fácil ante cualquier foco contaminante, por muy pequeño que sea. Las princi- pales causas de la contaminación de las aguas subterráneas son: los vertidos urbanos, los vertidos de la industria y los fertilizantes que se depositan en el terreno y se filtran, ya sean los relacionados con la agricultura intensiva, espe- cialmente por los productos fito- sanitarios o plaguicidas, o los vin- culados a los excrementos de los animales. En estos casos, el agua puede llegar a tener una gran can- tidad de nitratos que pueden per- judicar a la salud humana. Ade- más de los nitratos, el amonio (NH4) es otro compuesto a tener en cuenta debido a su inclusión en el agua debido a las redes de saneamiento. En España la con- taminación de los ríos es diversa Imagen 2. Río Tinto a su paso por Huelva. Imagen obtenida de la web http://www.efeverde.com/ 69Nº12. Abri l de 2016
  • 70.
    fenol o tolueno,debidos al trata- miento de maderas; y los clorofe- noles presentes en plaguicidas y herbicidas. Pese a que pueda parecer que existen muchas leyes medioam- bientales que protegen nuestro entorno, en España antes del año 1998 no existían normativas que protegieran los suelos de la con- taminación. Como se ha dicho los suelos contaminados se sue- len dar en zonas con una alta ac- tividad industrial, esto se traduce en que las comunidades autóno- mas más afectadas por este tipo de suelos son la Comunidad de Madrid, Cataluña, País Vasco, la Comunidad Valenciana y Andalu- cía. Para atacar este problema las leyes de protección reflejan cuan- do un suelo se puede considerar contaminado, cuáles son las cau- sas que lo producen y qué trata- mientos o remedios tanto econó- micos como técnicos se deben poner en marcha para subsanar esta situación. En general, las leyes españolas priorizan el trata- miento de la contaminación “in situ”, pero las empresas que se dedican a esto no son numerosas, por lo que las comunidades autó- nomas elaboran planes propios como el País Vasco o la Comuni- dad de Madrid, que ofrece opor- tunidades de I+D en las infraes- tructuras de tratamiento. En ge- neral, es preferible el tratamiento de residuos, el saneamiento del suelo y su valorización a la elimi- nación en los vertederos. Las téc- nicas de tratamiento “in situ” se prefieren a las “ex situ” porque son más económicas, no se ne- cesita excavar el suelo por lo que generan menos polvo y liberan menos contaminantes, aunque tienen inconvenientes como el alargado plazo de ejecución, la dificultad en su manejo y su me- nor eficacia en suelos no permea- bles. Las principales técnicas “in situ” son: el lavado, donde se introduce una disolución en el suelo para eliminar los contami- nantes; la vitrificación, que con- siste en el uso de electrodos; la solidificación; la aireación, que consiste en la extracción de vapo- res mediante la aplicación de un chorro de aire; la separación elec- trocinética, mediante la aplicación de un campo eléctrico; los muros de tratamiento; y una serie de técnicas biológicas de diversa índole como la bioaireación, la inyección de peróxido de hidró- geno y el uso de plantas para me- tales y contaminantes orgánicos. El suelo también es un recurso básico para cualquier ecosistema y para las actividades que las per- sonas realizan en ellos, además de ser sensible a la contaminación por lo esta supone un fuerte im- pacto para el entorno. Las princi- pales amenazas a las que se en- frenta el suelo son la erosión, la salinización, la contaminación, como por ejemplo la debida a los residuos urbanos, y la reducción de la biodiversidad. Las activida- des industriales son las que prin- cipalmente contaminan el suelo y las principales sustancias conta- minantes son: los hidrocarburos; los metales pesados, como cobre, plomo o zinc, que se producen en industrias de revestimientos metálicas y de reciclaje de bate- rías; los aceites minerales, debi- dos al petróleo y los automóviles; los disolventes halogenados co- mo el tricloroetano; los compues- tos aromáticos como el benceno, Imagen 3.. Drenaje de ácido en la mina de San Quintín, en Ciudad Real. Fuente: Universidad Complu- tense de Madrid. Imagen extraída de la web: http://www.madrimasd.org 70 Nº12. Abri l de 2016 “El 95% de la población de España respira aire contaminado”
  • 71.
    han estado destinadasa que la gente no use tan frecuentemente los vehículos particulares y a pro- mover el uso de transporte públi- co, pero han sido parches tempo- rales para solucionar un proble- ma puntual, pero el problema general sigue estando muy pre- sente. Estas medidas se aplican según los niveles de contamina- ción y según el tipo de contami- nante, de forma que en casos extremos de polución se podría restringir el uso de los vehículos e incluso prohibir los automóvi- les de combustible diesel. Estas medidas son bastante impopula- res, por eso se van demorando en el tiempo o aplicando de forma suave para evitar conflictos políti- cos con la población, que en mu- chos casos no es consciente del peligro al que se expone. Según estudios de algunas organi- zaciones ecologistas, como Eco- logistas en Acción, se estima que el 95% de la población de España respira aire contaminado, esto supone que 45 millones de espa- ñoles respiran un aire de mala calidad que puede afectar seria- mente a su salud. Se estima tam- bién según estos informes, que aproximadamente 27.000 muer- tes al año, en España, están rela- cionadas de forma directa o indi- recta con la mala calidad del aire, que afecta especialmente a niños, ancianos, embarazadas y perso- nas con afecciones respiratorias. Y es que, en general, la gente está poco concienciada del peligro al que se expone al respirar diaria- mente aire que supera los niveles permitidos de contaminantes. La contaminación más célebre, por ser habitual en las grandes ciudades como Madrid, es la at- mosférica que tiene un fuerte impacto sobre la salud humana debido, obviamente, al aire que se inhala. En los últimos años en Madrid, se ha hecho famoso el dióxido de nitrógeno (NO2), por ser uno de los contaminantes que más supera los niveles permitidos en la capital de España. Y es que las emisiones de gases contami- nantes a la atmósfera merman significativamente la calidad del aire y provocan elevados niveles de contaminación que repercuten en el deterior de la salud humana y del medioambiente, principal- mente en las zonas de gran pro- ducción de energía, las grandes ciudades, especialmente debido al elevado número de automóviles y los lugares con una importante actividad industrial. Los principales contaminantes que afectan al aire son el dióxido de carbono (CO2), que es el prin- cipal gas de efecto invernadero, el monóxido de carbono (CO), los aerosoles, los óxidos de nitró- geno, los óxidos de azufre, los hidrocarburos y el ozono tropos- férico. Para reducir esta serie de contaminantes hay normativas tanto europeas, como estatales, autonómicas y municipales, pero aún así sigue siendo un problema que lejos de resolverse va a más. Algunas medidas que se han to- mado en ciudades como Madrid, Imagen 4. Paseo de la Castellana de Madrid en 2011, repleto de vehículos y con una visible contamina- ción del aire. Fotografía obtenida de la web: http://ecovoz.blogcindario.com REFERENCIAS Y BIBLIOGRAFÍA:  Páginas web consultadas:  http://www.ign.es  http://elblogverde.com/contaminacion-del-suelo/  http://www.elmundo.es/ciencia/2015/06/23/55894b35ca4741472f8b457c.html 71Nº12. Abri l de 2016
  • 72.
    Laurent d’Arlandes, lorealizaron en una máquina crea- da por el hombre. Uno de los primeros diseños fué hecho por Sir George Cayley en 1804. A diferencia de pioneros anteriores, Cayley se dedicó al estudio del vuelo desde una perpectiva científica. De hecho es considerado el primer científico de la historia de la aviación. Notablemente se le atribuye el descubrimien- to de la fuerza producida por el aire al fluir por encima de una superficie curvada, que empuja la superficie ha- cia arriba. Esta fuerza después fue conocida como sus- tentación. George Cayley, realmente, hizo una gran contribución a la ciencia aeronáutica. En 1848 William Henson y John Stringfellow construyen el carruaje aé- reo de vapor que realiza un vuelo de 40 metros antes de estrellarse contra un muro. George Cayley hizo in- tentos similares, pero con vehículos no motorizados. El primero de ellos en 1849, en el cual hizo volar a un niño de 10 años, y el segundo en 1853, en el cual voló su cochero. Ambos exitosos. En 1852 el ingeniero francés Henri Giffard inventó el dirigible, recorriendo en su primer vuelo 24 kilómetros. Otros importantes en esta época fueron realizados por el carpintero aus- tríaco-húngaro Jan Wnęk en un planeador controlable, el francés Jean-Marie Le Bris y su Albatross, y el fran- cés Felix du Temple y su Monoplane. El hombre ob- servaba con ad- miración el vuelo de los pájaros y soñaba con con- quistar el cielo a l g ú n d í a . El empeño por ganar la carrera hasta lo más alto ha pasado por muchas etapas, no exentas de dificultades, has- ta llegar al desarrollo tecnológico de la aviación tal y como la entendemos ahora. Qui- zás fue Leonardo Da Vinci el primero que proyectó sobre papel su idea de cómo deberían ser las maquinas para poder volar, un boceto de todo lo que vendría más adelante. En los siglos XVIII y XIX comenzaron los experimentos con los globos de aire caliente. Barto- lomeu Lourenço de Gusmão, logró alzar el vuelo de un aerostato, en 1709. Sin embargo, el primer vuelo en globo del que se tienen constancia se realizó en París, en 1783. Jean-François Pilâtre de Rozier y François LOS PRIMEROS PASOS EN LA HISTORIA DE LA AVIACIÓN. ADRIÁN JIMÉNEZ MARTÍN. INGENIERO T. AERONAÚTICO. El hombre desde sus antepasados siempre han soñado con volar. Ref: http://avionesestiludos.blogspot.com.es/ 72 Nº12. Abril de 2016
  • 73.
    Llienthal documentó extensivamentesus vuelos, inclu- so con fotografías, razón por la cual es uno de los pio- neros más conocidos de la época. Lamentablemente el año 1896, después de haber realizado más de 2500 vue- los exitosos, se precipitó a tierra cuando una ráfaga de viento rompió el ala de su planeador. Cayó desde una altura de 17 metros y se fracturó la columna. Falleció al día siguiente en una clínica en Berlín, el 10 de Agosto de 1896. Sus últimas palabras fueron: "pequeños sacri- ficios deben hacerse". Más tarde, serían los hermanos Wright quienes, tras varios experimentos con planeadores, fabricarían en 1903 un avión biplano, llamado “The Flyer” . Fue el primer avión dotado de maniobrabilidad longitudinal y vertical, un aparato impulsado por un motor de gasoli- na de cuatro cilindros y 16 H.P. El primer intento de despegue lo realizaron el 14 de diciembre de aquel año y constituyó un fracaso, pues el aparato sólo alcanzó a levantarse levemente de la tierra, estrellándose después de haber permanecido apenas tres segundos y medio en el aire. Pero tres días más tarde, el 17 de diciembre de 1903, el "Flyer" volvió a despegar, con Orville en los mandos, logrando mantenerse doce segundos en vuelo. La proeza de que una máquina más pesada que el aire pudiera remontarse por su propia fuerza y volar sin reducción de velocidad había sido por fin lograda, y el avión con tanta ahínco perseguido, era ya una reali- dad. Otro personaje importante en ese tiempo fue el pionero inglés Francis Herbert Wenham quien, si bien no pudo construir un mo- delo exitoso, realizó importan- tes descubri- mientos en el campo de la ae- ronáutica. Cons- truyó, además, el primer túnel de viento. Los años pos- teriores a 1880 se caracterizaron por intensos estudios y un mayor desarrollo de la ciencia del vuelo. Estos estudios y avances finalmente dieron como resultado la construcción de los primeros planeadores de uso prác- tico. En particular destacó el alemán Otto Lilienthal. Realizó una investigación muy extensa, basándose en el trabajo de Wenham. Este trabajo fue publicado en 1889 con el nombre de El vuelo de los pájaros como base de la aviación. Además diseñó y construyó diver- sos planeadores, cada uno con mejoras significativas respecto al anterior. El más conocido se llamó Der- witzer, debido a que fue probado cerca de Derwitz, en Brandeburgo. Para el año 1891 podía realizar vuelos de más de 25 metros sin dificultad, creando hasta 18 mo- delos distintos en los siguientes cinco años. Wilbur y Orville Wright. Ref: http://historiaybiografias.com/wright/ Uno de los intentos de los hermanos Wright. 73Nº12. Abri l de 2016
  • 74.
    tenacidad para lograrel despegue de aparatos más pe- sados que el aire. En Rusia, Nicolás Joukovsky, "el pa- dre de la aviación", según los soviéticos, creaba un ins- tituto de aerodinámica y enseñaba mecánica. En Italia, Arturo Crocco y Riccaldoni construían hidroplanos para estudiar la hélice; y en Alemania, Karl Jatho efec- tuaba, en agosto y noviembre de 1903, sendos saltos de 20 y 60 metros, respectivamente, con un aparato accio- nado por un motor de gasolina, que, al no poder man- tenerse en el aire, no constituyeron propiamente vue- los. En definitiva, iba a ser Francia el país europeo en que la aviación daría sus más tempranos frutos. El 25 de mayo de 1905 el capitán Ferdinand Ferber se con- vierte en el primer europeo en pilotar un aeroplano provisto de un motor de explosión, un biplano equipa- do con un Peugeot 12 C.V. Por esa época se empieza a hablar ya de los hermanos Gabriel y Charles Voisin, quienes, tras experimentar con numerosos planeadores sobre las aguas del Sena, inauguran la primera fábrica de construcción aerodinámica del mundo. El honor de ser el primer piloto oficialmente reconocido corres- pondió a un brasileño avecindado en París, llamado Alberto Santos Dumont. Este último hecho tuvo lugar el 12 de noviembre de 1906, cuando el inventor y aero- nauta latinoamericano voló 220 metros a una altura aproximada de 6 metros, estableciendo el record mun- dial de velocidad, con 41,2 kilómetros por hora. La proeza fue lograda con un gran biplano equipado con un motor Antoinette de 50 H.P. y provisto de ruedas que le permitieron un despegue y un aterrizaje de rela- tiva suavidad, en comparación con los bruscos toques Inmediatamente después, en el curso del mismo día, fue- ron realizados otros tres exitosos ensa- yos, cediéndose al- ternativamente am- bos hermanos los comandos. Final- mente, con Wil- bur como piloto, el frágil biplano de dos hélices conectadas al motor por medio de cadenas de bicicleta, realizó un triunfal vuelo de 59 segundos, sobre una distancia de 260 metros, con lo que no quedó lugar a dudas de que el mundo estaba ante la presencia de un nuevo y revolucionario medio de transporte. Curiosa- mente, a pesar de los testigos que presenciaron la haza- ña de los hermanos Wright y del comunicado a la pren- sa que éstos enviaron el 5 de enero de 1904, el primer vuelo en aeroplano de la historia pasó casi por comple- to desapercibido. Al parecer, los Wright, con su actitud de elegir un desierto poco menos que inaccesible para realizar sus experimentos y de negarse a dar la menor información previa acerca de su máquina y sus méto- dos, se granjearon la antipatía de los periodistas, los cuales en un comienzo ignoraron sistemáticamente sus actividades. Así, sin publicidad de ninguna especie, am- bos hermanos continuaron perfeccionando su invento, y tras varios vuelos cada vez más prolongados, el 4 de octubre de 1905, Wilbur voló 33 minutos 17 segundos, alcanzando a recorrer una distancia cercana a los 40 kilómetros. Pero el silencio per- sistió y sólo un periódico de poca monta, especializado en la cría de abejas, publicó un artículo. El 7 de noviembre de 1910, realizaron el primer vuelo comercial del mundo. Este vuelo, realizado entre Dayton y Columbus (Ohio), duró una hora y dos minutos, recorriendo 100 kiló- metros y rompiendo un nuevo ré- cord de velocidad, alcanzando los 97 km/h. Mientras en los EE.UU. triunfaban silenciosamente Wilbur y Orville Wright, en la vieja Europa numerosos pioneros trabajaban con Dumont con su “ 14 bis ” 74 Nº12. Abri l de 2016 Santos Dumont. Retrato con la Torre Eifel al fondo. París, 1906.
  • 75.
    de tierra delaparato de los hermanos Wrihht. Santos Du- mont bautizó este aeroplano con el nombre de "14 bis". Establecer cuál fue el primer vuelo con un avión tripula- do siempre ha despertado una gran controversia. Por un lado, los hermanos Wright efectuaron el primer vuelo en una aeronave motorizada. Patentaron la manera de controlarlo en tres dimensiones lo que constituye la base de las aeronaves actuales de alas fijas. El avión ganó altitud al acabar el recorrido sobre los raíles, reco- rriendo 37 metros a una velocidad media de 48 km/h, durante los 12 segundos que duró el vuelo. Sin embar- go, muchos consideran que el pionero de la aviación fue Alberto Santos Dumont ya que en su caso despegó apoyado con sus propias ruedas, mientras que los her- manos Wright necesitaron la ayuda de un riel y un lan- zador. Casi un año justo después del record de Santos Dumont, el 13 de noviembre de 1907, un aparato as- cendió por primera vez en forma vertical, al hacer su aparición en escena un primitivo helicóptero que elevó a su piloto y constructor, Paul Cornu, a la reducidísima "altura" de 30 centímetros. Estaba lejos aún el momen- to en que Juan de la Cierva diera a conocer su eficaz au- togiro, pero de todas maneras este prematuro ensayo constituyó un hito importante, pues demostró la factibili- dad del despegue vertical. Más aún, pocos días más tarde, la máquina de Cornu reafirmó su éxito al ascender un metro y medio, no sólo con su piloto, sino que con el hermano de éste, que se había aferrado a la armazón. No obstante la llamativa experiencia de Cornu, son otros los nombres que ocupan las primeras planas de los periódi- cos galos de la época, como Esnault Pelterie, Delagrange, De Pischoff, que el 6 de diciembre de 1907 vuela medio kilómetro con un motor Anzani de 25 hp y Henri Far- man, que alcanza a recorrer una distancia de 771 metros el 26 de octubre de aquel mismo año, utilizando un mo- tor Antoinette de 50 hp. En los primeros días de 1908 un acontecimiento impor- tante atrajo la atención de todo el mundo: el 13 de enero, pilotando un biplano construido por Voisin y equipado con un motor Antoinette de 40/50 hp, el ya célebre Hen- ri Faenan ganó el gran premio de aviación Deutsch- Archdeacon, instituido en 1904 para recompensar al pri mer aviador que recorriera un kilómetro en circuito cerra- do. Así, tuvieron que transcurrir cuatro largos años para que alguien estuviera en condiciones de cumplir con el requisito exigido para llevarse los 50 mil francos de re- compensa. El aeroplano que efectuó la prueba había sido encargado el 19 de junio de 1907 a las fábricas Voisin, estipulándose estas drásticas condiciones en la carta de solicitud: "este aparato debe volar un kilómetro en línea recta, de lo contrario, M. Farman no deberá nada a M. Voisin". Pero Gabriel Voisin trabajó a conciencia y gra- cias al aeroplano salido de su fábrica, Farman no sólo venció en el gran premio, desplazando a los demás parti- cipantes, aviadores la talla de Blériot, Delagrange, Esnault Pelterie, Ferber, Santos Dumont y Traian Vuia, sino que consiguió también dos records homologados por la F.A.I.: el de distancia, con 771 metros, y el de velocidad, con 52,7 km/h. Pero mientras en Francia Farman se cu- bría de laureles, al otro lado del Atlántico, en los EE.UU., la aviación cobraba su primera víctima, al perecer en un accidente, el teniente Thomas Selfridge, quien volaba en calidad de pasajero de Orville Wright, durante una prueba para el ejército norteamericano. Milagrosamente, el prota- gonista del primer vuelo en avión de la historia libró con vida de este percance. En el año 1909 Farman llevó a ca- bo una proeza, un acontecimiento verdaderamente gran- de en la historia de la aviación, el primer cruce del Canal de la Mancha. Preparativos para el cruce del Canal. Ref: aeromodelr.wikidot.com/ 75Nº12. Abri l de 2016 “Una máquina más pesada que el aire puede volar por su propia fuerza. ”
  • 76.
    76 Nº12. Abril de 2016 Y EL MES QUE VIENE... Página 8 Página 4 Página 16 Página 12 Página 28 Página 22 Página 32 Página 44 Página 40 Bombas de agua Dispositivo Medioambiental de Producción de Aire Puro Cubiertas Ajardinadas Fluidos No-Newtonianos Encendido eléctrico en motores de combustión interna alternati- vos Voladuras a cielo abierto. Cubiertas Colgantes de Hormigón Membranas en depuración de aguas residuales industriales Ventajas y Riesgos de la Energía Nuclear La Ionosfera Página 36
  • 77.
    77Nº12. Abri lde 2016 Página 54 Página 48 Página 64 Página 60 Energía Geotérmica de muy baja temperatura Confort térmico en el inte- rior de las viviendas Bombas de Calor El secreto de las Cajas Negras Mejora de las Cargas Huecas utilizando un telémetro Láser Página 68 Página 74 Placas de circuito impreso Biomateriales. Aplicaciones en la Ingeniería Biomédica Página 80 Puente Atirantado en Ta- lavera de la Reina Página 64 Página 72 Robótica ROS
  • 78.