1. Biela 7.65REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONTRUCCIÓN
AÑO 3
NÚMERO 9
ENERO DE 2016
Lesiones en fachada.
KERS.
Frenos regenerativos
TÚNELES DE VIENTO
Ensayos e Hipótesis
ISSN 2386-639X
09
9 772386 639006
Carreteras Solares
2. CONTENIDO
Líquidos Penetrantes
Lesiones en Fachada.
Frentes de Forjado.
Página 8
Página 4
El dióxido de Nitrógeno y
sus Efectos en el Entorno
Tecnología del Hormigón
Autocompactante
Página 16
Página 12
Quitina y Quitosano: un
BioPolímero de grandes
aplicaciones.
Trasvase Tajo Segura
Página 24
Página 20
Túneles de Viento
Página 28
2 Nº09. Enero de 2016
3. 3Nº09. Enero de 2016
Biela 7.65 es el órgano de expresión del Centro de Formación IAE. info@ingenierosalejercito.com
Edita el Centro de Formación IAE.
Dirección: L.T. de Garnez Consejo de Redacción: Juan González; Alvaro Manuel Sanchez; Álvaro Titos ; José Emilio Fernández; Iván García ; Raquel Hernández; Jose Maria Lozano ;
Francisco Navarro; Joaquín Toro; Antonio Climent; Rebecca Renuncio; Jorge Peña; Francisco Escamez; Marcos Cerdán; Miguel Silva; José Vicente Jurado; Alejandro Larruy; Pablo Alonso;
Alberto Martín; Antonio Flores; Marta Sanz del Burgo; Fernando Martel; Yeray Estévez; Adrian Quijada; Sergio Hurtado; Adrián Jiménez; Juan Manuel Alfaro; Alfonso Rojo; Andrés Siñeriz;
Pablo Escribano ; Mikel Meno; Juan José Espinosa; Marta Bartolomé; Rocío B. Higueras ; José Manuel Ibáñez Poveda; Iban Cabrera ; Carlos Mollá ; Pedro Manuel Vélez; Carlos Medrano;
Eduardo Baselga; Marcos Maldonado; Alejandro Gómez
Secretaría del Consejo de Redacción: Félix-Álvaro Pajares. Paseo de las Delicias. Madrid
Imprime: Centro de Impresión DaBe
Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción.
Georradar, principio de
funcionamiento y Aplica-
ciones
Kers. Freno Regenerativo apli-
cado a Vehículos Híbridos
Página 38
Página 32
Perspectivas del sistema
Energético Español
Carreteras Solares:
Solaroads y
Solar Roadways
Página 50
Página 44
Las Ondas y su Interacción
con el Medio
La Electricidad
Página 58
Página 54
4. El principio en el cual se basa
esta técnica de localización de
discontinuidades es en la capaci-
dad que tienen ciertos líquidos,
llamados penetrantes, de filtrarse
por capilaridad en el interior de
discontinuidades que tengan la
superficie examinada. Después de
eliminar el penetrante depositado
sobre la superficie estudiada, el
líquido que queda en el interior
de las discontinuidades sale de
estas por capilaridad y se locali-
zan con la aplicación de un reve-
lador.
Estos líquidos penetrantes han de
tener unas ciertas características
físicas:
Tensión superficial
La tensión superficial es la forma
de cohesión de las moléculas de
la superficie del líquido en fun-
ción de la cual, a igualdad de vo-
lumen, asume la forma corres-
pondiente a la mínima superficie
compatible con el vínculo ex-
terno. La tensión superficial está
definida como una fuerza que
actúa sobre toda “saliente” en
una superficie acabada.
Para demostrar su existencia se
usa un marco rectangular con un
lado corredizo en el cual se ex-
tiende una película de agua jabo-
nosa, el lado corredizo está so-
metido a una fuerza que tiende a
volverlo a su posición cuando se
lo aleja. Midiendo el trabajo “dL”
de superficie de la película líqui-
da, se obtiene de la fórmula de
Gauss:
Donde la tensión superficial es γ
N/m (1 N/m = 103 dina/cm), el
desplazamiento de la película ja-
bonosa es dS.
La tensión superficial, como la
viscosidad, dependen de la tem-
peratura y disminuyen con el au-
mento de la energía cinética de
las moléculas del líquido. La ten-
sión superficial también es fun-
ción del estado superficial. La
tensión superficial de los líquidos
penetrantes es normalmente de
25 a 30 dinas/cm.
Mojabilidad o poder de hu-
mectación
Por mojabilidad se entiende a la
propiedad de un líquido de ex-
pandirse adhiriéndose a la super-
ficie de un sólido. Esta depende
Fundamento teórico
El control mediante líquidos pe-
netrantes es un procedimiento de
examen no destructivo que per-
mite la localización de disconti-
nuidades que afloran a la superfi-
cie de las piezas. No puede utili-
zarse para determinar la anchura,
la profundidad o el volumen de
dichas discontinuidades ya que la
imagen dada por el ensayo no
corresponde con la realidad del
defecto.
LÍQUIDOS PENETRANTES
ÁLVARO TITOS LÓPEZ. GRADO EN INGENIERÍA MECÁNICA
4 Nº09. Enero de 2016
La tensión superficial de los líquidos penetrantes es normalmente de 25 a 30 dinas/cm
Imagen 1. Inspección por líquido penetrante
fluorescente. http://www.llogsa.mx/, curso
líquidos penetrantes.
5. Puesto que la energía de penetra-
ción “Fp” por unidad de longitud
de superficie está dada por:
Y de acuerdo con las ecuaciones
vistas anteriormente podemos
decir que:
El término Fp viene generalmen-
te definido como “parámetro de
penetrabilidad estática” (P.P.S) y
muestre claramente como la ca-
pacidad de penetración de un
líquido penetrante no está sólo
determinada por la tensión super-
ficial. Tal parámetro no asume un
valor constante para un líquido
penetrante dado, puesto que el
ángulo de contacto en la fase lí-
quida varía considerablemente
con el tipo de material, con la
rugosidad superficial y con el gra-
do de limpieza del componente
en examen. Por este motivo, no
existe un líquido penetrante
“ideal”
Capilaridad
Se puede observar que la superfi-
cie de un líquido contenido en un
recipiente presenta cierta curva-
tura en las fronteras del líquido y
las paredes sólidas del recipiente.
Si el tamaño total de la superficie
es pequeño, toda la superficie del
líquido se verá expuesta a una
influencia por las paredes y este
aparece curvo en toda su exten-
sión. A los fenómenos que tienen
lugar dentro de estos recipientes
se denomina “capilaridad”.
de la interacción del líquido con
la fase sólida y gaseosa en la que
se encuentra y está determinada
por el angulo “θ” de contacto
con la superficie.
Un líquido penetrante de buena
calidad debe tener necesariamen-
te un bajo ángulo de contacto a
fin de asegurar una buena moja-
bilidad de la superficie de examen
y una óptima penetración en las
discontinuidades.
En la evaluación del producto se
debe evaluar separadamente la
tensión superficial y en ángulo de
contacto para no llegar a conclu-
siones erróneas
Si consideramos una gota de lí-
quido en equilibrio sobre una
superficie plana tal como se
muestra en la figura 2, en el pun-
to de contacto de las tres fases
(sólida, líquida y gaseosa) existe
un equilibrio entre las fuerzas
dado por la siguiente relación:
Siendo γS la tensión superficial
del sólido en contacto con el aire,
γSL la tensión superficial de la
interfase sólido-líquido, γL la ten-
sión superficial de la interfase aire
-líquido y θ el ángulo de contac-
to.
Los aditivos (pueden ser sales de
K o Na) que poseen los líquidos
penetrantes disminuyen el θ por
lo que:
Y la gota tenderá a extenderse
continuamente y formar una capa
molecular si no actúan otros fe-
nómenos antes como la evapora-
ción y consecuente descomposi-
ción del líquido.
Imagen 3. Gota de líquido en equilibrio sobre una superficie plana. Colección de imágenes del departa-
mento de materiales de la UJA.
5Nº09. Enero de 2016
Imagen 2. a) Buena mojabilidad, b) y c) escasa mojabilidad. Colección de imágenes del departamento de
materiales de la UJA.
6. guientes consideraciones:
- La presión de capilaridad au-
menta con el aumento de la ten-
sión superficial.
- La presión de capilaridad au-
menta cuando disminuye el ángu-
lo de contacto (y en consecuencia
aumenta la mojabilidad.
Viscosidad
La viscosidad de un fluido, es
una propiedad física debida a la
interacción interna de las molécu-
las, es la fuerza tangencial o de
corte debido a esa cohesión, que
hay que vencer para separar dos
capas adyacentes en el líquido.
Por sí la viscosidad no influye
directamente sobre la valoración
cuantitativa del penetrante, pero
tiene una gran importancia en la
fase operativa. El penetrante de-
be poseer la suficiente fluidez
tanto como para entrar con facili-
dad en los defectos como para
salir de ellos. Al mismo tiempo
debe ser lo suficientemente vis-
coso como para no poder ser
extraíble fácilmente de las discon-
tinuidades en la etapa de elimina-
ción del exceso. Normalmente el
penetrante tiene una viscosidad
variable de 5 a 10 cSt
(centistokes) a 38 ºC.
Densidad
Los líquidos penetrantes poseen
generalmente un peso específico
muy bajo. La densidad y el peso
específico del producto no inci-
den de forma directa sobre la
sensibilidad y confiabilidad del
ensayo. En reveladores secos, la
densidad debe ser normalmente
menor a 200 g/l.
Volatilidad
Por volatilidad se entiende la pro-
piedad físico-química de algunos
componentes de pasar al estado
El desnivel obtenido podrá ser
positivo o negativo, según el án-
gulo de contacto y la mojabilidad
del líquido.
La resultante vertical T en el inte-
rior de un capilar de radio R tal y
como muestra la figura 5, está
dada por la relación:
La fuerza P ejercida por el peso
de la columna de líquido se calcu-
la mediante:
Donde ρ es la densidad del líqui-
do, g aceleración de la gravedad y
h el desnivel.
En condiciones de equilibrio
T=P, tomando como una buena
aproximación que el cos θ es
aproximadamente 1 y despejando
el valor de la tensión superficial
tenemos que:
Podemos concluir con las si-
6 Nº09. Enero de 2016
Imagen 4. Desnivel según el ángulo de contacto
y mojabilidad del líquido. Colección de imáge-
nes del departamento de materiales de la UJA.
Imagen 5. Fuerzas resultantes en el fenómeno de la
capilaridad. Colección de imágenes del departamen-
to de materiales de la UJA.
En un líquido penetrante ideal, la volatilidad deberá ser la mínima posible
7. observables en contraste con el
revelador. El otro grupo son los
líquidos penetrantes fluorescen-
tes, en donde los pigmentos son
fluorescentes en suspensión y
muy visibles bajo iluminación de
luz negra.
Eliminador. Es necesario para
eliminar el exceso de líquido pe-
netrante sobre la superficie exa-
minada y pueden ser líquidos or-
gánicos o agua.
Revelador. Deben ser absorben-
tes del penetrante que contiene la
grieta y fácilmente eliminable
después de la inspección. Existen
dos tipos de reveladores, seco y
húmedo. El primero está consti-
tuido por polvo, talco, yeso, etc.,
consiguiendo una buena adheren-
cia a la superficie con espesor
uniforme. El segundo, húmedo,
son suspensiones de polvo en
líquidos, agua alcohol, disolvente
orgánicos, que pueden acceder a
cualquier punto de la superficie.
más o menos fácilmente de la
superficie. Esto varía la composi-
ción química y por tanto la ten-
sión superficial, mojabilidad, vis-
cosidad, etc., de la mezcla origi-
nal.
Punto de inflamación
Es la temperatura mínima a la
cual el líquido penetrante debe
ser calentado para producir vapor
en cantidad suficiente como para
formar una mezcla inflamable.
En la inspección se requieren
penetrantes con alto punto de
inflamabilidad que además han
de poseer un bajo grado de vola-
tilidad.
Materiales para la realización
del ensayo
Líquido penetrante. Se clasifican
en dos grupos: Líquidos pene-
trantes coloreadas, incorporan
pigmentos coloreados fácilmente
Imagen 7. Eliminador de agua. www.llogsa.mx
7Nº09. Enero de 2016
Imagen 6. Fotografía de ensayo por líquidos penetrantes. www.tecnatom.es
Los reveladores acceden fácilmente a las grietas que han absorbido líquido penetrante y
favorecen su observabilidad
REFERENCIAS Y BIBLIOGRAFÍA:
- Bibliografía del departamento de Tecnología de
materiales, E.P.S. de Jaén, Universidad de Jaén.
- http://.www.llogsa.ms/
- http://www.tecnatom.es
8. Un edificio está hecho para ser utilizado y también
contemplado.
Lo primero que se observa es la fachada. Por eso las
lesiones de fachada son las más
vistosas y evidencian una proble-
mática que puede tener gran re-
percusión (a parte están claro las
lesiones estructurales). Dichas
lesiones se producen por no haber
tenido en cuenta aspectos concep-
tuales de su construcción.
A modo de ejemplo sencillo, se
debe pensar que si la fachada está
orientada a Sur, el fuerte sol de
verano y el gradiente térmico día-
noche producirá dilataciones y
contracciones. Si está orientada a
NE, de donde viene la lluvia en el
Levante, habrá posibilidad de hu-
medades por lluvia. Si está orien-
tada hacia el Oeste habrá que te-
ner en cuenta que el sol de po-
niente entra rasante y no puede
evitarse con persianas enrollables.
Dentro de la todas las particulari-
dades de una edificación, las hay
de mayor y menor importancia
obviamente pero las fachadas, son elementos comple-
jos que se prestan a muy diversas patologías.
Es habitual que las fachadas se desarrollen a partir de
un diseño establecido que contemple fundamentalmen-
te la estética. En general, no se tiene en cuenta la inter-
acción de fachada-forjado; es ahí
donde comienza la posibilidad de
que se produzcan lesiones que
afecten a la integridad del cerra-
miento.
Cada lesión tiene soluciones pro-
pias, que alguna vez pueden coin-
cidir con las de otra lesión similar,
pero normalmente las soluciones
constructivas y en este caso de
reparación, adaptadas a sus necesi-
dades, son exclusivas.
La experiencia dice que en la ma-
yoría de las ocasiones las lesiones
que afectan a los materiales o sis-
temas constructivos que confor-
man un edificio no suelen ser un
hecho aislado; esto se debe a que
unas lesiones desencadenan otras
o existen varias a la vez. De aquí
viene que se pueda hablar de con-
junto de lesiones o patología edifi-
catoria.
Hay una clasificación clásica que
está admitida por la mayoría de los autores especializa-
dos, donde se divide en: físicas, mecánicas y químicas.
LESIONES EN FACHADAS: FRENTE DE FORJADO
ANTONIO CLIMENT ALÓS. ARQUITECTO TÉCNICO.
8 Nº09. Enero de 2016
Imagen 1. Rotura de los ladrillos cerámicos, colocados a sardi-
nel, a la altura del forjado
Fuente: Cerramientos. Construcción VI. UPV.
Imagen 2. Desprendimiento de ladrillos, a la altura del forjado.
Fuente: Cerramientos. Construcción VI. UPV.
9. Atendiendo a los tres grandes grupos, debemos cono-
cer la naturaleza de cada grupo de lesiones según sean:
– Físicas: se producen por las acciones físicas que ac-
túan sobre los materiales o los elementos constructivos
dañándolos por sus características físicas. Su reparación
puede ser sencilla o compleja, según las causas que las
han producido.
– Mecánicas: aparecen por procesos mecánicos y afec-
tan a las características mecánicas de los elementos
constructivos. Pueden iniciarse por acciones externas o
internas que afectan a los mismos: estructurales, cons-
tructivas o de uso. Su reparación puede ser compleja
porque debe superar las citadas acciones.
– Químicas: se producen por la naturaleza química de
los propios materiales o asociadas a otros efectos pro-
ducidos por los elementos atmosféricos, la contamina-
ción del ambiente o el ataque de los organismos vivos.
Su reparación es variable y está relacionada con la cau-
sa que la ha producido.
LOS CERRAMIENTOS
Son los paños verticales o inclinados que cierran el edi-
ficio (de ahí su nombre). Su función ha cambiado du-
rante su uso, pasando de muros portantes, sobre los
que cargaban los forjados, a paneles, sutiles a veces,
cuya función ya no es de carga, sino de defensa del cu-
bículo contra los agentes atmosféricos. Ya no necesita
la resistencia como fundamento, sino dar garantía de
confort a quienes habitan el edificio.
Existen muchos tipos de lesio-
nes o patologías que se produ-
cen en los cerramientos de
fachada, dependiendo del ori-
gen de la lesión y sus conse-
cuencias (agresión química,
movimientos de la estructura,
humedades, accidentes, degra-
dación de los materiales, etc.)
y también dependiendo del
materiales de la fachada
(ladrillo visto, de piedra, fa-
chadas ligeras, aplacados de
piedra, revestimientos conti-
nuos, etc.).
Dentro de todo estos tipos
cabe destacar una patología
que se suele observar mucho, como lo es las grietas y/
o pérdida de material en los frentes de forjados.
El motivo de que sea un lesión tan recurrente, es sen-
cillamente porque se siguen resolviendo por rutina y su
final es el mismo, la lesión sobre el edificio.
Esta acción rutinaria se inicia, cuando se diseña. Des-
pués se construye y el resultado, negativo, da lugar a
una patología. La solución debe ser pensada, conocien-
do los materiales a utilizar, y desarrollada con tiempo
necesario que garantice su buen funcionamiento.
Habitualmente en la sección de la fachada, la hoja exte-
rior se apoya en el forjado y tres o cuatro centímetros
de ladrillo lo recubre. Claramente se observa que no
existe protección del forjado frente a los agentes at-
mosféricos (imagen 4).
Si toda la fachada se protege térmicamente, también el
frente del forjado debería estarlo. De lo contrario hay
una diferencia de temperatura al forjado que se añade a
la propia interacción entre fachada y forjado.
Nº de Imagen 3. Clasificación general de las lesiones según su procedencia.
Imagen 4. Fotografía realizada de un ladrillo que se ha desprendido del frente
de forjado. Fuente: Cerramientos. Construcción VI. UPV.
9Nº09. Enero de 2016
GRUPO DE LESIONES LESIÓN
Físicas
Humedades
Suciedad
Erosión física
Mecánicas
Deformaciones
Roturas
Desprendimientos
Erosión mecánica
Químicas
Eflorescencias
Oxidación superficial
Corrosión
Organismos
Erosión química
10. Como se ha dicho anteriormente, cada
caso es único y el técnico deberá apor-
tar la solución más adecuada para cada
situación.
Aún así, cabe reseñar algunos puntos
de interés los cuales no son de gran
dificultad técnica, pero una mala ejecu-
ción puede desencadenar roturas,
asientos e incluso, el colapso de la fá-
brica. Ya que existen movimientos estructurales, y la
fábrica no los absorbe del mismo modo; el arranque de
la hoja exterior deberá apoyar como mínimo 2/3 sobre
el forjado, garantizando la estabilidad del muro frente a
la transmisión de cargas verticales y horizontales; y ayu-
dando a que no exista el puente térmico junto con el
aislante. Además, si se coloca una lámina impermeable
en la hoja interior introducida en el propio apoyo, eva-
cuará el agua que pueda entrar hasta la cámara de aire.
Al mismo tiempo que va ganando en altura el cerra-
miento y llega al encuentro del forjado siguiente, por la
cara inferior del mismo, es recomendable dejar un hol-
gura de unos 2 centímetros aproximadamente entre la
hilada superior y el forjado, que posteriormente se re-
llenará con mortero. Esto hace posible que cuando se
produce una deformación estructural, está no sea
transmitida del mismo modo a la fábrica, evitando que
entre en carga y se produzcan roturas.
En caso de terminar la fachada en voladizo, el angular
de apoyo del cerramiento puede servir para crear un
goterón que defienda dicho voladizo de la lluvia, evi-
tando así la tan temible acción del agua cuando esta
penetra en el interior de las edificaciones y los proble-
mas que puede ocasionar en los distintos elementos
constructivos y de salubridad para los usuarios de la
edificación.
Por otro lado, se debe prestar atención en la ejecución
de los dinteles que permiten la realización de huecos en
la fachada , y la coronación de la fachada.
El frente del forjado se calienta o enfría y sus dilatacio-
nes o contracciones se añaden a los movimientos es-
tructurales, que los forjados absorben por estar forma-
dos por materiales idóneos (hormigón y acero), pero
que no pueden ser absorbidos por las fabricas de ladri-
llo que carecen de elasticidad, por lo que se producen
grietas lineales, por lo general a la altura del forjado.
Una aceptable protección térmica se consigue pasando
la hoja exterior de fachada por delante del forjado y
mejor si el frente del forjado se protege, además, con
un aislamiento térmico (Imagen 5).
Lógicamente, se precisa un soporte para la hoja exte-
rior. Puede utilizarse un angular de acero de 110x110
mm. atornillado con tacos y tornillos de acero al frente
del forjado en toda su longitud (Imagen 6).
El angular debe ser calculado como voladizo, con la
carga de la fábrica que soporta el ala horizontal del
apoyo. Como los ángulos de perfil laminado tienen sus
caras ligeramente inclinadas, el apoyo de las fábricas de
ladrillo es dificultoso, por lo que es aconsejable utilizar
ángulos fabricados con plancha de acero. Puede servir
de dato aproximado: un angular de 110x110 mm. de
plancha plegada de 4 mm. de espesor, de acero σ =
2.600 Kg/cm2., admite una carga de 865 Kg por ml.,
sin flexar. Este deberá estar anclado al forjado por tor-
nillos y tacos de acero o químicos separados cada 50 a
70 cm. según la carga.
Imagen 5. Sección de fachada de ladrillo caravista.
Referencia: CAAT Valencia.
10 Nº09. Enero de 2016
“Es habitual que las fachadas partan de un diseño, pero suele ocurrir que no se ha tenido
en cuenta la interacción fachada-forjado; es ahí donde surgen las lesiones más típicas”
11. Toda edificación precisa de una serie de huecos para
permitir el acceso o bien para permitir el paso de luz al
interior a través de los huecos.
Es evidente que la parte que gravita sobre el hueco de-
be ser sujetada por algún elemento para no caer. Estos
elementos son los dinteles.
Por desgracia, a pesar de su importancia, los dinteles
son unos elementos a los que no se les presta mucha
atención, siendo en muchos casos ejecutados sobre la
marcha sin ningún tipo de especificaciones ni requeri-
mientos de proyecto.
Se ejecutan a veces, sin un mínimo cuidado ni una
elección correcta de los materiales, lo que lleva a pro-
ducir fisuras y grietas en las inmediaciones de los hue-
cos.
En principio, como definición general podemos decir
que los dinteles son los encargados de recibir el peso
de los elementos que hay sobre el hueco y transmitirlo
a las jambas del mismo, es decir, a los laterales.
Como puntos a tener en cuenta, se puede nombrar:
- Relación Hueco/Apoyo . A mayor anchura de hueco,
mayor peso gravitará sobre el dintel de manera
que para grandes huecos, se debe aumentar la superfi-
cie de apoyo en los laterales .
-En relación al apoyo, deberá evitarse que sea un apoyo
directo sobre el ladrillo, pues el contac-
to directo entre dos materiales tan rígi-
dos, favorecerá la rotura a la menor
deformación que se produzca (que de
hecho se producirá sin duda). Aún así,
el dintel deberá apoyar 12 cm como
mínimo en fábricas de ladrillo macizo y
20 cm cuando se trate de ladrillo hueco;
protegiendo frente a la corrosión cuan-
do se ejecute un dintel con un perfil
metálico.
- Deben de tener una inercia suficiente
para no deformar en exceso, pues la
deformación del dintel puede afectar a
la carpintería.
- Es conveniente que el dintel tenga
goterón para que el agua no alcance la
carpintería ni el encuentro entre ésta y
la fábrica.
- No debe transmitir la temperatura
exterior al interior, es decir, no debe ser un puente tér-
mico. Para ello es conveniente que no sea un elemento
macizo en todo el espesor de la fachada.
De igual forma en la coronación del muro, se coloca-
rán elementos que eviten el aporte de agua sobre la
fachada, es decir, albardillas de diferentes materiales
que permitan la evacuación del agua, con goterón para
evitar que el agua discurra por el paramento de la fa-
chada.
Una vez observado estos puntos que pueden afectar a
la integridad de la fachada, especialmente los frentes
del forjado (motivo principal de este artículo); se tiene
una idea general de la importancia de una buena plani-
ficación y ejecución de la fachada en una edificación.
Llegados a este punto surge un duda muy interesante a
tratar:
¿qué ocurre cuando se proyecta y ejecuta una edifica-
ción con los frentes de forjados vistos?
REFERENCIAS Y BIBLIOGRAFÍA:
- PASTOR, Vicente. Cerramientos I y II: lesiones en
fachadas. CAAT Valencia.
- Apuntes Construcción VI. Universidad Politécnica de
Valencia.
11Nº09. Enero de 2016
Imagen 6. Perfil laminado atornillado al frente de forjado para el correcto apoyo de la hoja exterior.
Fuente: www.enriquealario.com
12. 1.443 kg/m3 y en fase gaseosa de
3,4 kg/m3. Se forma a través de
dos procesos: el primero se pro-
duce como consecuencia de las
elevadas temperaturas de las
combustiones que hacen que el
oxígeno y el nitrógeno del aire se
combinen dando lugar al óxido
nítrico o NO, que también es
otro contaminante. Posterior-
mente el NO se oxida de forma
parcial dando lugar al NO2.
Los óxidos de nitrógenos emiti-
dos a la atmósfera de las ciudades
provienen principalmente de los
vehículos de gasolina y diésel,
especialmente los que utilizan el
motor diésel. Además, los óxidos
de nitrógeno son emitidos al aire
en la combustión de petróleo,
carbón o gas natural y en otros
procesos como las detonaciones
con dinamita. Este compuesto
también se produce de manera
natural debido, entre otros, a bac-
terias, volcanes o las descargas
eléctricas en la atmósfera, pero la
cantidad es sumamente baja en
comparación con la producida
por la acción del hombre.
El NO2 que se libera en la atmós-
fera es tóxico e irritante, pero
uno de los principales peligros
viene debido a que es muy reacti-
vo, como la mayoría de óxidos de
nitrógeno y precursor de la for-
mación de partículas de nitrato.
Estas partículas llevan a la forma-
ción de ácido y elevan los niveles
de PM2,5 en el ambiente. Las
PM2,5 son partículas en suspen-
sión de diámetro inferior o igual
a 2,5 micrómetros y cuyos efec-
tos en la salud para las personas
pueden ser muy graves debido a
su facilidad de penetración en las
vías respiratorias.
Estos no son los únicos efectos
del NO2 sobre el medioambiente,
ya que la reacción del dióxido de
nitrógeno con el radical OH da
lugar a la formación del ácido
nítrico, HNO3, que es el compo-
nente principal de la lluvia ácida
de forma que mediante la lluvia,
niebla o nieve se produce una
acidificación de los componentes
de la tierra y agua, que pueden
provocar problemas muy serios
de diversa índole fundamental-
mente ambientales y para la salud
de las personas.
Durante las últimas semanas se
ha hecho célebre el dióxido de
nitrógeno (NO2), debido princi-
palmente a sus efectos sobre el
medioambiente y a los problemas
que ha ocasionado en grandes
ciudades como Madrid, que han
tenido que tomar medidas para
reducir las altas concentraciones
en la atmósfera de este compues-
to químico. Por esto, es impor-
tante saber qué es y qué impacto
tiene sobre el medioambiente y la
salud de las personas.
El NO2 es un compuesto forma-
do por un átomo de nitrógeno y
dos átomos de oxígeno, tremen-
damente oxidante, soluble en
agua, no inflamable, que se pre-
senta líquido a temperaturas infe-
riores a 21ºC, pero que a partir
de este valor se convierte en un
gas de color marrón con tonali-
dades rojizas. Su peso molecular
es de 46,05 g/mol, con un punto
de fusión de –11,2 ºC y un punto
de ebullición de 21,1 ºC. La den-
sidad en la fase líquida es de
EL DIÓXIDO DE
NITRÓGENO Y SUS
EFECTOS EN EL ENTORNO
JUAN MANUEL ALFARO ÁLVARO. INGENIERO INDUSTRIAL.
12 Nº09. Enero de 2016
Imagen 1. Diferentes formas de representación
del dióxido de nitrógeno. Dibujo publicado en
la web de “Windows to Universe” por Randy
M. Russell.
13. la exposición a corto plazo no
son del todo claros, la exposición
prolongada a altas concentracio-
nes de este gas afecta de manera
significativa al sistema respirato-
rio de niños, ancianos y agrava el
estado de personas con enferme-
dades respiratorias previas tales
como asma. También, puede pro-
ducir síntomas como tos y flema,
e incluso algunos estudios tam-
bién indican que puede aumentar
la alergia al polen que se inhala.
Además, puede ocasionar irrita-
ción en ojos, garganta, nariz y
causar cansancio, náuseas y falta
de aliento. En casos de grandes
concentraciones puede producir
quemaduras, espasmos pudiendo
producir la acumulación de líqui-
do en los pulmones. Las perso-
nas fumadoras también se ven
especialmente afectadas ya que el
dióxido de nitrógeno está presen-
te en el humo del tabaco, incluso
la concentración en interiores
puede ser superior a la de exte-
riores debido al tabaco, cocinas
de gas y calentadores.
Se ha comprobado que el 70% de
las personas con asma sufren sín-
tomas a concentraciones más
bajas que las personas sanas, con
consecuencias negativas sobre la
salud especialmente si realizan
ejercicio moderado o intenso.
Recientes análisis en diversas ciu-
dades europeas, han mostrado
que no se ha encontrado relación
entre muertes y niveles medios
diarios de NO2 de 70 µg/m3 en
Lyon, y de 45 µg/m3 en Colonia
y París, pero si que aumentaron
de forma considerable las admi-
siones en hospitales en París de-
bido a asma. Asimismo, en Rot-
terdam con niveles medios dia-
rios de 54 µg/m3 se incrementa-
ron las admisiones en hospitales
debido a distintas causas respira-
torias en todos los rangos de
edad y también se detectaron
aumentos en el número de perso-
nas de todas las edades que, pa-
deciendo alguna enfermedad cró-
nica que obstruye los pulmones,
acudía a hospitales por agrava-
mientos de sus dolencias.
Igualmente, el NO2 debido a la
luz del sol se disocia en NO y en
O de forma que el oxígeno mole-
cular, O2, reacciona con el oxí-
geno atómico, O, dando así lugar
a uno de los contaminantes por
excelencia, el ozono troposférico.
El O3 troposférico es otro conta-
minante que causa estragos en las
grandes ciudades, como Madrid,
y que puede llegar a ser tremen-
damente peligroso al ser el cau-
sante de inflamaciones pulmona-
res, asmas, enfermedades bron-
copulmonares, incluso puede
llegar a influir en la salud repro-
ductiva. Este gas también perju-
dica a la vegetación reduciendo la
biodiversidad, los procesos de
fotosíntesis y la calidad de los
cultivos agrícolas. De esta forma,
el NO2 ya sea directamente o
mediante procesos relacionados
puede producir una pérdida de
hábitat de las especias primarias e
incluso puede dar lugar a impor-
tantes catástrofes ecológicas de
difícil recuperación.
En cuanto a los efectos directos
que produce el dióxido de nitró-
geno sobre la salud de los habi-
tantes de las ciudades afectadas
por este componente, destacan
los daños que causa sobre el sis-
tema respiratorio, con enferme-
dades como pulmonías o bron-
quitis. La exposición a altos nive-
les de este compuesto en perío-
dos cortos de tiempo, puede oca-
sionar daños en las células pul-
monares y la exposición a bajos
niveles de NO2 en largos perío-
dos de tiempo puede causar da-
ños muy importantes en el tejido
pulmonar como los enfisemas,
disminución de la capacidad pul-
monar y el envejecimiento de los
pulmones. Aunque los efectos de
Imagen 2.. Efectos sobre la atmósfera de Madrid de contaminantes como el NO2. Foto publicada por el
periódico “El Mundo”.
13Nº09. Enero de 2016
14. lizado de medida de la concentra-
ción de dióxido de nitrógeno y
monóxido de nitrógeno por qui-
mioluminiscencia”. Esta medida
en continuo de los óxidos de ni-
trógeno mediante quimioluminis-
cencia consiste en medir la ener-
gía que se libera en forma de fo-
tones cuando reacciona el NO
con el ozono. Estos fotones que
se emiten son medidos mediante
un tubo fotomultiplicador y otros
dispositivos electrónicos relacio-
nados. De esta forma, se mide
directamente el monóxido de
nitrógeno pero para medir el dió-
xido de nitrógeno hay que utilizar
un convertidor catalítico para
transformar el NO2 en NO efec-
tuando así la medida mediante la
quimioluminiscencia.
Para reducir la emisión de dióxi-
dos de nitrógeno al ambiente se
usan en primer lugar medidas
primarias y posteriormente medi-
das secundarias. Las medidas pri-
marias inciden en el suministro
de aire, la combustión en lecho
fluido y los quemadores especia-
les, donde se disminuye la apari-
ción de óxidos de nitrógeno du-
rante la combustión. Las medi-
das secundarias tratan de minimi-
zar los gases una vez han aban-
donado la cámara de combustión
y el principal método es el de
reducción catalítica selectiva,
donde los gases de combustión
se enriquecen con amoniaco y
aire, tras lo cual los óxidos de
nitrógeno se transforman en agua
y nitrógeno. En el proceso de
combustión en lecho fluido las
partículas de combustible forman
un lecho fluidizado y las partícu-
las quemadas totalmente o sin
quemar retornan a la cámara de
combustión formando un lecho
fluidizado circulante. Con este
método la combustión es casi
completa y se realiza a 900 ºC.
Otra medida es el suministro de
aire escalonado que es bastante
efectiva debido a que reduce la
creación de NO térmico y en el
combustible ya que se reduce el
suministro de aire primario y el
contenido de NO2 se mantiene
bajo. Otros métodos son: los
quemadores de NO2 bajo, que
funcionan con un suministro de
aire en varios puntos y con recir-
culación interna de este; el proce-
so de desulfuración, donde el
En cuanto a los valores acepta-
bles de concentración de dióxido
de nitrógeno, la Organización
Mundial de la Salud (OMS) reco-
mienda como límite, para salva-
guardar la salud pública, un valor
límite horario de 200 µg/m3, que
es lo mismo que 0,11 ppm, que
no podrá ser superado en más de
18 veces al año, y de 40 µg/m3, ó
0,023 ppm de valor límite anual.
Existe, además, un umbral de
alerta que se da para valores de
400 µg/m3 medidos durante tres
horas seguidas en sitios represen-
tativos de la calidad del aire de al
menos 100 km2 o en una zona o
aglomeración entera, tomando la
superficie menor.
La forma de medir las concentra-
ciones de dióxido de nitrógeno es
la que se describe en la norma
UNE-EN 14211:2006 “Calidad
del aire ambiente-Método norma-
Imagen 3. Concentraciones de dióxido de nitrógeno en las ciudades europeas. Foto publicada en el perió-
dico “El Mundo”.
14 Nº09. Enero de 2016
“Los óxidos de nitrógeno causan problemas medioambientales como el smog o la
lluvia ácida y pueden provocar problemas graves de salud ”
15. ejemplo de catálisis heterogénea,
se utilizan en los motores ciclo
Otto en los que la proporción de
óxidos de nitrógeno es menor
que en los diésel al no haber ex-
ceso de oxígeno. En los cataliza-
dores de vía triple se da una pri-
mera fase donde el catalizador de
rodio reduce los óxidos de nitró-
geno a oxígeno y nitrógeno mole-
cular. En la segunda fase, el cata-
lizador deja entrar más aire del
exterior de forma que el CO se
oxida dando lugar al CO2, y ya en
la tercera fase los hidrocarburos
no quemados se oxidan obte-
niéndose CO2 y vapor de agua.
Esta última etapa de oxidación de
hidrocarburos no quemados se
da en presencia de platino, mien-
tras que la reducción de los óxi-
dos de nitrógeno y la oxidación
del CO se da con catalizadores
preferentemente de rodio pero
también de circonio o paladio.
Una vez analizado el dióxido de
nitrógeno y sus efectos nocivos
en el medioambiente y la salud de
las personas, se pueden obtener
una serie de conclusiones. Aun-
que no se debe caer en el alarmis-
mo, si que hay que tener en cuen-
ta que el NO2 es un gas nocivo
para la salud y el medioambiente
si se rebasan los límites de con-
centración que marcan los orga-
nismos estatales, europeos y
mundiales, como la OMS. Espe-
cial cuidado deben tener las per-
sonas que tienen afecciones res-
piratorias, ya que son un grupo
más vulnerable que el resto. La
contaminación por este tipo de
contaminante es un problema
serio y se deben tomar medidas
en cuanto se rebasen ciertos lími-
tes. La conclusión final es que se
deben tomar medidas serias para
reducir este tipo de contaminante
y más si se rebasan los límites
establecidos donde hay que esta-
blecer restricciones inmediatas.
lavado en húmedo con cal es el
método más extendido; y la inci-
neración térmica, donde los con-
taminantes del aire contenidos en
los gases de combustión se que-
man a temperaturas de entre 700
ºC y 900ºC, de esta forma se pro-
duce CO y agua pero también
SO2 o HCl. Además, las calderas
de incineración térmica necesitan
una gran cantidad de energía, por
lo que su uso queda restringido a
cuando otras calderas no son ca-
paces de ofrecer unas prestacio-
nes adecuadas o se quiere des-
truir una serie de componentes
específicos.
Otra medida para reducir la emi-
sión de gases contaminantes de
los coches, entre los que se inclu-
ye el dióxido de nitrógeno, es el
uso de catalizadores en los co-
ches que se instalan antes del tu-
bo de escape. Así, estos gases
contaminantes se conviertan en
inocuos o al menos se reducen en
gran parte antes de salir expedi-
dos por el tubo de escape hacia la
atmósfera. Los catalizadores de
dos vías, son los que se suelen
utilizar en los motores diesel, y
en ellos tienen lugar dos reaccio-
nes simultáneas, la primera fase
es la oxidación de CO a CO2 y la
segunda fase es la oxidación de
hidrocarburos no quemados a
CO2 y H2O, donde los óxidos de
nitrógeno se eliminan o reducen
mediante la recirculación de gases
de escape. En cambio, los catali-
zadores de tres vías, que son un
Imagen 4. Diseño de un coche con catalizador para reducir la emisión de gases contaminantes. Foto
extraída de la web del Instituto de Síntesis Química y Catálisis Homogénea (ISQCH).
REFERENCIAS Y BIBLIOGRAFÍA:
• Webs consultadas:
− http://www.ecologistasenaccion.es/article27221.html
− https://isqch.wordpress.com/2012/11/16/catalisis-5-el-catalizador-del-coche/
− http://www.murciasalud.es/pagina.php?id=180252&idsec=1573
15Nº09. Enero de 2016
16. TECNOLOGÍA DEL HORMIGÓN
AUTOCOMPACTANTE
JUAN GONZÁLEZ GONZÁLEZ. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
Este nuevo material se trata de
un modelo de hormigón cuya
consistencia es muy fluida y per-
mite usarse en moldes y encofra-
dos valiéndose de la acción de la
gravedad para consolidarse. No
se hace necesario el uso de nin-
gún medio externo de compacta-
ción, ya que sólo por efecto del
peso de la mezcla en estado fres-
co puede rellenar completamente
los moldes y abrazar de manera
eficaz las armaduras estructurales.
Una condición indispensable que
se establece para el correcto fun-
cionamiento del HAC es el equi-
librio entre viscosidad y fluidez,
pues debe mantenerse sin segre-
gación a la vez que ser un ele-
mento fluido para alcanzar todos
los rincones del espacio estructu-
ral.
Una vez alcanzados todos estos
patrones y premisas en los sucesi-
vos modelos de HAC, se empie-
za a expandir su utilización en el
mundo de la construcción, tanto
en ingeniería civil como edifica-
ción. Muy pronto la creciente
productividad debida a las inno-
vadoras características y la fácil
colocación que sugiere, hacen de
este nuevo material un elemento
competitivo y que aporta nuevas
opciones de diseño estructural
cada vez más avanzado, fiable y
futurista.
En los sucesivos apartados se
llevará a cabo una caracterización
del material, tanto en su fase fres-
ca cuando se maneja en el proce-
so constructivo, como en su fase
endurecida cuando pasa a formar
parte de las unidades de obra ter-
minadas y en servicio. También
se hace inevitable mencionar cuá-
les son los requerimientos técni-
cos del procedimiento constructi-
vo del material, así como abordar
algunas consideraciones de tipo
económico. Todo esto teniendo
como base de referencia al hor-
migón convencional, predecesor
del HAC, y destacando las venta-
jas e inconvenientes con respecto
a él.
CARACTERIZACIÓN TÉC-
NICA DEL HAC EN FASE
DE ESTADO FRESCO
En la fase de estado fresco exis-
ten propiedades peculiares que
determinan en especial la singula-
ridad del HAC como material de
construcción.
En primer lugar, con respecto a
la reología (relación deformación
de la mezcla-tiempo) se encuen-
tran dos parámetros básicos:
1-Tensión umbral baja con res-
pecto al hormigón convencional
e inferior a 60 Pa. Debido a ésta,
puede fluir más fácilmente entre
armaduras.
INTRODUCCIÓN
A finales de los años ochenta el
sector de la construcción en Ja-
pón se encuentra en una situa-
ción caracterizada por una esca-
sez de personal cualificado en la
industria del hormigón, a la vez
que los estudios sobre los condi-
cionantes sísmicos del país obli-
gan a dotar de una gran cuantía
de armado a las estructuras. Estas
dos razones impulsan el desarro-
llo de un tipo de hormigón dife-
rente del convencional, con el
objetivo añadido de incrementar
la durabilidad de este material
básico de construcción.
Fue el profesor Okamura, de la
Universidad de Tokio, quién ini-
cia las pertinentes investigaciones
sobre el desarrollo del nuevo ma-
terial y ya 1988 aparece el primer
modelo de hormigón autocom-
pactante, ideado por los profeso-
res Maekawa y Ozawa y denomi-
nado en español con las siglas
HAC.
16 Nº09. Enero de 2016
Imagen 1. Vertido en obra de hormigón tipo
autocompactante.
Ref: blog Autocompactante.
17. agua y aditivos que se use en la
mezcla.
3-Considerable capacidad para
pasar entre armaduras gracias a
tamaños máximos de árido no
muy elevados. Esta prestación
que presenta el autocompactante
aporta al constructor la reducción
de los riesgos relacionados con la
difícil accesibilidad en unidades
de obra con mínima separación
de barras.
De este conjunto de característi-
cas señaladas el primer grupo de
ellas, las reológicas, son las que
caracterizan científicamente de
forma casi completa al HAC, pe-
ro su determinación rigurosa y
medida con exactitud necesita del
uso de equipos complejos y cos-
tosos que sólo se encuentran en
centros de investigación. Por tan-
to, se llevan a cabo una serie de
ensayos más fáciles de realizar y
que permiten controlar este hor-
migón en su fase fresca de cara al
proceso de construcción, atenién-
dose bien a aproximaciones de
los parámetros reológicos o bien
al segundo grupo de prestaciones
constructivas.
Estos ensayos para el control de
la autocompactabilidad en esta
fase se pueden numerar:
1-Ensayo de escurrimiento para
medir fluidez, resistencia a la se-
gregación, exudación y migración
de aire.
2-Ensayo de escurrimiento con
anillo J para la capacidad de paso
entre barras de armadura y resis-
tencia a segregación y exudación.
3-Ensayo de caja en L que permi-
te hallar la capacidad de paso en-
tre armaduras.
4-Ensayo de embudo en V que
determina la viscosidad y la esta-
bilidad.
El control de calidad del HAC en
estado fresco tiene lugar tanto en
planta como en obra. En las cen-
trales de hormigonado se realizan
los ensayos de autocompactabili-
dad mencionados de forma diaria
y tomando como referencia
muestras del primer envío de los
que se destinan a la misma obra.
De la misma forma se repiten los
ensayos por cada 100 metros cú-
bicos de hormigón producido
para cerciorar que el producto no
se modifica durante el resto del
proceso de fabricación.
2-Viscosidad alta comparada con
el convencional y entre 20 y 120
Pa·s. Proporciona estabilidad a la
mezcla y evita la segregación.
En segundo lugar, en relación
con las prestaciones constructivas
que se le exigen a este tipo de
hormigón se destacan:
1-Alta capacidad de relleno del
encofrado bajo la sola acción del
peso propio. El hormigón auto-
compactante posee una fricción
interna entre sus partículas muy
inferior a la del convencional,
derivada de la tensión umbral
baja, lo que le dota un gran nivel
de fluencia entre los elementos
que hay dentro de los moldes.
Esta capacidad superior de re-
lleno de los encofrados se consi-
gue con dosificaciones elevadas
de pasta y con empleo de aditivos
superplastificantes.
2-Suficiente estabilidad y cohe-
sión de sus partículas para alcan-
zar una resistencia a la segrega-
ción notable. De esta forma no
hay riesgo de que se produzca
segregación, siempre y cuando
sea correcta la cantidad de finos,
Imagen 3. Realización del ensayo de embudo en
V para determinar viscosidad y estabilidad del
HAC fresco.
Ref: IECA.
Imagen 2. Dique flotante de Mónaco. Construido en Algeciras con hormigón autocompactante.
Ref: blog Ingeniería y computación.
17Nº09. Enero de 2016
18. Una vez ese primer envío llega a
obra se repiten los ensayos en
caso de que no haya seguridad de
que se haya respetado el tiempo
de transporte recomendado. El
control de recepción en la obra
también incluye ensayos para ca-
da partida recibida. En este últi-
mo caso, se lleva a cabo por lo
menos el ensayo de escurrimien-
to si el hormigón se utiliza en
unidades de obra de hormigón en
masa o armado de poca densidad,
mientras que se debe hacer el de
escurrimiento y escurrimiento
con anillo J si el hormigón es
destinado a unidades de obra de
hormigón densamente armado o
proyectado.
CARACTERIZACIÓN TÉC-
NICA DEL HAC EN FASE
DE ESTADO ENDURECI-
DO
En principio, las características
de tipo técnico que se deducen
del hormigón autocompactante
en estado ya endurecido son muy
similares a las que presenta el
en los hormigones convenciona-
les. La razón fundamental es el
mayor contenido en pasta de ce-
mento.
3-La densidad interna superior
provoca una compacidad mayor,
lo que a su vez provoca menos
pérdida de agua y una consecuen-
te menor retracción por secado.
La retracción autógena (debida a
la reducción del volumen del
agua por la combinación química
con el cemento), en cambio, es
superior y en total resulta una
retracción global similar a la del
hormigón convencional.
4-Los valores de fluencia del ma-
terial, dados por el coeficiente de
fluencia, se deducen superiores a
los de los convencionales puesto
que llevan más proporción de
pasta de cemento con respecto a
los árido. Experimentalmente, en
cambio, se ha observado que no
es extremadamente considerable
este hecho.
5-También de forma experimen-
tal se ha deducido que la adhe-
rencia de los HAC a las barras de
las armaduras es superior.
6-La mayor adherencia a las ar-
maduras, la facilidad para recu-
brirlas en su totalidad así como
la superior compacidad ofrecen la
posibilidad de conformar unida-
des de obra hormigonadas mu-
cho más duraderas. Los agentes
corrosivos de los metales de di-
chas armaduras no pueden pene-
trar con tanta facilidad para al-
canzarlas.
Los métodos por los que se de-
duce este conjunto de propieda-
des mecánicas se basan en ensa-
yos de resistencia a compresión
sobre probetas de hormigón en-
durecido.
hormigón convencional vibrado.
Sin embargo, la estructura interna
del HAC es más densa y la pasta
se encuentra mejor distribuida
entre los áridos, ya que se utilizan
proporciones más altas de áridos
finos, proporciones más reduci-
das de áridos de grano grueso
altas dosis de aditivos de super-
plastificación. Ello da lugar a una
serie de diferencias, no excesiva-
mente notables pero presentes,
en términos mecánicos que se
pueden sintetizar en:
1-En cuanto a la resistencia a
compresión, se comprueba que el
HAC presenta valores un poco
superiores al convencional, si
bien se necesita un mayor tiempo
para alcanzar esa resistencia des-
de que se pone en obra. Este ma-
yor tiempo para conseguir resis-
tencia a compresión es debido al
retraso que ocasionan los aditivos
utilizados en la preparación.
2-La característica mecánica de
módulo de deformación longitu-
dinal (parámetro que mide el
comportamiento elástico del ma-
terial) es ligeramente menor que
Imagen 4. Construcción con HAC de las pilas del viaducto ferroviario de alta velocidad de Archidona.
Ref: ADIF.
18 Nº09. Enero de 2016
19. Estos ensayos son precisamente
los que se usan como elementos
de control de calidad sobre las
partidas de HAC endurecido para
garantizar su correcto comporta-
miento en este estado físico. Es-
tos ensayos de control se dividen
en dos tipos:
1-Ensayos previos: anteriores a la
fabricación del hormigón, su mi-
sión es determinar la dosificación
a emplear para conseguir un hor-
migón autocompactante con las
condiciones mecánicas de resis-
tencia adecuadas a partir de los
materiales disponibles y las con-
diciones de ejecución en obra que
se prevén.
2-Ensayos característicos y de
control: también compuestos de
ensayos de compresión, se reali-
zan con muestras procedentes
de planta o de las partidas justo
antes del comienzo del hormigo-
nado en obra. Sirve para verificar
que la resistencia característica
del hormigón a emplear es igual o
superior a la proyectada.
ESPECIFICACIONES TÉC-
NICAS Y ECONÓMICAS
DEL PROCEDIMIENTO
CONSTRUCTIVO
La fabricación del HAC se debe
realizar de manera obligatoria en
plantas o centrales de amasado,
sean exteriores o integradas en la
obra. La razón fundamental resi-
de en que se necesitan condicio-
nes especiales y es muy recomen-
dable usar amasadoras fijas. Las
ción en obra se puede aumentar
hasta los 8 metros sin riesgo de
segregación e incluso ofreciendo
la posibilidad de realizar la colo-
cación por la parte inferior del
encofrado sin necesidad de verter
en altura. Además, al igual que el
convencional, puede ser bombea-
do hasta puntos muy elevados.
El curado posterior de la unidad
de obra hormigonada es especial-
mente resaltable por la mayor
posibilidad de retracción plástica
así como para minimizar el riesgo
de efectos de desecación.
Desde el punto de vista económi-
co, el procedimiento ejecutivo es
más caro en el HAC ya que los
materiales para su fabricación
tienen más coste y el control de
calidad requiere de más inver-
sión. Sin embargo, el HAC con-
lleva un coste global muy inferior
a causa del incremento de pro-
ductividad constructiva, la mejora
de condiciones de ejecución, la
reducción de plazos y el aumento
de las prestaciones estructurales.
condiciones a controlar especial-
mente son la humedad de los
áridos y el tiempo de mezclado,
superior al proceso de fabrica-
ción de los convencionales.
El transporte se realiza en camio-
nes hormigonera, igual que el
convencional, pero controlando
el llamado tiempo abierto. Éste
es el tiempo durante el cual el
HAC fresco mantiene sus propie-
dades reológicas, y que debe ser
superior al tiempo de transporte
y puesta en obra.
En relación con los encofrados
en la colocación del hormigón se
deben seguir las mismas indica-
ciones para el sellado estanco de
las juntas puesto que no presen-
tan pérdidas de lechada superio-
res. Además, deben estar calcula-
dos para presiones de tipo hi-
drostático por la fluidez y veloci-
dad de puesta en obra. Por otra
parte no es necesaria la vibración,
lo que caracteriza especialmente a
este hormigón.
La altura de vertido en la coloca-
“El HAC conlleva un incremento de productividad, una mejora de condiciones de
ejecución, una reducción de plazos y un aumento de prestaciones estructurales”
Imagen 5. Edificación con HAC: Tenerife Espa-
cio de las Artes.
Ref: blog Ingeniería y habitabilidad.
19Nº09. Enero de 2016
REFERENCIAS Y
BIBLIOGRAFÍA:
- Rodríguez Montero, J., Rivera
Zafra J. M. y Garrido Romero L.
Hormigones Autocompactantes.
Universidad de Granada, 2010.
- Fernández Cánovas, M.
Hormigón. Madrid. Colegio de
ICCP, 2007.
- EFNARC. The European
guidelines for self-compacting concrete.
Bruselas. SCC Guidelines, 2005.
20. ¿Qué es quitina?
La quitina, poli[β-(1-4)-2-
a c e t a m i d a - 2 - d e s o x i - D -
glucopiranosa], es el componente
orgánico más abundante de la
estructura esquelética de muchas
de las especies que conforman al
grupo de los invertebrados
(Imagen 1). También puede estar
presente en algunos hongos y en
algas como las diatomeas. Es la
segunda sustancia orgánica más
abundante después de la celulosa,
aunque posee una mayor tasa de
recambio que esta última.
Su estructura es altamente similar
a la de la celulosa. La diferencia
entre ellas se encuentra en el car-
bono 2. Este contiene un grupo
hidroxilo en la celulosa (Imagen
2) y un grupo acetamida en la
quitina (Imagen 3). Ambos bio-
polímeros cumplen roles seme-
jantes: actúan como materiales de
Con el presente artículo se pre-
tende dar a conocer dos biopolí-
meros descubiertos por el hom-
bre hace más de un siglo y que se
encuentran presentes en un gran
número de aplicaciones actuales:
quitina y quitosano. Muestra de
este amplio rango de aplicaciones
es, por ejemplo: tratamiento de
aguas (coagulantes, floculantes,
agente quelante, etc), alimenta-
ción (aditivo, conservante, etc),
biomédicas y farmacéuticas
(dietético, biodegradable, activi-
dad antimicrobiana, etc) o agri-
cultura (fertilizantes, funguicidas,
etc), entre otros.
QUITINA Y QUITOSANO: UN BIOPOLÍMERO
DE GRANDES APLICACIONES.
JOAQUÍN TORO NÚÑEZ. Ingeniero Químico Industrial.
20 Nº09. Enero de 2016
Imagen 1. Microestructura de la matriz de los crustáceos. Fuente: COLINA, M. (2014) Evaluación de los
procesos para la obtención química de quitina y quitosano a partir de desechos de cangrejos. Escala planta piloto e indus-
trial. Universidad del Zulia, Maracaibo. Venezuela.
Imagen 2. Monómero de quitina.
Imagen 3. Monómero de celulosa.
21. y tamaño molecular.
El quitosano, poli[β-(1-4)-2-
amino-2desoxi-D-glucopiranosa],
constituye el derivado más im-
portante de la quitina. Aunque
siempre en menor proporción
que la quitina, el quitosano puede
encontrarse de forma natural en
algunos hongos o en la tinta de
calamar.
El quitosano es el único polisacá-
rido catiónico natural; ello le con-
fiere características especiales que
lo hacen útil en numerosas apli-
caciones.
Las propiedades físico-químicas
principales del quitosano que
fijan sus características funciona-
les son su grado de desacetilación
y su peso molecular promedio,
aunque la cristalinidad, el conte-
nido en agua, cenizas y proteínas
también son propiedades a consi-
derar para la aplicación de un
quitosano específico.
Algunas de las características fun-
cionales del quitosano son: bio-
compatibilidad (“Ausencia de
reacciones alérgicas, inmunitarias,
etc., en el contacto entre los teji-
dos del organismo y algunos ma-
teriales”), capacidad filmogénica
(“capacidad protectora”), biode-
gradabilidad (“capacidad para ser
degradado por acción biológica”),
hemostático (“eficaz para detener
una hemorragia”), mucoadhesión
(“adhesión a una membrana mu-
cosa”), promotor de absorción
(“incentiva la absorción”), antico-
lesterol (“capacidad para capturar
colesterol”), antioxidante
(“prevenir el envejecimiento celu-
lar”)...
soporte y defensa en los organis-
mos que los contienen.
La quitina es insoluble en la ma-
yoría de los solventes. La posibili-
dad de modificar la quitina de
manera que sea soluble permitirá
el desarrollo de nuevas aplicacio-
nes y la aparición en el mercado
de nuevos productos comercia-
les.
¿Qué es quitosano?
Cuando la quitina se somete a la
acción de un medio alcalino muy
concentrado, y a temperaturas
superiores a 60ºC, tiene lugar la
reacción de desacetilación. Me-
diante esta reacción se consigue
la pérdida del grupo amida del
carbono 2, quedando un grupo
amino en esa posición. El pro-
ducto de la reacción se denomina
quitosano (desacetilación >50%)
y presenta propiedades significa-
tivamente diferentes a la quitina
de partida.
La desacetilación completa difí-
cilmente se alcanza (cuando el
grado de desacetilación alcanza el
100% el polímero se conoce co-
mo quitano), por lo tanto, el qui-
tosano no es una entidad química
única y definida, sino que designa
a una familia de polisacáridos que
varían entre sí en su composición
21Nº09. Enero de 2016
O
HO
OH
NH2
O
O
HO
OH
O
H2N
n
Imagen 4. Monómero de quitosano.
Imagen 4. Relación entre la quitina, quitosano y el quitano. Fuente: LÁREZ, C. Quitina y quitosano:
materiales del pasado presente y el futuro. Universidad de los Andes. Mérida, Venezuela.
22. actividad antimicrobiana, impor-
tancia como dietético, biodegra-
dable… que permiten elaborar
nutracéuticos para reducir el co-
lesterol, liberación de fármacos,
etc.
Como nutracéutico, destaca en
tratamientos para pacientes con
artritis por su capacidad de redu-
cir el dolor en articulaciones y, la
más importante, desde un punto
de vista comercial (supone el
50% de su aplicación mundial),
como complemento dietario para
la reducción del colesterol y los
triglicéridos.
Tomando la aplicación para la
liberación de fármacos y comple-
mento dietario, se ejemplifica el
funcionamiento de esta sustancia
en el organismo; Se emplea para
elaborar las cápsulas que contie-
nen los principios activos de los
medicamentos, al ingerir estas
por vía oral llegan al estómago.
Como se vio con anterioridad, el
quitosano es soluble en medio
ácido, por tanto, al entrar en con-
tacto con los jugos gástricos la
cápsula se disuelve liberando el
principio activo del medicamen-
to; Como suplemento dietario,
modifica marcadamente la absor-
ción de lípidos, ya que al solubili-
zarse en el estómago gelifica, lo
que crea un coágulo que atrapa
las grasas, no permitiendo de esta
forma la absorción de las mismas
por el organismo.
Aplicaciones Alimentos
Aditivo para medrar las texturas
de los alimentos, gracias a sus
propiedades como espesante,
gelificante y emulsificante. Se ha
demostrado la capacidad del qui-
tosano, en solución acética, para
estabilizar emulsiones múltiples
del tipo agua/aceite/agua sin adi-
ción de otros surfactantes y en un
solo paso.
Actualmente, hay grandes expec-
tativas alrededor de su utilización
como conservante. Por un lado,
su alta efectividad antimicrobiana
permite la conservación del ali-
mento durante largos periodos de
tiempo, por otro lado, se trata de
un compuesto natural, lo que
convierte a quitosano en un re-
clamo para el sector alimenticio.
También se ha estudiado su apli-
cación como antioxidante gracias
a la propiedad de complejar los
cationes metálicos—como, Co,
Cu, Fe, Ni y Mg—, elementos
que se encuentran normalmente
en los alimentos y que actúan
Aplicaciones Biomédicas y
Farmacéuticas
En la antigüedad, marineros co-
reanos usaban la tinta de calamar
para curar quemaduras o, indios
nativos de América Central utili-
zaban hongos para cicatrizar sus
heridas. Productos que como se
ha observado con anterioridad
son fuente potencial de quito-
sano.
En la actualidad, un gran número
de estudios abalan las propieda-
des médicas del quitosano. La
biocompatibilidad y la biodegra-
dabilidad representan cualidades
de gran importancia para estos
objetivos. Entre las distintas
aplicaciones biomédicas destacan
las referidas a la reconstrucción
de tejidos. Vendas, geles y poma-
das cicatrizantes son elaboradas
aprovechando esta propiedad.
Además, cabe destacar las si-
guientes propiedades biológicas:
22 Nº09. Enero de 2016
Imagen 5. Quitosano como suplemento alimen-
ticio. Fuente: http://www.rakuten.es/tienda/
“Se emplea para elaborar las cápsulas que contienen los principios activos de los
medicamentos”
Nº de Imagen. Explicación. Si la imagen no es
nuestra debemos poner:
Ref: el origen, la web, el libro, etc.
Imagen 6. Quitosano como aditivo en alimentos.
Fuente: http://es.nutramaxextract.com/
23. agua transepidérmica, reduciendo
de este modo la sequedad. De
esta manera, la piel se conserva
suave y más flexible.
Para el cabello, el quitosano es un
a sustancia complementaria debi-
do a que poseen cargas opuestas.
El polímero actúa con la querati-
na y promueve la formación de
una película uniforme y elástica,
reduciendo las cargas electrostáti-
cas de tal forma que el cabello se
mantiene fuerte y sin erizar.
como catalizadores positivos en
las reacciones oxidativas de los
mismos.
Aplicaciones Tratamiento de
Aguas
Sin duda, se trata de una de las
principales áreas de aplicación del
quitosano. La carga positiva per-
mite su asociación con elementos
cargados negativamente, agente
quelante (“capacidad para secues-
trar metales pesados”) pero la
efectividad de este proceso se
encuentra ligada al pH del medio.
Se utiliza como floculante
(“precipitante”) y coagulante para
aguas contaminadas con residuos
orgánicos. También para la ab-
sorción de metales pesados y pes-
ticidas en soluciones acuosas.
Aplicaciones en Cosmética
El quitosano, gracias a su carga
positiva producida por la proto-
nación del grupo –NH2 permite
que reaccione con todas las su-
perficies biológicas cargadas ne-
gativamente, como el caso de la
piel y el cabello. Además, es un
polímero no tóxico, biocompati-
ble y biodegradable.
El quitosano reduce la pérdida de
Nº de Imagen. Explicación. Si la imagen no es
nuestra debemos poner:
Ref: el origen, la web, el libro, etc.
23Nº09. Enero de 2016
Imagen 7. Quitosano como cosmético.
Fuente: http://www.farpost.ru/
Imagen 8. Cuadro general aplicaciones. Fuente: COLINA, M. Evaluación de los procesos para la obtención de
quitina y quitosano a partir de desechos de cangrejo. Escala planta piloto e industrial. Universidad del Zulia, Maracai-
bo. Venezuela.
REFERENCIAS Y BIBLIOGRAFÍA:
- COLINA, M. Evaluación de los procesos para la obtención de quitina y quitosano a
partir de desechos de cangrejo. Escala planta piloto e industrial. Universidad del
Zulia, Maracaibo. Venezuela.
- PASTOR, A. (2004) Quitina y quitosano: Obtención, caracterización y aplicaciones.
Pontifica Universidad Católica del Perú, Lima, Perú.
- LÁREZ, C. Quitina y quitosano: materiales del pasado presente y el futuro.
Universidad de los Andes. Mérida, Venezuela.
- SALAS, G. (2010) Diseño del área de producción para una fábrica procesadora de
quitina. Tesis doctoral publicada. Universidad Tecnológica Equinoccial.
Quito, Ecuador.
24. estando dentro del marco de los proyectos de desarro-
llo económico que caracterizaban la planificación eco-
nómica en la época del General Franco. La obra fue
completada en 1979, época en la que Joaquín Garri-
gues Walker era el ministro de Obras públicas.
Recorrido trasvase Tajo-Segura
La cabecera del Tajo: Pantanos de Entrepeñas y Buen-
día: El agua es regulada por los pantanos de Entrepe-
ñas y Buendía. Ambos son dos embalses de regulación
hiperanual, los cuales funcionan como una sola unidad
y tienen una capacidad total de 2.355 hectómetros cú-
bicos útiles.
Punto de partida del trasvase: El embalse de Bolarque
es el punto de partida real del trasvase Tajo-Segura.
Pese a que el territorio español tiene una pluviosidad
media de 600 mm, España es calificada como un país
seco. Por motivos meteorológicos, la región sureste de
la Península Ibérica (Murcia, Almería y Alicante) es
uno de los territorios más secos y calurosos de la re-
gión española. A causa de esto existe una falta de re-
cursos hídricos en toda la zona, por lo que llegan a re-
sultar insuficientes para la agricultura y, en algunas oca-
siones, para el abastecimiento de la población.
El trasvase es una de las obras hidráulicas de ingeniería
más grandes realizadas en España. Los proyectos pio-
neros comenzaron en 1933 (el cual empezaría en las
cabeceras de los ríos Tajo y Guadiana a la cuenca del
río Segura, siendo el propulsor Manuel Lorenzo Par-
do), pero al final las obras no se iniciaron hasta 1966,
TRASVASE TAJO-SEGURA
MIKEL MENO REGUERO. INGENIERO CIVIL, ESP. CONSTRUCCIONES CIVILES
24 Nº09. Enero de 2016
25. portado es aproximadamente de 33.000 l/s. En este
tramo se ubica una toma de derivación hacia la cuenca
alta del Guadiana, que sirve para transportar parte del
agua del Trasvase del Tajo-Segura a las Tablas de Dai-
miel.
Desde el embalse de Alarcón el agua discurre atrave-
sando tierras manchegas a lo largo de casi 200 kms,
cuyo destino es el embalse de Talave.
Talave: Por la provincia de Albacete circula el agua
hasta llegar al túnel de Talave, situado en el límite de
aguas entre las cuencas del Júcar y Segura. El túnel tie-
ne una longitud de 32 kms, 300 metros de profundidad
y un diámetro de 4 m, el cual es el mayor túnel del
Trasvase Tajo-Segura.
Cuando el agua vuelve a salir al aire libre, se detiene en
el embalse de Talave, de 35 Hm3 de capacidad enclava-
do próximo al río Mundo, encontrándose ya en la
cuenca del Segura.
La penúltima estación de parada del agua es el embalse
de Talave. Desde éste punto partirá a su destino final.
Murcia, Levante y Almería: El agua llega a tierras mur-
cianas, en concreto a Azud de Ojós. Desde éste destino
se bifurcan dos conducciones.
La primera de las conducciones es el canal del margen
izquierdo que transporta el agua por gravedad a la pro-
vincia de Alicante y de ahí a los cultivos de Cartagena
(Murcia).
La segunda de las conducciones requiere mecanismos
Dicho punto de partida está localizado aguas debajo de
Entrepeñas y Buendía.
El agua que es trasvasada comienza en Bolarque y viaja
hacia la cuenca del sureste peninsular donde hay un
salto de más de 200 m de altura para llegar a la presa de
Bujeda con una capacidad de 7 hectómetros cúbicos.
Bujeda es la segunda estación de parada del trayecto
del agua del trasvase Tajo-Segura.
A esta presa el agua es elevada mediante dos grandes
tuberías de acero de más de 3 m de diámetro y un es-
pesor de 23 milímetros. Estas tuberías salvan una dis-
tancia de 1.070 m y tienen un desnivel de 245 m.
De Bujeda a Talave: El agua del trasvase recorre 92
kms, desde Bujeda, de la provincia de Guadalajara a
través de túneles, canales y acueductos. El caudal trans-
Imagen 1. Histórico de Trasvases realizados al Sureste (a 31 de Diciembre del
2014).
Ref: www.scrats.es
Imagen 2. Esquema del trazado del trasvase Tajo-Segura.
Ref: www.hidrojing.com
25Nº09. Enero de 2016
26. ses de cabecera del Tajo, no será posible trasvasar agua
bajo ningún concepto, dado que esta agua se empleará
para garantizar las demandas de la cuenca hidrográfica
del Tajo.
Efectos positivos del trasvase
Desde que el trasvase Tajo-Segura empezó a funcionar,
los volúmenes trasvasados se han incrementado a lo
largo de los años hasta que, a finales de los 90, se ha
alcanzado en dos ocasiones el límite máximo de 600
hm3 destinado al Levante. El principal motivo que ha
propiciado la subida de aguas trasvasadas es la crecien-
te disponibilidad de las infraestructuras de aprovecha-
miento del trasvase.
Efectos sobre la agricultura: El 61´65% de la superficie
agrícola de regadío en la provincia de Alicante corres-
ponde a las zonas regables del acueducto Tajo-Segura
(ATS), mientras que en Murcia es del 54´90% y de Al-
mería el 1´74%.
Efectos sobre el abastecimiento/turismo
A pesar del incremento de las construcciones, no se
han ejecutado todas las superficies regables. Se puede
deducir que el agua en vez de ir al regadío va cada vez
más al abastecimiento de ciudades y urbanizaciones
turísticas.
Desde que se ha integrado el trasvase Tajo-Segura en el
funcionamiento
de la Mancomu-
nidad de los ca-
nales del Taibilla
(MCT), además
de convertirse en
un pilar básico
(60% del volumen
total suministra-
do) , ha mejorado
sustancialmente la
calidad y la garan-
tía del suministro.
de impulsión de-
bido a la rectitud
del terreno. Atra-
viesa el valle del
Guadalentín para
llegar al valle del
A l m a n z o r a
(Almería).
En el postrasva-
se, el agua del
trasvase se sumi-
nistra de la si-
guiente manera:
el 30% para la
provincia de Alicante, el 40% para la provincia de Mur-
cia y el 3.% para la provincia de Almería, según recoge
la Ley de régimen Económico de la Explotación del
Acueducto tajo-Segura (1980).
Las obras realizadas en el postrasvase llevaron consigo
la construcción de un túnel entre el Talave y el Cenajo,
y de los siguientes embalses en la provincia de Azud de
Ojós, Mavés (Ojós), Morrón (Jumilla), Cárcabo y Del
Judio (Cieza), Doña Ana (Mula), Pliego, Algeciras
(Alhama), José Bautista (Librilla), Los Rodeos
(Alguazas y Torres de Cotillas), Puentes (Lorca), La
Risca (Moratalla) y Moratalla.
Gestión del trasvase
El trasvase está gestionado desde el Gobierno estatal,
dado que es el que tiene competencia en los ríos cuya
cuenca afecta a varias Comunidades Autónomas, a tra-
vés de la comisión de explotación del trasvase Tajo-
Segura dependiente del Ministerio de Medio Ambiente.
Dicha comisión es la encargada en todo momento de
decidir la cantidad de caudal a trasvasar y de su utiliza-
ción, excepto si los embalses donde proceden el agua
(Entrepeñas y Buendía) a día 1 de Julio poseen 557
hm3. Si esto sucede la función de la comisión de explo-
tación pasa al Consejo de Ministros que decidirá, en
función de las circunstancias, aprobar o denegar trasva-
ses. Si existen 240 hm3 o menos de agua en los embal-
Imagen 3. Embalse el Azud de Ojós del Rio Segura
en pleno Valle de Ricote rodeado de Montañas.
Ref: el origen, la web, el libro, etc.
26 Nº09. Enero de 2016
El Trasvase del Tajo-Segura proporciona agua para el regadío de 55 municipios de Alicante,
Murcia y Almería.
Imagen 4. El trasvase Tajo-Segura
Ref: www.panda.org/downloads/europe/
trasvasetajosegura.pdf
27. tros de longitud, atraviesa Castilla-La Mancha hasta
llegar al pantano del Talave. Desde esta ubicación se
distribuye a Murcia, Alicante y Almería.
En la actualidad, el trasvase tiene una zona de influen-
cia que engloba un área de 74.845 Ha, repartidas entre
las provincias de Alicante (29.628 Ha), Murcia (43.355
Ha) y Almería (1.862 Ha). La necesidad hídrica anual
es de 439 hm3 y el suministro anual a través del trasvase
de 300 hm3.
Tras haber sometido al rio a presiones y a una intensa
regulación, principalmente en su tramo español, se tra-
duce, entre otras consecuencias, en una importante
disminución de aportes de sedimentos al estuario del
Tajo en Portugal. La destrucción ambiental del curso
principal del río se debe, por tanto, y principalmente, a
la profunda artificialización y a las fórmulas de gestión
y presiones a los que son sometidos en territorio espa-
ñol, tanto el río Tajo como sus principales afluentes. La
estrecha relación, cultural, social, espiritual y ambiental
que existía entre los distintos pueblos ribereños y el río,
ha sido también, a la fuerza, destrozada.
Efectos negativos del trasvase
- 11.400 hectáreas de espacios protegidos fueron des-
truidos por la construcción de los embalses de Entre-
peñas, Buendía y Bolarque.
- La construcción de la canalización ha provocado la
destrucción de vegetación en una franja de entre 10 y
30 metros a lo largo de los 286 km de trazado.
- El agua trasvasada supone el 60% de las aportaciones
naturales de la cabecera del río.
- El cambio climático ha reducido en un 10% los apor-
tes naturales.
- Miles de hectáreas de espacios naturales se han visto
afectados por la ocupación de terrenos para regadíos y
turismo.
- Sobre las vegas y los hábitats naturales se han provo-
cado fuertes impactos debido a la construcción de las
grandes presas del sistema de captación y del acueduc-
to.
- Tras haber construido el Trasvase, se prometieron
beneficios económicos pero no llegaron y los que sí lo
hicieron, han resultado escasos.
- El Trasvase no ha permitido fijar caudales ecológicos
en el Tajo, lo cual ha afectado de forma negativa en la
conservación de espacios naturales y de especies prote-
gidas y causaron la salinización del agua en el tramo
medio del Tajo.
- Además de los efectos ecológicos en la cuenca del
Tajo, el trasvase tendría consecuencias sociales: a juicio
de los ecologistas no existe un superávit de agua en el
Tajo tal y como aseguran los estudios realizados por el
MIMAM (Ministerio de Medio Ambiente).
Conclusión
El trasvase Tajo-Segura, infraestructura de 300 kilóme-
Imagen 5. Perfil longitudinal del trasvase Tajo-Segura.
Ref: SANDOVAL RODRÍGUEZ, Jose Mª. 1989.
REFERENCIAS Y BIBLIOGRAFÍA:
- http://www.regmurcia.com/
- http://www.chtajo.es/
- https://sites.google.com/site/trasvasetajoamb/
- http://www.miliarium.com/Monografias/
- http://revistas.ucm.es/
27Nº09. Enero de 2016
28. Introducción
El túnel de viento es una herramienta que está
muy en boga en los últimos tiempos. Su uso en el dise-
ño de carrocerías de automóviles, especialmente en la
Fórmula 1, ha hecho que práctica-
mente toda la gente haya oído ha-
blar de ellos aunque tenga una
idea muy vaga de en qué consis-
ten.
El túnel de viento no es
más que una herramienta utilizada
para comprobar hipótesis y reali-
zar experimentos para entender
mejor el comportamiento del aire.
Aún hoy en día no se ha consegui-
do explicar y entender perfecta-
mente la interacción del aire con
los objetos que rodea. En los últi-
mos años se ha adelantado mucho
al respecto, pero se siguen sin
poder formular todas las leyes que
rigen su comportamiento. Por
esta razón se sigue haciendo uso
del túnel de viento para estudiar,
comprender y demostrar dichas
leyes.
El primer túnel del que se
tiene constancia fue el fabricado
por el físico soviético Konstantín
Tsiolkovski en 1897. En 1901,
uno muy simple fue utilizado por
los hermanos Wright para estu-
diar la acción del viento sobre su
aeroplano. Desde entonces el tú-
nel ha ido evolucionando hasta alcanzar una importan-
cia y unas dimensiones que difícilmente llegaron a ima-
ginar el físico o los hermanos.
El túnel más grande actualmente está situado en el
Centro de Ames de la Nasa, California y alcanza los 25
metro de altura por 37 de ancho y ha llegado a albergar
en su interior aviones como el
caza FA-18 o el Bell-Boeing V-22
Osprey.
El primer túnel de viento
fabricado en España es el de la
Base Aérea de Alcantarilla, que
consta del 2006 y que en el 2012
llegó a ser el más potente del
mundo alcanzando velocidades de
hasta 250 km/h. “Sostenidos por la
fuerza del aíre los paracaidistas pueden
ensayar las técnicas de vuelo y caída
libre en un entorno seguro y sin sensa-
ción de miedo por lo que el alumno pue-
de centrarse en las enseñanzas e instruc-
ciones de su mentor sin ninguna preocu-
pación sobre su seguridad y concentrase
en la enseñanza en sí”, así definen los
propietarios la utilidad del túnel.
Conceptos básicos
.Antes de comenzar a ha-
blar de cómo es un túnel es nece-
sario entender algunos conceptos
físicos. Los más importantes que
debemos manejar son los de capa
límite y tipo de flujo.
Llamamos flujo laminar al movimiento de un
TÚNELES DE VIENTO
ALFONSO ROJO LAHUERTA. INGENIERO INDUSTRIAL.
28 Nº09. Enero de 2016
Imagen 1. Konstantín Tsiolkovski
Ref: www.datuopinion.com
Imagen 2. Túnel de viento del Centro de Ames de la Nasa,
Ref: http://www.heraldo.es/
29. fluido cuando éste es perfectamente ordenado, de ma-
nera que el fluido se mueve en láminas paralelas sin
que se mezclen. Se dice que este flujo es aerodinámico,
es decir cada partícula que compone el fluido sigue una
trayectoria suave, llamada línea de corriente. Existe un
flujo laminar en fluidos con velocidades bajas y/o con
viscosidades altas, cuando se cumple que el número de
Reynolds sea inferior a 2040.
El número de Reynolds, a su vez, se define
como la relación entre el producto de la densidad del
fluido, su velocidad y la longitud característica del siste-
ma por el que fluye (el diámetro si es una tubería) entre
su viscosidad dinámica.
Decimos que en el caso de números inferiores
a 2040 el flujo es laminar porque las fuerzas de inercia
son mayores que las de fricción, las partículas se des-
plazan pero no rotan, o lo hacen con muy poca ener-
gía. Para un número de Reynolds menor que 2040, el
flujo es siempre laminar, y cualquier turbulencia que se
produzca es eliminada por la acción de la viscosidad.
Más allá de este número, será un flujo turbulento.
El flujo turbulento es más común debido a que
la naturaleza tiene tendencia hacia el desorden y esto
en términos de flujos significa una tendencia hacia la
turbulencia. Este tipo de flujo se caracteriza por trayec-
torias semejantes a remolinos y ocurre cuando las velo-
cidades de flujo son generalmente muy altas y/o cuan-
do el fluido tiene una pequeña viscosidad (altos núme-
ros de Reynolds). Así se incrementa la fricción entre
partículas vecinas, y éstas adquieren una energía de ro-
tación apreciable, la viscosidad pierde su efecto, y debi-
do a la rotación las partículas cambian de trayectoria.
Al pasar de unas trayectorias a otras, las partículas cho-
can entre si y cambian de rumbo en forma errática.
El otro concepto a entender es e l de capa lími-
te. Cuando un fluido fluye sobre una superficie, debido
a la fricción, la capa del fluido más cercana a la pared
se para completamente. Enci-
ma de esta capa se forman
otras, teniendo cada una me-
nor fricción que la anterior y
por tanto mayor velocidad.
Así, a partir de una capa con-
creta no hay fricción debido a
la pared y las capas tienen la
velocidad libre del fluido U0.
Decimos que en este punto el
fluido está completamente
desarrollado.
Definimos la capa li-
mite como el conjunto de ca-
pas que van desde la que tiene
velocidad cero (la más cercana
a la pared) hasta la que tiene
velocidad libre. Así el espesor
de la misma es la distancia en-
tre la primera y la última capa
Nº 4. Desprendimiento de la capa límite
Ref: https://m.forocoches.com
Imagen 3. Túnel de viento de la base aérea de Alcantarilla
Ref: http://www.ejercitodelaire.mde.es/
29Nº09. Enero de 2016
30. Tipología
Una vez entendidos
estos dos conceptos básicos
podemos empezar a hablar de
los túneles de viento. Éstos se
pueden clasificar en función
de varios parámetros:
• Según la circulación del aire en su interior
pueden ser abiertos o cerrados. La principal dife-
rencia estriba en que en los abiertos el aire conti-
nuamente se está renovando mientras que en los
cerrados el mismo aire es el que circula de forma
cíclica por el interior de túnel. Las ventajas de los
abiertos son los menores costes de construcción
y la posibilidad de utilizar técnicas de visualiza-
ción como el flujo con humo mientras que en
los cerrados tenemos un menor consumo ener-
gético, menor contaminación acústica, mayor
control de la calidad del flujo en el interior del
circuito y la ventaja añadida de poder presurizar
el sistema con la ventaja que eso supone de po-
der variar la densidad del aire.
• Según la velocidad del flujo estaremos en un
caso subsónico (Mach entre 0 y 0,7), transónico
(0,7 y 1,2), supersónico (1,2 y 5) o hipersónico
(mayor de 5)
• Según la manera de introducir el aire en el
túnel podemos tener un caso de aire soplado o
en uno de aire aspirado. La diferencia principal
radica en que el túnel soplado proporciona más
velocidad que el aspirado y proporciona un flujo
más regular y uniforme.
Partes
Todos los túneles de viento buscan alcanzar un
régimen laminar antes de alcanzar el borde de ataque
que hemos definido.
Este espesor δ suele aumentar a medida que el
fluido se mueve a lo largo de la pared, pero este
fenómeno depende de la viscosidad del fluido, la
velocidad del flujo, la rugosidad de la pared así como
su forma.
El flujo en la capa límite comienza siendo
laminar. Es decir, al entrar en contacto con el borde de
ataque el aire fluye en láminas separadas y de forma
ordenada, sin interferir unas con otras. Sin embargo, el
espesor de la capa límite puede aumentar en su
recorrido alrededor del cuerpo dependiendo de
factores como, por ejemplo, la forma de éste y el
ángulo de incidencia.
A medida que avanza la corriente el espesor de
la capa límite crece debido a que el aumento de la
presión supone un obstáculo al avance del aire.
Cuanto mayor sea la presión, más dificultades tendrán
las partículas para seguir avanzando, hasta que llegue
un momento en el cual no puedan avanzar más y
retrocedan hacia atrás en busca de zonas de menor
presión. Esto hace que se comiencen a formar
pequeños torbellinos de partículas, dando inicio a lo
que se conoce como capa límite turbulenta y dando
lugar al desprendimiento de la capa límite.
Imagen 5. Partes de un túnel de viento
Ref: http://fluidos.eia.edu.co/
30 Nº09. Enero de 2016
El túnel de viento se ha erigido como la mejor posibilidad en donde realizar los ensayos y
las hipótesis
31. del objeto a estudiar. Por eso aunque pueda haber dife-
rencias entre unos túneles y otros todos constan de las
mismas partes principales.
La primera parte suele ser un difusor de gran
ángulo cuya finalidad es reducir la velocidad del flujo
por la ley de continuidad de la masa (a mayor área me-
nor velocidad). A continuación el aire entra en la cáma-
ra de acondicionamiento que buscan rectificar el flujo
que podía venir en régimen turbulento. A lo largo de
esta cámara se suelen colocar pantallas de turbulencia y
honeycombs que son dispositivos encargados de uni-
formar el perfil de velocidades y eliminar las compo-
nentes tangenciales que puedan quedar en cada capa
del régimen laminar respectivamente. Una vez acondi-
cionado el flujo vuelve a acelerarse mediante un cono
de contracción en el que además se reducen la capa
límite y las trazas de turbulencia que pudieran quedar.
El aire llega entonces a la cámara de ensayo
que es donde se coloca el modelo a estudiar. A conti-
nuación se coloca otro difusor que evitará que se creen
turbulencias en la salida de la cámara de ensayos que
podría falsear los ensayos realizados en el túnel. Como
complementos se suelen colocar, además, una zona de
seguridad para detener posibles cuerpos desprendidos
y una zona de silenciador para reducir los ruidos del
túnel.
Resumiendo podemos decir que un túnel de
viento generalmente se compone de una máquina de
soplado o una de aspiración (que irán al principio y al
final del túnel respectivamente) para impulsar al aire,
de un difusor de gran ángulo seguido por una cámara
de acondicionamiento, un cono de contracción y la
cámara de ensayos. Después se colocará otro difusor y
como complementos pantallas de turbulencia, honey-
combs, silenciadores y zonas de seguridad.
Conclusiones
El túnel de viento es una herramienta de la que
todo investigador que preten-
da progresar debe disponer.
Cómo ya hemos comentado la
aerodinámica es un tema tan
complejo y tan amplio que es
todavía no se conoce del todo,
por lo que el túnel, al propor-
cionar un resultado visual y
palpable, se ha erigido como la
mejor posibilidad en donde
realizar los ensayos y las hipó-
tesis que el investigador haya
elaborado.
REFERENCIAS Y BIBLIOGRAFÍA:
http://www.heraldo.es/
Dixon, S.L. (1978). Estudio bidimensional del flujo
en cascadas. Termodinámica de las
turbomáquinas. Madrid, España: Dossat, s.a.
Muñoz Torralbo, M., Valdés del Fresno, M.,
Muñoz Domínguez, M. (2001). Flujo
Bidimensional en turbocompresores axiales.
Turbomáquinas térmicas, fundamentos de diseño
termodinámico. Madrid, España: Sección de
Publicaciones de la Escuela Técnica de Ingenieros
Industriales. Universidad Politécnica.
31Nº09. Enero de 2016
Imagen 6. Ensayo de un prototipo en el túnel del Langley Research Center
Ref: http://www.fogonazos.es/
32. (discontinuidades). El tratamiento informático de esas
señales recogidas del terreno dará como resultado un
registro, que es necesario interpretar. De una manera
intuitiva se puede decir que se hace “una radiografía” al
terreno que tendrá que ser interpretada por un experto.
Es aquí donde reside su principal ventaja, ya que este
técnica nos proporcional un método fiable de estudio
del subsuelo sin necesidad de realizar movimientos de
tierras ni alterar las estructuras subyacentes.
El GPR, es capaz de detectar cambios en las propieda-
des electromagnéticas de los materiales del subsuelo, ya
que serán los parámetros que definen estas propieda-
des los que, juntamente con las características de la
onda emitida, determinarán la propagación de la ener-
gía por el medio.
El objetivo básico de este método de prospección es el
conocimiento de estructuras superficiales y la detección
de objetos enterrados. Aunque esta técnica es relativa-
mente nueva, han sido las décadas posteriores a los
años 70 las más fecundas en cuanto a la diversidad de
aplicaciones, desarrollo del método, tratamiento de
datos y fabricación de equipos, cuando Unterberger,
1974; Annan y Davis, 1976; Rubin y Fowler, 1977 lo
utilizan en investigaciones geológicas y de minería.
El georadar o
GPR (Ground
Penetrating
Radar) es una
técnica de
prospección
no destructiva
orientada al
estudio del
subsuelo su-
perficial.
Las aplicacio-
nes del georra-
dar son muy diversas y van desde la localización de
servicios enterrados (tuberías, cables, alcantarillado) a
la arqueología y minería. En España el uso de esta téc-
nica geofísica se ha dado a conocer por su uso en la
localización de restos humanos en investigaciones poli-
ciales y también por su participación en el hallazgo de
los restos mortales de Don Miguel de Cervantes en el
convento de las Trinitarias, en el centro de Madrid.
Esta técnica se basa en la emisión y propagación de
ondas electromagnéticas y en la recepción de las refle-
xiones que se producen en el terreno en profundidad
EL GEORRADAR , PRINCIPIO DE
FUNCIONAMIENTO Y APLICACIONES
ALVARO M. SÁNCHEZ GUISÁNDEZ. GRADUADO EN INGENIERÍA MINERA.
Imagen Nº1.
Técnicos utilizando el GPR en la Capilla del
Convento de las Hermanas Trinitarias.
Ref.:Globedia, ciencia y tecnología.
32 Nº09. Enero de 2016
33. utilizando para ello una antena transmisora. Son capa-
ces de medir con precisión el tiempo doble, de ida y
vuelta, de las ondas reflejadas en los límites entre mate-
riales con diferente permitividad dieléctrica.
Cuando la onda radiada encuentra heterogeneidades en
las propiedades electromagnéticas de los materiales del
terreno, parte de la energía se refleja hacia la superficie
y otra parte se transmite, alcanzando mayor profundi-
dad. La imagen Nº4 muestra un esquema del proceso.
La señal reflejada es captada por una antena receptora
y, a continuación es, procesada y enviada a un disposi-
tivo de visualización. De esta manera se obtienen los
registros de georradar o “radargramas”, que son perfi-
les continuos de alta resolución.
La toma de datos con el georradar se realiza colocando
la antena hacia el suelo o superficie a estudiar y regis-
trando las reflexiones detectadas tras la emisión del
impulso electromagnético, obteniendo así una traza.
Al desplazar la antena sobre la superficie del terreno se
irán detectando y almacenando las distintas reflexiones.
De esta forma, el eje de abscisas de los radargramas, o
registros de georradar, representará el movimiento de
la antena en una determinada dirección, mientras que el
eje de ordenadas muestra el tiempo de retardo entre la
emisión del pulso y la detección de las reflexiones en la
superficie por parte de una antena receptora. Como la
señal ha de recorrer el camino de ida y de vuelta, lo que
se representa es el tiempo doble de reflexión, tal y co-
mo se muestra en la Imagen 2.
Después de los
años 80 se utiliza
para hacer análi-
sis de pavimen-
tos y materiales
de construcción
(hormigón) lle-
vadas a cabo por
Halabe, 1990;
Chung et al.,
1994; Saarenketo
et al., 1998; Ol-
hoeft, 2000; Lo-
renzo et al, 2001.
Otra línea de investigación desarrollada fue la de la ar-
queología. En ella se destacan los trabajos realizados
por Goodman, 1994; Carcione, 1996; Pérez-Gracia et
al, 2000; Da Silva et al., 2001; Lorenzo et al, 2002.
Principio de funcionamiento
El radar de subsuelo es un método geofísico de gran
versatilidad y rapidez para investigaciones a poca pro-
fundidad. Su principal característica es que permite de-
linear las interfases entre los diferentes materiales que
constituyen el subsuelo, siempre que exista suficiente
contraste entre las propiedades dieléctricas de las es-
tructuras involucradas.
Los equipos de georradar radian impulsos de energía
electromagnética de muy corta duración al subsuelo,
Imagen 2.
Representación del tiempo doble de reflexión.
La señal recorrer el camino de ida y de vuelta.
Imagen Nº3.
Diferentes tipos de georradar de la marca Noggin montados sobre diferentes plataformas. Ref: http://www.sensoft.ca/
33Nº09. Enero de 2016
34. entre la intensidad de campo magnético existente y la
inducción magnética que aparece en el interior de di-
cho material. La magnitud así definida, el grado de
magnetización de un material en respuesta a un campo
magnético, se denomina permeabilidad absoluta y se
suele representar por el símbolo μ:
Donde B es la inducción magnética (también llamada
densidad de flujo magnético) en el material, y H es la
intensidad de campo magnético. En la mayor parte de
los materiales que nos encontramos en los estudios con
georradar (excepto aquellos que contengan materiales
ferromagnéticos) se cumple que la permeabilidad mag-
nética se aproxima a 1, y por lo tanto no depende de la
frecuencia del campo magnético.
Constante dieléctrica:
La constante dieléctrica o permitividad relativa de un
medio continuo es una propiedad macroscópica de un
medio dieléctrico relacionado con la permitividad eléc-
trica del medio. El nombre proviene de los materiales
dieléctricos, que son materiales aislantes o muy poco
conductores por debajo de una cierta tensión eléctrica
llamada tensión de rotura. El efecto de la constante
dieléctrica se manifiesta en la capacidad total de un
condensador eléctrico o capacitor.
El equipo de
georradar puede
elegir el número
de impulsos que
emite, obtenién-
dose un numero
diferente de tra-
zas por segundo,
que será mayor
cuanto mayor sea
el número de im-
pulsos.
Los registros ob-
tenidos de esta manera son similares a los de sísmica de
reflexión. Otra forma de reconstruir la señal para su
representación es mediante ventanas de amplitudes.
Consiste en seleccionar un rango de amplitudes que
serán las que se representen, pudiendo darle diferentes
colores a cada una para ayudar a la visualización de las
diferentes capas (Imágenes 3 y 5).
En general, el método es similar a la sísmica de refle-
xión, y los fenómenos asociados con la propagación de
la energía son esencialmente los mismos, diferencián-
dose en el rango de frecuencias de las ondas utilizadas.
El georradar emplea ondas de frecuencias mucho ma-
yores que las utilizadas en sísmica, trabajando normal-
mente entre los 10 MHz y los 1000 MHz, mientras que
el rango de trabajo en prospección sísmica se sitúa en-
tre los 10 Hz y los 1000 Hz.
A diferencia de la prospección sísmi-
ca, en la cual son las propiedades me-
cánicas de los materiales las que rigen
la propagación de las ondas, con el
georradar, las propiedades determi-
nantes serán las electromagnéticas:
• Permitividad dieléctrica
• Conductividad
• Permeabilidad magnética
Las reflexiones se producen debido a
los contrastes de estas propiedades,
que a continuación se definen.
Permeabilidad magnética:
Es la capacidad de una sustancia o
medio para atraer y hacer pasar a tra-
vés suyo los campos magnéticos. Esta
capacidad está dada por la relación
Imagen Nº4. Representación esquematizada del funcionamiento de un sistema GPR.
34 Nº09. Enero de 2016
Imagen Nº3.
Registro del tipo sísmica de reflexión.
35. Cuando entre los conductores cargados o paredes que
lo forman se inserta un material dieléctrico diferente
del aire (cuya permitividad es prácticamente la del va-
cío) la capacidad de almacenamiento de la carga del
condensador aumenta.
De hecho la relación entre la capacidad inicial Ci y la
final Cf viene dada por la constante eléctrica K:
La permitividad dieléctrica proporciona una medida de
capacidad de polarización de un material en presencia
de un campo eléctrico. Proporciona un valor de la res-
puesta estática del material cuando está en presencia de
un campo eléctrico externo.
Resistividad y conductividad:
Se le llama resistividad al grado de dificultad que en-
cuentran los electrones en sus desplazamientos. Se de-
signa por la letra griega rho minúscula (ρ) y se mide en
ohm por metro (Ω•m, a veces también en Ω•mm²/m).
Su valor describe el comportamiento de un material
frente al paso de corriente eléctrica, por lo que da una
idea de lo buen o mal conductor que es. Un valor alto
de resistividad indica que el material es mal conductor
mientras que uno bajo indicará que es un buen conduc-
tor.
La conductividad de un medio nos proporciona una
medida de la respuesta de sus cargas libres en presencia
de un campo eléctrico externo, siendo el factor de pro-
porcionalidad entre el campo libre aplicado y la densi-
dad de volumen de corriente debido al movimiento de
estas cargas libres.
Las unidades de medida de la conductividad en el siste-
ma internacional, (SI), son mhos/metro o el equivalen-
te de Siemens/metro. La conductividad de un medio es
la inversa de su resistividad.
Atendiendo a
este parámetro se
pueden distin-
guir:
Materiales con-
ductores: Mate-
riales con valores
para la conducti-
vidad mayores de
105 S/m.
Materiales semi-
conductores: Ma-
teriales con valores para la conductividad entre 10-8 S/
m y 105 S/m.
Materiales aislantes: Materiales con valores para la con-
ductividad menores de 10-8 S/m.
El contenido de agua de los materiales y la composi-
ción química de los mismos, determinan su conductivi-
dad. La temperatura también afecta a la conductividad,
pues afecta directamente a la movilidad de los iones del
material (conductividad electrolítica).
En general, la conductividad es un parámetro que pue-
de variar, en un mismo medio, ya que no depende solo
de los cambios de materiales del medio.
A continuación se describen brevemente los compo-
nentes fundamentales de un equipo de georradar.
Componentes de un equipo de Georradar
En esencia un equipo de georradar lo forman los si-
guientes componentes:
• Unidad central
• Antenas: emisora y receptora
• Dispositivo de visualización
• Batería
• Software de gestión
Imagen Nº5.
Registro del tipo ventana de amplitudes.
35Nº09. Enero de 2016
El radar de subsuelo es un método geofísico de gran versatilidad y rapidez para
investigaciones a poca profundidad
36. en el terreno y el elemento no sea detectado.
Por tanto la elección de la antena requiere de una co-
rrecta planificación y de un conocimiento del medio
geológico en el que se va a desarrollar el estudio.
Dispositivo de visualización
Puede tratarse de un monitor o de una impresora capaz
de ofrecer un registro continuo. Lo habitual en la ac-
tualidad es la visualización del registro a través de la
pantalla de un ordenador portátil que, además, sirve
también de soporte para el software que gestiona el
equipo.
Batería
Es un elemento imprescindible, ya que almacena la
energía que alimenta el sistema. Al ser el georradar un
equipo portátil, lo fundamental para este elemento es
que tenga poco peso y unas dimensiones lo más redu-
cidas posible.
Software de gestión
El software hace de traductor de los datos que recibe
del georradar para poder visualizarlo en la pantalla del
ordenador. También nos permite configurar los distin-
tos parámetros de la unidad central.
En general, y como conclusión se describen las venta-
jas que ofrece este sistema de investigación:
No destructivo: no es necesario romper ni perforar el
material para rastrear lo existente en el subsuelo. Evi-
tando los daños en las infraestructuras localizadas.
Rápido: disposición de la información sobre la posi-
ción exacta de la superficie estudiada, obteniendo la
información en tiempo real.
Unidad central
Controla y ali-
menta las ante-
nas, y procesa las
señales que reci-
be de la antena
receptora. En
esta unidad tam-
bién se elige la
ventana de tiem-
pos requerida
para cada trabajo,
así como el nú-
mero de mues-
tras por segundo necesarias para reconstruir la traza de
la señal. Sobre la unidad central suele actuar un softwa-
re que gestiona todos los parámetros del equipo.
Antenas
Las antenas de emisión-recepción son una parte funda-
mental del equipo de Georradar, su misión es la de ge-
nerar impulsos de muy corta duración que son envia-
dos hacia el interior del terreno para tratar de detectar
las reflexiones que se produzcan en las discontinuida-
des presentes en el interior del subsuelo. En su interior
se encuentran los circuitos encargados de recomponer
el conjunto de reflexiones habidas en una sola traza
con las órdenes recibidas de la unidad central. Pueden
estar integradas en la unidad central o bien ir montadas
sobre un soporte independiente.
En la figura X se puede ver una tabla con las antenas
más comunes.
En la tabla se puede observar que cada frecuencia im-
plica una resolución mínima y un rango de penetración.
Para su correcta elección hay que tener en muy en
cuenta el tamaño y la profundidad a la que es posible
que se encuentre el elemento a detectar, ya que si el
objeto es muy pequeño puede pasar desapercibido a las
señales del georradar y, si se encuentra a mucha pro-
fundidad, puede que la señal no penetre lo suficiente
Imagen Nº 6.
Tabla con las características de las antenas más
comunes.
36 Nº09. Enero de 2016
“La elección de la antena requiere de una correcta planificación y de un conocimiento del
medio geológico en el que se va a desarrollar el estudio”
37. el subsuelo, con suficiente contraste entre sus propie-
dades electromagnéticas. Destacable es también su ver-
satilidad ya que puede ser utilizado sobre gran variedad
de materiales (desde el hielo al hormigón)
Exacto: determinación de la profundidad y posición
con exactitud.
Versátil: esta tecnología es aplicable a la detección de
los objetos más diversos:
Oquedades
Fallas
Rocas
Tuberías plásticas y metálicas
Cimentaciones
Cables, etc.
Fiable: la sensibilidad y resolución de los equipos per-
miten localizar los servicios con gran fiabilidad.
0
Por tanto, el georradar o GPR (Ground Penetrating
Radar) se muestra como un método geofísico que des-
taca por ser extremadamente versátil y rápido para in-
vestigaciones a poca profundidad.
La principal característica de este método es la capaci-
dad para delimitar las interfases, transiciones o discor-
dancias entre los diferentes materiales que constituyen
Imagen Nº7 . Equipo de georradar aplicado a la prospección en nieve..
Ref.: http://www.geophysical.com
REFERENCIAS Y BIBLIOGRAFÍA:
Lorenzo, E. 1996. Prospección Geofísica de Alta
Resolución mediante Geo-Radar: Aplicación a
obras civiles. CEDEX.
Udias Vallina, A; Mezcual Rodríguez, J. 1997.
Fundamentos de Geofísica. Alianza Editorial.
http://www.geophysical.com
.http://www.sensoft.ca/
37Nº09. Enero de 2016
38. Definición
Un freno regenerativo, o KERS (kinetic energy reco-
very system), es un dispositivo que permite reducir la
velocidad de un vehículo transformando parte de su
energía cinética en energía eléctrica. Esta energía eléc-
trica es almacenada para su futuro uso.
El freno regenerativo en trenes eléctricos alimenta la
fuente de energía del mismo. En vehículos de baterías
y vehículos híbridos, la energía es almacenada en un
banco de baterías o un banco de condensadores para
un uso posterior.
El freno regenerativo es un tipo de freno dinámico.
Objetivo
El objetivo del presente artículo, es el de dar a conocer
al lector el funcionamiento y la tipología de sistemas
KERS que existen en la actualidad. Además, de mos-
trar las ecuaciones y el comportamiento de las distintas
tipologías de frenos regenerativos que se aplican a los
vehículos híbridos hoy en día.
A lo largo de este artículo se hará hincapié en los dis-
tintos tipos de KERS, según la manera en la que pro-
ducen la energía y la tecnología en la que se almacenan
esta energía.
KERS. FRENO REGENERATIVO APLICADO A
VEHÍCULOS HÍBRIDOS. TIPOLOGÍAS
ANTONIO FLORES CABANILLAS. INGENIERO INDUSTRIAL
38 Nº09. Enero de 2016
Imagen 1. The Millenworks/ Textron Light Utility Vehicle.
Ref:: ”www.ffi.no”