Biela 7.65REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONSTRUCCIÓN
AÑO 3
NÚMERO 14
JUNIO DE 2016
ISSN 2386-639X
14
9 772386 639006
Historia de los
motores
INGENIEROS Y MILITARES
El General Jiménez Alfaro y
su fábrica de vehículos
FASA Renault
Página 8
Página 4
Página 16
Página 12
Página 26
Página 22
Página 30
Página 46
Página 40
Página 52
Cubiertas Colgantes
Alumbrado inteligente
Reutilización de aguas resi-
duales
Materiales compuestos en
aeronáutica
Gran error: añadir agua al
hormigón
Cimentaciones Superficiales
Historia de los motores
Automatización de redes
Internet y su funcionamiento
Espectroscopio y el control de
calidad
Voladuras en interior
Visión Nocturna
Página 36
Página 56
2 Nº14. Junio de 2016
CONTENIDO
Biela 7.65 es el órgano de expresión del Centro de Formación IAE. info@ingenierosalejercito.com
Edita el Centro de Formación IAE. Cierre de la impresión y publicación en fecha 20 de mayo de 2016.
Dirección: L.T. de Garnez Consejo de Redacción: Juan González; Alvaro Manuel Sanchez; Álvaro Titos ; José Emilio Fernández; Iván García ; Raquel Hernández; Jose Maria Lozano ;
Francisco Navarro; Joaquín Toro; Antonio Climent; Rebecca Renuncio; Jorge Peña; Francisco Escamez; Marcos Cerdán; Miguel Silva; José Vicente Jurado; Alejandro Larruy; Pablo Alonso;
Alberto Martín; Antonio Flores; Marta Sanz del Burgo; Fernando Martel; Yeray Estévez; Adrian Quijada; Sergio Hurtado; Adrián Jiménez; Juan Manuel Alfaro; Alfonso Rojo; Andrés Siñeriz;
Pablo Escribano ; Mikel Meno; Juan José Espinosa; Marta Bartolomé; Rocío B. Higueras ; José Manuel Ibáñez Poveda; Iban Cabrera ; Carlos Mollá ; Pedro Manuel Vélez; Carlos Medrano;
Eduardo Baselga; Marcos Maldonado; Alejandro Gómez, Marta González, Laura García, Rubén Bonilla, Daniel Trujillo, Ángel Santos, Luis Manuel Delgado, Diego Fernández, Miriam Cle-
mente, María Fernández, Victor García, Rebeca Rosado. Secretaría del Consejo de Redacción: Félix-Álvaro Pajares. Paseo de las Delicias. Madrid. Imprime: Centro de Impresión DaBe
Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción.
Página 64
Página 60
Materiales del futuro
Cerramientos fotovoltaicos
Problemas en el reciclaje de sis-
temas renovables de energía
Página 68
Página 72
Fracking
Ahorro de combustible en
aviación
Página 76
Sistema de detección de
Peatones
Página 88
Página 82
Optimización de células solares
fotovoltaicas
Página 94
3Nº14. Junio de 2016
El acueducto de Segovia
Ingenieros y Militares:
El General Jiménez-Alfaro y
sus vehículos FASA Renault
Página 98
El endurecimiento del hormigón se produce por una
reacción química que necesita de unas determinadas
proporciones de componentes, es
decir, determinada cantidad de
agua para una cantidad concreta
de cemento (u hormigón). Ni
más cantidad, ni menos. La justa.
Si hay más cantidad de agua que la
necesaria para la reacción química,
el agua sobrante acabará evapo-
rando, dejando huecos que acaba-
rán siendo poros en el hormigón
que disminuirán la resistencia y
por donde puede entrar el aire
exterior y provocar con el tiempo
la oxidación de los armados.
Por otro lado, si la cantidad de
agua es menor de la necesaria para
que se produzca la reacción quí-
mica, ésta no culmina, no se endu-
rece todo el cemento porque no
tiene suficiente agua para poder
reaccionar y por lo tanto no alcan-
za la resistencia esperada.
Ambos casos son malos para el
hormigón, un material mucho más
delicado de lo que nos pensamos.
¿Cómo puede faltar agua en el hormigón?
Básicamente hay dos razones por las que acabe faltan-
do agua para conseguir el endurecimiento completo del
hormigón.
- No se ha añadido suficiente agua
durante el amasado. Muy impro-
bable si el hormigón está fabricado
en una planta, pues son procesos
informatizados y muy controlados.
- Que se pierda agua durante el
proceso de ejecución y endureci-
miento del hormigón en obra.
Esto se produce debido a la eva-
poración que puede sufrir el agua
del hormigón por el calor que pue-
da hacer o el viento, que irá eva-
porando las capas superiores de
agua y disminuyendo la cantidad
que queda para reaccionar con el
cemento y endurecer. Esto es lo
que solucionaremos gracias a rea-
lizar un correcto curado del hor-
migón.
Se ve la tremenda importancia del
curado del hormigón. Pero por
otro lado, puede ser que exista
agua en exceso y suele ocurrir por
añadir agua.
¿Añadir agua al hormigón?
Existe una costumbre/manía a pie
de obra que daña el hormigón y
los operarios ejecutan con toda la
fe, como algo normal, lógico y beneficioso; añadir agua
al hormigón.
GRAN ERROR: AÑADIR AGUA AL HORMIGÓN
ANTONIO CLIMENT ALÓS. ARQUITECTO TÉCNICO.
4 Nº14. Junio de 2016
Imagen 1. Momento de vertido del hormigón desde la cubeta
del camión hormigonera.
Fuente: www.nuevaingieneria.com
Imagen 2. Coqueras existentes como un mal vibrado y por
tanto, existiendo un aire embebido en el hormigón.
Fuente: www.enriquealario.com
Dicho operario, posiblemente no ha sido formado para
la recepción y vertido de hormigón, sino que simple-
mente es lo que ha hecho siempre, de la misma mane-
ra, con los mismos vicios adquiridos de quien apren-
dió, que por supuesto tampoco nadie le había explica-
do esto.
El hormigón necesita una cantidad de agua concreta en
relación a una cantidad de cemento (dependiendo de
los usos, formas de trabajo, resistencia, impermeabili-
dad, durabilidad y exposición del mismo a agentes
agresivos; varia dicha relación) para que se produzca la
reacción química que hará que se endurezca.
Dicha cantidad de agua es tan sumamente importante,
que en su cálculo se tiene en cuenta la humedad de los
áridos de la composición, que pueden llegar a influir en
el resultado final, como tantos otros aspectos. Así
pues, se puede intuir la gran repercusión que puede
tener el añadir agua a pie de obra, en base a la propia
experiencia del operario en cuestión.
Si la masa tiene menos cantidad de agua de la necesaria,
hará que no todo el cemento reaccione y endurezca y
por lo tanto no alcance la resistencia esperada.
Pero ¿que ocurre cuando el hormigón tenía más agua
de la necesaria? ¿Qué consecuencias tiene para el hor-
migón el agua sobrante?
Consecuencias de añadir agua al
hormigón
Como se puede entender, el
agua sobrante, la que no ha
reaccionado no desaparece
“sin dejar rastro”; sino que
queda albergada en el interior
de la masa, de forma líquida y
obviamente con un resistencia
muy inferior a la del hormi-
gón, he aquí uno de los pro-
blemas (pero hay más).
A priori, puede parecer que
dicha agua no va suponer un
gran problema, además que
muchas ocasiones son peque-
ños huecos o incluso micros-
cópicos, pero la realidad es
que son suficientes para crear
zonas de baja dureza y reducir
la resistencia de la pieza en general. La fórmula resul-
tante que ronda esta situación es tan sencilla como cla-
ra: a mayor volumen de poros, menor volumen de ma-
sa de hormigón, que es al fin y al cabo la que tiene la
resistencia.
Por otro lado, se puede dar la complejidad que en vez
de quedar agua embebida en el interior de la masa, que-
de agua en contacto con las armaduras; y no es necesa-
rio entrar en grandes explicaciones para entender que
tarde o temprano se convertirá en un inicio de oxida-
ción, un inicio de degradación del elemento de hormi-
gón, siendo la estructura un elemento básico que debe
durar muchos años y debe hacerlo en las mejores con-
diciones posibles.
Imagen 3. Fisuras producidas por la rápida evaporación del agua que ha llegado hasta la superficie.
Fuente: www.enriquealario.com
Imagen 4. Imagen aumentada de la red capilar que se crea en el interior.
Fuente: www.acksol.com
5Nº14. Junio de 2016
(exudación) haciendo que la propor-
ción de agua disminuya drásticamente.
Evidentemente la resistencia en la su-
perficie del hormigón va a bajar y ade-
más esa agua que ha subido hasta la
superficie va a evaporarse tan rápida-
mente (dependiendo de las condicio-
nes climatológicas) que se producen
fisuras en la superficie del hormigón.
Llegados a ese punto, la porosidad del
elemento ha aumentado tanto interna-
mente como en su superficie, facilitan-
do así la entrada de los agentes agresi-
vos ambientales.
¿Por qué le añaden agua al hormigón?
En muchas ocasiones la fuente del problema esta en el
proyecto de la obra. Con tal de buscar mejores carac-
terísticas algunos proyectistas especifican un hormigón
los más seco posible, que nada más llegar a obra y ante
la dificultad de trabajar con el (poca trabajabilidad), el
operario a pie de obra añade agua, sin tener en cuenta
las consecuencias que esto conlleva.
En otras ocasiones simplemente es debido a la costum-
bre de añadir agua para que cuanto más fluido sea, en
aras de añadir facilidad y rapidez cuando se coloca,
gran ingrediente en trabajos a “destajo”.
Entonces ¿Qué hacer si el hormigón llega tan duro que no se
puede trabajar?
Ante las consecuencias anteriormente mencionadas,
sería idóneo que el proyectista tuviera en cuenta la tra-
bajabilidad, ayudándose del uso de aditivos que conser-
varan la relación agua/cemento pero que le dan mayor
fluidez a la masa (existen además: aceleradores del en-
durecimiento, retardadores de fraguado, incorporado-
res de aire, plastificantes, fluidificantes, superfluidifi-
cantes, etc.)
Dejando de lado el posible binomio agua-armaduras; el
agua que queda embebida dentro del hormigón tarde o
temprano acabará evaporando, dejando un hueco que
será ocupado por aire y se creará un poro.
Con el agravante que, si estos poros se van conectando
entre ellos y están en contacto con el exterior, se con-
vertirán en una vía de entrada de agentes ambientales,
lo que iniciará un proceso de degradación. Es lo que se
llama carbonatación del hormigón. Si la carbonatación
alcanza las armaduras se inicia la oxidación y más pron-
to que tarde precisará una reparación.
Los daños por carbonatación tienen también relación
con la profundidad a la que se encuentran los armados,
de ahí la importancia de utilizar separadores para ga-
rantizar que no se encuentran demasiado cerca de la
zona exterior del hormigón.
Sea como fuere, añadir agua al hormigón aumenta la
porosidad del mismo y por tanto disminuye la durabili-
dad y la resistencia.
Como en toda mezcla que se precie, lo más pesado
tiende a irse al fondo y lo menos pesado sube a la su-
perficie; por ello el exceso de agua subirá a la superficie
Imagen 5. Oxidación de las armaduras por la carbonatación del hormigó
Fuente: www.enriquealario.com
6 Nº14. Junio de 2016
“Añadir agua al hormigón aumenta la porosidad y por lo tanto se disminuye la durabilidad y
la resistencia. La relación entre cemento y agua se debe respetar siempre”
También puede suceder que la consistencia con la que
llega el hormigón sea diferente al solicitado, por cual-
quier causa (error de dosificación, trayecto, etc). Ante
esta situación, es claro que no se debe añadir agua, sim-
plemente se devuelve (no se debe tener reparos pese a
que parezca un decisión brusca).
Si a pesar de todo, el hormigón sigue siendo muy seco
(pero el correcto), solo queda una opción hay que colo-
carlo así. Se tardará más en colocarlo, habrá que utili-
zar más tiempo el vibrador, poner mayor cuidado en
que no queden coqueras, pero en ningún caso añadir
agua.
Como se ha dicho anteriormente, la simple acción de
coger una manguera y añadir agua al camión para que
el hormigón sea más fluido y más fácil de trabajar con-
lleva graves consecuencias.
De forma resumida se entiende que la simple y exten-
dida acción, de añadir agua al hormigón a pie de obra,
ya sea porque es muy seco, porque hace calor, por cos-
tumbre de añadir agua, por la necesidad de acabar
pronto y cuanto más fluido sea mejor; se sabe que:
 Disminuye la resistencia
 Aumenta la porosidad
 Disminuye la durabilidad
 Favorece la carbonatación
 Empeora el anclaje de las
armaduras
 Se produce una figuración
superficial
 Facilita la oxidación de las
armaduras
 Baja también la dureza su-
perficial
Quizá hay veces en que algunos
“profesionales” piensan en termi-
nar rápido su trabajo para cobrar y
a otra obra, sin importar la calidad
del mismo. Si por razón de la pro-
fesión que cada cual debe desem-
peñar, se debe controlar dicha ac-
ción, hay que saber actuar en con-
secuencia y que estas personas de-
jen de realizar dichas prácticas
erróneas, hasta que no ejecuten su
actividad de la misma forma que lo
hacen los buenos profesionales.
Esta no es una acción aislada, que con la correcta eje-
cución ya se obtiene un buen hormigón. Una estructu-
ra de hormigón armado requiere una gran profesionali-
dad, desde las personas que proyectan y eligen el tipo
hasta los operarios que lo colocan.
Por ello cabe recordar, que existen otras malas prácti-
cas muy extendidas, como lo son: utilización de separa-
dores incorrectos, hormigonar en tiempo excesivamen-
te fríos o calurosos, hormigonar desde una altura exce-
siva, vibrar el hormigón en exceso o en escasez, no
realizar el curado de forma correcta, etc. Existen una
serie de actividades a realizar adecuadamente, disfruten.
REFERENCIAS Y BIBLIOGRAFÍA:
- w w w . u p v . e s / m a t e r i a l e s / F c m / F c m 1 4 /
pfcm14_3_1.html
-www.construccionesmalaga.com/la-importancia-del-
agua-en-el-hormigon/
-www.acaceres.addr.c om/student_access/
RelacionAguaCemento.pdf
- Efecto de la variación agua/cemento en el
concreto .Tecnología en Marcha, Vol. 25, N.° 2, Abril-
Junio 2012
7Nº14. Junio de 2016
Imagen 6. Fisuras y pérdida de material en el anclaje de las armaduras, debido a un mal vibrado y movimientos
durante su ejecución, siendo necesario una reparación para evitar males mayores.
Fuente: www.enriquealario.com
En casos especiales de grandes
construcciones y/o de muy baja
capacidad portante del suelo,
puede ser interesante el empleo
de hormigones de mayores resis-
tencias.
A veces se emplean los términos
“ i n f r a e s t r u c t u r a ” y
“superestructura” para designar
respectivamente a la cimentación
y al resto de la estructura, pero
constituyen una terminología
confusa. El terreno, estrictamente
hablando, es también un material
de construcción, pero presenta
con todos los demás una diferen-
cia importante y es que no ha
sido elegido
por el téc-
nico. Las
posibilida-
des de cam-
biarlo son
casi siem-
pre pocas y
únicamente
podemos,
en ocasio-
nes, modi-
ficar alguna
de sus pro-
piedades. Rara vez es económica
la sustitución.
Por ello, es la cimentación la que
habrá de proyectarse de acuerdo
con el suelo y en muchos aspec-
tos la selección y la disposición
de la propia estructura vendrá
también condicionada por él.
La iteración suelo-cimiento es
importante para el cálculo de la
cimentación y a su vez depende
fuertemente de las deformabilida-
des relativas del suelo y del ci-
miento. Desgraciadamente nues-
tros conocimientos sobre el
cálculo de esas deformaciones
son escasos todavía.
Introducción
El cimiento es aquella parte de la
estructura encargada de transmi-
tir las cargas actuantes sobre la
totalidad de la construcción al
terreno. Dado que la resistencia y
rigidez del terreno son, salvo ra-
ros casos, muy inferiores a los de
la estructura, la cimentación po-
see un área en planta muy supe-
rior a la suma de las áreas de to-
dos los pilares y muros de carga
Lo anterior conduce a que los
cimientos sean en general piezas
de volumen considerable, con
respecto al volumen de las piezas
de la estructura. Los cimientos se
construyen habitualmente en
hormigón armado y, en general,
se emplea en ellos hormigón de
calidad relativamente baja (25
MPa de resistencia a 28 días), ya
que no resulta económicamente
interesante el empleo de hormi-
gones de resistencia mayores. Sin
embargo, debe prestarse atención
a que una baja exigencia en cuan-
to a resistencia no conduzca a un
bajo contenido de cemento, que
suponga riesgos de durabilidad.
CIMENTACIONES SUPERFICIALES
ÁLVARO TITOS LÓPEZ. GRADO EN INGENIERÍA MECÁNICA
8 Nº14. Junio de 2016
Imagen 1. Cimentaciones superficiales en obra. Civilgeeks.com
Todo ello acentúa la necesidad de
una especial prudencia y cuidado
tanto en la concepción como en
el cálculo y los detalles al proyec-
tar y construir cimentaciones. La
durabilidad de estos elementos
debe ser muy especialmente con-
siderada en el proyecto, en la se-
lección de materiales y en la eje-
cución, ya que en cualquier fallo
no será observable, en la mayoría
de los casos, hasta no alcanzar
una elevada importancia.
Fases
En el proyecto de una cimenta-
ción se distinguen tres fases de
estudio a saber:
1. Recogida de datos.
Modelo estructural
En el modelo estructural que el
proyectista plantea, los apoyos
de estructura se suponen, nor-
malmente, empotramientos per-
fectos. En base a esto, se dimen-
siona la estructura y se calculan
las cargas que la misma va a ejer-
cer sobre el terreno. El objetivo
de las cimentaciones es asegurar
que el
terreno es capaz de soportar di-
chas cargas. Además se debe ga-
rantizar que también soportará
las cargas sísmicas que establezca
la normativa, entre otros factores.
Por último debemos asegurarnos
de la durabilidad de las cimenta-
ciones, es decir, que garanticen
las condiciones mencionadas an-
teriormente durante el periodo de
vida de la estructura.
Frecuentemente, se piensa que
esa falta de conocimientos es im-
portante en lo que se refiere al
suelo, pero que en lo referente a
la estructura nuestros métodos de
cálculo son satisfactorios. Eso no
es así y la parte relativa al cálculo
de las deformaciones en las es-
tructuras de hormigón es todavía
insuficientemente conocida.
Por otra parte, con frecuencia las
estructuras de cimentación son
altamente hiperestáticas, y su
cálculo preciso resulta muy com-
plejo y raras veces es posible. El
ordenador ha venido a suminis-
trar una grana ayuda para bastan-
tes casos, pero no debe olvidarse
que el conocimiento, todavía im-
perfecto de las características de
suelos, de las del material hormi-
gón, y de las piezas de hormigón
estructural, hacen ilusorio el pre-
tender una gran precisión en los
cálculos.
Por todo ello, el proyectista de
cimientos ha de ser estrictamente
cuidadoso con los métodos de
cálculo que elija y especialmente
prudente al aplicarlos. En
ese sentido, el proyectista
no debe olvidar que las
cimentaciones usuales es-
tán ocultas y formadas por
piezas generalmente muy
rígidas comparadas con las
de la estructura. Por tanto,
el fenómeno de la fisura-
ción, que es un excelente
síntoma de aviso propio
de las estructuras de hor-
migón, no es observable
en los cimientos. Tampo-
co las deformaciones de
un cimiento excesivamen-
te solicitado suelen ser tan
importantes como para
construir un síntoma de aviso. Imagen 3. Diferencia entre cimentación superficial y cimentación profunda.
www.cuadernosdederechoparaingenieros.com
9Nº14. Junio de 2016
Imagen 2. Empotramientos perfectos como base de la
estructura.
de datos suficientes sobre la tipo-
logía de la estructura a cimentar,
cargas, separación entre pilares,
sótanos, etc. Es decir, el informe
geotécnico se elabora a posteriori
del modelo estructural.
2. Determinación de las pre-
siones admisibles
En base a lo obtenido en la pri-
mera fase, se determina la pre-
sión de hundimiento. La presión
de hundimiento es análoga al lí-
mite elástico de un material.
Una vez se ha determinado la
presión de hundimiento, median-
te una serie de coeficientes de
seguridad se determina la presión
admisible de trabajo.
Dichos valores se
obtienen a partir de
una serie de facto-
res, como pueden
ser el módulo elásti-
co del suelo, la re-
sistencia del suelo a
esfuerzos cortantes,
la profundidad del
nivel freático, los
asientos diferencia-
les permitidos, peso
específico del suelo,
deformabilidad…
3. Diseño estruc-
tural
Una vez se ha de-
terminado la pre-
sión admisible de
trabajo, y siempre teniendo en
cuenta el entorno en el que se
sitúa la obra: coste de los mate-
riales y la mano de obra, cargas a
las que está sometida la estructu-
ra, características del terreno…
Se pretende buscar una cimenta-
ción con un coste mínimo que
garantice la seguridad de la es-
tructura. En base a este criterio,
se pueden plantear principalmen-
te dos tipos de cimentaciones:
superficiales (o directas) y pro-
fundas.
La distinción entre cimentación
superficial o profunda viene dada
por la cota sobre la que se cons-
truye la misma. Se puede estable-
cer, a modo orientativo, una pro-
fundidad límite de unos 6 metros,
por debajo de la cual se conside-
rará cimentación
profunda, mien-
tras que por en-
cima de la mis-
ma se denomi-
nará cimenta-
ción superficial.
Dado que el
presente artículo
trata de cimenta-
ciones superfi-
ciales, nos cen-
traremos en es-
tas, ya que son
las más comu-
nes en obra civil
de baja y media
importancia.
Informe geotécnico
Los resultados de la investigación
geotécnica se recogen en el infor-
me geotécnico, que deberá conte-
ner datos suficientes para:
 Elegir el tipo de cimenta-
ción más adecuada y los
métodos constructivos.
 Fijar el nivel o los niveles
de apoyo de los cimientos
o las condiciones para esta-
blecerlos con precisión
durante el transcurso de las
obras.
 Determinar las presiones
admisibles, en caso de ci-
mentaciones directas, o en
las resistencias por fuste y
por punta, en el caso de
pilotajes (cimentaciones
profundas).
 Estimar la magnitud de los
asientos.
 Adoptar medidas que evi-
ten posibles daños estruc-
turales por agresividad al
hormigón o expansividad,
colpasabilidad de suelos,
etc.
 Establecer los procedi-
mientos de excavación y
dimensionamiento de mu-
ros, pantallas u otros ele-
mentos de contención de
tierras.
Para poder dar respuesta a todos
estos aspectos se debe disponer
10 Nº14. Junio de 2016
“El objetivo de las cimentaciones es asegurar que el terreno es capaz de soportar dichas
cargas. Además debe garantizar que también soportará las cargas sísmicas que establezca la
normativa, entre otros factores.”-
Imagen 4. Tipos básicos de cimentaciones superficiales.Calavera Ruiz,
J. Cálculo de Estructuras de Cimentación
si ocurre lo contrario.
Dicha distinción se establece para
determinar que teoría estructural
se emplea en el dimensionamien-
to del elemento. Se supondrá que
una zapata flexible cumple los
requisitos para considerarla ele-
mento esbelto, y, por tanto, se
estudiará de acuerdo a la teoría
general de flexión. Para el caso
contrario, se deberá emplear la
teoría de bielas y tirantes.
Para el dimensionamiento de la
zapata, habrá que determinar pri-
mero la distribución de tensiones
en el terreno. Dicha distribución
dependerá del tipo de terreno y
de la propia zapata.
Distribución de presiones bajo
una zapata
Las distribuciones de tensiones
empleadas en la práctica, que son
simplificaciones (del lado de la
seguridad) de las reales, pueden
ser uniformes o lineales. Dentro
de las lineales se distinguen
las trapeciales y las triangu-
lares, dependiendo de la
excentricidad de la carga.
El diseño que realicemos
debe cumplir dos requisi-
tos. Por un lado, la zapata
debe resistir las cargas que
el terreno y el pilar aplican
sobre esta. Por otro lado, el te-
rreno debe resistir las cargas que
actúan sobre este. Por establecer
un método para el dimensiona-
miento de las zapatas, podríamos
plantear lo siguiente:
- Se dimensiona el área de cimen-
tación con el criterio de que la
presión máxima que la zapata
ejerce sobre el terreno sea menor
a 1.25 veces la presión admisible
de trabajo, determinada en la fase
número dos.
- Se diseña una zapata con un
canto tal que tan sólo sea necesa-
ria armadura de tracción, en la
parte inferior de la misma, siendo
recomendable un canto mínimo
de 30 cm.
- Se realizan las comprobaciones
pertinentes, como son compro-
bación al vuelco, volver a calcular
la carga que transmite la cimenta-
ción al terreno incluyendo en
peso propio de la zapata, com-
probaciones a cortante, flector,
etc…
En cuanto a las cimentaciones
profundas, simplemente comen-
tar que pueden ser de hormigón
armado o pretensado; por lo ge-
neral son más costosas y que, en
el caso de ser estructuras de hor-
migón pretensado prefabricado,
estas se hincan en el terreno con
empleando una maquinaria in-
mensa.
Dentro de las cimentaciones di-
rectas, se distinguen dos tipos:
zapatas y losas. Generalmente se
emplearán zapatas, salvo en aque-
llas situaciones que sea preferible
económicamente la cimentación
por losas.
Zapatas
La instrucción del hormigón es-
tructural (EHE-08) y práctica-
mente la totalidad de los textos
que tratan este tema distingue
dos tipos de zapatas: rígidas y
flexibles. Una zapata se conside-
rará rígida si el vuelo máximo de
la misma es menor que dos veces
el canto, y se considerará flexible
11Nº14. Junio de 2016
Imagen 5. Principales tipos y subtipos de cimentaciones. Galería de imágenes de la asignatura Hormigón
Armado de la EPS UJAEN.
REFERENCIAS Y BIBLIOGRAFÍA:
- García Meseguer, Álvaro; Morán Cabré, Francisco; Arroyo Portero, Juan Carlos. Jiménez Montoya Hormigón
Armado. ED. Gustavo Gil 15º Edición. (2009)
- EHE-08 (2008) Instrucción de Hormigón Estructural. Ministerio de Fomento.
- Apuntes de la asignatura ‘Hormigón Armado’. De Borja Varona Moya, F.; López Júárez, J.A. Escuela politécnica
superior de Alicante
- Calavera Ruiz, J. Cálculo de Estructuras de Cimentación. Ed.: Intemac. 4º Edición Madrid (2000)
- Código Técnico de la Edificación (CTE). Documento básico de Seguridad estructural. Cimientos (SE-C). 2006
Si hiciésemos una encuesta sobre cuál fue el
primer coche de la historia, muchos (si no la mayoría)
de los encuestados responderían diciendo que fue el
Ford A allá por el 1903. Siendo así,
la mayoría de los encuestados habría
contestado incorrectamente confun-
dida por un error común, el Ford A
fue el primer automóvil fabricado en
serie. El primer automóvil movido
por un motor de combustión inter-
na (MCI) del que se tiene registro es
el patentado por Karl Benz en 1886.
Sin embargo, y como es
lógico, antes de que apareciese el
primer coche movido por un MCI,
éstos ya llevaban un tiempo desa-
rrollándose. El primer motor tal y
como lo entendemos ahora aparece-
ría en 1876 de la mano de Nicolaus
Otto. Los motores Otto no fueron
la primera piedra en el camino de
los MCI, pues ya antes se habían
desarrollado las máquinas de vapor
y otros motores de combustión in-
terna, pero sí que marcaron la estra-
tegia de los desarrollo futuros de los
MCI en una dirección con respecto
a la cual apenas existieron variacio-
nes.
Hemos mencionado otros
motores anteriores al de Otto. El
primero de todos ellos es sin duda
el desarrollado por Lenoir en 1860. Consistía en un
monocilindro de dos tiempos sin compresión previa de
la mezcla, formada por gas de hulla y aire. Este motor
era muy ruidoso y con tendencia a sobrecalentarse y
gripar si no se refrigeraba intensamente. Tenía un bajo
rendimiento por la ausencia de compresión previa y
por la pequeña relación de expansión.
En vista de los fallos del modelo de Lenoir el
siguiente motor, el de cuatro tiempos
de Beau de Rochas, trató de solivian-
tarlos introduciendo una compresión
de la carga antes de la combustión.
Aunque no llegó a fabricar ninguno,
Beau de Rochas sentó las bases del
motor que luego llevaría a la práctica
Nicolaus Otto.
Por su parte, en 1864, Otto se
asociaba con Eugen Langen y fundaba
la compañía Gasmotorenfabrik Deutz
AG en donde también trabajaron los
alemanes Daimler y Maybach. Otto
comenzó operando con motores de
gas sin compresión previa al igual que
Lenoir, pero en 1876 patentó su mo-
tor de cuatro tiempos. Sus competido-
res le acusaron de plagiar a Beau de
Rochas pero en algunos países como
Reino Unido y EEUU su patente fue
aceptada al no haber llegado el francés
a construir el motor.
Los mencionados Daimler y
Maybach, que se habían separado de
Otto en 1882 por desavenencias con
él, solicitaron en 1884 una patente
para lo que llegó a conocerse como
motor de cabeza caliente, siendo un
motor a medio camino entre el motor de Otto y el de
Diesel posterior.
Según el propio Daimler, el motor se regía por
el siguiente principio:
‘‘Las paredes del espacio A adquieren, a las pocas
HISTORIA DE LOS MOTORES
ALFONSO ROJO LAHUERTA. INGENIERO INDUSTRIAL
12 Nº14. Junio de 2016
Imagen. 1 Nicolaus Otto
Ref: www.ecured.cu
Imagen 2. Rudolf Diesel
Ref: www.quotationof.com
repeticiones de dicho juego, una temperatura normal algo elevada,
la cual, unida al efecto de la compresión, produce con regularidad
la inflamación de la mezcla en, o alrededor del punto muerto
superior de curva del pistón, según el principio confirmado por la
experiencia, de que mezclas combustibles, las que bajo presión
puramente atmosféricas no se inflamarían o quemarían con lenti-
tud, al ser comprimidas rápidamente, queman, no solamente con
rapidez, sino hasta hacen explosión’’
Decimos que es algo a medio camino entre los
motores Otto y los de Diesel porque aunque al igual
que en éstos el encendido se realiza por compresión,
ésta se hace sobre la mezcla aire combustible, siendo
en el Diesel únicamente sobre el aire.
Rudolf Diesel nació en París de padres alema-
nes. Desde sus inicios tuvo claro que quería mejorar el
rendimiento del ciclo Otto acercándolo lo máximo po-
sible al ciclo de Carnot. Para ello quería mantener
constante la temperatura durante las primeras fases de
compresión y, sobre todo, de expansión. Con este ob-
jeto pensó en inyectar el combustible en la cámara en
al mismo tiempo en que éste se quemaba con una ley
de inyección que mantuviese constante la temperatura
compensando el calentamiento de la combustión con
el enfriamiento de la expansión. Por esta razón varió el
planteamiento de Daimler comprimiendo sólo aire. La
idea se completaba refrigerando la primera mitad de la
carrera de compresión mediante inyección de agua. A
las compresiones y expansiones isotermas seguían las
compresiones y expansiones isentrópicas respectiva-
mente. De esta manera conseguía acercarse sustancial-
mente al pretendido ciclo ideal de Carnot consiguiendo
elevar los rendimientos de entre 6 y 10% de unas má-
quinas de vapor no tan antiguas a un sorprendente
26%, valor muy elevado para la época pero lejos aún
del 80% que pretendía alcanzar por el ciclo de Carnot.
Su muerte en 1913 durante una travesía al atravesar el
Canal de la Mancha cuando se dirigía a trabajar en In-
glaterra en vísperas de la Primera Guerra Mundial trun-
có su objetivo.
Gracias a Nicolaus Otto y a Rudolf Diesel se
habían sentado las bases de lo
que luego se conocería como
Motores de Encendido Provo-
cado (MEP) y de Encendido
por Compresión (MEC). Una
vez esbozados los primeros
motores de ambos tipos las
mejores no tardaron en suce-
derse de la mano de muchos
investigadores. Éstas muchas
veces han sido exclusivas para
uno de los dos tipos de moto-
res, entre las que caben desta-
car el método de encendido y
formación de la mezcla en los
MEP y los sistemas de inyec-
ción en los MEC. Otros avan-
ces como la sobrealimenta-
ción, el posicionado de la vál-
vulas, el control electrónico y
Imagen 3. Motor de Lenoir
Ref: www.britannica.com
Imagen 4. Daimler y Maybach
Ref: blog.ridenroad.com
13Nº14. Junio de 2016
Merece la pena detenerse en
algunos elementos debido a la gran
importancia que tuvieron.
Sobrealimentación
Básicamente existen dos for-
mas de sobrealimentar un motor, por
medio de compresores accionados por
el motor (sobrealimentación mecánica) y
por medio de un compresor accionado
por una turbina movida por los gases
de escape (turboalimentación). La apari-
ción de la mecánica se debió, princi-
palmente, a los trabajos de Daimler y
Renault (1885 y 1902). Büchi, por su
parte, fue el que promovió la turboali-
mentada (1905).
En un principio tuvieron mucha más impor-
tancia las mecánicas llegando a ser claves en los avio-
nes de la Primera Guerra Mundial. Sin embrago desde
que General Motors introdujo en el mercado en 1962
los primeros motores de gasolina turboalimentados su
importancia y estudio no ha dejado de aumentar hasta
suponer la casi totalidad en el caso de los motores Die-
sel.
Sistemas de formación de la mezcla en MEP
Aunque desde el principio ya se estudiaban
simultáneamente el carburador y los sistemas de inyec-
ción, no fue hasta la aparición del control electrónico
que éstas se impusieron al primero.
Al igual que en el caso anterior fue la aviación
la que ayudó a dar un empujón a los sistemas de inyec-
ción. A las ventajas iniciales del menor coste y gran
sencillez de los carburadores se opuso el problema de
que a elevadas alturas se congelaban y que al hacer
grandes giros parte del combustible se derramaba con
sus consecuentes peligros para la integridad del avión y
su tripulación.
Como sabemos los sistemas pueden ser de in-
yección directa o indirecta. La indirecta, que consiste
las mejoras en
lubricación, ma-
teriales y tecnolo-
gías de fabrica-
ción han sido de mucha utilidad a ambos.
A continuación se remarcan algunos de los
hitos más importantes:
1876: Primera patente de Otto
1885: Patente de Daimler de la sobrealimentación
1885: Primer carburador de Benz
1886: Primer automóvil con MCIA de Benz
1892: Motor Diesel
1905: Büchi patenta motor con turbocompresor
1909: L’Orange y Benz desarrollan la precámara de
combustión
1925: Inyección directa de gasolina por Hesselman
1927: Inyección en línea por Bosch
1933: Primer turismo Diesel por Citroën
1961: Inyección electrónica de Bendix
1962: Primera bomba de inyección por émbolo radial
1978: Primer turismo sobrealimentado por Mercedes
1995: Denso presenta el primer common rail
Imagen 5. Carburador de un automóvil:
Ref: spanish.alibaba.com
14 Nº14. Junio de 2016
El desarrollo de la inyección indirecta, de la electrónica y del catalizador de tres vías
condenó a los carburadores a su desaparición en los motores de cuatro tiempos
en la introducción del combustible antes de la válvula
de admisión y no directamente en el cilindro (inyección
directa), comenzó a desarrollarse en los 50. Su desarro-
llo, junto con la aparición de la electrónica y el cataliza-
dor de tres vías condenó a los carburadores a su desa-
parición en los motores de cuatro tiempos hacia finales
de los 70. Por su parte, la inyección directa hizo su apa-
rición en los 90 de la mano de Mitsubishi.
Sistema de inyección Diesel
Originalmente el combustible era inyectado,
atomizado, mediante aire comprimido por una tobera.
En 1927 Bosch revolucionó el mercado al fabricar la
primera bomba de inyección en línea que, junto con el
desarrollo de la precámara de combustión, permitió
aumentar enormemente la potencia suministrada por el
motor Diesel. A partir de ese momento la evolución
fue constante apareciendo mejoras como la bomba
rotativa.
El primer vehículo con common rail apareció en
1997 en el Alfa Romeo 156 1.9 JTD. A la vez que éste
se desarrollaron otros sistemas como el inyector bom-
ba y unit pump (compuesto por una bomba para cada
cilindro y un inyector mecánico o common rail ).
Sistemas de control de emisiones
Como todos sabemos la masificación del uso
del automóvil ha beneficiado al incremento en la con-
taminación atmosférica. Esto ha provocado la imposi-
ción de una reglamentación en lo referente a las emi-
siones que los motores deben cumplir. En un principio
fue suficiente con optimizar la combustión y emplear
catalizadores, pero el endurecimiento de las restriccio-
nes en los 80 forzó al desarrollo del catalizador de tres
vías. Este dispositivo, utilizado hasta la actualidad, im-
plicó la supresión del plomo en las gasolinas y la elimi-
nación del carburador, puesto que éste no podía con-
trolar de manera eficiente el dosado estequiométrico
necesario para la máxima eficiencia del sistema.
Como se puede observar el carburador, a pesar
de las mejoras que fue incorporando con los años, acu-
muló tantas desventajas ya mencionadas que terminó
por descartarse del todo excepto para motores de dos
tiempos.
Por el lado de los Diesel el post tratamiento de
los gases de escape no se hizo necesario hasta la llegada
del nuevo siglo. Los principales factores que les han
permitido cumplir
con la normativa
han sido la flexibili-
dad de los sistemas
de inyección, la re-
circulación de los
gases de escape
(válvula EGR) y la
utilización de la in-
yección directa en
motores de automó-
viles.
El post tratamiento
ha llegado en forma
de filtros de partícu-
las, de catalizadores
y mediante el SCR
(Selective Catalytic Re-
duction).
REFERENCIAS Y BIBLIOGRAFÍA:
- F. Payri; J.M. Desantes. Motores de combustión
interna alternativos. Valencia, España: Universidad
Politécnica de Valencia.
15Nº14. Junio de 2016
Imagen 6. Alfa Romeo 156 1.9 JTD
Ref: commons.wikimedia.org
AUTOMATIZACIÓN AVANZADA DE REDES
HIDRÁULICAS URBANAS
JUAN GONZÁLEZ GONZÁLEZ. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
recogida de aguas sanitarias resi-
duales.
De forma más detallada se pue-
den enumerar los propósitos de
la automatización como los si-
guientes:
- Mejora de la calidad del servi-
cio.
- Mayor seguridad y eficacia de
gestión.
- Flexibilidad de trabajo para
operarios y gestores.
- Incremento de velocidad de
respuesta ante requerimientos del
servicio o imprevistos.
- Disminución sustancial de los
costes de mantenimiento y ejecu-
ción.
- Control amplio de los paráme-
tros del proceso de distribución o
recolección del agua y simulacio-
nes en tiempo real.
- Aumento de la capacidad de
detección de fugas o averías.
- Almacenamiento de datos técni-
cos y auditorias económicas.
La automatización se vertebra
sobre un conjunto de tecnologías
de tipo informático, electrónico y
de telecomunicación que permi-
ten distintos niveles de control y
gestión de las instalaciones hi-
dráulicas.
ESTADIOS DE AUTOMATI-
ZACIÓN EN REDES HI-
DRÁULICAS
Estos sistemas se encuadran en
distintos niveles atendiendo al
grado de avance tecnológico y al
número de herramientas de las
que dispongan.
En un primer nivel se encuentra
la telemedida-telealarma consis-
tente en un sistema de recogida
de información desde unos pun-
tos concretos llamados localiza-
ciones de control de la red.
Vivimos en una época caracteri-
zada por los procesos de infor-
matización y modernización tec-
nológica que tienen lugar en casi
todos los ámbitos de la vida coti-
diana, las relaciones sociales, los
sectores económicos, la gestión
de recursos, la administración de
servicios y un largo etcétera.
Gran parte de los avances tecno-
lógicos están fundamentalmente
basados en el campo de las tele-
comunicaciones y la informática.
Tanto es así que las llamadas tec-
nologías de la información tienen
hoy en día una integración plena
en un gran conjunto de activida-
des de diversa índole y su imple-
mentación facilita en gran medida
el desarrollo de éstas.
En esta línea se pueden citar los
sistemas de automatización de las
redes hidráulicas cuyo objetivo es
la optimización y mejora de la
eficacia de los servicios de distri-
bución de aguas potables y de
16 Nº14. Junio de 2016
Esquema 1.Intercambio de información entre los componentes de la telegestión o sistema de automatización avanzada.
recorrido del agua tomando co-
mo referencia la información del
conjunto de instalaciones interre-
lacionadas y conectadas telemáti-
camente al CCO. A partir de
este control permanente de la red
y sus instalaciones se calculan
predicciones de situaciones futu-
ras. Esto conlleva una mayor se-
guridad ante imprevistos y una
forma de optimizar el rendimien-
to del conjunto tanto de la obra
civil como del servicio prestado.
Finalmente el estadio de máxima
envergadura es la telegestión. És-
ta integra el registro de datos e
información para su posterior
análisis en relación a diferentes
cuestiones. Por un lado, se ex-
traen datos significativos de ren-
dimiento y se concluye con pará-
metros indicadores de los aspec-
tos a optimizar. Por otro lado, se
planifican actuaciones y toma de
decisiones en diversos escenarios
relacionados con fugas, operacio-
nes de conservación, averías de
equipos, reemplazamientos de
tuberías, etc. Incluso se generan
informes de consumos, estudios
de financiación, auditorías y ba-
lances económicos e inventarios
de mantenimiento.
En definitiva, la automatización
más avanzada se corresponde
con la denominada telegestión y
se define como el procedimiento
integrado de gestión de las obras
hidráulicas que abarca hasta la
planificación del funcionamiento
de la infraestructura y el servicio.
Para ello implementa los medios
telemáticos mas innovadores con
los que gobernar a distancia las
instalaciones, transmitir informa-
ción y actuar de la forma más
eficiente y eficaz posible.
El suministro de valores de los
parámetros de funcionamiento de
tuberías y equipos proporciona la
capacidad de analizar la operativi-
dad de la red y percibir averías.
En estas últimas circunstancias
entra en juego la telealarma, por
la cual, de forma sencilla y eficaz,
se avisa a los pertinentes opera-
rios de control. Tiene la ventaja
de que se puede realizar la alarma
en cualquier lugar donde se en-
cuentre dicho personal y en el
momento en el que tenga lugar la
anomalía. Para la telecomunica-
ción de estaciones de telemedida
con los técnicos se usa radio o
telefonía.
En un grado más avanzado de
automatización se sitúa el tele-
mando. En este caso, la informa-
ción llega desde las estaciones
remotas distribuidas por la insta-
lación hidráulica hasta los pues-
tos centrales de mando, infor-
mando del estado de funciona-
miento del sistema. Dichos cen-
tros de mando poseen la capaci-
dad de actuar sobre las instalacio-
nes de tal modo que ejecutan
maniobras de accionamiento,
conexión, desconexión y regula-
ción de equipos y válvulas. Se
valen de un ordenador central
para cambiar consignas y modifi-
car parámetros.
Un paso más sería la categoría de
telecontrol mediante un Centro
de Control de Operaciones
(CCO). Se incluye, además de las
funciones de niveles anteriores, la
simulación en tiempo real del
Imagen 1. Pantalla de programa informático para seguimiento de las instalaciones conectadas al CCO.
17Nº14. Junio de 2016
“La telemedida de valores de los parámetros de funcionamiento de tuberías y equipos
proporciona la capacidad de analizar la operatividad de la red y percibir averías”
ESTRUCTURA DE LA TE-
LEGESTIÓN
La telegestión se vertebra en
torno a una aplicación o sistema
tipo SCADA (Supervisory Con-
trol and Data Acquisition Sys-
tem) que consta de cuatro ele-
mentos clave interrelacionados
entre sí:
1– Estaciones remotas de infor-
mación: aparatos electrónicos
que se encuentran instalados en
los puntos de control sobre tube-
rías, bombas, depósitos, válvulas,
caudalímetros, contadores y todo
aquel instrumento que requiera
control. Incorporan sensores y
medidores de parámetros base a
través de señales digitales que
registran valores máximos y míni-
mos (encendido/apagado, detec-
ción de flujo, niveles extremos
mediante boyas) o señales analó-
gicas que son sensibles a un gran
rango de valores intermedios
(presiones, caudales, temperatu-
ras, niveles medios, turbidez, ve-
locidades). Toda esta informa-
ción se almacena en un hardware
provisto de CPU y de memoria
que trabaja con tarjetas entrada/
salida y módems.
2– Centros y puestos de control
de operaciones (CCO): unidades
informáticas que reciben todas
las referencias de las estaciones
remotas y las procesan para dar
lugar a productos variados sobre
los que articular la gestión y ex-
plotación de la red hidráulica. Las
herramientas para tratar las espe-
cificaciones obtenidas son:
- Registros de datos y situaciones
históricas.
- Bases de parámetros optimiza-
dos.
- Balances de volúmenes de agua,
to de actuaciones sobre compo-
nentes de la red. En este punto
podemos destacar el corte a dis-
tancia de válvulas, arranque o
parada de motores y bombas, etc.
3– Sistemas de comunicación:
instrumentos de conexión entre
las estaciones remotas y las CCO.
Su función es centralizadora y
difusora a la vez, pues dirigen los
datos hasta los CCO y las órde-
nes de vuelta a los elementos de
la red.
El soporte de telecomunicación
puede ser telefónico, por radio,
GSM, GPRS, red Ethernet, red
Internet o por cable.
4– Terminales y equipos para
contactar con el personal de las
distintas áreas de la explotación.
Sirven para transmitir las órdenes
e indicaciones y para enviar y
recibir registros. Se trata de orde-
nadores, PDAs, móviles, etc.
salidas, entradas, etc.
- Curvas de magnitudes hidráuli-
cas con respecto al tiempo.
- Informes pormenorizados de
interrelación de magnitudes.
- Fórmulas de cálculo hidráulico.
- Balances económicos de gastos
e ingresos en la explotación de las
infraestructuras.
- Visualización sinóptica de gráfi-
cos de simulación de evolución
en distintos escenarios.
- Listados de alarmas.
- Control de acceso de usuarios.
- Almacén de protocolos de ac-
tuación en situaciones de funcio-
namiento defectuoso o crisis.
Los centros de operaciones tam-
bién son los encargados de capa-
citar al operador o gestor de la
explotación para el accionamien-
Esquema 2. Control por sistema SCADA de impulsión de agua con bomba (E-1) hasta depósito. Ubica-
ción de estaciones remotas (PLC) para medición de flujo y nivel.
18 Nº14. Junio de 2016
“Los centros de operaciones son los encargados de
capacitar al gestor para actuar sobre la red ”
REDES DE DISTRIBUCIÓN
El agua procedente de las fuentes
de captación es transportada por
las canalizaciones y conducciones
en alta hasta las estaciones de
tratamiento de agua potable
(ETAPs) donde reciben trata-
mientos que la convierten en apta
para el consumo. Posteriormente
esta agua pasa a almacenarse en
depósitos y de ahí se distribuye a
través de las redes de distribución
o de abastecimiento en baja hasta
las acometidas y puntos de ali-
mentación.
Centrándonos en el ámbito ur-
bano, la telegestión controla cada
una de las fases por las que pasa
el agua en ese transporte en baja,
comenzando por su almacena-
miento en los depósitos. Los pa-
rámetros controlados en esta in-
fraestructura son caudales de en-
trada/salida, volúmenes de agua
recibida/liberada, niveles máxi-
mos/mínimos, niveles interme-
dios continuos, turbidez, apertu-
ra/cierre de válvulas, regulación
de las mismas, cantidad de cloro
administrado y estado encendi-
do/apagado de bombas.
De igual forma son muy intere-
santes considerar otros controla-
dores que detecten anomalías
importantes a poner en conoci-
miento como intrusismo de obje-
tos o elementos indeseables, fa-
llos o cortes de alimentación eléc-
trica, inundaciones de otros com-
partimentos como cámaras de
llaves o cámaras de bombas, in-
cendios detectados, presencias
ajenas al personal o desborda-
mientos del vaso del depósito. A
éstas se le asocia el sistema de
telealarma para dar parte en el
CCO al instante de alguna de
estas situaciones.
tros que determinan el comporta-
miento de la cañería, la cual tra-
baja en régimen de presión en
estas instalaciones de abasteci-
miento. Se trata del caudal que
circula por la red y la presión con
la que discurre dicho caudal en el
interior del tubo. Por medio de la
variación en estos parámetros y
de las anomalías en las series de
medidas recopiladas seremos ca-
paces de detectar los puntos de la
red en los cuales se producen
fugas de agua.
Un par de aspectos que caracteri-
zan la instalación de automatis-
mos en las redes de abastecimien-
to son la sectorización del con-
junto de la red y el grado de auto-
nomía de dichos automatismos.
Por una lado, normalmente, el
mallado de la red suele ser exten-
so y complejo, y aún más cuando,
como en estos casos, se trata de
un grupo de tuberías interconec-
tadas entre sí y funcionando a
presión. La gestión y supervisión
del conjunto es aconsejable reali-
zarla dividiendo la malla general
en submallas en las cuales sea
más sencillo el procedimiento de
mantenimiento y control. Al fin y
al cabo no es más que sectorizar
la red de distribución colocando
en cada sector los automatismos
necesarios que caractericen esa
parte del mallado global. Por otro
lado, nos encontramos con que
los lugares donde se deben colo-
car las estaciones remotas están
situados en cualquier punto de la
geografía urbana y en consecuen-
cia variará la accesibilidad para
conectarlas a la red eléctrica. Esto
provoca que algunos de los apa-
ratos automáticos que componen
las estaciones remotas deban ser
equipos autónomos provistos de
baterías.
En las estaciones de bombeo de
agua potable (EBAPs) las estacio-
nes remotas obtienen informa-
ción acerca del equipo de bom-
beo como número de arranques/
paradas, horas de funcionamien-
to, temperatura, estado de dife-
rencial eléctrico o posición ma-
nual/automático. A la par se ins-
talan medidores de las condicio-
nes de trabajo de las unidades de
bombeo, fundamentalmente cau-
dales, presiones de impulsión y
volúmenes de agua. Los controla-
dores de anomalías también son
de gran utilidad aquí y se corres-
ponden en su mayoría con los
implementados en depósitos.
Atendiendo a las tuberías de dis-
tribución del agua potable será de
vital importancia llevar una medi-
da exhaustiva de los dos paráme-
Imagen 2. Automatismo para punto de control
en red de abastecimiento.
Ref: Pino Coronel, J. Conferencia sobre telecontrol y
telegestión de redes hidráulicas.
19Nº14. Junio de 2016
Gráfico 1. Curva producida en un CCO sobre el
volumen acumulado en un depósito
cidad que lleven estos efluentes.
En base a estos dos conceptos se
puede determinar el caudal y el
volumen transportado.
Los sensores acoplados a las tu-
berías proporcionarán registros
asociados a estas cuestiones, pero
cumpliendo ciertos requisitos
adicionales con respecto a aque-
llos destinados al agua potable:
- Grado de autonomía aún mayor
por situarse en puntos aún más
inaccesibles para la red eléctrica.
- Protección más considerable del
dispositivo a consecuencia de la
gran cantidad de sustancias sóli-
das y deshechos que son arrastra-
dos y que pueden producir daños
materiales y agresiones químicas.
- Necesidad mayor de manteni-
miento por ser más susceptibles a
ser dañados por los residuos y a
ser víctimas de obstrucciones que
no permitan el correcto funcio-
namiento del dispositivo.
Otros elementos estratégicos en
la gestión de la red de saneamien-
to pueden llegar a ser los aliviade-
ros de tormenta. Se configuran
como desagües para recoger las
aguas pluviales que circulan por
las vías urbanas y dirigirlas hasta
los colectores de alcantarillado.
En estas infraestructuras son vi-
tales los caudales y los volúmenes
de vertido pluvial. Los dispositi-
vos que se están desarrollando en
este sentido también prevén el
conteo del número de desborda-
mientos y el tiempo que duran
éstos así como la detección de los
instantes en los que los aliviade-
ros están recibiendo vertidos.
Similares a estos aparatos auto-
matizados son los que se instalan
en puntos de cabecera de colec-
tores y en confluencias de tube-
rías para controlar los vertidos
que pasan por estos puntos estra-
tégicos. El nivel de mayor sofisti-
cación es alcanzado en las redes
de alcantarillado que incorporan
unos medidores especiales de
parámetros medioambientales y
que por lo tanto ofrecen infor-
mación sobre el grado de conta-
minación de los vertidos.
A pesar de que el régimen de tra-
bajo de estas redes hidráulicas es
sin carga, en ocasiones se hace
necesario impulsar el agua hacia
cotas más elevadas en su camino
hacia las EDARs y esta impulsión
se hace sometiendo a cierta carga
al agua residual. Aparecen en este
punto las estaciones de bombeo
de agua residual (EBARs). Para la
propia unidad de bombeo existen
automatismos en estaciones re-
motas para abarcar cuestiones
como parada/marcha, modo ma-
nual/automático, parámetros
eléctricos, caudal bombeado o
presión de impulsión. De la mis-
ma forma la arqueta habilitada
para recibir el efluente y albergar
las bombas se equipa con agita-
dores, boyas y contadores encar-
gados de registrar niveles máxi-
mos/mínimos/intermedios, cau-
dales entrada/salida y turbidez.
REDES DE SANEAMIEN-
TO
El agua residual que entra en la
red llamada de saneamiento pue-
de ser de origen urbano, indus-
trial o procedente de las precipi-
taciones. Ya sea por sistema se-
parativo o por sistema unitario,
esta agua discurre por colectores,
que suelen trabajar en régimen de
lámina libre, y alcanzan las esta-
ciones de depuración de aguas
residuales (EDARs). En éstas
últimas se procede al tratamiento
de retirada de la mayor cantidad
de residuos y contaminantes para
obtener un agua apta para el ver-
tido mediante emisarios de distin-
tos tipos al medio natural, o bien
para proceder a su reutilización.
En primer lugar, los elementos
principales que interesan a la tele-
gestión son las tuberías colecto-
ras. El transporte en lámina libre
de estos colectores depende del
nivel que se alcance y de la velo-
“El nivel de mayor sofisticación es alcanzado en las redes de alcantarillado que incorporan
medidores especiales de parámetros medioambientales y grados de contaminación”
Imagen 3. Estaciones remotas instaladas en
estación de bombeo de agua residual.
Ref: Pino Coronel, J. Conferencia sobre telecontrol y
telegestión de redes hidráulicas.
20 Nº14. Junio de 2016
to, Montaverner, Calpe, Quart de
Poblet y Chiva. El objetivo prin-
cipal es alcanzar una gestión efi-
ciente del servicio ajustando pe-
riodos de facturación, alertando
sobre anomalías, evitando moles-
tias a usuarios, eliminando niveles
ínfimos de consumo por ausencia
de lecturas y sobre todo aumen-
tando el rendimiento hidráulico
mediante la reducción de fugas.
Otro caso a destacar es el proyec-
to Smart Water en Santander,
cuyo eje es la iniciativa pionera
en el mundo de aplicación de la
telegestión al ciclo integral del
agua. Se lleva a cabo por la em-
presa FCC Aqualia y el Ayunta-
miento de Santander y engloba
estaciones remotas en instalacio-
nes tanto con suministro eléctri-
co como sin él: bombeos, depósi-
tos, arquetas y aliviaderos. A esto
se añade la sectorización de la red
de abastecimiento así como los
controles de caudal y toma de
muestras en el saneamiento. El
proveedor técnico ha sido la em-
presa Sofrel.
La monitorización y seguimiento
del ciclo del agua de la ciudad de
Santander han logrado el estable-
cimiento de ratios de consumos,
umbrales de alarmas, índices de
calidad del agua y la adecuación
de la presión de funcionamiento
en la distribución. Pero sin duda
la exclusividad de este proyecto
reside en el desarrollo de una
aplicación para dispositivos Ipho-
ne, Ipad y Android para acceder a
información del servicio de abas-
tecimiento y alcantarillado.
EXPERIENCIAS REALES
DE AUTOMATIZACIÓN
En la actualidad el proceso de
automatización de las redes hi-
dráulicas en el ámbito urbano se
encuentra en pleno auge y existe
la posibilidad de encontrar distin-
tos niveles de automatización
distinguiendo redes con un bajo
grado de implementación y otras
con una alta cualificación teleges-
tora.
Un ejemplo bastante significativo
de implantación en un grado de
telemedida es la instalación del
más amplio parque de contadores
inteligentes de España. Se está
llevando a cabo por parte del
Grupo Aguas de Valencia, que
gestionaba la lectura de 410.000
contadores automatizados en
2014 y que prevé alcanzar pronto
los 600.000. Este macroproyecto
se articula en torno a los sistemas
de lectura a distancia de contado-
res y un centro de operaciones y
control único para las poblacio-
nes de Valencia, Gandía, Sagun-
Imagen 4. Contador inteligente para lectura a
distancia.
Ref: www.iagua.es
REFERENCIAS Y
BIBLIOGRAFÍA:
- Pino Coronel, J. Conferencia
sobre telecontrol y telegestión de redes
hidráulicas. E.T.S. Ingeniería de
Caminos, Canales y Puertos de
Granada, 2013.
- García Molina, J. A. Apuntes de
planificación, diseño, gestión y
seguridad de obras hidráulicas.
E.T.S. Ingeniería de Caminos,
Canales y Puertos de Granada,
2013.
- Hontoria García, E. y Osorio
Robles, F. Fundamentos y cálculo de
redes de distribución. Granada.
Colegio de I.C.C.P., 2005.
- www.esmartcity.es
- www.tecnoaqua.esImagen 5. Soluciones para medida de nivel en redes de saneamiento.
Ref: www.iagua.es
21Nº14. Junio de 2016
INTRODUCCIÓN
A diario navegamos por internet pero rara vez
nos preguntamos cómo es capaz de llegar la informa-
ción que generamos en nuestro dispositivo a otros
usuarios o viceversa. Detrás de ello hay un proceso
relativamente complejo que trabaja sobre un elemento
que no hace más que crecer día tras día: la red.
Podemos definir red como conjunto de ele-
mentos interconectados entre sí. En todas las redes
existen los nodos, que en el caso de internet no son
más que dispositivos con cierta capacidad de almacena-
miento (al contrario que las conexiones que unen un
dispositivo con otro).
Centrándonos en redes de telecomunicaciones,
concretamente en redes de datos, existe varios tipos de
redes: LAN , MAN, WAN. La primera de ellas conecta
un número no muy elevado de dispositivos entre sí. Un
claro ejemplo es la red que montamos en casa con 2 ó
3 PCs. Las redes MAN son muy similares a las LAN,
pero la distancia entre los dispositivos interconectados
suele ser mayor (varios cientos de metros en ocasio-
nes). La última de ellas es la más amplia de todas. Se
podría decir que una red WAN es sinónimo de lo que
conocemos como INTERNET. Una enorme nube de
dispositivos interconectados a través de una gran canti-
dad de posibles caminos o rutas. El principio de fun-
cionamiento de internet se basa en la conmutación de
paquetes. En este tipo de comunicación la información
viaja fraccionada y es posible que vaya intercalada con
"paquetes" que provengan de otro usuario y vayan des-
tinados a otro dispositivo. Existe otra forma de
comunicación que se conoce como conmutación de
circuitos. En esta ocasión, se establece un circuito fijo
entre emisor y receptor y la información viajará única-
mente por el mismo. Además, el canal será dedicado
exclusivamente a esa comunicación hasta que ésta ter-
mine.
MODELO OSI
El funcionamiento de internet se basa en un
modelo que, a pesar de estar en desuso, supuso la base
de esta forma de comunicación, el modelo OSI.
Se basa en la existencia de 7 capas o niveles de
tratamiento de la información (Figura 1). Cada una de
las capas tiene una o varias funciones características.
Dependiendo de si nos centramos en el emisor o en el
receptor, la información comenzará a ser tratada en la
capa 1 o física o en la capa 7 o de enlace. Veamos paso
a paso de qué se encarga cada capa. Para ello, vamos a
situarnos en el contexto del emisor.
La capa 7 o de Aplicación, se encarga de sumi-
nistrar servicios de red a las aplicaciones. Se ocupa de
añadir las librerías (*.dll, *.doc, etc).
La capa 6 o de Presentación es la encargada de
INTERNET Y SU
FUNCIONAMIENTO
JOSÉ MANUEL IBÁÑEZ POVEDA. INGENIERO INDUSTRIAL.
22 Nº14. Junio de 2016
Figura de introducción: La red.
Ref: www.tynecuador.com
dar formato a los datos. Es decir, realiza tareas como
conversión de código de caracteres (de EBCDIC a AS-
CII por ejemplo), conversión de datos (punto flotante
entre enteros), comprensión de datos, cifrado de datos,
etc.
La capa 5 o de Sesión permite que dos proce-
sos de aplicación en diferentes equipos establezcan,
empleen y cesen una conexión de manera segura con
reconocimiento de nombres, registro y otros datos.
La capa 4 o de Transporte se encarga de asegu-
rar la fiabilidad de la transmisión desde el emisor al
receptor. Es en esta capa donde la información se divi-
de en segmentos que serán enviados en paquetes a tra-
vés de la capa de red. En el sentido contrario del flujo
de la información, la capa de transporte unirá los seg-
mentos recibidos para pasar a la capa de sesión la in-
formación ensamblada de nuevo.
La capa 3 o de Red determina el mejor camino
a través de la red para que los paquetes lleguen al des-
tino a través de varios enlaces.
La capa 2 o de Enlace es la responsable de la
sincronización de la señal, control de acceso al medio
de transmisión y, además, contiene un mecanismo para
la detección y/o corrección de errores.
Por último, la capa 1 o Física es la que propor-
ciona un medio de transmisión (cable par trenzado por
ejemplo). Transforma la información proporcionada
por las capas superiores en una señal adecuada para el
medio de transferencia (codificación, modulación, etc).
Incluye el diseño físico real de la red y básicamente,
convierte la información recibida en bits (viceversa
para el sentido contrario de flujo de información).
ENCAPSULAMIENTO
A medida que los datos generados viajan hacia
la capa física, la memoria que ocupan no hace más que
crecer. Esto se debe a que cada capa añade informa-
ción vital a los datos de origen para asegurar que la in-
formación llegue al destino de forma correcta. Este
proceso es conocido como Encapsulamiento.
La capa de aplicación recibe los datos sin mo-
dificación alguna y añade una cabecera que contiene las
librerías (*.dll, *.doc, etc). Al conjunto formado por
dicha cabecera más la información de origen se le de-
nomina Dato. Este "pack" se envía como un "todo" a
la siguiente capa. El nivel 6 o de Presentación, añade su
propia cabecera que contiene los códigos léxicos. A
este conjunto de información se le sigue denominando
Dato. La capa de Sesión añade los "Keep alive" o
mensajes de inicio, mantenimiento y cierre de sesión.
Nuevamente, este flujo de información recibe el nom-
bre de Dato. La siguiente cabecera que añadirá la capa
de transporte de destino. En este punto, el total de la
Figura 1: Capas modelo OSI.
Ref: alegsa.com.ar
23Nº14. Junio de 2016
capa de transporte funciona de manera similar a la del
modelo de referencia. La capa de Internet está com-
puesta por la capa de Red, también en esta ocasión con
las correspondientes funciones de la misma. Por últi-
mo, la capa de Acceso a Red está compuesta por capa
de Enlace y Capa Física del modelo OSI.
Para conocer más acerca del funcionamiento
de internet hemos de conocer el concepto de protoco-
lo y de interfaz. Un protocolo es el conjunto de nor-
mas que regulan la comunicación entre las mismas ca-
pas (mismo nivel) de dos dispositivos distintos en una
red. La interfaz es el conjunto de normas que regulan
la comunicación entre dos capas contiguas dentro del
mismo dispositivo de la red.
Este modelo recibe su nombre debido a uno
de los principales protocolos empleados en la capa de
Internet, el protocolo IP. Este protocolo elige la mejor
ruta para la transmisión de la información, sin preocu-
parse del contenido de la misma. Cada ordenador co-
nectado a una red TCP/IP tiene una dirección IP que
consiste en 4 campos de 8 bits cada uno, formando un
total de 32 bits (en el caso de IPv4). Este protocolo
posibilita direcciones para 232 host (dispositivos conec-
tados). Existe un proyecto en desarrollo que será im-
plementado en el futuro que permitirá 2128 host.
de la información se divide en varias partes que serán
denominadas Segmento. La dirección IP de origen y
de destino es añadida por la capa de red. La unidad de
información se llamará, en esta ocasión, Paquete. La
capa de enlace añade las direcciones MAC (direcciones
físicas) de origen y destino. La unidad básica de infor-
mación de esta capa recibe el nombre de Trama o
Marco. Por último, la capa física recibe toda la infor-
mación proporcionada y la transforma en bits, sin aña-
dir ningún tipo de información extra, como sí hacen el
resto de capas o niveles. Según el código de línea em-
pleado, estos bits recibirán un valor de voltaje determi-
nado que viajará por el medio de transmisión. En senti-
do contrario de flujo de información el proceso es si-
milar pero de manera inversa. Cada capa recibe la in-
formación de la capa inferior, extrae la cabecera corres-
pondiente y eleva los datos.
MODELO TCP/IP
Es el modelo que se emplea actualmente. Su
funcionamiento es muy similar al modelo OSI, pero
añadiendo una serie de pequeños cambios.
El más importante de ellos consiste en el nú-
mero de capas. Mientras que el modelo OSI estaba
constituido por 7 capas, el modelo TCP/IP posee úni-
camente 4: Capa de Aplicación, capa de Transporte,
capa de Internet y capa de Acceso a Red.
La primera de las capas engloba la capa de
Aplicación, capa de Presentación y capa de Sesión del
modelo OSI, con las correspondientes funciones. La
Figura 3: IP y Máscara
24 Nº14. Junio de 2016
Figura 2: PDU de las distintas capas.
Ref: es.wikipedia.org
Las direcciones IP se suelen expresar en for-
mato decimal. Un ejemplo podría ser 192.168.2.1.
Existen tres tipos de direcciones IP: Clase A, Clase B y
Clase C.
La Clase A engloba desde 1 hasta la 126. Un
ejemplo podría ser la red 7.0.0.0. Son las redes de ma-
yor tamaño y suelen ser propiedad de Organismos Gu-
bernamentales o grandes empresas. En esta clase, los
primeros 8 bits designan la red, los demás designan el
host o la subred.
La Clase B abarca desde la 128 hasta la 191.
Pongamos como ejemplo 190.28.0.0. Son las redes de
tamaño intermedio, permiten conectar 216 - 2 host. Es-
tas dos direcciones serán reservadas para designar la
red (primera dirección) y para broadcast, que es una
difusión para todos los elementos conectados a la red
(última dirección).
La Clase C abarca desde la 192 hasta la 233.
Un ejemplo de esta clase sería 192.168. 2.4. El identifi-
cador de red sería 192.168.2.0 y la dirección de broad-
cast 192.168.2.255. Estas redes son las de menor tama-
ño, ya que únicamente permite conectar 254 host. Esta
es la clase de dirección IP de la que solemos disponer
en nuestros hogares. Por regla general, la dirección IP
cambiará cada vez que reiniciemos el router, a menos
que paguemos una suma adicional a nuestro proveedor
para recibir una dirección IP estática. Tecleando en el
cmd "ipconfig /all" se mostrará en pantalla nuestra
configuración de red, en la que podremos consultar
algunos datos interesantes, como nuestra IP actual.
Véase la Figura 3.
Como se puede observar, la IP corresponde a
Clase C. Aparece, además, un campo denominado
"Máscara de subred". La máscara ayudará a definir qué
parte de la IP pertenece al host y qué parte a la red. Se
realiza la operación AND a la dirección IP a analizar.
En el caso de la figura 3, Si realizamos la operación
lógica AND a la dirección 192.168.42.227 con
255.255.255.0 obtendremos como resultado
192.168.42.0. Este resultado indica que los 3 primeros
campos son para designar la red y el último para desig-
nar el host, que se corresponde con la estructura de las
direcciones de Clase C. Una posible máscara para Clase
B sería 255.255.0.0 y para Clase A 255.0.0.0. Sin em-
bargo, las máscaras no tienen por qué ser siempre tan
sencillas. Se puede dar el caso de que una máscara sea
255.255.255.242, que se utilizaría para crear subredes.
Mediante este elemento, seremos capaces de
crear todo tipo de redes gracias a las cuales podremos
seguir disfrutando de este maravilloso mundo de infini-
tas posibilidades.
Sin embargo, con el tiempo, la red no ha sido
el único elemento que ha ido avanzando en tecnología
y desarrollándose. Simultáneamente ha aparecido ver-
siones cada vez más avanzadas y nocivas de los conoci-
dos virus y troyanos. Todo aquél que desee utilizar la
red sin sufrir sustos desagradables y percances tendrá
que arreglárselas para adquirir un antivirus. De esta
forma será posible navegar de forma más segura y pro-
teger datos muy valiosos como los datos bancarios,
archivos multimedia y otro tipo de datos privados y/o
personales. Detrás de todo este concepto existe un
mundo oscuro sobre el que hay una enorme diversidad
de opiniones.
Figura 4: Virus, troyanos y actividades sumergidas.
Ref: www.timos.info
25Nº14. Junio de 2016
“Mediante el comando ipconfig /all seremos capaces de consultar nuestra configuración IP
en cualquier momento”-
dustria alimentaria, se utiliza generalmente para contro-
lar las horas que transcurren desde que un producto es
recolectado, procesado, almacenado, envasado y envia-
do al supermercado.
Por un lado, es crucial para mantener su textura, sabor
y color inalterable para tener la certeza de que se en-
vían productos de la máxima calidad y de acuerdo con
los exigentes controles de sanidad, así, se puede enviar
un haz de luz (infrarrojo) para determinar si su estruc-
tura molecular y determinar que se encuentra en condi-
ciones óptimas sin necesidad de realizar ninguna prue-
ba tradicional de sabor, color u olor.
Por otro, también se realizan pruebas de sabor, color u
olor, para verificar mayor seguridad en los alimentos,
aunque en algunos casos sería contraproducente reali-
zar pruebas a todos los productos. Para las pruebas
realizadas para comprobar su sabor, se recurre a la
práctica, teniendo en cuenta que no todos los produc-
tos se deben comprobar con el sentido del gusto. El
gusto es un sentido bastante subjetivo y depende de
muchos factores, en el caso de una destilería de whis-
key el sentido del gusto (en los casos normales) estaría
bastante mermado a primeras horas del día, además de
sólo poder realizar un número limitado de muestras.
La espectrosco-
pia infrarroja
estudia las inter-
acciones que
ocurren entre la
materia su radia-
ción electromag-
nética y tiene
importantes apli-
caciones en el
campo de la in-
geniería.
Se trata de estu-
diar el comporta-
miento de una onda y sus principales características
(longitud de onda, y frecuencia) sobre un objeto de
estudio. Con ello podemos conocer su estructura mole-
cular sin tener que realizar ensayos que pueden des-
tructivos o incluso necesitar parte del objeto para reali-
zar pruebas hasta hallarla. Con este sistema no es nece-
sario interaccionar con el objeto de estudio, únicamen-
te un haz de luz infrarrojo es necesario. Es una práctica
muy fiable que es necesaria para realizar controles de
calidad a productos en segundos. En el caso de la in-
ESPECTROSCOPIO Y EL CONTROL DE CALIDAD
PEDRO MANUEL VÉLEZ GÓMEZ. GRADUADO EN INGENIERÍA MECÁNICA.
Nº 1. Descomposición de la luz a través de un
prisma.
26 Nº14. Junio de 2016
ner un mejor rendimiento en la producción, procesan-
do las mejores estructuras moleculares (más estables),
donde se pretende extender la vida útil de los produc-
tos sin recurrir a cámaras frigoríficas, y así pudiendo
transportarlo a mayor distancia sin que afecte a su cali-
dad siendo estos más seguros puesto que, su estructura
molecular permanecerá inalterable más tiempo y se
podrá ofrecer un mayor tiempo de caducidad en los
productos.
Desde que se descubrió la existencia de la luz infrarroja
allá por el año 1800 por Frederick William Herschel se
han realizado importantes avances partiendo de la des-
composición de la luz del sol con un prisma en una
gama de colores. Colocó un termómetro para medir la
temperatura en todos los colores, situando el termóme-
tro más allá del rojo y notó que era una temperatura
más elevada que el resto. Esto es debido a que aunque
el color rojo es visible en la descomposición de la luz
del sol, más allá del rojo tenemos el infrarrojo que no
es percibido por el ser humano a simple vista debido a
su longitud de onda que está en el límite (es menor)
que podemos percibir. El ojo humano únicamente es
capaz de recoger 390 a 750 nm, si necesitamos ver
otras longitudes de onda, es necesario recurrir a apara-
tos de visión especiales, aunque esta luz es emitida por
cualquier cuerpo que esté una temperatura mayor de 0º
Kelvin. La fuerza de atracción entre dos átomos que
depende de su composición y de la distancia entre los
átomos o momento dipolar, produce una vibración
determinada si aplicamos luz infrarroja.
Para evitar en la
medida riesgos
en los test de
calidad, se recu-
rren a la densi-
dad medida con
aparatos calibra-
dos al efecto,
color, que puede
realizarse con la
comprobación
de una plantilla o
paleta de colores
o por medio de sofisticadas cámaras que registran el
color, dichas cámaras son calibradas con una determi-
nada iluminación debido a que dependiendo de la luz a
la que sea expuesta el producto, tendrá una tonalidad
diferente.
Al poder analizar las estructuras moleculares de mues-
tras a través de la radiación de rayos infrarrojos, pode-
mos realizar un plan más ajustado a todo el proceso,
desde la recolección, mucho más ordenada y adecuada
a las necesidades de la industria aplicando procesos de
fabricación “just in time”, donde se obtiene frescura en
productos perecederos, pudiendo establecer la fecha de
caducidad fijándonos en parámetros de evolución en la
degradación de las estructuras moleculares, asimismo,
conoceremos cómo afecta al cultivo una recolección
nocturna o diurna, dentro de las mismas, cuál es la
temperatura y época ideales de recolección para obte-
Nº 2. Frederick William Herschel observando la
descomposición de la luz de una vela a través de un
espectroscopio.
Nº 3 Representación esquemática del espectro que proyectan algunas bombillas convencionales.
27Nº14. Junio de 2016
guir corriente (frecuencia umbral).
En la industria y los procesos industriales, en el caso de
control de calidad, es necesario conocer las exigencias y
los cánones básicos de calidad. Una vez conocidos, se
preparan unas muestras, dichas muestras son necesa-
rias para proceder a la calibración de los equipos de
infrarrojos. En el caso de productos perecederos, se
elegirán productos que al menos en apariencia conser-
ven estados óptimos de consumo, piezas con buen co-
lor, peso y sabor, incluso, olor también se recurre a
laboratorios donde se le someten a unas pruebas de
calidad. Posteriormente se analizarán los efectos que
tienen cuando se someten a la espectroscopia infrarro-
ja. Según los resultados obtenidos, serán clave para
determinar si las siguientes muestras son y están en las
mismas condiciones que el espécimen de muestra ini-
cial. También se comprobarán los parámetros en piezas
de peor calidad, así, podremos comparar los resultados
entre el espécimen deseable y el desechable. Estos pa-
rámetros son importantes a la hora de realizar una bue-
na calibración y para establecer una regla en el proceso
de producción.
También nos permitirá diferenciar entre varias calida-
des, desde una superior, media o inferior. Una vez se
produzca la calibración espectroscópica, es necesaria
realizar una comprobación exhaustiva para recopilar
datos y estudiar los aciertos y errores según la calibra-
ción previa. Se introducen varios especímenes en el
área de valoración registrando y visualizando los valo-
res que recogen.
Aunque algunos
compuestos no
pueden ser estu-
diados con esta
luz debido a que
su momento di-
polar no es alte-
rado por dicha
luz, en conse-
cuencia, no po-
demos conocer su
estructura de esta
manera, estos
compuestos son los compuestos homonucleares
(suelen estar en estado gaseoso en condiciones norma-
les de presión y temperatura). Como podemos ver en la
figura número 4, el momento dipolar de una molécula
dada depende de su geometría. No obstante, esto es
una excepción, ya que la inmensa mayoría de todos los
objetos o compuestos que utilizamos son compuestos.
La luz aunque se comporta como una onda, también es
energía electromagnética. En el caso de la verificación
del color del producto aunque el proceso es más com-
plejo de lo que se expone y se utilizan aparatos más
sofisticados, se recurre al principio básico de colocar
dos placas de metal aisladas al vacío y separadas una
distancia, utilizando unos emisores de luz llamados
leds, podemos controlar su color y la intensidad de
dicha luz. Los electrones de una placa saltan y se pro-
duce corriente eléctrica, si lo conectamos a un amperí-
metro, conoceremos la corriente que circula por ellos,
cuantificando la intensidad que circula
por el circuito en función de la luz
emitida.
Esto puede parecer que al aumentar la
intensidad de la luz por medio de los
leds, deberá aumentar necesariamente
la intensidad en el circuito, pero esto
no es realmente así, puesto que solo
para una cierta diferencia de potencial
y en colores como el rojo y el infrarro-
jo, no se produce intensidad de co-
rriente en el circuito debido a que la
energía se traduce en calor, de ahí que
Frederick William Herschel observara
mayor temperatura cuando aproximó
un termómetro a este tipo de luz. Es
decir, solo si se emite luz a una deter-
minada frecuencia podremos conse-
Nº 5. Circuito representativo del efecto fotoeléctrico.
28 Nº14. Junio de 2016
Nº 4. Representación de la molécula del compues-
to dióxido de azufre.
Http://www.calabriancorp.com/
Se podrán realizar pruebas con 100 especímenes para
conocer el porcentaje de ejemplares válidos o rechaza-
dos. A pesar de ser una prueba bastante fiable, debe-
mos rigurosos en establecer el mínimo de productos,
piezas, objetos… que son tolerables con errores. En el
caso por ejemplo de ser productos de salud se ha de
tener ejemplares que se acerquen casi 100% debido su
uso muy específico, y además reflejar de forma clara
sus todas sus contraindicaciones.
En el caso de telas u otros productos similares y siem-
pre que no tengan un destino concreto y sensible en el
que sea necesaria una seguridad alta, se puede dismi-
nuir este margen.
Existen varios tipos de infrarrojos, estos tipos están
diferenciados en infrarrojos cercanos, medios y lejanos,
donde la única diferencia es la longitud de onda que
posee el haz de luz infrarrojo cercano (NIR) posee una
longitud de onda de 800 nm a 2500 nm, el infrarrojo
medio (MIR) posee una longitud de onda de 2,5 μm a
50 μm y por último el infrarrojo lejano (FIR) de 50 μm
a 1000 μm. Siendo en términos generales la más utiliza-
da es la luz infrarroja media (MIR). Por todo ello, se
dispone de varias longitudes de onda y se utilizará de-
pendiendo de la estructura molecular que necesitemos
comprobar. Los seres vivos disponen de una radiación
constante y propia por la emisión de temperatura.
De acuerdo con la ley de desplazamiento de Wien,
donde la longitud de onda λ máxima puede ser calcula-
da a través de una constante multiplicada por la tempe-
ratura en el punto negro (real), es decir, la longitud de
onda de un cuerpo emisor es inversamente proporcio-
nal a la temperatura de este, donde se pueden observar
que a menor temperatura (menor energía), colores más
oscuros y a más temperatura (mayor temperatura), co-
lores más claros.
Cuando la luz viaja de un medio a otro diferente, la
energía que transporta es invariable. Esta energía de-
pende de la longitud de onda λ y a su vez de la frecuen-
cia. Dado que la luz viaja de un medio a otro, su fre-
cuencia no cambia, solo cambiará su longitud de onda
(V=F•λ),siendo
la velocidad de
una luz una cons-
tante. Siempre
que el haz de luz
sea emitido, pro-
ducirá dos fenó-
menos conoci-
dos, como son la
reflexión o la
refracción.
En función del
análisis que se
deba realizar, es posible realizar una polarización para
evitar que las ondas se propaguen en direcciones y sen-
tidos que no sean necesarios para el análisis. Para el
caso del análisis en un control de calidad, es preciso
focalizar el haz de luz justamente donde se encuentra el
objeto de estudio.
La polarización de la luz se puede aplicar por absor-
ción, reflexión o birrefringencia. Para la absorción es
necesario colocar un elemento que pueda absorber de
forma selectiva dividiendo la luz policromática en luz
monocromática con diversas longitudes de onda. Es
utilizado para recepción en cámaras digitales con re-
ceptores CCD.
Debido a su sen-
sibilidad, y a que
recoge los colo-
res, hemos de
tener en cuenta a
la temperatura
que se registran,
puesto que si es
cercana a 0ºC es
muy probable
que no se pro-
duzca un registro
correcto.
Nº 6. Efecto producido por la luz polarizada
frente a la no polarizada.
29Nº14. Junio de 2016
“Existen varios tipos de infrarrojos, estos tipos están diferenciados entre cercanos, medios
y lejanos”.-
REFERENCIAS Y
BIBLIOGRAFÍA:
-. http://www.sites.google.es/site/
electricalia/
-. http://www.calabriancorp.com
-. http://www.portal.uned.es/
queña o gran sección (túneles), construcción de pozos
o chimeneas, etc.
2.- Trabajos similares o iguales a los definidos como
voladuras de exterior, como el banqueo al piso de tú-
neles, banqueo de cámaras en explotaciones mineras,
banqueo principal en excavación de cavernas de cen-
trales subterráneas, etc.
En este segundo caso, nos encontramos con trabajos
muy similares a los que se realizan a cielo abierto, so-
bre todo en todo lo concerniente a trabajos en banco,
cuya técnica es la misma que la empleada en exterior
salvando los condicionantes propios del trabajo en ga-
lerías.
Para el primer caso, el que nos ocupa en este artículo,
tanto los sistemas de perforación como de voladura,
carga y transporte son específicos y están adaptados
para las particularidades de los trabajos de interior.
Voladuras de Interior
Una de las particularidades de las voladuras en interior
es la necesidad de conseguir, con una voladura previa,
una primera cara libre o cuele. Como ya se describió en
el artículo dedicado a las voladuras a cielo abierto, la
presencia de esta cara libre es fundamental para maxi-
Por voladuras en interior se entiende que son aquellas
que se realizan subterráneamente, para el arranque de
roca en explotaciones, obras públicas o cualquier otro
trabajo subterráneo.
Dentro de este conjunto, podrían establecerse clasifica-
ciones complementarias de todo tipo, pero desde un
punto de vista conceptual pueden establecerse dos
grandes grupos de trabajos subterráneos:
1.- Trabajos que por su forma son específicos de obras
subterráneas, tanto en perforación como en voladura.
Como por ejemplo el avance en galería, bien en pe-
VOLADURAS EN INTERIOR
ALVARO M. SÁNCHEZ GUISÁNDEZ. GRADUADO EN INGENIERÍA MINERA.
Imagen Nº1 Frente de avance listo para ejecutar una voladura en la excava-
ción de un túnel.
http://ingeol.cl/
30 Nº14. Junio de 2016
La primera, por ejecutarse las voladuras con difícil sali-
da (tratándose de túneles sólo pueden salir por el plano
que conforma el frente de avance) y la segunda por ser
necesario obtener tamaños de roca reducidos que estén
acorde con los medios de carga y transporte usados,
cuyas dimensiones han de ser muy ajustadas para poder
ser aptos en trabajos de interior.
Esta circunstancia también conlleva que los consumos
específicos sean mayores en las voladuras que se reali-
zan en interior que a cielo abierto, pues al ser necesario
conseguir granulometrías menores, aumenta la cantidad
de explosivo por m3 de roca volada.
Otra importante diferencia a considerar entre el labo-
reo de interior y de exterior es la toxicidad de los gases
procedentes de las voladuras, que en interior adquiere
una gran importancia y en consecuencia condiciona el
explosivo usado.
En cuanto a labores con ambiente explosivo podemos
decir, que aparece una nueva selección del explosivo a
usar (Explosivos de Seguridad) y que el avance de las
labores se ve afectado por una legislación que limita las
cantidades de explosivo por barreno y pega y la dura-
ción de la propia pega, además de las limitaciones de
humos.
Por tal motivo, aunque trabajos de interior puedan ser
parecidos o aparentemente iguales a algún trabajo de
exterior, siempre existen matizaciones en pequeña o
gran medida que establecen diferencias importantes.
mizar el poder destructor del explosivo, calcular el es-
quema de barrenado y dirigir la salida de la voladura.
Esta cara libre o cuele se consigue apoyándonos bien
en barrenos vacíos, sin carga explosiva, o bien en el
propio frente de la roca. De esta manera, la voladura
principal va precedida de la apertura de un cuele, aun-
que todo se realice en la misma pega y por tanto la di-
ferencia de tiempo entre ambas sea tan solo de milési-
mas de segundo.
Los equipos de perforación son también específicos,
aunque las perforadoras sean similares a las utilizadas a
cielo abierto, son diferentes los chasis y brazos para
poder adaptarse a las dimensiones y al tipo de trabajo.
También nos encontramos con que, en estas condicio-
nes, los esquemas de perforación son muy reducidos,
debido a dos razones fundamentales.
Imagen Nª2. Pala cargadora en la Mina de Aguas Teñidas, Huelva. En la ima-
gen se aprecian las condiciones de trabajo típicas de este tipo de labores.
http://huelvaya.es/
Imagen Nº3. Trabajos de banqueo para rebajar la cota del suelo del túnel, ejemplo de trabajo en interior que se ejecuta de manera similar a como se realiza en exterior
http://www.redimin.cl/
31Nº14. Junio de 2016
mente se suele situar en el centro aproximado de la
galería.
Contracuele
El contracuele lo conforma la corona de barrenos que
circunvala a los del cuele. Mientras que la misión del
cuele es crear un primer hueco, el contracuele tiene la
misión de ensancharlo y preparar así la cara libre a la
destroza (que conforma el grueso de la voladura), con
un mayor hueco que permita la evacuación del escom-
bro de la misma. En el contracuele no hay barrenos
vacíos y aunque están más espaciados tienen distancias
entre sí que se consideran cortas.
Destroza
Comprende el área de barrenos entre el contra-cuele y
el límite de contorno. Es corriente escuchar los nom-
bres de corona y contra-corona cuando esta destroza
está formada por dos filas. Esta es la voladura princi-
pal, en cuanto a volumen de arranque en la galería. El
esquema suele ser más abierto, con mayor separación
entre barrenos logrando con ello consumos específicos
de explosivo menores que en el caso de cuele y contra-
cuele. En estos barrenos suele usarse como explosivos
de menor potencia (como la Amonita), rebajando así
los costes en explosivo.
Para elegir el esquema a utilizar en una destroza, entran
en juego múltiples factores como el diámetro de perfo-
ración, la profundidad de avance, tipo de explosivo,
secuenciación, granulometría deseada y por supuesto el
tipo de sección que queramos conseguir.
Avance en Galería
De una manera bási-
ca podemos decir
que el avance en ga-
lería se consigue
creando un vano en
la roca de una longi-
tud suficientemente
importante, mediante
las artes de perfora-
ción y voladura en un
fondo cerrado (no se
contemplan para este
artículo otros sistemas de tunelización). A cada paso de
ese avance, a cada voladura, se le denomina “Pega” y
por cada pega tendremos una fase en la que se taladran
los barrenos que conforman el esquema de voladura y
de carga de explosivos, posteriormente se realiza la
ejecución de la propia voladura. Tras esto vienen las
labores de recogida y transporte del material volado.
Completada la recogida se comprueba el avance, se
analiza el frente por si hubiera defectos de la voladura,
se realizan las correcciones oportunas en el sosteni-
miento, y se vuelve a empezar.
Partes del esquema de voladura
Para cualquier galería o túnel cabe distinguir en la pega
cinco partes fundamentales:
1) Cuele
2) Contracuele
3) Destroza
4) Contorno o Recorte
5) Zapateras
Cuele
Como ya se ha comentado es una par-
te fundamental en el esquema de vola-
dura. Lo conforman una serie de ba-
rrenos de diámetro mayor al resto y
una separación pequeña (hay muchos
tipos de cuele) y no suelen contener
explosivo. Su misión será la de crear
un hueco inicial en la galería, de forma
que los que se disparen con posteriori-
dad encuentren ya creada esa cara li-
bre. El cuele puede situarse en cual-
quier posición: en el frente, al suelo, al
techo o en hastiales aunque general-
Imagen Nº4 . Esquematización de las diferentes parte de una pega
32 Nº14. Junio de 2016
Imagen Nº4. Tareas de avance en galería. Instalación de
mallas y bulones para reforzar el sostenimiento.
http://www.redimin.cl/
Contorno o Recorte
Se define así a la fila o corona de barrenos que definen
la sección del túnel en techo y hastiales, sin incluir el
piso. La misión de estos barrenos es doble, debiendo
arrancar la piedra que les corresponda y además deben
definir el perfil o sección túnel. Por tanto su número,
espaciamiento y carga, son determinantes para la cali-
dad final del perfil buscado.
Existen dos técnicas de efectuar los tiros perimetrales
que son el recorte y el precorte.
El recorte, que es la técnica más empleada, consiste en
perforar un número importante de taladros paralelos al
eje del túnel en el contorno, y con una concentración
de explosivo pequeña o incluso nula, siendo estos ba-
rrenos los últimos en detonar en la secuencia de encen-
dido.
Por otro lado en la técnica del precorte se perfora un
mayor número de taladros perimetrales y paralelos en-
tre sí a unas distancias entre 25 cm y 50 cm y conte-
niendo carga explosiva. Esta técnica exige una perfora-
ción muy precisa que asegure un buen paralelismo y
una homogénea separación entre los taladros. En la
secuencia de encendido, son los primeros en detonar,
con lo que se crea una fisura perimetral que aísla y pro-
tege a la roca del macizo de las vibraciones del resto de
la voladura. Esta técnica es de uso poco frecuente, ex-
cepto en casos especiales.
Zapateras
Son los barrenos que forman el piso de túnel. General-
mente son los últimos en dispararse y están taladrados
con un cierto ángulo o “pinchados” como se denomi-
nan en el argot minero. Son barrenos que van sobre-
cargados de explosivo pues precisan una energía adi-
cional para conseguir el "levante" de toda la piedra que
los afecta.
Avance de la pega
El avance de la pega es la medida entre dos situaciones
de frentes consecutivos. En el caso de un avance del
100% esta dimensión coincidiría con la profundidad de
barrenado pero estos avances no son frecuentes. Un
avance de 85 a 90% es considerado habitualmente co-
mo bueno, encontrándonos en el nuevo frente fondos
de barreno perforados (denominados “culos”) de lon-
gitudes de un 15% a un 10% de la longitud barrenada.
Menores avances suelen explicarse por cueles defec-
tuosos en la mayoría de los casos. Existen casos donde
la presencia de lisos (fracturas naturales) pueden dar
avances mayores a la longitud perforada, bien por des-
cuelgue, o bien por actuar la fisura como una cara libre
de fondo.
El avance de una pega depende de un gran número de
factores como la capacidad de la maquinaria a la hora
de barrenar, el tipo de roca a la que nos enfrentamos
(dureza, rotura, abrasividad…), el tipo de sostenimien-
to al que nos obliga el terreno excavado...etc.
El avance debe determinarse por lo tanto en función
de muchos parámetros y debe diseñarse aquel que pro-
duzca un conjunto de operación más económico (el
encaje de ciclos es la premisa básica en toda obra de
interior), y que, por lo general, no coincide con el má-
ximo alcanzable.
Imagen Nº5. Jumbo realizando perforaciones según el esquema de perforación
programado para esa sección.
http://img.directindustry.es/
33Nº14. Junio de 2016
“Un avance de 85 a 90% es considerado habitualmente como bueno”
puede montarse un martillo de perforación
(perforadora) o una cesta en la que pueden alojarse uno
o dos operarios permitiendo así el acceso a cualquier
parte del frente.
El funcionamiento de los jumbos es eléctrico cuando
están estacionados en situación de trabajo y pueden
disponer también de un motor Diésel para el desplaza-
miento. Los martillos funcionan a rotopercusión, es
decir, la barrena gira continuamente ejerciendo simultá-
neamente un impacto sobre el fondo del taladro. El
accionamiento es hidráulico, con lo que se consiguen
potencias mucho más elevadas que con el sistema neu-
mático. El arrastre del detritus y la refrigeración se con-
siguen igualmente con agua.
Los jumbos actuales tienen sistemas electrónicos para
controlar la dirección de los taladros, el impacto y la
velocidad de rotación de los martillos e incluso pueden
memorizar el esquema de tiro y perforar todos los tala-
dros automáticamente. En este caso un único maqui-
nista puede perforar una pega completa en unas pocas
horas.
Accesorios de perforación.
Los accesorios de perforación comúnmente usados
son las varillas o barrenas y las bocas de perforación.
Las barrenas de perforación son simplemente barras de
acero con un conducto interior para el paso del agua de
Maquinaria de perforación en interior
La perforación en interior suele realizarse mediante dos
técnicas: la primera se realiza mediante el uso de marti-
llos neumáticos manuales accionados por aire compri-
mido, y la segunda mediante martillos hidráulicos mon-
tados sobre chasis autopropulsados, que son conocidos
como Jumbos.
Martillos manuales
Los martillos manuales de aire comprimido funcionan
a percusión, es decir, la barrena golpea contra la roca y
gira de forma discontinua entre cada percusión, sepa-
rándose del fondo del taladro. El detritus es arrastrado
hasta el exterior del taladro mediante agua, que tiene
también la finalidad de refrigerar la barrena. Los marti-
llos manuales son actualmente de uso poco frecuente
limitándose su uso a túneles muy pequeños o de forma
accidental, pues tienen rendimientos muy inferiores a
los jumbos y requieren mucha mano de obra.
Jumbos
La máquina habitual de perforación es el jumbo. Cons-
ta de una carrocería de automóvil dotada de dos o tres
brazos articulados, según los modelos. En cada brazo
Imagen Nº6 . Jumbo de dos brazos, pala cargadora y Dumper minero adapta-
dos para trabajos en interior.
www.cat.com
34 Nº14. Junio de 2016
“Los Jumbos pueden memorizar el esquema de tiro y perforar todos los taladros
automáticamente”
Imagen Nº7. Operarios perforando con martillo manual
http://www.latinomineria.com/
da el no poder comprobar la continuidad del circuito
de la voladura antes del disparo, lo cual sí es posible
con los eléctricos. Esta comprobación se hace indis-
pensable sobre todo en minería a cielo abierto donde
en cada pega pueden llegar a utilizarse miles de kilos de
explosivo y donde un fallo en la voladura puede supo-
ner importantes pérdidas de material y tiempo, ambos
traducidos en minería y obra pública como una gran
pérdida de dinero.
En cuanto al retacado del barreno (que consiste en ta-
ponar el barreno impidiendo que la energía de explo-
sión se escape por la boca, obteniendo un efecto ca-
ñón), normalmente se utilizan cartuchos de arcilla de
gran plasticidad que logran taponar por completo la
boca del taladro.
Control de las vibraciones
Por último reseñar que las vibraciones producidas por
efecto de las voladuras no sólo pueden tener efecto en
los elementos cercanos a la pega, sino que se transmi-
ten por el terreno y pueden llegar a producir daños en
edificios y estructuras en superficie. Por este motivo es
fundamental el control de las mismas mediante una
secuenciación de
barrenos suficien-
te o incluso redu-
ciendo el avance
de cada pega si
fuera necesario,
cumpliendo con
los límites regla-
mentados para
cada tipo de pro-
yecto.
refrigeración y unas roscas en los extremos donde se
acoplan las bocas o los manguitos. La boca de perfora-
ción es la herramienta de corte, que generalmente es de
metal endurecido (carburo de tungsteno) o widia, dis-
puesto en formas diversas: en cruz, en X o botones,
con unos diámetros habitualmente comprendidos entre
45 y 102 milímetros.
La elección de un tipo u otro de boca, así como de sus
diámetros, depende del tipo de maquinaria de perfora-
ción, de las características de la roca y del diámetro de
los cartuchos del explosivo a introducir.
Explosivos y detonadores
Los tipos de explosivo que deben utilizarse en túneles
dependen de las características de la roca, principal-
mente de su densidad, resistencia a compresión y velo-
cidad de propagación sónica de la roca. Además los
explosivos, durante la detonación, deben generar gases
no tóxicos, lo que limita el tipo de explosivos en inte-
rior a los denominados explosivos de seguridad.
El explosivo más utilizado para el cuele y contracuele,
destroza y zapateras, es la GOMA-2 E-C o RIOMEX
E20/40. El diámetro de los cartuchos deberá ser lo
más próximo al diámetro de perforación de los tala-
dros, compatible con su introducción dentro del ba-
rreno. La iniciación de la explosión en cada barreno se
realiza en el cartucho cebo instalado en el fondo del
barreno el cual contiene un detonador.
La activación de los detonadores puede ser eléctrica o
por impacto (iniciación no eléctrica).
En el primer caso se utilizan exclusivamente detonado-
res eléctricos de alta insensibilidad por razones de se-
guridad, como prevención contra las posibles corrien-
tes parásitas.
Se puede aumentar la seguridad utilizando detonadores
de iniciación no eléctrica que tienen como contraparti-
Imagen Nº8. Detalle de la configuración del chasis de la maquinaria de interior con una gran longitud y pequeña altura.
www.cat.com
REFERENCIAS Y
BIBLIOGRAFÍA:
 Unión E spañol a de
Explosivos, “Manual de
Empleo de Explosivos”,
Madrid. 2002
 http://ingeol.cl/
 www.redimin.cl/
 www.maxam.com
35Nº14. Junio de 2016
La sabiduría popular dice que de noche no hay luz,
pero esto no es completamente cierto. Más exacto es
decir que no hay luz visible por el
ojo humano. De igual manera que
no podemos ver las ondas de ra-
dio o los rayos X, no podemos ver
el tipo de luz que hay en la noche.
Pero de la misma manera que se
pueden construir aparatos que nos
permiten ver las ondas de radio o
los rayos X, se pueden hacer apa-
ratos que nos permitan ver la "luz
nocturna".
A pesar de que de noche no se ve
el sol, la luna y las estrellas están
presentes alumbrando el campo
de batalla. Es necesario aprove-
char mejor esa luz; es por eso que
este tipo de aparatos también se
llaman intensificadores de la vi-
sión o de la imagen, pues son co-
mo superojos que nos permiten
ver otros tipos de luz.
El ojo humano es más sensible a
la luz diurna, que está en la parte
verde del espectro lumínico. Sin
embargo, de noche el espectro de
luz se corre hacia el infrarrojo cer-
cano. A causa de esto los aparatos de visión nocturna
deben tomar las ondas de luz de esta parte del espectro
y traducirlas a otras que el ojo humano pueda ver. Es
por eso que las imágenes de estos dispositivos son de
color verde.
Historia y desarrollo:
-Convertidores activos de luz
A principios de la década de los
año treinta se comenzó a experi-
mentar con la intensificación elec-
trónica de la luz, y la tecnología se
hizo disponible dos décadas más
tarde. Sin embargo, estos conver-
tidores de luz infrarroja no eran
muy sensibles y, por lo tanto, ne-
cesitaban un dispositivo adicional
que iluminara la escena con luz
infrarroja. Por eso se los llama
"activos".
Sus desventajas eran varias y muy
importantes. Primero, se necesita-
ba una gran fuente de luz, en don-
de la parte visible por el ojo hu-
mano era filtrada y ,el resto, sien-
do luz infrarroja invisible al ojo
humano, iluminaba la escena. Es-
to hacía que el equipo fuera apara-
toso y pesado, pero también que
fuera detectable. Al ser "activo",
cualquier enemigo con un equipo de visión nocturna
"pasivo" podía ver la fuente de luz como si fuera una
EVOLUCIÓN DE LA VISIÓN NOCTURNA.
REBECA ROSADO MARTÍNEZ, ING. ARMAMENTO Y MATERIAL.
36 Nº14. Junio de 2016
Imagen. Nº 1 Los sistemas de visión nocturna están en cons-
tante evolución.
Fuente: www.sophimania.pe
Imagen Nº 2 Monoocular de tercera generación acoplable a un
fusil.
Fuente: www.militar.org
gran linterna, destruirlo y dejar a todos los combatien-
tes, amigos y enemigos, a ciegas.
Es por eso que cuando se introdujeron los intensifica-
dores mejorados, este sistema quedó rápidamente ob-
soleto.
-Intensificadores de imagen pasivos de primera genera-
ción
Se comenzaron a desarrollar a principios de la década
de los sesenta. Estos sistemas electroópticos ya no de-
pendían de fuentes especiales de luz, sino que al ser
más sensibles podían usar la luz de la estrellas y la luna.
Esto se logró gracias al uso de fotocátodos especiales y
a las lentes de fibra óptica.
Estos aparatos daban una ganancia de 200, lo que es
suficiente para uso a corta distancia con condiciones en
las que las estrellas son bien visibles. Para lograr mayor
ganancia y poder operar en todo tipo de condiciones
nocturnas (para esto se necesitaba una ganancia míni-
ma de 50.000), se usó una idea ingeniosa. Se acoplaron
en cascada tres intensificadores de primera generación,
y cada uno aumentaba más la ganancia del anterior. Se
perdía muy poca luz.
Sin embargo seguían siendo pesados y aparatosos lo
que limitaba su aplicación. No eran portátiles, y además
tenían problemas técnicos.
El primero era que tenían per-
sistencia de la imagen: cuando
se usaba contra objetivos en
movimiento las líneas de luz
dificultaban la localización e
identificación rápida, ya que
borroneaban la nueva imagen.
El segundo problema era que
cuando había luces muy po-
tentes el dispositivo encandila-
ba y llegaba a dejar la imagen
en blanco. Se cegaba y no se
veía nada.
El tercer inconveniente era
que estas luces potentes, que
podían ser flashes, bengalas u
otras, dañaban los fotocátodos
e incluso podían dejarlos in-
servibles.
Fue por eso que se mantuvo
un desarrollo tendiente a solucionar esos problemas. A
pesar de todos los escollos, estos dispositivos sirvieron
bien en los campos militares y no fueron retirados rápi-
damente. Sin embargo, a finales de la década de los
sesenta, se desarrolló la placa de microcanales, que so-
lucionó estos problemas y llevó al desarrollo de la se-
gunda generación.
-Intensificadores de imagen pasivos de segunda genera-
ción
La placa de microcanales consiste en un arreglo de pe-
queñísimos tubos de vidrio transparentes, puestos en
forma de disco. Estos tubos de vidrio o canales se co-
nectan electrónicamente en paralelo a electrocátodos
en ambos lados del disco.
Imagen Nº 3. Espectro electromágnetico, como se aprecia nuestra visión solo abarca una franja muy reducida de todo el
espectro. Con la visión nocturna nos adentramos en la franja de los rayos infrarrojos.
Fuente: www.artinaid.com
Imagen Nº 4. Intensificadores de luz residual..
Fuente: svahistoria.blogspot.com
37Nº14. Junio de 2016
Sin embargo se siguieron mejorando los sistemas de
segunda generación para lograr avances en la resolu-
ción de la imagen y lograr una mejor performance.
Trabajando en esa línea de mejora de la resolución de
la imagen surgieron los tubos Wafer, los cuales, además
añaden la ventaja de ocupar un espacio reducido.
Es otro tipo de aparato que hace uso de las placas de
microcanales. En estos tubos, la placa está montada a
muy corta distancia detrás del fotocátodo. Como la
imagen generada está invertida con respecto a la real,
se hace necesario la corrección óptica, generalmente
encarnada en una fibra óptica torcida.
Los tubos Wafer son pequeños y livianos y se usan
cuando la portabilidad es el factor decisivo.
-Intensificadores de imagen pasivos de tercera genera-
ción
Son más sensibles que los de las generaciones anterio-
res y también poseen mayor resolución. Esto se debe al
uso de fotocátodos de arseniuro de galio. Esto unido al
uso de placas de microcanales mejoradas hace que la
performance de esta generación de sistemas sea tres
veces más grande que la de la anterior. Sin embargo,
como consecuencia de estos avances, el costo suele
incrementarse hasta cinco veces más.
Debido a este problema, en la actualidad se continúan
usando ciertos sistemas de la segunda generación y
alargando su vida útil demasiado; aunque poco a poco,
estos sistemas casi obsoletos, se van sustituyendo por
los de tercera generación. El factor costo es vital en
muchos ejércitos y no es cuestionable el desperdicio de
los recursos ya existentes. Hay misiones que pueden
llevarse a cabo sin problemas con dispositivos de la
segunda generación; mientras se reservan los intensifi-
cadores más caros y potentes de para operaciones más
especiales.
Distintos usos
No terminan aquí las diferencias entre distintos tipos
de sistemas. El uso de los mismos hace que se especia-
licen y se dividan en más categorías.
Estos electrones son acelerados cuando se aplica volta-
je entre las superficies de los discos. Los electrones
secundarios crean así nuevos electrones adicionales,
continuando la multiplicación.
Así, la señal de entrada es amplificada varias veces al
haber cada vez más electrones.
Los electrones emitidos por el fotocátodo son enfoca-
dos electrostáticamente hacia la placa de microcanal,
localizada en frente de la pantalla de fósforo. Luego de
ser multiplicados, los electrones son acelerados por la
brecha libre hacia la pantalla, produciendo una imagen
mejorada de la escena, que no necesita ser invertida.
Se logró así el objetivo de poseer sistemas que pudie-
ran dar ganancias de hasta 50.000, permitiendo operar
en condiciones de nubes, niebla y otras condiciones
climáticas adversas.
Con los sistemas de segunda generación se consiguió
tener finalmente un sistema portátil, capaz de ser lleva-
do y operado con una sola mano. Además se solucio-
naron los problemas anteriores; los canales de la placa
no producen fogonazos y solamente se saturan peque-
ños puntos de la imagen y no el total, lo que sucedía
con los dispositivos de primera generación.
38 Nº14. Junio de 2016
Imagen Nº 5 .Esquema de como los electrones son rebotados hasta conseguir
una ganancia deseada en un placa multicanal.
Fuente: lacachimba.wordpress.com.
“Con los sistemas de segunda generación se pudo tener finalmente un sistema portátil,
capaz de ser llevado y operado con una sola mano.”
Aplicaciones
Pueden dividirse en dos categorías básicas:
Esta división corresponde a los sistemas de campo de
visión estrecha y los de campo de visión ancha.
Los primeros permiten ver en un ángulo de 9 grados o
menos, pero tienen la ventaja de estar combinados con
un gran alcance. Por eso son preferibles para francoti-
radores, artilleros de carros de combate y binoculares.
Los de visión ancha son de corto alcance, y suelen ser
usados por los conductores de carros de combate, que
no tienen por que ver con precisión a grandes distan-
cias, en sistemas de bolsillo, etc.
En la actualidad
A día de hoy, es impensable comenzar una campaña o
una operación defensiva sin tener en cuenta los dispo-
sitivos de visión nocturna propios y del enemigo. La
operación Tormenta del Desierto demostró lo eficaces
que pueden ser y su utilidad. La prensa incluso llegó a
sugerir que la demora en comenzar la operación se de-
bía a que se quería iniciar de noche para hacer uso de
esta ventaja táctica. No hay duda de que en el futuro
los avances en el campo de la visión nocturna seguirán
adelante, incluso con el surgimiento de una cuarta ge-
neración, que consecuencia de las innovaciones que se
han llevado a cabo en los últimos diez años en este
campo. Esta tecnología punta se basa en la extracción
de la película de iones lo que desemboca en una mayor
focalización y una mayor resolución.
El combatiente del futuro ira provisto de un sistema de
visión nocturna de última generación que le permita
reconocer el campo de batalla. Este sistema de visión
nocturna irá montado sobre el mismo casco del com-
batiente permitiéndole tener ambas manos libres mien-
tras está utilizando el sistema-
A parte de este adelanto, llevará incorporada mucha
más tecnología puntera como, por ejemplo, las gafas de
realidad aumentada que le permitirá conocer a tiempo
real las órdenes desde su puesto de mando, reconocer
enemigos y amigos a grandes distancias o, incluso, de
noche. Otros ejemplos son los fusiles con dirección de
tiro que son capaces de fijar un objetivo o los nuevos
chalecos antifragmentos que están realizados con fibras
de materiales compuestos muchos más resistentes, lige-
ros, plegables y cómodos que los antiguos confeccio-
nados a base de placas cerámicas.
Todos estos avances tecnológicos están en el mercado
actualmente pero debido a su elevado precio no están
disponibles para la mayoría de los ejércitos. Pero, poco
a poco, iremos viendo un profundo proceso de remo-
dernización y transformación mediante la adquisición
de nuevas capacidades, donde gran parte de las mismas
serán sistemas de visión nocturna.
39Nº14. Junio de 2016
“Es impensable comenzar una campaña o una operación defensiva sin tener en cuenta los
dispositivos de visión nocturna propios y del enemigo”
Imagen Nº 6 .Esquema de funcionamiento de un intensificador basado en un
foto-cátodo y una placa de microcanales.
Fuente: lacachimba.wordpress.com.
REFERENCIAS Y BIBLIOGRAFÍA:
 www.armas.es
 www.wikipedia.com
 www.pretexsa.com/
 www.tdx.cat
 http://visoresnocturnos.blogspot.com
resistencia del material, hace que
constituya una estructura bastan-
te ligera.
1.1 Formas geométricas de un
cable
- Catenaria.
Es la forma geométrica que
adopta un cable bajo su peso
propio.
- Parábola.
Es la forma geométrica que
adopta un cable bajo cargas dis-
tribuidas uniformes.
- Elipse
Es la forma geométrica que
adopta un cable bajo cargas dis-
tribuidas que crecen hacia los
apoyos.
- Triángulo
Es la forma geométrica que
adopta un cable bajo una carga
puntual.
La cubierta colgante consiste en
una lámina tendida entre puntos
firmes, que es al mismo tiempo,
estructura constructiva y material
de cubierta.
Es esencial que los elementos de
soporte principales de la cubierta
colgante estén contenidos en la
superficie de ésta y sean solicita-
dos únicamente por extensión,
teniendo, al menos en una direc-
ción curvatura negativa (o, lo que
es lo mismo, que sean colgantes).
La cubierta colgante constituye el
caso inverso de las estructuras
superficiales delgadas solicitadas
por compresión. De la misma
forma que ocurre con la cuerda y
el arco. El pandeo superficial,
que siempre es de temer en estas
superficies, no puede darse en la
cubierta colgante.
Las aplicaciones primitivas de
cubiertas simplemente colgantes
las tenemos en los toldos de lona,
que sin rigidez alguna se adaptan
a la forma más conveniente para
resistir las acciones que corres-
ponden, pesos o viento, por trac-
ción repartida en toda la superfi-
cie.
En este tipo de estructuras col-
gantes encontramos dos elemen-
tos fundamentales:
1. Cable en suspensión
2. Puntos de suspensión
1. Cable en suspensión
El cable es un elemento flexible
que, sujeto a cargas externas, ad-
quiere una forma concreta llama-
da funicular, que depende de la
magnitud y posición de estas car-
gas.
Desarrolla sólo esfuerzos de trac-
ción, por lo que, junto con la alta
DISEÑO CONCEPTUAL DE
CUBIERTAS COLGANTES
LUIS MANUEL DELGADO DELGADO. INGENIERO DE CAMINOS, C. Y P.
40 Nº14. Junio de 2016
Imagen 1. Washington Dulles International
Airport.
Ref: http://www.greatbuildings.com/
do las fuerzas varían y el compor-
tamiento de la estructura vuelve a
cambiar como respuesta al nuevo
sistema de cargas. El proceso es
cíclico y no se detendrá mientras
haya viento.
1.3 Estabilización del cable en
suspensión.
Hay varios procedimientos para
estabilizar los cables, algunos de
ellos se presentan a continuación:
- Aumento del peso propio
Parece ser la solución natural al
inconveniente que causa la flexi-
bilidad de este tipo de estructu-
ras. Ya que al aumentar el peso
propio de la cubierta, al fin y al
cabo, estamos rigidizándola, dis-
minuyendo su flexibilidad, con lo
cual conseguimos que no sea una
estructura tan sensible a cargas
variables como la sobrecarga de
viento. Cuanto más pesada sea la
cubierta más difícil será que sea
levantada por el viento.
El precio que tenemos que pagar
con este procedimiento es que a
medida que aumentamos el peso
propio del sistema, estamos au-
mentando la presión sobre la
cimentación, tanto en la zona de
los postes ya que el peso que ten-
drán que soportar será mayor,
como en los tirantes de retención
en los que también crecerá la
tracción.
De este procedimiento tenemos
varios ejemplos como pueden ser
la cubierta del Washington Dulles
International Airport, del arqui-
tecto Eero Saarinen y la ingenie-
ría Ammann & Whitney (Imagen
1), o la Maison de la culture de
Firminy-Vert, de le Corbusier
(Imagen 2 y 3).
- Trapecio
Es la forma geométrica que
adopta un cable bajo dos cargas
puntuales.
- Polígono
Es la forma geométrica que
adopta un cable bajo cargas pun-
tuales simétricas.
1.2 Deformaciones críticas del
cable en suspensión.
El cable suspendido debido a su
escaso peso propio en relación a
la luz y a su flexibilidad, es muy
sensible a la succión del viento,
las vibraciones y las cargas asimé-
tricas y dinámicas.
Supongamos una cubierta hori-
zontal formada por cables. Cuan-
do sopla el viento sobre ella pro-
duce una succión que hará subir
la estructura si la carga muerta es
menor. A medida que va subien-
Imagen 3. Maison de la culture de Firminy-Vert. Ref: http://www.panoramio.com/
41Nº14. Junio de 2016
Imagen 2. Maison de la culture de Firminy-
Vert, interior.
Ref: https://www.pinterest.com
- Rigidización mediante construc-
ción como arco invertido
También tenemos la opción de
aplicar un estado tensional a la
cubierta de forma que esta quede
rigidizada, y trabaje de forma si-
milar pero geométricamente in-
vertida a la de un arco.
Hemos de tener en cuenta que
tanto las cadenas como los arcos
(cadenas de presiones), en sus
campos respectivos (tracciones y
compresiones), solo existen en
cuanto reciben cargas. En el esta-
do de descarga, ni las cadenas ni
los arcos toman formas estáticas,
y son lábiles o inestables.
El principio fundamental del arco
pretensado es simple. Se recubre
el trasdós del arco, de apoyo a
apoyo con elementos tensores
(cables de acero, hierros redon-
dos y otros), los cuales se tesan.
Entonces se produce una sobre-
carga en el arco debido al preten-
sado, que consiste en una presión
uniforme sobre el trasdós del
puente.
Esta carga de pretensado actúa
como un aumento del peso pro-
pio, que tiene la particularidad de
no aumentar la presión sobre los
cimientos, ya que la tracción de
los elementos tensores, se com-
pensa con la presión que ejerce el
pretensado sobre los apoyos, es
decir, el pretensado es un sistema
de fuerzas de resultante nula.
A partir de este momento el arco
pretensado se encuentra en equi-
librio aunque no existan cargas
que lo soliciten.
Volviendo del revés un arco pre-
tensado, tenemos una cubierta
colgante con una capa de hormi-
gón precomprimido, la cual pro-
duce tensiones fundamentales
iguales a las del arco pretensado.
Este es el funcionamiento estruc-
tural de las bandas tesas o tensa-
das, como la realizada por la ofi-
cina de proyectos Carlos
- Mediante una viga de rigidiza-
ción
La rigidización del cable portante
se puede conseguir suspendiendo
de éste una viga rígida, capaz de
soportar las cargas variables, re-
partirlas por toda ella y transmi-
tirlas al cable portante en su con-
junto.
Este es el método empleado en
los grandes puentes colgantes,
como por ejemplo el Golden Ga-
te de San Francisco de Joseph
Strauss. (Imagen 4),
- Rigidización mediante una celo-
sía
Se consigue la rigidización colo-
cando dos cables portantes, con
una celosía entre ambos, que le
aporta resistencia y rigidez al
conjunto frente a las cargas varia-
bles:
42 Nº14. Junio de 2016
Imagen 4. Puente Golden Gate .
Ref: Curso El arte de las estructuras I: cables y
arcos. Escuela Politécnica Federal de Lausana
“La cubierta colgante constituye el caso inverso de las estructuras superficiales delgadas
solicitadas por compresión”
Imagen 5. Pasarela sobre el río Pisuerga .
Ref: http://www.cfcsl.com/
irlandés Peter Rice, en las facha-
das del edificio The Fingal Coun-
try Council en Dublín, para
transferir las cargas del viento
sobre la fachada a la estructura
principal del edificio (Imagen 8).
 Uniéndolos mediante una celo-
sía. Sistema Jawerth.
En la (Imagen 9) vemos que los
cables que conectan el cable prin-
cipal y el cable de pretensión no
son verticales sino dispuestos en
diagonal. Esta disposición forma
una estructura de red compuesta
de mallas triangulares que desde
el punto de vista estructural, fun-
ciona como una celosía pretensa-
da. La estructura es muy eficaz
por la estabilidad de cada triángu-
lo, creado por las diagonales ten-
sionadas. Tiene el efecto de redu-
cir el desplazamiento debido a
cargas variables.
 Estabilización mediante tiran-
tes.
La rigidización del cable portante
también se puede llevar a cabo
mediante un conjunto de cables
que lo sujeten al suelo, o a los
puntos de suspensión. De esta
manera logramos reducir la longi-
tud libre del cable portante y por
tanto su flexibilidad frente a car-
gas variables.
Fernández Casado en el río Pi-
suerga (Imagen 5).
- Arriostramiento con un cable
de pretensión.
Otra posibilidad es la de emplear
otro cable de curvatura contraria
a la del cable portante, que unido
a este mediante elementos conec-
tores (bielas o tirantes), lo rigidi-
ce. Impedimos de esta forma que
se puedan dar deformaciones no
deseadas. En los siguientes es-
quemas se presentan algunas de
las posibilidades existentes:
 Uniendo los cables mediante
bielas:
Un ejemplo en el que se ha em-
pleado este sistema es Parc An-
dré Citroën (Imagen 6) del arqui-
tecto P. Berger y el ingeniero Pe-
ter Rice.
En la imagen podemos apreciar
cómo trabaja el sistema en fun-
ción de la dirección en la que so-
ple el viento, siempre con las bie-
las en compresión (color azul en
la imagen).
 Uniendo los cables con tirantes:
En la (Imagen 7) podemos obser-
var una cubierta de un estadio en
Holanda en la que se ha emplea-
do este sistema para rigidizar el
cable portante.
 Uniéndolos con bielas y tiran-
tes:
Este esquema ha sido empleado,
por ejemplo, por el ingeniero
Imagen 7. Tribune sportpark De Toekomst.
Ref: Curso El arte de las estructuras I: cables y
arcos. Escuela Politécnica Federal de Lausana
43Nº14. Junio de 2016
Imagen 6. Parc André Citroën.
Ref: Curso El arte de las estructuras I: cables y arcos. Escuela Politécnica Federal de Lausana
Con tirantes inclinados:
Un ejemplo de estos sistemas lo
podemos encontrar en el Puente
de Brooklyn de John A.
Roebling. También Alvar Aalto
proyectó una cubierta con este
sistema de estabilización para el
concurso del Pabellón de Depor-
tes de Viena.
 Estabilización mediante cables
múltiples.
Para soportar las cargas asimétri-
cas este sistema parte de la idea
de que cuando un cable tiene la
carga en la parte derecha se de-
forma descendiendo en esa parte
y levantándose en la parte contra-
ria, la izquierda.
De forma que combinando dos
cables que previamente adoptan
la forma que tendrían si se cargan
de forma asimétrica, podemos
tener un sistema que trabaje de
forma adecuada frente a las car-
gas móviles, ya que cuando la
carga este colocada a la izquierda,
esta será soportada por el cable
que tiene mayor flecha en la zona
izquierda, y cuando la carga se
desplace a la derecha será susten-
tada por el cable de mayor flecha
en la zona derecha. Se puede rigi-
dizar aún más el conjunto colo-
cando una celosía entre ambos
cables. Este sistema ha sido utili-
zado en el “Tower Bridge” de
Londres, como podemos ver en
la (Imagen 10).
 Estabilización mediante red de
cables
Extendiéndonos a las tres dimen-
siones, existe un método de rigi-
dización muy empleado, que par-
tiendo de un arco principal con-
siste en establecer una red de ca-
bles entre el arco y los puntos de
suspensión con lo que se crea
una superficie de curvatura nega-
tiva (colgante) que resiste muy
bien las sobrecargas.
Este sistema fue el empleado por
el ingeniero Fred Severud en el
David S. Ingalls Rink. También el
empleado por el estudio Schlaich,
En función de cómo se realice
este arriostramiento tendremos
los siguientes esquemas:
Con tirantes verticales:
Con tirantes horizontales:
Con tirantes tangenciales al cable
portante:
Imagen 8. The Fingal Country Council en Du-
blín.
Ref: www.pinterest.com
44 Nº14. Junio de 2016
“El cable suspendido debido a su escaso peso propio en relación a la luz y a su flexibilidad,
es muy sensible a la succión del viento, las vibraciones y las cargas asimétricas y dinámicas”
Imagen 9. Johanneshovs Isstadion
Ref: Curso El arte de las estructuras I: cables y
arcos. Escuela Politécnica Federal de Lausana
xión. Esta solución solo es viable
para cables ligeramente cargados
y con vanos relativamente cortos.
 Mediante soportes inclinados o
en V invertida:
De esta manera se disminuyen las
acciones sobre la cimentación, al
aumentar la superficie de contac-
to con el terreno. Pueden ser en
forma de contrafuerte:
O en celosía:
 Mediante postes atirantados o
tornapuntas:
Cuando los postes son verticales
el empuje horizontal pasa directa-
mente al tirante que transmite la
fuerza al terreno. Trabajando el
poste solo a compresión (suma
de la componente vertical de los
cables de la cubierta y de los ca-
bles de los tirantes). En este caso
la cimentación de los tirantes es
compleja, ya que están muy soli-
citados, y con esfuerzos de trac-
ción. Este sistema suele utilizarse
para cables que cubren vanos
relativamente grandes.
 Mediante postes inclinados ati-
rantados:
Con esta disposición es el poste
inclinado el que absorbe el empu-
je horizontal del cable portante,
ya que al ser vertical el tirante,
este solo puede trabajar en su
plano.
Bergermann and Partner en la
cubierta de una pista de patinaje
en Múnich (Imagen 11).
2. Puntos de suspensión
Para transmitir adecuadamente
los empujes horizontales y verti-
cales de los extremos del cable al
terreno pueden adoptarse varios
sistemas:
 Mediante soportes verticales:
En este caso el empuje horizontal
debe ser resistido por el soporte
que actúa como una viga en vola-
dizo. Ha de tenerse en cuenta el
momento inducido en la base de
la pila por dicho empuje. Para
resistir mejor este momento se
utilizan soluciones de pila en for-
ma de pórtico resistente a la fle-
Imagen 11. Pista de patinaje en Munich .
Ref: Curso El arte de las estructuras I: cables y arcos. Escuela Politécnica Federal de Lausana.
REFERENCIAS Y BIBLIOGRAFÍA:
- Frei Otto. Cubiertas Colgantes. España: Editorial Labor, S. A.; 1962.
- Heino Engel. Sistemas de estructuras. Barcelona: Editorial Gustavo Gili, SA; 2001.
- Edward Allen, Waclaw Zalewski. Form and forces: designing efficient, expressive structures. John Wiley & Sons, cop.
2009.
- Edward Allen, Waclaw Zalewski. Shaping structures: statics. John Wiley & Sons, cop. 1998.
45Nº14. Junio de 2016
Imagen 10. Tower Bridge .
Ref: Curso El arte de las estructuras I: cables y
costes, aumento de la vida útil de los accesorios, menos
impacto ambiental (reducción de emisiones CO2 y
otros contaminantes), prevención de daños, mejora de
seguridad en las calles, etc.
En este artículo se pretende mostrar una de las distin-
tas propuestas industriales de mejora que emergen en
este campo: los sistemas de telegestión. Mediante
redes inalámbricas de bajo consumo las luminarias se
comunicarán entre sí para compartir información rela-
cionada con su estado actual, reduciendo así el coste
que pudiera suponer cualquier sistema cableado exis-
tente actualmente en las ciudades. Al final del mismo
se verán algunos ejemplos de implementación reales.
Introducción
El gran avance tecnológico que vivimos hoy en día ha
hecho que, en los últimos años, el alumbrado público y
las tecnologías que usa queden un poco obsoletas e
ineficientes (hay más de 90 millones de puntos de luz
en Europa con más del 75% de las instalaciones con
una antigüedad mayor de 25 años(1). Teniendo en
cuenta que en la mayoría de los municipios el alumbra-
do público puede llegar a representar hasta el 60% del
gasto energético total, nos podemos hacer una idea del
gran impacto económico que tendría una inversión en
eficiencia energética. Añadiendo dos factores básicos
como la eficiencia energética y el diseño ecológico se
lograrían grandes resultados y beneficios tales como
optimización del consumo de energía, reducción de
TELEGESTIÓN INTELIGENTE: EL ALUMBRADO
PÚBLICO
46 Nº14. Junio de 2016
FRANCISCO DE ASÍS NAVARRO MADUEÑO. INGENIERO SUPERIOR INDUSTRIAL
3. 6LoWPAN: el objetivo principal, por tanto, del gru-
po de desarrollo de 6LoWPAN es definir como llevar
comunicaciones basadas en IP sobre enlaces IEEE
802.15.4 siguiendo un estándar abierto y asegurando la
interoperabilidad con otros dispositivos IP.
4. Bluetooth: pertenece al área de redes inalámbricas
personal (WPAN).
Entre las topologías de red encontramos:
La topología en estrella permite el establecimiento de
la comunicación entre dispositivos y un único nodo
central que ejerce la función de coordinador de red. El
coordinador de red es el responsable de iniciar y termi-
nar las conexiones y cualquier comunicación entre dos
nodos debe de pasar necesariamente por el mismo.
Sistemas de telegestión
En la figura de la derecha se muestra un ejemplo de lo
que pudiera ser un sistema de telegestión aplicado a la
iluminación de una vía pública. Como se puede obser-
var los módulos de telegestión van conectados a cada
una de las luminarias de la vía y mediante comunica-
ción inalámbrica estos transmiten la información pro-
cesada a un coordinador que está conectado en un pc
industrial a través de unos routers.
Utilizando sistemas de telegestión se permitirá al usua-
rio mantener un control remoto individual así como
una monitorización de cada punto de luz. Si a esto se le
añade un acceso a un servidor remoto a través de IP
conectado a una base de datos se podría tener acceso al
estado en que se encuentra una luminaria en cualquier
momento desde cualquier lugar. De la misma forma
se podrían obtener (desde una base de datos alojada en
el servidor) datos estadísticos de consumo, horas de
funcionamiento, regulación, anomalías, que servirían
entre otras cosas para prevenir errores futuros de la
instalación y mejorando así de una forma notable el
mantenimiento.
Comunicación inalámbrica
Para llevar a cabo el sistema de telegestión es necesario
montar una red de sensores inalámbricos (WSN: Wire-
less Sensor Network) gobernados por un protocolo de red
inalámbrico. En la actualidad existen multitud de ellos,
la decisión de usar uno u otro vendrá dadas por las
especificaciones marcadas en cada proyecto, aquí sim-
plemente se nombran algunos de ellos para familiarizar
al lector de su existencia.
1. IEEE 802.15.4: es un estándar exclusivamente dise-
ñado para redes inalámbricas personales de bajo consu-
mo (WPAN). Sus principales bazas son el bajo coste y
consumo gracias en parte a una baja tasa de transmi-
sión de datos.
2. ZigBee: El objetivo de ZigBee es desarrollar un
protocolo de bajo coste, baja tasa de datos, y baja po-
tencia de RF, para una amplia variedad de aplicaciones
que incluyen la automatización de edificios, control de
iluminación y control de acceso.
47Nº14. Junio de 2016
Imagen 1: esquema red aplicación final
Imagen 2: topologías de red
Una vez el módulo inalámbrico sea capaz de comuni-
carse con cualquier balasto, recogerá la información
que necesite de la luminaria y, a través de la red de sen-
sores, se conectará con el coordinador que estará únido
a un pc industrial y que almacenará dichos datos en
una base de datos (BBDD).
SCADA
Aunque no es necesario, resulta de gran utilidad tener
un SCADA para consultar todos los datos del estado
de las luminarias recopilados por la red de sensores
inalámbricos.
El SCADA puede permitir entre otras cosas, a través
de una sencilla interfaz de usuario, tanto la creación de
la red inalámbrica como la posterior monitorización
del estado en la que se encuentra en todo momento, así
como su gestión para establecer distintos modos de
configuración en función de la hora del día y de la épo-
ca del año en la que se encuentren. Esto lograría deter-
minar el estado de cualquier lámpara en cualquier mo-
mento, de forma que si se produce un fallo eléctrico o
de lámpara será diagnosticado en tiempo real para pro-
ceder a su sustitución o reparación tan pronto como
sea posible, consiguiendo una enorme fiabilidad.
Una posible configuración de un sistema SCADA se
muestra en la siguiente página. La comunicación entre
módulos se lleva a cabo a través de un área local y pri-
vada donde el nodo coordinador va conectado al orde-
nador industrial (que interpreta y ejecuta toda la infor-
mación). Estos nodos inalámbricos podrían ser contro-
lados a su vez de forma remota a través de internet
(haciendo uso de un servidor), ya sea a través de un
ordenador situado en un despacho del ayuntamiento de
un pueblo/ciudad donde se hayan instalado estos mó-
La topología punto a punto permite a cada nodo de la
red comunicarse con cualquiera siempre y cuando esté
a su alcance. Siempre habrá un nodo coordinador
(FFD: Full-Function Device) al cual llegarán todos los
mensajes y pueden existir routers (FFD) y dispositivos
finales (RFD: Reduced-Function Device). A través de esta
topología se logra la red en árbol, es la que se suele
utilizar en este tipo de aplicaciones y es la que se mues-
tra en la figura anterior.
Comunicación módulo-luminaria
Una vez sabemos los tipos de comunicación inalámbri-
cas existentes puede que la siguiente pregunta que le
venga a la mente es: pero, ¿cómo se comunican los
módulos inalámbricos con las luminarias? Pues bien, lo
hacen a través de balastos electrónicos. Un balasto
no es más que un equipo que sirve para mantener esta-
ble y limitar la intensidad de la corriente para lámparas,
ya sea una fluorescente, una lámpara de vapor de so-
dio, una lámpara de haluro metálico o una lámpara de
vapor de mercurio. A través de un protocolo estándar
de comunicación uno puede comunicarse con un
balasto para que encienda una determinada luminaria,
regularla o simplemente para saber en que estado se
encuentra (encendida, apagada, con fallo, etc).
La introducción de balastos digitales para lámparas
fluorescentes con protocolos de comunicación supuso
nuevas vías para que los fabricantes de controladores
propusieran nuevos diseños de componentes para el
control de la iluminación (3). De los protocolos de co-
municación que existen actualmente se destacan aquí
los más importantes: DALI, X-10, DMX-512, Lon-
Works, BACnet, control de fase y 0-10V.
Imagen 3: Apariencia balasto digital. (www.directindustry.es)
48 Nº14. Junio de 2016
“Hay más de 90 millones de puntos de luz
en Europa con más del 75% de las
instalaciones con una antigüedad mayor de
25 años.”
dulos o a través de una aplicación móvil en el caso de
que un operario acudiera a la calle donde éstos están
implementados para hacer alguna reparación/
sustitución y no pudiera hacer uso de un ordenador.
Todo esto se realiza con la seguridad y permisos de
identificación adecuados.
Ejemplo de implementación real
La Universidad de Córdoba, en concreto el grupo in-
vestigación IEI (Instrumentación y Electrónica Indus-
trial-TIC 240), lleva muchos años trabajando entre
otras cosas, en el sector de la iluminación pública en un
proyecto llamado IUI (Iluminación Urbana Inteligen-
te). En la actualidad (en colaboración con otras empre-
sas) y gracias a la financiación de fondos FEDER, ha
desarrollado varios prototipos. Éstos se encuentran en
fase de prueblas pero a día de hoy están instalados en
pilotos reales.
Ha elaborado un manual técnico en
el que se especifica el procedimiento
para la optimización global del Alum-
brado Público y ha desarrollado unos
módulos inalámbricos propios (como
el que se muestra en la derecha)para
llevar a cabo todo el proceso de tele-
gestión y recabado de información de
prácticamente cualquier luminaria.
Para sustituir un alumbrado conven-
cional por uno como los que hemos
detallado en este artículo, simplemen-
te habría que incorporar los módulos
mostrados en la figura anterior a cada
una de las luminarias y el software
creado tanto en los microcontrolado-
res de los módulos como en el pc
industrial se encargaría del resto: formación de red,
recopilación de información durante la noche, guarda-
do de los datos en un servidor e información en tiem-
po real tanto del estado de las luminarias como de po-
sibles anomalías ocurridas durante la noche.
Image 5. Módulo inalámbrico desarrollado por el grupo IEI, de la Universidad
de Córdoba
49Nº14. Junio de 2016
Imagen 4: posible esquema-configuración SCADA sistema de telegestión alumbrado público
“Un sistema de telegestión puede reducir
entre el 20% y el 85% en el consumo
eléctrico del alumbrado, dependiendo de la
instalación.”
Conclusiones
La Unión Europea es consciente desde hace muchos
años del gasto energético y del impacto ambiental
(cambio climático) que supone la iluminación pública
en cada una de nuestras ciudades, y más teniendo en
cuenta la difícil situación que Europa vive en la actuali-
dad, por lo que se ha fijado el objetivo de incrementar
la eficiencia energética en un 20% para 2020.
Para lograr esta eficiencia energética en el alumbrado
público son distintas las propuestas industriales que
emergen, resumiéndose en mejoras en la tecnología de
lámparas y balastos electrónicos, sistemas de arranque
suave, funcionamiento sin ruido y automatismos para
iluminación.
Son numerosas las medidas concretas recomendadas
para disminuir el consumo de energía eléctrica en el
alumbrado público, entre ellas un mayor control de la
iluminación (con posibles interruptores crepusculares o
astronómicos), una reducción del nivel de luz
(atenuación) durante horas de tráfico reducido, el uso
de balastos electrónicos inteligentes capaces de detectar
fallos eléctricos o el diseño de sistemas de teleges-
tión.
Este último es el que nos hemos centrado en este ar-
tículo. El sistema de telegestión mediante radiofrecuen-
cia es totalmente viable, es fiable y su coste de implan-
tación es fácilmente amortizable y está dentro de los
parámetros de mercado.
Un sistema de telegestión implantado permite una mo-
nitorización del estado de luminarias en tiempo real.
En la práctica, lo interesante es el registro de datos de
niveles de regulación y horas de funcionamiento que
permiten conocer el consumo energético y anticiparse
a las facturas, así como la gestión de un mantenimiento
Este sistema ya ha sido instalado en las localidades de
Montalbán y Carcabuey, con grandes beneficios tanto
en la reducción de costes como en el impacto energéti-
co y medioambiental (contaminación lumínica).
Como se puede observar en la siguiente ilustración tan-
to el balasto como el módulo inalámbrico van incorpo-
rados dentro de la luminaria:
50 Nº14. Junio de 2016
Imagen 7. Luminaria de una vía pública abierta para incorporación balasto-
módulo inalámbrico en el sistema de telegestión del alumbrado público
“Mediante un adecuado sistema de telegestión con monitorización 24h, una lámpara
fundida podría notificarse de forma “instantánea” a través de una notificación al
operario en el móvil.
Imagen 8. Contenido caja estanca incorporada en la luminaria..
preventivo de calidad.
Gracias al sistema de telegestión del alumbrado público
se puede conseguir por tanto:
 Captura de datos y estudio de las curvas de regu-
lación
 Cálculo de consumos energéticos a partir de las
curvas de funcionamiento.
 Modificaciones de las curvas de regulación por el
usuario.
 Gestión de averías como fallos de comunicación,
fallos de balasto o de lámpara prácticamente de
forma instantánea.
 Posibilidad de conocer las horas de funciona-
miento de las lámparas, una a una.
 Posibilidad de modificar las horas de encendido
y apagado de la instalación.
 Gestión de la instalación desde una Tablet.
REFERENCIAS Y BIBLIOGRAFÍA:
1) C. EUROPEA, «Iluminando las Ciudades:
Acelerando el Despliegue de Soluciones de
Iluminación Innovadoras en las Ciudades Europeas,»
2013.
2) Universidad de Córdoba, grupo IEI (www.uco.es/
iei)
3) Proyecto IUI:
http://iluminacionurbanainteligente.com/
4) P. Morante, «Reducing Barriers To The Use Of
High-Efficiency Lighting Systems. Lighting,»
Rensselaer, 2006.
5) K. N. S. J. JD Lee, «Development of Zigbee based
Street Light Control System,» de Power Systems 

Conference and Exposition. 

6) M. G. M. Mendalka, L. Kulas y K. Nyka, «WSN for
intelligent street lighting system,» de Information
Technology (ICIT), 2010 2nd International
Conference on. 

7) F. Leccese, «Remote-Control System of High
Efficiency and Intelligent Street Lighting Using a
ZigBee Network of Devices and Sensors,» de IEEE
TRANSACTIONS ON POWER DELIVERY, 2013.
51Nº14. Junio de 2016
aguas con una alta concentración
de substancias químicas como la
utilizada en lavadoras y lavavaji-
llas.
Las aguas negras proceden de
inodoros, fregaderos, lavadoras,
etc. Este tipo de agua está conta-
minada con desechos orgánicos o
productos químicos.
Las aguas pluviales, como su
nombre indica, provienen del
agua de la lluvia.
Reciclaje de aguas grises
Una vez recicladas, las aguas gri-
ses domésticas, pueden ser utili-
zadas en acciones que no requie-
ren agua potable. Los usos mas
habituales son el agua para cister-
nas y el agua para riego de jardi-
nes, pero también puede ser utili-
zada para el lavado de suelos o de
vehículos.
Como dato orientativo se puede
decir que el volumen de agua gris
producido por persona y día osci-
En el año 2002, las Naciones
Unidas establecieron los criterios
del derecho al agua. Se cuantificó
el volumen mínimo de agua por
persona que hay que garantizar
de acuerdo con cuatro criterios:
suficiencia, salubridad, accesibili-
dad y asequibilidad. Este volu-
men es de 55 litros, desglosado
en cuatro acciones: bebida 5, sa-
neamiento 25, higiene 15 y pre-
paración de alimentos 10 litros de
agua.
El consumo medio de agua en
los hogares españoles fue en
2015 de 130 litros por día y habi-
tante, 40 menos que en 2002. El
consumo doméstico ha ido dis-
minuyendo debido a una mejor
eficiencia del suministro, un au-
mento de las tarifas y una mayor
concienciación social en el uso
sostenible del agua.
A pesar de esta buena tendencia,
se podría aumentar el ahorro de
agua con el uso de sistemas de
reutilización de agua.
En el ámbito doméstico se puede
decir que el volumen de agua
desechada respecto a la consumi-
da ronda el 90%. En una vivien-
da el 100% del agua que entra es
potable, es decir, apta para el
consumo humano, y en solo la
mitad de los usos a los que se
destina necesitan agua potable.
Existen tres tipos de aguas resi-
duales que podrían ser reutiliza-
bles: aguas grises, aguas negras y
aguas pluviales.
Existen diferentes definiciones
del término aguas grises. La ma-
yoría de autores defienden que
las guas grises son las aguas resi-
duales domésticas que proceden
de las bañeras, duchas y lavabos.
Exceptuando inodoros y bidets, y
REUTILIZACIÓN DE AGUAS
RESIDUALES DOMÉSTICAS
YERAY ESTÉVEZ CERVIÑO. ARQUITECTO.
52 Nº14. Junio de 2016
Imágenes Nº 1 y 2. Consumo de agua por uso
en un bloque de viviendas.
Ref: www.iagua.es
como ya existe con las aguas plu-
viales, pero en España son toda-
vía inexistentes. Por este motivo
la implantación de sistemas de
reciclaje de aguas grises, está des-
tinado al uso particular, ya sea
una vivienda o un bloque de vi-
viendas.
Tipos de tratamiento
Existen diferentes tipos de trata-
mientos, que variarán significati-
vamente en coste, complejidad y
calidad del agua obtenida.
Sistemas sin tratamiento. El más
sencillo. Se envía directamente
desde el aparato emisor al apara-
to receptor, sin ningún tipo de
tratamiento.
Sistemas con tratamiento. Nor-
malmente siguen un proceso for-
mados por tres fases: captación y
almacenamiento de aguas grises,
tratamiento y almacenamiento e
impulsión del agua reciclada.
Existen varios tratamientos: físi-
cos, químicos y biológicos.
Sistemas físicos. Su objetivo es la
separación de aceites, grasas y
partículas sólidas, mediante un
sistema de filtros.
Sistemas físico-químicos. Se
desarrolla generalmente en cuatro
etapas. Prefiltrado para eliminar
los principales residuos, dosifica-
ción de coagulantes y/o floculan-
tes, filtrado de áridos y desinfec-
ción para evitar el crecimiento de
bacterias (hipoclorito sódico, UV,
etc.).
Sistemas biológicos. Hay multi-
tud de sistemas diferentes, pero
se basan en el mismo principio: la
eliminación de la materia orgáni-
ca mediante microorganismos,
que se originan mediante la apor-
tación de oxigeno. Es en esta
aportación donde radican las di-
ferencias entre los diferentes sis-
temas biológicos.
Reactores secuenciales. Utilizan
un proceso biológico con fangos
la entre los 50 y los 100 litros.
Mientras que en las principales
acciones ya nombradas, su de-
manda de agua es la siguiente:
cisternas, 18-45 litros/persona/
día; riego de jardines, 2-6 litros/
m²/día; lavado de suelos interio-
res, 0,5-1 litro/m²; lavado de sue-
los exteriores 2-6 litros/m² y la-
vado de vehículos, 250 litros. Es-
tos datos son orientativos, y de-
penden, claramente, de aspectos
sociales, la época del año y la ti-
pología de vivienda. Por ejemplo,
en una vivienda unifamiliar con
jardín el gasto en riego supone un
porcentaje elevadísimo del con-
sumo de agua total.
Utilizando sistemas de reciclaje y
reutilización de aguas grises se
estima que se pueden conseguir
ahorros del 30% del consumo de
agua de una vivienda, lo que con-
lleva un beneficio para el medio
ambiente y un ahorro en la factu-
ra del agua.
Para la implantación de estos sis-
temas es necesario un sistema
separativo de saneamiento, uno
para grises y otro para negras,
53Nº14. Junio de 2016
Imagen Nº 4. Sistema sin tratamiento.
Ref: Guía técnica española de reciclaje de aguas
grises. CS-AG Aqua España
Imagen Nº 3. Vivienda con sistema separativo
de saneamiento.
Ref: Guía técnica española de reciclaje de aguas
grises. CS-AG Aqua España
Imagen Nº 5. Reciclaje de aguas con corto
tiempo de reacción.
Imagen Nº 6. Reciclaje de aguas con tratamiento
físico y químico.
Ref: Guía técnica española de reciclaje de aguas
grises. CS-AG Aqua España
Imagen Nº 7. Reciclaje de aguas con tratamiento
físico y químico.
Ref: Guía técnica española de reciclaje de aguas
grises. CS-AG Aqua España
perficie captadora hace disminuir
su calidad desaconsejándose para
el consumo humano.
Al igual que en la reutilización de
las aguas grises, los usos aconse-
jados para las aguas pluviales son:
cisternas, riego y limpieza.
La utilización de agua de lluvia
recogida, filtrada y almacenada
correctamente, puede reducir un
40% el consumo de agua de una
vivienda.
Si en el reciclaje de aguas grises,
el ser humano era el actor princi-
pal, ahora entra en juego otro
factor que no podemos controlar,
la naturaleza. Por eso, para insta-
lar un sistema de recogida de
aguas pluviales, es muy importan-
te estudiar la pluviometría del
lugar y el uso que se le dará al
agua recogida.
Diseño del sistema
Se pueden diferenciar cuatro pro-
cesos principales para el diseño
de un equipo de reutilización de
agua de lluvia: captación, filtra-
ción, almacenamiento y distribu-
ción.
Captación. Se denomina superfi-
cie de captación a la parte de la
cubierta destinada a recoger el
agua de la lluvia. El tipo de mate-
riales y las pendientes de la cu-
bierta influyen en la calidad y en
la cantidad del agua captada.
Filtración. Para conseguir una
mayor calidad en el agua, y preve-
nir posibles contaminaciones, es
necesario un filtrado antes de
conducirla al tanque de almace-
namiento. Existen multitud de
filtros y su elección dependerá de
la función y la ubicación que se
desee. Estos elementos requieren
un mantenimiento importante, se
recomienda una revisión semes-
tral para que el sistema funcione
perfectamente.
Almacenamiento. La luz y el ca-
lor pueden afectar negativamente
en la calidad del agua almacena-
da, por lo que el tanque deberá
estar protegido de estos elemen-
tos. Su ubicación ideal es bajo
tierra, lo que no supone ningún
problema en obra nueva, pero si
en viviendas ya construidas. En
este caso, deberá ser opaca y pro-
tegerse del sol en la medida de lo
posible. Para un correcto dimen-
sionado es necesario un estudio
previo basado en estos tres facto-
res: superficie de captación del
sistema, precipitaciones medias
activos, en cuatro etapas: llenado,
aireación, decantación y separa-
ción.
Reactores biológicos de membra-
na. Utilizan el proceso biológico
y un unos microfiltros para la
decantación de partículas sólidas.
Sistemas biológicos naturaliza-
dos. Utilizan vegetación para
aportar naturalmente oxigeno a
los microorganismos.
Aprovechamiento de aguas
pluviales
La recogida de agua de lluvia
para su posterior utilización es
algo que el ser humano lleva ha-
ciendo a lo largo de toda su his-
toria.
En España, llueven de media
anualmente 600 litros por m², en
una vivienda de 100 m² de cu-
bierta y suponiendo un rendi-
miento ideal, se podrían obtener
60.000 litros de agua gratis.
La calidad de esta agua es exce-
lente, pero el contacto con la su-
54 Nº14. Junio de 2016
Imagen Nº 8. Precipitación media anual en
España.
Ref: www.ign.es
Con el uso de sistemas de reutilización de aguas grises y pluviales se puede reducir el
consumo de agua entre un 30 y un 40%.
Imagen Nº 9. Esquema de un sistema de reuti-
lización de aguas pluviales.
Ref: Guía técnica de aprovechamiento de aguas
pluviales en edificios. Aqua España
En muchas viviendas aisladas
utilizan las fosas sépticas para el
tratado de estas aguas residuales.
A una escala urbana, las estacio-
nes depuradoras de aguas resi-
duales (EDAR), tratan, mediante
una serie de procesos, las aguas
negras.
Sí que existen métodos naturales
para la utilización de aguas negras
provenientes del inodoro, que se
utilizan en comunidades de bajo
desarrollo o con un alto nivel de
sostenibilidad.
Destacan dos sistemas: la utiliza-
ción de lombrices y la utilización
de plantas.
Un sistema ecológico para depu-
rar aguas negras es la utilización
de lombrices de tierra. Se trata de
un tanque al aire libre, compues-
to por un serie de filtros natura-
les, serrín, tierra, que se riega con
las aguas residuales. El agua atra-
viesa las capas y se retienen en
una capa de tierra donde actúan
las lombrices. Gracias a su ac-
ción, se transforman los contami-
nantes del agua en humos, un
fertilizante natural formado por
los excrementos de las lombrices
de tierra. Este sistema se utiliza
en pequeñas poblaciones o ex-
plotaciones ganaderas ya que su
mantenimiento es mínimo y el
coste de implantación es bajo
respecto a otro sistemas de depu-
ración. Varios estudios afirman
que este sistema elimina en un
80% los contaminantes del agua y
con la ventaja de la obtención del
abono al que se le puede sacar
rendimiento económico.
Otro método natural para la de-
puración de aguas residuales con-
siste en la creación de humedales
artificiales. Las plantas absorben
los nutrientes del agua, actuando
así, como filtros naturales.
Alguna de las especies utilizadas
en estos sistemas son: totoras,
repollitos de agua, camalotes y
juncos.
Su mayor ventaja es su coste,
prácticamente nulo, pero el pro-
ceso puede ser largo.
de la zona y la demanda del edifi-
cio.
Distribución. Los tres tipos de
instalaciones de distribución que
podemos encontrarnos en el
mercado son: por gravedad, el
depósito está a una cota superior
al sistema; en carga con electro-
bomba, el depósito está situado a
un nivel igual o inferior; y en as-
piración con electrobomba, el
depósito se encuentra a una cota
inferior a la del sistema.
Esta última es la instalación más
común. Puede darse con electro-
bomba de superficie o sumergi-
ble.
Otro tema importante es si la red
de distribución tendrá o no, ga-
rantía de suministro. Sin garantía,
el suministro se detendrá cuando
no exista disponibilidad de agua
de lluvia en la cisterna, mientras
que con garantía de suministro se
utilizaría agua de otra fuente.
Reciclaje de aguas negras
Las aguas negras, con una mayor
cantidad de contaminantes, ya sea
químicos o fisiológicos, son las
más costosas de reciclar, por lo
que su reutilización no está tan
generalizada como la de las aguas
grises y pluviales. Su implanta-
ción en uso domésticos sería, hoy
en día, muy difícil.
55Nº14. Junio de 2016
Imagen Nº 10. Tipos de bomba para el sistema de distribución.
Ref: www.aquabazar.com
REFERENCIAS Y BIBLIOGRAFÍA:
- SEOÁNEZ CALVO, Mariano. Manual de reciclado, aprovechamiento y gestión
de las aguas residuales de las industrias agroalimentarias. Ed, Antonio Madrid
Vicente, Madrid, 2016.
- AQUA ESPAÑA. CS-AG. Guía técnica española de recomendaciones para el
reciclaje de aguas grises en edificios. 2011.
- AQUA ESPAÑA. GA-AP. Guía técnica de aprovechamiento de aguas pluviales en
edificios. 2008
- www.iagua.es - www.mma.es -www.h2opoint.com
- www.blogdelagua.com - www.ecojoven.com
les y, además, son menos sensibles a la corrosión o a la
fatiga. Debido a estas propiedades, su uso en aplicacio-
nes estructurales permite un ahorro significativo de
peso. Este ahorro de peso significa reducir consumo de
combustible, reducir costes de operación y mejorar la
protección medioambiental. Estas ventajas han consti-
tuido una excelente fuerza motriz para su generaliza-
ción.
A pesar de sus bondades, la irrupción de los composi-
tes en la fabricación de aeronaves ha sido muy escalo-
nada, principalmente por la complejidad de su fabrica-
ción y su complicado comportamiento mecánico. Los
primeros materiales compuestos en usarse en aerona-
ves fueron los de fibra de vidrio con matriz de epoxy.
Se utilizaban en carenados y otras estructuras que no
tuvieron que soportar grandes cargas. En los 60 se em-
pleó por primera vez aramidas (ej.: kevlar). Es más rígi-
do que la fibra de vidrio, soporta muy bien los impac-
tos, pero no trabaja bien a comprensión ni soporta
bien el ataque del medio ambiental. También data de
esta época los primeros diseños de palas de rotor en
composite, debido a la necesidad de que las palas
En 1907 comienza
la era de los materia-
les compuestos mo-
dernos. En este año
el químico belga
Leo Baekeland ob-
tuvo por primera
vez una resina ter-
moestable. Baeke-
land calentó y aplicó
presión en un reci-
piente especial a un
fenol y un formal-
dehido para obtener una resina líquida que polimerizó
y tomó la forma del recipiente. La llamó bakelita.
A lo largo de las tres primeras décadas del pasado siglo
se van incorporando el resto de las matrices: las fenóli-
cas, que fueron las primeras en desarrollarse industrial-
mente para aplicaciones de aislamiento, armamento y
bisutería, las poliéster, las vinil ésteres y las epoxis.
En el campo de la aeronáutica, la razón de su uso se
debe a que poseen muy buenas propiedades mecánicas
específicas (propiedades de por unidad de peso) cuan-
do se comparan con las aleaciones metálicas tradiciona-
USO Y SISTEMAS DE FABRICACIÓN DE LOS
MATERIALES COMPUESTOS EN AERONAÚTICA.
ADRIÁN JIMÉNEZ MARTÍN. ING. TÉC. AERONAÚTICO.
Localizaciones de material compuesto en un
Aribus A350.
56 Nº14. Junio de 2016
Cada 787 contiene aproximadamente 32 toneladas de
plástico reforzado de fibra de carbono (CFRP). Con
esta tecnología se ha conseguido ahorrar 18 toneladas
de peso y junto a un nuevo motor de última genera-
ción, es un 20% más eficiente en el consumo de com-
bustible que un avión tradicional de las mismas dimen-
siones.
Su fuselaje está dividido tan solo en 4 piezas de mate-
rial compuesto. Este arriesgado diseño permite elimi-
nar 1500 planchas de aluminio y 40000-50000 rema-
ches. El uso de composites también ha influido en el
bienestar de los pasajeros, ya que las ventanas son ma-
yores que las de cualquier otro avión de pasajeros y
como estos materiales no sufren la corrosión de los
metales, los niveles de humedad del aire son mayores.
Además, el avión esta presurizado a la presión existente
una altitud de 6000 pies mientras que los aviones con-
vencionales lo están a unos 8000 pies. Esto se traduce
en menores dolores de cabeza y oídos para los viajeros.
Para este avión, la compañía ha tomado el paso sin
precedentes de subcontratar la mayoría de su produc-
ción. La mayoría del trabajo en composites ha sido rea-
lizado 4 principales proveedores: Spirit AeroSystems
(Wichita, Kan.), Kawasaki Heavey Industries (Tokio,
Japón), Vought Aircraft Co. (Dallas, Texas) y Alenia
Aeronautica (Roma, Italia).
tengan una alta
rigidez a torsión
para que puedan
responder rápi-
damente a los
cambios de án-
gulo de ataque
impuestos por la
base del rotor. El
primer material
compuesto que
se empleó en
partes estructu-
rales de un avión fue la libra de boro, que se fabrica
depositando fibras de boro sobre filamentos de tungs-
teno. Es muy caro y su uso es prácticamente sólo mili-
tar. Por eso, es mucho más popular la fibra de car-
bono, que tiene unas características muy parecidas, pe-
ro es mucho más barata de producir.
Antes de mediados de los años 80, los fabricantes los
comerciales de aviones militares utilizaban los materia-
les compuestos en estructuras secundarias como los
bordes del ala o en las superficies de control, por lo
que representan un pequeño porcentaje. Fue en 1988
cuando Airbus dio un salto cualitativo produciendo la
sección de cola de su modelo A320 completamente en
material compuesto. Desde entonces, estos materiales
han ido ganando terreno en su uso estructural, hasta
llegar a estar presentes en casi todas partes del avión y
representar al menos la mitad del peso estructural en
los últimos modelos.
El Boeing 787 Dreamliner entró en servicio en el 2011
y es el primer avión que posee el 50% de la estructura
principal fabricada en material compuesto.
A lo largo del tiempo el uso de materiales compues-
tos en los aviones ha ido incrementándose.
Ala del Airbus A400, construida en su mayor parte por material compuesto.
57Nº14. Junio de 2016
de la parte trasera del fuselaje. Airotec, elabora la parte
delantera del fuselaje en Nordenham (Alemania). Por
último, el estabilizador horizontal es manufacturado en
Getafe (España).
Al igual que en B787, algunos retrasos en el calendario
han sido asociados a problemas con los materiales
compuestos. Un ejemplo es el retraso de tres meses
debido a dificultades en el proceso automatizado de
perforación de los agujeros de las alas, necesarios para
su sujeción con las costillas.
En el plano del transporte militar, el Airbus A400, que
realizó su primero vuelo en 2009, está construido en
un 30% de materiales compuestos. Cabe señalar que es
el primer avión construido con los largueros principa-
les fabricados de material compuesto. En cuanto los
modelos de cazas más avanzados del momento, el uso
de materiales compuestos es motivado a parte de por
sus ventajas estructurales, por su baja huella radar. Los
americanos F22 y F35 cuentan con un 25% y 35% de
estos materiales respectivamente. Debido a la naturale-
za furtiva de estos aviones de combate prácticamente la
totalidad de su superficie visible está compuesta de
materiales compuestos, ya que estos materiales se
muestran “transparentes” al radar. A mucha distancia
se encuentra el Eurofighter Typhoon, desarrollado en
un 82% de su peso estructural en materiales compues-
tos. Esto proporciona una mayor rigidez estructural,
permitiéndolo realizar maniobras con valores de fuerza
G verdaderamente altos.
El uso tan exten-
sivo de los mate-
riales compues-
tos ha supuesto
un reto tanto
para Boeing co-
mo para sus pro-
veedores, ya que
este motivo es la
principal causa de
los 3 años de re-
tro del programa.
Los primeros 6 aviones producidos nacieron con 2300
kg más de lo especificado, por lo que tuvieron que op-
timizar el diseño y aumentar el uso del titanio para co-
rregir el problema.
Airbus trabaja en el A350 XWB, el cual posee el 53%
de su estructura en materiales compuestos, estimando
reducir un 60% las tareas de mantenimiento por corro-
sión y fatiga.
Al igual que el B787, su fuselaje está completamente
construido en CFRP, pero su diseño es menos radical
aunque su fuselaje está constituido por una pieza me-
nos que el B787. Esto es debido a que cada sección
está constituida por 4 paneles. Desde Airbus destacan
que de esta manera la manufacturación es más sencilla
y pueden reducir peso optimizando el espesor de cada
panel según los cálculos de esfuerzos y cargas.
La mayoría de las estructuras del A350 están fabricadas
en centros pertenecientes a Airbus, a pesar de algunas
expcepciones como GKN Aerospace
(Filton, U.K.), la cual produce de composi-
te los flaps de aterrizaje y los largueros tra-
seros; o como Spirir AeroSystems, la cual
provee los paneles de la sección de fuselaje
central, largueros y bordes de ataque fijos
desde Kinston (U.S.).
El cajón del ala central, el cual está realiza-
do en un 40% de fibra de carbono, está
fabricado en Nantes (Francia). El revesti-
miento superior del ala es manufacturado
en la planta de Airbus en Stade (Alemania),
mientras que el inferior lo está en Illescas
(España). Estos componentes de una sola
pieza se han convertido en los más grandes
jamás construidos por la aviación civil,
hechos de fibra de carbono. También
es en Illescas donde se fabrica el barril
Máquina ATL que realiza de una sóla pieza la piel del ala del A350.
58 Nº14. Junio de 2016
En rojo se observa las partes del avión militar que
tiene material compuesto.
En aviación se usa principalmente polímeros reforza-
dos con fibra de carbono debido a los exigentes requi-
sitos de resistencia estructural. Si echamos la vista atrás
y comparamos los principales métodos de producción
vemos que la esencia es la misma. Esto es, se colocan
las capas de telas de fibra de carbono preimpregnadas
en resina (prepregs) en el correspondiente molde, se
hace la bolsa de vacío para asegurar la calidad requerida
y, posteriormente, se cura en un autoclave. La diferen-
cia entre los métodos anteriores y ahora es la velocidad
con la que se lleva a cabo. Si mientras que antes las
telas se colocaban manualmente, ahora se utilizan má-
quinas de ATL y AFP que son capaces de llegar a colo-
car 60 m de tela por minuto. Las máquinas de ATL se
utilizan para encintar superficies sencillas con cinta
preimpregnada unidireccional. Por otro lado, las má-
quinas de AFP son similares pero para encintar super-
ficies más complejas. Por ejemplo, la técnicas de AFP
se utiliza para la fabricación del fuselaje y los largueros
del A350 (larguero compuesto de hasta 100 capas). En
cuanto al fuselaje, la piel está hecha mediante AFP y,
posteriormente, se le han añadido los larguerillos
(también mediante AFP) y todo esto ha sido cocurado.
Por otro lado, la piel del ala se hace mediante ATL.
Para crear piezas más complejas se utilizan otros méto-
dos. El más popular es el RTM. Consiste básicamente
en colocar las telas secas en un molde con una forma
final de la pieza para luego insertar la resina. Este mé-
todo tiene la ventaja de no tener que usar prepregs:
más fácil de trabajar, no hay necesidad de conservarlos
para que no caduquen y no hay un tiempo máximo en
el que colocar las telas porque se vaya a secar la resina.
Además, cabe la posibilidad de no necesitar curar la
pieza en autoclave y curarlo en temperatura ambiente.
Este método, en su variante VARTM, se utiliza para
fabricar, entre otras, la puerta trasera de carga del
A400, las superficies de control del borde de salida del
B787 y el mamparo de presión de éste. Este sistema
emplea un molde rígido y un contramolde flexible fa-
bricado en nylón y se sella sobre el perímetro del mol-
de con una cinta adhesiva. Una vez pegada la membra-
na a la superficie del molde
se produce el vacío en el
interior de la cavidad con el
fin de que entre la resina.
Los materiales compuestos
en la industria aeronáutica
han alcanzado su máximo
nivel de utilización en
los programas más re-
cientes. Para incremen-
tar la utilización de CFRP se debe de hacer un gran
esfuerzo de investigación.
En el plano de la fabricación, desarrollo de nuevas tec-
nologías de producción más rápidas y baratas, evitando
el uso del autoclave, ya que ejerce de cuello de botella.
En el plano de los materiales, desarrollo de nuevos ma-
teriales con propiedades mejoradas, fibras de carbono
de resistencia y módulo mayor, nuevas fibras orgánicas
y cerámicas y propiedades multifuncionales. En este
sentido, se está trabajando en mejorar la conductividad
de los composites, ya que el alcance por un rayo a un
avión puede resultar peligroso. La principal línea de
investigación se centra en la integración de nanotubos
de carbono en los materiales compuestos, puesto que
poseen muy alta conductividad eléctrica, ayudando a
disipar la energía del rayo. Además, es preciso el per-
feccionar las técnicas de detención de defectos tanto en
su fabricación como en su posterior uso, dado que los
materiales compuestos suelen regresar a su forma origi-
nal tras un impacto, por lo que los posibles daños pue-
den ser invisibles, pero graves. Para solucionar esto, se
investiga en crear una estructura inteligente que pueda
alertar al operador de cualquier daño que se produzca
en ella; sometiéndose actualmente, a ensayos de vuelo y
encontrándose en las etapas finales de su desarrollo.
Sección de fuselaje de un avión fabricado
con material compuesto en su mayoría.
59Nº14. Junio de 2016
En la industria aeronáutica, los materiales compuestos ,
han alcanzado su nivel más alto en los últimos tiempos.
cas. También hay ciertos materia-
les que ya están en determinados
ámbitos industriales, pero que se
estima que su uso se generalice a
lo largo de los años venideros.
Carbono
No es que el carbono sea una
novedad, pero se cree que los
derivados del carbono van a te-
ner una importancia grande en el
futuro. De hecho, hay más de 16
millones de compuestos que tie-
nen relación con el carbono ya
que puede encontrarse en la natu-
raleza en distintas formas. Es un
material abundante, algunos in-
cluso lo califican de prácticamen-
te inagotable, que se usa en dis-
tintos ámbitos como en el do-
méstico, en la medicina o en los
reactores nucleares. Una desven-
taja muy importante y que con-
tradice la tendencia de búsqueda
de energía limpia en los nuevos
materiales, es que el carbono tie-
ne un extenso rango de toxicidad,
por lo que puede poner en riesgo
la salud.
Grafeno
Es un material que ha cobrado
especial relevancia durante los
últimos años. Es una variante del
carbono y está compuesto por
átomos de este elemento y enla-
ces covalentes, con un espesor
atómico muy pequeño, de 0,34
nanómetros, además de tener una
estructura formada por celdas
hexagonales. Entre sus ventajas
destacan su elevada resistencia,
su alta conductividad térmica y
eléctrica y con una gran movili-
dad eléctrica, por lo que se usa en
el ámbito electrónico especial-
mente en el de alta frecuencia.
Tiene otras propiedades intere-
santes como que entre la banda
de conducción y la de valencia no
hay brecha, los electrones casi no
se dispersan ya que chocan poco
entre sí.
Introducción
La ciencia, tecnología e ingeniería
han avanzado a pasos agiganta-
dos los últimos 50 años y se pre-
vé que lo sigan haciendo a lo lar-
go del siglo XXI. Es difícil saber
que tipo de materiales serán los
protagonistas en los próximos
años, debido a diversos factores,
entre ellos el económico, ya que
un material puede tener una serie
de ventajas extensas, pero si tiene
un coste excesivo o si su cuota de
mercado es pequeña puede dejar
de desarrollarse y caer en el olvi-
do pese a que se crearan expecta-
tivas muy altas. En general, los
materiales que se cree van a ser
fundamentales en las próximas
décadas son respetuosos con el
medioambiente y seguros para la
salud humana. El presente artícu-
lo expone una serie de materiales
que tienen muchas posibilidades
de ser usados ampliamente de
forma industrial o doméstica, a lo
largo de las próximas décadas así
como sus principales característi-
MATERIALES DEL FUTURO.
JUAN MANUEL ALFARO ÁLVARO. INGENIERO INDUSTRIAL.
60 Nº14. Junio de 2016
Imagen 1. Estructura interna del grafeno.
Foto obtenida de la web: http://lawebdelgadget.es
de nanómetros y unas longitudes
de onda micrométricas, aunque
pueden llegar a ser del orden de
milímetros y que les hace tener
una relación entre la longitud y el
diámetro elevada. Son sistemas
ligeros, porosos y huecos que
destacan por su alta resistencia a
la tracción, su gran elasticidad y
su elevada resistencia mecánica,
que les hace ser ideales para la
fabricación de composites de
bajo peso y para reforzar la es-
tructura de los materiales, además
de otra serie de propiedades ópti-
cas, eléctricas, mecánicas quími-
cas y térmicas que los hacen muy
interesantes. Pueden ser utiliza-
dos también en sensores quími-
cos y biológicos para localizar
contaminantes y en pilas de com-
bustible, entre otras muchas apli-
caciones. Los hay de dos tipos:
de pared simple (SWNCT), for-
mados por átomos de carbono
que forman una red hexagonal
cilíndrica, cuyos extremos pue-
den estar abiertos o cerrados; de
pared compuesta (MWCNT),
cuya estructura es similar a varios
de pared simple concéntricos y
de distintos diámetros. Las pro-
piedades dependen del tipo de
nanotubo, de la relación entre la
longitud y el diámetro, de las im-
perfecciones del nanotubo y de la
forma en que están dispuestos los
hexágonos. Son apreciados en la
electrónica debido a que pueden
ser metálicos o semiconductores,
de forma que podrían sustituir al
silicio en los dispositivos electró-
nicos ya que a escala molecular
funcionan correctamente y son
buenos disipadores del calor, y
los dispositivos aumentarían su
vida útil. El problema principal es
su susceptibilidad al ruido ocasio-
nado por fluctuaciones eléctricas,
químicas y térmicas.
Por otra parte, el grafeno permite
altas densidades de corriente,
tiene un elevado módulo de
Young, tiene gran resistencia a la
fractura, químicamente es inerte,
casi toda la luz lo atraviesa por lo
que es transparente, es duro, rígi-
do, biocompatible e impermea-
ble. Entre sus aplicaciones están
los filtros, las células de combus-
tible, los recubrimientos, tiene
particular importancia en la aero-
náutica, también se usa en super-
condensadores y en muchos
otros ámbitos.
Carbino
Este material está compuesto por
una estructura de átomos de car-
bono unidos mediante enlaces
simples alternados y triples o
bien mediante enlaces doble con-
secutivos. Sus propiedades están
por ver, pero los químicos de la
universidad de Rice (Houston,
EE.UU) han llegado a asegurar
que es más resistente que los na-
notubos de carbono y que el gra-
feno, e incluso más duro que és-
te. El principal problema que
presenta es la dificultad para
crearlo de forma estable. Aún así,
algunos científicos hablan de las
siguientes ventajas de este mate-
rial: su tensión de rotura es muy
grande, incluso superior a la del
grafeno, de forma que es capaz
de soportar grandes estiramien-
tos; la rigidez a tracción es casi el
triple de la del diamante; puede
llegar a ser un gran semiconduc-
tor magnético y puede almacenar
gran cantidad de energía.
Nanotubos de carbono
Son una forma alotrópica del car-
bono y se asemejan a pequeñas
láminas de grafito enrolladas, que
tienen unos diámetros del orden
Imagen 2. Estructura interna de un nanotubo de carbono de pared simple..
Instantánea obtenida de la web: http://meetthings.com
61Nº14. Junio de 2016
bono formando una estructura
compuesta de pentágonos y he-
xágonos alternados, similar a un
balón de fútbol. Otros fullerenos
son el C20, C70, C76, C84 o
C540. Todos son estructuras geo-
métricas tridimensionales y cerra-
das, cuyos átomos de carbono se
localizan en la superficie por lo
que el volumen interior está va-
cío. Se cree que sus posibles apli-
caciones abarcan el campo de la
medicina e incluso pueden ser
usados para diversas reacciones
químicas no habituales debido a
su capacidad de enjaular en su
interior átomos de otros elemen-
tos. Como consecuencia de su
carácter molecular, pueden disol-
verse en disolventes orgánicos y
modificarse químicamente para
obtener derivados, conservando
sus propiedades físicas y quími-
cas. Destacan sus propiedades
superconductoras y su elevada
capacidad de procesamiento por
lo que son adecuados para la
electrónica, nanotecnología, recu-
brimientos, biomedicina, fotote-
rapia o metalurgia. Se han obteni-
do polímeros con propiedades de
limitadores ópticos, polímeros
electroactivos y se cree que las
propiedades de algunos derivados
solubles en agua pueden ayudar
al tratamiento del virus del SIDA.
Estaneno
Es un material bidimensional
formado por malla de estaño con
un único átomo de grosor y que
es capaz de conducir la electrici-
dad a alta temperatura con una
gran eficacia. Puede llegar a ser
importante en el ámbito de la
electrónica mejorando la eficien-
cia de los chips de silicio y desta-
ca por ser un posible aislante to-
pológico ya que los electrones
solo se pueden mover por el bor-
de del material siendo en esta
zona la resistividad casi nula. De-
bido a estas buenas propiedades
conductoras y de termoelectrici-
dad, ya que a temperatura am-
biente los electrones se mueven
sin disipar calor, sería un material
ideal para el desarrollo de circui-
tos eléctricos de bajo consumo.
El principal obstáculo que pre-
senta es que todas estas propie-
dades aún no han podido verifi-
carse, ya que corresponden a
predicciones de modelos teóricos
basados en la teoría del funcional
densidad, pero de confirmarse el
estaneno sería fundamental.
Fullerenos
Son otras formas alotrópicas del
carbono, compuestos por redes
pentagonales o hexagonales de
carbono semejantes a las del gra-
fito, pero que en vez de ser pla-
nas son curvas por lo que forman
diferentes poliedros. Debido a
que la estructura electrónica de
los átomos de carbono restringe
las configuraciones geométricas,
la cantidad de fullerenos es limi-
tada, asociado cada uno a un de-
terminado poliedro. Al ser los
ángulos de un pentágono de
108º, a diferencia de los 120º del
hexágono, los enlaces de carbono
están de alguna forma forzados
pero lo neutraliza la estabilidad
que proporciona la estructura
poliédrica. El principal fullereno
es el C60 o buckminsterfulereno,
formado por 60 átomos de car-
Imagen 3. Estructura del C60, el principal fullereno.
Imagen adquirida de la web: http://www.jccanalda.es
62 Nº14. Junio de 2016
“El carbono y sus diversas formas alotrópicas parece que van a tener un gran
protagonismo en las próximas décadas”
El germaneno está formado por
una capa bidimensional de áto-
mos de germanio y el fosforeno
por átomos de fósforo y son bue-
nos conductores, especialmente
el fosforeno que se puede utilizar
en transistores.
El pegamento molecular tiene
la capacidad de unir materiales a
nivel molecular y se obtiene gra-
cias a una proteína de la bacteria
Streptococcus pyogenes. Se está
trabajando en crear esas proteínas
para que la unión molecular se
puede realizar de manera selecti-
va, ya que esta proteína forma
enlaces covalentes muy fuertes de
forma rápida. Tiene como venta-
jas principal que la unión se reali-
za en pocos minutos indepen-
dientemente de la temperatura y
acidez del entorno en el que se
realiza.
La tela de araña es un material
muy resistente, proporcionalmen-
te mayor que el acero. Se está
analizando como se podría crear
este material y qué impacto tiene
el diseño geométrico de la red en
su resistencia. Podría tener apli-
caciones en medicina y combina-
da con los nanotubos de carbono
podría tener un gran interés para
la electrónica.
El wolframio o tungsteno no es
un material nuevo, pero se cree
que puede ser importante en el
futuro debido a su importancia
en el recubrimiento de los reacto-
res nucleares de fusión nuclear.
El material desarrollado consiste
en W nanoestructurado con una
dureza 4 veces mayor que el W
masivo y mucho más resistente a
la radiación.
Otros materiales
La upsalita es una forma de car-
bonato de magnesio en forma de
polvo blanco con microporos
con una gran eficiencia para ab-
sorber agua debido a su extraor-
dinaria superficie interna de 800
m2 por gramo. Entre sus aplica-
ciones destacan la de desecante y
su utilización para recolectar resi-
duos tóxicos y químicos.
El shrilk es una mezcla de quito-
sano, material que se encuentra
en los caparazones de crustáceos
e insectos, y fibroína, proteína de
la seda. Es una material fuerte,
resistente, ligero, biodegradable y
biocompatible que se cree pueda
sustituir en el futuro a los plásti-
cos e incluso ser usado para una
gran variedad de aplicaciones
médicas.
Los metamateriales son mate-
riales artificiales que tienen una
serie de propiedades electromag-
néticas poco comunes proceden-
tes de su estructura diseñada. Tie-
nen una gran importancia en los
campos de las telecomunicacio-
nes, la óptica y el electromagne-
tismo, especialmente mediante el
diseño de materiales con un índi-
ce de refracción ajustable.
El siliceno es una lámina de sili-
cio de un único átomo de grosor,
es decir, muy fina, y que se utiliza
en la fabricación de transistores.
Tiene propiedades eléctricas ex-
traordinarias, pero es inestable al
exponerse al aire.
Imagen 4. Estructura del siliceno.
Fotografía obtenida de la web: http://noticiasdelaciencia.com
REFERENCIAS Y BIBLIOGRAFÍA:
 Páginas web consultadas:
 http://www.omicrono.com/2012/10/los-materiales-del-futuro-carbono-grafeno-fullereno-y-nanotubos/
 http://es.gizmodo.com/6-nuevos-materiales-artificiales-que-cambiaran-el-futur-1277638271
 http://www.tendencias21.net/Cinco-anos-para-que-el-grafeno-cambie-el-mundo_a40680.html
63Nº14. Junio de 2016
El efecto fotovoltaico
Los sistemas fotovoltaicos trans-
forman la energía radiante del sol
en energía eléctrica. Este proceso
de transformación se produce en
un elemento semiconductor que
se denomina célula fotovoltaica.
Cuando la luz del sol incide sobre
una célula fotovoltaica, los foto-
nes de la luz solar transmiten su
energía a los electrones del semi-
conductor para que así puedan
circular dentro del sólido. La tec-
nología fotovoltaica consigue que
parte de estos electrones salgan al
exterior del material semiconduc-
tor generándose así una corriente
eléctrica capaz de circular por un
circuito externo.
Para hacer posible el manejo
práctico de las células fotovoltai-
cas, estas se presentan asociadas
eléctricamente entre sí y encapsu-
ladas en un bloque llamado panel
o módulo fotovoltaico, que cons-
tituye el elemento básico para la
producción de electricidad. Nor-
malmente, un módulo fotovoltai-
co está formado por unas 36 cé-
lulas, teniendo diferentes medidas
que oscilan desde el 0,5 m2 hasta
1 m2, el grosor también oscila
ente 3,5 cm y 5 cm.
El módulo fotovoltaico está for-
mado por unos conjuntos de cé-
lulas solares conectadas entre sí
en serie y paralelo hasta conse-
guir el voltaje adecuado para su
Introducción
La Energía Solar es una energía
limpia, que utiliza una fuente
inagotable y que no cuesta, pero
cuyo mayor inconveniente radica
en cómo poder convertirla de
una forma eficiente en energía
aprovechable. La tecnología ac-
tual en este sentido va dirigida en
dos direcciones: conversión eléc-
trica y conversión térmica.
La conversión directa en energía
eléctrica se produce en las células
solares y se basa en el efecto fo-
tovoltaico. Explicar este efecto y
dar una visión general de esta
tecnología, de su estado actual y
de sus aplicaciones, son los obje-
tivos de este apartado.
64 Nº14. Junio de 2016
CERRAMIENTOS FOTOVOLTAICOS
VÍCTOR GARCÍA IGLESIAS. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
miento
-Ofrecen una elevada fiabilidad
-No producen ningún tipo de
contaminación ambiental
Estrategias de integración ar-
quitectónica
La gran ventaja de los sistemas
fotovoltaicos respecto a otros
sistemas de generación eléctrica
es que no ocupan necesariamente
espacio adicional al ya ocupado
por los edificios u otras construc-
ciones. El campo fotovoltaico
puede integrarse encima de su-
perficies construidas o incluso
ejercer la función de elemento de
construcción.
Los módulos solares han pasado
de ser unos simples equipos de
producción de energía a ser al
mismo tiempo un elemento cons-
tructivo capaz de sustituir ele-
mentos tradicionales, o bien ofre-
cer otras prestaciones adicionales
a la de generación eléctrica. Los
mismos fabricantes de placas fo-
tovoltaicas han empezado a dise-
ñar modelos que facilitan su inte-
gración o su función constructiva
en fachadas o tejados.
Propiedades de los cerramien-
tos fotovoltaicos
La sustitución de un cerramiento
(fachada, muro, tejado, etc.) con-
vencional por uno fotovoltaico
supone que un elemento de gene-
ración energética realice muchas
más funciones que ésta, como:
protección de los elementos cli-
máticos exteriores (lluvia, viento,
temperaturas extremas, etc.), fil-
tro de luz solar, filtro de ruidos
exteriores, filtro de radiaciones
electromagnéticas, aislamiento
térmico, transmisión de luz
utilización, este voltaje suele ser
de 12V aunque a plena radiación
solar y 25ºC de temperatura suele
ser de 15V a 17V. El conjunto de
células está envuelto por unos
elementos que le confieren pro-
tección frente a los agentes exter-
nos y rigidez para acoplarse a las
estructuras que lo soportan.
Ventajas e inconvenientes de
las instalaciones fotovoltaicas
Las instalaciones de generación
de energía eléctrica fotovoltaica
presentan las siguientes ventajas:
- Son sistemas modulares, lo que
facilita su flexibilidad para adap-
tarse a diferentes tipos de aplica-
ciones, y su instalación es relati-
vamente sencilla.
-Tienen una larga duración. La
vida útil de una planta fotovoltai-
ca, la define la vida útil de sus
componentes, principalmente el
generador o módulo fotovoltaico,
que constituye más del 50% del
valor de la instalación. Los mó-
dulos tienen una vida esperada de
más de 40 años.
-No requieren a penas manteni-
Imagen 2. Integración fotovoltaica en fachadas.
Ref: upthegreen.com
65Nº14. Junio de 2016
Imagen 1. Casa solar de la Universidad Cardenal
Herrera, México.
Ref: edificaciónsostenible.com
-Atrio: cubierta entre dos edifi-
cios.
-Pérgolas, porches, voladizos.
-Franjas fotovoltaicas a lo largo
de la fachada, alternando con
franjas transparentes.
-Lamas de sombreado: situadas
encima de las ventanas, permiten
evitar la entrada de radiación di-
recta en verano.
-Fachada inclinada: en forma de
invernadero, para cerramientos
fotovoltaicos semitransparentes.
-Lamas o parasoles de inclinación
variable.
Los fabricantes de placas fotovol-
taicas han empezado a suminis-
trar variantes de placas y de célu-
las para atender las demandas de
los arquitectos solares. Para ello
se han desarrollado modelos con
variantes de tonos, colores, for-
mas de células, así como sistemas
de fijación que permitan adoptar
diversas soluciones o mejoras
estéticas.
Para conseguir una mejor integra-
ción del elemento fotovoltaico en
los edificios es necesario tenerlo
en cuenta desde el inicio del dise-
ño del edificio. De esta manera se
podrá conseguir mejorar el aspec-
to exterior y el coste del edificio
al poderse sustituir elementos
convencionales por los elementos
fotovoltaicos. A veces es necesa-
rio sacrificar parte del rendimien-
to energético por mantener la
estética del edificio.
Para aplicaciones arquitectónicas
se utiliza frecuentemente el en-
capsulado de células convencio-
nales en cristal – cristal. Dichos
módulos cristal – cristal son muy
apropiados para este tipo de apli-
caciones, pues además de cubrir
totalmente los requerimientos
técnicos y estéticos del diseño,
permiten ciertos niveles de semi-
transparencia que ayudan a au-
mentar la luminosidad del inte-
rior del edificio.
Integración en cubiertas
La situación del campo fotovol-
taico en una cubierta es la más
usual, ya que se suelen dar unas
condiciones más favorables que
en las fachadas:
Las inclinaciones habituales de
las cubiertas están en el rango de
natural controlada y aportación
térmica.
Posibilidades de integración
Cada vez son más numerosas las
formas de situar sobre edificios
campos fotovoltaicos con funcio-
nes diversas además de la estric-
tamente energética:
-Tejado fotovoltaico: sustituye el
acabado final y, en algunos casos,
la impermeabilización.
-Tejado en dientes de sierra: la
vertiente sur es fotovoltaica y la
norte puede ser opaca o permitir
la entrada de luz cenital.
-Fachada: el campo solar puede
recubrir totalmente la fachada.
-Tejado plano: se pueden situar
hileras de placas paralelas, a una
distancia adecuada para no pro-
ducir sombras entre sí.
66 Nº14. Junio de 2016
Imagen 3. Fachadas ventiladas fotovoltaicas.
Ref: upthegreen.com
“Los módulos solares han pasado de ser unos simples equipos de producción de energía a
ser al mismo tiempo un elemento constructivo ”
- Cubierta semitransparente de
invernaderos adosados a vivien-
das.
- Cubiertas inclinadas formadas
totalmente por placas fotovoltai-
cas.
-Cubiertas inclinadas acabadas
con tejas fotovoltaicas.
Para integrar el campo fotovoltai-
co en una cubierta, hay que tener
en cuenta los criterios siguientes:
- Consideraciones estructurales:
La sobrecarga debida a un campo
fotovoltaico es muy pequeña en
relación a las sobrecargas que se
tienen en cuenta en el cálculo de
las cubiertas. No obstante, hay
que tenerla en cuenta. Depen-
diendo del sistema utilizado co-
mo estructura de fijación, el peso
que puede provocar el campo
fotovoltaico estará en torno a 30
kg/m2.
- Sistemas de fijación:
Existen algunos sistemas en el
mercado que facilitan la fijación
de la estructura soporte de las
placas a la cubierta existente. En
cubiertas planas, con el fin de no
perforar la impermeabilización, a
menudo se utilizan sistemas de
fijación por gravedad, situando
elementos pesados para estabili-
zar a las hileras de placas.
Por último, tanto si van super-
puestas sobre un tejado existente,
pero sobre todo si van integra-
das, sustituyendo a las tejas u
otro elemento de impermeabili-
zación, hay que prever que ten-
gan una correcta ventilación que
impida el estancamiento de aire
caliente bajo las placas. Un exce-
sivo sobrecalentamiento de éstas
reducirá fácilmente su eficiencia
en un 10%.
máxima producción eléctrica
anual (más planas en latitudes
bajas y con más pendiente en
latitudes más altas).
La orientación de la cubierta in-
clinada no es tan decisiva a pe-
queñas inclinaciones como en el
caso de las fachadas.
En las cubiertas planas se puede
situar el campo fotovoltaico en la
orientación e inclinación más
favorable, independientemente
de la orientación del edificio.
Las placas fotovoltaicas se pue-
den superponer al sistema de im-
permeabilización existente o, en
algunos casos, podrían llegar a
sustituirlo.
No interfiere en el plan arquitec-
tónico de los edificios, y mínima-
mente en su aspecto final.
En edificios de nueva construc-
ción ofrece posibilidades cons-
tructivas interesantes:
- Cubiertas semitransparentes
para crear lucernarios.
- Formación de lucernarios en
diente de sierra.
Imagen 4. Torre CIS en Manchester, cuya fa-
chada está compuesta por placas solares foto-
voltaicas.
Ref: eleconomista.es
67Nº14. Junio de 2016
Imagen 5. Instalación de placas solares a modo de
lucernario.
Ref: upthegreen.com
“En edificios de nueva construcción ofrece posibilidades constructivas interesantes”
REFERENCIAS Y
BIBLIOGRAFÍA:
-Clemente Alfonso, Raquel.
Diseño de una cubierta solar
fotovoltaica conectada a la red
eléctrica e integrada en un
edificio industrial.
- eleconomista.es
- upthegreen.com
- edificaciónsostenible.com
- solaico.com
- portalsolar.com
- sunpowercorp.es
por lo que se corre el riesgo de
perder la posición de liderazgo
que habíamos alcanzado en esta
tecnología.
En el ámbito solar termoeléctri-
co, España es hoy líder mundial
tanto en potencia instalada como
en capacidad tecnológica, y las
empresas del sector están comen-
zando a participar en ambiciosos
proyectos en muchas regiones del
mundo (EEUU., Oriente Medio,
China, India, Australia …).
Actualmente en España conta-
mos con 50 centrales en opera-
ción que suman 2.300 MW de
potencia, siendo nuestro país el
mercado con mayor capacidad
operativa del mundo.
En cuanto a las centrales eólicas,
a pesar del nulo aumento de po-
tencia en 2015 (0 MW), la energía
eólica ha sido la tercera fuente de
generación eléctrica en España en
2015.
España es el quinto país del mun-
do por potencia eólica instalada,
tras China, Estados Unidos, Ale-
mania e India. La potencia insta-
lada a 31 de diciembre de 2015
era de 22.988 MW.
España, la tercera potencia en el
mundo y la segunda en Europa
en producción de energía eólica
por detrás de Estados Unidos y
Alemania, mantiene una produc-
ción española repartida entre
1077 parques eólicos de 15
España ha desarrollado una fuer-
te industria fotovoltaica. Esta
industria, que ha crecido alrede-
dor de unos niveles de radiación
solar excepcionales, ha converti-
do a España en el país con más
potencia instalada fotovoltaica a
nivel mundial.
El último Real Decreto que regu-
la la tecnología fotovoltaica, el
RD 1578/2008, ha limitado me-
diante la asignación de unos cu-
pos de producción anuales la im-
plantación de esta tecnología en
España. Estos cupos, al ser me-
nores que el ritmo de crecimiento
anual experimentado en el pasa-
do, están provocando una con-
tracción del sector fotovoltaico
68 Nº14. Junio de 2016
PROBLEMÁTICA EN EL RECICLAJE DE PANELES
SOLARES Y PALAS EÓLICAS
IVÁN GARCÍA IGLESIAS. INGENIERÍA DE CAMINOS, CANALES Y PUERTOS
útil y al menos el 80% de los mó-
dulos (por peso) deben ser recu-
perados.
El reciclado de paneles fotovol-
taicos no es económicamente
rentable en la actualidad debido a
que los volúmenes tratados son
insignificantes. Se prevé que a
partir del año 2030 empezarán a
generarse grandes cantidades de
residuos.
A nivel europeo, se estima que
las cantidades significativas em-
piecen a aparecer a partir del año
2050. De estas cantidades, la ma-
yoría corresponderán a los pane-
les de primera generación (silicio)
que representarán más del 40%.
Se ha estimado que la gestión de
los paneles empieza a ser econó-
micamente viable a partir de las
20.000t/año, aunque criterios
más realistas apuntan a las 40 -
50.000 t/año.
Las cantidades que se recogen
actualmente, corresponden prin-
cipalmente a roturas durante la
fabricación o en la mala instala-
ción de las placas durante los 2
primeros años.
Una disposición incorrecta del
residuo puede dar lugar a lixivia-
dos de Pb, Cd, pérdida de mate-
rias primas y de metales raros.
Los paneles están compuestos
mayormente por vidrio y alumi-
nio, pero también contienen, en
pequeñas cantidades, otros mate-
riales que tienen un gran valor
debido a su escasez, plata, indio,
galio, germanio, telurio…
Los metales raros no suponen
más de un 1% en peso del panel,
pero tienen un gran valor econó-
mico.
Actualmente sólo hay dos méto-
dos de reciclaje para los paneles
que han sido testados y puestos
en práctica:
- Tratamiento del Silicio crista-
lino de Deustche Solar
(Alemania)
- Tratamiento de Teluro de Cad-
mio de First Solar (EUA, Alema-
nia y Malasia)
Al contrario que en los sistemas
Deutsche Solar y First Solar, el
simple reciclado del vidrio sólo
conlleva una separación física
con el objetivo de recuperar el
vidrio y no se separan otros com-
ponentes como el Cadmio o el
Mercurio.
Con un procedimiento de recicla-
je adecuado, se puede llegar a
recuperar el 100% del Aluminio,
el 95% del vidrio y el 33% de los
metales raros.
Hay que tener en consideración
que existen paneles solares que
contienen pequeñas cantidades
de Mercurio y Cadmio
(representan menos del 1% del
peso). Substancias que tienen que
gestionarse correctamente por el
elevado impacto que puede supo-
ner su emisión al medio. Aunque
la evolución tecnología de los
paneles, lleva a la reducción del
uso de sustancias peligrosas en su
composición, por lo que se redu-
cirá su aparición en los residuos
futuros.
Teniendo en cuenta que solo hay
dos sistemas de reciclaje de pane-
les reconocidos, existen fabrican-
tes que llevan a cabo ciertos pro-
cesos de reciclaje y reutilización
(pendientes de verificar) entre
ellos, fabricantes españoles.
Hay que estar preparados para el
momento en que las cantidades
de residuos de paneles
comunidades autónomas.
Hasta hace poco, el reciclaje de
paneles fotovoltaicos no era obli-
gatorio en Europa. Pero en el
2012 el Parlamento de la Unión
Europea (UE) oficialmente cam-
bió las directrices de su
“Desperdicio de Equipo Eléctri-
co y Electrónico”, WEEE por
sus siglas en ingles. Bajo las nue-
vas modificaciones, el 85% de
todos los módulos fotovoltaicos
deben ser recolectados por los
“productores” al final de su vida
69Nº14. Junio de 2016
Imagen 1. Potencia solar instalada en España,
fotovoltaica y térmica. [www.ree.es]
Imagen 2. Localización de centrales solares
térmicas en España. [www.protermosolar.es]
Imagen 3. Evolución de la potencia eólica insta-
lada año a año en España (en MW)
[www.aeeolica.org]
EFE Félix A. López, investigador
del CSIC.
Las palas de molino o aerogene-
radores en desuso son residuos
emergentes (nuevos en el merca-
do) y por tanto todavía no existe
una directiva europea específica
que las catalogue como residuos
peligrosos o tóxicos o inertes, lo
que favorece el vacío legal en
torno a ellas.
A este respecto cabe señalar que
el parque eólico español, los pri-
meros aerogeneradores datan de
1997, está constituido por 17.000
generadores lo que suma un total
de 51.000 palas, de las que unas
1.500 o 2.000 se encuentran a día
de hoy averiadas o en desuso.
Actualmente el destino de estas
palas, sin una legislación que lo
defina, hay que buscarlo en alma-
cenes y depósitos localizados en
las inmediaciones de los grandes
parques eólicos repartidos por
casi toda la península.
Además, los parques eólicos es-
tán situados generalmente en lu-
gares inaccesibles y el transporte
de una pala por una empresa ges-
tora más la trituración de la mis-
ma tiene un coste que varía entre
los 4.000 y 5.000 euros, coste que
a veces es complicado asumir.
Estas palas, miden entre 45 y 48
metros, se pueden averiar bien
por fenómenos meteorológicos
adversos como los rayos, bien
por choques de avifauna o sim-
plemente porque han llegado al
final del ciclo de su vida, unos 15
años dependiendo de diversos
factores, lo que haría imprescin-
dible su sustitución.
Es por eso que el Consejo Supe-
rior de Investigaciones estima
que en España y en un período
entre 2017-2025, alrededor de
1.500 aerogeneradores (4.500
palas) equivalentes a una potencia
instalada de aproximadamente
2128 MW, e instalados en el pe-
ríodo 1997-2000, habrán llegado
al final de su vida útil. Además, el
aprovechamiento de las palas
también estaría orientado a la
recuperación de materiales como
las fibras de carbono ya que tie-
nen un valor añadido para aplica-
ciones dentro de la aeronáutica y
representan una oportunidad de
negocio y de innovación impor-
tante.
fotovoltaicos empiecen a aumen-
tar.
Las palas de los aerogeneradores
en desuso o al final de su vida útil
-entre 1.500 y 2.000 en España-
se están almacenando en vertede-
ros incontrolados, con el consi-
guiente riesgo a una combustión
que libere las sustancias tóxicas
de las que están hechas y generen
un impacto en la salud y el medio
ambiente.
Si las palas se depositan junto a
un bosque y un incendio forestal,
fortuito o provocado las quema-
ra, la combustión de esas aspas
compuestas por fibras de car-
bono y de vidrio, reforzadas en
algunos casos con poliéster, ge-
neraría químicos peligrosos y
muy contaminantes para el me-
dioambiente y el hombre, ha ex-
plicado en una entrevista con
70 Nº14. Junio de 2016
Imagen 4. Fragmentación de pala averiada de un aerogenerador para facilitar su manipulación y tritura-
ción. [www.futurenviro.es]
“El reciclado de paneles fotovoltaicos no es económicamente rentable en la actualidad
debido a que los volúmenes tratados son insignificantes.”
cundarias. Dicha investigación
estará finalizada en 2017 y se en-
focará hacia la recuperación de
los recursos materiales conteni-
dos en estos residuos (fibras
inorgánicas y otros materiales) en
todas las etapas del proceso de
fin de vida: desmontaje de las
palas en el parque eólico y reci-
claje de los materiales recupera-
dos para su devolución al ciclo
económico como materias pri-
mas secundarias. Concretamente,
se demostrará su aprovechamien-
to como refuerzo en prefabrica-
dos de hormigón, mientras que el
material restante de la pala, con
propiedades aislantes, será utiliza-
do en núcleos de paneles para la
construcción.
El planteamiento propuesto
aborda la problemática de la ges-
tión de estos residuos de forma
integral, es decir, desde el des-
montaje de las palas en el propio
campo eólico y su logística inver-
sa, hasta el tratamiento del resi-
duo y el aprovechamiento de los
materiales reciclados en nuevas
aplicaciones.
Los resultados esperados del pro-
yecto se orientan a desarrollar
una Guía de Buenas Prácticas y
metodología para el desmontaje y
logística inversa de palas de aero-
generador; una Metodología de
Reciclaje que permita alcanzar un
índice de recuperación de mate-
riales superior al 75% en peso de
las palas (metales, fibras inorgáni-
cas, polímeros), una reducción de
los Gases de Efecto Invernadero
(en términos de CO2 equivalen-
te) de al menos 6.000 kg de CO2
por pala reciclada y una Guía de
recomendaciones legislativas diri-
gida a Comisión Europea en ma-
teria de desmantelamiento, ges-
tión y reciclaje de turbinas eólicas
obsoletas.
Desde el punto de vista ambien-
tal y en función de las perspecti-
vas de crecimiento a futuro de la
tecnología, se hace necesario ocu-
parse de un problema emergente
asociado al crecimiento de la can-
tidad de parques eólicos instala-
dos y por instalarse, como es la
gestión de los residuos generados
por los aerogeneradores una vez
cumplida su vida útil.
Ante esta realidad, Iberdrola se
ha aliado con los centros tecnoló-
gicos vascos Gaiker-IK4 y
Tecnalia, para crear un nuevo
sistema sostenible que permita el
aprovechamiento de las palas de
los aerogeneradores, desarrollan-
do el proyecto LIFE+BRIO, fi-
nanciado por el Programa LI-
FE+ de la Unión Europea, cuyo
principal objetivo es demostrar
desde una perspectiva de ciclo de
vida, una metodología innovado-
ra y sostenible de gestión y recu-
peración de los materiales con los
que están fabricadas las palas de
los aerogeneradores para reutili-
zarlos como materias primas se-
Imagen 6. Desguace de aerogenerador
[www.fernandocosano.es]
71Nº14. Junio de 2016
Imagen 5. Aerogenerador destruido debido a
fuertes vientos . [www.occhiodisalerno.it ]
”-
“El aprovechamiento de las palas recupera materiales como fibras de carbono con un valor
añadido para aplicaciones dentro de la aeronáutica y de innovación importante.”
REFERENCIAS Y
BIBLIOGRAFÍA:
- Asociación de empresas de
energías renovables (APPA):
< http://www.appa.es>
- Asociación empresarial eléctrica
(AEE):
< http://www.aeeolica.org/es>
- Iberdrola: < www.iberdrola.es>
- Red eléctrica de España (REE):
<http://www.ree.es/es/>.
vencionales de gas). Pero en oca-
siones, estas rocas presentan una
baja permeabilidad, quedando el
gas atrapado en ellas, no dando
lugar a grandes bolsas de gas.
(Reservas no convencionales de
gas)
Se puede observar en la imagen
2, la explotación mediantes po-
zos; reservas convencionales,
derecha; reservas no convencio-
nales, izquierda.
¿Qué es el Fracking?
La fracturación hidráulica hori-
zontal (fracking en inglés) es una
técnica de extracción que tiene
sus orígenes a mediados del siglo
pasado y cuya finalidad es liberar
el gas natural atrapado en rocas
de muy baja permeabilidad.
La baja permeabilidad implica
una interconexión de poros pe-
queña o inexistente. La finalidad
del fracking es producir pequeñas
fracturas en la roca, de manera
El gas natural se formó
hace millones de años cuando
una serie de organismos descom-
puestos, como plantas y animales,
quedaron sepultados en lo más
profundo de océanos y lagos bajo
lodo y arena.
A medida que se fueron acumu-
lando distintos sedimentos, se
formaban capas de material a
distinta profundidad. La presión
ejercida por éstas capas más el
calor de la Tierra, transformaron
lentamente el material orgánico
en gas natural y petróleo crudo.
El gas natural se acumula en bol-
sas entre la porosidad de las rocas
subterráneas creando los conoci-
dos yacimientos (Reservas con-
FRACTURACIÓN HIDRÁULICA (FRACKING).
EXPLOTACIÓN, ECONOMÍA Y MEDIO AMBIENTE.
JOAQUÍN TORO NÚÑEZ. INGENIERO QUÍMICO INDUSTRIAL.
72 Nº14. Junio de 2016
Imagen 1. Instalación para la explotación de gas no convencional (Shale Gas). Fuente: http://
www.huffingtonpost.com/kassie-siegel/5-fatal-flaws_b_3308268.html
Imagen 2. Pozos de extracción; Para reservas no convencionales de gas, izquierda; Para reservas convencionales
de gas, derecha. Fuente: http://aaenvironment.blogspot.com.es/2013_03_01_archive.html
ciones a través de la tubería y el
cemento hasta la roca que contie-
ne los hidrocarburos.
Se introduce agua a alta presión a
través de los orificios provocan-
do fisuras y grietas en la roca.
Gracias a la adición de arena y
aditivos al agua inyectada se favo-
rece la inyección y penetración en
la roca, así como se impide el
cierre de las grietas una vez que
se han abierto mediante la fractu-
ración.
El proceso de fracturación se
realiza, normalmente, una sola
vez durante la vida útil del pozo y
suele durar entre tres y cinco
días. Una vez terminado, se ex-
trae el agua inyectada en el pozo
así como los aditivos, agua e hi-
drocarburo que acompañaban a
la roca originalmente. Tras el va-
ciado del fluido, el pozo está listo
para la explotación del gas a lo
largo de los años.
Los beneficios de la fractura-
ción hidráulica
El desarrollo de la explotación de
gas pizarra se ha visto impulsado
en los últimos años como conse-
cuencia de las crisis energéticas y
conflictos internacionales. Esta
situación ha desembocado en el
aprovechamiento de fuentes de
energía autóctonas, con coste
competitivo, reducción de CO2 y
creación de puestos de trabajo,
para reducir la dependencia exte-
rior y desarrollar la competencia
que se aumente y favorezca esta
interconexión, facilitando así que
el gas fluya hacia el pozo y de ahí
a la superficie.
En definitiva, lo que pretende
esta técnica es emular las condi-
ciones que se presentan de mane-
ra natural en los yacimientos de
hidrocarburos.
¿Cómo se extrae?
Primero, se ejecuta una perfora-
ción vertical hasta el nivel donde
se localizan las rocas de baja per-
meabilidad que contienen los
hidrocarburos. Una vez alcanza-
do el nivel deseado, se perfora el
pozo horizontalmente.
A continuación, se introduce en
el pozo, desde la superficie hasta
el final, una tubería de acero. El
espacio entre la tubería y el pozo
se sella inyectando cemento, evi-
tando de esta manera un posible
contacto entre las rocas o acuífe-
ros que se hayan atravesado. En
el entramado de tuberías se intro-
ducen dispositivos, que permiten
realizar selectivamente perfora-
Imagen 3. Sellado de una tubería de extracción en una instalación de Fracking. Fuente: http://www.laprensa.hn/
economia/thewallstreetjournal/879756-410/el-piso-del-petr%C3%B3leo-puede-estar-en-us20-el-barril-seg%
C3%BAn-goldman
73Nº14. Junio de 2016
Imagen 4. Ilustración de las acciones llevadas acabo por el Fracking bajo tierra durante el proceso de
explotación. Fuente: http://www.gasfieldfreemendip.org/wp-content/uploads/2014/07/Shale-gas-
illustration-e1405504349683-1024x819.jpg
Por ejemplo, como consecuencia
del desarrollo del fracking en Es-
tados Unidos, el precio del gas se
ha reducido en un 50%. En la
siguiente tabla se muestra la re-
ducción en millones de dólares
del gasto en combustible gracias
a la utilización de shale gas en
instituciones públicas como cole-
gios o edificios gubernamentales
de Estados Unidos.
Un gran número de países ya
emulan el estilo americano, mien-
tras otros se oponen o dudan
ante esta técnica por los posibles
daños ambientales, razones co-
merciales...
España, lejos de presentar un
potencial de recursos compara-
bles al de países como Francia o
Polonia, no es ajena al potencial
que los mismos podrían aportar
al país.
Las reservas españolas son más
que considerables teniendo en
cuenta que se trata de un país con
un elevado coste energético que
importa el 99% de sus hidrocar-
buros y que tiene casi seis millo-
nes de parados.
Fracking y Medio Ambiente
Existe una guerra abierta entre
detractores y partidarios de este
método de extracción. Nada más
local.
El gas natural desempeña y
desempeñará un papel principal
en la transición entre el combus-
tible fósil y las energías renova-
bles. La explotación de nuevos
recursos de gas no convencional
está cambiando el mata energéti-
co mundial actual.
74 Nº14. Junio de 2016
“Como consecuencia del desarrollo del fracking en Estados Unidos, el precio del
gas se ha reducido en un 50%”-
Imagen 5. Ahorro del gasto energético en colegios de educación primaria y secundaria en EEUU. Año 2012/2013. Fuente: AMERICAN PETROLEUM.
INSTITUTE (API). (June 5, 2014) The Unconventional Energy Revolution: Estimated Energy Savings for Public School Districts and State and Local Governments. IHS
Global Inc. Washington, D.C.
Imagen 6. Recursos estimados de gas pizarra en España. Localización. Fuente: CONSEJO SUPERIOR
DE COLEGIOS DE INGENIEROS DE MINAS. Gas no convencional en España, una oportunidad de futuro.
mitigarlos”
Shale gas España estable-
ce las siguientes “10 re-
glas de oro del fracking”
para una producción lim-
pia y sostenible:
“Sellar todas las instalaciones
de superficie con láminas im-
permeables y asegurar el dre-
naje hacia canales perimetrales
de captura”
“Tratar todos los fluidos del
pozo tras la estimulación en
tanques separadores para recu-
perar el gas natural disuelto”
“Instalar sondeos de control
someros en los alrededores de
la zona de perforación”
“Instalar tuberías de revesti-
miento reglamentarias para
garantizar un alto nivel de
seguridad”
“En las zonas que atraviesen acuíferos
subterráneos, utilizar tuberías de reves-
timiento doble o triple para asegurar
una completa estanqueidad del pozo
respecto de las rocas atravesadas”
“Seguir las mejores prácticas a la hora
de diseñar, ejecutar y evaluar el proceso
de cementación de tuberías”
“Usar únicamente fluidos certificados
tanto a nivel nacional como europeo”
“Hacer un seguimiento en tiempo real
de la actividad microsísmica durante el
proceso de fracturación hidráulica, para
controlar la expansión de la red de
fracturas”
“Utilizar tuberías de aleación resisten-
tes que aseguren la resistencia a la co-
rrosión a largo plazo”
“Usar una válvula de cierre de subsue-
lo para detener el flujo del pozo en la
fase de producción si en algún momento
se considera necesario”
lejos de la realidad, la fractura-
ción hidráulica presenta un grave
riesgo para el medio ambiente
siempre y cuando no se sigan y
establezcan los estrictos controles
de seguridad que imponen las
normativas ambientales existen-
tes.
En el caso de España, una em-
presa que quiera realizar un son-
deo y explotación de gas pizarra
ha de haber obtenido previamen-
te los documentos exigidos en la
normativa aplicable española y
europea con una declaración de
impacto ambiental positiva.
“Para obtenerla, la promotora debe
presentar un detallado Estudio de Im-
pacto Ambiental (EAI), en el que se
analizan uno por uno los posibles im-
pactos en el medio ambiente y las medi-
das que se tomarán para eliminarlos o
75Nº14. Junio de 2016
Imagen 7. Boletín Oficial del Estado por el que se
establece la necesidad de adquirir un EIA. Fuente:
https://www.boe.es/boe/dias/2013/12/11/pdfs/BOE-A-
2013-12913.pdf
REFERENCIAS Y BIBLIOGRAFÍA:
- CONSEJO SUPERIOR DE COLEGIOS DE INGENIEROS DE
MINAS. Gas no convencional en España, una oportunidad de futuro.
- AMERICAN PETROLEUM. INSTITUTE (API). (June 5, 2014) The
Unconventional Energy Revolution: Estimated Energy Savings for Public School
Districts and State and Local Governments. IHS Global Inc. Washington, D.C.
Disponible en: http://www.energyfromshale.org/americas-energy
- EASAC (European Academies’ Science Advisory Council). (2014). La
extracción de gas pizarra (shale gas): aspectos de particular relevancia para la Unión
Europea. Disponible en: http://shalegasespana.es/wp-content/
uploads/2014/11/Academias-Ciencias-Europa.pdf
- Shale Gas España. Disponible en: http://shalegasespana.es/
- Colegio de Geólogos de Costa Rica. Disponible en: http://
www.geologos.or.cr/?p=23125
LAS CRISIS DEL PETRÓLEO
Y LOS PROCEDIMIENTOS
OPERATIVOS PARA EL AHORRO
DE COMBUSTIBLE EN AVIACIÓN.
JOSÉ EMILIO FERNÁNDEZ GARCÍA. INGENIERO TÉCNICO AERONÁUTICO ESPECIALISTA EN AEROMOTORES.
76 Nº14. Junio de 2016
La producción de petróleo en el mundo.
El país de mayor producción de petróleo es Estados
Unidos con el 33% de la producción mundial; le siguen
Venezuela y la URSS, cada una de ellas con el 14%. El
cuarto puesto lo ostenta Kuwait con el 7%, al que si-
guen Arabia Saudí (5%), Irán (4.5%), Irak (3.5%), Ca-
nadá (3%), Indonesia (2.5%), México (1%), Rumanía
(1%) y el resto de países productores suman el 12.5%.
La producción de petróleo de la OPEP (Organización
de Países Exportadores de Petróleo) es el 40% del total
mundial; 26% de los países árabes y 14% de Venezuela.
Hay que fijarse en que Kuwait produce el doble que
Irak, aún sabiendo que Kuwait tiene una superficie de
17.812 kilómetros cuadrados y 182.000 habitantes,
mientras que Irak tiene una superficie de 438.443 kiló-
metros cuadrados y 15.500.000 habitantes.
La crisis del petróleo por elevación de su precio.
Es sabido que los avatares del precio del petróleo tie-
nen principalmente sus orígenes en acontecimientos
acaecidos en los últimos 50 años aproximadamente en
los países árabes, derivados de su “status” geopolítico y
económico. El 17 de noviembre de 1956 se racionaba
en la Europa Occidental la gasolina y el gasóleo, a cau-
sa de las limitaciones impuestas por los países árabes,
quienes por primera vez hicieron saber que monopoli-
zarían la salida de crudo de esos países a un precio co-
mún fijado de acuerdo entre ellos. El 16 de abril de
1959 se celebra la Primera Conferencia Árabe, para
estudiar la fijación del precio del petróleo.
El 10 de septiembre de 1960 se inauguraba en Bagdad
la primera reunión de los Países Explotadores de Pe-
tróleo y, en esa fecha, se decidió crear una organización
multinacional que englobara a todos aquellos países, y
cuya denominación fue la OPEP (Organización de Paí-
ses Exportadores de Petróleo). Los miembros funda-
dores fueron Irak, Irán, Qatar, Arabia Saudí, Kuwait,
Libia y el único país integrante ajeno al mundo árabe:
Venezuela. Los años 1967 y 1973 son claves en la evo-
lución de la subida del precio del petróleo: del 5 al 10
de junio de 1967 tiene lugar el conflicto bélico arábigo-
israelí conocido como la Guerra de los Seis Días, y del
6 al 20 de octubre de 1973 sucede la Guerra del Yom-
Kippur, por la que los países árabes se proponían recu-
perar los territorios ocupados por Israel en 1967.
Tras la Guerra de los Seis Días los países árabes deci-
dieron suspender por un amplio período de tiempo los
suministros de crudo a los países que ya habían ayuda-
do a Israel en esta guerra; entre ellos estaban Gran Bre-
taña y los Estados Unidos.
77Nº14. Junio de 2016
Imagen 1. Evolución del precio del barril de petróleo.
Coincidiendo con el final de la Guerra de Yom-
Kippur, tras aceptar los contendientes las propuestas
de la ONU, la OPEP multiplicaba casi por tres el pre-
cio del barril de petróleo, fijándolo en 3.45$ el barril.
Empezaba así la escalada del precio del petróleo, cuya
evolución puede seguirse en el gráfico de la Imagen 1.
Los precios hasta 1989 corresponden a los fijados por
la OPEP, y el de 1990 al precio del barril de BRENT
del Mar del Norte.
El precio del Keroseno para aviación.
Viendo la Imagen 2, podemos seguir su evolución en 20
años, desde 1971 hasta 1990, en donde puede compa-
rarse con el precio de un litro de petróleo, cálculo este
que, obviamente, hemos hecho teniendo en cuenta la
capacidad de un barril en litros, y la cotización del dó-
lar en ptas., para cada uno de los años del estudio.
Como puede observarse, en términos relativos precio
del Keroseno/precio del petróleo, la década de los 70
se caracterizó por un índice moderado de esa relación,
que empezó a dispararse a partir de 1980 y de forma
mas acusada a partir de 1983, siendo el índice relativo
mas elevado el correspondiente a 1988 que alcanzó
2.39.
Medidas adoptadas por el transporte aéreo ante la
elevación del precio del keroseno.
Cuando en el otoño de 1973 el precio el barril de pe-
tróleo era fijado por la OPEP en 3.45$ el barril, y el
precio del keroseno aviación alcanzaba 2.29 ptas./litro
(en España), ello supuso para la aviación comercial un
primer toque de atención, aun cuando el precio del
petróleo resultaba incrementado respecto al año 1972
en un 164% y el del keroseno aviación lo era tan solo
en un 5%.
Ahora bien, pronto a partir de 1974 la escalada de pre-
cios sería espectacular, y ya ese año el precio del petró-
leo aumentaba respecto de 1973 en un 160% y en un
144% el keroseno.
La reacción mundial a la crisis energética en el trans-
porte aéreo, por la elevación del precio de combustible
–que sería imparable hasta mediada la década de los 80
– fue en aquel entonces actuar en cuatro campos clara-
mente diferenciados: directrices de la Organización
Civil Internacional (OACI); mediadas de las compañías
aéreas; nuevos proyectos de aviones por la industria
aeronáutica, e investigación sobre nuevos combustibles
y nuevas fuentes de energía.
El consejo de la OACI aprobaba, en septiembre de
1974, una resolución que enviaba a todos los estados
contratantes en la que recomendaba adoptar medidas
para ahorro de combustible, siendo la primera, por la
posibilidad inmediata de su aplicación, la de examinar
los procedimientos operativos. Las compañías aéreas
respondieron inmediatamente a las recomendaciones
de la OACI y, aun cuando los tiempos de vuelo pudie-
ran resultar mayores por la reducción de empuje en los
motores, esto podía ser paliado e incluso absorbido
por la reducción, cuando fuera posible, de las distancia
Nº de Imagen. Explicación. Si la imagen no es original nuestra debemos poner:
Ref: el origen, la web, el libro, etc.
78 Nº14. Junio de 2016
o hundidos, superficies onduladas, muescas…
Como dato significativo exponemos que por ejemplo
una flota de 20 aviones DC-9, cada uno de los cuales
fuese afectado por deterioro de aquellos componentes
con un incremento de resistencia aerodinámica del 1%,
ello supondría un aumento del coste de la operación de
300 mil euros anuales, en el supuesto de utilización de
cada avión 2500 horas/año, un consumo horario de
3300 litros/hora y un precio de keroseno de 0.18 eu-
ros/litro. Este incremento del 1% de la resistencia ae-
rodinámica es considerado muy conservativo, pues lo
normal es que oscile entre el 1.5% y el 2% tras 6 años
de operación de los aviones.
De forma mas directa afecta el combustible consumido
por las unidades de energía auxiliar APU (Auxiliary Po-
wer Unity), durante las operaciones en tierra, dados los
elevados consumos que ello conlleva. Pueden contras-
tarse estos consumos con el de los motores a marcha
lenta en rodajes de prevuelo y postvuelo y el consumo
por hora bloque como muestra la Imagen 3. Una medi-
da eficaz es restringir la utilización de las unidades
APU, sustituyendo su función cuando se trata de car-
gas eléctricas por unidades auxiliares de tierra GPU
(Ground Power Unity), o hacer uso de las instalaciones
aeroportuarias de energía eléctrica.
Téngase en cuenta que, tomando por ejemplo la ener-
gía eléctrica de 10 kw/hora en el avión, serían necesa-
rios 100 litros de keroseno utilizando el APU, en tanto
son necesarios 7 litros de combustible Diesel utilizando
GPU; y si se hiciera uso de las instalaciones eléctricas
aeroportuarias, sería necesarios solamente 11 kw/hora,
dado que el rendimiento de transformación para la uti-
lización en el avión es del orden del 91%.
de vuelo, que también manifestaba la OACI, podría
conseguirse aplicando nuevos procedimientos de nave-
gación aérea y de control de tránsito aéreo. En el año
1986 bajan espectacularmente los precios del petróleo
y del keroseno (Imagen 2), y nada hacía prever que cua-
tro años después, en 1990, había que hacer revivir me-
didas como las de 1974, aun cuando ahora se vayan a
aplicar también a nuevas flotas de aviones, que empe-
zaron a diseñarse a partir de aquellas recomendaciones
de la OACI y que responden al desarrollo de aviones
del programa AEEP (Aircraft Energy Efficiency Program) y
del subprograma EEE (Energy Efficiency Engine), de la
NASA, aviones estos que consumen aproximadamente
entre un 20% y un 30% menos que los de la genera-
ción precedente.
A continuación se exponen los puntos clave incidentes
en la economía de combustible, siguiendo la secuencia
de las distintas fases de vuelo de un avión comercial, y
hacer referencia a modo de ejemplo los resultados en
dos aviones: uno pequeño, el DC-9; y otro grande, el
Boeing 747.
Las operaciones en tierra para ahorro de combus-
tible.
Son de hacer destacar aquí los trabajos para mantener
“limpio” el avión –aerodinámicamente hablando– fac-
tor que influye de forma destacada en la disminución
del consumo de combustible.
Durante la vida en servicio del avión, la resistencia ae-
rodinámica tiende a aumentar por efecto de las defor-
maciones, aparentemente pequeñas, en componentes
tales como: puertas, ventanas, paneles de acceso, ante-
nas, carriles de flaps, limpia-parabrisas, articulaciones
de control de mandos de vuelo y dispositivos hipersus-
tentadores, así como pérdida de hermeticidad de las
juntas en zonas presurizadas, rugosidades en a superfi-
cie del avión por golpes en tierra o choques en vuelo
con pájaros, lo que motiva una distorsión del flujo de
aire en las proximidades de la superficie, que pasa de
régimen laminar a régimen turbulento, especialmente
cuando en dicha superficie existen remaches resaltados
79Nº14. Junio de 2016
Imagen 3. Datos de consumos de combustible.
“Las guerras de los Seis Días y de Yom-Kippur hicieron que se incrementaran los precios
alrededor de un 160%”-
En todo caso, podemos decir que la proporción de
costes entre utilizar instalaciones aeroportuarias/GPU/
APU es aproximadamente 1/1.6/4.5.
Despegue.
Cuanto más bajo sea el ajuste de flaps para el despegue,
el consumo de combustible en esta fase será menor, y
por ello debe considerarse, cuando el peso del avión y
la longitud de pista lo permitan, el hacer uso de ajuste
de flaps bajo, si bien es de tener en cuenta que tiene
sus ventajas y sus inconvenientes; ventajas como ser
mayor el gradiente de subida en el caso del fallo de un
motor, e inconvenientes como el ser mayor la veloci-
dad de despegue y más crítico el aborto de despegue,
aun cuando seguro si se cumplen las premisas iniciales
peso de avión/longitud de pista. En el DC-9-30 se
ahorran 15 libras de combustible despegando con 5º de
flap respecto con 15º de flap; ahorro pequeño.
Otro procedimiento de economía en la operación de
despegue, aun cuando sea con un ligero aumento del
consumo de combustible, es despegar con empuje re-
ducido, siguiendo la norma aprobada por la FAA en la
orden 8000-39 del 15 de mayo de 1977, por la cual se
admite una reducción hasta del 25% del empuje máxi-
mo al despegue siempre que sea posible hacer tal re-
ducción por el método de la temperatura equivalente,
que consiste en determinar en primer lugar la tempera-
tura máxima ambiental a la que se puede despegar para
un peso de avión determinado y ajustar los motores a
la relación de presiones EPR (Engine Pressure Ratio), o
revoluciones N (según el parámetro funcional del mo-
tor), a las condiciones de esta temperatura. Lo normal
es aplicar no más del 10% de reducción de empuje, por
este procedimiento.
Despegar con EPR o N más bajos resulta en tale con-
diciones un ligero aumento del consumo de combusti-
ble, aumento que puede determinarse haciendo uso de
las curvas de operación de los motores que proporcio-
nan el consumo, en función de EPR o N, teniendo en
cuenta como parámetros el número de Mach de despe-
gue, la temperatura ambiente y la presión de altitud de
campo.
La economía final que se obtiene con este procedi-
miento, es a largo plazo, en tanto con esa reducción de
empuje, se alcanzan menores temperaturas en las turbi-
nas y en toda la zona caliente del motor, alargando su
vida en servicio y el consiguiente tiempo entre revisio-
nes, siendo de destacar una menor degradación del au-
mento del consumo específico de combustible con el
aumento de las horas de operación.
Subida.
La diferencia de combustible consumido para alcanzar
un determinado punto del tramo de crucero, subiendo
directamente a él, o alcanzando dicho punto con un
tramo parcial de crucero en régimen de largo alcance,
resulta beneficiosa por el segundo procedimiento, es-
pecialmente en aviones grandes con motores de empu-
je elevado.
Hablando de las velocidades óptimas para alcanzar
pronto el nivel de crucero, podemos decir que en el
caso del DC-9 no hay una diferencia muy significativa,
aun cuando se separe de la velocidad óptima, mientras
que el B-747, despegando con 720.000 libras y subien-
do a nivel de crucero 310, el consumo de combustible
es aproximadamente 22.000 libras si se vuela a la velo-
cidad óptima de 323 nudos (IAS), pudiendo ser del 2%
más, esto es 22.400 libras si se vuela a 290 nudos, invir-
tiendo en la subida aproximadamente 2 minutos mñas
con esta menor velocidad.
Crucero.
Los tres modos de vuelo de crucero para máximo aho-
rro de combustible son: a altura constante el de “Long
Range” y el de Mínimo Coste; y a altura variable el de
Máximo Radio de Acción a Mach Constante.
El de “Long Range” altura constante, se obtiene volan-
do continuamente a unas velocidades que proporcio-
nan el máximo alcance específico para cada peso del
avión y por lo tanto, la velocidad puede ser cada vez
menor, a medida que transcurre el vuelo, lo que exige
una disminución de empuje de los motores.
El modo de vuelo de crucero para mínimo coste de la
operación exige que los costes directos por hora de
vuelo estén perfectamente definidos. La velocidad a la
cual los costes de la operación (conceptos dependien-
tes de la velocidad y el coste de combustible) son míni-
mos, resulta ser a un número de Mach constante, supe-
rior al “Long Range”, sin llegar a la gama de alta veloci-
dad.
El vuelo de crucero subiendo a Mach constante, para
máximo radio de acción sería el procedimiento óptimo
de crucero, si las regulaciones de tráfico permitieran al
avión variar continuamente de altura, por lo que en
grandes distancias deben hacerse tramos de crucero a
alturas escalonadas, pudiendo así obtener ventajas
80 Nº14. Junio de 2016
como de un aumento del alcance específico, cuando el
avión disminuye de peso un 10%.
Posición del CDG (Centro de Gravedad).
El adelanto o el retraso del c.d.g. del avión (siempre
dentro de los límites permisibles) incide en el consumo
de combustible, llegándose a la conclusión de que re-
trasar el c.d.g. favorece para tener menor consumo.
El aumento del consumo de combustible también se
debe al excesivo peso no necesario, como puede ser
transportar mayor combustible de reserva que el espe-
cificado, lo que da lugar a mayor resistencia aerodiná-
mica, especialmente la resistencia inducida, sobre todo
cuando el avión inicia el vuelo con peso muy alto.
Descenso.
El factor más importante, incidente en la reducción del
consumo de combustible en el descenso, es hacer uso
del empuje con motores a marcha lenta, a una veloci-
dad determinada, a partir de un punto óptimo de la
ruta. Como en el caso de la subida, hay unas velocida-
des óptimas para descender con el consumo mínimo.
La penalización en que puede incurrirse por iniciar un
descenso prematuro o tardío, respecto del punto ópti-
mo es de aproximadamente 80 litros para el DC-9 y
290 litros para el B-747, cuando el descenso se inicia 10
millas náuticas antes o después del punto óptimo.
Aproximación.
El procedimiento más adecuado para la reducción del
consumo de combustible en esta fase del vuelo es el de
la secuencia de “baja resistencia-bajo empuje”.
 Mantener el avión limpio aerodinámicamente
todo el tiempo que sea posible, antes de inter-
ceptar la senda de planeo.
 Iniciar la senda de planeo con un mínimo ajuste
de flaps hasta una determinada altura (próxima a
los 1000 pies), por encima de punto de contacto
con la pista.
Aterrizaje.
El ahorro de combustible sin utilizar la “reversa” de-
pende del peso al aterrizaje, si bien razones de seguri-
dad hacen preceptivo su utilización y además, por otro
lado, la no utilización de la reversa, llevaría implícito el
aumento de los costes de mantenimiento de los frenos,
dado que la absorción de la energía de frenado tendría
que ser a costa de ellos.
REFERENCIAS Y BIBLIOGRAFÍA:
- CUESTA ÁLVAREZ, Martín. Motores de reacción.
Paraninfo, novena edición, 2001.
- ARJONA ANTOLÍN, Ricardo. Combustibles
alternativos en automoción. Editoriales Dossat, 2000.
- MARTÍN CABEZA, José Antonio. Descubrir los
motores de aviación. Aena.
- www.airline92.com
- www.pasionporvolar.com
- www.manualvuelo.com
81Nº14. Junio de 2016
Introducción
Las energías renovables han empezado a ser un tema
muy importante en las dos ultimas décadas. En el caso
de las células solares, la eficiencia optima es afectada
principalmente por tres factores: la eficiencia de la ce-
lula solar ( en células comerciales esta entre el 8-15%),
la eficiencia del inversor (95-98%) y la eficiencia del
MPPT (el cual esta sobre el 98%). La mejora de las
células solares y los inversores no es tarea fácil y con-
lleva muchos gastos, sin empargo, mejorando el loga-
ritmo del MPPT se pueden reducir. Esto permite a los
investigadores mejorar y desarrollar mejores algoritmos
MPPT para el entendimiento del comportamiento de
las células solares sometidas a diferentes condiciones.
Objetivo
El articulo se basa en una simulación sobre células so-
lares, estimando los diferentes parámetros I-V caracte-
rísticos de una celula solar con respecto a los cambios
medioambientales que pudieran afectar al panel
(temperatura e irradiacion) y a los parámetros de la ce-
lula (resistencia parasita y factor ideal). Esta ejercicio es
ideal para analizar el desarrollo del MPPT (Seguidor del
punto de máxima potencia) algoritmo. Para desarrollar
este análisis usaremos la ecuación del diodo de Sho-
ckley y los bloques de simulink para PV desarrollados
por Matlab.
OPTIMIZACION DE CELULAS SOLARES
FOTOVOLTAICAS CON MATLAB/SIMULINK.
ANTONIO FLORES CABANILLAS. INGENIERO INDUSTRIAL
82 Nº14. Junio de 2016
Imagen 1. Representación de la idea de una célula fotovoltaica.
ra. El diodo determina los parámetros I-V de la celula.
El diagrama del circuito de la celula solar se muestra en
la figura 1. Esta representación es obtenida después de
considerar los siguientes parámetros:
 La dependencia de la temperatura en la satura-
ción del diodo Is
 La dependencia de la temperatura de la fotoco-
rriente Iph
 Resistencia serie Rs (Perdida interna debido al
flujo de corriente) la cual se maximiza entre el
punto de máxima potencia y el punto de circuito
abierto
 Resistencia por derivación Rsh, en paralelo con el
diodo, esta corresponde a la fuga a tierra de la
corriente
Las ecuaciones que definen el modelo de una celula
solar es dado por:
Posteriormente se explicaran estas ecuaciones y se usa-
ra la nomenlatura numérica del 1-8 para hacer referen-
cia.
En la figura 2 se muestra las características de la curva
I-V. La corriente de red es oftenida de la fotocorriente
Iph y de la corriente del diodo Id.
El comportamiento de las células solares:
Una simple celula solar consite en la unión de estados
solidos p-n fabricados desde un material semiconduc-
tor (Silicio). En la oscuridad, los parámetros I-V carac-
teristicos de una celula solar tiene el comportamiento
exponencial que se muestran en los diodos convencio-
nales. Sin embargo, cuando la energia solar (fotones)
inciden en la celula solar, la energia absorbida en este
periodo es mucho mayor que la banda prohibida
(bandgap) del semiconductor, y la liberación de los
electrones sobre el material semiconductor crea huecos
de electrones por pares. El portador cargado es movi-
do aparte bajo la influencia de campos eléctricos inter-
nos de la unión p-n y por lo tanto una corriente pro-
porcional es desarrollada para el fenómeno de la radia-
ción fotonica. Este fenómeno es llamado efecto foto-
voltaico, la primera vez observada por A.E Becquered
en 1839. Cuando la celula esta cortocircuitada, esta co-
rriente fluye a través del circuito externo, pero cuando
el circuito se abre, esta corriente se deriva internamen-
te por la unión p-n intrínseca del diodo. Para comple-
tar el modelo, una carga variable es conectada a un cor-
tocircuito externo.
El modelo de una celula solar:
El circuito mas simple para representar una celula solar
es una fuente decorriente paralela con un diodo. La
salida de la fuente de corriente es directamente propor-
cional a la energia solar (fotones) que inciden en la ce-
lula solar (Fotocorriente Iph). Durante la oscuridad, la
celula solar no es un dispositivo activo; es decir trabaja
como un diodo (unión p-n). Esto produce tanto una
corriente como un voltaje. Sin embargo, si se conecta
a una fuente externa (Gran voltaje) genera una corrien-
te Id , llamada corriente del diodo (D) o corriente oscu-
Imagen 2. Representacion electrónica de una celula solar.
83Nº14. Junio de 2016
aumenta logarítmicamente con la irradiación ambiental,
donde el cortocircuito de corriente es una función li-
neal de la irradiación. El efecto prominente con el in-
cremento de la temperatura de la celula PV es la dismi-
nución linear del circuito abierto de voltaje, por lo tan-
to hace a la celula PV menos eficiente. El corto circuito
de coeficiente incrementa levemente con la temperatu-
ra de la celula.
Consideración de los parámetros ambientales y pará-
metros de la celula PV:
Parametros ambientales (temperatura e irradiacion):
La influencia de la temperatura en la celula “T” y la
irradiación ambiental “G” en las características de la
celula puede ser obtenida desde los modelos de ecua-
ción. De la ecuación numero 7 la foto-corriente Iph (A)
es una función de la irradiación ambiental (G)”W/m2”
y desde la ecuación numero 2 la temperatura de la celu-
la Top (K) tiene una disminución lineal de la Voc. A
condiciones estándar (G=1 “kW/m” con una distribu-
ción espectral de AM=1.5; Top=25ºC) Iph=Isc desde la
ecuación numero 7 la cual tiene la corriente mas gran-
de, desde la Tref=25ºC para todas las condiciones test.
Desde la ecuación numero 7 como G incrementa la Iph
incrementa pero desde la ecuación numero 2 como la
Top incrementa la Voc disminuye. La influencia de kl, la
cual es el cambio en el panel Isc por ºC a temperaturas
distintas a 25ºC, en la ecuación numero 7 es mayor
cuando Top cambia desde Tref (=25ºC).
Parametros de la célula (resistencia parasitaria y factor
ideal):
Los efectos resistivos en las células solares reducen la
eficiencia de la celula por la disipación de la potencia
en las resistencias. Las resistencias parasitarias más co-
munes son series de resistencias y derivación de resis-
tencias las cuales tienen como clave de impacto reducir
el factor de llenado. Tanto, la magnitud y el impacto de
series y la derivación de la resistencia dependen de la
geometría de la celula solar y del punto de operación
de la celula solar. Este se mide en ohm*cm2. Para una
condición ideal del diodo, Rs=0 y Rp=∞. La resistencia
en serie Rs en una celula solar tiene tres causas:
 El moviento de la corriente atraves del emisor y
la base
 El contacto resistivo entre el metal y el silicio
 La resistencia por todos los contactos metálicos
Curva de la celula solar:
Una curva I-V característica de una célula solar para una irra-
diación dada “G”, la cual tenga una célula de temperatura fija
“T”, se muestra en la figura 3. Para una cierta resistividad de
carga, la carga característica viene dada linealmente por la ley de
Ohm V=IR . La potencia entregada por la carga depende direc-
tamente de la resistencia. En algunos casos si la resistencia de
carga es muy pequeña; La celula PV opera entre las regiones M-
N de la región de la curva I-V como se muestra en la figura 3,
la celula PV actua como fuente de corriente constante, la cual
casi equivale a un corto cirtuito de corriente. Sin embargo, si la
R de carga es grande, la celula PV operara en la región P-S de la
curva I-V, la celula PV actua como una fuente de voltaje cons-
tante casi equivalente a un circuito abierto de voltaje. Una celu-
la PV se caracteriza por los siguientes parámetros fundamenta-
les:
1. Corriente de cortocircuito: Isc = Iph (El mayor valor de
la corriente generada por la celula PV, la cual es produ-
cida en la condición de corto circuito: V=0).
2. Circuito abierto a voltaje Vcc es la caída de voltaje a tra-
vés del diodo D cuando se genera una corriente I=0. Es
el voltaje que la celula PV de noche y viene dado por la
ecuación número 2º.
3. Punto de potencia máxima “A” (Imax, Vmax) , como se
muestra en la figura 3,donde la potencia disipada en la
carga resistiva es máxima: Pmax=Vmax*Imax
4. La máxima eficiencia es el ratio de máxima potencia y la
energia solar incidente (fotones). Ƞ=Pmax/Pin=
Vmax*Imax/AG donde, G es la irradiación y A es el área
de la celula PV.
5. Factor de llenado (FF) es un ratio de la potencia máxi-
ma que puede ser entregada a la carga y la máxima po-
tencia teorica que es el producto de Isc y Voc. FF=Pmax/
Voclsc= Vmax*Imax/Voclsc. FF es una medida de las carac-
terísticas I-V cuyo valor es mucho mayor que 0.7 para
una buena celula PV.
Sin embargo, el FF se reduce cuando la temperatura de
la celula se incrementa. El circuito abierto de voltaje
84 Nº14. Junio de 2016
Imagen 3. Representación de la curva característica I-V de una célula PV.
El método mas correcto para estimar las resistencias en
serie desde la célula solar es encontrar la rampa de la
curva I-V en el punto Voc. Significa perdida de poten-
cia debido a la presencia de una resistencia derivada Rp
debido a los defectos de fabricación. Una estimación
del valor de la Rp de una célula solar puede ser determi-
nado por la rampa de la I-V curva cerca del Isc punto.
El factor ideal n de un diodo es una medida de como
esta de cerca un diodo de seguir la ecuación ideal de los
diodos. El ecuación del diodo ideal asume que toda la
recombinación ocurrida de banda a banda o recombi-
nación de la malla en la zona “n” del diodo desde el
dispositivo (es decir en la unión). Sin embargo, la re-
combinación ocurre en otros caminos y en otras áreas
del dispositivo. Esta recombinación produce factores
ideales n que se desvían del ideal.
Simulación de la célula solar en Simulink/Matlab:
En la figura 4 se muestra el modelo de configuración
que se quiere simular en Simulink/Matlab, para co-
menzar con el proceso se comienza haciendo una pri-
mera aproximación por bloques e introduciendo los
primeros parámetros que se mencionaron en las ecua-
ciones de la sección “El modelo de una célula solar”,
como se muestra en la figura 5.
85Nº14. Junio de 2016
“La eficiencia máxima actual de las placas solares convencionales llega tan solo al
22%”-
Imagen 4. Estructura Stand Alone Off-Grid. “América Publishers”.
Imagen 5. Simplificación del la configuración de un panel solar.
Por ultimo se comenzara a desarrollar el diagrama de
bloques y a introducir los parámetros en Simulink/
Matlab. Como se muestra en la figura 6.
El experimento comienza variando los parámetros,
G,Rs,Top,Rp y n. A continuación se mostraran graficas
variando cada uno de los parámetros mencionados, de
las cuales deduciremos los valores optimos de la celula
solar.
Una vez definidos los bloques que se va a usar en la
simulación comenzamos a obtener datos de las tablas
características del fabricante de la placa solar que vaya-
mos a optimizar.
Características Especificaciones
Pico de potencia (Pmpp) 60 W
Pico de voltaje (Vmp) 17.1 V
Pico de corriente (Imp) 3.5 A
Cortocircuito a voltaje
(Isc)
3.8 A
Circuito abierto a volta-
je (Voc)
21.1 V
Cof. de temperatura de
circuito abierto (Kv)
-(80+10)mV/ºC
Cof. de temperatura de
cortocircuito (Ki)
(0.065±0.01)%/ºC
Efecto de la temperatu-
ra en la potencia
-(0.5±0.015)%/ºC
Rango de temperaturas
de trabajo (NOCT)
47±2ºC
Parametros Calculo de valores
Is 2.002 x 10-7 A
Iph 3.8 A
Rs 0.180 Ω
Rp 360.002 Ω
n 1.360
86 Nº14. Junio de 2016
Imagen 8. Simulación de bloques para una célula solar en Simulink/Matlab.
Si observamos las graficas y lo explicado en el apartado
“Curva de la celula solar”, junto con las ecuaciones del
apartado “El modelo de una celula solar” obtenemos
que las condiciones propicias son las siguientes:
Según las graficas se puede deducir que las condiciones
donde se puede obtener el punto máximo de potencia
para el panel PV, son: G=1000, Top=25ºC, A.M=1.5,
RS=0.18 Ω, RP=360 Ω y n=1.36. Por lo que el fabri-
cante de estos paneles considerara estas características
para obtener el máximo rendimiento.
REFERENCIAS Y BIBLIOGRAFÍA:
Coombs’ Printed Circuit Handbook. Fith
edition. Mc Graw-Hill handbooks, Clyde F.
Coombs
Printed circuit boards. Desing, Fabrication
and Assembly. Mc Graw-Hill electronic
engineering. R.S. Khampur
Fabricating Printed circuit boards, Elsevier
Science, Newnes.
87Nº14. Junio de 2016
Parámetros Calculo de
valores
Pico de potencia (Pmpp) 59.39 W
Pico de voltaje (Vmpp) 21.07 V
Pico de corriente (Vmpp) 3.79 A
aceptarse como hechos inevitables pues, en realidad,
son previsibles y evitables. Se dispone de información
sobre los principales riesgos para los peatones, que
abarcan un amplio abanico de factores tales como el
comportamiento de los conductores, en especial en lo
referente a la velocidad y a la conducción bajo los efec-
tos de la bebida; las infraestructuras en cuanto a la falta
de instalaciones específicas para peatones como aceras,
pasos de peatones y arcenes elevados; y el diseño de
vehículos con partes delanteras cuya solidez puede in-
tensificar la gravedad de los golpes sufridos por even-
tuales víctimas de atropello.
Los peatones corren mucho mayor riesgo que los con-
ductores y pasajeros de vehículos. Según una investiga-
ción realizada por el Consejo Europeo de Seguridad
Vial, el riesgo de un peatón de perder la vida en com-
paración con el de una persona que viaja en automóvil,
es 9 veces mayor (Figura 1). Los sistemas de protec-
ción de peatones tienen como objetivo reducir las ci-
fras de siniestralidad a partir del desarrollo de sistemas
que eviten el accidente (seguridad activa) o que minimi-
cen las consecuencias una vez producido el siniestro
(seguridad pasiva).
Los peatones son
los elementos
más vulnerables
de la circulación.
Cada año, en to-
do el mundo,
más de 270 000
peatones pierden
la vida en la vía
pública. A escala
mundial, los pea-
tones represen-
tan el 22% del
total de defun-
ciones por accidentes de tráfico, y en algunos países la
proporción alcanza un 66%. Además, otros millones
de transeúntes sufren traumatismos a causa de acciden-
tes relacionados con el tráfico, y algunos de ellos se ven
afectados por una discapacidad permanente.
La capacidad de hacer frente a la seguridad peatonal es
un componente esencial del trabajo dedicado a la pre-
vención de los traumatismos ocasionados por acciden-
tes de tráfico. Tal y como ocurre con otros accidentes
de esta índole, las colisiones con peatones no deberían
SISTEMAS DE DETECCIÓN DE PEATONES
JOSÉ VICENTE JURADO RODRÍGUEZ. I. DE TELECOMUNICACIÓN
1. La siniestralidad de los peatones es 9 veces mayor
que la de las personas que viajan en automóvil.
Ref.: www.elmundo.es
88 Nº14. Junio de 2016
permite distinguir entre los antes citados sistemas de
seguridad activa o primaria y sistemas de seguridad pa-
siva o secundaria. La seguridad primaria hace referen-
cia a aquellos sistemas diseñados para evitar que ocurra
el accidente, mientras que la seguridad secundaria com-
prende a los sistemas diseñados para minimizar las
consecuencias del accidente en el caso de que éste fi-
nalmente no pueda ser evitado. Como principales siste-
mas de seguridad primaria se pueden citar los sistemas
de asistencia a la frenada, la mejora de la visibilidad
nocturna y la detección automática de la presencia de
peatones en la escena. Entre las mejoras en los siste-
mas de seguridad secundaria destacan el desarrollo de
nuevos materiales para el frontal de los vehículos, la
propia estructura de los capós, los parachoques delan-
teros y, los más recientes, los capós activos y los air-
bags para peatones.
La seguridad en los vehículos se ha enfocado tradicio-
nalmente como una minimización de los efectos del
choque. Siendo indudable su enorme impacto positivo
en la disminución del número de afectados y en la se-
veridad de las lesiones, ahora se pone el énfasis en evi-
tar el accidente y, si éste se produce, qué medidas tie-
nen que actuar durante los primeros milisegundos para
minimizar los daños.
La organización para la seguridad europea Euro NCAP
ha introducido un nuevo test para comprobar si los
vehículos son capaces de detectar y prevenir colisiones
con los peatones de forma automática. (Figura 3).
Las medidas que
se están imple-
mentando en la
actualidad, como
capós que se
elevan (Figura 2)
o airbags exter-
nos, están dirigi-
das a disminuir
la peligrosidad
del accidente,
pero son medi-
das que se toman
una vez que el
accidente ha comenzado a producirse. Como conse-
cuencia, se hace cada vez más hincapié en el concepto
de seguridad activa, lo que se entiende por dotar al
vehículo de sistemas inteligentes que predigan y eviten
accidentes que el conductor por sí solo no puede con-
trolar. El paso intermedio lo constituyen los Sistemas
Avanzados de Asistencia a la Conducción (ADAS) que,
sin llegar a tomar control del vehículo, avisan al con-
ductor con suficiente antelación, de un posible peligro.
Los sistemas de protección de peatones hacen referen-
cia a la incorporación de las tecnologías más avanzadas
en el vehículo, con el fin de proteger a los ocupantes
de éste, así como a otros usuarios especialmente vulne-
rables de la vía.
Un análisis sobre los principales sistemas aparecidos en
los últimos años para la protección de los peatones,
2. Sistema de elevación de capós para proteger al
peatón del impacto. Ref.: www.elmundo.es
3. Test EURONCAP de atropello de peatones. Ref.: www.conduceseguro.com
89Nº14. Junio de 2016
los utilizados en las cintas de fabricación) o sistemas
donde la interacción hombre-máquina es crucial (como
ocurre en aplicaciones de videoconferencia) y, por su-
puesto, sistemas de detección de peatones. La mayor
parte de los trabajos relacionados con la detección de
la forma humana en entornos saturados, vienen de es-
tudios realizados sobre sistemas de vigilancia automáti-
cos. A continuación podremos ver las aplicaciones
reales que ya se están implementando en la industria
del automóvil.
Mercedes “Pre-Safe Brake” con sistema de detec-
ción de peatones.
Reconocer formas humanoides es muy fácil para los
seres humanos, pero muy difícil, por el momento, para
los sistemas de visión por computador. Esto es parti-
cularmente cierto en los entornos urbanos altamente
desordenados y usando cámaras móviles. La gran varia-
ción en apariencias, oclusiones, luz y diferentes posi-
ciones y distancias presentan problemas difíciles en la
detección de peatones. Hacer todo esto en tiempo real
representa un reto.
Mercedes (Figura 5) combina dos sistemas diferentes
para la detección de peatones: un radar montado en la
parte delantera del coche y una cámara estéreo coloca-
da sobre el espejo perfectamente calibrada. Consiste en
un sistema de radar de largo, medio y corto alcance,
controlando la zona delantera del vehículo. La cámara
estéreo consiste en un sistema con un rango general de
500 mm, pero con una capacidad 3D de 50m.
Los sistemas de
detección de pea-
tones basados en
visión (Figura 4),
pueden jugar un
papel destacado
dentro del ámbi-
to de seguridad
vial de los próxi-
mos años. El
elemento funda-
mental estos siste-
mas es la cámara
embarcada en el propio vehículo, ya que proporciona
la información del entorno en base a la cual se decide si
existe o no riesgo de colisión. Esta respuesta es induda-
blemente muy valiosa para la creación de sistemas de
seguridad para automóviles. Este tipo de aplicación es
atractiva tanto para los fabricantes como para los usua-
rios finales. Los primeros, están interesados en vender
productos con un alto valor añadido y los últimos,
desean comprar vehículos más seguros. Como conse-
cuencia, no es de extrañar que para resolver el proble-
ma de la detección de peatones, la visión artificial haya
recibido en los últimos años un creciente número de
adeptos. De hecho, la detección de peatones basada en
visión para aplicaciones de automoción es, en la actua-
lidad, una de las tareas de investigación en ITs más
candente. La tendencia de los últimos años así lo con-
firma, ya que la mayoría de los sistemas de detección
de peatones hacen uso de alguna cámara.
Los sistemas de detección basados en
visión son difíciles de implementar
debido a las características de los pro-
pios elementos que forman parte de la
escena. En cuanto a detección de per-
sonas basada en visión se refiere, se
han desarrollado varios sistemas tanto
basados en visión monocular como
estéreo. En la última década, discipli-
nas muy diversas han tratado de anali-
zar el movimiento humano empleando
una o dos cámaras, dando lugar, por
ejemplo, a sistemas de vigilancia (para
controlar la entrada en los parkings,
aeropuertos, etc.), sistemas para reali-
zar diagnósticos médicos (derivados
del análisis de la forma de correr o
caminar), sistemas de control (como
5. Sistema de detección de Mercedes. Ref.: www.diariomotor.com
90 Nº14. Junio de 2016
4. Sistemas de visión inteligente. Ref.:
www.uc3m.es
El sistema de visión estéreo consiste en dos cámaras
con una distancia fija. La comparación de las imágenes
de ambos permite crear un modelo 3D de lo que se
está capturando mediante triangulación trigonométrica.
Usando la información de profundidad como referen-
cia, la visión estéreo puede eliminar los efectos de las
sombras, identificar objetos tanto móviles como estáti-
cos, y distinguir rápidamente diferentes objetos que no
están en el mismo rango de distancia de las cámaras.
Es muy interesante el uso de radares para complemen-
tar la visión estéreo, porque está mucho menos in-
fluenciado por las condiciones del entorno. El radar
consiste en dos componentes principales, un sensor de
radar y una unidad de procesamiento de señales. La
principal ventaja del radar es que permite detectar obje-
tos en diferentes rangos, sin los problemas del entorno,
donde las imágenes de radar son difíciles de procesar
debido a su resolución. En cualquier caso, permite pro-
cesar volúmenes, formas, distancias y velocidades. Con
esta información también permite crear clasificadores y
procesar las imágenes por una DNN (deep neural net-
works, redes neuronales).
Una vez obtenidas las imágenes de ambos sistemas se
procesan para segmentar, y luego entrenar una red neu-
ronal profunda para clasificar. La combinación de am-
bos sistemas podría proporcionar una detección mu-
cho más precisa, para un producto comercial que nece-
sita un 99 % de exactitud. Este sistema actúa sobre los
frenos en caso de que haya una detección y no sea ac-
cionado por el conductor. Actualmente este sistema no
alcanza ese porcentaje, pero podría ser un paso más
para llegar a esa meta.
Sistema de detección de peatones Audi.
Las muertes debido a atropellos a peatones aumentan
en un factor de cuatro en la oscuridad con respecto a la
luz del día. Las mejoras en iluminación son sólo par-
cialmente efectivas para reducir los riesgos de la con-
ducción de noche. Diversos sistemas de mejora de la
visión nocturna, usando una variedad de tecnologías de
detección, se están desarrollando para reducir aún más
este riesgo. Los sistemas de imagen espectro cercano al
infrarrojo o NIR
(Figura 6), ilumi-
nan la escena de
forma activa en
el espectro infra-
rrojo cercano y
capturan la radia-
ción reflejada.
Los principales
inconvenientes
asociados a los
sistemas NIR in-
cluyen su suscep-
tibilidad al deslumbramiento de fuentes activas de luz,
tales como el tráfico en sentido contrario, semáforos,
farolas y, desde y hacia objetos reflectantes tales como
las señales de tráfico. Además los iluminadores NIR
pueden provocar deslumbramiento a otros conducto-
res que utilizan el mismo tipo de sistema, y pueden
causar daño a los ojos a distancias cortas (< 1 m) si las
lámparas son muy potentes.
El sistema consiste en una cámara en la parte delantera
del coche con NIR para detectar objetos y peatones a
una distancia relativa de seguridad. Una vez se obtiene
la imagen se procesa para detectar y clasificar los obje-
tos. Una manera es procesar diferentes imagines suce-
sivas para detectar el movimiento es entrenando una
máquina de vectores de soporte.
En resumen, este sistema sólo trata de resolver el pro-
blema de la detección de peatones de noche. Es muy
sensible a los cambios de luz, como luces de coches en
la dirección contraria y este sistema no actúa sobre el
sistema de frenado, sólo muestra posibles peatones en
pantalla. Es otro paso mas, pero no una solución defi-
nitiva.
Google Lidiar System.
Otra manera de buscar peatones es utilizando sistemas
basados en láser como es el caso de los vehículos de
Google y otros. Consiste en realizar un barrido laser en
una serie de capas para obtener un mapa 3D.
6. Cámara NIR. Ref.: www.uc3m.es
91Nº14. Junio de 2016
“Reconocer formas humanoides es muy fácil para los seres humanos, pero
muy difícil, por el momento, para los sistemas de visión por computador. ”
ser equipado en vehículos de serie (aerodinámica, esté-
tica, etc.). Es posible mejorar el sistema haciendo fun-
cionar el sistema con una cámara visión estereoscópica.
Poder realizar redundancia de medidas y fusionar los
datos obtenidos con el LiDAR con la cámara de visión
nos puede llevar a clasificar peatones con un índice de
error bastante pequeño (alrededor del 99%), lo que
haría de este sistema un elemento válido e implementa-
ble de cara a la seguridad vial.
LSI (Intelligent systems lab).
Este grupo de investigadores fué fundado en el año
2000 para conducir una investigación multidisciplinar y
desarrollar actividades en el área de las aplicaciones con
percepción avanzada y los sistemas autónomos. El gru-
po consiste en profesores y estudiantes de doctorado.
Actualmente el laboratorio tiene diferentes platafor-
mas, que incluyen dos vehículos autónomos eléctricos.
La detección de peatones se realiza mediante un siste-
ma de visión estéreo, un láser multicapa montado en el
frontal, y una cámara infrarroja.
La detección de peatones con el sistema de visión esté-
reo y el láser multicapa es similar a los utilizados en
otras soluciones comerciales y destaca sobre todo la
capacidad y fiabilidad de detectar peatones por la no-
che. El sistema funciona a partir de la información que
contienen las imágenes en infrarrojo, busca los bordes
o una representación de los bordes de la imagen, de tal
forma que puede codificar la información en forma de
descriptores que permite distinguir entre zonas de la
imagen que tienen forma de peatón y zonas de la ima-
gen que corresponden con el fondo.
El coche está equipado con una cámara en el infrarrojo
lejano, un tipo de cámara llamada micro-bolómetro no
refrigerado, que devuelve una representación bidimen-
sional de la temperatura a la cual están los objetos de-
lante del vehículo. Este sistema está inicialmente pen-
sado para utilizarlo por la noche cuando no tenemos
ninguna iluminación o la iluminación externa es débil
ya que estas cámaras solo representan la temperatura
del objeto y no requieren de ninguna iluminación ex-
El sistema “Láser
Imaging and De-
tection Range”
comercial utiliza-
do es el sistema
LiDAR de Velo-
dyne.
La principal ca-
racterística de
este sistema es
que hace un ba-
rrido de 64 pla-
nos de láser a
una distancia de
hasta 120m y 360º con un refresco que el usuario pue-
de seleccionar. Alcanza frecuencias de refresco capaces
de proporcionar información en tiempo real. Todo
esto con una resolución angular de 0.08º azimutal, 0,4º
en vertical y 2cm de exactitud.
El funcionamiento del sistema se basa, cómo hemos
comentado, en el sensor que se muestra en la imagen
anterior (Figura 7). Se sitúa encima del vehículo para
generar imágenes cómo la que podemos ver en la Figu-
ra 8.
Una vez recogida la imagen queda hacer una segmenta-
ción, extracción de características y clasificación. La
segmentación consiste en escoger los puntos láser que
tengan un mismo espacio de características. Este paso
facilita la extracción de características y la clasificación.
En nuestro caso podemos realizar la segmentación por
distancias. El siguiente paso es la extracción de caracte-
rísticas y clasificación, utilizando, por ejemplo, una red
neuronal profunda. Es posible realizar un entrenamien-
to supervisado de la red directamente con los objetos
que hemos segmentado y que nos dé como resultado la
clasificación que nosotros queramos.
Cómo conclusión general de este sistema, podemos
decir que es bastante fiable y preciso, además se puede
utilizar por la noche. Las desventajas que tiene son su
precio y el tamaño, que aún es demasiado grande para
7. Sensor LiDAR de Velocyne. Ref.:
www.elfuturohoy.com
92 Nº14. Junio de 2016
“El elemento fundamental en estos sistemas es la cámara embarcada en el propio vehículo”
terna al contrario de lo que sucede con las cámaras tra-
dicionales en el espectro visible.
Actualmente existen sistemas similares, sobre todo en
el espectro visible, que están integrados en algunos
modelos de vehículos y este sistema no sería diferente.
Sería muy sencillo implementarlo en un sistema comer-
cial. El sistema en segundo plano monitoriza constan-
temente las imágenes que va adquiriendo de la cámara
térmica, escaneando estas imágenes, de tal forma que
cuando detecta una zona de la imagen que puede con-
tener un peatón, esta información es suministrada al
conductor para que pueda tomar una decisión anticipa-
da y sea capaz de frenar el vehículo con más tiempo de
antelación.
El rango de distancias el cual es capaz de detectar de-
pende del modelo de cámara que estemos utilizando,
de la óptica y de la resolución de la cámara, de tal for-
ma que cuanto mayor sea la longitud focal, podremos
identificar objetos más lejanos. En el caso del modelo
que estamos utilizando somos capaces de detectar pea-
tones a 40 metros de distancia lo cuál sería útil para un
entorno urbano en el cual las velocidades son bajas. Sin
embargo, simplemente sustituyendo esta cámara por
otra con una resolución mayor o una longitud focal
mayor podríamos detectar a mayores distancias. La
capacidad de hacer frente a la seguridad peatonal es un
componente esencial del trabajo dedicado a la preven-
ción de los traumatismos ocasionados por accidentes
de tráfico. Tal y como ocurre con otros accidentes de
esta índole.
8. Generación del mapa 3D con el sistema LiDIAR de Velodyne. Ref.: www.uc3m.es
REFERENCIAS Y BIBLIOGRAFÍA:
Organización Mundial de la Salud (OMS). Nota
descriptiva N° 358. Octubre de 2015.
Seguridad peatonal: manual de seguridad vial para
instancias decisorias y profesionales. © Organización
Mundial de la Salud, 2013.
EURO NCAP. http://www.euroncap.com/es/
seguridad-en-los-veh%C3%ADculos/descripci%C3%
B3n-de-las-valoraciones/protecci%C3%B3n-para-
peatones/
Stereo-Based Pedestrian Detection for Collision-
Avoidance Applications. Sergiu Nedevschi, Member,
IEEE, Silviu Bota, and Corneliu Tomiuc
ANGELOVA ET AL.: REAL-TIME PEDESTRIAN
DETECTION WITH DEEP CASCADES 1
IN-VEHICLE PEDESTRIAN DETECTION
USING STEREO VISION TECHNOLOGY. Wei
Zhang, Ph.D., P.E.
PEDESTRIAN DETECTION WITH NEAR AND
F A R I N F R A R E D N I G H T V I S I O N
ENHANCEMENT. Omer Tsimhoni Jonas Bärgman
Takako Minoda Michael J. Flannagan
PEDESTRIAN DETECTION USING LASER
AND VISION. Cristiano Premebida.
http://portal.uc3m.es/portal/page/portal/
dpto_ing_sistemas_automatica/investigacion/
IntelligentSystemsLab
93Nº14. Junio de 2016
del agua”. Los investigadores lo sitúan entre el sigo I
después de Cristo y la primera mitad del sigo II y fue
construido en tiempos del emperador Trajano. Ade-
más, fue catalogado como Monumento Histórico por
la Real Orden del 11 de Octubre de 1.884 y declarado
Patrimonio de la Humanidad por la UNESCO el 6 de
Octubre de 1.985.
Cometido del acueducto
El acueducto de Segovia se edificó para llevar las aguas
del río Frío y dotar la misma cuantía de agua a los resi-
dentes romanos a lo largo de la ciudad. Aunque ésta
era su finalidad inicial, también se utilizaba como pro-
paganda política ya que las obras públicas del Imperio
Romano eran financiadas por personas de la política
central o municipal. Para garantizar una distribución e-
Introducción
En la actualidad, la obra de ingeniería civil romana más
significativa y uno de los monumentos más importan-
tes de la Península Ibérica es el acueducto de Segovia,
situado en la ciudad de dicho nombre. De todos los
acueductos que se construyeron en el Imperio Ro-
mano, es el más destacado y el mas completo por su
envergadura, diseño y concepto. Es un claro ejemplo
de longevidad. Preservado a la perfección, la parte mo-
numental y más famosa del acueducto, que se puede
localizar en la vaguada del Azoguejo, es el muro trans-
parente de arcos sucesivos que lo aguanta airosamente
levantado.
La palabra acueducto deriva del latín “Aqua” (agua) y
“Ducere” (conducir) y significa literalmente “conducto
ACUEDUCTO DE SEGOVIA
MIKEL MENO REGUERO. INGENIERO CIVIL, ESP. CONSTRUCCIONES CIVILES
94 Nº14. Junio de 2016
timonio de las técnicas de ingeniería aplicadas por los
romanos. En el presente, el acueducto es una gran
atracción para la ciudad y suministra únicamente por su
coronación a una fuente que se halla en la terraza de
Santa Columba (cogió el nombre de la iglesia en esa
terraza) sobre el Azoguejo.
Características
El agua del río Acebera se irrigaba a lo largo de un ca-
nal de 18 Km hasta llegar al acueducto. Desde aquí,
accedía a la ciudad fluyendo por la parte superior a tra-
vés de un canal de 25 x 30 x 30 cm. Hasta el pinar de
Valsaín funciona a cielo abierto, mientras que a partir
de dicho punto se soterra hasta llegar a un primer filtro
de arena (turris aquae). A continuación, el cauce se alza
sobre un muro (a día de hoy parte de la conducción ya
no existe) que converge en un segundo depósito de
decantación y permanece protegido por una caseta rec-
tangular de 7´70 x 4x80 metros en planta con una bó-
veda de cañón levemente apuntado. La fábrica del es-
tanque interior está formada por 6 hileras de sillares y
sus dimensiones son de 4´30 x 2´20 x 2´60 metros. A
partir de este segundo depósito parte la conducción
elevada y su sección no es recta, es decir, tiene varias
partes que modifican su dirección: un primer tramo de
65 metros con 6 arcos de 7 metros de altura límite, un
segundo tramo de 159 metros con 25 arcos hasta 8
metros de alto y un tercero de 281 metros con 44 arcos
y de 12 metros. Las luces de los arcos superiores son
de 5´1 metros, un poco más amplios. Y finalizan en la
muralla. Desde allí hasta el depósito general (castellum
quivalente de agua, se construyeron los puentes del
acueducto con distintas alturas para mantener una pen-
diente constante del canal, la cual permuta entre 0´3 %
y 5´53 %. Por desgracia, el deterioro del acueducto por
el paso del tiempo y las recientes tecnologías le han
arrebatado su actividad principal. Asimismo, ha padeci-
do algunas remodelaciones, destrucciones parciales y la
desaparición de cornisas.
El río también se le conoce Acebeda y su nombre pro-
viene del acebo que existe en el área. El emplazamiento
de la toma de agua de la conducción habita en el pago
de “El Pinar” en el curso alto del río en la Sierra de
Guadarrama a 18 Kilómetros de la ciudad, en el puerto
de Fuenfría próximo a Valsaín.
La ciudad obtuvo agua por parte de la construcción
durante cerca de 2.000 años, por lo que es un gran tes-
Imagen 1. Canal por el que fluye el agua en la parte superior del acueducto.
Ref: https://latunicadeneso.wordpress.com/tag/acueducto-de-segovia/
Imagen 2. Corte geológico de los materiales debajo del Acueducto de Segovia.
Ref: http://www.geologiadesegovia.info/segovia-ciudad-de-los-2016-paisajes/
95Nº14. Junio de 2016
to a su composición mineralógica, el material está con-
formado por feldespato potásico, piroxenos, micas,
cuarzo y anfíboles.
Se usaron 20.400 sillares de granito, ocupando un volu-
men de 7´500 m3 de forma aproximada y están sobre-
puestos unos encima de otros acoplándose a la perfec-
ción mediante un estudio de empujes de las piedras. En
los arcos, las piedras se sostienen recíprocamente para
mantener el equilibrio. No se emplearon ningún tipo
de argamasa, ni de cemento ni de plomo para unir los
bloques (opus quadrata).
El autor era conocedor de un gran técnica ya que en el
conjunto de la obra, descansa el equilibrio de la cons-
trucción, la cual es muy liviana. De esta forma, conser-
vando su integridad permanece estable el acueducto.
Dicha estructura se distingue de otros ejemplos como
el de los Milagros de Mérida (con arcos de herradura),
cuya estabilidad descansa independientemente en las
columnas. Otros acueductos que destacan por su mo-
numentalidad es España son los de Sagunto y de Tarra-
gona.
Técnicas de construcción
Para los sillares que estaban a una altura superior a la
estatura de un hombre, se empleaban unas tenazas me-
tálicas que, movidas por los esclavos, se cerraban cuan-
do tiraban hacia abajo y se apretaban por el peso de los
bloques. Estos disponían unos agujeros en sus caras
opuestas que aún
se pueden obser-
var en el acue-
ducto. Cuando
había poca altura,
los sillares se po-
nían en su posi-
ción final y se
desplazaban utili-
zando rodillos de
encina, trasladán-
dolos por anima-
les de tiro o em-
pujándolos por
aquae) había 9
arcos sencillos,
pero en la actuali-
dad solo perdu-
ran 4.
Datos destaca-
dos
La zona de ma-
yor elevación
mide 28´10 me-
tros y en este
punto se encuen-
tra un espacio de
16 metros de
largo por 2 metros de alto que se puede leer la siguien-
te inscripción, en concreto en su lado occidental:
NERVAE TRAIANVS CAES AVG GERM P M TR
P II CO S II PATRIS PATRIAE IVSSV P.
MVMMIVS MVMMIANVS ET P. FABIVS TAVRVS
IIVIRI MVNIC FL SEGOVIESIVM AQVAM RES-
TITVERVNT
Además, el acueducto romano de Segovia tiene una
estructura particular; son una constante repetición de
166 arcos con una luz de 4´50 metros cada uno de ellos
(de los cuales 68 son de arco sencillo y 44 son dobles
superpuestos) y con una longitud total de 638 metros.
Igualmente, están instalados en dos órdenes sobre los
pilares y repartidos en 4 etapas. Para la construcción de
los arcos, los albañiles construyeron marcos con forma
de semicircunferencia de madera y, posteriormente,
pusieron las piedras encima. Dispuestas ya todas las
piedras, se retiró el marco. El material de los arcos es
de granito rosado y viene de las sierras del entorno en
un radio de 20 Km.
La construcción tiene un total de 120 pilares, también
son de granito rosado y anclados a 6 metros de la su-
perficie del suelo poseyendo unas dimensiones de 3 x
2´40 metros en la base y las magnitudes del material
van mermando hasta bloques de 2´50 x 1´80 metros.
Dichos bloques estaban labrados toscamente. En cuan-
Imagen 3. Alzado y secciones de los pilares del
Acueducto de Segovia..
Ref: http://www.spanisharts.com/arquitectura/
imagenes/roma/segovia_acueducto.html
96 Nº14. Junio de 2016
La toma de agua en el pago de “El Pinar” en el curso alto del río Frio en la Sierra de
Guadarrama se utiliza a día de hoy y deriva un caudal máximo de 50 litros por segundo.
Imagen 4. Virgen de la Fuencisla.
Ref: https://millenniumwebblog.wordpress.com/
category/mitos-y-leyendas/page/2/
estructura, se determinó ejecutar una serie de repara-
ciones en la obra que contaban con la ayuda económi-
ca de organismos nacionales e internacionales y del
Estado. Dichas reformas tenían como objetivo con-
templar los siguientes pasos:
- Estabilidad: desmontar la tubería instalada de la coro-
nación y distanciarla de la cimentación.
- Integridad: demoler los muretes en coronación y eli-
minar todos los elementos extraños.
- Funcionalidad: Rehabilitar el paso del agua teniendo
como destino una fuente y trasladándose por su coro-
nación.
- Conservación: consolidación e inyecciones de cemen-
to para tratar el cosido de sillares, la cimentación y la
falla central.
- Restauración: la imposta en los arcos centrales y la
funcionalidad de todos los elementos que los integra-
ban desde su construcción por los romanos.
En los 70, se cambió una copia de la Loba del Capito-
lio de Roma por una piedra del acueducto.
pequeñas rampas de madera apoyadas en andamios.
Para poder nivelar cada tramo y, a su vez, tuviese su
pendiente se usaron unos troncos con una acanaladura
que estando llenos de agua los calzaban para obtener el
enrase final.
Los sillares cimentados en gneis, hasta el pilar 101, se
aposentaban inmediatamente sobre la roca cuando es-
taba sana o en unos fosos de un metro de profundidad
cuando estaba alterada. Los cimentados sobre arenisca
se alojaban igual que las rocas que no estaban sanas.
Para la construcción del acueducto se usó el granito, ya
que con los instrumentos y técnicas de trabajo de la
época era el material con el que podían labrar grandes
bloques de caras planas. En su superficie se hacían
unas pequeñas hendiduras, en las que se alojaban unas
cuñas de madera que al ser humedecidas se hinchaban
y después de un período corto de tiempo producían un
corte limpio y perfecto. En algunas de las piedras toda-
vía es posible observar las cavidades de las cuñas. Al
granito se le pueden hacer cortes en cualquier dirección
y conseguir piezas de caras planas en todas las orienta-
ciones por que es una piedra isótropa.
Reconstrucción
Durante un ataque musulmán en el año 1.072 (Al-
Mamún de Toledo siglo IX), el acueducto fue parcial-
mente destruido. Más tarde, en el siglo XV, en la época
de los Reyes Católicos se hizo la primera restauración
donde se reedificaron 36 arcos y que fue llevada a ca-
bo por el prior cercano al Monasterio de los Jerónimos
de Parral Pedro Mesa. Fue la más importante realizada
hasta el día de hoy.
Durante el sigo XVI, se reemplazaron los dioses paga-
nos ubicados en los nichos centrales por las estatuas de
San Esteban y la Virgen de la Fuencisla.
Tras reconocimientos detallados y costosos de toda la
Imagen 5. Acueducto de Segovia.
Ref: http://www.mundoprimaria.com/arte-primaria-mochila/
REFERENCIAS Y BIBLIOGRAFÍA:
- http://acueducto.turismodesegovia.com/es/construccion/
como-se-hizo
- http://mupart.uv.es/ajax/file/oid/991/fid/2111/2.EL%
2 0 A C U E D U C T O % 2 0 R O M A N O % 2 0 D E %
20SEGOVIA.pdf
- http://www.spanisharts.com/arquitectura/imagenes/
roma/segovia_acueducto.html
- h t t p : / / e n c i c l o p e d i a . u s . e s / i n d e x . p h p /
Acueducto_de_Segovia
- h t t p ://w w w . re gmu rc ia .c om/ se rv le t / s .Sl ?
s i t = c , 5 7 0 , m , 3 4 5 5 & r = R e P - 2 8 0 9 5 -
DETALLE_REPORTAJES
97Nº14. Junio de 2016
con una marca extranjera. El contrato se cerró, tras
varias tentativas infructuosas con otras marcas, en fe-
brero de 1951 gracias al apoyo de Mr. Lefaucheux, pre-
sidente general de la Règie Nationale des Usines Re-
nault, y permitía la fabricación del Renault 4CV.
El siguiente paso era obtener la aprobación de
Industria, para lo que debió presentar el proyecto de la
instalación y la memoria descriptiva, trámite llevado a
cabo en mayo de 1951 en la Delegación de Industria de
Valladolid, el Instituto Nacional de Industria (INI) pu-
so una gran resistencia a que se le concediera el permi-
so ya que eso supondría el fin del monopolio estatal de
SEAT, pero aún así, el día 19 de octubre de 1951 se
publica en el Boletín Oficial del Estado la autorización
oficial concedida a don Manuel a título personal para
crear la nueva industria y fabricar el Renault 4CV.
Indudablemente era un gran paso, pero el Ge-
neral aún no contaba con los apoyos necesarios, ya que
no se entendía la fabricación privada de automóviles.
El 28 de diciembre del mismo año, festividad de los
Santos Inocentes, se presenta la solicitud de constitu-
ción de la empresa Fabricación de Automóviles Re-
nault S.A.(FARSA). Inconveniencias semántica y festi-
va llevaron a que la firma definitiva ante notario se
produjera el 29 de diciembre, bajo la denominación
FASA (Fabricación de Automóviles S.A.), contando
en ese momento con el apoyo de 6 promotores que
aportaron 50.000 pesetas cada uno: Manuel Jiménez-
Alfaro y Alaminos, Francisco Mateo Martínez, Eduar-
do Fernández Araoz, Eusebio Caro Rodríguez, Santia-
go López González y José Luis Gutiérrez Semprún. El
12 de enero de 1952 se completó el capital social que
ascendió a 5 millones de pesetas.
El General Don Manuel Jiménez-Alfaro de
Alaminos nació en San Lúcar de Barrameda (Cádiz) en
el seno de una familia acomodada, el día el 8 de febrero
de 1898, siendo el tercero de 4 hermanos varones.
Ingresó en la Academia General Militar, esco-
giendo el Arma de Artillería, posteriormente accedió al
Cuerpo de Ingenieros de Armamento y Construcción,
actualmente denominado Cuerpo de Ingenieros Poli-
técnicos del Ejército de Tierra, ocupando el cargo de
profesor prin-
cipal de la
especialidad
de Automovi-
lismo de la
Escuela Poli-
técnica Supe-
rior del Ejér-
cito, creada
en 1941, lo
que le con-
vertía en uno
de los hom-
bres que más
sabía de automóviles en España.
Creía fielmente en que el futuro del país y de
su recuperación económica pasaban por la inversión en
la industria automovilística, especialmente desde el sec-
tor privado, dedicando toda su vida a desarrollar esta
idea y sobre todo tratando de encontrar los apoyos
necesarios para llevarla a la realidad, pero debió esperar
hasta contar con 53 años de edad para conseguir afian-
zar el primero de los pasos necesarios, que no era otro
que firmar un contrato de fabricación de automóviles
98 Nº14. Junio de 2016
INGENIEROS Y MILITARES:
EL GENERAL JIMENEZ-ALFARO
Y
SUS VEHÍCULOS FASA-RENAULT
FÉLIX ALVARO PAJARES RUIZ.
Ingeniero de Armamento y Construcción. Esp. Construcción y Electricidad
la misma, por las excepcionales circunstancias que tenía
Valladolid tanto desde el punto de vista de las comuni-
caciones, como de la abundancia de recursos naturales,
agua en abundancia para usos industriales, electricidad
de la estación de La Mudarra, así como humanos, es-
tando en las inmediaciones los Talleres Principales de
la antigua Compañía de los Caminos de Hierro del
Norte de España S.A., contando con más de 3.000
obreros especializados, ajustadores, torneros, fresado-
res, cepilladores, mortajadores, taladradores, caldere-
ros, tuberos, montadores, griferos, herramentistas, fun-
didores de hierro y de bronce, modelistas, forjadores,
peones especialista y peones de arrastre…
Además de los trabajadores especializados se
contó con gran cantidad de mano de obra agrícola que
con el éxodo rural pasaron a formar parte de las cade-
nas de montaje, los mandos intermedios provenían de
la Escuela de Aprendices y muchos de los mandos su-
periores de FASA salieron de las aulas de la Escuela de
Peritos Industriales.
De la mano de la creación de FASA aparecieron tam-
bién en Valladolid la fábrica FAMESA, Fabricaciones
Mecánicas S.A. donde se fabrican los motores y órga-
nos mecánicos, y FACSA, Fabricación de Carrocerías
S.A. donde se estampan las piezas de carrocerías. Am-
bas empresas aprovecharon la coyuntura vallisoletana y
fueron posteriormente integradas en F.A.S.A.
En abril de 1953 se inauguró la nave de monta-
je y el 12 de agosto salieron a la calle los 11 primeros
coches en un paseo por la ciudad. Ocupó el General,
en ese momento aún Teniente Coronel, el puesto de
director gerente de FASA hasta julio de 1956, momen-
to en que ascendió a coronel y fue destinado a dirigir la
Fábrica Nacional de Toledo.
El 23 de enero de 1957 el Ayuntamiento de
Valladolid le concede la Medalla de la Ciudad en pre-
mio a los méritos extraordinarios prestados a esta capi-
tal, así como la Medalla de Mérito al Trabajo por las
actividades desplegadas en su vida profesional. Conti-
nuó con su vida militar hasta alcanzar el empleo de
General de División Ingeniero de Armamento y per-
maneció en el consejo de administración de FASA Re-
nault hasta 1990, fecha en la que dimitió voluntaria-
mente de su cargo. Falleció en Madrid el 11 de Enero
de 1992.
LOS INICIOS DE FASA-RENAULT
En 1908, Louis Renault fundó en España su
segunda filial fuera de tierras francesas, denominándola
Sociedad Anónima Española de Automóviles Renault
(S.A.E.A.R.). Resulta muy curioso saber que en aquel
momento se comercializaban los vehículos Renault en
chasis-motor y era el cliente el que posteriormente
mandaba fabricar la carrocería a su gusto. Tuvieron
que pasar más de 50 años para que se entendiera la idea
que proponía el General, que no era otra que ofrecer
los vehículos completos.
Para entender los inicios de FASA-RENAULT
debemos retrotraernos a la época en la que todo el país
estaba sufriendo las consecuencias de la Guerra Civil y
la creación de un nuevo orden social, fue por ello que
los inicios de la fábrica estuvieron repletos de proble-
mas, envidias e inconvenientes.
Tras obtener los permisos y los apoyos necesa-
rios se comenzó la construcción de las instalaciones
necesarias, las naves, la central térmica y de las cadenas
de montaje, todo ello proyectado desde Renault-
Francia.
La ubicación del complejo vallisoletano vino
determinada, además de por el conocimiento que el
General tenía de la zona y de los intereses políticos en
3. El General Alfaro con gran parte de la plantilla en los primeros años de andadura
de FASA.
2. Primeras construcciones de FASA-RENAULT
89Nº14. Junio de 2016
Las primeras unidades se diferenciaron por incorporar
varias distintas, quizá la más representativa fue el rom-
bo esmaltado que presidia el frontal, fabricado artesa-
nalmente por un joyero vallisoletano, aunque pronto
se dieron cuenta de lo costoso que resultaba la pieza y
la sustituyeron por un escudo circular elaborado con
material plástico.
En 1959, cesó la fabricación del Renault 4CV por parte
de FASA, con un total de 26.298 unidades
fabricadas.
LOS PRIMEROS FASA-RENAULT.
EL 4CV
Antes de iniciarse la fabricación del que sería el
primer Renault español, el "4CV", haciendo referencia
a sus cuatro caballos de vapor de potencia fiscal, más
conocido en España como el 4/4 por decirse aquí que
tenía "cuatro puertas, cuatro cilindros, cuatro plazas...",
se recibieron de Francia algunas unidades desmonta-
das, que sirvieron para que los trabajadores estudiasen
las piezas que tendrían que elaborar. A principios de
1953, comenzó a realizarse el montaje del prototipo
por parte de un equipo compuesto por ocho emplea-
dos, aunque después hubo que dedicar otro mes a ajus-
tarlo y rematarlo, y no fue hasta junio cuando llegó
desde Billancourt el primero de los vagones precinta-
dos, encargados de traer las piezas francesas necesarias
para montar el modelo, junto a otros componentes que
tenían proveedor español y que irían en aumento. De-
bieron pasar varios meses hasta que en agosto de 1953
salieron a la luz las primeras 12 unidades del Renault
4CV.
6. Siempre resulta curioso de admirar la publicidad de la época.
7. Cadena de montaje del 4/4.
5. Los doce primeros 4/4 paseando por Valladolid en agosto de 1953.
100 Nº14. Junio de 2016
4. Proceso de montaje del Renault 4CV
EL PASO AL VEHÍCULO UTILITARIO.
LA FAMILIA DAUPHINE.
Pocos años más tarde, en 1956, la producción
de FASA asciende a 5.333 unidades, triplicando esa
cantidad en solo dos años con un nivel de nacionaliza-
ción bastante elevado, lo que demuestra la confianza
creciente del cliente español en la empresa del General,
todo ello unido al incremento del poder adquisitivo
desembocó en una popularización del denominado
“vehículo utilitario”. Empezaba a fraguarse la revolu-
ción de la industria automovilística que tanto había
anunciado el General Alfaro.
Pocos meses después de la salida al mercado
por parte de La Régie del novedoso Renault Dauphine
en marzo de 1956, FASA ya había conseguido la firma
de un contrato para su fabricación en Valladolid, dán-
dose a conocer la noticia en mayo de 1958 y desban-
cando al 4CV en menos de un año, tras haberse fabri-
cado un total de 26.298 unidades. Cabe reseñar que en
diciembre de 1958 la empresa tuvo que lanzar un co-
municado a los medios solicitando a la población que
cesara de encargar unidades.
Muchos fueron los motivos que propiciaron tal
éxito, desde sus formas redondeadas, su aerodinámica,
sus 4 puertas y 4 plazas amplias, el gran maletero con
que contaba en la parte delantera, debido en gran me-
dida a la ingeniosa ubicación de la rueda de repuesto, y
sobre todo el pequeño motor, que ubicado en la parte
trasera, con una capacidad inferior al litro, era capaz de
propulsar al vehículo por encima de los 120 km/h, o
incluso que venía de París, como rezaba el siguiente
anuncio dirigido a
las féminas:
En 1959, con la
fábrica en pleno
rodaje y la entrega
de vehículos sin
demasiada demo-
ra, el Renault
Dauphine tenía
un coste, impues-
tos incluidos de
125.686 pesetas,
cuando el sueldo
medio rondaba
las mil pesetas,
por hacer la comparativa estaríamos en el caso de que
un trabajador que cobrara hoy en día 1.000 €, se com-
prara un coche de más de 125.000 €, es decir, del en-
torno de los Ferrari, Porsche o Maserati.
A pesar de su visión más empresarial, se conta-
ba que el General Alfaro no dejó nunca de lado su per-
fil de ingeniero y militar, llegando al punto de que en
una reunión con los controladores franceses, estos de-
tectaron que sobraban piezas en la cadena de montaje,
el motivo era muy sencillo, los montadores españoles
habían ingeniado una herramienta especial que evitaba
poner una contraplaca que, evidentemente, comenzaba
a acumularse en el stock. Los ingenieros franceses aca-
baron por copiar la herramienta y ahorrarse la pieza
también en Francia.
8. Línea de montaje del nuevo Renault Dauhine
9. Anuncio del Renault Dauphine.
91Nº14. Junio de 2016
9. Renault Dauphine con falsa capota.
En la cubeta del depósito metálico se vertía
aceite y se colocaba a su alrededor el filtro conformado
a base de malla metálica, obligando al aire a atravesar
primeramente la malla, con el fin de eliminar cualquier
impureza de cierto tamaño, insecto, hoja, etc, para a
continuación atravesar el baño de aceite, dejando en él
cualquier partícula de polvo. La boca de aspiración de
aire se encontraba ubicada en el propio maletero, en la
zona delantera del coche, lo que hacía que cualquier
movimiento del equipaje pudiera obstruir la entrada y
ahogar el motor.
En 1962, aparece el tercero de los componen-
tes de la familia, el Renault Ondine, con la carrocería
muy similar a las de sus dos antecesores, se trataba de
un modelo mejorado respecto de ambos, del Dauphine
heredó la mecánica, el motor seguía colocado sobre el
puente trasero y la transmisión a las ruedas traseras, es
decir, auténticos todo atrás, mientras que del Gordini,
versión más deportiva, tomó el mayor nivel de equipa-
miento, la caja de cambios inicial aún era de tres mar-
chas, pero en breve se acopló la de cuatro.
A pesar de las mejoras, el Ondine, al igual que
sus hermanos, mantenía viva la leyenda negra de
"coche de las viudas", debido a su tendencia sobrevira-
dora, aunque en gran medida se debía al estado de las
carreteras y a la falta de experiencia de los conductores,
también la ligereza de la carrocería, de unos 640 kg,
unido a un reparto del peso claramente descompensa-
do hacia el eje trasero, se conjugaban par restar estabili-
dad al vehículo sobre todo en trayectos virados, como
solución artesanal muchos de los propietarios optaban
por colocar contrapesos de plomo o simples sacos te-
rreros en el maletero delantero.
En 1961, cuando los motores eran cien por cien espa-
ñoles, FASA presentaba el Gordini. Esta versión surgi-
ría tras las modificaciones que el ingeniero francés
Amédée Gordini había conseguido implantar al motor
Ventoux, sustituyendo el primitivo carburador Solex 28
por uno de 32 mm y aumentando la compresión de
5,8:1 a 6,3:1. De esa forma, el cuatro cilindros de vál-
vulas en cabeza ganaba ocho caballos, 36 a 5.000 rpm
respecto a los 28 a 4.200 del Dauphine original. Y para
transmitir a las ruedas posteriores todo el rendimiento
de estas mejoras mecánicas, se cambió la caja de tres
relaciones por una de cuatro. Al alcanzar mayor veloci-
dad, hasta 130 km/h, se hizo imprescindible la mejora
de los frenos.
Merece la pena mencionar que en estos vehícu-
los el filtro del aire, que en la imagen anterior vemos en
la parte superior a la izquierda, era de tipo tropical, en
baño de aceite, siendo la palabra tropical una forma
elegante de referirse a los países con carreteras sucias y
descuidadas.
102 Nº14. Junio de 2016
10. Motor Ventoux montado sobre el eje trasero.
11. Filtro del Aire
Otro de los detalles que diferenciaban a la fa-
milia Dauphine de su antecesor el 4CV y del resto de
sus competidores era el amplio maletero, debido en
gran medida a la solución ingeniosa que se dio a la ubi-
cación de la rueda de repuesto, en lugar de estar dentro
del maletero, como venía siendo habitual, en el Dau-
phine se proyectó un hueco bajo el mismo accesible
desde la placa de la matrícula.
EL FIN DEL TODO ATRÁS. LOS R4
Tras la aparición del R4 en Francia, FASA
comprendió que el futuro pasaba por los nuevos mo-
delos de tracción delantera y no tardaron en firmar el
correspondiente contrato para la fabricación del mis-
mo, con diferentes cilindradas y acabados, todos ellos
con una carrocería de cuatro puertas más portón trase-
ro y una importante innovación mecánica como fue el
sistema de refrigeración hermético por líquido.
A diferencia de los anteriores modelos FASA,
así como de los modelos franceses y de otros países,
todos los R4 españoles contaban con instalación eléc-
trica de 12 Voltios
EL FIN DE FASA
En 1965 Renault amplió su participación en el
accionariado de la compañía FASA, pasando de un
15% a un 49,9%, renombrándose la compañía a FASA-
Renault. En 1976 Renault recibió la autorización para
convertirse en el accionista principal de la misma y en
diciembre de 2000 FASA-Renault ya pertenecía por
completo al Grupo Renault
103Nº14. Junio de 2016
REFERENCIAS Y BIBLIOGRAFÍA:
- Club español Amigos del Renault 4/4
- Historia del automóvil a través de sus marcas.
- Club Alpine de Valencia
- Asociación de Amigos del Renault en España.
12. Colocación de la rueda de repuesto en el 4/4 y en el Dauphine.
13. Renault R4, primer tracción delantera de la fábrica FASA.
14. Insignias española y francesa
de los vehículos fabricados por
FASA y por Règie Nationale,
correspondientemente.
BB77ISSN 2386-639X
14
9 772386 639006

1606 Biela 7.65 Nº14

  • 1.
    Biela 7.65REVISTA DELMUNDO DE LA INGENIERÍA Y LA CONSTRUCCIÓN AÑO 3 NÚMERO 14 JUNIO DE 2016 ISSN 2386-639X 14 9 772386 639006 Historia de los motores INGENIEROS Y MILITARES El General Jiménez Alfaro y su fábrica de vehículos FASA Renault
  • 2.
    Página 8 Página 4 Página16 Página 12 Página 26 Página 22 Página 30 Página 46 Página 40 Página 52 Cubiertas Colgantes Alumbrado inteligente Reutilización de aguas resi- duales Materiales compuestos en aeronáutica Gran error: añadir agua al hormigón Cimentaciones Superficiales Historia de los motores Automatización de redes Internet y su funcionamiento Espectroscopio y el control de calidad Voladuras en interior Visión Nocturna Página 36 Página 56 2 Nº14. Junio de 2016 CONTENIDO
  • 3.
    Biela 7.65 esel órgano de expresión del Centro de Formación IAE. info@ingenierosalejercito.com Edita el Centro de Formación IAE. Cierre de la impresión y publicación en fecha 20 de mayo de 2016. Dirección: L.T. de Garnez Consejo de Redacción: Juan González; Alvaro Manuel Sanchez; Álvaro Titos ; José Emilio Fernández; Iván García ; Raquel Hernández; Jose Maria Lozano ; Francisco Navarro; Joaquín Toro; Antonio Climent; Rebecca Renuncio; Jorge Peña; Francisco Escamez; Marcos Cerdán; Miguel Silva; José Vicente Jurado; Alejandro Larruy; Pablo Alonso; Alberto Martín; Antonio Flores; Marta Sanz del Burgo; Fernando Martel; Yeray Estévez; Adrian Quijada; Sergio Hurtado; Adrián Jiménez; Juan Manuel Alfaro; Alfonso Rojo; Andrés Siñeriz; Pablo Escribano ; Mikel Meno; Juan José Espinosa; Marta Bartolomé; Rocío B. Higueras ; José Manuel Ibáñez Poveda; Iban Cabrera ; Carlos Mollá ; Pedro Manuel Vélez; Carlos Medrano; Eduardo Baselga; Marcos Maldonado; Alejandro Gómez, Marta González, Laura García, Rubén Bonilla, Daniel Trujillo, Ángel Santos, Luis Manuel Delgado, Diego Fernández, Miriam Cle- mente, María Fernández, Victor García, Rebeca Rosado. Secretaría del Consejo de Redacción: Félix-Álvaro Pajares. Paseo de las Delicias. Madrid. Imprime: Centro de Impresión DaBe Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción. Página 64 Página 60 Materiales del futuro Cerramientos fotovoltaicos Problemas en el reciclaje de sis- temas renovables de energía Página 68 Página 72 Fracking Ahorro de combustible en aviación Página 76 Sistema de detección de Peatones Página 88 Página 82 Optimización de células solares fotovoltaicas Página 94 3Nº14. Junio de 2016 El acueducto de Segovia Ingenieros y Militares: El General Jiménez-Alfaro y sus vehículos FASA Renault Página 98
  • 4.
    El endurecimiento delhormigón se produce por una reacción química que necesita de unas determinadas proporciones de componentes, es decir, determinada cantidad de agua para una cantidad concreta de cemento (u hormigón). Ni más cantidad, ni menos. La justa. Si hay más cantidad de agua que la necesaria para la reacción química, el agua sobrante acabará evapo- rando, dejando huecos que acaba- rán siendo poros en el hormigón que disminuirán la resistencia y por donde puede entrar el aire exterior y provocar con el tiempo la oxidación de los armados. Por otro lado, si la cantidad de agua es menor de la necesaria para que se produzca la reacción quí- mica, ésta no culmina, no se endu- rece todo el cemento porque no tiene suficiente agua para poder reaccionar y por lo tanto no alcan- za la resistencia esperada. Ambos casos son malos para el hormigón, un material mucho más delicado de lo que nos pensamos. ¿Cómo puede faltar agua en el hormigón? Básicamente hay dos razones por las que acabe faltan- do agua para conseguir el endurecimiento completo del hormigón. - No se ha añadido suficiente agua durante el amasado. Muy impro- bable si el hormigón está fabricado en una planta, pues son procesos informatizados y muy controlados. - Que se pierda agua durante el proceso de ejecución y endureci- miento del hormigón en obra. Esto se produce debido a la eva- poración que puede sufrir el agua del hormigón por el calor que pue- da hacer o el viento, que irá eva- porando las capas superiores de agua y disminuyendo la cantidad que queda para reaccionar con el cemento y endurecer. Esto es lo que solucionaremos gracias a rea- lizar un correcto curado del hor- migón. Se ve la tremenda importancia del curado del hormigón. Pero por otro lado, puede ser que exista agua en exceso y suele ocurrir por añadir agua. ¿Añadir agua al hormigón? Existe una costumbre/manía a pie de obra que daña el hormigón y los operarios ejecutan con toda la fe, como algo normal, lógico y beneficioso; añadir agua al hormigón. GRAN ERROR: AÑADIR AGUA AL HORMIGÓN ANTONIO CLIMENT ALÓS. ARQUITECTO TÉCNICO. 4 Nº14. Junio de 2016 Imagen 1. Momento de vertido del hormigón desde la cubeta del camión hormigonera. Fuente: www.nuevaingieneria.com Imagen 2. Coqueras existentes como un mal vibrado y por tanto, existiendo un aire embebido en el hormigón. Fuente: www.enriquealario.com
  • 5.
    Dicho operario, posiblementeno ha sido formado para la recepción y vertido de hormigón, sino que simple- mente es lo que ha hecho siempre, de la misma mane- ra, con los mismos vicios adquiridos de quien apren- dió, que por supuesto tampoco nadie le había explica- do esto. El hormigón necesita una cantidad de agua concreta en relación a una cantidad de cemento (dependiendo de los usos, formas de trabajo, resistencia, impermeabili- dad, durabilidad y exposición del mismo a agentes agresivos; varia dicha relación) para que se produzca la reacción química que hará que se endurezca. Dicha cantidad de agua es tan sumamente importante, que en su cálculo se tiene en cuenta la humedad de los áridos de la composición, que pueden llegar a influir en el resultado final, como tantos otros aspectos. Así pues, se puede intuir la gran repercusión que puede tener el añadir agua a pie de obra, en base a la propia experiencia del operario en cuestión. Si la masa tiene menos cantidad de agua de la necesaria, hará que no todo el cemento reaccione y endurezca y por lo tanto no alcance la resistencia esperada. Pero ¿que ocurre cuando el hormigón tenía más agua de la necesaria? ¿Qué consecuencias tiene para el hor- migón el agua sobrante? Consecuencias de añadir agua al hormigón Como se puede entender, el agua sobrante, la que no ha reaccionado no desaparece “sin dejar rastro”; sino que queda albergada en el interior de la masa, de forma líquida y obviamente con un resistencia muy inferior a la del hormi- gón, he aquí uno de los pro- blemas (pero hay más). A priori, puede parecer que dicha agua no va suponer un gran problema, además que muchas ocasiones son peque- ños huecos o incluso micros- cópicos, pero la realidad es que son suficientes para crear zonas de baja dureza y reducir la resistencia de la pieza en general. La fórmula resul- tante que ronda esta situación es tan sencilla como cla- ra: a mayor volumen de poros, menor volumen de ma- sa de hormigón, que es al fin y al cabo la que tiene la resistencia. Por otro lado, se puede dar la complejidad que en vez de quedar agua embebida en el interior de la masa, que- de agua en contacto con las armaduras; y no es necesa- rio entrar en grandes explicaciones para entender que tarde o temprano se convertirá en un inicio de oxida- ción, un inicio de degradación del elemento de hormi- gón, siendo la estructura un elemento básico que debe durar muchos años y debe hacerlo en las mejores con- diciones posibles. Imagen 3. Fisuras producidas por la rápida evaporación del agua que ha llegado hasta la superficie. Fuente: www.enriquealario.com Imagen 4. Imagen aumentada de la red capilar que se crea en el interior. Fuente: www.acksol.com 5Nº14. Junio de 2016
  • 6.
    (exudación) haciendo quela propor- ción de agua disminuya drásticamente. Evidentemente la resistencia en la su- perficie del hormigón va a bajar y ade- más esa agua que ha subido hasta la superficie va a evaporarse tan rápida- mente (dependiendo de las condicio- nes climatológicas) que se producen fisuras en la superficie del hormigón. Llegados a ese punto, la porosidad del elemento ha aumentado tanto interna- mente como en su superficie, facilitan- do así la entrada de los agentes agresi- vos ambientales. ¿Por qué le añaden agua al hormigón? En muchas ocasiones la fuente del problema esta en el proyecto de la obra. Con tal de buscar mejores carac- terísticas algunos proyectistas especifican un hormigón los más seco posible, que nada más llegar a obra y ante la dificultad de trabajar con el (poca trabajabilidad), el operario a pie de obra añade agua, sin tener en cuenta las consecuencias que esto conlleva. En otras ocasiones simplemente es debido a la costum- bre de añadir agua para que cuanto más fluido sea, en aras de añadir facilidad y rapidez cuando se coloca, gran ingrediente en trabajos a “destajo”. Entonces ¿Qué hacer si el hormigón llega tan duro que no se puede trabajar? Ante las consecuencias anteriormente mencionadas, sería idóneo que el proyectista tuviera en cuenta la tra- bajabilidad, ayudándose del uso de aditivos que conser- varan la relación agua/cemento pero que le dan mayor fluidez a la masa (existen además: aceleradores del en- durecimiento, retardadores de fraguado, incorporado- res de aire, plastificantes, fluidificantes, superfluidifi- cantes, etc.) Dejando de lado el posible binomio agua-armaduras; el agua que queda embebida dentro del hormigón tarde o temprano acabará evaporando, dejando un hueco que será ocupado por aire y se creará un poro. Con el agravante que, si estos poros se van conectando entre ellos y están en contacto con el exterior, se con- vertirán en una vía de entrada de agentes ambientales, lo que iniciará un proceso de degradación. Es lo que se llama carbonatación del hormigón. Si la carbonatación alcanza las armaduras se inicia la oxidación y más pron- to que tarde precisará una reparación. Los daños por carbonatación tienen también relación con la profundidad a la que se encuentran los armados, de ahí la importancia de utilizar separadores para ga- rantizar que no se encuentran demasiado cerca de la zona exterior del hormigón. Sea como fuere, añadir agua al hormigón aumenta la porosidad del mismo y por tanto disminuye la durabili- dad y la resistencia. Como en toda mezcla que se precie, lo más pesado tiende a irse al fondo y lo menos pesado sube a la su- perficie; por ello el exceso de agua subirá a la superficie Imagen 5. Oxidación de las armaduras por la carbonatación del hormigó Fuente: www.enriquealario.com 6 Nº14. Junio de 2016 “Añadir agua al hormigón aumenta la porosidad y por lo tanto se disminuye la durabilidad y la resistencia. La relación entre cemento y agua se debe respetar siempre”
  • 7.
    También puede sucederque la consistencia con la que llega el hormigón sea diferente al solicitado, por cual- quier causa (error de dosificación, trayecto, etc). Ante esta situación, es claro que no se debe añadir agua, sim- plemente se devuelve (no se debe tener reparos pese a que parezca un decisión brusca). Si a pesar de todo, el hormigón sigue siendo muy seco (pero el correcto), solo queda una opción hay que colo- carlo así. Se tardará más en colocarlo, habrá que utili- zar más tiempo el vibrador, poner mayor cuidado en que no queden coqueras, pero en ningún caso añadir agua. Como se ha dicho anteriormente, la simple acción de coger una manguera y añadir agua al camión para que el hormigón sea más fluido y más fácil de trabajar con- lleva graves consecuencias. De forma resumida se entiende que la simple y exten- dida acción, de añadir agua al hormigón a pie de obra, ya sea porque es muy seco, porque hace calor, por cos- tumbre de añadir agua, por la necesidad de acabar pronto y cuanto más fluido sea mejor; se sabe que:  Disminuye la resistencia  Aumenta la porosidad  Disminuye la durabilidad  Favorece la carbonatación  Empeora el anclaje de las armaduras  Se produce una figuración superficial  Facilita la oxidación de las armaduras  Baja también la dureza su- perficial Quizá hay veces en que algunos “profesionales” piensan en termi- nar rápido su trabajo para cobrar y a otra obra, sin importar la calidad del mismo. Si por razón de la pro- fesión que cada cual debe desem- peñar, se debe controlar dicha ac- ción, hay que saber actuar en con- secuencia y que estas personas de- jen de realizar dichas prácticas erróneas, hasta que no ejecuten su actividad de la misma forma que lo hacen los buenos profesionales. Esta no es una acción aislada, que con la correcta eje- cución ya se obtiene un buen hormigón. Una estructu- ra de hormigón armado requiere una gran profesionali- dad, desde las personas que proyectan y eligen el tipo hasta los operarios que lo colocan. Por ello cabe recordar, que existen otras malas prácti- cas muy extendidas, como lo son: utilización de separa- dores incorrectos, hormigonar en tiempo excesivamen- te fríos o calurosos, hormigonar desde una altura exce- siva, vibrar el hormigón en exceso o en escasez, no realizar el curado de forma correcta, etc. Existen una serie de actividades a realizar adecuadamente, disfruten. REFERENCIAS Y BIBLIOGRAFÍA: - w w w . u p v . e s / m a t e r i a l e s / F c m / F c m 1 4 / pfcm14_3_1.html -www.construccionesmalaga.com/la-importancia-del- agua-en-el-hormigon/ -www.acaceres.addr.c om/student_access/ RelacionAguaCemento.pdf - Efecto de la variación agua/cemento en el concreto .Tecnología en Marcha, Vol. 25, N.° 2, Abril- Junio 2012 7Nº14. Junio de 2016 Imagen 6. Fisuras y pérdida de material en el anclaje de las armaduras, debido a un mal vibrado y movimientos durante su ejecución, siendo necesario una reparación para evitar males mayores. Fuente: www.enriquealario.com
  • 8.
    En casos especialesde grandes construcciones y/o de muy baja capacidad portante del suelo, puede ser interesante el empleo de hormigones de mayores resis- tencias. A veces se emplean los términos “ i n f r a e s t r u c t u r a ” y “superestructura” para designar respectivamente a la cimentación y al resto de la estructura, pero constituyen una terminología confusa. El terreno, estrictamente hablando, es también un material de construcción, pero presenta con todos los demás una diferen- cia importante y es que no ha sido elegido por el téc- nico. Las posibilida- des de cam- biarlo son casi siem- pre pocas y únicamente podemos, en ocasio- nes, modi- ficar alguna de sus pro- piedades. Rara vez es económica la sustitución. Por ello, es la cimentación la que habrá de proyectarse de acuerdo con el suelo y en muchos aspec- tos la selección y la disposición de la propia estructura vendrá también condicionada por él. La iteración suelo-cimiento es importante para el cálculo de la cimentación y a su vez depende fuertemente de las deformabilida- des relativas del suelo y del ci- miento. Desgraciadamente nues- tros conocimientos sobre el cálculo de esas deformaciones son escasos todavía. Introducción El cimiento es aquella parte de la estructura encargada de transmi- tir las cargas actuantes sobre la totalidad de la construcción al terreno. Dado que la resistencia y rigidez del terreno son, salvo ra- ros casos, muy inferiores a los de la estructura, la cimentación po- see un área en planta muy supe- rior a la suma de las áreas de to- dos los pilares y muros de carga Lo anterior conduce a que los cimientos sean en general piezas de volumen considerable, con respecto al volumen de las piezas de la estructura. Los cimientos se construyen habitualmente en hormigón armado y, en general, se emplea en ellos hormigón de calidad relativamente baja (25 MPa de resistencia a 28 días), ya que no resulta económicamente interesante el empleo de hormi- gones de resistencia mayores. Sin embargo, debe prestarse atención a que una baja exigencia en cuan- to a resistencia no conduzca a un bajo contenido de cemento, que suponga riesgos de durabilidad. CIMENTACIONES SUPERFICIALES ÁLVARO TITOS LÓPEZ. GRADO EN INGENIERÍA MECÁNICA 8 Nº14. Junio de 2016 Imagen 1. Cimentaciones superficiales en obra. Civilgeeks.com
  • 9.
    Todo ello acentúala necesidad de una especial prudencia y cuidado tanto en la concepción como en el cálculo y los detalles al proyec- tar y construir cimentaciones. La durabilidad de estos elementos debe ser muy especialmente con- siderada en el proyecto, en la se- lección de materiales y en la eje- cución, ya que en cualquier fallo no será observable, en la mayoría de los casos, hasta no alcanzar una elevada importancia. Fases En el proyecto de una cimenta- ción se distinguen tres fases de estudio a saber: 1. Recogida de datos. Modelo estructural En el modelo estructural que el proyectista plantea, los apoyos de estructura se suponen, nor- malmente, empotramientos per- fectos. En base a esto, se dimen- siona la estructura y se calculan las cargas que la misma va a ejer- cer sobre el terreno. El objetivo de las cimentaciones es asegurar que el terreno es capaz de soportar di- chas cargas. Además se debe ga- rantizar que también soportará las cargas sísmicas que establezca la normativa, entre otros factores. Por último debemos asegurarnos de la durabilidad de las cimenta- ciones, es decir, que garanticen las condiciones mencionadas an- teriormente durante el periodo de vida de la estructura. Frecuentemente, se piensa que esa falta de conocimientos es im- portante en lo que se refiere al suelo, pero que en lo referente a la estructura nuestros métodos de cálculo son satisfactorios. Eso no es así y la parte relativa al cálculo de las deformaciones en las es- tructuras de hormigón es todavía insuficientemente conocida. Por otra parte, con frecuencia las estructuras de cimentación son altamente hiperestáticas, y su cálculo preciso resulta muy com- plejo y raras veces es posible. El ordenador ha venido a suminis- trar una grana ayuda para bastan- tes casos, pero no debe olvidarse que el conocimiento, todavía im- perfecto de las características de suelos, de las del material hormi- gón, y de las piezas de hormigón estructural, hacen ilusorio el pre- tender una gran precisión en los cálculos. Por todo ello, el proyectista de cimientos ha de ser estrictamente cuidadoso con los métodos de cálculo que elija y especialmente prudente al aplicarlos. En ese sentido, el proyectista no debe olvidar que las cimentaciones usuales es- tán ocultas y formadas por piezas generalmente muy rígidas comparadas con las de la estructura. Por tanto, el fenómeno de la fisura- ción, que es un excelente síntoma de aviso propio de las estructuras de hor- migón, no es observable en los cimientos. Tampo- co las deformaciones de un cimiento excesivamen- te solicitado suelen ser tan importantes como para construir un síntoma de aviso. Imagen 3. Diferencia entre cimentación superficial y cimentación profunda. www.cuadernosdederechoparaingenieros.com 9Nº14. Junio de 2016 Imagen 2. Empotramientos perfectos como base de la estructura.
  • 10.
    de datos suficientessobre la tipo- logía de la estructura a cimentar, cargas, separación entre pilares, sótanos, etc. Es decir, el informe geotécnico se elabora a posteriori del modelo estructural. 2. Determinación de las pre- siones admisibles En base a lo obtenido en la pri- mera fase, se determina la pre- sión de hundimiento. La presión de hundimiento es análoga al lí- mite elástico de un material. Una vez se ha determinado la presión de hundimiento, median- te una serie de coeficientes de seguridad se determina la presión admisible de trabajo. Dichos valores se obtienen a partir de una serie de facto- res, como pueden ser el módulo elásti- co del suelo, la re- sistencia del suelo a esfuerzos cortantes, la profundidad del nivel freático, los asientos diferencia- les permitidos, peso específico del suelo, deformabilidad… 3. Diseño estruc- tural Una vez se ha de- terminado la pre- sión admisible de trabajo, y siempre teniendo en cuenta el entorno en el que se sitúa la obra: coste de los mate- riales y la mano de obra, cargas a las que está sometida la estructu- ra, características del terreno… Se pretende buscar una cimenta- ción con un coste mínimo que garantice la seguridad de la es- tructura. En base a este criterio, se pueden plantear principalmen- te dos tipos de cimentaciones: superficiales (o directas) y pro- fundas. La distinción entre cimentación superficial o profunda viene dada por la cota sobre la que se cons- truye la misma. Se puede estable- cer, a modo orientativo, una pro- fundidad límite de unos 6 metros, por debajo de la cual se conside- rará cimentación profunda, mien- tras que por en- cima de la mis- ma se denomi- nará cimenta- ción superficial. Dado que el presente artículo trata de cimenta- ciones superfi- ciales, nos cen- traremos en es- tas, ya que son las más comu- nes en obra civil de baja y media importancia. Informe geotécnico Los resultados de la investigación geotécnica se recogen en el infor- me geotécnico, que deberá conte- ner datos suficientes para:  Elegir el tipo de cimenta- ción más adecuada y los métodos constructivos.  Fijar el nivel o los niveles de apoyo de los cimientos o las condiciones para esta- blecerlos con precisión durante el transcurso de las obras.  Determinar las presiones admisibles, en caso de ci- mentaciones directas, o en las resistencias por fuste y por punta, en el caso de pilotajes (cimentaciones profundas).  Estimar la magnitud de los asientos.  Adoptar medidas que evi- ten posibles daños estruc- turales por agresividad al hormigón o expansividad, colpasabilidad de suelos, etc.  Establecer los procedi- mientos de excavación y dimensionamiento de mu- ros, pantallas u otros ele- mentos de contención de tierras. Para poder dar respuesta a todos estos aspectos se debe disponer 10 Nº14. Junio de 2016 “El objetivo de las cimentaciones es asegurar que el terreno es capaz de soportar dichas cargas. Además debe garantizar que también soportará las cargas sísmicas que establezca la normativa, entre otros factores.”- Imagen 4. Tipos básicos de cimentaciones superficiales.Calavera Ruiz, J. Cálculo de Estructuras de Cimentación
  • 11.
    si ocurre locontrario. Dicha distinción se establece para determinar que teoría estructural se emplea en el dimensionamien- to del elemento. Se supondrá que una zapata flexible cumple los requisitos para considerarla ele- mento esbelto, y, por tanto, se estudiará de acuerdo a la teoría general de flexión. Para el caso contrario, se deberá emplear la teoría de bielas y tirantes. Para el dimensionamiento de la zapata, habrá que determinar pri- mero la distribución de tensiones en el terreno. Dicha distribución dependerá del tipo de terreno y de la propia zapata. Distribución de presiones bajo una zapata Las distribuciones de tensiones empleadas en la práctica, que son simplificaciones (del lado de la seguridad) de las reales, pueden ser uniformes o lineales. Dentro de las lineales se distinguen las trapeciales y las triangu- lares, dependiendo de la excentricidad de la carga. El diseño que realicemos debe cumplir dos requisi- tos. Por un lado, la zapata debe resistir las cargas que el terreno y el pilar aplican sobre esta. Por otro lado, el te- rreno debe resistir las cargas que actúan sobre este. Por establecer un método para el dimensiona- miento de las zapatas, podríamos plantear lo siguiente: - Se dimensiona el área de cimen- tación con el criterio de que la presión máxima que la zapata ejerce sobre el terreno sea menor a 1.25 veces la presión admisible de trabajo, determinada en la fase número dos. - Se diseña una zapata con un canto tal que tan sólo sea necesa- ria armadura de tracción, en la parte inferior de la misma, siendo recomendable un canto mínimo de 30 cm. - Se realizan las comprobaciones pertinentes, como son compro- bación al vuelco, volver a calcular la carga que transmite la cimenta- ción al terreno incluyendo en peso propio de la zapata, com- probaciones a cortante, flector, etc… En cuanto a las cimentaciones profundas, simplemente comen- tar que pueden ser de hormigón armado o pretensado; por lo ge- neral son más costosas y que, en el caso de ser estructuras de hor- migón pretensado prefabricado, estas se hincan en el terreno con empleando una maquinaria in- mensa. Dentro de las cimentaciones di- rectas, se distinguen dos tipos: zapatas y losas. Generalmente se emplearán zapatas, salvo en aque- llas situaciones que sea preferible económicamente la cimentación por losas. Zapatas La instrucción del hormigón es- tructural (EHE-08) y práctica- mente la totalidad de los textos que tratan este tema distingue dos tipos de zapatas: rígidas y flexibles. Una zapata se conside- rará rígida si el vuelo máximo de la misma es menor que dos veces el canto, y se considerará flexible 11Nº14. Junio de 2016 Imagen 5. Principales tipos y subtipos de cimentaciones. Galería de imágenes de la asignatura Hormigón Armado de la EPS UJAEN. REFERENCIAS Y BIBLIOGRAFÍA: - García Meseguer, Álvaro; Morán Cabré, Francisco; Arroyo Portero, Juan Carlos. Jiménez Montoya Hormigón Armado. ED. Gustavo Gil 15º Edición. (2009) - EHE-08 (2008) Instrucción de Hormigón Estructural. Ministerio de Fomento. - Apuntes de la asignatura ‘Hormigón Armado’. De Borja Varona Moya, F.; López Júárez, J.A. Escuela politécnica superior de Alicante - Calavera Ruiz, J. Cálculo de Estructuras de Cimentación. Ed.: Intemac. 4º Edición Madrid (2000) - Código Técnico de la Edificación (CTE). Documento básico de Seguridad estructural. Cimientos (SE-C). 2006
  • 12.
    Si hiciésemos unaencuesta sobre cuál fue el primer coche de la historia, muchos (si no la mayoría) de los encuestados responderían diciendo que fue el Ford A allá por el 1903. Siendo así, la mayoría de los encuestados habría contestado incorrectamente confun- dida por un error común, el Ford A fue el primer automóvil fabricado en serie. El primer automóvil movido por un motor de combustión inter- na (MCI) del que se tiene registro es el patentado por Karl Benz en 1886. Sin embargo, y como es lógico, antes de que apareciese el primer coche movido por un MCI, éstos ya llevaban un tiempo desa- rrollándose. El primer motor tal y como lo entendemos ahora aparece- ría en 1876 de la mano de Nicolaus Otto. Los motores Otto no fueron la primera piedra en el camino de los MCI, pues ya antes se habían desarrollado las máquinas de vapor y otros motores de combustión in- terna, pero sí que marcaron la estra- tegia de los desarrollo futuros de los MCI en una dirección con respecto a la cual apenas existieron variacio- nes. Hemos mencionado otros motores anteriores al de Otto. El primero de todos ellos es sin duda el desarrollado por Lenoir en 1860. Consistía en un monocilindro de dos tiempos sin compresión previa de la mezcla, formada por gas de hulla y aire. Este motor era muy ruidoso y con tendencia a sobrecalentarse y gripar si no se refrigeraba intensamente. Tenía un bajo rendimiento por la ausencia de compresión previa y por la pequeña relación de expansión. En vista de los fallos del modelo de Lenoir el siguiente motor, el de cuatro tiempos de Beau de Rochas, trató de solivian- tarlos introduciendo una compresión de la carga antes de la combustión. Aunque no llegó a fabricar ninguno, Beau de Rochas sentó las bases del motor que luego llevaría a la práctica Nicolaus Otto. Por su parte, en 1864, Otto se asociaba con Eugen Langen y fundaba la compañía Gasmotorenfabrik Deutz AG en donde también trabajaron los alemanes Daimler y Maybach. Otto comenzó operando con motores de gas sin compresión previa al igual que Lenoir, pero en 1876 patentó su mo- tor de cuatro tiempos. Sus competido- res le acusaron de plagiar a Beau de Rochas pero en algunos países como Reino Unido y EEUU su patente fue aceptada al no haber llegado el francés a construir el motor. Los mencionados Daimler y Maybach, que se habían separado de Otto en 1882 por desavenencias con él, solicitaron en 1884 una patente para lo que llegó a conocerse como motor de cabeza caliente, siendo un motor a medio camino entre el motor de Otto y el de Diesel posterior. Según el propio Daimler, el motor se regía por el siguiente principio: ‘‘Las paredes del espacio A adquieren, a las pocas HISTORIA DE LOS MOTORES ALFONSO ROJO LAHUERTA. INGENIERO INDUSTRIAL 12 Nº14. Junio de 2016 Imagen. 1 Nicolaus Otto Ref: www.ecured.cu Imagen 2. Rudolf Diesel Ref: www.quotationof.com
  • 13.
    repeticiones de dichojuego, una temperatura normal algo elevada, la cual, unida al efecto de la compresión, produce con regularidad la inflamación de la mezcla en, o alrededor del punto muerto superior de curva del pistón, según el principio confirmado por la experiencia, de que mezclas combustibles, las que bajo presión puramente atmosféricas no se inflamarían o quemarían con lenti- tud, al ser comprimidas rápidamente, queman, no solamente con rapidez, sino hasta hacen explosión’’ Decimos que es algo a medio camino entre los motores Otto y los de Diesel porque aunque al igual que en éstos el encendido se realiza por compresión, ésta se hace sobre la mezcla aire combustible, siendo en el Diesel únicamente sobre el aire. Rudolf Diesel nació en París de padres alema- nes. Desde sus inicios tuvo claro que quería mejorar el rendimiento del ciclo Otto acercándolo lo máximo po- sible al ciclo de Carnot. Para ello quería mantener constante la temperatura durante las primeras fases de compresión y, sobre todo, de expansión. Con este ob- jeto pensó en inyectar el combustible en la cámara en al mismo tiempo en que éste se quemaba con una ley de inyección que mantuviese constante la temperatura compensando el calentamiento de la combustión con el enfriamiento de la expansión. Por esta razón varió el planteamiento de Daimler comprimiendo sólo aire. La idea se completaba refrigerando la primera mitad de la carrera de compresión mediante inyección de agua. A las compresiones y expansiones isotermas seguían las compresiones y expansiones isentrópicas respectiva- mente. De esta manera conseguía acercarse sustancial- mente al pretendido ciclo ideal de Carnot consiguiendo elevar los rendimientos de entre 6 y 10% de unas má- quinas de vapor no tan antiguas a un sorprendente 26%, valor muy elevado para la época pero lejos aún del 80% que pretendía alcanzar por el ciclo de Carnot. Su muerte en 1913 durante una travesía al atravesar el Canal de la Mancha cuando se dirigía a trabajar en In- glaterra en vísperas de la Primera Guerra Mundial trun- có su objetivo. Gracias a Nicolaus Otto y a Rudolf Diesel se habían sentado las bases de lo que luego se conocería como Motores de Encendido Provo- cado (MEP) y de Encendido por Compresión (MEC). Una vez esbozados los primeros motores de ambos tipos las mejores no tardaron en suce- derse de la mano de muchos investigadores. Éstas muchas veces han sido exclusivas para uno de los dos tipos de moto- res, entre las que caben desta- car el método de encendido y formación de la mezcla en los MEP y los sistemas de inyec- ción en los MEC. Otros avan- ces como la sobrealimenta- ción, el posicionado de la vál- vulas, el control electrónico y Imagen 3. Motor de Lenoir Ref: www.britannica.com Imagen 4. Daimler y Maybach Ref: blog.ridenroad.com 13Nº14. Junio de 2016
  • 14.
    Merece la penadetenerse en algunos elementos debido a la gran importancia que tuvieron. Sobrealimentación Básicamente existen dos for- mas de sobrealimentar un motor, por medio de compresores accionados por el motor (sobrealimentación mecánica) y por medio de un compresor accionado por una turbina movida por los gases de escape (turboalimentación). La apari- ción de la mecánica se debió, princi- palmente, a los trabajos de Daimler y Renault (1885 y 1902). Büchi, por su parte, fue el que promovió la turboali- mentada (1905). En un principio tuvieron mucha más impor- tancia las mecánicas llegando a ser claves en los avio- nes de la Primera Guerra Mundial. Sin embrago desde que General Motors introdujo en el mercado en 1962 los primeros motores de gasolina turboalimentados su importancia y estudio no ha dejado de aumentar hasta suponer la casi totalidad en el caso de los motores Die- sel. Sistemas de formación de la mezcla en MEP Aunque desde el principio ya se estudiaban simultáneamente el carburador y los sistemas de inyec- ción, no fue hasta la aparición del control electrónico que éstas se impusieron al primero. Al igual que en el caso anterior fue la aviación la que ayudó a dar un empujón a los sistemas de inyec- ción. A las ventajas iniciales del menor coste y gran sencillez de los carburadores se opuso el problema de que a elevadas alturas se congelaban y que al hacer grandes giros parte del combustible se derramaba con sus consecuentes peligros para la integridad del avión y su tripulación. Como sabemos los sistemas pueden ser de in- yección directa o indirecta. La indirecta, que consiste las mejoras en lubricación, ma- teriales y tecnolo- gías de fabrica- ción han sido de mucha utilidad a ambos. A continuación se remarcan algunos de los hitos más importantes: 1876: Primera patente de Otto 1885: Patente de Daimler de la sobrealimentación 1885: Primer carburador de Benz 1886: Primer automóvil con MCIA de Benz 1892: Motor Diesel 1905: Büchi patenta motor con turbocompresor 1909: L’Orange y Benz desarrollan la precámara de combustión 1925: Inyección directa de gasolina por Hesselman 1927: Inyección en línea por Bosch 1933: Primer turismo Diesel por Citroën 1961: Inyección electrónica de Bendix 1962: Primera bomba de inyección por émbolo radial 1978: Primer turismo sobrealimentado por Mercedes 1995: Denso presenta el primer common rail Imagen 5. Carburador de un automóvil: Ref: spanish.alibaba.com 14 Nº14. Junio de 2016 El desarrollo de la inyección indirecta, de la electrónica y del catalizador de tres vías condenó a los carburadores a su desaparición en los motores de cuatro tiempos
  • 15.
    en la introduccióndel combustible antes de la válvula de admisión y no directamente en el cilindro (inyección directa), comenzó a desarrollarse en los 50. Su desarro- llo, junto con la aparición de la electrónica y el cataliza- dor de tres vías condenó a los carburadores a su desa- parición en los motores de cuatro tiempos hacia finales de los 70. Por su parte, la inyección directa hizo su apa- rición en los 90 de la mano de Mitsubishi. Sistema de inyección Diesel Originalmente el combustible era inyectado, atomizado, mediante aire comprimido por una tobera. En 1927 Bosch revolucionó el mercado al fabricar la primera bomba de inyección en línea que, junto con el desarrollo de la precámara de combustión, permitió aumentar enormemente la potencia suministrada por el motor Diesel. A partir de ese momento la evolución fue constante apareciendo mejoras como la bomba rotativa. El primer vehículo con common rail apareció en 1997 en el Alfa Romeo 156 1.9 JTD. A la vez que éste se desarrollaron otros sistemas como el inyector bom- ba y unit pump (compuesto por una bomba para cada cilindro y un inyector mecánico o common rail ). Sistemas de control de emisiones Como todos sabemos la masificación del uso del automóvil ha beneficiado al incremento en la con- taminación atmosférica. Esto ha provocado la imposi- ción de una reglamentación en lo referente a las emi- siones que los motores deben cumplir. En un principio fue suficiente con optimizar la combustión y emplear catalizadores, pero el endurecimiento de las restriccio- nes en los 80 forzó al desarrollo del catalizador de tres vías. Este dispositivo, utilizado hasta la actualidad, im- plicó la supresión del plomo en las gasolinas y la elimi- nación del carburador, puesto que éste no podía con- trolar de manera eficiente el dosado estequiométrico necesario para la máxima eficiencia del sistema. Como se puede observar el carburador, a pesar de las mejoras que fue incorporando con los años, acu- muló tantas desventajas ya mencionadas que terminó por descartarse del todo excepto para motores de dos tiempos. Por el lado de los Diesel el post tratamiento de los gases de escape no se hizo necesario hasta la llegada del nuevo siglo. Los principales factores que les han permitido cumplir con la normativa han sido la flexibili- dad de los sistemas de inyección, la re- circulación de los gases de escape (válvula EGR) y la utilización de la in- yección directa en motores de automó- viles. El post tratamiento ha llegado en forma de filtros de partícu- las, de catalizadores y mediante el SCR (Selective Catalytic Re- duction). REFERENCIAS Y BIBLIOGRAFÍA: - F. Payri; J.M. Desantes. Motores de combustión interna alternativos. Valencia, España: Universidad Politécnica de Valencia. 15Nº14. Junio de 2016 Imagen 6. Alfa Romeo 156 1.9 JTD Ref: commons.wikimedia.org
  • 16.
    AUTOMATIZACIÓN AVANZADA DEREDES HIDRÁULICAS URBANAS JUAN GONZÁLEZ GONZÁLEZ. INGENIERO DE CAMINOS, CANALES Y PUERTOS. recogida de aguas sanitarias resi- duales. De forma más detallada se pue- den enumerar los propósitos de la automatización como los si- guientes: - Mejora de la calidad del servi- cio. - Mayor seguridad y eficacia de gestión. - Flexibilidad de trabajo para operarios y gestores. - Incremento de velocidad de respuesta ante requerimientos del servicio o imprevistos. - Disminución sustancial de los costes de mantenimiento y ejecu- ción. - Control amplio de los paráme- tros del proceso de distribución o recolección del agua y simulacio- nes en tiempo real. - Aumento de la capacidad de detección de fugas o averías. - Almacenamiento de datos técni- cos y auditorias económicas. La automatización se vertebra sobre un conjunto de tecnologías de tipo informático, electrónico y de telecomunicación que permi- ten distintos niveles de control y gestión de las instalaciones hi- dráulicas. ESTADIOS DE AUTOMATI- ZACIÓN EN REDES HI- DRÁULICAS Estos sistemas se encuadran en distintos niveles atendiendo al grado de avance tecnológico y al número de herramientas de las que dispongan. En un primer nivel se encuentra la telemedida-telealarma consis- tente en un sistema de recogida de información desde unos pun- tos concretos llamados localiza- ciones de control de la red. Vivimos en una época caracteri- zada por los procesos de infor- matización y modernización tec- nológica que tienen lugar en casi todos los ámbitos de la vida coti- diana, las relaciones sociales, los sectores económicos, la gestión de recursos, la administración de servicios y un largo etcétera. Gran parte de los avances tecno- lógicos están fundamentalmente basados en el campo de las tele- comunicaciones y la informática. Tanto es así que las llamadas tec- nologías de la información tienen hoy en día una integración plena en un gran conjunto de activida- des de diversa índole y su imple- mentación facilita en gran medida el desarrollo de éstas. En esta línea se pueden citar los sistemas de automatización de las redes hidráulicas cuyo objetivo es la optimización y mejora de la eficacia de los servicios de distri- bución de aguas potables y de 16 Nº14. Junio de 2016 Esquema 1.Intercambio de información entre los componentes de la telegestión o sistema de automatización avanzada.
  • 17.
    recorrido del aguatomando co- mo referencia la información del conjunto de instalaciones interre- lacionadas y conectadas telemáti- camente al CCO. A partir de este control permanente de la red y sus instalaciones se calculan predicciones de situaciones futu- ras. Esto conlleva una mayor se- guridad ante imprevistos y una forma de optimizar el rendimien- to del conjunto tanto de la obra civil como del servicio prestado. Finalmente el estadio de máxima envergadura es la telegestión. És- ta integra el registro de datos e información para su posterior análisis en relación a diferentes cuestiones. Por un lado, se ex- traen datos significativos de ren- dimiento y se concluye con pará- metros indicadores de los aspec- tos a optimizar. Por otro lado, se planifican actuaciones y toma de decisiones en diversos escenarios relacionados con fugas, operacio- nes de conservación, averías de equipos, reemplazamientos de tuberías, etc. Incluso se generan informes de consumos, estudios de financiación, auditorías y ba- lances económicos e inventarios de mantenimiento. En definitiva, la automatización más avanzada se corresponde con la denominada telegestión y se define como el procedimiento integrado de gestión de las obras hidráulicas que abarca hasta la planificación del funcionamiento de la infraestructura y el servicio. Para ello implementa los medios telemáticos mas innovadores con los que gobernar a distancia las instalaciones, transmitir informa- ción y actuar de la forma más eficiente y eficaz posible. El suministro de valores de los parámetros de funcionamiento de tuberías y equipos proporciona la capacidad de analizar la operativi- dad de la red y percibir averías. En estas últimas circunstancias entra en juego la telealarma, por la cual, de forma sencilla y eficaz, se avisa a los pertinentes opera- rios de control. Tiene la ventaja de que se puede realizar la alarma en cualquier lugar donde se en- cuentre dicho personal y en el momento en el que tenga lugar la anomalía. Para la telecomunica- ción de estaciones de telemedida con los técnicos se usa radio o telefonía. En un grado más avanzado de automatización se sitúa el tele- mando. En este caso, la informa- ción llega desde las estaciones remotas distribuidas por la insta- lación hidráulica hasta los pues- tos centrales de mando, infor- mando del estado de funciona- miento del sistema. Dichos cen- tros de mando poseen la capaci- dad de actuar sobre las instalacio- nes de tal modo que ejecutan maniobras de accionamiento, conexión, desconexión y regula- ción de equipos y válvulas. Se valen de un ordenador central para cambiar consignas y modifi- car parámetros. Un paso más sería la categoría de telecontrol mediante un Centro de Control de Operaciones (CCO). Se incluye, además de las funciones de niveles anteriores, la simulación en tiempo real del Imagen 1. Pantalla de programa informático para seguimiento de las instalaciones conectadas al CCO. 17Nº14. Junio de 2016 “La telemedida de valores de los parámetros de funcionamiento de tuberías y equipos proporciona la capacidad de analizar la operatividad de la red y percibir averías”
  • 18.
    ESTRUCTURA DE LATE- LEGESTIÓN La telegestión se vertebra en torno a una aplicación o sistema tipo SCADA (Supervisory Con- trol and Data Acquisition Sys- tem) que consta de cuatro ele- mentos clave interrelacionados entre sí: 1– Estaciones remotas de infor- mación: aparatos electrónicos que se encuentran instalados en los puntos de control sobre tube- rías, bombas, depósitos, válvulas, caudalímetros, contadores y todo aquel instrumento que requiera control. Incorporan sensores y medidores de parámetros base a través de señales digitales que registran valores máximos y míni- mos (encendido/apagado, detec- ción de flujo, niveles extremos mediante boyas) o señales analó- gicas que son sensibles a un gran rango de valores intermedios (presiones, caudales, temperatu- ras, niveles medios, turbidez, ve- locidades). Toda esta informa- ción se almacena en un hardware provisto de CPU y de memoria que trabaja con tarjetas entrada/ salida y módems. 2– Centros y puestos de control de operaciones (CCO): unidades informáticas que reciben todas las referencias de las estaciones remotas y las procesan para dar lugar a productos variados sobre los que articular la gestión y ex- plotación de la red hidráulica. Las herramientas para tratar las espe- cificaciones obtenidas son: - Registros de datos y situaciones históricas. - Bases de parámetros optimiza- dos. - Balances de volúmenes de agua, to de actuaciones sobre compo- nentes de la red. En este punto podemos destacar el corte a dis- tancia de válvulas, arranque o parada de motores y bombas, etc. 3– Sistemas de comunicación: instrumentos de conexión entre las estaciones remotas y las CCO. Su función es centralizadora y difusora a la vez, pues dirigen los datos hasta los CCO y las órde- nes de vuelta a los elementos de la red. El soporte de telecomunicación puede ser telefónico, por radio, GSM, GPRS, red Ethernet, red Internet o por cable. 4– Terminales y equipos para contactar con el personal de las distintas áreas de la explotación. Sirven para transmitir las órdenes e indicaciones y para enviar y recibir registros. Se trata de orde- nadores, PDAs, móviles, etc. salidas, entradas, etc. - Curvas de magnitudes hidráuli- cas con respecto al tiempo. - Informes pormenorizados de interrelación de magnitudes. - Fórmulas de cálculo hidráulico. - Balances económicos de gastos e ingresos en la explotación de las infraestructuras. - Visualización sinóptica de gráfi- cos de simulación de evolución en distintos escenarios. - Listados de alarmas. - Control de acceso de usuarios. - Almacén de protocolos de ac- tuación en situaciones de funcio- namiento defectuoso o crisis. Los centros de operaciones tam- bién son los encargados de capa- citar al operador o gestor de la explotación para el accionamien- Esquema 2. Control por sistema SCADA de impulsión de agua con bomba (E-1) hasta depósito. Ubica- ción de estaciones remotas (PLC) para medición de flujo y nivel. 18 Nº14. Junio de 2016 “Los centros de operaciones son los encargados de capacitar al gestor para actuar sobre la red ”
  • 19.
    REDES DE DISTRIBUCIÓN Elagua procedente de las fuentes de captación es transportada por las canalizaciones y conducciones en alta hasta las estaciones de tratamiento de agua potable (ETAPs) donde reciben trata- mientos que la convierten en apta para el consumo. Posteriormente esta agua pasa a almacenarse en depósitos y de ahí se distribuye a través de las redes de distribución o de abastecimiento en baja hasta las acometidas y puntos de ali- mentación. Centrándonos en el ámbito ur- bano, la telegestión controla cada una de las fases por las que pasa el agua en ese transporte en baja, comenzando por su almacena- miento en los depósitos. Los pa- rámetros controlados en esta in- fraestructura son caudales de en- trada/salida, volúmenes de agua recibida/liberada, niveles máxi- mos/mínimos, niveles interme- dios continuos, turbidez, apertu- ra/cierre de válvulas, regulación de las mismas, cantidad de cloro administrado y estado encendi- do/apagado de bombas. De igual forma son muy intere- santes considerar otros controla- dores que detecten anomalías importantes a poner en conoci- miento como intrusismo de obje- tos o elementos indeseables, fa- llos o cortes de alimentación eléc- trica, inundaciones de otros com- partimentos como cámaras de llaves o cámaras de bombas, in- cendios detectados, presencias ajenas al personal o desborda- mientos del vaso del depósito. A éstas se le asocia el sistema de telealarma para dar parte en el CCO al instante de alguna de estas situaciones. tros que determinan el comporta- miento de la cañería, la cual tra- baja en régimen de presión en estas instalaciones de abasteci- miento. Se trata del caudal que circula por la red y la presión con la que discurre dicho caudal en el interior del tubo. Por medio de la variación en estos parámetros y de las anomalías en las series de medidas recopiladas seremos ca- paces de detectar los puntos de la red en los cuales se producen fugas de agua. Un par de aspectos que caracteri- zan la instalación de automatis- mos en las redes de abastecimien- to son la sectorización del con- junto de la red y el grado de auto- nomía de dichos automatismos. Por una lado, normalmente, el mallado de la red suele ser exten- so y complejo, y aún más cuando, como en estos casos, se trata de un grupo de tuberías interconec- tadas entre sí y funcionando a presión. La gestión y supervisión del conjunto es aconsejable reali- zarla dividiendo la malla general en submallas en las cuales sea más sencillo el procedimiento de mantenimiento y control. Al fin y al cabo no es más que sectorizar la red de distribución colocando en cada sector los automatismos necesarios que caractericen esa parte del mallado global. Por otro lado, nos encontramos con que los lugares donde se deben colo- car las estaciones remotas están situados en cualquier punto de la geografía urbana y en consecuen- cia variará la accesibilidad para conectarlas a la red eléctrica. Esto provoca que algunos de los apa- ratos automáticos que componen las estaciones remotas deban ser equipos autónomos provistos de baterías. En las estaciones de bombeo de agua potable (EBAPs) las estacio- nes remotas obtienen informa- ción acerca del equipo de bom- beo como número de arranques/ paradas, horas de funcionamien- to, temperatura, estado de dife- rencial eléctrico o posición ma- nual/automático. A la par se ins- talan medidores de las condicio- nes de trabajo de las unidades de bombeo, fundamentalmente cau- dales, presiones de impulsión y volúmenes de agua. Los controla- dores de anomalías también son de gran utilidad aquí y se corres- ponden en su mayoría con los implementados en depósitos. Atendiendo a las tuberías de dis- tribución del agua potable será de vital importancia llevar una medi- da exhaustiva de los dos paráme- Imagen 2. Automatismo para punto de control en red de abastecimiento. Ref: Pino Coronel, J. Conferencia sobre telecontrol y telegestión de redes hidráulicas. 19Nº14. Junio de 2016 Gráfico 1. Curva producida en un CCO sobre el volumen acumulado en un depósito
  • 20.
    cidad que llevenestos efluentes. En base a estos dos conceptos se puede determinar el caudal y el volumen transportado. Los sensores acoplados a las tu- berías proporcionarán registros asociados a estas cuestiones, pero cumpliendo ciertos requisitos adicionales con respecto a aque- llos destinados al agua potable: - Grado de autonomía aún mayor por situarse en puntos aún más inaccesibles para la red eléctrica. - Protección más considerable del dispositivo a consecuencia de la gran cantidad de sustancias sóli- das y deshechos que son arrastra- dos y que pueden producir daños materiales y agresiones químicas. - Necesidad mayor de manteni- miento por ser más susceptibles a ser dañados por los residuos y a ser víctimas de obstrucciones que no permitan el correcto funcio- namiento del dispositivo. Otros elementos estratégicos en la gestión de la red de saneamien- to pueden llegar a ser los aliviade- ros de tormenta. Se configuran como desagües para recoger las aguas pluviales que circulan por las vías urbanas y dirigirlas hasta los colectores de alcantarillado. En estas infraestructuras son vi- tales los caudales y los volúmenes de vertido pluvial. Los dispositi- vos que se están desarrollando en este sentido también prevén el conteo del número de desborda- mientos y el tiempo que duran éstos así como la detección de los instantes en los que los aliviade- ros están recibiendo vertidos. Similares a estos aparatos auto- matizados son los que se instalan en puntos de cabecera de colec- tores y en confluencias de tube- rías para controlar los vertidos que pasan por estos puntos estra- tégicos. El nivel de mayor sofisti- cación es alcanzado en las redes de alcantarillado que incorporan unos medidores especiales de parámetros medioambientales y que por lo tanto ofrecen infor- mación sobre el grado de conta- minación de los vertidos. A pesar de que el régimen de tra- bajo de estas redes hidráulicas es sin carga, en ocasiones se hace necesario impulsar el agua hacia cotas más elevadas en su camino hacia las EDARs y esta impulsión se hace sometiendo a cierta carga al agua residual. Aparecen en este punto las estaciones de bombeo de agua residual (EBARs). Para la propia unidad de bombeo existen automatismos en estaciones re- motas para abarcar cuestiones como parada/marcha, modo ma- nual/automático, parámetros eléctricos, caudal bombeado o presión de impulsión. De la mis- ma forma la arqueta habilitada para recibir el efluente y albergar las bombas se equipa con agita- dores, boyas y contadores encar- gados de registrar niveles máxi- mos/mínimos/intermedios, cau- dales entrada/salida y turbidez. REDES DE SANEAMIEN- TO El agua residual que entra en la red llamada de saneamiento pue- de ser de origen urbano, indus- trial o procedente de las precipi- taciones. Ya sea por sistema se- parativo o por sistema unitario, esta agua discurre por colectores, que suelen trabajar en régimen de lámina libre, y alcanzan las esta- ciones de depuración de aguas residuales (EDARs). En éstas últimas se procede al tratamiento de retirada de la mayor cantidad de residuos y contaminantes para obtener un agua apta para el ver- tido mediante emisarios de distin- tos tipos al medio natural, o bien para proceder a su reutilización. En primer lugar, los elementos principales que interesan a la tele- gestión son las tuberías colecto- ras. El transporte en lámina libre de estos colectores depende del nivel que se alcance y de la velo- “El nivel de mayor sofisticación es alcanzado en las redes de alcantarillado que incorporan medidores especiales de parámetros medioambientales y grados de contaminación” Imagen 3. Estaciones remotas instaladas en estación de bombeo de agua residual. Ref: Pino Coronel, J. Conferencia sobre telecontrol y telegestión de redes hidráulicas. 20 Nº14. Junio de 2016
  • 21.
    to, Montaverner, Calpe,Quart de Poblet y Chiva. El objetivo prin- cipal es alcanzar una gestión efi- ciente del servicio ajustando pe- riodos de facturación, alertando sobre anomalías, evitando moles- tias a usuarios, eliminando niveles ínfimos de consumo por ausencia de lecturas y sobre todo aumen- tando el rendimiento hidráulico mediante la reducción de fugas. Otro caso a destacar es el proyec- to Smart Water en Santander, cuyo eje es la iniciativa pionera en el mundo de aplicación de la telegestión al ciclo integral del agua. Se lleva a cabo por la em- presa FCC Aqualia y el Ayunta- miento de Santander y engloba estaciones remotas en instalacio- nes tanto con suministro eléctri- co como sin él: bombeos, depósi- tos, arquetas y aliviaderos. A esto se añade la sectorización de la red de abastecimiento así como los controles de caudal y toma de muestras en el saneamiento. El proveedor técnico ha sido la em- presa Sofrel. La monitorización y seguimiento del ciclo del agua de la ciudad de Santander han logrado el estable- cimiento de ratios de consumos, umbrales de alarmas, índices de calidad del agua y la adecuación de la presión de funcionamiento en la distribución. Pero sin duda la exclusividad de este proyecto reside en el desarrollo de una aplicación para dispositivos Ipho- ne, Ipad y Android para acceder a información del servicio de abas- tecimiento y alcantarillado. EXPERIENCIAS REALES DE AUTOMATIZACIÓN En la actualidad el proceso de automatización de las redes hi- dráulicas en el ámbito urbano se encuentra en pleno auge y existe la posibilidad de encontrar distin- tos niveles de automatización distinguiendo redes con un bajo grado de implementación y otras con una alta cualificación teleges- tora. Un ejemplo bastante significativo de implantación en un grado de telemedida es la instalación del más amplio parque de contadores inteligentes de España. Se está llevando a cabo por parte del Grupo Aguas de Valencia, que gestionaba la lectura de 410.000 contadores automatizados en 2014 y que prevé alcanzar pronto los 600.000. Este macroproyecto se articula en torno a los sistemas de lectura a distancia de contado- res y un centro de operaciones y control único para las poblacio- nes de Valencia, Gandía, Sagun- Imagen 4. Contador inteligente para lectura a distancia. Ref: www.iagua.es REFERENCIAS Y BIBLIOGRAFÍA: - Pino Coronel, J. Conferencia sobre telecontrol y telegestión de redes hidráulicas. E.T.S. Ingeniería de Caminos, Canales y Puertos de Granada, 2013. - García Molina, J. A. Apuntes de planificación, diseño, gestión y seguridad de obras hidráulicas. E.T.S. Ingeniería de Caminos, Canales y Puertos de Granada, 2013. - Hontoria García, E. y Osorio Robles, F. Fundamentos y cálculo de redes de distribución. Granada. Colegio de I.C.C.P., 2005. - www.esmartcity.es - www.tecnoaqua.esImagen 5. Soluciones para medida de nivel en redes de saneamiento. Ref: www.iagua.es 21Nº14. Junio de 2016
  • 22.
    INTRODUCCIÓN A diario navegamospor internet pero rara vez nos preguntamos cómo es capaz de llegar la informa- ción que generamos en nuestro dispositivo a otros usuarios o viceversa. Detrás de ello hay un proceso relativamente complejo que trabaja sobre un elemento que no hace más que crecer día tras día: la red. Podemos definir red como conjunto de ele- mentos interconectados entre sí. En todas las redes existen los nodos, que en el caso de internet no son más que dispositivos con cierta capacidad de almacena- miento (al contrario que las conexiones que unen un dispositivo con otro). Centrándonos en redes de telecomunicaciones, concretamente en redes de datos, existe varios tipos de redes: LAN , MAN, WAN. La primera de ellas conecta un número no muy elevado de dispositivos entre sí. Un claro ejemplo es la red que montamos en casa con 2 ó 3 PCs. Las redes MAN son muy similares a las LAN, pero la distancia entre los dispositivos interconectados suele ser mayor (varios cientos de metros en ocasio- nes). La última de ellas es la más amplia de todas. Se podría decir que una red WAN es sinónimo de lo que conocemos como INTERNET. Una enorme nube de dispositivos interconectados a través de una gran canti- dad de posibles caminos o rutas. El principio de fun- cionamiento de internet se basa en la conmutación de paquetes. En este tipo de comunicación la información viaja fraccionada y es posible que vaya intercalada con "paquetes" que provengan de otro usuario y vayan des- tinados a otro dispositivo. Existe otra forma de comunicación que se conoce como conmutación de circuitos. En esta ocasión, se establece un circuito fijo entre emisor y receptor y la información viajará única- mente por el mismo. Además, el canal será dedicado exclusivamente a esa comunicación hasta que ésta ter- mine. MODELO OSI El funcionamiento de internet se basa en un modelo que, a pesar de estar en desuso, supuso la base de esta forma de comunicación, el modelo OSI. Se basa en la existencia de 7 capas o niveles de tratamiento de la información (Figura 1). Cada una de las capas tiene una o varias funciones características. Dependiendo de si nos centramos en el emisor o en el receptor, la información comenzará a ser tratada en la capa 1 o física o en la capa 7 o de enlace. Veamos paso a paso de qué se encarga cada capa. Para ello, vamos a situarnos en el contexto del emisor. La capa 7 o de Aplicación, se encarga de sumi- nistrar servicios de red a las aplicaciones. Se ocupa de añadir las librerías (*.dll, *.doc, etc). La capa 6 o de Presentación es la encargada de INTERNET Y SU FUNCIONAMIENTO JOSÉ MANUEL IBÁÑEZ POVEDA. INGENIERO INDUSTRIAL. 22 Nº14. Junio de 2016 Figura de introducción: La red. Ref: www.tynecuador.com
  • 23.
    dar formato alos datos. Es decir, realiza tareas como conversión de código de caracteres (de EBCDIC a AS- CII por ejemplo), conversión de datos (punto flotante entre enteros), comprensión de datos, cifrado de datos, etc. La capa 5 o de Sesión permite que dos proce- sos de aplicación en diferentes equipos establezcan, empleen y cesen una conexión de manera segura con reconocimiento de nombres, registro y otros datos. La capa 4 o de Transporte se encarga de asegu- rar la fiabilidad de la transmisión desde el emisor al receptor. Es en esta capa donde la información se divi- de en segmentos que serán enviados en paquetes a tra- vés de la capa de red. En el sentido contrario del flujo de la información, la capa de transporte unirá los seg- mentos recibidos para pasar a la capa de sesión la in- formación ensamblada de nuevo. La capa 3 o de Red determina el mejor camino a través de la red para que los paquetes lleguen al des- tino a través de varios enlaces. La capa 2 o de Enlace es la responsable de la sincronización de la señal, control de acceso al medio de transmisión y, además, contiene un mecanismo para la detección y/o corrección de errores. Por último, la capa 1 o Física es la que propor- ciona un medio de transmisión (cable par trenzado por ejemplo). Transforma la información proporcionada por las capas superiores en una señal adecuada para el medio de transferencia (codificación, modulación, etc). Incluye el diseño físico real de la red y básicamente, convierte la información recibida en bits (viceversa para el sentido contrario de flujo de información). ENCAPSULAMIENTO A medida que los datos generados viajan hacia la capa física, la memoria que ocupan no hace más que crecer. Esto se debe a que cada capa añade informa- ción vital a los datos de origen para asegurar que la in- formación llegue al destino de forma correcta. Este proceso es conocido como Encapsulamiento. La capa de aplicación recibe los datos sin mo- dificación alguna y añade una cabecera que contiene las librerías (*.dll, *.doc, etc). Al conjunto formado por dicha cabecera más la información de origen se le de- nomina Dato. Este "pack" se envía como un "todo" a la siguiente capa. El nivel 6 o de Presentación, añade su propia cabecera que contiene los códigos léxicos. A este conjunto de información se le sigue denominando Dato. La capa de Sesión añade los "Keep alive" o mensajes de inicio, mantenimiento y cierre de sesión. Nuevamente, este flujo de información recibe el nom- bre de Dato. La siguiente cabecera que añadirá la capa de transporte de destino. En este punto, el total de la Figura 1: Capas modelo OSI. Ref: alegsa.com.ar 23Nº14. Junio de 2016
  • 24.
    capa de transportefunciona de manera similar a la del modelo de referencia. La capa de Internet está com- puesta por la capa de Red, también en esta ocasión con las correspondientes funciones de la misma. Por últi- mo, la capa de Acceso a Red está compuesta por capa de Enlace y Capa Física del modelo OSI. Para conocer más acerca del funcionamiento de internet hemos de conocer el concepto de protoco- lo y de interfaz. Un protocolo es el conjunto de nor- mas que regulan la comunicación entre las mismas ca- pas (mismo nivel) de dos dispositivos distintos en una red. La interfaz es el conjunto de normas que regulan la comunicación entre dos capas contiguas dentro del mismo dispositivo de la red. Este modelo recibe su nombre debido a uno de los principales protocolos empleados en la capa de Internet, el protocolo IP. Este protocolo elige la mejor ruta para la transmisión de la información, sin preocu- parse del contenido de la misma. Cada ordenador co- nectado a una red TCP/IP tiene una dirección IP que consiste en 4 campos de 8 bits cada uno, formando un total de 32 bits (en el caso de IPv4). Este protocolo posibilita direcciones para 232 host (dispositivos conec- tados). Existe un proyecto en desarrollo que será im- plementado en el futuro que permitirá 2128 host. de la información se divide en varias partes que serán denominadas Segmento. La dirección IP de origen y de destino es añadida por la capa de red. La unidad de información se llamará, en esta ocasión, Paquete. La capa de enlace añade las direcciones MAC (direcciones físicas) de origen y destino. La unidad básica de infor- mación de esta capa recibe el nombre de Trama o Marco. Por último, la capa física recibe toda la infor- mación proporcionada y la transforma en bits, sin aña- dir ningún tipo de información extra, como sí hacen el resto de capas o niveles. Según el código de línea em- pleado, estos bits recibirán un valor de voltaje determi- nado que viajará por el medio de transmisión. En senti- do contrario de flujo de información el proceso es si- milar pero de manera inversa. Cada capa recibe la in- formación de la capa inferior, extrae la cabecera corres- pondiente y eleva los datos. MODELO TCP/IP Es el modelo que se emplea actualmente. Su funcionamiento es muy similar al modelo OSI, pero añadiendo una serie de pequeños cambios. El más importante de ellos consiste en el nú- mero de capas. Mientras que el modelo OSI estaba constituido por 7 capas, el modelo TCP/IP posee úni- camente 4: Capa de Aplicación, capa de Transporte, capa de Internet y capa de Acceso a Red. La primera de las capas engloba la capa de Aplicación, capa de Presentación y capa de Sesión del modelo OSI, con las correspondientes funciones. La Figura 3: IP y Máscara 24 Nº14. Junio de 2016 Figura 2: PDU de las distintas capas. Ref: es.wikipedia.org
  • 25.
    Las direcciones IPse suelen expresar en for- mato decimal. Un ejemplo podría ser 192.168.2.1. Existen tres tipos de direcciones IP: Clase A, Clase B y Clase C. La Clase A engloba desde 1 hasta la 126. Un ejemplo podría ser la red 7.0.0.0. Son las redes de ma- yor tamaño y suelen ser propiedad de Organismos Gu- bernamentales o grandes empresas. En esta clase, los primeros 8 bits designan la red, los demás designan el host o la subred. La Clase B abarca desde la 128 hasta la 191. Pongamos como ejemplo 190.28.0.0. Son las redes de tamaño intermedio, permiten conectar 216 - 2 host. Es- tas dos direcciones serán reservadas para designar la red (primera dirección) y para broadcast, que es una difusión para todos los elementos conectados a la red (última dirección). La Clase C abarca desde la 192 hasta la 233. Un ejemplo de esta clase sería 192.168. 2.4. El identifi- cador de red sería 192.168.2.0 y la dirección de broad- cast 192.168.2.255. Estas redes son las de menor tama- ño, ya que únicamente permite conectar 254 host. Esta es la clase de dirección IP de la que solemos disponer en nuestros hogares. Por regla general, la dirección IP cambiará cada vez que reiniciemos el router, a menos que paguemos una suma adicional a nuestro proveedor para recibir una dirección IP estática. Tecleando en el cmd "ipconfig /all" se mostrará en pantalla nuestra configuración de red, en la que podremos consultar algunos datos interesantes, como nuestra IP actual. Véase la Figura 3. Como se puede observar, la IP corresponde a Clase C. Aparece, además, un campo denominado "Máscara de subred". La máscara ayudará a definir qué parte de la IP pertenece al host y qué parte a la red. Se realiza la operación AND a la dirección IP a analizar. En el caso de la figura 3, Si realizamos la operación lógica AND a la dirección 192.168.42.227 con 255.255.255.0 obtendremos como resultado 192.168.42.0. Este resultado indica que los 3 primeros campos son para designar la red y el último para desig- nar el host, que se corresponde con la estructura de las direcciones de Clase C. Una posible máscara para Clase B sería 255.255.0.0 y para Clase A 255.0.0.0. Sin em- bargo, las máscaras no tienen por qué ser siempre tan sencillas. Se puede dar el caso de que una máscara sea 255.255.255.242, que se utilizaría para crear subredes. Mediante este elemento, seremos capaces de crear todo tipo de redes gracias a las cuales podremos seguir disfrutando de este maravilloso mundo de infini- tas posibilidades. Sin embargo, con el tiempo, la red no ha sido el único elemento que ha ido avanzando en tecnología y desarrollándose. Simultáneamente ha aparecido ver- siones cada vez más avanzadas y nocivas de los conoci- dos virus y troyanos. Todo aquél que desee utilizar la red sin sufrir sustos desagradables y percances tendrá que arreglárselas para adquirir un antivirus. De esta forma será posible navegar de forma más segura y pro- teger datos muy valiosos como los datos bancarios, archivos multimedia y otro tipo de datos privados y/o personales. Detrás de todo este concepto existe un mundo oscuro sobre el que hay una enorme diversidad de opiniones. Figura 4: Virus, troyanos y actividades sumergidas. Ref: www.timos.info 25Nº14. Junio de 2016 “Mediante el comando ipconfig /all seremos capaces de consultar nuestra configuración IP en cualquier momento”-
  • 26.
    dustria alimentaria, seutiliza generalmente para contro- lar las horas que transcurren desde que un producto es recolectado, procesado, almacenado, envasado y envia- do al supermercado. Por un lado, es crucial para mantener su textura, sabor y color inalterable para tener la certeza de que se en- vían productos de la máxima calidad y de acuerdo con los exigentes controles de sanidad, así, se puede enviar un haz de luz (infrarrojo) para determinar si su estruc- tura molecular y determinar que se encuentra en condi- ciones óptimas sin necesidad de realizar ninguna prue- ba tradicional de sabor, color u olor. Por otro, también se realizan pruebas de sabor, color u olor, para verificar mayor seguridad en los alimentos, aunque en algunos casos sería contraproducente reali- zar pruebas a todos los productos. Para las pruebas realizadas para comprobar su sabor, se recurre a la práctica, teniendo en cuenta que no todos los produc- tos se deben comprobar con el sentido del gusto. El gusto es un sentido bastante subjetivo y depende de muchos factores, en el caso de una destilería de whis- key el sentido del gusto (en los casos normales) estaría bastante mermado a primeras horas del día, además de sólo poder realizar un número limitado de muestras. La espectrosco- pia infrarroja estudia las inter- acciones que ocurren entre la materia su radia- ción electromag- nética y tiene importantes apli- caciones en el campo de la in- geniería. Se trata de estu- diar el comporta- miento de una onda y sus principales características (longitud de onda, y frecuencia) sobre un objeto de estudio. Con ello podemos conocer su estructura mole- cular sin tener que realizar ensayos que pueden des- tructivos o incluso necesitar parte del objeto para reali- zar pruebas hasta hallarla. Con este sistema no es nece- sario interaccionar con el objeto de estudio, únicamen- te un haz de luz infrarrojo es necesario. Es una práctica muy fiable que es necesaria para realizar controles de calidad a productos en segundos. En el caso de la in- ESPECTROSCOPIO Y EL CONTROL DE CALIDAD PEDRO MANUEL VÉLEZ GÓMEZ. GRADUADO EN INGENIERÍA MECÁNICA. Nº 1. Descomposición de la luz a través de un prisma. 26 Nº14. Junio de 2016
  • 27.
    ner un mejorrendimiento en la producción, procesan- do las mejores estructuras moleculares (más estables), donde se pretende extender la vida útil de los produc- tos sin recurrir a cámaras frigoríficas, y así pudiendo transportarlo a mayor distancia sin que afecte a su cali- dad siendo estos más seguros puesto que, su estructura molecular permanecerá inalterable más tiempo y se podrá ofrecer un mayor tiempo de caducidad en los productos. Desde que se descubrió la existencia de la luz infrarroja allá por el año 1800 por Frederick William Herschel se han realizado importantes avances partiendo de la des- composición de la luz del sol con un prisma en una gama de colores. Colocó un termómetro para medir la temperatura en todos los colores, situando el termóme- tro más allá del rojo y notó que era una temperatura más elevada que el resto. Esto es debido a que aunque el color rojo es visible en la descomposición de la luz del sol, más allá del rojo tenemos el infrarrojo que no es percibido por el ser humano a simple vista debido a su longitud de onda que está en el límite (es menor) que podemos percibir. El ojo humano únicamente es capaz de recoger 390 a 750 nm, si necesitamos ver otras longitudes de onda, es necesario recurrir a apara- tos de visión especiales, aunque esta luz es emitida por cualquier cuerpo que esté una temperatura mayor de 0º Kelvin. La fuerza de atracción entre dos átomos que depende de su composición y de la distancia entre los átomos o momento dipolar, produce una vibración determinada si aplicamos luz infrarroja. Para evitar en la medida riesgos en los test de calidad, se recu- rren a la densi- dad medida con aparatos calibra- dos al efecto, color, que puede realizarse con la comprobación de una plantilla o paleta de colores o por medio de sofisticadas cámaras que registran el color, dichas cámaras son calibradas con una determi- nada iluminación debido a que dependiendo de la luz a la que sea expuesta el producto, tendrá una tonalidad diferente. Al poder analizar las estructuras moleculares de mues- tras a través de la radiación de rayos infrarrojos, pode- mos realizar un plan más ajustado a todo el proceso, desde la recolección, mucho más ordenada y adecuada a las necesidades de la industria aplicando procesos de fabricación “just in time”, donde se obtiene frescura en productos perecederos, pudiendo establecer la fecha de caducidad fijándonos en parámetros de evolución en la degradación de las estructuras moleculares, asimismo, conoceremos cómo afecta al cultivo una recolección nocturna o diurna, dentro de las mismas, cuál es la temperatura y época ideales de recolección para obte- Nº 2. Frederick William Herschel observando la descomposición de la luz de una vela a través de un espectroscopio. Nº 3 Representación esquemática del espectro que proyectan algunas bombillas convencionales. 27Nº14. Junio de 2016
  • 28.
    guir corriente (frecuenciaumbral). En la industria y los procesos industriales, en el caso de control de calidad, es necesario conocer las exigencias y los cánones básicos de calidad. Una vez conocidos, se preparan unas muestras, dichas muestras son necesa- rias para proceder a la calibración de los equipos de infrarrojos. En el caso de productos perecederos, se elegirán productos que al menos en apariencia conser- ven estados óptimos de consumo, piezas con buen co- lor, peso y sabor, incluso, olor también se recurre a laboratorios donde se le someten a unas pruebas de calidad. Posteriormente se analizarán los efectos que tienen cuando se someten a la espectroscopia infrarro- ja. Según los resultados obtenidos, serán clave para determinar si las siguientes muestras son y están en las mismas condiciones que el espécimen de muestra ini- cial. También se comprobarán los parámetros en piezas de peor calidad, así, podremos comparar los resultados entre el espécimen deseable y el desechable. Estos pa- rámetros son importantes a la hora de realizar una bue- na calibración y para establecer una regla en el proceso de producción. También nos permitirá diferenciar entre varias calida- des, desde una superior, media o inferior. Una vez se produzca la calibración espectroscópica, es necesaria realizar una comprobación exhaustiva para recopilar datos y estudiar los aciertos y errores según la calibra- ción previa. Se introducen varios especímenes en el área de valoración registrando y visualizando los valo- res que recogen. Aunque algunos compuestos no pueden ser estu- diados con esta luz debido a que su momento di- polar no es alte- rado por dicha luz, en conse- cuencia, no po- demos conocer su estructura de esta manera, estos compuestos son los compuestos homonucleares (suelen estar en estado gaseoso en condiciones norma- les de presión y temperatura). Como podemos ver en la figura número 4, el momento dipolar de una molécula dada depende de su geometría. No obstante, esto es una excepción, ya que la inmensa mayoría de todos los objetos o compuestos que utilizamos son compuestos. La luz aunque se comporta como una onda, también es energía electromagnética. En el caso de la verificación del color del producto aunque el proceso es más com- plejo de lo que se expone y se utilizan aparatos más sofisticados, se recurre al principio básico de colocar dos placas de metal aisladas al vacío y separadas una distancia, utilizando unos emisores de luz llamados leds, podemos controlar su color y la intensidad de dicha luz. Los electrones de una placa saltan y se pro- duce corriente eléctrica, si lo conectamos a un amperí- metro, conoceremos la corriente que circula por ellos, cuantificando la intensidad que circula por el circuito en función de la luz emitida. Esto puede parecer que al aumentar la intensidad de la luz por medio de los leds, deberá aumentar necesariamente la intensidad en el circuito, pero esto no es realmente así, puesto que solo para una cierta diferencia de potencial y en colores como el rojo y el infrarro- jo, no se produce intensidad de co- rriente en el circuito debido a que la energía se traduce en calor, de ahí que Frederick William Herschel observara mayor temperatura cuando aproximó un termómetro a este tipo de luz. Es decir, solo si se emite luz a una deter- minada frecuencia podremos conse- Nº 5. Circuito representativo del efecto fotoeléctrico. 28 Nº14. Junio de 2016 Nº 4. Representación de la molécula del compues- to dióxido de azufre. Http://www.calabriancorp.com/
  • 29.
    Se podrán realizarpruebas con 100 especímenes para conocer el porcentaje de ejemplares válidos o rechaza- dos. A pesar de ser una prueba bastante fiable, debe- mos rigurosos en establecer el mínimo de productos, piezas, objetos… que son tolerables con errores. En el caso por ejemplo de ser productos de salud se ha de tener ejemplares que se acerquen casi 100% debido su uso muy específico, y además reflejar de forma clara sus todas sus contraindicaciones. En el caso de telas u otros productos similares y siem- pre que no tengan un destino concreto y sensible en el que sea necesaria una seguridad alta, se puede dismi- nuir este margen. Existen varios tipos de infrarrojos, estos tipos están diferenciados en infrarrojos cercanos, medios y lejanos, donde la única diferencia es la longitud de onda que posee el haz de luz infrarrojo cercano (NIR) posee una longitud de onda de 800 nm a 2500 nm, el infrarrojo medio (MIR) posee una longitud de onda de 2,5 μm a 50 μm y por último el infrarrojo lejano (FIR) de 50 μm a 1000 μm. Siendo en términos generales la más utiliza- da es la luz infrarroja media (MIR). Por todo ello, se dispone de varias longitudes de onda y se utilizará de- pendiendo de la estructura molecular que necesitemos comprobar. Los seres vivos disponen de una radiación constante y propia por la emisión de temperatura. De acuerdo con la ley de desplazamiento de Wien, donde la longitud de onda λ máxima puede ser calcula- da a través de una constante multiplicada por la tempe- ratura en el punto negro (real), es decir, la longitud de onda de un cuerpo emisor es inversamente proporcio- nal a la temperatura de este, donde se pueden observar que a menor temperatura (menor energía), colores más oscuros y a más temperatura (mayor temperatura), co- lores más claros. Cuando la luz viaja de un medio a otro diferente, la energía que transporta es invariable. Esta energía de- pende de la longitud de onda λ y a su vez de la frecuen- cia. Dado que la luz viaja de un medio a otro, su fre- cuencia no cambia, solo cambiará su longitud de onda (V=F•λ),siendo la velocidad de una luz una cons- tante. Siempre que el haz de luz sea emitido, pro- ducirá dos fenó- menos conoci- dos, como son la reflexión o la refracción. En función del análisis que se deba realizar, es posible realizar una polarización para evitar que las ondas se propaguen en direcciones y sen- tidos que no sean necesarios para el análisis. Para el caso del análisis en un control de calidad, es preciso focalizar el haz de luz justamente donde se encuentra el objeto de estudio. La polarización de la luz se puede aplicar por absor- ción, reflexión o birrefringencia. Para la absorción es necesario colocar un elemento que pueda absorber de forma selectiva dividiendo la luz policromática en luz monocromática con diversas longitudes de onda. Es utilizado para recepción en cámaras digitales con re- ceptores CCD. Debido a su sen- sibilidad, y a que recoge los colo- res, hemos de tener en cuenta a la temperatura que se registran, puesto que si es cercana a 0ºC es muy probable que no se pro- duzca un registro correcto. Nº 6. Efecto producido por la luz polarizada frente a la no polarizada. 29Nº14. Junio de 2016 “Existen varios tipos de infrarrojos, estos tipos están diferenciados entre cercanos, medios y lejanos”.- REFERENCIAS Y BIBLIOGRAFÍA: -. http://www.sites.google.es/site/ electricalia/ -. http://www.calabriancorp.com -. http://www.portal.uned.es/
  • 30.
    queña o gransección (túneles), construcción de pozos o chimeneas, etc. 2.- Trabajos similares o iguales a los definidos como voladuras de exterior, como el banqueo al piso de tú- neles, banqueo de cámaras en explotaciones mineras, banqueo principal en excavación de cavernas de cen- trales subterráneas, etc. En este segundo caso, nos encontramos con trabajos muy similares a los que se realizan a cielo abierto, so- bre todo en todo lo concerniente a trabajos en banco, cuya técnica es la misma que la empleada en exterior salvando los condicionantes propios del trabajo en ga- lerías. Para el primer caso, el que nos ocupa en este artículo, tanto los sistemas de perforación como de voladura, carga y transporte son específicos y están adaptados para las particularidades de los trabajos de interior. Voladuras de Interior Una de las particularidades de las voladuras en interior es la necesidad de conseguir, con una voladura previa, una primera cara libre o cuele. Como ya se describió en el artículo dedicado a las voladuras a cielo abierto, la presencia de esta cara libre es fundamental para maxi- Por voladuras en interior se entiende que son aquellas que se realizan subterráneamente, para el arranque de roca en explotaciones, obras públicas o cualquier otro trabajo subterráneo. Dentro de este conjunto, podrían establecerse clasifica- ciones complementarias de todo tipo, pero desde un punto de vista conceptual pueden establecerse dos grandes grupos de trabajos subterráneos: 1.- Trabajos que por su forma son específicos de obras subterráneas, tanto en perforación como en voladura. Como por ejemplo el avance en galería, bien en pe- VOLADURAS EN INTERIOR ALVARO M. SÁNCHEZ GUISÁNDEZ. GRADUADO EN INGENIERÍA MINERA. Imagen Nº1 Frente de avance listo para ejecutar una voladura en la excava- ción de un túnel. http://ingeol.cl/ 30 Nº14. Junio de 2016
  • 31.
    La primera, porejecutarse las voladuras con difícil sali- da (tratándose de túneles sólo pueden salir por el plano que conforma el frente de avance) y la segunda por ser necesario obtener tamaños de roca reducidos que estén acorde con los medios de carga y transporte usados, cuyas dimensiones han de ser muy ajustadas para poder ser aptos en trabajos de interior. Esta circunstancia también conlleva que los consumos específicos sean mayores en las voladuras que se reali- zan en interior que a cielo abierto, pues al ser necesario conseguir granulometrías menores, aumenta la cantidad de explosivo por m3 de roca volada. Otra importante diferencia a considerar entre el labo- reo de interior y de exterior es la toxicidad de los gases procedentes de las voladuras, que en interior adquiere una gran importancia y en consecuencia condiciona el explosivo usado. En cuanto a labores con ambiente explosivo podemos decir, que aparece una nueva selección del explosivo a usar (Explosivos de Seguridad) y que el avance de las labores se ve afectado por una legislación que limita las cantidades de explosivo por barreno y pega y la dura- ción de la propia pega, además de las limitaciones de humos. Por tal motivo, aunque trabajos de interior puedan ser parecidos o aparentemente iguales a algún trabajo de exterior, siempre existen matizaciones en pequeña o gran medida que establecen diferencias importantes. mizar el poder destructor del explosivo, calcular el es- quema de barrenado y dirigir la salida de la voladura. Esta cara libre o cuele se consigue apoyándonos bien en barrenos vacíos, sin carga explosiva, o bien en el propio frente de la roca. De esta manera, la voladura principal va precedida de la apertura de un cuele, aun- que todo se realice en la misma pega y por tanto la di- ferencia de tiempo entre ambas sea tan solo de milési- mas de segundo. Los equipos de perforación son también específicos, aunque las perforadoras sean similares a las utilizadas a cielo abierto, son diferentes los chasis y brazos para poder adaptarse a las dimensiones y al tipo de trabajo. También nos encontramos con que, en estas condicio- nes, los esquemas de perforación son muy reducidos, debido a dos razones fundamentales. Imagen Nª2. Pala cargadora en la Mina de Aguas Teñidas, Huelva. En la ima- gen se aprecian las condiciones de trabajo típicas de este tipo de labores. http://huelvaya.es/ Imagen Nº3. Trabajos de banqueo para rebajar la cota del suelo del túnel, ejemplo de trabajo en interior que se ejecuta de manera similar a como se realiza en exterior http://www.redimin.cl/ 31Nº14. Junio de 2016
  • 32.
    mente se suelesituar en el centro aproximado de la galería. Contracuele El contracuele lo conforma la corona de barrenos que circunvala a los del cuele. Mientras que la misión del cuele es crear un primer hueco, el contracuele tiene la misión de ensancharlo y preparar así la cara libre a la destroza (que conforma el grueso de la voladura), con un mayor hueco que permita la evacuación del escom- bro de la misma. En el contracuele no hay barrenos vacíos y aunque están más espaciados tienen distancias entre sí que se consideran cortas. Destroza Comprende el área de barrenos entre el contra-cuele y el límite de contorno. Es corriente escuchar los nom- bres de corona y contra-corona cuando esta destroza está formada por dos filas. Esta es la voladura princi- pal, en cuanto a volumen de arranque en la galería. El esquema suele ser más abierto, con mayor separación entre barrenos logrando con ello consumos específicos de explosivo menores que en el caso de cuele y contra- cuele. En estos barrenos suele usarse como explosivos de menor potencia (como la Amonita), rebajando así los costes en explosivo. Para elegir el esquema a utilizar en una destroza, entran en juego múltiples factores como el diámetro de perfo- ración, la profundidad de avance, tipo de explosivo, secuenciación, granulometría deseada y por supuesto el tipo de sección que queramos conseguir. Avance en Galería De una manera bási- ca podemos decir que el avance en ga- lería se consigue creando un vano en la roca de una longi- tud suficientemente importante, mediante las artes de perfora- ción y voladura en un fondo cerrado (no se contemplan para este artículo otros sistemas de tunelización). A cada paso de ese avance, a cada voladura, se le denomina “Pega” y por cada pega tendremos una fase en la que se taladran los barrenos que conforman el esquema de voladura y de carga de explosivos, posteriormente se realiza la ejecución de la propia voladura. Tras esto vienen las labores de recogida y transporte del material volado. Completada la recogida se comprueba el avance, se analiza el frente por si hubiera defectos de la voladura, se realizan las correcciones oportunas en el sosteni- miento, y se vuelve a empezar. Partes del esquema de voladura Para cualquier galería o túnel cabe distinguir en la pega cinco partes fundamentales: 1) Cuele 2) Contracuele 3) Destroza 4) Contorno o Recorte 5) Zapateras Cuele Como ya se ha comentado es una par- te fundamental en el esquema de vola- dura. Lo conforman una serie de ba- rrenos de diámetro mayor al resto y una separación pequeña (hay muchos tipos de cuele) y no suelen contener explosivo. Su misión será la de crear un hueco inicial en la galería, de forma que los que se disparen con posteriori- dad encuentren ya creada esa cara li- bre. El cuele puede situarse en cual- quier posición: en el frente, al suelo, al techo o en hastiales aunque general- Imagen Nº4 . Esquematización de las diferentes parte de una pega 32 Nº14. Junio de 2016 Imagen Nº4. Tareas de avance en galería. Instalación de mallas y bulones para reforzar el sostenimiento. http://www.redimin.cl/
  • 33.
    Contorno o Recorte Sedefine así a la fila o corona de barrenos que definen la sección del túnel en techo y hastiales, sin incluir el piso. La misión de estos barrenos es doble, debiendo arrancar la piedra que les corresponda y además deben definir el perfil o sección túnel. Por tanto su número, espaciamiento y carga, son determinantes para la cali- dad final del perfil buscado. Existen dos técnicas de efectuar los tiros perimetrales que son el recorte y el precorte. El recorte, que es la técnica más empleada, consiste en perforar un número importante de taladros paralelos al eje del túnel en el contorno, y con una concentración de explosivo pequeña o incluso nula, siendo estos ba- rrenos los últimos en detonar en la secuencia de encen- dido. Por otro lado en la técnica del precorte se perfora un mayor número de taladros perimetrales y paralelos en- tre sí a unas distancias entre 25 cm y 50 cm y conte- niendo carga explosiva. Esta técnica exige una perfora- ción muy precisa que asegure un buen paralelismo y una homogénea separación entre los taladros. En la secuencia de encendido, son los primeros en detonar, con lo que se crea una fisura perimetral que aísla y pro- tege a la roca del macizo de las vibraciones del resto de la voladura. Esta técnica es de uso poco frecuente, ex- cepto en casos especiales. Zapateras Son los barrenos que forman el piso de túnel. General- mente son los últimos en dispararse y están taladrados con un cierto ángulo o “pinchados” como se denomi- nan en el argot minero. Son barrenos que van sobre- cargados de explosivo pues precisan una energía adi- cional para conseguir el "levante" de toda la piedra que los afecta. Avance de la pega El avance de la pega es la medida entre dos situaciones de frentes consecutivos. En el caso de un avance del 100% esta dimensión coincidiría con la profundidad de barrenado pero estos avances no son frecuentes. Un avance de 85 a 90% es considerado habitualmente co- mo bueno, encontrándonos en el nuevo frente fondos de barreno perforados (denominados “culos”) de lon- gitudes de un 15% a un 10% de la longitud barrenada. Menores avances suelen explicarse por cueles defec- tuosos en la mayoría de los casos. Existen casos donde la presencia de lisos (fracturas naturales) pueden dar avances mayores a la longitud perforada, bien por des- cuelgue, o bien por actuar la fisura como una cara libre de fondo. El avance de una pega depende de un gran número de factores como la capacidad de la maquinaria a la hora de barrenar, el tipo de roca a la que nos enfrentamos (dureza, rotura, abrasividad…), el tipo de sostenimien- to al que nos obliga el terreno excavado...etc. El avance debe determinarse por lo tanto en función de muchos parámetros y debe diseñarse aquel que pro- duzca un conjunto de operación más económico (el encaje de ciclos es la premisa básica en toda obra de interior), y que, por lo general, no coincide con el má- ximo alcanzable. Imagen Nº5. Jumbo realizando perforaciones según el esquema de perforación programado para esa sección. http://img.directindustry.es/ 33Nº14. Junio de 2016 “Un avance de 85 a 90% es considerado habitualmente como bueno”
  • 34.
    puede montarse unmartillo de perforación (perforadora) o una cesta en la que pueden alojarse uno o dos operarios permitiendo así el acceso a cualquier parte del frente. El funcionamiento de los jumbos es eléctrico cuando están estacionados en situación de trabajo y pueden disponer también de un motor Diésel para el desplaza- miento. Los martillos funcionan a rotopercusión, es decir, la barrena gira continuamente ejerciendo simultá- neamente un impacto sobre el fondo del taladro. El accionamiento es hidráulico, con lo que se consiguen potencias mucho más elevadas que con el sistema neu- mático. El arrastre del detritus y la refrigeración se con- siguen igualmente con agua. Los jumbos actuales tienen sistemas electrónicos para controlar la dirección de los taladros, el impacto y la velocidad de rotación de los martillos e incluso pueden memorizar el esquema de tiro y perforar todos los tala- dros automáticamente. En este caso un único maqui- nista puede perforar una pega completa en unas pocas horas. Accesorios de perforación. Los accesorios de perforación comúnmente usados son las varillas o barrenas y las bocas de perforación. Las barrenas de perforación son simplemente barras de acero con un conducto interior para el paso del agua de Maquinaria de perforación en interior La perforación en interior suele realizarse mediante dos técnicas: la primera se realiza mediante el uso de marti- llos neumáticos manuales accionados por aire compri- mido, y la segunda mediante martillos hidráulicos mon- tados sobre chasis autopropulsados, que son conocidos como Jumbos. Martillos manuales Los martillos manuales de aire comprimido funcionan a percusión, es decir, la barrena golpea contra la roca y gira de forma discontinua entre cada percusión, sepa- rándose del fondo del taladro. El detritus es arrastrado hasta el exterior del taladro mediante agua, que tiene también la finalidad de refrigerar la barrena. Los marti- llos manuales son actualmente de uso poco frecuente limitándose su uso a túneles muy pequeños o de forma accidental, pues tienen rendimientos muy inferiores a los jumbos y requieren mucha mano de obra. Jumbos La máquina habitual de perforación es el jumbo. Cons- ta de una carrocería de automóvil dotada de dos o tres brazos articulados, según los modelos. En cada brazo Imagen Nº6 . Jumbo de dos brazos, pala cargadora y Dumper minero adapta- dos para trabajos en interior. www.cat.com 34 Nº14. Junio de 2016 “Los Jumbos pueden memorizar el esquema de tiro y perforar todos los taladros automáticamente” Imagen Nº7. Operarios perforando con martillo manual http://www.latinomineria.com/
  • 35.
    da el nopoder comprobar la continuidad del circuito de la voladura antes del disparo, lo cual sí es posible con los eléctricos. Esta comprobación se hace indis- pensable sobre todo en minería a cielo abierto donde en cada pega pueden llegar a utilizarse miles de kilos de explosivo y donde un fallo en la voladura puede supo- ner importantes pérdidas de material y tiempo, ambos traducidos en minería y obra pública como una gran pérdida de dinero. En cuanto al retacado del barreno (que consiste en ta- ponar el barreno impidiendo que la energía de explo- sión se escape por la boca, obteniendo un efecto ca- ñón), normalmente se utilizan cartuchos de arcilla de gran plasticidad que logran taponar por completo la boca del taladro. Control de las vibraciones Por último reseñar que las vibraciones producidas por efecto de las voladuras no sólo pueden tener efecto en los elementos cercanos a la pega, sino que se transmi- ten por el terreno y pueden llegar a producir daños en edificios y estructuras en superficie. Por este motivo es fundamental el control de las mismas mediante una secuenciación de barrenos suficien- te o incluso redu- ciendo el avance de cada pega si fuera necesario, cumpliendo con los límites regla- mentados para cada tipo de pro- yecto. refrigeración y unas roscas en los extremos donde se acoplan las bocas o los manguitos. La boca de perfora- ción es la herramienta de corte, que generalmente es de metal endurecido (carburo de tungsteno) o widia, dis- puesto en formas diversas: en cruz, en X o botones, con unos diámetros habitualmente comprendidos entre 45 y 102 milímetros. La elección de un tipo u otro de boca, así como de sus diámetros, depende del tipo de maquinaria de perfora- ción, de las características de la roca y del diámetro de los cartuchos del explosivo a introducir. Explosivos y detonadores Los tipos de explosivo que deben utilizarse en túneles dependen de las características de la roca, principal- mente de su densidad, resistencia a compresión y velo- cidad de propagación sónica de la roca. Además los explosivos, durante la detonación, deben generar gases no tóxicos, lo que limita el tipo de explosivos en inte- rior a los denominados explosivos de seguridad. El explosivo más utilizado para el cuele y contracuele, destroza y zapateras, es la GOMA-2 E-C o RIOMEX E20/40. El diámetro de los cartuchos deberá ser lo más próximo al diámetro de perforación de los tala- dros, compatible con su introducción dentro del ba- rreno. La iniciación de la explosión en cada barreno se realiza en el cartucho cebo instalado en el fondo del barreno el cual contiene un detonador. La activación de los detonadores puede ser eléctrica o por impacto (iniciación no eléctrica). En el primer caso se utilizan exclusivamente detonado- res eléctricos de alta insensibilidad por razones de se- guridad, como prevención contra las posibles corrien- tes parásitas. Se puede aumentar la seguridad utilizando detonadores de iniciación no eléctrica que tienen como contraparti- Imagen Nº8. Detalle de la configuración del chasis de la maquinaria de interior con una gran longitud y pequeña altura. www.cat.com REFERENCIAS Y BIBLIOGRAFÍA:  Unión E spañol a de Explosivos, “Manual de Empleo de Explosivos”, Madrid. 2002  http://ingeol.cl/  www.redimin.cl/  www.maxam.com 35Nº14. Junio de 2016
  • 36.
    La sabiduría populardice que de noche no hay luz, pero esto no es completamente cierto. Más exacto es decir que no hay luz visible por el ojo humano. De igual manera que no podemos ver las ondas de ra- dio o los rayos X, no podemos ver el tipo de luz que hay en la noche. Pero de la misma manera que se pueden construir aparatos que nos permiten ver las ondas de radio o los rayos X, se pueden hacer apa- ratos que nos permitan ver la "luz nocturna". A pesar de que de noche no se ve el sol, la luna y las estrellas están presentes alumbrando el campo de batalla. Es necesario aprove- char mejor esa luz; es por eso que este tipo de aparatos también se llaman intensificadores de la vi- sión o de la imagen, pues son co- mo superojos que nos permiten ver otros tipos de luz. El ojo humano es más sensible a la luz diurna, que está en la parte verde del espectro lumínico. Sin embargo, de noche el espectro de luz se corre hacia el infrarrojo cer- cano. A causa de esto los aparatos de visión nocturna deben tomar las ondas de luz de esta parte del espectro y traducirlas a otras que el ojo humano pueda ver. Es por eso que las imágenes de estos dispositivos son de color verde. Historia y desarrollo: -Convertidores activos de luz A principios de la década de los año treinta se comenzó a experi- mentar con la intensificación elec- trónica de la luz, y la tecnología se hizo disponible dos décadas más tarde. Sin embargo, estos conver- tidores de luz infrarroja no eran muy sensibles y, por lo tanto, ne- cesitaban un dispositivo adicional que iluminara la escena con luz infrarroja. Por eso se los llama "activos". Sus desventajas eran varias y muy importantes. Primero, se necesita- ba una gran fuente de luz, en don- de la parte visible por el ojo hu- mano era filtrada y ,el resto, sien- do luz infrarroja invisible al ojo humano, iluminaba la escena. Es- to hacía que el equipo fuera apara- toso y pesado, pero también que fuera detectable. Al ser "activo", cualquier enemigo con un equipo de visión nocturna "pasivo" podía ver la fuente de luz como si fuera una EVOLUCIÓN DE LA VISIÓN NOCTURNA. REBECA ROSADO MARTÍNEZ, ING. ARMAMENTO Y MATERIAL. 36 Nº14. Junio de 2016 Imagen. Nº 1 Los sistemas de visión nocturna están en cons- tante evolución. Fuente: www.sophimania.pe Imagen Nº 2 Monoocular de tercera generación acoplable a un fusil. Fuente: www.militar.org
  • 37.
    gran linterna, destruirloy dejar a todos los combatien- tes, amigos y enemigos, a ciegas. Es por eso que cuando se introdujeron los intensifica- dores mejorados, este sistema quedó rápidamente ob- soleto. -Intensificadores de imagen pasivos de primera genera- ción Se comenzaron a desarrollar a principios de la década de los sesenta. Estos sistemas electroópticos ya no de- pendían de fuentes especiales de luz, sino que al ser más sensibles podían usar la luz de la estrellas y la luna. Esto se logró gracias al uso de fotocátodos especiales y a las lentes de fibra óptica. Estos aparatos daban una ganancia de 200, lo que es suficiente para uso a corta distancia con condiciones en las que las estrellas son bien visibles. Para lograr mayor ganancia y poder operar en todo tipo de condiciones nocturnas (para esto se necesitaba una ganancia míni- ma de 50.000), se usó una idea ingeniosa. Se acoplaron en cascada tres intensificadores de primera generación, y cada uno aumentaba más la ganancia del anterior. Se perdía muy poca luz. Sin embargo seguían siendo pesados y aparatosos lo que limitaba su aplicación. No eran portátiles, y además tenían problemas técnicos. El primero era que tenían per- sistencia de la imagen: cuando se usaba contra objetivos en movimiento las líneas de luz dificultaban la localización e identificación rápida, ya que borroneaban la nueva imagen. El segundo problema era que cuando había luces muy po- tentes el dispositivo encandila- ba y llegaba a dejar la imagen en blanco. Se cegaba y no se veía nada. El tercer inconveniente era que estas luces potentes, que podían ser flashes, bengalas u otras, dañaban los fotocátodos e incluso podían dejarlos in- servibles. Fue por eso que se mantuvo un desarrollo tendiente a solucionar esos problemas. A pesar de todos los escollos, estos dispositivos sirvieron bien en los campos militares y no fueron retirados rápi- damente. Sin embargo, a finales de la década de los sesenta, se desarrolló la placa de microcanales, que so- lucionó estos problemas y llevó al desarrollo de la se- gunda generación. -Intensificadores de imagen pasivos de segunda genera- ción La placa de microcanales consiste en un arreglo de pe- queñísimos tubos de vidrio transparentes, puestos en forma de disco. Estos tubos de vidrio o canales se co- nectan electrónicamente en paralelo a electrocátodos en ambos lados del disco. Imagen Nº 3. Espectro electromágnetico, como se aprecia nuestra visión solo abarca una franja muy reducida de todo el espectro. Con la visión nocturna nos adentramos en la franja de los rayos infrarrojos. Fuente: www.artinaid.com Imagen Nº 4. Intensificadores de luz residual.. Fuente: svahistoria.blogspot.com 37Nº14. Junio de 2016
  • 38.
    Sin embargo sesiguieron mejorando los sistemas de segunda generación para lograr avances en la resolu- ción de la imagen y lograr una mejor performance. Trabajando en esa línea de mejora de la resolución de la imagen surgieron los tubos Wafer, los cuales, además añaden la ventaja de ocupar un espacio reducido. Es otro tipo de aparato que hace uso de las placas de microcanales. En estos tubos, la placa está montada a muy corta distancia detrás del fotocátodo. Como la imagen generada está invertida con respecto a la real, se hace necesario la corrección óptica, generalmente encarnada en una fibra óptica torcida. Los tubos Wafer son pequeños y livianos y se usan cuando la portabilidad es el factor decisivo. -Intensificadores de imagen pasivos de tercera genera- ción Son más sensibles que los de las generaciones anterio- res y también poseen mayor resolución. Esto se debe al uso de fotocátodos de arseniuro de galio. Esto unido al uso de placas de microcanales mejoradas hace que la performance de esta generación de sistemas sea tres veces más grande que la de la anterior. Sin embargo, como consecuencia de estos avances, el costo suele incrementarse hasta cinco veces más. Debido a este problema, en la actualidad se continúan usando ciertos sistemas de la segunda generación y alargando su vida útil demasiado; aunque poco a poco, estos sistemas casi obsoletos, se van sustituyendo por los de tercera generación. El factor costo es vital en muchos ejércitos y no es cuestionable el desperdicio de los recursos ya existentes. Hay misiones que pueden llevarse a cabo sin problemas con dispositivos de la segunda generación; mientras se reservan los intensifi- cadores más caros y potentes de para operaciones más especiales. Distintos usos No terminan aquí las diferencias entre distintos tipos de sistemas. El uso de los mismos hace que se especia- licen y se dividan en más categorías. Estos electrones son acelerados cuando se aplica volta- je entre las superficies de los discos. Los electrones secundarios crean así nuevos electrones adicionales, continuando la multiplicación. Así, la señal de entrada es amplificada varias veces al haber cada vez más electrones. Los electrones emitidos por el fotocátodo son enfoca- dos electrostáticamente hacia la placa de microcanal, localizada en frente de la pantalla de fósforo. Luego de ser multiplicados, los electrones son acelerados por la brecha libre hacia la pantalla, produciendo una imagen mejorada de la escena, que no necesita ser invertida. Se logró así el objetivo de poseer sistemas que pudie- ran dar ganancias de hasta 50.000, permitiendo operar en condiciones de nubes, niebla y otras condiciones climáticas adversas. Con los sistemas de segunda generación se consiguió tener finalmente un sistema portátil, capaz de ser lleva- do y operado con una sola mano. Además se solucio- naron los problemas anteriores; los canales de la placa no producen fogonazos y solamente se saturan peque- ños puntos de la imagen y no el total, lo que sucedía con los dispositivos de primera generación. 38 Nº14. Junio de 2016 Imagen Nº 5 .Esquema de como los electrones son rebotados hasta conseguir una ganancia deseada en un placa multicanal. Fuente: lacachimba.wordpress.com. “Con los sistemas de segunda generación se pudo tener finalmente un sistema portátil, capaz de ser llevado y operado con una sola mano.”
  • 39.
    Aplicaciones Pueden dividirse endos categorías básicas: Esta división corresponde a los sistemas de campo de visión estrecha y los de campo de visión ancha. Los primeros permiten ver en un ángulo de 9 grados o menos, pero tienen la ventaja de estar combinados con un gran alcance. Por eso son preferibles para francoti- radores, artilleros de carros de combate y binoculares. Los de visión ancha son de corto alcance, y suelen ser usados por los conductores de carros de combate, que no tienen por que ver con precisión a grandes distan- cias, en sistemas de bolsillo, etc. En la actualidad A día de hoy, es impensable comenzar una campaña o una operación defensiva sin tener en cuenta los dispo- sitivos de visión nocturna propios y del enemigo. La operación Tormenta del Desierto demostró lo eficaces que pueden ser y su utilidad. La prensa incluso llegó a sugerir que la demora en comenzar la operación se de- bía a que se quería iniciar de noche para hacer uso de esta ventaja táctica. No hay duda de que en el futuro los avances en el campo de la visión nocturna seguirán adelante, incluso con el surgimiento de una cuarta ge- neración, que consecuencia de las innovaciones que se han llevado a cabo en los últimos diez años en este campo. Esta tecnología punta se basa en la extracción de la película de iones lo que desemboca en una mayor focalización y una mayor resolución. El combatiente del futuro ira provisto de un sistema de visión nocturna de última generación que le permita reconocer el campo de batalla. Este sistema de visión nocturna irá montado sobre el mismo casco del com- batiente permitiéndole tener ambas manos libres mien- tras está utilizando el sistema- A parte de este adelanto, llevará incorporada mucha más tecnología puntera como, por ejemplo, las gafas de realidad aumentada que le permitirá conocer a tiempo real las órdenes desde su puesto de mando, reconocer enemigos y amigos a grandes distancias o, incluso, de noche. Otros ejemplos son los fusiles con dirección de tiro que son capaces de fijar un objetivo o los nuevos chalecos antifragmentos que están realizados con fibras de materiales compuestos muchos más resistentes, lige- ros, plegables y cómodos que los antiguos confeccio- nados a base de placas cerámicas. Todos estos avances tecnológicos están en el mercado actualmente pero debido a su elevado precio no están disponibles para la mayoría de los ejércitos. Pero, poco a poco, iremos viendo un profundo proceso de remo- dernización y transformación mediante la adquisición de nuevas capacidades, donde gran parte de las mismas serán sistemas de visión nocturna. 39Nº14. Junio de 2016 “Es impensable comenzar una campaña o una operación defensiva sin tener en cuenta los dispositivos de visión nocturna propios y del enemigo” Imagen Nº 6 .Esquema de funcionamiento de un intensificador basado en un foto-cátodo y una placa de microcanales. Fuente: lacachimba.wordpress.com. REFERENCIAS Y BIBLIOGRAFÍA:  www.armas.es  www.wikipedia.com  www.pretexsa.com/  www.tdx.cat  http://visoresnocturnos.blogspot.com
  • 40.
    resistencia del material,hace que constituya una estructura bastan- te ligera. 1.1 Formas geométricas de un cable - Catenaria. Es la forma geométrica que adopta un cable bajo su peso propio. - Parábola. Es la forma geométrica que adopta un cable bajo cargas dis- tribuidas uniformes. - Elipse Es la forma geométrica que adopta un cable bajo cargas dis- tribuidas que crecen hacia los apoyos. - Triángulo Es la forma geométrica que adopta un cable bajo una carga puntual. La cubierta colgante consiste en una lámina tendida entre puntos firmes, que es al mismo tiempo, estructura constructiva y material de cubierta. Es esencial que los elementos de soporte principales de la cubierta colgante estén contenidos en la superficie de ésta y sean solicita- dos únicamente por extensión, teniendo, al menos en una direc- ción curvatura negativa (o, lo que es lo mismo, que sean colgantes). La cubierta colgante constituye el caso inverso de las estructuras superficiales delgadas solicitadas por compresión. De la misma forma que ocurre con la cuerda y el arco. El pandeo superficial, que siempre es de temer en estas superficies, no puede darse en la cubierta colgante. Las aplicaciones primitivas de cubiertas simplemente colgantes las tenemos en los toldos de lona, que sin rigidez alguna se adaptan a la forma más conveniente para resistir las acciones que corres- ponden, pesos o viento, por trac- ción repartida en toda la superfi- cie. En este tipo de estructuras col- gantes encontramos dos elemen- tos fundamentales: 1. Cable en suspensión 2. Puntos de suspensión 1. Cable en suspensión El cable es un elemento flexible que, sujeto a cargas externas, ad- quiere una forma concreta llama- da funicular, que depende de la magnitud y posición de estas car- gas. Desarrolla sólo esfuerzos de trac- ción, por lo que, junto con la alta DISEÑO CONCEPTUAL DE CUBIERTAS COLGANTES LUIS MANUEL DELGADO DELGADO. INGENIERO DE CAMINOS, C. Y P. 40 Nº14. Junio de 2016 Imagen 1. Washington Dulles International Airport. Ref: http://www.greatbuildings.com/
  • 41.
    do las fuerzasvarían y el compor- tamiento de la estructura vuelve a cambiar como respuesta al nuevo sistema de cargas. El proceso es cíclico y no se detendrá mientras haya viento. 1.3 Estabilización del cable en suspensión. Hay varios procedimientos para estabilizar los cables, algunos de ellos se presentan a continuación: - Aumento del peso propio Parece ser la solución natural al inconveniente que causa la flexi- bilidad de este tipo de estructu- ras. Ya que al aumentar el peso propio de la cubierta, al fin y al cabo, estamos rigidizándola, dis- minuyendo su flexibilidad, con lo cual conseguimos que no sea una estructura tan sensible a cargas variables como la sobrecarga de viento. Cuanto más pesada sea la cubierta más difícil será que sea levantada por el viento. El precio que tenemos que pagar con este procedimiento es que a medida que aumentamos el peso propio del sistema, estamos au- mentando la presión sobre la cimentación, tanto en la zona de los postes ya que el peso que ten- drán que soportar será mayor, como en los tirantes de retención en los que también crecerá la tracción. De este procedimiento tenemos varios ejemplos como pueden ser la cubierta del Washington Dulles International Airport, del arqui- tecto Eero Saarinen y la ingenie- ría Ammann & Whitney (Imagen 1), o la Maison de la culture de Firminy-Vert, de le Corbusier (Imagen 2 y 3). - Trapecio Es la forma geométrica que adopta un cable bajo dos cargas puntuales. - Polígono Es la forma geométrica que adopta un cable bajo cargas pun- tuales simétricas. 1.2 Deformaciones críticas del cable en suspensión. El cable suspendido debido a su escaso peso propio en relación a la luz y a su flexibilidad, es muy sensible a la succión del viento, las vibraciones y las cargas asimé- tricas y dinámicas. Supongamos una cubierta hori- zontal formada por cables. Cuan- do sopla el viento sobre ella pro- duce una succión que hará subir la estructura si la carga muerta es menor. A medida que va subien- Imagen 3. Maison de la culture de Firminy-Vert. Ref: http://www.panoramio.com/ 41Nº14. Junio de 2016 Imagen 2. Maison de la culture de Firminy- Vert, interior. Ref: https://www.pinterest.com
  • 42.
    - Rigidización medianteconstruc- ción como arco invertido También tenemos la opción de aplicar un estado tensional a la cubierta de forma que esta quede rigidizada, y trabaje de forma si- milar pero geométricamente in- vertida a la de un arco. Hemos de tener en cuenta que tanto las cadenas como los arcos (cadenas de presiones), en sus campos respectivos (tracciones y compresiones), solo existen en cuanto reciben cargas. En el esta- do de descarga, ni las cadenas ni los arcos toman formas estáticas, y son lábiles o inestables. El principio fundamental del arco pretensado es simple. Se recubre el trasdós del arco, de apoyo a apoyo con elementos tensores (cables de acero, hierros redon- dos y otros), los cuales se tesan. Entonces se produce una sobre- carga en el arco debido al preten- sado, que consiste en una presión uniforme sobre el trasdós del puente. Esta carga de pretensado actúa como un aumento del peso pro- pio, que tiene la particularidad de no aumentar la presión sobre los cimientos, ya que la tracción de los elementos tensores, se com- pensa con la presión que ejerce el pretensado sobre los apoyos, es decir, el pretensado es un sistema de fuerzas de resultante nula. A partir de este momento el arco pretensado se encuentra en equi- librio aunque no existan cargas que lo soliciten. Volviendo del revés un arco pre- tensado, tenemos una cubierta colgante con una capa de hormi- gón precomprimido, la cual pro- duce tensiones fundamentales iguales a las del arco pretensado. Este es el funcionamiento estruc- tural de las bandas tesas o tensa- das, como la realizada por la ofi- cina de proyectos Carlos - Mediante una viga de rigidiza- ción La rigidización del cable portante se puede conseguir suspendiendo de éste una viga rígida, capaz de soportar las cargas variables, re- partirlas por toda ella y transmi- tirlas al cable portante en su con- junto. Este es el método empleado en los grandes puentes colgantes, como por ejemplo el Golden Ga- te de San Francisco de Joseph Strauss. (Imagen 4), - Rigidización mediante una celo- sía Se consigue la rigidización colo- cando dos cables portantes, con una celosía entre ambos, que le aporta resistencia y rigidez al conjunto frente a las cargas varia- bles: 42 Nº14. Junio de 2016 Imagen 4. Puente Golden Gate . Ref: Curso El arte de las estructuras I: cables y arcos. Escuela Politécnica Federal de Lausana “La cubierta colgante constituye el caso inverso de las estructuras superficiales delgadas solicitadas por compresión” Imagen 5. Pasarela sobre el río Pisuerga . Ref: http://www.cfcsl.com/
  • 43.
    irlandés Peter Rice,en las facha- das del edificio The Fingal Coun- try Council en Dublín, para transferir las cargas del viento sobre la fachada a la estructura principal del edificio (Imagen 8).  Uniéndolos mediante una celo- sía. Sistema Jawerth. En la (Imagen 9) vemos que los cables que conectan el cable prin- cipal y el cable de pretensión no son verticales sino dispuestos en diagonal. Esta disposición forma una estructura de red compuesta de mallas triangulares que desde el punto de vista estructural, fun- ciona como una celosía pretensa- da. La estructura es muy eficaz por la estabilidad de cada triángu- lo, creado por las diagonales ten- sionadas. Tiene el efecto de redu- cir el desplazamiento debido a cargas variables.  Estabilización mediante tiran- tes. La rigidización del cable portante también se puede llevar a cabo mediante un conjunto de cables que lo sujeten al suelo, o a los puntos de suspensión. De esta manera logramos reducir la longi- tud libre del cable portante y por tanto su flexibilidad frente a car- gas variables. Fernández Casado en el río Pi- suerga (Imagen 5). - Arriostramiento con un cable de pretensión. Otra posibilidad es la de emplear otro cable de curvatura contraria a la del cable portante, que unido a este mediante elementos conec- tores (bielas o tirantes), lo rigidi- ce. Impedimos de esta forma que se puedan dar deformaciones no deseadas. En los siguientes es- quemas se presentan algunas de las posibilidades existentes:  Uniendo los cables mediante bielas: Un ejemplo en el que se ha em- pleado este sistema es Parc An- dré Citroën (Imagen 6) del arqui- tecto P. Berger y el ingeniero Pe- ter Rice. En la imagen podemos apreciar cómo trabaja el sistema en fun- ción de la dirección en la que so- ple el viento, siempre con las bie- las en compresión (color azul en la imagen).  Uniendo los cables con tirantes: En la (Imagen 7) podemos obser- var una cubierta de un estadio en Holanda en la que se ha emplea- do este sistema para rigidizar el cable portante.  Uniéndolos con bielas y tiran- tes: Este esquema ha sido empleado, por ejemplo, por el ingeniero Imagen 7. Tribune sportpark De Toekomst. Ref: Curso El arte de las estructuras I: cables y arcos. Escuela Politécnica Federal de Lausana 43Nº14. Junio de 2016 Imagen 6. Parc André Citroën. Ref: Curso El arte de las estructuras I: cables y arcos. Escuela Politécnica Federal de Lausana
  • 44.
    Con tirantes inclinados: Unejemplo de estos sistemas lo podemos encontrar en el Puente de Brooklyn de John A. Roebling. También Alvar Aalto proyectó una cubierta con este sistema de estabilización para el concurso del Pabellón de Depor- tes de Viena.  Estabilización mediante cables múltiples. Para soportar las cargas asimétri- cas este sistema parte de la idea de que cuando un cable tiene la carga en la parte derecha se de- forma descendiendo en esa parte y levantándose en la parte contra- ria, la izquierda. De forma que combinando dos cables que previamente adoptan la forma que tendrían si se cargan de forma asimétrica, podemos tener un sistema que trabaje de forma adecuada frente a las car- gas móviles, ya que cuando la carga este colocada a la izquierda, esta será soportada por el cable que tiene mayor flecha en la zona izquierda, y cuando la carga se desplace a la derecha será susten- tada por el cable de mayor flecha en la zona derecha. Se puede rigi- dizar aún más el conjunto colo- cando una celosía entre ambos cables. Este sistema ha sido utili- zado en el “Tower Bridge” de Londres, como podemos ver en la (Imagen 10).  Estabilización mediante red de cables Extendiéndonos a las tres dimen- siones, existe un método de rigi- dización muy empleado, que par- tiendo de un arco principal con- siste en establecer una red de ca- bles entre el arco y los puntos de suspensión con lo que se crea una superficie de curvatura nega- tiva (colgante) que resiste muy bien las sobrecargas. Este sistema fue el empleado por el ingeniero Fred Severud en el David S. Ingalls Rink. También el empleado por el estudio Schlaich, En función de cómo se realice este arriostramiento tendremos los siguientes esquemas: Con tirantes verticales: Con tirantes horizontales: Con tirantes tangenciales al cable portante: Imagen 8. The Fingal Country Council en Du- blín. Ref: www.pinterest.com 44 Nº14. Junio de 2016 “El cable suspendido debido a su escaso peso propio en relación a la luz y a su flexibilidad, es muy sensible a la succión del viento, las vibraciones y las cargas asimétricas y dinámicas” Imagen 9. Johanneshovs Isstadion Ref: Curso El arte de las estructuras I: cables y arcos. Escuela Politécnica Federal de Lausana
  • 45.
    xión. Esta soluciónsolo es viable para cables ligeramente cargados y con vanos relativamente cortos.  Mediante soportes inclinados o en V invertida: De esta manera se disminuyen las acciones sobre la cimentación, al aumentar la superficie de contac- to con el terreno. Pueden ser en forma de contrafuerte: O en celosía:  Mediante postes atirantados o tornapuntas: Cuando los postes son verticales el empuje horizontal pasa directa- mente al tirante que transmite la fuerza al terreno. Trabajando el poste solo a compresión (suma de la componente vertical de los cables de la cubierta y de los ca- bles de los tirantes). En este caso la cimentación de los tirantes es compleja, ya que están muy soli- citados, y con esfuerzos de trac- ción. Este sistema suele utilizarse para cables que cubren vanos relativamente grandes.  Mediante postes inclinados ati- rantados: Con esta disposición es el poste inclinado el que absorbe el empu- je horizontal del cable portante, ya que al ser vertical el tirante, este solo puede trabajar en su plano. Bergermann and Partner en la cubierta de una pista de patinaje en Múnich (Imagen 11). 2. Puntos de suspensión Para transmitir adecuadamente los empujes horizontales y verti- cales de los extremos del cable al terreno pueden adoptarse varios sistemas:  Mediante soportes verticales: En este caso el empuje horizontal debe ser resistido por el soporte que actúa como una viga en vola- dizo. Ha de tenerse en cuenta el momento inducido en la base de la pila por dicho empuje. Para resistir mejor este momento se utilizan soluciones de pila en for- ma de pórtico resistente a la fle- Imagen 11. Pista de patinaje en Munich . Ref: Curso El arte de las estructuras I: cables y arcos. Escuela Politécnica Federal de Lausana. REFERENCIAS Y BIBLIOGRAFÍA: - Frei Otto. Cubiertas Colgantes. España: Editorial Labor, S. A.; 1962. - Heino Engel. Sistemas de estructuras. Barcelona: Editorial Gustavo Gili, SA; 2001. - Edward Allen, Waclaw Zalewski. Form and forces: designing efficient, expressive structures. John Wiley & Sons, cop. 2009. - Edward Allen, Waclaw Zalewski. Shaping structures: statics. John Wiley & Sons, cop. 1998. 45Nº14. Junio de 2016 Imagen 10. Tower Bridge . Ref: Curso El arte de las estructuras I: cables y
  • 46.
    costes, aumento dela vida útil de los accesorios, menos impacto ambiental (reducción de emisiones CO2 y otros contaminantes), prevención de daños, mejora de seguridad en las calles, etc. En este artículo se pretende mostrar una de las distin- tas propuestas industriales de mejora que emergen en este campo: los sistemas de telegestión. Mediante redes inalámbricas de bajo consumo las luminarias se comunicarán entre sí para compartir información rela- cionada con su estado actual, reduciendo así el coste que pudiera suponer cualquier sistema cableado exis- tente actualmente en las ciudades. Al final del mismo se verán algunos ejemplos de implementación reales. Introducción El gran avance tecnológico que vivimos hoy en día ha hecho que, en los últimos años, el alumbrado público y las tecnologías que usa queden un poco obsoletas e ineficientes (hay más de 90 millones de puntos de luz en Europa con más del 75% de las instalaciones con una antigüedad mayor de 25 años(1). Teniendo en cuenta que en la mayoría de los municipios el alumbra- do público puede llegar a representar hasta el 60% del gasto energético total, nos podemos hacer una idea del gran impacto económico que tendría una inversión en eficiencia energética. Añadiendo dos factores básicos como la eficiencia energética y el diseño ecológico se lograrían grandes resultados y beneficios tales como optimización del consumo de energía, reducción de TELEGESTIÓN INTELIGENTE: EL ALUMBRADO PÚBLICO 46 Nº14. Junio de 2016 FRANCISCO DE ASÍS NAVARRO MADUEÑO. INGENIERO SUPERIOR INDUSTRIAL
  • 47.
    3. 6LoWPAN: elobjetivo principal, por tanto, del gru- po de desarrollo de 6LoWPAN es definir como llevar comunicaciones basadas en IP sobre enlaces IEEE 802.15.4 siguiendo un estándar abierto y asegurando la interoperabilidad con otros dispositivos IP. 4. Bluetooth: pertenece al área de redes inalámbricas personal (WPAN). Entre las topologías de red encontramos: La topología en estrella permite el establecimiento de la comunicación entre dispositivos y un único nodo central que ejerce la función de coordinador de red. El coordinador de red es el responsable de iniciar y termi- nar las conexiones y cualquier comunicación entre dos nodos debe de pasar necesariamente por el mismo. Sistemas de telegestión En la figura de la derecha se muestra un ejemplo de lo que pudiera ser un sistema de telegestión aplicado a la iluminación de una vía pública. Como se puede obser- var los módulos de telegestión van conectados a cada una de las luminarias de la vía y mediante comunica- ción inalámbrica estos transmiten la información pro- cesada a un coordinador que está conectado en un pc industrial a través de unos routers. Utilizando sistemas de telegestión se permitirá al usua- rio mantener un control remoto individual así como una monitorización de cada punto de luz. Si a esto se le añade un acceso a un servidor remoto a través de IP conectado a una base de datos se podría tener acceso al estado en que se encuentra una luminaria en cualquier momento desde cualquier lugar. De la misma forma se podrían obtener (desde una base de datos alojada en el servidor) datos estadísticos de consumo, horas de funcionamiento, regulación, anomalías, que servirían entre otras cosas para prevenir errores futuros de la instalación y mejorando así de una forma notable el mantenimiento. Comunicación inalámbrica Para llevar a cabo el sistema de telegestión es necesario montar una red de sensores inalámbricos (WSN: Wire- less Sensor Network) gobernados por un protocolo de red inalámbrico. En la actualidad existen multitud de ellos, la decisión de usar uno u otro vendrá dadas por las especificaciones marcadas en cada proyecto, aquí sim- plemente se nombran algunos de ellos para familiarizar al lector de su existencia. 1. IEEE 802.15.4: es un estándar exclusivamente dise- ñado para redes inalámbricas personales de bajo consu- mo (WPAN). Sus principales bazas son el bajo coste y consumo gracias en parte a una baja tasa de transmi- sión de datos. 2. ZigBee: El objetivo de ZigBee es desarrollar un protocolo de bajo coste, baja tasa de datos, y baja po- tencia de RF, para una amplia variedad de aplicaciones que incluyen la automatización de edificios, control de iluminación y control de acceso. 47Nº14. Junio de 2016 Imagen 1: esquema red aplicación final Imagen 2: topologías de red
  • 48.
    Una vez elmódulo inalámbrico sea capaz de comuni- carse con cualquier balasto, recogerá la información que necesite de la luminaria y, a través de la red de sen- sores, se conectará con el coordinador que estará únido a un pc industrial y que almacenará dichos datos en una base de datos (BBDD). SCADA Aunque no es necesario, resulta de gran utilidad tener un SCADA para consultar todos los datos del estado de las luminarias recopilados por la red de sensores inalámbricos. El SCADA puede permitir entre otras cosas, a través de una sencilla interfaz de usuario, tanto la creación de la red inalámbrica como la posterior monitorización del estado en la que se encuentra en todo momento, así como su gestión para establecer distintos modos de configuración en función de la hora del día y de la épo- ca del año en la que se encuentren. Esto lograría deter- minar el estado de cualquier lámpara en cualquier mo- mento, de forma que si se produce un fallo eléctrico o de lámpara será diagnosticado en tiempo real para pro- ceder a su sustitución o reparación tan pronto como sea posible, consiguiendo una enorme fiabilidad. Una posible configuración de un sistema SCADA se muestra en la siguiente página. La comunicación entre módulos se lleva a cabo a través de un área local y pri- vada donde el nodo coordinador va conectado al orde- nador industrial (que interpreta y ejecuta toda la infor- mación). Estos nodos inalámbricos podrían ser contro- lados a su vez de forma remota a través de internet (haciendo uso de un servidor), ya sea a través de un ordenador situado en un despacho del ayuntamiento de un pueblo/ciudad donde se hayan instalado estos mó- La topología punto a punto permite a cada nodo de la red comunicarse con cualquiera siempre y cuando esté a su alcance. Siempre habrá un nodo coordinador (FFD: Full-Function Device) al cual llegarán todos los mensajes y pueden existir routers (FFD) y dispositivos finales (RFD: Reduced-Function Device). A través de esta topología se logra la red en árbol, es la que se suele utilizar en este tipo de aplicaciones y es la que se mues- tra en la figura anterior. Comunicación módulo-luminaria Una vez sabemos los tipos de comunicación inalámbri- cas existentes puede que la siguiente pregunta que le venga a la mente es: pero, ¿cómo se comunican los módulos inalámbricos con las luminarias? Pues bien, lo hacen a través de balastos electrónicos. Un balasto no es más que un equipo que sirve para mantener esta- ble y limitar la intensidad de la corriente para lámparas, ya sea una fluorescente, una lámpara de vapor de so- dio, una lámpara de haluro metálico o una lámpara de vapor de mercurio. A través de un protocolo estándar de comunicación uno puede comunicarse con un balasto para que encienda una determinada luminaria, regularla o simplemente para saber en que estado se encuentra (encendida, apagada, con fallo, etc). La introducción de balastos digitales para lámparas fluorescentes con protocolos de comunicación supuso nuevas vías para que los fabricantes de controladores propusieran nuevos diseños de componentes para el control de la iluminación (3). De los protocolos de co- municación que existen actualmente se destacan aquí los más importantes: DALI, X-10, DMX-512, Lon- Works, BACnet, control de fase y 0-10V. Imagen 3: Apariencia balasto digital. (www.directindustry.es) 48 Nº14. Junio de 2016 “Hay más de 90 millones de puntos de luz en Europa con más del 75% de las instalaciones con una antigüedad mayor de 25 años.”
  • 49.
    dulos o através de una aplicación móvil en el caso de que un operario acudiera a la calle donde éstos están implementados para hacer alguna reparación/ sustitución y no pudiera hacer uso de un ordenador. Todo esto se realiza con la seguridad y permisos de identificación adecuados. Ejemplo de implementación real La Universidad de Córdoba, en concreto el grupo in- vestigación IEI (Instrumentación y Electrónica Indus- trial-TIC 240), lleva muchos años trabajando entre otras cosas, en el sector de la iluminación pública en un proyecto llamado IUI (Iluminación Urbana Inteligen- te). En la actualidad (en colaboración con otras empre- sas) y gracias a la financiación de fondos FEDER, ha desarrollado varios prototipos. Éstos se encuentran en fase de prueblas pero a día de hoy están instalados en pilotos reales. Ha elaborado un manual técnico en el que se especifica el procedimiento para la optimización global del Alum- brado Público y ha desarrollado unos módulos inalámbricos propios (como el que se muestra en la derecha)para llevar a cabo todo el proceso de tele- gestión y recabado de información de prácticamente cualquier luminaria. Para sustituir un alumbrado conven- cional por uno como los que hemos detallado en este artículo, simplemen- te habría que incorporar los módulos mostrados en la figura anterior a cada una de las luminarias y el software creado tanto en los microcontrolado- res de los módulos como en el pc industrial se encargaría del resto: formación de red, recopilación de información durante la noche, guarda- do de los datos en un servidor e información en tiem- po real tanto del estado de las luminarias como de po- sibles anomalías ocurridas durante la noche. Image 5. Módulo inalámbrico desarrollado por el grupo IEI, de la Universidad de Córdoba 49Nº14. Junio de 2016 Imagen 4: posible esquema-configuración SCADA sistema de telegestión alumbrado público “Un sistema de telegestión puede reducir entre el 20% y el 85% en el consumo eléctrico del alumbrado, dependiendo de la instalación.”
  • 50.
    Conclusiones La Unión Europeaes consciente desde hace muchos años del gasto energético y del impacto ambiental (cambio climático) que supone la iluminación pública en cada una de nuestras ciudades, y más teniendo en cuenta la difícil situación que Europa vive en la actuali- dad, por lo que se ha fijado el objetivo de incrementar la eficiencia energética en un 20% para 2020. Para lograr esta eficiencia energética en el alumbrado público son distintas las propuestas industriales que emergen, resumiéndose en mejoras en la tecnología de lámparas y balastos electrónicos, sistemas de arranque suave, funcionamiento sin ruido y automatismos para iluminación. Son numerosas las medidas concretas recomendadas para disminuir el consumo de energía eléctrica en el alumbrado público, entre ellas un mayor control de la iluminación (con posibles interruptores crepusculares o astronómicos), una reducción del nivel de luz (atenuación) durante horas de tráfico reducido, el uso de balastos electrónicos inteligentes capaces de detectar fallos eléctricos o el diseño de sistemas de teleges- tión. Este último es el que nos hemos centrado en este ar- tículo. El sistema de telegestión mediante radiofrecuen- cia es totalmente viable, es fiable y su coste de implan- tación es fácilmente amortizable y está dentro de los parámetros de mercado. Un sistema de telegestión implantado permite una mo- nitorización del estado de luminarias en tiempo real. En la práctica, lo interesante es el registro de datos de niveles de regulación y horas de funcionamiento que permiten conocer el consumo energético y anticiparse a las facturas, así como la gestión de un mantenimiento Este sistema ya ha sido instalado en las localidades de Montalbán y Carcabuey, con grandes beneficios tanto en la reducción de costes como en el impacto energéti- co y medioambiental (contaminación lumínica). Como se puede observar en la siguiente ilustración tan- to el balasto como el módulo inalámbrico van incorpo- rados dentro de la luminaria: 50 Nº14. Junio de 2016 Imagen 7. Luminaria de una vía pública abierta para incorporación balasto- módulo inalámbrico en el sistema de telegestión del alumbrado público “Mediante un adecuado sistema de telegestión con monitorización 24h, una lámpara fundida podría notificarse de forma “instantánea” a través de una notificación al operario en el móvil. Imagen 8. Contenido caja estanca incorporada en la luminaria..
  • 51.
    preventivo de calidad. Graciasal sistema de telegestión del alumbrado público se puede conseguir por tanto:  Captura de datos y estudio de las curvas de regu- lación  Cálculo de consumos energéticos a partir de las curvas de funcionamiento.  Modificaciones de las curvas de regulación por el usuario.  Gestión de averías como fallos de comunicación, fallos de balasto o de lámpara prácticamente de forma instantánea.  Posibilidad de conocer las horas de funciona- miento de las lámparas, una a una.  Posibilidad de modificar las horas de encendido y apagado de la instalación.  Gestión de la instalación desde una Tablet. REFERENCIAS Y BIBLIOGRAFÍA: 1) C. EUROPEA, «Iluminando las Ciudades: Acelerando el Despliegue de Soluciones de Iluminación Innovadoras en las Ciudades Europeas,» 2013. 2) Universidad de Córdoba, grupo IEI (www.uco.es/ iei) 3) Proyecto IUI: http://iluminacionurbanainteligente.com/ 4) P. Morante, «Reducing Barriers To The Use Of High-Efficiency Lighting Systems. Lighting,» Rensselaer, 2006. 5) K. N. S. J. JD Lee, «Development of Zigbee based Street Light Control System,» de Power Systems 
 Conference and Exposition. 
 6) M. G. M. Mendalka, L. Kulas y K. Nyka, «WSN for intelligent street lighting system,» de Information Technology (ICIT), 2010 2nd International Conference on. 
 7) F. Leccese, «Remote-Control System of High Efficiency and Intelligent Street Lighting Using a ZigBee Network of Devices and Sensors,» de IEEE TRANSACTIONS ON POWER DELIVERY, 2013. 51Nº14. Junio de 2016
  • 52.
    aguas con unaalta concentración de substancias químicas como la utilizada en lavadoras y lavavaji- llas. Las aguas negras proceden de inodoros, fregaderos, lavadoras, etc. Este tipo de agua está conta- minada con desechos orgánicos o productos químicos. Las aguas pluviales, como su nombre indica, provienen del agua de la lluvia. Reciclaje de aguas grises Una vez recicladas, las aguas gri- ses domésticas, pueden ser utili- zadas en acciones que no requie- ren agua potable. Los usos mas habituales son el agua para cister- nas y el agua para riego de jardi- nes, pero también puede ser utili- zada para el lavado de suelos o de vehículos. Como dato orientativo se puede decir que el volumen de agua gris producido por persona y día osci- En el año 2002, las Naciones Unidas establecieron los criterios del derecho al agua. Se cuantificó el volumen mínimo de agua por persona que hay que garantizar de acuerdo con cuatro criterios: suficiencia, salubridad, accesibili- dad y asequibilidad. Este volu- men es de 55 litros, desglosado en cuatro acciones: bebida 5, sa- neamiento 25, higiene 15 y pre- paración de alimentos 10 litros de agua. El consumo medio de agua en los hogares españoles fue en 2015 de 130 litros por día y habi- tante, 40 menos que en 2002. El consumo doméstico ha ido dis- minuyendo debido a una mejor eficiencia del suministro, un au- mento de las tarifas y una mayor concienciación social en el uso sostenible del agua. A pesar de esta buena tendencia, se podría aumentar el ahorro de agua con el uso de sistemas de reutilización de agua. En el ámbito doméstico se puede decir que el volumen de agua desechada respecto a la consumi- da ronda el 90%. En una vivien- da el 100% del agua que entra es potable, es decir, apta para el consumo humano, y en solo la mitad de los usos a los que se destina necesitan agua potable. Existen tres tipos de aguas resi- duales que podrían ser reutiliza- bles: aguas grises, aguas negras y aguas pluviales. Existen diferentes definiciones del término aguas grises. La ma- yoría de autores defienden que las guas grises son las aguas resi- duales domésticas que proceden de las bañeras, duchas y lavabos. Exceptuando inodoros y bidets, y REUTILIZACIÓN DE AGUAS RESIDUALES DOMÉSTICAS YERAY ESTÉVEZ CERVIÑO. ARQUITECTO. 52 Nº14. Junio de 2016 Imágenes Nº 1 y 2. Consumo de agua por uso en un bloque de viviendas. Ref: www.iagua.es
  • 53.
    como ya existecon las aguas plu- viales, pero en España son toda- vía inexistentes. Por este motivo la implantación de sistemas de reciclaje de aguas grises, está des- tinado al uso particular, ya sea una vivienda o un bloque de vi- viendas. Tipos de tratamiento Existen diferentes tipos de trata- mientos, que variarán significati- vamente en coste, complejidad y calidad del agua obtenida. Sistemas sin tratamiento. El más sencillo. Se envía directamente desde el aparato emisor al apara- to receptor, sin ningún tipo de tratamiento. Sistemas con tratamiento. Nor- malmente siguen un proceso for- mados por tres fases: captación y almacenamiento de aguas grises, tratamiento y almacenamiento e impulsión del agua reciclada. Existen varios tratamientos: físi- cos, químicos y biológicos. Sistemas físicos. Su objetivo es la separación de aceites, grasas y partículas sólidas, mediante un sistema de filtros. Sistemas físico-químicos. Se desarrolla generalmente en cuatro etapas. Prefiltrado para eliminar los principales residuos, dosifica- ción de coagulantes y/o floculan- tes, filtrado de áridos y desinfec- ción para evitar el crecimiento de bacterias (hipoclorito sódico, UV, etc.). Sistemas biológicos. Hay multi- tud de sistemas diferentes, pero se basan en el mismo principio: la eliminación de la materia orgáni- ca mediante microorganismos, que se originan mediante la apor- tación de oxigeno. Es en esta aportación donde radican las di- ferencias entre los diferentes sis- temas biológicos. Reactores secuenciales. Utilizan un proceso biológico con fangos la entre los 50 y los 100 litros. Mientras que en las principales acciones ya nombradas, su de- manda de agua es la siguiente: cisternas, 18-45 litros/persona/ día; riego de jardines, 2-6 litros/ m²/día; lavado de suelos interio- res, 0,5-1 litro/m²; lavado de sue- los exteriores 2-6 litros/m² y la- vado de vehículos, 250 litros. Es- tos datos son orientativos, y de- penden, claramente, de aspectos sociales, la época del año y la ti- pología de vivienda. Por ejemplo, en una vivienda unifamiliar con jardín el gasto en riego supone un porcentaje elevadísimo del con- sumo de agua total. Utilizando sistemas de reciclaje y reutilización de aguas grises se estima que se pueden conseguir ahorros del 30% del consumo de agua de una vivienda, lo que con- lleva un beneficio para el medio ambiente y un ahorro en la factu- ra del agua. Para la implantación de estos sis- temas es necesario un sistema separativo de saneamiento, uno para grises y otro para negras, 53Nº14. Junio de 2016 Imagen Nº 4. Sistema sin tratamiento. Ref: Guía técnica española de reciclaje de aguas grises. CS-AG Aqua España Imagen Nº 3. Vivienda con sistema separativo de saneamiento. Ref: Guía técnica española de reciclaje de aguas grises. CS-AG Aqua España Imagen Nº 5. Reciclaje de aguas con corto tiempo de reacción. Imagen Nº 6. Reciclaje de aguas con tratamiento físico y químico. Ref: Guía técnica española de reciclaje de aguas grises. CS-AG Aqua España Imagen Nº 7. Reciclaje de aguas con tratamiento físico y químico. Ref: Guía técnica española de reciclaje de aguas grises. CS-AG Aqua España
  • 54.
    perficie captadora hacedisminuir su calidad desaconsejándose para el consumo humano. Al igual que en la reutilización de las aguas grises, los usos aconse- jados para las aguas pluviales son: cisternas, riego y limpieza. La utilización de agua de lluvia recogida, filtrada y almacenada correctamente, puede reducir un 40% el consumo de agua de una vivienda. Si en el reciclaje de aguas grises, el ser humano era el actor princi- pal, ahora entra en juego otro factor que no podemos controlar, la naturaleza. Por eso, para insta- lar un sistema de recogida de aguas pluviales, es muy importan- te estudiar la pluviometría del lugar y el uso que se le dará al agua recogida. Diseño del sistema Se pueden diferenciar cuatro pro- cesos principales para el diseño de un equipo de reutilización de agua de lluvia: captación, filtra- ción, almacenamiento y distribu- ción. Captación. Se denomina superfi- cie de captación a la parte de la cubierta destinada a recoger el agua de la lluvia. El tipo de mate- riales y las pendientes de la cu- bierta influyen en la calidad y en la cantidad del agua captada. Filtración. Para conseguir una mayor calidad en el agua, y preve- nir posibles contaminaciones, es necesario un filtrado antes de conducirla al tanque de almace- namiento. Existen multitud de filtros y su elección dependerá de la función y la ubicación que se desee. Estos elementos requieren un mantenimiento importante, se recomienda una revisión semes- tral para que el sistema funcione perfectamente. Almacenamiento. La luz y el ca- lor pueden afectar negativamente en la calidad del agua almacena- da, por lo que el tanque deberá estar protegido de estos elemen- tos. Su ubicación ideal es bajo tierra, lo que no supone ningún problema en obra nueva, pero si en viviendas ya construidas. En este caso, deberá ser opaca y pro- tegerse del sol en la medida de lo posible. Para un correcto dimen- sionado es necesario un estudio previo basado en estos tres facto- res: superficie de captación del sistema, precipitaciones medias activos, en cuatro etapas: llenado, aireación, decantación y separa- ción. Reactores biológicos de membra- na. Utilizan el proceso biológico y un unos microfiltros para la decantación de partículas sólidas. Sistemas biológicos naturaliza- dos. Utilizan vegetación para aportar naturalmente oxigeno a los microorganismos. Aprovechamiento de aguas pluviales La recogida de agua de lluvia para su posterior utilización es algo que el ser humano lleva ha- ciendo a lo largo de toda su his- toria. En España, llueven de media anualmente 600 litros por m², en una vivienda de 100 m² de cu- bierta y suponiendo un rendi- miento ideal, se podrían obtener 60.000 litros de agua gratis. La calidad de esta agua es exce- lente, pero el contacto con la su- 54 Nº14. Junio de 2016 Imagen Nº 8. Precipitación media anual en España. Ref: www.ign.es Con el uso de sistemas de reutilización de aguas grises y pluviales se puede reducir el consumo de agua entre un 30 y un 40%. Imagen Nº 9. Esquema de un sistema de reuti- lización de aguas pluviales. Ref: Guía técnica de aprovechamiento de aguas pluviales en edificios. Aqua España
  • 55.
    En muchas viviendasaisladas utilizan las fosas sépticas para el tratado de estas aguas residuales. A una escala urbana, las estacio- nes depuradoras de aguas resi- duales (EDAR), tratan, mediante una serie de procesos, las aguas negras. Sí que existen métodos naturales para la utilización de aguas negras provenientes del inodoro, que se utilizan en comunidades de bajo desarrollo o con un alto nivel de sostenibilidad. Destacan dos sistemas: la utiliza- ción de lombrices y la utilización de plantas. Un sistema ecológico para depu- rar aguas negras es la utilización de lombrices de tierra. Se trata de un tanque al aire libre, compues- to por un serie de filtros natura- les, serrín, tierra, que se riega con las aguas residuales. El agua atra- viesa las capas y se retienen en una capa de tierra donde actúan las lombrices. Gracias a su ac- ción, se transforman los contami- nantes del agua en humos, un fertilizante natural formado por los excrementos de las lombrices de tierra. Este sistema se utiliza en pequeñas poblaciones o ex- plotaciones ganaderas ya que su mantenimiento es mínimo y el coste de implantación es bajo respecto a otro sistemas de depu- ración. Varios estudios afirman que este sistema elimina en un 80% los contaminantes del agua y con la ventaja de la obtención del abono al que se le puede sacar rendimiento económico. Otro método natural para la de- puración de aguas residuales con- siste en la creación de humedales artificiales. Las plantas absorben los nutrientes del agua, actuando así, como filtros naturales. Alguna de las especies utilizadas en estos sistemas son: totoras, repollitos de agua, camalotes y juncos. Su mayor ventaja es su coste, prácticamente nulo, pero el pro- ceso puede ser largo. de la zona y la demanda del edifi- cio. Distribución. Los tres tipos de instalaciones de distribución que podemos encontrarnos en el mercado son: por gravedad, el depósito está a una cota superior al sistema; en carga con electro- bomba, el depósito está situado a un nivel igual o inferior; y en as- piración con electrobomba, el depósito se encuentra a una cota inferior a la del sistema. Esta última es la instalación más común. Puede darse con electro- bomba de superficie o sumergi- ble. Otro tema importante es si la red de distribución tendrá o no, ga- rantía de suministro. Sin garantía, el suministro se detendrá cuando no exista disponibilidad de agua de lluvia en la cisterna, mientras que con garantía de suministro se utilizaría agua de otra fuente. Reciclaje de aguas negras Las aguas negras, con una mayor cantidad de contaminantes, ya sea químicos o fisiológicos, son las más costosas de reciclar, por lo que su reutilización no está tan generalizada como la de las aguas grises y pluviales. Su implanta- ción en uso domésticos sería, hoy en día, muy difícil. 55Nº14. Junio de 2016 Imagen Nº 10. Tipos de bomba para el sistema de distribución. Ref: www.aquabazar.com REFERENCIAS Y BIBLIOGRAFÍA: - SEOÁNEZ CALVO, Mariano. Manual de reciclado, aprovechamiento y gestión de las aguas residuales de las industrias agroalimentarias. Ed, Antonio Madrid Vicente, Madrid, 2016. - AQUA ESPAÑA. CS-AG. Guía técnica española de recomendaciones para el reciclaje de aguas grises en edificios. 2011. - AQUA ESPAÑA. GA-AP. Guía técnica de aprovechamiento de aguas pluviales en edificios. 2008 - www.iagua.es - www.mma.es -www.h2opoint.com - www.blogdelagua.com - www.ecojoven.com
  • 56.
    les y, además,son menos sensibles a la corrosión o a la fatiga. Debido a estas propiedades, su uso en aplicacio- nes estructurales permite un ahorro significativo de peso. Este ahorro de peso significa reducir consumo de combustible, reducir costes de operación y mejorar la protección medioambiental. Estas ventajas han consti- tuido una excelente fuerza motriz para su generaliza- ción. A pesar de sus bondades, la irrupción de los composi- tes en la fabricación de aeronaves ha sido muy escalo- nada, principalmente por la complejidad de su fabrica- ción y su complicado comportamiento mecánico. Los primeros materiales compuestos en usarse en aerona- ves fueron los de fibra de vidrio con matriz de epoxy. Se utilizaban en carenados y otras estructuras que no tuvieron que soportar grandes cargas. En los 60 se em- pleó por primera vez aramidas (ej.: kevlar). Es más rígi- do que la fibra de vidrio, soporta muy bien los impac- tos, pero no trabaja bien a comprensión ni soporta bien el ataque del medio ambiental. También data de esta época los primeros diseños de palas de rotor en composite, debido a la necesidad de que las palas En 1907 comienza la era de los materia- les compuestos mo- dernos. En este año el químico belga Leo Baekeland ob- tuvo por primera vez una resina ter- moestable. Baeke- land calentó y aplicó presión en un reci- piente especial a un fenol y un formal- dehido para obtener una resina líquida que polimerizó y tomó la forma del recipiente. La llamó bakelita. A lo largo de las tres primeras décadas del pasado siglo se van incorporando el resto de las matrices: las fenóli- cas, que fueron las primeras en desarrollarse industrial- mente para aplicaciones de aislamiento, armamento y bisutería, las poliéster, las vinil ésteres y las epoxis. En el campo de la aeronáutica, la razón de su uso se debe a que poseen muy buenas propiedades mecánicas específicas (propiedades de por unidad de peso) cuan- do se comparan con las aleaciones metálicas tradiciona- USO Y SISTEMAS DE FABRICACIÓN DE LOS MATERIALES COMPUESTOS EN AERONAÚTICA. ADRIÁN JIMÉNEZ MARTÍN. ING. TÉC. AERONAÚTICO. Localizaciones de material compuesto en un Aribus A350. 56 Nº14. Junio de 2016
  • 57.
    Cada 787 contieneaproximadamente 32 toneladas de plástico reforzado de fibra de carbono (CFRP). Con esta tecnología se ha conseguido ahorrar 18 toneladas de peso y junto a un nuevo motor de última genera- ción, es un 20% más eficiente en el consumo de com- bustible que un avión tradicional de las mismas dimen- siones. Su fuselaje está dividido tan solo en 4 piezas de mate- rial compuesto. Este arriesgado diseño permite elimi- nar 1500 planchas de aluminio y 40000-50000 rema- ches. El uso de composites también ha influido en el bienestar de los pasajeros, ya que las ventanas son ma- yores que las de cualquier otro avión de pasajeros y como estos materiales no sufren la corrosión de los metales, los niveles de humedad del aire son mayores. Además, el avión esta presurizado a la presión existente una altitud de 6000 pies mientras que los aviones con- vencionales lo están a unos 8000 pies. Esto se traduce en menores dolores de cabeza y oídos para los viajeros. Para este avión, la compañía ha tomado el paso sin precedentes de subcontratar la mayoría de su produc- ción. La mayoría del trabajo en composites ha sido rea- lizado 4 principales proveedores: Spirit AeroSystems (Wichita, Kan.), Kawasaki Heavey Industries (Tokio, Japón), Vought Aircraft Co. (Dallas, Texas) y Alenia Aeronautica (Roma, Italia). tengan una alta rigidez a torsión para que puedan responder rápi- damente a los cambios de án- gulo de ataque impuestos por la base del rotor. El primer material compuesto que se empleó en partes estructu- rales de un avión fue la libra de boro, que se fabrica depositando fibras de boro sobre filamentos de tungs- teno. Es muy caro y su uso es prácticamente sólo mili- tar. Por eso, es mucho más popular la fibra de car- bono, que tiene unas características muy parecidas, pe- ro es mucho más barata de producir. Antes de mediados de los años 80, los fabricantes los comerciales de aviones militares utilizaban los materia- les compuestos en estructuras secundarias como los bordes del ala o en las superficies de control, por lo que representan un pequeño porcentaje. Fue en 1988 cuando Airbus dio un salto cualitativo produciendo la sección de cola de su modelo A320 completamente en material compuesto. Desde entonces, estos materiales han ido ganando terreno en su uso estructural, hasta llegar a estar presentes en casi todas partes del avión y representar al menos la mitad del peso estructural en los últimos modelos. El Boeing 787 Dreamliner entró en servicio en el 2011 y es el primer avión que posee el 50% de la estructura principal fabricada en material compuesto. A lo largo del tiempo el uso de materiales compues- tos en los aviones ha ido incrementándose. Ala del Airbus A400, construida en su mayor parte por material compuesto. 57Nº14. Junio de 2016
  • 58.
    de la partetrasera del fuselaje. Airotec, elabora la parte delantera del fuselaje en Nordenham (Alemania). Por último, el estabilizador horizontal es manufacturado en Getafe (España). Al igual que en B787, algunos retrasos en el calendario han sido asociados a problemas con los materiales compuestos. Un ejemplo es el retraso de tres meses debido a dificultades en el proceso automatizado de perforación de los agujeros de las alas, necesarios para su sujeción con las costillas. En el plano del transporte militar, el Airbus A400, que realizó su primero vuelo en 2009, está construido en un 30% de materiales compuestos. Cabe señalar que es el primer avión construido con los largueros principa- les fabricados de material compuesto. En cuanto los modelos de cazas más avanzados del momento, el uso de materiales compuestos es motivado a parte de por sus ventajas estructurales, por su baja huella radar. Los americanos F22 y F35 cuentan con un 25% y 35% de estos materiales respectivamente. Debido a la naturale- za furtiva de estos aviones de combate prácticamente la totalidad de su superficie visible está compuesta de materiales compuestos, ya que estos materiales se muestran “transparentes” al radar. A mucha distancia se encuentra el Eurofighter Typhoon, desarrollado en un 82% de su peso estructural en materiales compues- tos. Esto proporciona una mayor rigidez estructural, permitiéndolo realizar maniobras con valores de fuerza G verdaderamente altos. El uso tan exten- sivo de los mate- riales compues- tos ha supuesto un reto tanto para Boeing co- mo para sus pro- veedores, ya que este motivo es la principal causa de los 3 años de re- tro del programa. Los primeros 6 aviones producidos nacieron con 2300 kg más de lo especificado, por lo que tuvieron que op- timizar el diseño y aumentar el uso del titanio para co- rregir el problema. Airbus trabaja en el A350 XWB, el cual posee el 53% de su estructura en materiales compuestos, estimando reducir un 60% las tareas de mantenimiento por corro- sión y fatiga. Al igual que el B787, su fuselaje está completamente construido en CFRP, pero su diseño es menos radical aunque su fuselaje está constituido por una pieza me- nos que el B787. Esto es debido a que cada sección está constituida por 4 paneles. Desde Airbus destacan que de esta manera la manufacturación es más sencilla y pueden reducir peso optimizando el espesor de cada panel según los cálculos de esfuerzos y cargas. La mayoría de las estructuras del A350 están fabricadas en centros pertenecientes a Airbus, a pesar de algunas expcepciones como GKN Aerospace (Filton, U.K.), la cual produce de composi- te los flaps de aterrizaje y los largueros tra- seros; o como Spirir AeroSystems, la cual provee los paneles de la sección de fuselaje central, largueros y bordes de ataque fijos desde Kinston (U.S.). El cajón del ala central, el cual está realiza- do en un 40% de fibra de carbono, está fabricado en Nantes (Francia). El revesti- miento superior del ala es manufacturado en la planta de Airbus en Stade (Alemania), mientras que el inferior lo está en Illescas (España). Estos componentes de una sola pieza se han convertido en los más grandes jamás construidos por la aviación civil, hechos de fibra de carbono. También es en Illescas donde se fabrica el barril Máquina ATL que realiza de una sóla pieza la piel del ala del A350. 58 Nº14. Junio de 2016 En rojo se observa las partes del avión militar que tiene material compuesto.
  • 59.
    En aviación seusa principalmente polímeros reforza- dos con fibra de carbono debido a los exigentes requi- sitos de resistencia estructural. Si echamos la vista atrás y comparamos los principales métodos de producción vemos que la esencia es la misma. Esto es, se colocan las capas de telas de fibra de carbono preimpregnadas en resina (prepregs) en el correspondiente molde, se hace la bolsa de vacío para asegurar la calidad requerida y, posteriormente, se cura en un autoclave. La diferen- cia entre los métodos anteriores y ahora es la velocidad con la que se lleva a cabo. Si mientras que antes las telas se colocaban manualmente, ahora se utilizan má- quinas de ATL y AFP que son capaces de llegar a colo- car 60 m de tela por minuto. Las máquinas de ATL se utilizan para encintar superficies sencillas con cinta preimpregnada unidireccional. Por otro lado, las má- quinas de AFP son similares pero para encintar super- ficies más complejas. Por ejemplo, la técnicas de AFP se utiliza para la fabricación del fuselaje y los largueros del A350 (larguero compuesto de hasta 100 capas). En cuanto al fuselaje, la piel está hecha mediante AFP y, posteriormente, se le han añadido los larguerillos (también mediante AFP) y todo esto ha sido cocurado. Por otro lado, la piel del ala se hace mediante ATL. Para crear piezas más complejas se utilizan otros méto- dos. El más popular es el RTM. Consiste básicamente en colocar las telas secas en un molde con una forma final de la pieza para luego insertar la resina. Este mé- todo tiene la ventaja de no tener que usar prepregs: más fácil de trabajar, no hay necesidad de conservarlos para que no caduquen y no hay un tiempo máximo en el que colocar las telas porque se vaya a secar la resina. Además, cabe la posibilidad de no necesitar curar la pieza en autoclave y curarlo en temperatura ambiente. Este método, en su variante VARTM, se utiliza para fabricar, entre otras, la puerta trasera de carga del A400, las superficies de control del borde de salida del B787 y el mamparo de presión de éste. Este sistema emplea un molde rígido y un contramolde flexible fa- bricado en nylón y se sella sobre el perímetro del mol- de con una cinta adhesiva. Una vez pegada la membra- na a la superficie del molde se produce el vacío en el interior de la cavidad con el fin de que entre la resina. Los materiales compuestos en la industria aeronáutica han alcanzado su máximo nivel de utilización en los programas más re- cientes. Para incremen- tar la utilización de CFRP se debe de hacer un gran esfuerzo de investigación. En el plano de la fabricación, desarrollo de nuevas tec- nologías de producción más rápidas y baratas, evitando el uso del autoclave, ya que ejerce de cuello de botella. En el plano de los materiales, desarrollo de nuevos ma- teriales con propiedades mejoradas, fibras de carbono de resistencia y módulo mayor, nuevas fibras orgánicas y cerámicas y propiedades multifuncionales. En este sentido, se está trabajando en mejorar la conductividad de los composites, ya que el alcance por un rayo a un avión puede resultar peligroso. La principal línea de investigación se centra en la integración de nanotubos de carbono en los materiales compuestos, puesto que poseen muy alta conductividad eléctrica, ayudando a disipar la energía del rayo. Además, es preciso el per- feccionar las técnicas de detención de defectos tanto en su fabricación como en su posterior uso, dado que los materiales compuestos suelen regresar a su forma origi- nal tras un impacto, por lo que los posibles daños pue- den ser invisibles, pero graves. Para solucionar esto, se investiga en crear una estructura inteligente que pueda alertar al operador de cualquier daño que se produzca en ella; sometiéndose actualmente, a ensayos de vuelo y encontrándose en las etapas finales de su desarrollo. Sección de fuselaje de un avión fabricado con material compuesto en su mayoría. 59Nº14. Junio de 2016 En la industria aeronáutica, los materiales compuestos , han alcanzado su nivel más alto en los últimos tiempos.
  • 60.
    cas. También hayciertos materia- les que ya están en determinados ámbitos industriales, pero que se estima que su uso se generalice a lo largo de los años venideros. Carbono No es que el carbono sea una novedad, pero se cree que los derivados del carbono van a te- ner una importancia grande en el futuro. De hecho, hay más de 16 millones de compuestos que tie- nen relación con el carbono ya que puede encontrarse en la natu- raleza en distintas formas. Es un material abundante, algunos in- cluso lo califican de prácticamen- te inagotable, que se usa en dis- tintos ámbitos como en el do- méstico, en la medicina o en los reactores nucleares. Una desven- taja muy importante y que con- tradice la tendencia de búsqueda de energía limpia en los nuevos materiales, es que el carbono tie- ne un extenso rango de toxicidad, por lo que puede poner en riesgo la salud. Grafeno Es un material que ha cobrado especial relevancia durante los últimos años. Es una variante del carbono y está compuesto por átomos de este elemento y enla- ces covalentes, con un espesor atómico muy pequeño, de 0,34 nanómetros, además de tener una estructura formada por celdas hexagonales. Entre sus ventajas destacan su elevada resistencia, su alta conductividad térmica y eléctrica y con una gran movili- dad eléctrica, por lo que se usa en el ámbito electrónico especial- mente en el de alta frecuencia. Tiene otras propiedades intere- santes como que entre la banda de conducción y la de valencia no hay brecha, los electrones casi no se dispersan ya que chocan poco entre sí. Introducción La ciencia, tecnología e ingeniería han avanzado a pasos agiganta- dos los últimos 50 años y se pre- vé que lo sigan haciendo a lo lar- go del siglo XXI. Es difícil saber que tipo de materiales serán los protagonistas en los próximos años, debido a diversos factores, entre ellos el económico, ya que un material puede tener una serie de ventajas extensas, pero si tiene un coste excesivo o si su cuota de mercado es pequeña puede dejar de desarrollarse y caer en el olvi- do pese a que se crearan expecta- tivas muy altas. En general, los materiales que se cree van a ser fundamentales en las próximas décadas son respetuosos con el medioambiente y seguros para la salud humana. El presente artícu- lo expone una serie de materiales que tienen muchas posibilidades de ser usados ampliamente de forma industrial o doméstica, a lo largo de las próximas décadas así como sus principales característi- MATERIALES DEL FUTURO. JUAN MANUEL ALFARO ÁLVARO. INGENIERO INDUSTRIAL. 60 Nº14. Junio de 2016 Imagen 1. Estructura interna del grafeno. Foto obtenida de la web: http://lawebdelgadget.es
  • 61.
    de nanómetros yunas longitudes de onda micrométricas, aunque pueden llegar a ser del orden de milímetros y que les hace tener una relación entre la longitud y el diámetro elevada. Son sistemas ligeros, porosos y huecos que destacan por su alta resistencia a la tracción, su gran elasticidad y su elevada resistencia mecánica, que les hace ser ideales para la fabricación de composites de bajo peso y para reforzar la es- tructura de los materiales, además de otra serie de propiedades ópti- cas, eléctricas, mecánicas quími- cas y térmicas que los hacen muy interesantes. Pueden ser utiliza- dos también en sensores quími- cos y biológicos para localizar contaminantes y en pilas de com- bustible, entre otras muchas apli- caciones. Los hay de dos tipos: de pared simple (SWNCT), for- mados por átomos de carbono que forman una red hexagonal cilíndrica, cuyos extremos pue- den estar abiertos o cerrados; de pared compuesta (MWCNT), cuya estructura es similar a varios de pared simple concéntricos y de distintos diámetros. Las pro- piedades dependen del tipo de nanotubo, de la relación entre la longitud y el diámetro, de las im- perfecciones del nanotubo y de la forma en que están dispuestos los hexágonos. Son apreciados en la electrónica debido a que pueden ser metálicos o semiconductores, de forma que podrían sustituir al silicio en los dispositivos electró- nicos ya que a escala molecular funcionan correctamente y son buenos disipadores del calor, y los dispositivos aumentarían su vida útil. El problema principal es su susceptibilidad al ruido ocasio- nado por fluctuaciones eléctricas, químicas y térmicas. Por otra parte, el grafeno permite altas densidades de corriente, tiene un elevado módulo de Young, tiene gran resistencia a la fractura, químicamente es inerte, casi toda la luz lo atraviesa por lo que es transparente, es duro, rígi- do, biocompatible e impermea- ble. Entre sus aplicaciones están los filtros, las células de combus- tible, los recubrimientos, tiene particular importancia en la aero- náutica, también se usa en super- condensadores y en muchos otros ámbitos. Carbino Este material está compuesto por una estructura de átomos de car- bono unidos mediante enlaces simples alternados y triples o bien mediante enlaces doble con- secutivos. Sus propiedades están por ver, pero los químicos de la universidad de Rice (Houston, EE.UU) han llegado a asegurar que es más resistente que los na- notubos de carbono y que el gra- feno, e incluso más duro que és- te. El principal problema que presenta es la dificultad para crearlo de forma estable. Aún así, algunos científicos hablan de las siguientes ventajas de este mate- rial: su tensión de rotura es muy grande, incluso superior a la del grafeno, de forma que es capaz de soportar grandes estiramien- tos; la rigidez a tracción es casi el triple de la del diamante; puede llegar a ser un gran semiconduc- tor magnético y puede almacenar gran cantidad de energía. Nanotubos de carbono Son una forma alotrópica del car- bono y se asemejan a pequeñas láminas de grafito enrolladas, que tienen unos diámetros del orden Imagen 2. Estructura interna de un nanotubo de carbono de pared simple.. Instantánea obtenida de la web: http://meetthings.com 61Nº14. Junio de 2016
  • 62.
    bono formando unaestructura compuesta de pentágonos y he- xágonos alternados, similar a un balón de fútbol. Otros fullerenos son el C20, C70, C76, C84 o C540. Todos son estructuras geo- métricas tridimensionales y cerra- das, cuyos átomos de carbono se localizan en la superficie por lo que el volumen interior está va- cío. Se cree que sus posibles apli- caciones abarcan el campo de la medicina e incluso pueden ser usados para diversas reacciones químicas no habituales debido a su capacidad de enjaular en su interior átomos de otros elemen- tos. Como consecuencia de su carácter molecular, pueden disol- verse en disolventes orgánicos y modificarse químicamente para obtener derivados, conservando sus propiedades físicas y quími- cas. Destacan sus propiedades superconductoras y su elevada capacidad de procesamiento por lo que son adecuados para la electrónica, nanotecnología, recu- brimientos, biomedicina, fotote- rapia o metalurgia. Se han obteni- do polímeros con propiedades de limitadores ópticos, polímeros electroactivos y se cree que las propiedades de algunos derivados solubles en agua pueden ayudar al tratamiento del virus del SIDA. Estaneno Es un material bidimensional formado por malla de estaño con un único átomo de grosor y que es capaz de conducir la electrici- dad a alta temperatura con una gran eficacia. Puede llegar a ser importante en el ámbito de la electrónica mejorando la eficien- cia de los chips de silicio y desta- ca por ser un posible aislante to- pológico ya que los electrones solo se pueden mover por el bor- de del material siendo en esta zona la resistividad casi nula. De- bido a estas buenas propiedades conductoras y de termoelectrici- dad, ya que a temperatura am- biente los electrones se mueven sin disipar calor, sería un material ideal para el desarrollo de circui- tos eléctricos de bajo consumo. El principal obstáculo que pre- senta es que todas estas propie- dades aún no han podido verifi- carse, ya que corresponden a predicciones de modelos teóricos basados en la teoría del funcional densidad, pero de confirmarse el estaneno sería fundamental. Fullerenos Son otras formas alotrópicas del carbono, compuestos por redes pentagonales o hexagonales de carbono semejantes a las del gra- fito, pero que en vez de ser pla- nas son curvas por lo que forman diferentes poliedros. Debido a que la estructura electrónica de los átomos de carbono restringe las configuraciones geométricas, la cantidad de fullerenos es limi- tada, asociado cada uno a un de- terminado poliedro. Al ser los ángulos de un pentágono de 108º, a diferencia de los 120º del hexágono, los enlaces de carbono están de alguna forma forzados pero lo neutraliza la estabilidad que proporciona la estructura poliédrica. El principal fullereno es el C60 o buckminsterfulereno, formado por 60 átomos de car- Imagen 3. Estructura del C60, el principal fullereno. Imagen adquirida de la web: http://www.jccanalda.es 62 Nº14. Junio de 2016 “El carbono y sus diversas formas alotrópicas parece que van a tener un gran protagonismo en las próximas décadas”
  • 63.
    El germaneno estáformado por una capa bidimensional de áto- mos de germanio y el fosforeno por átomos de fósforo y son bue- nos conductores, especialmente el fosforeno que se puede utilizar en transistores. El pegamento molecular tiene la capacidad de unir materiales a nivel molecular y se obtiene gra- cias a una proteína de la bacteria Streptococcus pyogenes. Se está trabajando en crear esas proteínas para que la unión molecular se puede realizar de manera selecti- va, ya que esta proteína forma enlaces covalentes muy fuertes de forma rápida. Tiene como venta- jas principal que la unión se reali- za en pocos minutos indepen- dientemente de la temperatura y acidez del entorno en el que se realiza. La tela de araña es un material muy resistente, proporcionalmen- te mayor que el acero. Se está analizando como se podría crear este material y qué impacto tiene el diseño geométrico de la red en su resistencia. Podría tener apli- caciones en medicina y combina- da con los nanotubos de carbono podría tener un gran interés para la electrónica. El wolframio o tungsteno no es un material nuevo, pero se cree que puede ser importante en el futuro debido a su importancia en el recubrimiento de los reacto- res nucleares de fusión nuclear. El material desarrollado consiste en W nanoestructurado con una dureza 4 veces mayor que el W masivo y mucho más resistente a la radiación. Otros materiales La upsalita es una forma de car- bonato de magnesio en forma de polvo blanco con microporos con una gran eficiencia para ab- sorber agua debido a su extraor- dinaria superficie interna de 800 m2 por gramo. Entre sus aplica- ciones destacan la de desecante y su utilización para recolectar resi- duos tóxicos y químicos. El shrilk es una mezcla de quito- sano, material que se encuentra en los caparazones de crustáceos e insectos, y fibroína, proteína de la seda. Es una material fuerte, resistente, ligero, biodegradable y biocompatible que se cree pueda sustituir en el futuro a los plásti- cos e incluso ser usado para una gran variedad de aplicaciones médicas. Los metamateriales son mate- riales artificiales que tienen una serie de propiedades electromag- néticas poco comunes proceden- tes de su estructura diseñada. Tie- nen una gran importancia en los campos de las telecomunicacio- nes, la óptica y el electromagne- tismo, especialmente mediante el diseño de materiales con un índi- ce de refracción ajustable. El siliceno es una lámina de sili- cio de un único átomo de grosor, es decir, muy fina, y que se utiliza en la fabricación de transistores. Tiene propiedades eléctricas ex- traordinarias, pero es inestable al exponerse al aire. Imagen 4. Estructura del siliceno. Fotografía obtenida de la web: http://noticiasdelaciencia.com REFERENCIAS Y BIBLIOGRAFÍA:  Páginas web consultadas:  http://www.omicrono.com/2012/10/los-materiales-del-futuro-carbono-grafeno-fullereno-y-nanotubos/  http://es.gizmodo.com/6-nuevos-materiales-artificiales-que-cambiaran-el-futur-1277638271  http://www.tendencias21.net/Cinco-anos-para-que-el-grafeno-cambie-el-mundo_a40680.html 63Nº14. Junio de 2016
  • 64.
    El efecto fotovoltaico Lossistemas fotovoltaicos trans- forman la energía radiante del sol en energía eléctrica. Este proceso de transformación se produce en un elemento semiconductor que se denomina célula fotovoltaica. Cuando la luz del sol incide sobre una célula fotovoltaica, los foto- nes de la luz solar transmiten su energía a los electrones del semi- conductor para que así puedan circular dentro del sólido. La tec- nología fotovoltaica consigue que parte de estos electrones salgan al exterior del material semiconduc- tor generándose así una corriente eléctrica capaz de circular por un circuito externo. Para hacer posible el manejo práctico de las células fotovoltai- cas, estas se presentan asociadas eléctricamente entre sí y encapsu- ladas en un bloque llamado panel o módulo fotovoltaico, que cons- tituye el elemento básico para la producción de electricidad. Nor- malmente, un módulo fotovoltai- co está formado por unas 36 cé- lulas, teniendo diferentes medidas que oscilan desde el 0,5 m2 hasta 1 m2, el grosor también oscila ente 3,5 cm y 5 cm. El módulo fotovoltaico está for- mado por unos conjuntos de cé- lulas solares conectadas entre sí en serie y paralelo hasta conse- guir el voltaje adecuado para su Introducción La Energía Solar es una energía limpia, que utiliza una fuente inagotable y que no cuesta, pero cuyo mayor inconveniente radica en cómo poder convertirla de una forma eficiente en energía aprovechable. La tecnología ac- tual en este sentido va dirigida en dos direcciones: conversión eléc- trica y conversión térmica. La conversión directa en energía eléctrica se produce en las células solares y se basa en el efecto fo- tovoltaico. Explicar este efecto y dar una visión general de esta tecnología, de su estado actual y de sus aplicaciones, son los obje- tivos de este apartado. 64 Nº14. Junio de 2016 CERRAMIENTOS FOTOVOLTAICOS VÍCTOR GARCÍA IGLESIAS. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
  • 65.
    miento -Ofrecen una elevadafiabilidad -No producen ningún tipo de contaminación ambiental Estrategias de integración ar- quitectónica La gran ventaja de los sistemas fotovoltaicos respecto a otros sistemas de generación eléctrica es que no ocupan necesariamente espacio adicional al ya ocupado por los edificios u otras construc- ciones. El campo fotovoltaico puede integrarse encima de su- perficies construidas o incluso ejercer la función de elemento de construcción. Los módulos solares han pasado de ser unos simples equipos de producción de energía a ser al mismo tiempo un elemento cons- tructivo capaz de sustituir ele- mentos tradicionales, o bien ofre- cer otras prestaciones adicionales a la de generación eléctrica. Los mismos fabricantes de placas fo- tovoltaicas han empezado a dise- ñar modelos que facilitan su inte- gración o su función constructiva en fachadas o tejados. Propiedades de los cerramien- tos fotovoltaicos La sustitución de un cerramiento (fachada, muro, tejado, etc.) con- vencional por uno fotovoltaico supone que un elemento de gene- ración energética realice muchas más funciones que ésta, como: protección de los elementos cli- máticos exteriores (lluvia, viento, temperaturas extremas, etc.), fil- tro de luz solar, filtro de ruidos exteriores, filtro de radiaciones electromagnéticas, aislamiento térmico, transmisión de luz utilización, este voltaje suele ser de 12V aunque a plena radiación solar y 25ºC de temperatura suele ser de 15V a 17V. El conjunto de células está envuelto por unos elementos que le confieren pro- tección frente a los agentes exter- nos y rigidez para acoplarse a las estructuras que lo soportan. Ventajas e inconvenientes de las instalaciones fotovoltaicas Las instalaciones de generación de energía eléctrica fotovoltaica presentan las siguientes ventajas: - Son sistemas modulares, lo que facilita su flexibilidad para adap- tarse a diferentes tipos de aplica- ciones, y su instalación es relati- vamente sencilla. -Tienen una larga duración. La vida útil de una planta fotovoltai- ca, la define la vida útil de sus componentes, principalmente el generador o módulo fotovoltaico, que constituye más del 50% del valor de la instalación. Los mó- dulos tienen una vida esperada de más de 40 años. -No requieren a penas manteni- Imagen 2. Integración fotovoltaica en fachadas. Ref: upthegreen.com 65Nº14. Junio de 2016 Imagen 1. Casa solar de la Universidad Cardenal Herrera, México. Ref: edificaciónsostenible.com
  • 66.
    -Atrio: cubierta entredos edifi- cios. -Pérgolas, porches, voladizos. -Franjas fotovoltaicas a lo largo de la fachada, alternando con franjas transparentes. -Lamas de sombreado: situadas encima de las ventanas, permiten evitar la entrada de radiación di- recta en verano. -Fachada inclinada: en forma de invernadero, para cerramientos fotovoltaicos semitransparentes. -Lamas o parasoles de inclinación variable. Los fabricantes de placas fotovol- taicas han empezado a suminis- trar variantes de placas y de célu- las para atender las demandas de los arquitectos solares. Para ello se han desarrollado modelos con variantes de tonos, colores, for- mas de células, así como sistemas de fijación que permitan adoptar diversas soluciones o mejoras estéticas. Para conseguir una mejor integra- ción del elemento fotovoltaico en los edificios es necesario tenerlo en cuenta desde el inicio del dise- ño del edificio. De esta manera se podrá conseguir mejorar el aspec- to exterior y el coste del edificio al poderse sustituir elementos convencionales por los elementos fotovoltaicos. A veces es necesa- rio sacrificar parte del rendimien- to energético por mantener la estética del edificio. Para aplicaciones arquitectónicas se utiliza frecuentemente el en- capsulado de células convencio- nales en cristal – cristal. Dichos módulos cristal – cristal son muy apropiados para este tipo de apli- caciones, pues además de cubrir totalmente los requerimientos técnicos y estéticos del diseño, permiten ciertos niveles de semi- transparencia que ayudan a au- mentar la luminosidad del inte- rior del edificio. Integración en cubiertas La situación del campo fotovol- taico en una cubierta es la más usual, ya que se suelen dar unas condiciones más favorables que en las fachadas: Las inclinaciones habituales de las cubiertas están en el rango de natural controlada y aportación térmica. Posibilidades de integración Cada vez son más numerosas las formas de situar sobre edificios campos fotovoltaicos con funcio- nes diversas además de la estric- tamente energética: -Tejado fotovoltaico: sustituye el acabado final y, en algunos casos, la impermeabilización. -Tejado en dientes de sierra: la vertiente sur es fotovoltaica y la norte puede ser opaca o permitir la entrada de luz cenital. -Fachada: el campo solar puede recubrir totalmente la fachada. -Tejado plano: se pueden situar hileras de placas paralelas, a una distancia adecuada para no pro- ducir sombras entre sí. 66 Nº14. Junio de 2016 Imagen 3. Fachadas ventiladas fotovoltaicas. Ref: upthegreen.com “Los módulos solares han pasado de ser unos simples equipos de producción de energía a ser al mismo tiempo un elemento constructivo ”
  • 67.
    - Cubierta semitransparentede invernaderos adosados a vivien- das. - Cubiertas inclinadas formadas totalmente por placas fotovoltai- cas. -Cubiertas inclinadas acabadas con tejas fotovoltaicas. Para integrar el campo fotovoltai- co en una cubierta, hay que tener en cuenta los criterios siguientes: - Consideraciones estructurales: La sobrecarga debida a un campo fotovoltaico es muy pequeña en relación a las sobrecargas que se tienen en cuenta en el cálculo de las cubiertas. No obstante, hay que tenerla en cuenta. Depen- diendo del sistema utilizado co- mo estructura de fijación, el peso que puede provocar el campo fotovoltaico estará en torno a 30 kg/m2. - Sistemas de fijación: Existen algunos sistemas en el mercado que facilitan la fijación de la estructura soporte de las placas a la cubierta existente. En cubiertas planas, con el fin de no perforar la impermeabilización, a menudo se utilizan sistemas de fijación por gravedad, situando elementos pesados para estabili- zar a las hileras de placas. Por último, tanto si van super- puestas sobre un tejado existente, pero sobre todo si van integra- das, sustituyendo a las tejas u otro elemento de impermeabili- zación, hay que prever que ten- gan una correcta ventilación que impida el estancamiento de aire caliente bajo las placas. Un exce- sivo sobrecalentamiento de éstas reducirá fácilmente su eficiencia en un 10%. máxima producción eléctrica anual (más planas en latitudes bajas y con más pendiente en latitudes más altas). La orientación de la cubierta in- clinada no es tan decisiva a pe- queñas inclinaciones como en el caso de las fachadas. En las cubiertas planas se puede situar el campo fotovoltaico en la orientación e inclinación más favorable, independientemente de la orientación del edificio. Las placas fotovoltaicas se pue- den superponer al sistema de im- permeabilización existente o, en algunos casos, podrían llegar a sustituirlo. No interfiere en el plan arquitec- tónico de los edificios, y mínima- mente en su aspecto final. En edificios de nueva construc- ción ofrece posibilidades cons- tructivas interesantes: - Cubiertas semitransparentes para crear lucernarios. - Formación de lucernarios en diente de sierra. Imagen 4. Torre CIS en Manchester, cuya fa- chada está compuesta por placas solares foto- voltaicas. Ref: eleconomista.es 67Nº14. Junio de 2016 Imagen 5. Instalación de placas solares a modo de lucernario. Ref: upthegreen.com “En edificios de nueva construcción ofrece posibilidades constructivas interesantes” REFERENCIAS Y BIBLIOGRAFÍA: -Clemente Alfonso, Raquel. Diseño de una cubierta solar fotovoltaica conectada a la red eléctrica e integrada en un edificio industrial. - eleconomista.es - upthegreen.com - edificaciónsostenible.com - solaico.com - portalsolar.com - sunpowercorp.es
  • 68.
    por lo quese corre el riesgo de perder la posición de liderazgo que habíamos alcanzado en esta tecnología. En el ámbito solar termoeléctri- co, España es hoy líder mundial tanto en potencia instalada como en capacidad tecnológica, y las empresas del sector están comen- zando a participar en ambiciosos proyectos en muchas regiones del mundo (EEUU., Oriente Medio, China, India, Australia …). Actualmente en España conta- mos con 50 centrales en opera- ción que suman 2.300 MW de potencia, siendo nuestro país el mercado con mayor capacidad operativa del mundo. En cuanto a las centrales eólicas, a pesar del nulo aumento de po- tencia en 2015 (0 MW), la energía eólica ha sido la tercera fuente de generación eléctrica en España en 2015. España es el quinto país del mun- do por potencia eólica instalada, tras China, Estados Unidos, Ale- mania e India. La potencia insta- lada a 31 de diciembre de 2015 era de 22.988 MW. España, la tercera potencia en el mundo y la segunda en Europa en producción de energía eólica por detrás de Estados Unidos y Alemania, mantiene una produc- ción española repartida entre 1077 parques eólicos de 15 España ha desarrollado una fuer- te industria fotovoltaica. Esta industria, que ha crecido alrede- dor de unos niveles de radiación solar excepcionales, ha converti- do a España en el país con más potencia instalada fotovoltaica a nivel mundial. El último Real Decreto que regu- la la tecnología fotovoltaica, el RD 1578/2008, ha limitado me- diante la asignación de unos cu- pos de producción anuales la im- plantación de esta tecnología en España. Estos cupos, al ser me- nores que el ritmo de crecimiento anual experimentado en el pasa- do, están provocando una con- tracción del sector fotovoltaico 68 Nº14. Junio de 2016 PROBLEMÁTICA EN EL RECICLAJE DE PANELES SOLARES Y PALAS EÓLICAS IVÁN GARCÍA IGLESIAS. INGENIERÍA DE CAMINOS, CANALES Y PUERTOS
  • 69.
    útil y almenos el 80% de los mó- dulos (por peso) deben ser recu- perados. El reciclado de paneles fotovol- taicos no es económicamente rentable en la actualidad debido a que los volúmenes tratados son insignificantes. Se prevé que a partir del año 2030 empezarán a generarse grandes cantidades de residuos. A nivel europeo, se estima que las cantidades significativas em- piecen a aparecer a partir del año 2050. De estas cantidades, la ma- yoría corresponderán a los pane- les de primera generación (silicio) que representarán más del 40%. Se ha estimado que la gestión de los paneles empieza a ser econó- micamente viable a partir de las 20.000t/año, aunque criterios más realistas apuntan a las 40 - 50.000 t/año. Las cantidades que se recogen actualmente, corresponden prin- cipalmente a roturas durante la fabricación o en la mala instala- ción de las placas durante los 2 primeros años. Una disposición incorrecta del residuo puede dar lugar a lixivia- dos de Pb, Cd, pérdida de mate- rias primas y de metales raros. Los paneles están compuestos mayormente por vidrio y alumi- nio, pero también contienen, en pequeñas cantidades, otros mate- riales que tienen un gran valor debido a su escasez, plata, indio, galio, germanio, telurio… Los metales raros no suponen más de un 1% en peso del panel, pero tienen un gran valor econó- mico. Actualmente sólo hay dos méto- dos de reciclaje para los paneles que han sido testados y puestos en práctica: - Tratamiento del Silicio crista- lino de Deustche Solar (Alemania) - Tratamiento de Teluro de Cad- mio de First Solar (EUA, Alema- nia y Malasia) Al contrario que en los sistemas Deutsche Solar y First Solar, el simple reciclado del vidrio sólo conlleva una separación física con el objetivo de recuperar el vidrio y no se separan otros com- ponentes como el Cadmio o el Mercurio. Con un procedimiento de recicla- je adecuado, se puede llegar a recuperar el 100% del Aluminio, el 95% del vidrio y el 33% de los metales raros. Hay que tener en consideración que existen paneles solares que contienen pequeñas cantidades de Mercurio y Cadmio (representan menos del 1% del peso). Substancias que tienen que gestionarse correctamente por el elevado impacto que puede supo- ner su emisión al medio. Aunque la evolución tecnología de los paneles, lleva a la reducción del uso de sustancias peligrosas en su composición, por lo que se redu- cirá su aparición en los residuos futuros. Teniendo en cuenta que solo hay dos sistemas de reciclaje de pane- les reconocidos, existen fabrican- tes que llevan a cabo ciertos pro- cesos de reciclaje y reutilización (pendientes de verificar) entre ellos, fabricantes españoles. Hay que estar preparados para el momento en que las cantidades de residuos de paneles comunidades autónomas. Hasta hace poco, el reciclaje de paneles fotovoltaicos no era obli- gatorio en Europa. Pero en el 2012 el Parlamento de la Unión Europea (UE) oficialmente cam- bió las directrices de su “Desperdicio de Equipo Eléctri- co y Electrónico”, WEEE por sus siglas en ingles. Bajo las nue- vas modificaciones, el 85% de todos los módulos fotovoltaicos deben ser recolectados por los “productores” al final de su vida 69Nº14. Junio de 2016 Imagen 1. Potencia solar instalada en España, fotovoltaica y térmica. [www.ree.es] Imagen 2. Localización de centrales solares térmicas en España. [www.protermosolar.es] Imagen 3. Evolución de la potencia eólica insta- lada año a año en España (en MW) [www.aeeolica.org]
  • 70.
    EFE Félix A.López, investigador del CSIC. Las palas de molino o aerogene- radores en desuso son residuos emergentes (nuevos en el merca- do) y por tanto todavía no existe una directiva europea específica que las catalogue como residuos peligrosos o tóxicos o inertes, lo que favorece el vacío legal en torno a ellas. A este respecto cabe señalar que el parque eólico español, los pri- meros aerogeneradores datan de 1997, está constituido por 17.000 generadores lo que suma un total de 51.000 palas, de las que unas 1.500 o 2.000 se encuentran a día de hoy averiadas o en desuso. Actualmente el destino de estas palas, sin una legislación que lo defina, hay que buscarlo en alma- cenes y depósitos localizados en las inmediaciones de los grandes parques eólicos repartidos por casi toda la península. Además, los parques eólicos es- tán situados generalmente en lu- gares inaccesibles y el transporte de una pala por una empresa ges- tora más la trituración de la mis- ma tiene un coste que varía entre los 4.000 y 5.000 euros, coste que a veces es complicado asumir. Estas palas, miden entre 45 y 48 metros, se pueden averiar bien por fenómenos meteorológicos adversos como los rayos, bien por choques de avifauna o sim- plemente porque han llegado al final del ciclo de su vida, unos 15 años dependiendo de diversos factores, lo que haría imprescin- dible su sustitución. Es por eso que el Consejo Supe- rior de Investigaciones estima que en España y en un período entre 2017-2025, alrededor de 1.500 aerogeneradores (4.500 palas) equivalentes a una potencia instalada de aproximadamente 2128 MW, e instalados en el pe- ríodo 1997-2000, habrán llegado al final de su vida útil. Además, el aprovechamiento de las palas también estaría orientado a la recuperación de materiales como las fibras de carbono ya que tie- nen un valor añadido para aplica- ciones dentro de la aeronáutica y representan una oportunidad de negocio y de innovación impor- tante. fotovoltaicos empiecen a aumen- tar. Las palas de los aerogeneradores en desuso o al final de su vida útil -entre 1.500 y 2.000 en España- se están almacenando en vertede- ros incontrolados, con el consi- guiente riesgo a una combustión que libere las sustancias tóxicas de las que están hechas y generen un impacto en la salud y el medio ambiente. Si las palas se depositan junto a un bosque y un incendio forestal, fortuito o provocado las quema- ra, la combustión de esas aspas compuestas por fibras de car- bono y de vidrio, reforzadas en algunos casos con poliéster, ge- neraría químicos peligrosos y muy contaminantes para el me- dioambiente y el hombre, ha ex- plicado en una entrevista con 70 Nº14. Junio de 2016 Imagen 4. Fragmentación de pala averiada de un aerogenerador para facilitar su manipulación y tritura- ción. [www.futurenviro.es] “El reciclado de paneles fotovoltaicos no es económicamente rentable en la actualidad debido a que los volúmenes tratados son insignificantes.”
  • 71.
    cundarias. Dicha investigación estaráfinalizada en 2017 y se en- focará hacia la recuperación de los recursos materiales conteni- dos en estos residuos (fibras inorgánicas y otros materiales) en todas las etapas del proceso de fin de vida: desmontaje de las palas en el parque eólico y reci- claje de los materiales recupera- dos para su devolución al ciclo económico como materias pri- mas secundarias. Concretamente, se demostrará su aprovechamien- to como refuerzo en prefabrica- dos de hormigón, mientras que el material restante de la pala, con propiedades aislantes, será utiliza- do en núcleos de paneles para la construcción. El planteamiento propuesto aborda la problemática de la ges- tión de estos residuos de forma integral, es decir, desde el des- montaje de las palas en el propio campo eólico y su logística inver- sa, hasta el tratamiento del resi- duo y el aprovechamiento de los materiales reciclados en nuevas aplicaciones. Los resultados esperados del pro- yecto se orientan a desarrollar una Guía de Buenas Prácticas y metodología para el desmontaje y logística inversa de palas de aero- generador; una Metodología de Reciclaje que permita alcanzar un índice de recuperación de mate- riales superior al 75% en peso de las palas (metales, fibras inorgáni- cas, polímeros), una reducción de los Gases de Efecto Invernadero (en términos de CO2 equivalen- te) de al menos 6.000 kg de CO2 por pala reciclada y una Guía de recomendaciones legislativas diri- gida a Comisión Europea en ma- teria de desmantelamiento, ges- tión y reciclaje de turbinas eólicas obsoletas. Desde el punto de vista ambien- tal y en función de las perspecti- vas de crecimiento a futuro de la tecnología, se hace necesario ocu- parse de un problema emergente asociado al crecimiento de la can- tidad de parques eólicos instala- dos y por instalarse, como es la gestión de los residuos generados por los aerogeneradores una vez cumplida su vida útil. Ante esta realidad, Iberdrola se ha aliado con los centros tecnoló- gicos vascos Gaiker-IK4 y Tecnalia, para crear un nuevo sistema sostenible que permita el aprovechamiento de las palas de los aerogeneradores, desarrollan- do el proyecto LIFE+BRIO, fi- nanciado por el Programa LI- FE+ de la Unión Europea, cuyo principal objetivo es demostrar desde una perspectiva de ciclo de vida, una metodología innovado- ra y sostenible de gestión y recu- peración de los materiales con los que están fabricadas las palas de los aerogeneradores para reutili- zarlos como materias primas se- Imagen 6. Desguace de aerogenerador [www.fernandocosano.es] 71Nº14. Junio de 2016 Imagen 5. Aerogenerador destruido debido a fuertes vientos . [www.occhiodisalerno.it ] ”- “El aprovechamiento de las palas recupera materiales como fibras de carbono con un valor añadido para aplicaciones dentro de la aeronáutica y de innovación importante.” REFERENCIAS Y BIBLIOGRAFÍA: - Asociación de empresas de energías renovables (APPA): < http://www.appa.es> - Asociación empresarial eléctrica (AEE): < http://www.aeeolica.org/es> - Iberdrola: < www.iberdrola.es> - Red eléctrica de España (REE): <http://www.ree.es/es/>.
  • 72.
    vencionales de gas).Pero en oca- siones, estas rocas presentan una baja permeabilidad, quedando el gas atrapado en ellas, no dando lugar a grandes bolsas de gas. (Reservas no convencionales de gas) Se puede observar en la imagen 2, la explotación mediantes po- zos; reservas convencionales, derecha; reservas no convencio- nales, izquierda. ¿Qué es el Fracking? La fracturación hidráulica hori- zontal (fracking en inglés) es una técnica de extracción que tiene sus orígenes a mediados del siglo pasado y cuya finalidad es liberar el gas natural atrapado en rocas de muy baja permeabilidad. La baja permeabilidad implica una interconexión de poros pe- queña o inexistente. La finalidad del fracking es producir pequeñas fracturas en la roca, de manera El gas natural se formó hace millones de años cuando una serie de organismos descom- puestos, como plantas y animales, quedaron sepultados en lo más profundo de océanos y lagos bajo lodo y arena. A medida que se fueron acumu- lando distintos sedimentos, se formaban capas de material a distinta profundidad. La presión ejercida por éstas capas más el calor de la Tierra, transformaron lentamente el material orgánico en gas natural y petróleo crudo. El gas natural se acumula en bol- sas entre la porosidad de las rocas subterráneas creando los conoci- dos yacimientos (Reservas con- FRACTURACIÓN HIDRÁULICA (FRACKING). EXPLOTACIÓN, ECONOMÍA Y MEDIO AMBIENTE. JOAQUÍN TORO NÚÑEZ. INGENIERO QUÍMICO INDUSTRIAL. 72 Nº14. Junio de 2016 Imagen 1. Instalación para la explotación de gas no convencional (Shale Gas). Fuente: http:// www.huffingtonpost.com/kassie-siegel/5-fatal-flaws_b_3308268.html Imagen 2. Pozos de extracción; Para reservas no convencionales de gas, izquierda; Para reservas convencionales de gas, derecha. Fuente: http://aaenvironment.blogspot.com.es/2013_03_01_archive.html
  • 73.
    ciones a travésde la tubería y el cemento hasta la roca que contie- ne los hidrocarburos. Se introduce agua a alta presión a través de los orificios provocan- do fisuras y grietas en la roca. Gracias a la adición de arena y aditivos al agua inyectada se favo- rece la inyección y penetración en la roca, así como se impide el cierre de las grietas una vez que se han abierto mediante la fractu- ración. El proceso de fracturación se realiza, normalmente, una sola vez durante la vida útil del pozo y suele durar entre tres y cinco días. Una vez terminado, se ex- trae el agua inyectada en el pozo así como los aditivos, agua e hi- drocarburo que acompañaban a la roca originalmente. Tras el va- ciado del fluido, el pozo está listo para la explotación del gas a lo largo de los años. Los beneficios de la fractura- ción hidráulica El desarrollo de la explotación de gas pizarra se ha visto impulsado en los últimos años como conse- cuencia de las crisis energéticas y conflictos internacionales. Esta situación ha desembocado en el aprovechamiento de fuentes de energía autóctonas, con coste competitivo, reducción de CO2 y creación de puestos de trabajo, para reducir la dependencia exte- rior y desarrollar la competencia que se aumente y favorezca esta interconexión, facilitando así que el gas fluya hacia el pozo y de ahí a la superficie. En definitiva, lo que pretende esta técnica es emular las condi- ciones que se presentan de mane- ra natural en los yacimientos de hidrocarburos. ¿Cómo se extrae? Primero, se ejecuta una perfora- ción vertical hasta el nivel donde se localizan las rocas de baja per- meabilidad que contienen los hidrocarburos. Una vez alcanza- do el nivel deseado, se perfora el pozo horizontalmente. A continuación, se introduce en el pozo, desde la superficie hasta el final, una tubería de acero. El espacio entre la tubería y el pozo se sella inyectando cemento, evi- tando de esta manera un posible contacto entre las rocas o acuífe- ros que se hayan atravesado. En el entramado de tuberías se intro- ducen dispositivos, que permiten realizar selectivamente perfora- Imagen 3. Sellado de una tubería de extracción en una instalación de Fracking. Fuente: http://www.laprensa.hn/ economia/thewallstreetjournal/879756-410/el-piso-del-petr%C3%B3leo-puede-estar-en-us20-el-barril-seg% C3%BAn-goldman 73Nº14. Junio de 2016 Imagen 4. Ilustración de las acciones llevadas acabo por el Fracking bajo tierra durante el proceso de explotación. Fuente: http://www.gasfieldfreemendip.org/wp-content/uploads/2014/07/Shale-gas- illustration-e1405504349683-1024x819.jpg
  • 74.
    Por ejemplo, comoconsecuencia del desarrollo del fracking en Es- tados Unidos, el precio del gas se ha reducido en un 50%. En la siguiente tabla se muestra la re- ducción en millones de dólares del gasto en combustible gracias a la utilización de shale gas en instituciones públicas como cole- gios o edificios gubernamentales de Estados Unidos. Un gran número de países ya emulan el estilo americano, mien- tras otros se oponen o dudan ante esta técnica por los posibles daños ambientales, razones co- merciales... España, lejos de presentar un potencial de recursos compara- bles al de países como Francia o Polonia, no es ajena al potencial que los mismos podrían aportar al país. Las reservas españolas son más que considerables teniendo en cuenta que se trata de un país con un elevado coste energético que importa el 99% de sus hidrocar- buros y que tiene casi seis millo- nes de parados. Fracking y Medio Ambiente Existe una guerra abierta entre detractores y partidarios de este método de extracción. Nada más local. El gas natural desempeña y desempeñará un papel principal en la transición entre el combus- tible fósil y las energías renova- bles. La explotación de nuevos recursos de gas no convencional está cambiando el mata energéti- co mundial actual. 74 Nº14. Junio de 2016 “Como consecuencia del desarrollo del fracking en Estados Unidos, el precio del gas se ha reducido en un 50%”- Imagen 5. Ahorro del gasto energético en colegios de educación primaria y secundaria en EEUU. Año 2012/2013. Fuente: AMERICAN PETROLEUM. INSTITUTE (API). (June 5, 2014) The Unconventional Energy Revolution: Estimated Energy Savings for Public School Districts and State and Local Governments. IHS Global Inc. Washington, D.C. Imagen 6. Recursos estimados de gas pizarra en España. Localización. Fuente: CONSEJO SUPERIOR DE COLEGIOS DE INGENIEROS DE MINAS. Gas no convencional en España, una oportunidad de futuro.
  • 75.
    mitigarlos” Shale gas Españaestable- ce las siguientes “10 re- glas de oro del fracking” para una producción lim- pia y sostenible: “Sellar todas las instalaciones de superficie con láminas im- permeables y asegurar el dre- naje hacia canales perimetrales de captura” “Tratar todos los fluidos del pozo tras la estimulación en tanques separadores para recu- perar el gas natural disuelto” “Instalar sondeos de control someros en los alrededores de la zona de perforación” “Instalar tuberías de revesti- miento reglamentarias para garantizar un alto nivel de seguridad” “En las zonas que atraviesen acuíferos subterráneos, utilizar tuberías de reves- timiento doble o triple para asegurar una completa estanqueidad del pozo respecto de las rocas atravesadas” “Seguir las mejores prácticas a la hora de diseñar, ejecutar y evaluar el proceso de cementación de tuberías” “Usar únicamente fluidos certificados tanto a nivel nacional como europeo” “Hacer un seguimiento en tiempo real de la actividad microsísmica durante el proceso de fracturación hidráulica, para controlar la expansión de la red de fracturas” “Utilizar tuberías de aleación resisten- tes que aseguren la resistencia a la co- rrosión a largo plazo” “Usar una válvula de cierre de subsue- lo para detener el flujo del pozo en la fase de producción si en algún momento se considera necesario” lejos de la realidad, la fractura- ción hidráulica presenta un grave riesgo para el medio ambiente siempre y cuando no se sigan y establezcan los estrictos controles de seguridad que imponen las normativas ambientales existen- tes. En el caso de España, una em- presa que quiera realizar un son- deo y explotación de gas pizarra ha de haber obtenido previamen- te los documentos exigidos en la normativa aplicable española y europea con una declaración de impacto ambiental positiva. “Para obtenerla, la promotora debe presentar un detallado Estudio de Im- pacto Ambiental (EAI), en el que se analizan uno por uno los posibles im- pactos en el medio ambiente y las medi- das que se tomarán para eliminarlos o 75Nº14. Junio de 2016 Imagen 7. Boletín Oficial del Estado por el que se establece la necesidad de adquirir un EIA. Fuente: https://www.boe.es/boe/dias/2013/12/11/pdfs/BOE-A- 2013-12913.pdf REFERENCIAS Y BIBLIOGRAFÍA: - CONSEJO SUPERIOR DE COLEGIOS DE INGENIEROS DE MINAS. Gas no convencional en España, una oportunidad de futuro. - AMERICAN PETROLEUM. INSTITUTE (API). (June 5, 2014) The Unconventional Energy Revolution: Estimated Energy Savings for Public School Districts and State and Local Governments. IHS Global Inc. Washington, D.C. Disponible en: http://www.energyfromshale.org/americas-energy - EASAC (European Academies’ Science Advisory Council). (2014). La extracción de gas pizarra (shale gas): aspectos de particular relevancia para la Unión Europea. Disponible en: http://shalegasespana.es/wp-content/ uploads/2014/11/Academias-Ciencias-Europa.pdf - Shale Gas España. Disponible en: http://shalegasespana.es/ - Colegio de Geólogos de Costa Rica. Disponible en: http:// www.geologos.or.cr/?p=23125
  • 76.
    LAS CRISIS DELPETRÓLEO Y LOS PROCEDIMIENTOS OPERATIVOS PARA EL AHORRO DE COMBUSTIBLE EN AVIACIÓN. JOSÉ EMILIO FERNÁNDEZ GARCÍA. INGENIERO TÉCNICO AERONÁUTICO ESPECIALISTA EN AEROMOTORES. 76 Nº14. Junio de 2016
  • 77.
    La producción depetróleo en el mundo. El país de mayor producción de petróleo es Estados Unidos con el 33% de la producción mundial; le siguen Venezuela y la URSS, cada una de ellas con el 14%. El cuarto puesto lo ostenta Kuwait con el 7%, al que si- guen Arabia Saudí (5%), Irán (4.5%), Irak (3.5%), Ca- nadá (3%), Indonesia (2.5%), México (1%), Rumanía (1%) y el resto de países productores suman el 12.5%. La producción de petróleo de la OPEP (Organización de Países Exportadores de Petróleo) es el 40% del total mundial; 26% de los países árabes y 14% de Venezuela. Hay que fijarse en que Kuwait produce el doble que Irak, aún sabiendo que Kuwait tiene una superficie de 17.812 kilómetros cuadrados y 182.000 habitantes, mientras que Irak tiene una superficie de 438.443 kiló- metros cuadrados y 15.500.000 habitantes. La crisis del petróleo por elevación de su precio. Es sabido que los avatares del precio del petróleo tie- nen principalmente sus orígenes en acontecimientos acaecidos en los últimos 50 años aproximadamente en los países árabes, derivados de su “status” geopolítico y económico. El 17 de noviembre de 1956 se racionaba en la Europa Occidental la gasolina y el gasóleo, a cau- sa de las limitaciones impuestas por los países árabes, quienes por primera vez hicieron saber que monopoli- zarían la salida de crudo de esos países a un precio co- mún fijado de acuerdo entre ellos. El 16 de abril de 1959 se celebra la Primera Conferencia Árabe, para estudiar la fijación del precio del petróleo. El 10 de septiembre de 1960 se inauguraba en Bagdad la primera reunión de los Países Explotadores de Pe- tróleo y, en esa fecha, se decidió crear una organización multinacional que englobara a todos aquellos países, y cuya denominación fue la OPEP (Organización de Paí- ses Exportadores de Petróleo). Los miembros funda- dores fueron Irak, Irán, Qatar, Arabia Saudí, Kuwait, Libia y el único país integrante ajeno al mundo árabe: Venezuela. Los años 1967 y 1973 son claves en la evo- lución de la subida del precio del petróleo: del 5 al 10 de junio de 1967 tiene lugar el conflicto bélico arábigo- israelí conocido como la Guerra de los Seis Días, y del 6 al 20 de octubre de 1973 sucede la Guerra del Yom- Kippur, por la que los países árabes se proponían recu- perar los territorios ocupados por Israel en 1967. Tras la Guerra de los Seis Días los países árabes deci- dieron suspender por un amplio período de tiempo los suministros de crudo a los países que ya habían ayuda- do a Israel en esta guerra; entre ellos estaban Gran Bre- taña y los Estados Unidos. 77Nº14. Junio de 2016 Imagen 1. Evolución del precio del barril de petróleo.
  • 78.
    Coincidiendo con elfinal de la Guerra de Yom- Kippur, tras aceptar los contendientes las propuestas de la ONU, la OPEP multiplicaba casi por tres el pre- cio del barril de petróleo, fijándolo en 3.45$ el barril. Empezaba así la escalada del precio del petróleo, cuya evolución puede seguirse en el gráfico de la Imagen 1. Los precios hasta 1989 corresponden a los fijados por la OPEP, y el de 1990 al precio del barril de BRENT del Mar del Norte. El precio del Keroseno para aviación. Viendo la Imagen 2, podemos seguir su evolución en 20 años, desde 1971 hasta 1990, en donde puede compa- rarse con el precio de un litro de petróleo, cálculo este que, obviamente, hemos hecho teniendo en cuenta la capacidad de un barril en litros, y la cotización del dó- lar en ptas., para cada uno de los años del estudio. Como puede observarse, en términos relativos precio del Keroseno/precio del petróleo, la década de los 70 se caracterizó por un índice moderado de esa relación, que empezó a dispararse a partir de 1980 y de forma mas acusada a partir de 1983, siendo el índice relativo mas elevado el correspondiente a 1988 que alcanzó 2.39. Medidas adoptadas por el transporte aéreo ante la elevación del precio del keroseno. Cuando en el otoño de 1973 el precio el barril de pe- tróleo era fijado por la OPEP en 3.45$ el barril, y el precio del keroseno aviación alcanzaba 2.29 ptas./litro (en España), ello supuso para la aviación comercial un primer toque de atención, aun cuando el precio del petróleo resultaba incrementado respecto al año 1972 en un 164% y el del keroseno aviación lo era tan solo en un 5%. Ahora bien, pronto a partir de 1974 la escalada de pre- cios sería espectacular, y ya ese año el precio del petró- leo aumentaba respecto de 1973 en un 160% y en un 144% el keroseno. La reacción mundial a la crisis energética en el trans- porte aéreo, por la elevación del precio de combustible –que sería imparable hasta mediada la década de los 80 – fue en aquel entonces actuar en cuatro campos clara- mente diferenciados: directrices de la Organización Civil Internacional (OACI); mediadas de las compañías aéreas; nuevos proyectos de aviones por la industria aeronáutica, e investigación sobre nuevos combustibles y nuevas fuentes de energía. El consejo de la OACI aprobaba, en septiembre de 1974, una resolución que enviaba a todos los estados contratantes en la que recomendaba adoptar medidas para ahorro de combustible, siendo la primera, por la posibilidad inmediata de su aplicación, la de examinar los procedimientos operativos. Las compañías aéreas respondieron inmediatamente a las recomendaciones de la OACI y, aun cuando los tiempos de vuelo pudie- ran resultar mayores por la reducción de empuje en los motores, esto podía ser paliado e incluso absorbido por la reducción, cuando fuera posible, de las distancia Nº de Imagen. Explicación. Si la imagen no es original nuestra debemos poner: Ref: el origen, la web, el libro, etc. 78 Nº14. Junio de 2016
  • 79.
    o hundidos, superficiesonduladas, muescas… Como dato significativo exponemos que por ejemplo una flota de 20 aviones DC-9, cada uno de los cuales fuese afectado por deterioro de aquellos componentes con un incremento de resistencia aerodinámica del 1%, ello supondría un aumento del coste de la operación de 300 mil euros anuales, en el supuesto de utilización de cada avión 2500 horas/año, un consumo horario de 3300 litros/hora y un precio de keroseno de 0.18 eu- ros/litro. Este incremento del 1% de la resistencia ae- rodinámica es considerado muy conservativo, pues lo normal es que oscile entre el 1.5% y el 2% tras 6 años de operación de los aviones. De forma mas directa afecta el combustible consumido por las unidades de energía auxiliar APU (Auxiliary Po- wer Unity), durante las operaciones en tierra, dados los elevados consumos que ello conlleva. Pueden contras- tarse estos consumos con el de los motores a marcha lenta en rodajes de prevuelo y postvuelo y el consumo por hora bloque como muestra la Imagen 3. Una medi- da eficaz es restringir la utilización de las unidades APU, sustituyendo su función cuando se trata de car- gas eléctricas por unidades auxiliares de tierra GPU (Ground Power Unity), o hacer uso de las instalaciones aeroportuarias de energía eléctrica. Téngase en cuenta que, tomando por ejemplo la ener- gía eléctrica de 10 kw/hora en el avión, serían necesa- rios 100 litros de keroseno utilizando el APU, en tanto son necesarios 7 litros de combustible Diesel utilizando GPU; y si se hiciera uso de las instalaciones eléctricas aeroportuarias, sería necesarios solamente 11 kw/hora, dado que el rendimiento de transformación para la uti- lización en el avión es del orden del 91%. de vuelo, que también manifestaba la OACI, podría conseguirse aplicando nuevos procedimientos de nave- gación aérea y de control de tránsito aéreo. En el año 1986 bajan espectacularmente los precios del petróleo y del keroseno (Imagen 2), y nada hacía prever que cua- tro años después, en 1990, había que hacer revivir me- didas como las de 1974, aun cuando ahora se vayan a aplicar también a nuevas flotas de aviones, que empe- zaron a diseñarse a partir de aquellas recomendaciones de la OACI y que responden al desarrollo de aviones del programa AEEP (Aircraft Energy Efficiency Program) y del subprograma EEE (Energy Efficiency Engine), de la NASA, aviones estos que consumen aproximadamente entre un 20% y un 30% menos que los de la genera- ción precedente. A continuación se exponen los puntos clave incidentes en la economía de combustible, siguiendo la secuencia de las distintas fases de vuelo de un avión comercial, y hacer referencia a modo de ejemplo los resultados en dos aviones: uno pequeño, el DC-9; y otro grande, el Boeing 747. Las operaciones en tierra para ahorro de combus- tible. Son de hacer destacar aquí los trabajos para mantener “limpio” el avión –aerodinámicamente hablando– fac- tor que influye de forma destacada en la disminución del consumo de combustible. Durante la vida en servicio del avión, la resistencia ae- rodinámica tiende a aumentar por efecto de las defor- maciones, aparentemente pequeñas, en componentes tales como: puertas, ventanas, paneles de acceso, ante- nas, carriles de flaps, limpia-parabrisas, articulaciones de control de mandos de vuelo y dispositivos hipersus- tentadores, así como pérdida de hermeticidad de las juntas en zonas presurizadas, rugosidades en a superfi- cie del avión por golpes en tierra o choques en vuelo con pájaros, lo que motiva una distorsión del flujo de aire en las proximidades de la superficie, que pasa de régimen laminar a régimen turbulento, especialmente cuando en dicha superficie existen remaches resaltados 79Nº14. Junio de 2016 Imagen 3. Datos de consumos de combustible. “Las guerras de los Seis Días y de Yom-Kippur hicieron que se incrementaran los precios alrededor de un 160%”-
  • 80.
    En todo caso,podemos decir que la proporción de costes entre utilizar instalaciones aeroportuarias/GPU/ APU es aproximadamente 1/1.6/4.5. Despegue. Cuanto más bajo sea el ajuste de flaps para el despegue, el consumo de combustible en esta fase será menor, y por ello debe considerarse, cuando el peso del avión y la longitud de pista lo permitan, el hacer uso de ajuste de flaps bajo, si bien es de tener en cuenta que tiene sus ventajas y sus inconvenientes; ventajas como ser mayor el gradiente de subida en el caso del fallo de un motor, e inconvenientes como el ser mayor la veloci- dad de despegue y más crítico el aborto de despegue, aun cuando seguro si se cumplen las premisas iniciales peso de avión/longitud de pista. En el DC-9-30 se ahorran 15 libras de combustible despegando con 5º de flap respecto con 15º de flap; ahorro pequeño. Otro procedimiento de economía en la operación de despegue, aun cuando sea con un ligero aumento del consumo de combustible, es despegar con empuje re- ducido, siguiendo la norma aprobada por la FAA en la orden 8000-39 del 15 de mayo de 1977, por la cual se admite una reducción hasta del 25% del empuje máxi- mo al despegue siempre que sea posible hacer tal re- ducción por el método de la temperatura equivalente, que consiste en determinar en primer lugar la tempera- tura máxima ambiental a la que se puede despegar para un peso de avión determinado y ajustar los motores a la relación de presiones EPR (Engine Pressure Ratio), o revoluciones N (según el parámetro funcional del mo- tor), a las condiciones de esta temperatura. Lo normal es aplicar no más del 10% de reducción de empuje, por este procedimiento. Despegar con EPR o N más bajos resulta en tale con- diciones un ligero aumento del consumo de combusti- ble, aumento que puede determinarse haciendo uso de las curvas de operación de los motores que proporcio- nan el consumo, en función de EPR o N, teniendo en cuenta como parámetros el número de Mach de despe- gue, la temperatura ambiente y la presión de altitud de campo. La economía final que se obtiene con este procedi- miento, es a largo plazo, en tanto con esa reducción de empuje, se alcanzan menores temperaturas en las turbi- nas y en toda la zona caliente del motor, alargando su vida en servicio y el consiguiente tiempo entre revisio- nes, siendo de destacar una menor degradación del au- mento del consumo específico de combustible con el aumento de las horas de operación. Subida. La diferencia de combustible consumido para alcanzar un determinado punto del tramo de crucero, subiendo directamente a él, o alcanzando dicho punto con un tramo parcial de crucero en régimen de largo alcance, resulta beneficiosa por el segundo procedimiento, es- pecialmente en aviones grandes con motores de empu- je elevado. Hablando de las velocidades óptimas para alcanzar pronto el nivel de crucero, podemos decir que en el caso del DC-9 no hay una diferencia muy significativa, aun cuando se separe de la velocidad óptima, mientras que el B-747, despegando con 720.000 libras y subien- do a nivel de crucero 310, el consumo de combustible es aproximadamente 22.000 libras si se vuela a la velo- cidad óptima de 323 nudos (IAS), pudiendo ser del 2% más, esto es 22.400 libras si se vuela a 290 nudos, invir- tiendo en la subida aproximadamente 2 minutos mñas con esta menor velocidad. Crucero. Los tres modos de vuelo de crucero para máximo aho- rro de combustible son: a altura constante el de “Long Range” y el de Mínimo Coste; y a altura variable el de Máximo Radio de Acción a Mach Constante. El de “Long Range” altura constante, se obtiene volan- do continuamente a unas velocidades que proporcio- nan el máximo alcance específico para cada peso del avión y por lo tanto, la velocidad puede ser cada vez menor, a medida que transcurre el vuelo, lo que exige una disminución de empuje de los motores. El modo de vuelo de crucero para mínimo coste de la operación exige que los costes directos por hora de vuelo estén perfectamente definidos. La velocidad a la cual los costes de la operación (conceptos dependien- tes de la velocidad y el coste de combustible) son míni- mos, resulta ser a un número de Mach constante, supe- rior al “Long Range”, sin llegar a la gama de alta veloci- dad. El vuelo de crucero subiendo a Mach constante, para máximo radio de acción sería el procedimiento óptimo de crucero, si las regulaciones de tráfico permitieran al avión variar continuamente de altura, por lo que en grandes distancias deben hacerse tramos de crucero a alturas escalonadas, pudiendo así obtener ventajas 80 Nº14. Junio de 2016
  • 81.
    como de unaumento del alcance específico, cuando el avión disminuye de peso un 10%. Posición del CDG (Centro de Gravedad). El adelanto o el retraso del c.d.g. del avión (siempre dentro de los límites permisibles) incide en el consumo de combustible, llegándose a la conclusión de que re- trasar el c.d.g. favorece para tener menor consumo. El aumento del consumo de combustible también se debe al excesivo peso no necesario, como puede ser transportar mayor combustible de reserva que el espe- cificado, lo que da lugar a mayor resistencia aerodiná- mica, especialmente la resistencia inducida, sobre todo cuando el avión inicia el vuelo con peso muy alto. Descenso. El factor más importante, incidente en la reducción del consumo de combustible en el descenso, es hacer uso del empuje con motores a marcha lenta, a una veloci- dad determinada, a partir de un punto óptimo de la ruta. Como en el caso de la subida, hay unas velocida- des óptimas para descender con el consumo mínimo. La penalización en que puede incurrirse por iniciar un descenso prematuro o tardío, respecto del punto ópti- mo es de aproximadamente 80 litros para el DC-9 y 290 litros para el B-747, cuando el descenso se inicia 10 millas náuticas antes o después del punto óptimo. Aproximación. El procedimiento más adecuado para la reducción del consumo de combustible en esta fase del vuelo es el de la secuencia de “baja resistencia-bajo empuje”.  Mantener el avión limpio aerodinámicamente todo el tiempo que sea posible, antes de inter- ceptar la senda de planeo.  Iniciar la senda de planeo con un mínimo ajuste de flaps hasta una determinada altura (próxima a los 1000 pies), por encima de punto de contacto con la pista. Aterrizaje. El ahorro de combustible sin utilizar la “reversa” de- pende del peso al aterrizaje, si bien razones de seguri- dad hacen preceptivo su utilización y además, por otro lado, la no utilización de la reversa, llevaría implícito el aumento de los costes de mantenimiento de los frenos, dado que la absorción de la energía de frenado tendría que ser a costa de ellos. REFERENCIAS Y BIBLIOGRAFÍA: - CUESTA ÁLVAREZ, Martín. Motores de reacción. Paraninfo, novena edición, 2001. - ARJONA ANTOLÍN, Ricardo. Combustibles alternativos en automoción. Editoriales Dossat, 2000. - MARTÍN CABEZA, José Antonio. Descubrir los motores de aviación. Aena. - www.airline92.com - www.pasionporvolar.com - www.manualvuelo.com 81Nº14. Junio de 2016
  • 82.
    Introducción Las energías renovableshan empezado a ser un tema muy importante en las dos ultimas décadas. En el caso de las células solares, la eficiencia optima es afectada principalmente por tres factores: la eficiencia de la ce- lula solar ( en células comerciales esta entre el 8-15%), la eficiencia del inversor (95-98%) y la eficiencia del MPPT (el cual esta sobre el 98%). La mejora de las células solares y los inversores no es tarea fácil y con- lleva muchos gastos, sin empargo, mejorando el loga- ritmo del MPPT se pueden reducir. Esto permite a los investigadores mejorar y desarrollar mejores algoritmos MPPT para el entendimiento del comportamiento de las células solares sometidas a diferentes condiciones. Objetivo El articulo se basa en una simulación sobre células so- lares, estimando los diferentes parámetros I-V caracte- rísticos de una celula solar con respecto a los cambios medioambientales que pudieran afectar al panel (temperatura e irradiacion) y a los parámetros de la ce- lula (resistencia parasita y factor ideal). Esta ejercicio es ideal para analizar el desarrollo del MPPT (Seguidor del punto de máxima potencia) algoritmo. Para desarrollar este análisis usaremos la ecuación del diodo de Sho- ckley y los bloques de simulink para PV desarrollados por Matlab. OPTIMIZACION DE CELULAS SOLARES FOTOVOLTAICAS CON MATLAB/SIMULINK. ANTONIO FLORES CABANILLAS. INGENIERO INDUSTRIAL 82 Nº14. Junio de 2016 Imagen 1. Representación de la idea de una célula fotovoltaica.
  • 83.
    ra. El diododetermina los parámetros I-V de la celula. El diagrama del circuito de la celula solar se muestra en la figura 1. Esta representación es obtenida después de considerar los siguientes parámetros:  La dependencia de la temperatura en la satura- ción del diodo Is  La dependencia de la temperatura de la fotoco- rriente Iph  Resistencia serie Rs (Perdida interna debido al flujo de corriente) la cual se maximiza entre el punto de máxima potencia y el punto de circuito abierto  Resistencia por derivación Rsh, en paralelo con el diodo, esta corresponde a la fuga a tierra de la corriente Las ecuaciones que definen el modelo de una celula solar es dado por: Posteriormente se explicaran estas ecuaciones y se usa- ra la nomenlatura numérica del 1-8 para hacer referen- cia. En la figura 2 se muestra las características de la curva I-V. La corriente de red es oftenida de la fotocorriente Iph y de la corriente del diodo Id. El comportamiento de las células solares: Una simple celula solar consite en la unión de estados solidos p-n fabricados desde un material semiconduc- tor (Silicio). En la oscuridad, los parámetros I-V carac- teristicos de una celula solar tiene el comportamiento exponencial que se muestran en los diodos convencio- nales. Sin embargo, cuando la energia solar (fotones) inciden en la celula solar, la energia absorbida en este periodo es mucho mayor que la banda prohibida (bandgap) del semiconductor, y la liberación de los electrones sobre el material semiconductor crea huecos de electrones por pares. El portador cargado es movi- do aparte bajo la influencia de campos eléctricos inter- nos de la unión p-n y por lo tanto una corriente pro- porcional es desarrollada para el fenómeno de la radia- ción fotonica. Este fenómeno es llamado efecto foto- voltaico, la primera vez observada por A.E Becquered en 1839. Cuando la celula esta cortocircuitada, esta co- rriente fluye a través del circuito externo, pero cuando el circuito se abre, esta corriente se deriva internamen- te por la unión p-n intrínseca del diodo. Para comple- tar el modelo, una carga variable es conectada a un cor- tocircuito externo. El modelo de una celula solar: El circuito mas simple para representar una celula solar es una fuente decorriente paralela con un diodo. La salida de la fuente de corriente es directamente propor- cional a la energia solar (fotones) que inciden en la ce- lula solar (Fotocorriente Iph). Durante la oscuridad, la celula solar no es un dispositivo activo; es decir trabaja como un diodo (unión p-n). Esto produce tanto una corriente como un voltaje. Sin embargo, si se conecta a una fuente externa (Gran voltaje) genera una corrien- te Id , llamada corriente del diodo (D) o corriente oscu- Imagen 2. Representacion electrónica de una celula solar. 83Nº14. Junio de 2016
  • 84.
    aumenta logarítmicamente conla irradiación ambiental, donde el cortocircuito de corriente es una función li- neal de la irradiación. El efecto prominente con el in- cremento de la temperatura de la celula PV es la dismi- nución linear del circuito abierto de voltaje, por lo tan- to hace a la celula PV menos eficiente. El corto circuito de coeficiente incrementa levemente con la temperatu- ra de la celula. Consideración de los parámetros ambientales y pará- metros de la celula PV: Parametros ambientales (temperatura e irradiacion): La influencia de la temperatura en la celula “T” y la irradiación ambiental “G” en las características de la celula puede ser obtenida desde los modelos de ecua- ción. De la ecuación numero 7 la foto-corriente Iph (A) es una función de la irradiación ambiental (G)”W/m2” y desde la ecuación numero 2 la temperatura de la celu- la Top (K) tiene una disminución lineal de la Voc. A condiciones estándar (G=1 “kW/m” con una distribu- ción espectral de AM=1.5; Top=25ºC) Iph=Isc desde la ecuación numero 7 la cual tiene la corriente mas gran- de, desde la Tref=25ºC para todas las condiciones test. Desde la ecuación numero 7 como G incrementa la Iph incrementa pero desde la ecuación numero 2 como la Top incrementa la Voc disminuye. La influencia de kl, la cual es el cambio en el panel Isc por ºC a temperaturas distintas a 25ºC, en la ecuación numero 7 es mayor cuando Top cambia desde Tref (=25ºC). Parametros de la célula (resistencia parasitaria y factor ideal): Los efectos resistivos en las células solares reducen la eficiencia de la celula por la disipación de la potencia en las resistencias. Las resistencias parasitarias más co- munes son series de resistencias y derivación de resis- tencias las cuales tienen como clave de impacto reducir el factor de llenado. Tanto, la magnitud y el impacto de series y la derivación de la resistencia dependen de la geometría de la celula solar y del punto de operación de la celula solar. Este se mide en ohm*cm2. Para una condición ideal del diodo, Rs=0 y Rp=∞. La resistencia en serie Rs en una celula solar tiene tres causas:  El moviento de la corriente atraves del emisor y la base  El contacto resistivo entre el metal y el silicio  La resistencia por todos los contactos metálicos Curva de la celula solar: Una curva I-V característica de una célula solar para una irra- diación dada “G”, la cual tenga una célula de temperatura fija “T”, se muestra en la figura 3. Para una cierta resistividad de carga, la carga característica viene dada linealmente por la ley de Ohm V=IR . La potencia entregada por la carga depende direc- tamente de la resistencia. En algunos casos si la resistencia de carga es muy pequeña; La celula PV opera entre las regiones M- N de la región de la curva I-V como se muestra en la figura 3, la celula PV actua como fuente de corriente constante, la cual casi equivale a un corto cirtuito de corriente. Sin embargo, si la R de carga es grande, la celula PV operara en la región P-S de la curva I-V, la celula PV actua como una fuente de voltaje cons- tante casi equivalente a un circuito abierto de voltaje. Una celu- la PV se caracteriza por los siguientes parámetros fundamenta- les: 1. Corriente de cortocircuito: Isc = Iph (El mayor valor de la corriente generada por la celula PV, la cual es produ- cida en la condición de corto circuito: V=0). 2. Circuito abierto a voltaje Vcc es la caída de voltaje a tra- vés del diodo D cuando se genera una corriente I=0. Es el voltaje que la celula PV de noche y viene dado por la ecuación número 2º. 3. Punto de potencia máxima “A” (Imax, Vmax) , como se muestra en la figura 3,donde la potencia disipada en la carga resistiva es máxima: Pmax=Vmax*Imax 4. La máxima eficiencia es el ratio de máxima potencia y la energia solar incidente (fotones). Ƞ=Pmax/Pin= Vmax*Imax/AG donde, G es la irradiación y A es el área de la celula PV. 5. Factor de llenado (FF) es un ratio de la potencia máxi- ma que puede ser entregada a la carga y la máxima po- tencia teorica que es el producto de Isc y Voc. FF=Pmax/ Voclsc= Vmax*Imax/Voclsc. FF es una medida de las carac- terísticas I-V cuyo valor es mucho mayor que 0.7 para una buena celula PV. Sin embargo, el FF se reduce cuando la temperatura de la celula se incrementa. El circuito abierto de voltaje 84 Nº14. Junio de 2016 Imagen 3. Representación de la curva característica I-V de una célula PV.
  • 85.
    El método mascorrecto para estimar las resistencias en serie desde la célula solar es encontrar la rampa de la curva I-V en el punto Voc. Significa perdida de poten- cia debido a la presencia de una resistencia derivada Rp debido a los defectos de fabricación. Una estimación del valor de la Rp de una célula solar puede ser determi- nado por la rampa de la I-V curva cerca del Isc punto. El factor ideal n de un diodo es una medida de como esta de cerca un diodo de seguir la ecuación ideal de los diodos. El ecuación del diodo ideal asume que toda la recombinación ocurrida de banda a banda o recombi- nación de la malla en la zona “n” del diodo desde el dispositivo (es decir en la unión). Sin embargo, la re- combinación ocurre en otros caminos y en otras áreas del dispositivo. Esta recombinación produce factores ideales n que se desvían del ideal. Simulación de la célula solar en Simulink/Matlab: En la figura 4 se muestra el modelo de configuración que se quiere simular en Simulink/Matlab, para co- menzar con el proceso se comienza haciendo una pri- mera aproximación por bloques e introduciendo los primeros parámetros que se mencionaron en las ecua- ciones de la sección “El modelo de una célula solar”, como se muestra en la figura 5. 85Nº14. Junio de 2016 “La eficiencia máxima actual de las placas solares convencionales llega tan solo al 22%”- Imagen 4. Estructura Stand Alone Off-Grid. “América Publishers”. Imagen 5. Simplificación del la configuración de un panel solar.
  • 86.
    Por ultimo secomenzara a desarrollar el diagrama de bloques y a introducir los parámetros en Simulink/ Matlab. Como se muestra en la figura 6. El experimento comienza variando los parámetros, G,Rs,Top,Rp y n. A continuación se mostraran graficas variando cada uno de los parámetros mencionados, de las cuales deduciremos los valores optimos de la celula solar. Una vez definidos los bloques que se va a usar en la simulación comenzamos a obtener datos de las tablas características del fabricante de la placa solar que vaya- mos a optimizar. Características Especificaciones Pico de potencia (Pmpp) 60 W Pico de voltaje (Vmp) 17.1 V Pico de corriente (Imp) 3.5 A Cortocircuito a voltaje (Isc) 3.8 A Circuito abierto a volta- je (Voc) 21.1 V Cof. de temperatura de circuito abierto (Kv) -(80+10)mV/ºC Cof. de temperatura de cortocircuito (Ki) (0.065±0.01)%/ºC Efecto de la temperatu- ra en la potencia -(0.5±0.015)%/ºC Rango de temperaturas de trabajo (NOCT) 47±2ºC Parametros Calculo de valores Is 2.002 x 10-7 A Iph 3.8 A Rs 0.180 Ω Rp 360.002 Ω n 1.360 86 Nº14. Junio de 2016 Imagen 8. Simulación de bloques para una célula solar en Simulink/Matlab.
  • 87.
    Si observamos lasgraficas y lo explicado en el apartado “Curva de la celula solar”, junto con las ecuaciones del apartado “El modelo de una celula solar” obtenemos que las condiciones propicias son las siguientes: Según las graficas se puede deducir que las condiciones donde se puede obtener el punto máximo de potencia para el panel PV, son: G=1000, Top=25ºC, A.M=1.5, RS=0.18 Ω, RP=360 Ω y n=1.36. Por lo que el fabri- cante de estos paneles considerara estas características para obtener el máximo rendimiento. REFERENCIAS Y BIBLIOGRAFÍA: Coombs’ Printed Circuit Handbook. Fith edition. Mc Graw-Hill handbooks, Clyde F. Coombs Printed circuit boards. Desing, Fabrication and Assembly. Mc Graw-Hill electronic engineering. R.S. Khampur Fabricating Printed circuit boards, Elsevier Science, Newnes. 87Nº14. Junio de 2016 Parámetros Calculo de valores Pico de potencia (Pmpp) 59.39 W Pico de voltaje (Vmpp) 21.07 V Pico de corriente (Vmpp) 3.79 A
  • 88.
    aceptarse como hechosinevitables pues, en realidad, son previsibles y evitables. Se dispone de información sobre los principales riesgos para los peatones, que abarcan un amplio abanico de factores tales como el comportamiento de los conductores, en especial en lo referente a la velocidad y a la conducción bajo los efec- tos de la bebida; las infraestructuras en cuanto a la falta de instalaciones específicas para peatones como aceras, pasos de peatones y arcenes elevados; y el diseño de vehículos con partes delanteras cuya solidez puede in- tensificar la gravedad de los golpes sufridos por even- tuales víctimas de atropello. Los peatones corren mucho mayor riesgo que los con- ductores y pasajeros de vehículos. Según una investiga- ción realizada por el Consejo Europeo de Seguridad Vial, el riesgo de un peatón de perder la vida en com- paración con el de una persona que viaja en automóvil, es 9 veces mayor (Figura 1). Los sistemas de protec- ción de peatones tienen como objetivo reducir las ci- fras de siniestralidad a partir del desarrollo de sistemas que eviten el accidente (seguridad activa) o que minimi- cen las consecuencias una vez producido el siniestro (seguridad pasiva). Los peatones son los elementos más vulnerables de la circulación. Cada año, en to- do el mundo, más de 270 000 peatones pierden la vida en la vía pública. A escala mundial, los pea- tones represen- tan el 22% del total de defun- ciones por accidentes de tráfico, y en algunos países la proporción alcanza un 66%. Además, otros millones de transeúntes sufren traumatismos a causa de acciden- tes relacionados con el tráfico, y algunos de ellos se ven afectados por una discapacidad permanente. La capacidad de hacer frente a la seguridad peatonal es un componente esencial del trabajo dedicado a la pre- vención de los traumatismos ocasionados por acciden- tes de tráfico. Tal y como ocurre con otros accidentes de esta índole, las colisiones con peatones no deberían SISTEMAS DE DETECCIÓN DE PEATONES JOSÉ VICENTE JURADO RODRÍGUEZ. I. DE TELECOMUNICACIÓN 1. La siniestralidad de los peatones es 9 veces mayor que la de las personas que viajan en automóvil. Ref.: www.elmundo.es 88 Nº14. Junio de 2016
  • 89.
    permite distinguir entrelos antes citados sistemas de seguridad activa o primaria y sistemas de seguridad pa- siva o secundaria. La seguridad primaria hace referen- cia a aquellos sistemas diseñados para evitar que ocurra el accidente, mientras que la seguridad secundaria com- prende a los sistemas diseñados para minimizar las consecuencias del accidente en el caso de que éste fi- nalmente no pueda ser evitado. Como principales siste- mas de seguridad primaria se pueden citar los sistemas de asistencia a la frenada, la mejora de la visibilidad nocturna y la detección automática de la presencia de peatones en la escena. Entre las mejoras en los siste- mas de seguridad secundaria destacan el desarrollo de nuevos materiales para el frontal de los vehículos, la propia estructura de los capós, los parachoques delan- teros y, los más recientes, los capós activos y los air- bags para peatones. La seguridad en los vehículos se ha enfocado tradicio- nalmente como una minimización de los efectos del choque. Siendo indudable su enorme impacto positivo en la disminución del número de afectados y en la se- veridad de las lesiones, ahora se pone el énfasis en evi- tar el accidente y, si éste se produce, qué medidas tie- nen que actuar durante los primeros milisegundos para minimizar los daños. La organización para la seguridad europea Euro NCAP ha introducido un nuevo test para comprobar si los vehículos son capaces de detectar y prevenir colisiones con los peatones de forma automática. (Figura 3). Las medidas que se están imple- mentando en la actualidad, como capós que se elevan (Figura 2) o airbags exter- nos, están dirigi- das a disminuir la peligrosidad del accidente, pero son medi- das que se toman una vez que el accidente ha comenzado a producirse. Como conse- cuencia, se hace cada vez más hincapié en el concepto de seguridad activa, lo que se entiende por dotar al vehículo de sistemas inteligentes que predigan y eviten accidentes que el conductor por sí solo no puede con- trolar. El paso intermedio lo constituyen los Sistemas Avanzados de Asistencia a la Conducción (ADAS) que, sin llegar a tomar control del vehículo, avisan al con- ductor con suficiente antelación, de un posible peligro. Los sistemas de protección de peatones hacen referen- cia a la incorporación de las tecnologías más avanzadas en el vehículo, con el fin de proteger a los ocupantes de éste, así como a otros usuarios especialmente vulne- rables de la vía. Un análisis sobre los principales sistemas aparecidos en los últimos años para la protección de los peatones, 2. Sistema de elevación de capós para proteger al peatón del impacto. Ref.: www.elmundo.es 3. Test EURONCAP de atropello de peatones. Ref.: www.conduceseguro.com 89Nº14. Junio de 2016
  • 90.
    los utilizados enlas cintas de fabricación) o sistemas donde la interacción hombre-máquina es crucial (como ocurre en aplicaciones de videoconferencia) y, por su- puesto, sistemas de detección de peatones. La mayor parte de los trabajos relacionados con la detección de la forma humana en entornos saturados, vienen de es- tudios realizados sobre sistemas de vigilancia automáti- cos. A continuación podremos ver las aplicaciones reales que ya se están implementando en la industria del automóvil. Mercedes “Pre-Safe Brake” con sistema de detec- ción de peatones. Reconocer formas humanoides es muy fácil para los seres humanos, pero muy difícil, por el momento, para los sistemas de visión por computador. Esto es parti- cularmente cierto en los entornos urbanos altamente desordenados y usando cámaras móviles. La gran varia- ción en apariencias, oclusiones, luz y diferentes posi- ciones y distancias presentan problemas difíciles en la detección de peatones. Hacer todo esto en tiempo real representa un reto. Mercedes (Figura 5) combina dos sistemas diferentes para la detección de peatones: un radar montado en la parte delantera del coche y una cámara estéreo coloca- da sobre el espejo perfectamente calibrada. Consiste en un sistema de radar de largo, medio y corto alcance, controlando la zona delantera del vehículo. La cámara estéreo consiste en un sistema con un rango general de 500 mm, pero con una capacidad 3D de 50m. Los sistemas de detección de pea- tones basados en visión (Figura 4), pueden jugar un papel destacado dentro del ámbi- to de seguridad vial de los próxi- mos años. El elemento funda- mental estos siste- mas es la cámara embarcada en el propio vehículo, ya que proporciona la información del entorno en base a la cual se decide si existe o no riesgo de colisión. Esta respuesta es induda- blemente muy valiosa para la creación de sistemas de seguridad para automóviles. Este tipo de aplicación es atractiva tanto para los fabricantes como para los usua- rios finales. Los primeros, están interesados en vender productos con un alto valor añadido y los últimos, desean comprar vehículos más seguros. Como conse- cuencia, no es de extrañar que para resolver el proble- ma de la detección de peatones, la visión artificial haya recibido en los últimos años un creciente número de adeptos. De hecho, la detección de peatones basada en visión para aplicaciones de automoción es, en la actua- lidad, una de las tareas de investigación en ITs más candente. La tendencia de los últimos años así lo con- firma, ya que la mayoría de los sistemas de detección de peatones hacen uso de alguna cámara. Los sistemas de detección basados en visión son difíciles de implementar debido a las características de los pro- pios elementos que forman parte de la escena. En cuanto a detección de per- sonas basada en visión se refiere, se han desarrollado varios sistemas tanto basados en visión monocular como estéreo. En la última década, discipli- nas muy diversas han tratado de anali- zar el movimiento humano empleando una o dos cámaras, dando lugar, por ejemplo, a sistemas de vigilancia (para controlar la entrada en los parkings, aeropuertos, etc.), sistemas para reali- zar diagnósticos médicos (derivados del análisis de la forma de correr o caminar), sistemas de control (como 5. Sistema de detección de Mercedes. Ref.: www.diariomotor.com 90 Nº14. Junio de 2016 4. Sistemas de visión inteligente. Ref.: www.uc3m.es
  • 91.
    El sistema devisión estéreo consiste en dos cámaras con una distancia fija. La comparación de las imágenes de ambos permite crear un modelo 3D de lo que se está capturando mediante triangulación trigonométrica. Usando la información de profundidad como referen- cia, la visión estéreo puede eliminar los efectos de las sombras, identificar objetos tanto móviles como estáti- cos, y distinguir rápidamente diferentes objetos que no están en el mismo rango de distancia de las cámaras. Es muy interesante el uso de radares para complemen- tar la visión estéreo, porque está mucho menos in- fluenciado por las condiciones del entorno. El radar consiste en dos componentes principales, un sensor de radar y una unidad de procesamiento de señales. La principal ventaja del radar es que permite detectar obje- tos en diferentes rangos, sin los problemas del entorno, donde las imágenes de radar son difíciles de procesar debido a su resolución. En cualquier caso, permite pro- cesar volúmenes, formas, distancias y velocidades. Con esta información también permite crear clasificadores y procesar las imágenes por una DNN (deep neural net- works, redes neuronales). Una vez obtenidas las imágenes de ambos sistemas se procesan para segmentar, y luego entrenar una red neu- ronal profunda para clasificar. La combinación de am- bos sistemas podría proporcionar una detección mu- cho más precisa, para un producto comercial que nece- sita un 99 % de exactitud. Este sistema actúa sobre los frenos en caso de que haya una detección y no sea ac- cionado por el conductor. Actualmente este sistema no alcanza ese porcentaje, pero podría ser un paso más para llegar a esa meta. Sistema de detección de peatones Audi. Las muertes debido a atropellos a peatones aumentan en un factor de cuatro en la oscuridad con respecto a la luz del día. Las mejoras en iluminación son sólo par- cialmente efectivas para reducir los riesgos de la con- ducción de noche. Diversos sistemas de mejora de la visión nocturna, usando una variedad de tecnologías de detección, se están desarrollando para reducir aún más este riesgo. Los sistemas de imagen espectro cercano al infrarrojo o NIR (Figura 6), ilumi- nan la escena de forma activa en el espectro infra- rrojo cercano y capturan la radia- ción reflejada. Los principales inconvenientes asociados a los sistemas NIR in- cluyen su suscep- tibilidad al deslumbramiento de fuentes activas de luz, tales como el tráfico en sentido contrario, semáforos, farolas y, desde y hacia objetos reflectantes tales como las señales de tráfico. Además los iluminadores NIR pueden provocar deslumbramiento a otros conducto- res que utilizan el mismo tipo de sistema, y pueden causar daño a los ojos a distancias cortas (< 1 m) si las lámparas son muy potentes. El sistema consiste en una cámara en la parte delantera del coche con NIR para detectar objetos y peatones a una distancia relativa de seguridad. Una vez se obtiene la imagen se procesa para detectar y clasificar los obje- tos. Una manera es procesar diferentes imagines suce- sivas para detectar el movimiento es entrenando una máquina de vectores de soporte. En resumen, este sistema sólo trata de resolver el pro- blema de la detección de peatones de noche. Es muy sensible a los cambios de luz, como luces de coches en la dirección contraria y este sistema no actúa sobre el sistema de frenado, sólo muestra posibles peatones en pantalla. Es otro paso mas, pero no una solución defi- nitiva. Google Lidiar System. Otra manera de buscar peatones es utilizando sistemas basados en láser como es el caso de los vehículos de Google y otros. Consiste en realizar un barrido laser en una serie de capas para obtener un mapa 3D. 6. Cámara NIR. Ref.: www.uc3m.es 91Nº14. Junio de 2016 “Reconocer formas humanoides es muy fácil para los seres humanos, pero muy difícil, por el momento, para los sistemas de visión por computador. ”
  • 92.
    ser equipado envehículos de serie (aerodinámica, esté- tica, etc.). Es posible mejorar el sistema haciendo fun- cionar el sistema con una cámara visión estereoscópica. Poder realizar redundancia de medidas y fusionar los datos obtenidos con el LiDAR con la cámara de visión nos puede llevar a clasificar peatones con un índice de error bastante pequeño (alrededor del 99%), lo que haría de este sistema un elemento válido e implementa- ble de cara a la seguridad vial. LSI (Intelligent systems lab). Este grupo de investigadores fué fundado en el año 2000 para conducir una investigación multidisciplinar y desarrollar actividades en el área de las aplicaciones con percepción avanzada y los sistemas autónomos. El gru- po consiste en profesores y estudiantes de doctorado. Actualmente el laboratorio tiene diferentes platafor- mas, que incluyen dos vehículos autónomos eléctricos. La detección de peatones se realiza mediante un siste- ma de visión estéreo, un láser multicapa montado en el frontal, y una cámara infrarroja. La detección de peatones con el sistema de visión esté- reo y el láser multicapa es similar a los utilizados en otras soluciones comerciales y destaca sobre todo la capacidad y fiabilidad de detectar peatones por la no- che. El sistema funciona a partir de la información que contienen las imágenes en infrarrojo, busca los bordes o una representación de los bordes de la imagen, de tal forma que puede codificar la información en forma de descriptores que permite distinguir entre zonas de la imagen que tienen forma de peatón y zonas de la ima- gen que corresponden con el fondo. El coche está equipado con una cámara en el infrarrojo lejano, un tipo de cámara llamada micro-bolómetro no refrigerado, que devuelve una representación bidimen- sional de la temperatura a la cual están los objetos de- lante del vehículo. Este sistema está inicialmente pen- sado para utilizarlo por la noche cuando no tenemos ninguna iluminación o la iluminación externa es débil ya que estas cámaras solo representan la temperatura del objeto y no requieren de ninguna iluminación ex- El sistema “Láser Imaging and De- tection Range” comercial utiliza- do es el sistema LiDAR de Velo- dyne. La principal ca- racterística de este sistema es que hace un ba- rrido de 64 pla- nos de láser a una distancia de hasta 120m y 360º con un refresco que el usuario pue- de seleccionar. Alcanza frecuencias de refresco capaces de proporcionar información en tiempo real. Todo esto con una resolución angular de 0.08º azimutal, 0,4º en vertical y 2cm de exactitud. El funcionamiento del sistema se basa, cómo hemos comentado, en el sensor que se muestra en la imagen anterior (Figura 7). Se sitúa encima del vehículo para generar imágenes cómo la que podemos ver en la Figu- ra 8. Una vez recogida la imagen queda hacer una segmenta- ción, extracción de características y clasificación. La segmentación consiste en escoger los puntos láser que tengan un mismo espacio de características. Este paso facilita la extracción de características y la clasificación. En nuestro caso podemos realizar la segmentación por distancias. El siguiente paso es la extracción de caracte- rísticas y clasificación, utilizando, por ejemplo, una red neuronal profunda. Es posible realizar un entrenamien- to supervisado de la red directamente con los objetos que hemos segmentado y que nos dé como resultado la clasificación que nosotros queramos. Cómo conclusión general de este sistema, podemos decir que es bastante fiable y preciso, además se puede utilizar por la noche. Las desventajas que tiene son su precio y el tamaño, que aún es demasiado grande para 7. Sensor LiDAR de Velocyne. Ref.: www.elfuturohoy.com 92 Nº14. Junio de 2016 “El elemento fundamental en estos sistemas es la cámara embarcada en el propio vehículo”
  • 93.
    terna al contrariode lo que sucede con las cámaras tra- dicionales en el espectro visible. Actualmente existen sistemas similares, sobre todo en el espectro visible, que están integrados en algunos modelos de vehículos y este sistema no sería diferente. Sería muy sencillo implementarlo en un sistema comer- cial. El sistema en segundo plano monitoriza constan- temente las imágenes que va adquiriendo de la cámara térmica, escaneando estas imágenes, de tal forma que cuando detecta una zona de la imagen que puede con- tener un peatón, esta información es suministrada al conductor para que pueda tomar una decisión anticipa- da y sea capaz de frenar el vehículo con más tiempo de antelación. El rango de distancias el cual es capaz de detectar de- pende del modelo de cámara que estemos utilizando, de la óptica y de la resolución de la cámara, de tal for- ma que cuanto mayor sea la longitud focal, podremos identificar objetos más lejanos. En el caso del modelo que estamos utilizando somos capaces de detectar pea- tones a 40 metros de distancia lo cuál sería útil para un entorno urbano en el cual las velocidades son bajas. Sin embargo, simplemente sustituyendo esta cámara por otra con una resolución mayor o una longitud focal mayor podríamos detectar a mayores distancias. La capacidad de hacer frente a la seguridad peatonal es un componente esencial del trabajo dedicado a la preven- ción de los traumatismos ocasionados por accidentes de tráfico. Tal y como ocurre con otros accidentes de esta índole. 8. Generación del mapa 3D con el sistema LiDIAR de Velodyne. Ref.: www.uc3m.es REFERENCIAS Y BIBLIOGRAFÍA: Organización Mundial de la Salud (OMS). Nota descriptiva N° 358. Octubre de 2015. Seguridad peatonal: manual de seguridad vial para instancias decisorias y profesionales. © Organización Mundial de la Salud, 2013. EURO NCAP. http://www.euroncap.com/es/ seguridad-en-los-veh%C3%ADculos/descripci%C3% B3n-de-las-valoraciones/protecci%C3%B3n-para- peatones/ Stereo-Based Pedestrian Detection for Collision- Avoidance Applications. Sergiu Nedevschi, Member, IEEE, Silviu Bota, and Corneliu Tomiuc ANGELOVA ET AL.: REAL-TIME PEDESTRIAN DETECTION WITH DEEP CASCADES 1 IN-VEHICLE PEDESTRIAN DETECTION USING STEREO VISION TECHNOLOGY. Wei Zhang, Ph.D., P.E. PEDESTRIAN DETECTION WITH NEAR AND F A R I N F R A R E D N I G H T V I S I O N ENHANCEMENT. Omer Tsimhoni Jonas Bärgman Takako Minoda Michael J. Flannagan PEDESTRIAN DETECTION USING LASER AND VISION. Cristiano Premebida. http://portal.uc3m.es/portal/page/portal/ dpto_ing_sistemas_automatica/investigacion/ IntelligentSystemsLab 93Nº14. Junio de 2016
  • 94.
    del agua”. Losinvestigadores lo sitúan entre el sigo I después de Cristo y la primera mitad del sigo II y fue construido en tiempos del emperador Trajano. Ade- más, fue catalogado como Monumento Histórico por la Real Orden del 11 de Octubre de 1.884 y declarado Patrimonio de la Humanidad por la UNESCO el 6 de Octubre de 1.985. Cometido del acueducto El acueducto de Segovia se edificó para llevar las aguas del río Frío y dotar la misma cuantía de agua a los resi- dentes romanos a lo largo de la ciudad. Aunque ésta era su finalidad inicial, también se utilizaba como pro- paganda política ya que las obras públicas del Imperio Romano eran financiadas por personas de la política central o municipal. Para garantizar una distribución e- Introducción En la actualidad, la obra de ingeniería civil romana más significativa y uno de los monumentos más importan- tes de la Península Ibérica es el acueducto de Segovia, situado en la ciudad de dicho nombre. De todos los acueductos que se construyeron en el Imperio Ro- mano, es el más destacado y el mas completo por su envergadura, diseño y concepto. Es un claro ejemplo de longevidad. Preservado a la perfección, la parte mo- numental y más famosa del acueducto, que se puede localizar en la vaguada del Azoguejo, es el muro trans- parente de arcos sucesivos que lo aguanta airosamente levantado. La palabra acueducto deriva del latín “Aqua” (agua) y “Ducere” (conducir) y significa literalmente “conducto ACUEDUCTO DE SEGOVIA MIKEL MENO REGUERO. INGENIERO CIVIL, ESP. CONSTRUCCIONES CIVILES 94 Nº14. Junio de 2016
  • 95.
    timonio de lastécnicas de ingeniería aplicadas por los romanos. En el presente, el acueducto es una gran atracción para la ciudad y suministra únicamente por su coronación a una fuente que se halla en la terraza de Santa Columba (cogió el nombre de la iglesia en esa terraza) sobre el Azoguejo. Características El agua del río Acebera se irrigaba a lo largo de un ca- nal de 18 Km hasta llegar al acueducto. Desde aquí, accedía a la ciudad fluyendo por la parte superior a tra- vés de un canal de 25 x 30 x 30 cm. Hasta el pinar de Valsaín funciona a cielo abierto, mientras que a partir de dicho punto se soterra hasta llegar a un primer filtro de arena (turris aquae). A continuación, el cauce se alza sobre un muro (a día de hoy parte de la conducción ya no existe) que converge en un segundo depósito de decantación y permanece protegido por una caseta rec- tangular de 7´70 x 4x80 metros en planta con una bó- veda de cañón levemente apuntado. La fábrica del es- tanque interior está formada por 6 hileras de sillares y sus dimensiones son de 4´30 x 2´20 x 2´60 metros. A partir de este segundo depósito parte la conducción elevada y su sección no es recta, es decir, tiene varias partes que modifican su dirección: un primer tramo de 65 metros con 6 arcos de 7 metros de altura límite, un segundo tramo de 159 metros con 25 arcos hasta 8 metros de alto y un tercero de 281 metros con 44 arcos y de 12 metros. Las luces de los arcos superiores son de 5´1 metros, un poco más amplios. Y finalizan en la muralla. Desde allí hasta el depósito general (castellum quivalente de agua, se construyeron los puentes del acueducto con distintas alturas para mantener una pen- diente constante del canal, la cual permuta entre 0´3 % y 5´53 %. Por desgracia, el deterioro del acueducto por el paso del tiempo y las recientes tecnologías le han arrebatado su actividad principal. Asimismo, ha padeci- do algunas remodelaciones, destrucciones parciales y la desaparición de cornisas. El río también se le conoce Acebeda y su nombre pro- viene del acebo que existe en el área. El emplazamiento de la toma de agua de la conducción habita en el pago de “El Pinar” en el curso alto del río en la Sierra de Guadarrama a 18 Kilómetros de la ciudad, en el puerto de Fuenfría próximo a Valsaín. La ciudad obtuvo agua por parte de la construcción durante cerca de 2.000 años, por lo que es un gran tes- Imagen 1. Canal por el que fluye el agua en la parte superior del acueducto. Ref: https://latunicadeneso.wordpress.com/tag/acueducto-de-segovia/ Imagen 2. Corte geológico de los materiales debajo del Acueducto de Segovia. Ref: http://www.geologiadesegovia.info/segovia-ciudad-de-los-2016-paisajes/ 95Nº14. Junio de 2016
  • 96.
    to a sucomposición mineralógica, el material está con- formado por feldespato potásico, piroxenos, micas, cuarzo y anfíboles. Se usaron 20.400 sillares de granito, ocupando un volu- men de 7´500 m3 de forma aproximada y están sobre- puestos unos encima de otros acoplándose a la perfec- ción mediante un estudio de empujes de las piedras. En los arcos, las piedras se sostienen recíprocamente para mantener el equilibrio. No se emplearon ningún tipo de argamasa, ni de cemento ni de plomo para unir los bloques (opus quadrata). El autor era conocedor de un gran técnica ya que en el conjunto de la obra, descansa el equilibrio de la cons- trucción, la cual es muy liviana. De esta forma, conser- vando su integridad permanece estable el acueducto. Dicha estructura se distingue de otros ejemplos como el de los Milagros de Mérida (con arcos de herradura), cuya estabilidad descansa independientemente en las columnas. Otros acueductos que destacan por su mo- numentalidad es España son los de Sagunto y de Tarra- gona. Técnicas de construcción Para los sillares que estaban a una altura superior a la estatura de un hombre, se empleaban unas tenazas me- tálicas que, movidas por los esclavos, se cerraban cuan- do tiraban hacia abajo y se apretaban por el peso de los bloques. Estos disponían unos agujeros en sus caras opuestas que aún se pueden obser- var en el acue- ducto. Cuando había poca altura, los sillares se po- nían en su posi- ción final y se desplazaban utili- zando rodillos de encina, trasladán- dolos por anima- les de tiro o em- pujándolos por aquae) había 9 arcos sencillos, pero en la actuali- dad solo perdu- ran 4. Datos destaca- dos La zona de ma- yor elevación mide 28´10 me- tros y en este punto se encuen- tra un espacio de 16 metros de largo por 2 metros de alto que se puede leer la siguien- te inscripción, en concreto en su lado occidental: NERVAE TRAIANVS CAES AVG GERM P M TR P II CO S II PATRIS PATRIAE IVSSV P. MVMMIVS MVMMIANVS ET P. FABIVS TAVRVS IIVIRI MVNIC FL SEGOVIESIVM AQVAM RES- TITVERVNT Además, el acueducto romano de Segovia tiene una estructura particular; son una constante repetición de 166 arcos con una luz de 4´50 metros cada uno de ellos (de los cuales 68 son de arco sencillo y 44 son dobles superpuestos) y con una longitud total de 638 metros. Igualmente, están instalados en dos órdenes sobre los pilares y repartidos en 4 etapas. Para la construcción de los arcos, los albañiles construyeron marcos con forma de semicircunferencia de madera y, posteriormente, pusieron las piedras encima. Dispuestas ya todas las piedras, se retiró el marco. El material de los arcos es de granito rosado y viene de las sierras del entorno en un radio de 20 Km. La construcción tiene un total de 120 pilares, también son de granito rosado y anclados a 6 metros de la su- perficie del suelo poseyendo unas dimensiones de 3 x 2´40 metros en la base y las magnitudes del material van mermando hasta bloques de 2´50 x 1´80 metros. Dichos bloques estaban labrados toscamente. En cuan- Imagen 3. Alzado y secciones de los pilares del Acueducto de Segovia.. Ref: http://www.spanisharts.com/arquitectura/ imagenes/roma/segovia_acueducto.html 96 Nº14. Junio de 2016 La toma de agua en el pago de “El Pinar” en el curso alto del río Frio en la Sierra de Guadarrama se utiliza a día de hoy y deriva un caudal máximo de 50 litros por segundo. Imagen 4. Virgen de la Fuencisla. Ref: https://millenniumwebblog.wordpress.com/ category/mitos-y-leyendas/page/2/
  • 97.
    estructura, se determinóejecutar una serie de repara- ciones en la obra que contaban con la ayuda económi- ca de organismos nacionales e internacionales y del Estado. Dichas reformas tenían como objetivo con- templar los siguientes pasos: - Estabilidad: desmontar la tubería instalada de la coro- nación y distanciarla de la cimentación. - Integridad: demoler los muretes en coronación y eli- minar todos los elementos extraños. - Funcionalidad: Rehabilitar el paso del agua teniendo como destino una fuente y trasladándose por su coro- nación. - Conservación: consolidación e inyecciones de cemen- to para tratar el cosido de sillares, la cimentación y la falla central. - Restauración: la imposta en los arcos centrales y la funcionalidad de todos los elementos que los integra- ban desde su construcción por los romanos. En los 70, se cambió una copia de la Loba del Capito- lio de Roma por una piedra del acueducto. pequeñas rampas de madera apoyadas en andamios. Para poder nivelar cada tramo y, a su vez, tuviese su pendiente se usaron unos troncos con una acanaladura que estando llenos de agua los calzaban para obtener el enrase final. Los sillares cimentados en gneis, hasta el pilar 101, se aposentaban inmediatamente sobre la roca cuando es- taba sana o en unos fosos de un metro de profundidad cuando estaba alterada. Los cimentados sobre arenisca se alojaban igual que las rocas que no estaban sanas. Para la construcción del acueducto se usó el granito, ya que con los instrumentos y técnicas de trabajo de la época era el material con el que podían labrar grandes bloques de caras planas. En su superficie se hacían unas pequeñas hendiduras, en las que se alojaban unas cuñas de madera que al ser humedecidas se hinchaban y después de un período corto de tiempo producían un corte limpio y perfecto. En algunas de las piedras toda- vía es posible observar las cavidades de las cuñas. Al granito se le pueden hacer cortes en cualquier dirección y conseguir piezas de caras planas en todas las orienta- ciones por que es una piedra isótropa. Reconstrucción Durante un ataque musulmán en el año 1.072 (Al- Mamún de Toledo siglo IX), el acueducto fue parcial- mente destruido. Más tarde, en el siglo XV, en la época de los Reyes Católicos se hizo la primera restauración donde se reedificaron 36 arcos y que fue llevada a ca- bo por el prior cercano al Monasterio de los Jerónimos de Parral Pedro Mesa. Fue la más importante realizada hasta el día de hoy. Durante el sigo XVI, se reemplazaron los dioses paga- nos ubicados en los nichos centrales por las estatuas de San Esteban y la Virgen de la Fuencisla. Tras reconocimientos detallados y costosos de toda la Imagen 5. Acueducto de Segovia. Ref: http://www.mundoprimaria.com/arte-primaria-mochila/ REFERENCIAS Y BIBLIOGRAFÍA: - http://acueducto.turismodesegovia.com/es/construccion/ como-se-hizo - http://mupart.uv.es/ajax/file/oid/991/fid/2111/2.EL% 2 0 A C U E D U C T O % 2 0 R O M A N O % 2 0 D E % 20SEGOVIA.pdf - http://www.spanisharts.com/arquitectura/imagenes/ roma/segovia_acueducto.html - h t t p : / / e n c i c l o p e d i a . u s . e s / i n d e x . p h p / Acueducto_de_Segovia - h t t p ://w w w . re gmu rc ia .c om/ se rv le t / s .Sl ? s i t = c , 5 7 0 , m , 3 4 5 5 & r = R e P - 2 8 0 9 5 - DETALLE_REPORTAJES 97Nº14. Junio de 2016
  • 98.
    con una marcaextranjera. El contrato se cerró, tras varias tentativas infructuosas con otras marcas, en fe- brero de 1951 gracias al apoyo de Mr. Lefaucheux, pre- sidente general de la Règie Nationale des Usines Re- nault, y permitía la fabricación del Renault 4CV. El siguiente paso era obtener la aprobación de Industria, para lo que debió presentar el proyecto de la instalación y la memoria descriptiva, trámite llevado a cabo en mayo de 1951 en la Delegación de Industria de Valladolid, el Instituto Nacional de Industria (INI) pu- so una gran resistencia a que se le concediera el permi- so ya que eso supondría el fin del monopolio estatal de SEAT, pero aún así, el día 19 de octubre de 1951 se publica en el Boletín Oficial del Estado la autorización oficial concedida a don Manuel a título personal para crear la nueva industria y fabricar el Renault 4CV. Indudablemente era un gran paso, pero el Ge- neral aún no contaba con los apoyos necesarios, ya que no se entendía la fabricación privada de automóviles. El 28 de diciembre del mismo año, festividad de los Santos Inocentes, se presenta la solicitud de constitu- ción de la empresa Fabricación de Automóviles Re- nault S.A.(FARSA). Inconveniencias semántica y festi- va llevaron a que la firma definitiva ante notario se produjera el 29 de diciembre, bajo la denominación FASA (Fabricación de Automóviles S.A.), contando en ese momento con el apoyo de 6 promotores que aportaron 50.000 pesetas cada uno: Manuel Jiménez- Alfaro y Alaminos, Francisco Mateo Martínez, Eduar- do Fernández Araoz, Eusebio Caro Rodríguez, Santia- go López González y José Luis Gutiérrez Semprún. El 12 de enero de 1952 se completó el capital social que ascendió a 5 millones de pesetas. El General Don Manuel Jiménez-Alfaro de Alaminos nació en San Lúcar de Barrameda (Cádiz) en el seno de una familia acomodada, el día el 8 de febrero de 1898, siendo el tercero de 4 hermanos varones. Ingresó en la Academia General Militar, esco- giendo el Arma de Artillería, posteriormente accedió al Cuerpo de Ingenieros de Armamento y Construcción, actualmente denominado Cuerpo de Ingenieros Poli- técnicos del Ejército de Tierra, ocupando el cargo de profesor prin- cipal de la especialidad de Automovi- lismo de la Escuela Poli- técnica Supe- rior del Ejér- cito, creada en 1941, lo que le con- vertía en uno de los hom- bres que más sabía de automóviles en España. Creía fielmente en que el futuro del país y de su recuperación económica pasaban por la inversión en la industria automovilística, especialmente desde el sec- tor privado, dedicando toda su vida a desarrollar esta idea y sobre todo tratando de encontrar los apoyos necesarios para llevarla a la realidad, pero debió esperar hasta contar con 53 años de edad para conseguir afian- zar el primero de los pasos necesarios, que no era otro que firmar un contrato de fabricación de automóviles 98 Nº14. Junio de 2016 INGENIEROS Y MILITARES: EL GENERAL JIMENEZ-ALFARO Y SUS VEHÍCULOS FASA-RENAULT FÉLIX ALVARO PAJARES RUIZ. Ingeniero de Armamento y Construcción. Esp. Construcción y Electricidad
  • 99.
    la misma, porlas excepcionales circunstancias que tenía Valladolid tanto desde el punto de vista de las comuni- caciones, como de la abundancia de recursos naturales, agua en abundancia para usos industriales, electricidad de la estación de La Mudarra, así como humanos, es- tando en las inmediaciones los Talleres Principales de la antigua Compañía de los Caminos de Hierro del Norte de España S.A., contando con más de 3.000 obreros especializados, ajustadores, torneros, fresado- res, cepilladores, mortajadores, taladradores, caldere- ros, tuberos, montadores, griferos, herramentistas, fun- didores de hierro y de bronce, modelistas, forjadores, peones especialista y peones de arrastre… Además de los trabajadores especializados se contó con gran cantidad de mano de obra agrícola que con el éxodo rural pasaron a formar parte de las cade- nas de montaje, los mandos intermedios provenían de la Escuela de Aprendices y muchos de los mandos su- periores de FASA salieron de las aulas de la Escuela de Peritos Industriales. De la mano de la creación de FASA aparecieron tam- bién en Valladolid la fábrica FAMESA, Fabricaciones Mecánicas S.A. donde se fabrican los motores y órga- nos mecánicos, y FACSA, Fabricación de Carrocerías S.A. donde se estampan las piezas de carrocerías. Am- bas empresas aprovecharon la coyuntura vallisoletana y fueron posteriormente integradas en F.A.S.A. En abril de 1953 se inauguró la nave de monta- je y el 12 de agosto salieron a la calle los 11 primeros coches en un paseo por la ciudad. Ocupó el General, en ese momento aún Teniente Coronel, el puesto de director gerente de FASA hasta julio de 1956, momen- to en que ascendió a coronel y fue destinado a dirigir la Fábrica Nacional de Toledo. El 23 de enero de 1957 el Ayuntamiento de Valladolid le concede la Medalla de la Ciudad en pre- mio a los méritos extraordinarios prestados a esta capi- tal, así como la Medalla de Mérito al Trabajo por las actividades desplegadas en su vida profesional. Conti- nuó con su vida militar hasta alcanzar el empleo de General de División Ingeniero de Armamento y per- maneció en el consejo de administración de FASA Re- nault hasta 1990, fecha en la que dimitió voluntaria- mente de su cargo. Falleció en Madrid el 11 de Enero de 1992. LOS INICIOS DE FASA-RENAULT En 1908, Louis Renault fundó en España su segunda filial fuera de tierras francesas, denominándola Sociedad Anónima Española de Automóviles Renault (S.A.E.A.R.). Resulta muy curioso saber que en aquel momento se comercializaban los vehículos Renault en chasis-motor y era el cliente el que posteriormente mandaba fabricar la carrocería a su gusto. Tuvieron que pasar más de 50 años para que se entendiera la idea que proponía el General, que no era otra que ofrecer los vehículos completos. Para entender los inicios de FASA-RENAULT debemos retrotraernos a la época en la que todo el país estaba sufriendo las consecuencias de la Guerra Civil y la creación de un nuevo orden social, fue por ello que los inicios de la fábrica estuvieron repletos de proble- mas, envidias e inconvenientes. Tras obtener los permisos y los apoyos necesa- rios se comenzó la construcción de las instalaciones necesarias, las naves, la central térmica y de las cadenas de montaje, todo ello proyectado desde Renault- Francia. La ubicación del complejo vallisoletano vino determinada, además de por el conocimiento que el General tenía de la zona y de los intereses políticos en 3. El General Alfaro con gran parte de la plantilla en los primeros años de andadura de FASA. 2. Primeras construcciones de FASA-RENAULT 89Nº14. Junio de 2016
  • 100.
    Las primeras unidadesse diferenciaron por incorporar varias distintas, quizá la más representativa fue el rom- bo esmaltado que presidia el frontal, fabricado artesa- nalmente por un joyero vallisoletano, aunque pronto se dieron cuenta de lo costoso que resultaba la pieza y la sustituyeron por un escudo circular elaborado con material plástico. En 1959, cesó la fabricación del Renault 4CV por parte de FASA, con un total de 26.298 unidades fabricadas. LOS PRIMEROS FASA-RENAULT. EL 4CV Antes de iniciarse la fabricación del que sería el primer Renault español, el "4CV", haciendo referencia a sus cuatro caballos de vapor de potencia fiscal, más conocido en España como el 4/4 por decirse aquí que tenía "cuatro puertas, cuatro cilindros, cuatro plazas...", se recibieron de Francia algunas unidades desmonta- das, que sirvieron para que los trabajadores estudiasen las piezas que tendrían que elaborar. A principios de 1953, comenzó a realizarse el montaje del prototipo por parte de un equipo compuesto por ocho emplea- dos, aunque después hubo que dedicar otro mes a ajus- tarlo y rematarlo, y no fue hasta junio cuando llegó desde Billancourt el primero de los vagones precinta- dos, encargados de traer las piezas francesas necesarias para montar el modelo, junto a otros componentes que tenían proveedor español y que irían en aumento. De- bieron pasar varios meses hasta que en agosto de 1953 salieron a la luz las primeras 12 unidades del Renault 4CV. 6. Siempre resulta curioso de admirar la publicidad de la época. 7. Cadena de montaje del 4/4. 5. Los doce primeros 4/4 paseando por Valladolid en agosto de 1953. 100 Nº14. Junio de 2016 4. Proceso de montaje del Renault 4CV
  • 101.
    EL PASO ALVEHÍCULO UTILITARIO. LA FAMILIA DAUPHINE. Pocos años más tarde, en 1956, la producción de FASA asciende a 5.333 unidades, triplicando esa cantidad en solo dos años con un nivel de nacionaliza- ción bastante elevado, lo que demuestra la confianza creciente del cliente español en la empresa del General, todo ello unido al incremento del poder adquisitivo desembocó en una popularización del denominado “vehículo utilitario”. Empezaba a fraguarse la revolu- ción de la industria automovilística que tanto había anunciado el General Alfaro. Pocos meses después de la salida al mercado por parte de La Régie del novedoso Renault Dauphine en marzo de 1956, FASA ya había conseguido la firma de un contrato para su fabricación en Valladolid, dán- dose a conocer la noticia en mayo de 1958 y desban- cando al 4CV en menos de un año, tras haberse fabri- cado un total de 26.298 unidades. Cabe reseñar que en diciembre de 1958 la empresa tuvo que lanzar un co- municado a los medios solicitando a la población que cesara de encargar unidades. Muchos fueron los motivos que propiciaron tal éxito, desde sus formas redondeadas, su aerodinámica, sus 4 puertas y 4 plazas amplias, el gran maletero con que contaba en la parte delantera, debido en gran me- dida a la ingeniosa ubicación de la rueda de repuesto, y sobre todo el pequeño motor, que ubicado en la parte trasera, con una capacidad inferior al litro, era capaz de propulsar al vehículo por encima de los 120 km/h, o incluso que venía de París, como rezaba el siguiente anuncio dirigido a las féminas: En 1959, con la fábrica en pleno rodaje y la entrega de vehículos sin demasiada demo- ra, el Renault Dauphine tenía un coste, impues- tos incluidos de 125.686 pesetas, cuando el sueldo medio rondaba las mil pesetas, por hacer la comparativa estaríamos en el caso de que un trabajador que cobrara hoy en día 1.000 €, se com- prara un coche de más de 125.000 €, es decir, del en- torno de los Ferrari, Porsche o Maserati. A pesar de su visión más empresarial, se conta- ba que el General Alfaro no dejó nunca de lado su per- fil de ingeniero y militar, llegando al punto de que en una reunión con los controladores franceses, estos de- tectaron que sobraban piezas en la cadena de montaje, el motivo era muy sencillo, los montadores españoles habían ingeniado una herramienta especial que evitaba poner una contraplaca que, evidentemente, comenzaba a acumularse en el stock. Los ingenieros franceses aca- baron por copiar la herramienta y ahorrarse la pieza también en Francia. 8. Línea de montaje del nuevo Renault Dauhine 9. Anuncio del Renault Dauphine. 91Nº14. Junio de 2016 9. Renault Dauphine con falsa capota.
  • 102.
    En la cubetadel depósito metálico se vertía aceite y se colocaba a su alrededor el filtro conformado a base de malla metálica, obligando al aire a atravesar primeramente la malla, con el fin de eliminar cualquier impureza de cierto tamaño, insecto, hoja, etc, para a continuación atravesar el baño de aceite, dejando en él cualquier partícula de polvo. La boca de aspiración de aire se encontraba ubicada en el propio maletero, en la zona delantera del coche, lo que hacía que cualquier movimiento del equipaje pudiera obstruir la entrada y ahogar el motor. En 1962, aparece el tercero de los componen- tes de la familia, el Renault Ondine, con la carrocería muy similar a las de sus dos antecesores, se trataba de un modelo mejorado respecto de ambos, del Dauphine heredó la mecánica, el motor seguía colocado sobre el puente trasero y la transmisión a las ruedas traseras, es decir, auténticos todo atrás, mientras que del Gordini, versión más deportiva, tomó el mayor nivel de equipa- miento, la caja de cambios inicial aún era de tres mar- chas, pero en breve se acopló la de cuatro. A pesar de las mejoras, el Ondine, al igual que sus hermanos, mantenía viva la leyenda negra de "coche de las viudas", debido a su tendencia sobrevira- dora, aunque en gran medida se debía al estado de las carreteras y a la falta de experiencia de los conductores, también la ligereza de la carrocería, de unos 640 kg, unido a un reparto del peso claramente descompensa- do hacia el eje trasero, se conjugaban par restar estabili- dad al vehículo sobre todo en trayectos virados, como solución artesanal muchos de los propietarios optaban por colocar contrapesos de plomo o simples sacos te- rreros en el maletero delantero. En 1961, cuando los motores eran cien por cien espa- ñoles, FASA presentaba el Gordini. Esta versión surgi- ría tras las modificaciones que el ingeniero francés Amédée Gordini había conseguido implantar al motor Ventoux, sustituyendo el primitivo carburador Solex 28 por uno de 32 mm y aumentando la compresión de 5,8:1 a 6,3:1. De esa forma, el cuatro cilindros de vál- vulas en cabeza ganaba ocho caballos, 36 a 5.000 rpm respecto a los 28 a 4.200 del Dauphine original. Y para transmitir a las ruedas posteriores todo el rendimiento de estas mejoras mecánicas, se cambió la caja de tres relaciones por una de cuatro. Al alcanzar mayor veloci- dad, hasta 130 km/h, se hizo imprescindible la mejora de los frenos. Merece la pena mencionar que en estos vehícu- los el filtro del aire, que en la imagen anterior vemos en la parte superior a la izquierda, era de tipo tropical, en baño de aceite, siendo la palabra tropical una forma elegante de referirse a los países con carreteras sucias y descuidadas. 102 Nº14. Junio de 2016 10. Motor Ventoux montado sobre el eje trasero. 11. Filtro del Aire
  • 103.
    Otro de losdetalles que diferenciaban a la fa- milia Dauphine de su antecesor el 4CV y del resto de sus competidores era el amplio maletero, debido en gran medida a la solución ingeniosa que se dio a la ubi- cación de la rueda de repuesto, en lugar de estar dentro del maletero, como venía siendo habitual, en el Dau- phine se proyectó un hueco bajo el mismo accesible desde la placa de la matrícula. EL FIN DEL TODO ATRÁS. LOS R4 Tras la aparición del R4 en Francia, FASA comprendió que el futuro pasaba por los nuevos mo- delos de tracción delantera y no tardaron en firmar el correspondiente contrato para la fabricación del mis- mo, con diferentes cilindradas y acabados, todos ellos con una carrocería de cuatro puertas más portón trase- ro y una importante innovación mecánica como fue el sistema de refrigeración hermético por líquido. A diferencia de los anteriores modelos FASA, así como de los modelos franceses y de otros países, todos los R4 españoles contaban con instalación eléc- trica de 12 Voltios EL FIN DE FASA En 1965 Renault amplió su participación en el accionariado de la compañía FASA, pasando de un 15% a un 49,9%, renombrándose la compañía a FASA- Renault. En 1976 Renault recibió la autorización para convertirse en el accionista principal de la misma y en diciembre de 2000 FASA-Renault ya pertenecía por completo al Grupo Renault 103Nº14. Junio de 2016 REFERENCIAS Y BIBLIOGRAFÍA: - Club español Amigos del Renault 4/4 - Historia del automóvil a través de sus marcas. - Club Alpine de Valencia - Asociación de Amigos del Renault en España. 12. Colocación de la rueda de repuesto en el 4/4 y en el Dauphine. 13. Renault R4, primer tracción delantera de la fábrica FASA. 14. Insignias española y francesa de los vehículos fabricados por FASA y por Règie Nationale, correspondientemente.
  • 104.