1. Biela 7.65REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONSTRUCCIÓN
AÑO 3
NÚMERO 14
JUNIO DE 2016
ISSN 2386-639X
14
9 772386 639006
Historia de los
motores
INGENIEROS Y MILITARES
El General Jiménez Alfaro y
su fábrica de vehículos
FASA Renault
2. Página 8
Página 4
Página 16
Página 12
Página 26
Página 22
Página 30
Página 46
Página 40
Página 52
Cubiertas Colgantes
Alumbrado inteligente
Reutilización de aguas resi-
duales
Materiales compuestos en
aeronáutica
Gran error: añadir agua al
hormigón
Cimentaciones Superficiales
Historia de los motores
Automatización de redes
Internet y su funcionamiento
Espectroscopio y el control de
calidad
Voladuras en interior
Visión Nocturna
Página 36
Página 56
2 Nº14. Junio de 2016
CONTENIDO
3. Biela 7.65 es el órgano de expresión del Centro de Formación IAE. info@ingenierosalejercito.com
Edita el Centro de Formación IAE. Cierre de la impresión y publicación en fecha 20 de mayo de 2016.
Dirección: L.T. de Garnez Consejo de Redacción: Juan González; Alvaro Manuel Sanchez; Álvaro Titos ; José Emilio Fernández; Iván García ; Raquel Hernández; Jose Maria Lozano ;
Francisco Navarro; Joaquín Toro; Antonio Climent; Rebecca Renuncio; Jorge Peña; Francisco Escamez; Marcos Cerdán; Miguel Silva; José Vicente Jurado; Alejandro Larruy; Pablo Alonso;
Alberto Martín; Antonio Flores; Marta Sanz del Burgo; Fernando Martel; Yeray Estévez; Adrian Quijada; Sergio Hurtado; Adrián Jiménez; Juan Manuel Alfaro; Alfonso Rojo; Andrés Siñeriz;
Pablo Escribano ; Mikel Meno; Juan José Espinosa; Marta Bartolomé; Rocío B. Higueras ; José Manuel Ibáñez Poveda; Iban Cabrera ; Carlos Mollá ; Pedro Manuel Vélez; Carlos Medrano;
Eduardo Baselga; Marcos Maldonado; Alejandro Gómez, Marta González, Laura García, Rubén Bonilla, Daniel Trujillo, Ángel Santos, Luis Manuel Delgado, Diego Fernández, Miriam Cle-
mente, María Fernández, Victor García, Rebeca Rosado. Secretaría del Consejo de Redacción: Félix-Álvaro Pajares. Paseo de las Delicias. Madrid. Imprime: Centro de Impresión DaBe
Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción.
Página 64
Página 60
Materiales del futuro
Cerramientos fotovoltaicos
Problemas en el reciclaje de sis-
temas renovables de energía
Página 68
Página 72
Fracking
Ahorro de combustible en
aviación
Página 76
Sistema de detección de
Peatones
Página 88
Página 82
Optimización de células solares
fotovoltaicas
Página 94
3Nº14. Junio de 2016
El acueducto de Segovia
Ingenieros y Militares:
El General Jiménez-Alfaro y
sus vehículos FASA Renault
Página 98
4. El endurecimiento del hormigón se produce por una
reacción química que necesita de unas determinadas
proporciones de componentes, es
decir, determinada cantidad de
agua para una cantidad concreta
de cemento (u hormigón). Ni
más cantidad, ni menos. La justa.
Si hay más cantidad de agua que la
necesaria para la reacción química,
el agua sobrante acabará evapo-
rando, dejando huecos que acaba-
rán siendo poros en el hormigón
que disminuirán la resistencia y
por donde puede entrar el aire
exterior y provocar con el tiempo
la oxidación de los armados.
Por otro lado, si la cantidad de
agua es menor de la necesaria para
que se produzca la reacción quí-
mica, ésta no culmina, no se endu-
rece todo el cemento porque no
tiene suficiente agua para poder
reaccionar y por lo tanto no alcan-
za la resistencia esperada.
Ambos casos son malos para el
hormigón, un material mucho más
delicado de lo que nos pensamos.
¿Cómo puede faltar agua en el hormigón?
Básicamente hay dos razones por las que acabe faltan-
do agua para conseguir el endurecimiento completo del
hormigón.
- No se ha añadido suficiente agua
durante el amasado. Muy impro-
bable si el hormigón está fabricado
en una planta, pues son procesos
informatizados y muy controlados.
- Que se pierda agua durante el
proceso de ejecución y endureci-
miento del hormigón en obra.
Esto se produce debido a la eva-
poración que puede sufrir el agua
del hormigón por el calor que pue-
da hacer o el viento, que irá eva-
porando las capas superiores de
agua y disminuyendo la cantidad
que queda para reaccionar con el
cemento y endurecer. Esto es lo
que solucionaremos gracias a rea-
lizar un correcto curado del hor-
migón.
Se ve la tremenda importancia del
curado del hormigón. Pero por
otro lado, puede ser que exista
agua en exceso y suele ocurrir por
añadir agua.
¿Añadir agua al hormigón?
Existe una costumbre/manía a pie
de obra que daña el hormigón y
los operarios ejecutan con toda la
fe, como algo normal, lógico y beneficioso; añadir agua
al hormigón.
GRAN ERROR: AÑADIR AGUA AL HORMIGÓN
ANTONIO CLIMENT ALÓS. ARQUITECTO TÉCNICO.
4 Nº14. Junio de 2016
Imagen 1. Momento de vertido del hormigón desde la cubeta
del camión hormigonera.
Fuente: www.nuevaingieneria.com
Imagen 2. Coqueras existentes como un mal vibrado y por
tanto, existiendo un aire embebido en el hormigón.
Fuente: www.enriquealario.com
5. Dicho operario, posiblemente no ha sido formado para
la recepción y vertido de hormigón, sino que simple-
mente es lo que ha hecho siempre, de la misma mane-
ra, con los mismos vicios adquiridos de quien apren-
dió, que por supuesto tampoco nadie le había explica-
do esto.
El hormigón necesita una cantidad de agua concreta en
relación a una cantidad de cemento (dependiendo de
los usos, formas de trabajo, resistencia, impermeabili-
dad, durabilidad y exposición del mismo a agentes
agresivos; varia dicha relación) para que se produzca la
reacción química que hará que se endurezca.
Dicha cantidad de agua es tan sumamente importante,
que en su cálculo se tiene en cuenta la humedad de los
áridos de la composición, que pueden llegar a influir en
el resultado final, como tantos otros aspectos. Así
pues, se puede intuir la gran repercusión que puede
tener el añadir agua a pie de obra, en base a la propia
experiencia del operario en cuestión.
Si la masa tiene menos cantidad de agua de la necesaria,
hará que no todo el cemento reaccione y endurezca y
por lo tanto no alcance la resistencia esperada.
Pero ¿que ocurre cuando el hormigón tenía más agua
de la necesaria? ¿Qué consecuencias tiene para el hor-
migón el agua sobrante?
Consecuencias de añadir agua al
hormigón
Como se puede entender, el
agua sobrante, la que no ha
reaccionado no desaparece
“sin dejar rastro”; sino que
queda albergada en el interior
de la masa, de forma líquida y
obviamente con un resistencia
muy inferior a la del hormi-
gón, he aquí uno de los pro-
blemas (pero hay más).
A priori, puede parecer que
dicha agua no va suponer un
gran problema, además que
muchas ocasiones son peque-
ños huecos o incluso micros-
cópicos, pero la realidad es
que son suficientes para crear
zonas de baja dureza y reducir
la resistencia de la pieza en general. La fórmula resul-
tante que ronda esta situación es tan sencilla como cla-
ra: a mayor volumen de poros, menor volumen de ma-
sa de hormigón, que es al fin y al cabo la que tiene la
resistencia.
Por otro lado, se puede dar la complejidad que en vez
de quedar agua embebida en el interior de la masa, que-
de agua en contacto con las armaduras; y no es necesa-
rio entrar en grandes explicaciones para entender que
tarde o temprano se convertirá en un inicio de oxida-
ción, un inicio de degradación del elemento de hormi-
gón, siendo la estructura un elemento básico que debe
durar muchos años y debe hacerlo en las mejores con-
diciones posibles.
Imagen 3. Fisuras producidas por la rápida evaporación del agua que ha llegado hasta la superficie.
Fuente: www.enriquealario.com
Imagen 4. Imagen aumentada de la red capilar que se crea en el interior.
Fuente: www.acksol.com
5Nº14. Junio de 2016
6. (exudación) haciendo que la propor-
ción de agua disminuya drásticamente.
Evidentemente la resistencia en la su-
perficie del hormigón va a bajar y ade-
más esa agua que ha subido hasta la
superficie va a evaporarse tan rápida-
mente (dependiendo de las condicio-
nes climatológicas) que se producen
fisuras en la superficie del hormigón.
Llegados a ese punto, la porosidad del
elemento ha aumentado tanto interna-
mente como en su superficie, facilitan-
do así la entrada de los agentes agresi-
vos ambientales.
¿Por qué le añaden agua al hormigón?
En muchas ocasiones la fuente del problema esta en el
proyecto de la obra. Con tal de buscar mejores carac-
terísticas algunos proyectistas especifican un hormigón
los más seco posible, que nada más llegar a obra y ante
la dificultad de trabajar con el (poca trabajabilidad), el
operario a pie de obra añade agua, sin tener en cuenta
las consecuencias que esto conlleva.
En otras ocasiones simplemente es debido a la costum-
bre de añadir agua para que cuanto más fluido sea, en
aras de añadir facilidad y rapidez cuando se coloca,
gran ingrediente en trabajos a “destajo”.
Entonces ¿Qué hacer si el hormigón llega tan duro que no se
puede trabajar?
Ante las consecuencias anteriormente mencionadas,
sería idóneo que el proyectista tuviera en cuenta la tra-
bajabilidad, ayudándose del uso de aditivos que conser-
varan la relación agua/cemento pero que le dan mayor
fluidez a la masa (existen además: aceleradores del en-
durecimiento, retardadores de fraguado, incorporado-
res de aire, plastificantes, fluidificantes, superfluidifi-
cantes, etc.)
Dejando de lado el posible binomio agua-armaduras; el
agua que queda embebida dentro del hormigón tarde o
temprano acabará evaporando, dejando un hueco que
será ocupado por aire y se creará un poro.
Con el agravante que, si estos poros se van conectando
entre ellos y están en contacto con el exterior, se con-
vertirán en una vía de entrada de agentes ambientales,
lo que iniciará un proceso de degradación. Es lo que se
llama carbonatación del hormigón. Si la carbonatación
alcanza las armaduras se inicia la oxidación y más pron-
to que tarde precisará una reparación.
Los daños por carbonatación tienen también relación
con la profundidad a la que se encuentran los armados,
de ahí la importancia de utilizar separadores para ga-
rantizar que no se encuentran demasiado cerca de la
zona exterior del hormigón.
Sea como fuere, añadir agua al hormigón aumenta la
porosidad del mismo y por tanto disminuye la durabili-
dad y la resistencia.
Como en toda mezcla que se precie, lo más pesado
tiende a irse al fondo y lo menos pesado sube a la su-
perficie; por ello el exceso de agua subirá a la superficie
Imagen 5. Oxidación de las armaduras por la carbonatación del hormigó
Fuente: www.enriquealario.com
6 Nº14. Junio de 2016
“Añadir agua al hormigón aumenta la porosidad y por lo tanto se disminuye la durabilidad y
la resistencia. La relación entre cemento y agua se debe respetar siempre”
7. También puede suceder que la consistencia con la que
llega el hormigón sea diferente al solicitado, por cual-
quier causa (error de dosificación, trayecto, etc). Ante
esta situación, es claro que no se debe añadir agua, sim-
plemente se devuelve (no se debe tener reparos pese a
que parezca un decisión brusca).
Si a pesar de todo, el hormigón sigue siendo muy seco
(pero el correcto), solo queda una opción hay que colo-
carlo así. Se tardará más en colocarlo, habrá que utili-
zar más tiempo el vibrador, poner mayor cuidado en
que no queden coqueras, pero en ningún caso añadir
agua.
Como se ha dicho anteriormente, la simple acción de
coger una manguera y añadir agua al camión para que
el hormigón sea más fluido y más fácil de trabajar con-
lleva graves consecuencias.
De forma resumida se entiende que la simple y exten-
dida acción, de añadir agua al hormigón a pie de obra,
ya sea porque es muy seco, porque hace calor, por cos-
tumbre de añadir agua, por la necesidad de acabar
pronto y cuanto más fluido sea mejor; se sabe que:
Disminuye la resistencia
Aumenta la porosidad
Disminuye la durabilidad
Favorece la carbonatación
Empeora el anclaje de las
armaduras
Se produce una figuración
superficial
Facilita la oxidación de las
armaduras
Baja también la dureza su-
perficial
Quizá hay veces en que algunos
“profesionales” piensan en termi-
nar rápido su trabajo para cobrar y
a otra obra, sin importar la calidad
del mismo. Si por razón de la pro-
fesión que cada cual debe desem-
peñar, se debe controlar dicha ac-
ción, hay que saber actuar en con-
secuencia y que estas personas de-
jen de realizar dichas prácticas
erróneas, hasta que no ejecuten su
actividad de la misma forma que lo
hacen los buenos profesionales.
Esta no es una acción aislada, que con la correcta eje-
cución ya se obtiene un buen hormigón. Una estructu-
ra de hormigón armado requiere una gran profesionali-
dad, desde las personas que proyectan y eligen el tipo
hasta los operarios que lo colocan.
Por ello cabe recordar, que existen otras malas prácti-
cas muy extendidas, como lo son: utilización de separa-
dores incorrectos, hormigonar en tiempo excesivamen-
te fríos o calurosos, hormigonar desde una altura exce-
siva, vibrar el hormigón en exceso o en escasez, no
realizar el curado de forma correcta, etc. Existen una
serie de actividades a realizar adecuadamente, disfruten.
REFERENCIAS Y BIBLIOGRAFÍA:
- w w w . u p v . e s / m a t e r i a l e s / F c m / F c m 1 4 /
pfcm14_3_1.html
-www.construccionesmalaga.com/la-importancia-del-
agua-en-el-hormigon/
-www.acaceres.addr.c om/student_access/
RelacionAguaCemento.pdf
- Efecto de la variación agua/cemento en el
concreto .Tecnología en Marcha, Vol. 25, N.° 2, Abril-
Junio 2012
7Nº14. Junio de 2016
Imagen 6. Fisuras y pérdida de material en el anclaje de las armaduras, debido a un mal vibrado y movimientos
durante su ejecución, siendo necesario una reparación para evitar males mayores.
Fuente: www.enriquealario.com
8. En casos especiales de grandes
construcciones y/o de muy baja
capacidad portante del suelo,
puede ser interesante el empleo
de hormigones de mayores resis-
tencias.
A veces se emplean los términos
“ i n f r a e s t r u c t u r a ” y
“superestructura” para designar
respectivamente a la cimentación
y al resto de la estructura, pero
constituyen una terminología
confusa. El terreno, estrictamente
hablando, es también un material
de construcción, pero presenta
con todos los demás una diferen-
cia importante y es que no ha
sido elegido
por el téc-
nico. Las
posibilida-
des de cam-
biarlo son
casi siem-
pre pocas y
únicamente
podemos,
en ocasio-
nes, modi-
ficar alguna
de sus pro-
piedades. Rara vez es económica
la sustitución.
Por ello, es la cimentación la que
habrá de proyectarse de acuerdo
con el suelo y en muchos aspec-
tos la selección y la disposición
de la propia estructura vendrá
también condicionada por él.
La iteración suelo-cimiento es
importante para el cálculo de la
cimentación y a su vez depende
fuertemente de las deformabilida-
des relativas del suelo y del ci-
miento. Desgraciadamente nues-
tros conocimientos sobre el
cálculo de esas deformaciones
son escasos todavía.
Introducción
El cimiento es aquella parte de la
estructura encargada de transmi-
tir las cargas actuantes sobre la
totalidad de la construcción al
terreno. Dado que la resistencia y
rigidez del terreno son, salvo ra-
ros casos, muy inferiores a los de
la estructura, la cimentación po-
see un área en planta muy supe-
rior a la suma de las áreas de to-
dos los pilares y muros de carga
Lo anterior conduce a que los
cimientos sean en general piezas
de volumen considerable, con
respecto al volumen de las piezas
de la estructura. Los cimientos se
construyen habitualmente en
hormigón armado y, en general,
se emplea en ellos hormigón de
calidad relativamente baja (25
MPa de resistencia a 28 días), ya
que no resulta económicamente
interesante el empleo de hormi-
gones de resistencia mayores. Sin
embargo, debe prestarse atención
a que una baja exigencia en cuan-
to a resistencia no conduzca a un
bajo contenido de cemento, que
suponga riesgos de durabilidad.
CIMENTACIONES SUPERFICIALES
ÁLVARO TITOS LÓPEZ. GRADO EN INGENIERÍA MECÁNICA
8 Nº14. Junio de 2016
Imagen 1. Cimentaciones superficiales en obra. Civilgeeks.com
9. Todo ello acentúa la necesidad de
una especial prudencia y cuidado
tanto en la concepción como en
el cálculo y los detalles al proyec-
tar y construir cimentaciones. La
durabilidad de estos elementos
debe ser muy especialmente con-
siderada en el proyecto, en la se-
lección de materiales y en la eje-
cución, ya que en cualquier fallo
no será observable, en la mayoría
de los casos, hasta no alcanzar
una elevada importancia.
Fases
En el proyecto de una cimenta-
ción se distinguen tres fases de
estudio a saber:
1. Recogida de datos.
Modelo estructural
En el modelo estructural que el
proyectista plantea, los apoyos
de estructura se suponen, nor-
malmente, empotramientos per-
fectos. En base a esto, se dimen-
siona la estructura y se calculan
las cargas que la misma va a ejer-
cer sobre el terreno. El objetivo
de las cimentaciones es asegurar
que el
terreno es capaz de soportar di-
chas cargas. Además se debe ga-
rantizar que también soportará
las cargas sísmicas que establezca
la normativa, entre otros factores.
Por último debemos asegurarnos
de la durabilidad de las cimenta-
ciones, es decir, que garanticen
las condiciones mencionadas an-
teriormente durante el periodo de
vida de la estructura.
Frecuentemente, se piensa que
esa falta de conocimientos es im-
portante en lo que se refiere al
suelo, pero que en lo referente a
la estructura nuestros métodos de
cálculo son satisfactorios. Eso no
es así y la parte relativa al cálculo
de las deformaciones en las es-
tructuras de hormigón es todavía
insuficientemente conocida.
Por otra parte, con frecuencia las
estructuras de cimentación son
altamente hiperestáticas, y su
cálculo preciso resulta muy com-
plejo y raras veces es posible. El
ordenador ha venido a suminis-
trar una grana ayuda para bastan-
tes casos, pero no debe olvidarse
que el conocimiento, todavía im-
perfecto de las características de
suelos, de las del material hormi-
gón, y de las piezas de hormigón
estructural, hacen ilusorio el pre-
tender una gran precisión en los
cálculos.
Por todo ello, el proyectista de
cimientos ha de ser estrictamente
cuidadoso con los métodos de
cálculo que elija y especialmente
prudente al aplicarlos. En
ese sentido, el proyectista
no debe olvidar que las
cimentaciones usuales es-
tán ocultas y formadas por
piezas generalmente muy
rígidas comparadas con las
de la estructura. Por tanto,
el fenómeno de la fisura-
ción, que es un excelente
síntoma de aviso propio
de las estructuras de hor-
migón, no es observable
en los cimientos. Tampo-
co las deformaciones de
un cimiento excesivamen-
te solicitado suelen ser tan
importantes como para
construir un síntoma de aviso. Imagen 3. Diferencia entre cimentación superficial y cimentación profunda.
www.cuadernosdederechoparaingenieros.com
9Nº14. Junio de 2016
Imagen 2. Empotramientos perfectos como base de la
estructura.
10. de datos suficientes sobre la tipo-
logía de la estructura a cimentar,
cargas, separación entre pilares,
sótanos, etc. Es decir, el informe
geotécnico se elabora a posteriori
del modelo estructural.
2. Determinación de las pre-
siones admisibles
En base a lo obtenido en la pri-
mera fase, se determina la pre-
sión de hundimiento. La presión
de hundimiento es análoga al lí-
mite elástico de un material.
Una vez se ha determinado la
presión de hundimiento, median-
te una serie de coeficientes de
seguridad se determina la presión
admisible de trabajo.
Dichos valores se
obtienen a partir de
una serie de facto-
res, como pueden
ser el módulo elásti-
co del suelo, la re-
sistencia del suelo a
esfuerzos cortantes,
la profundidad del
nivel freático, los
asientos diferencia-
les permitidos, peso
específico del suelo,
deformabilidad…
3. Diseño estruc-
tural
Una vez se ha de-
terminado la pre-
sión admisible de
trabajo, y siempre teniendo en
cuenta el entorno en el que se
sitúa la obra: coste de los mate-
riales y la mano de obra, cargas a
las que está sometida la estructu-
ra, características del terreno…
Se pretende buscar una cimenta-
ción con un coste mínimo que
garantice la seguridad de la es-
tructura. En base a este criterio,
se pueden plantear principalmen-
te dos tipos de cimentaciones:
superficiales (o directas) y pro-
fundas.
La distinción entre cimentación
superficial o profunda viene dada
por la cota sobre la que se cons-
truye la misma. Se puede estable-
cer, a modo orientativo, una pro-
fundidad límite de unos 6 metros,
por debajo de la cual se conside-
rará cimentación
profunda, mien-
tras que por en-
cima de la mis-
ma se denomi-
nará cimenta-
ción superficial.
Dado que el
presente artículo
trata de cimenta-
ciones superfi-
ciales, nos cen-
traremos en es-
tas, ya que son
las más comu-
nes en obra civil
de baja y media
importancia.
Informe geotécnico
Los resultados de la investigación
geotécnica se recogen en el infor-
me geotécnico, que deberá conte-
ner datos suficientes para:
Elegir el tipo de cimenta-
ción más adecuada y los
métodos constructivos.
Fijar el nivel o los niveles
de apoyo de los cimientos
o las condiciones para esta-
blecerlos con precisión
durante el transcurso de las
obras.
Determinar las presiones
admisibles, en caso de ci-
mentaciones directas, o en
las resistencias por fuste y
por punta, en el caso de
pilotajes (cimentaciones
profundas).
Estimar la magnitud de los
asientos.
Adoptar medidas que evi-
ten posibles daños estruc-
turales por agresividad al
hormigón o expansividad,
colpasabilidad de suelos,
etc.
Establecer los procedi-
mientos de excavación y
dimensionamiento de mu-
ros, pantallas u otros ele-
mentos de contención de
tierras.
Para poder dar respuesta a todos
estos aspectos se debe disponer
10 Nº14. Junio de 2016
“El objetivo de las cimentaciones es asegurar que el terreno es capaz de soportar dichas
cargas. Además debe garantizar que también soportará las cargas sísmicas que establezca la
normativa, entre otros factores.”-
Imagen 4. Tipos básicos de cimentaciones superficiales.Calavera Ruiz,
J. Cálculo de Estructuras de Cimentación
11. si ocurre lo contrario.
Dicha distinción se establece para
determinar que teoría estructural
se emplea en el dimensionamien-
to del elemento. Se supondrá que
una zapata flexible cumple los
requisitos para considerarla ele-
mento esbelto, y, por tanto, se
estudiará de acuerdo a la teoría
general de flexión. Para el caso
contrario, se deberá emplear la
teoría de bielas y tirantes.
Para el dimensionamiento de la
zapata, habrá que determinar pri-
mero la distribución de tensiones
en el terreno. Dicha distribución
dependerá del tipo de terreno y
de la propia zapata.
Distribución de presiones bajo
una zapata
Las distribuciones de tensiones
empleadas en la práctica, que son
simplificaciones (del lado de la
seguridad) de las reales, pueden
ser uniformes o lineales. Dentro
de las lineales se distinguen
las trapeciales y las triangu-
lares, dependiendo de la
excentricidad de la carga.
El diseño que realicemos
debe cumplir dos requisi-
tos. Por un lado, la zapata
debe resistir las cargas que
el terreno y el pilar aplican
sobre esta. Por otro lado, el te-
rreno debe resistir las cargas que
actúan sobre este. Por establecer
un método para el dimensiona-
miento de las zapatas, podríamos
plantear lo siguiente:
- Se dimensiona el área de cimen-
tación con el criterio de que la
presión máxima que la zapata
ejerce sobre el terreno sea menor
a 1.25 veces la presión admisible
de trabajo, determinada en la fase
número dos.
- Se diseña una zapata con un
canto tal que tan sólo sea necesa-
ria armadura de tracción, en la
parte inferior de la misma, siendo
recomendable un canto mínimo
de 30 cm.
- Se realizan las comprobaciones
pertinentes, como son compro-
bación al vuelco, volver a calcular
la carga que transmite la cimenta-
ción al terreno incluyendo en
peso propio de la zapata, com-
probaciones a cortante, flector,
etc…
En cuanto a las cimentaciones
profundas, simplemente comen-
tar que pueden ser de hormigón
armado o pretensado; por lo ge-
neral son más costosas y que, en
el caso de ser estructuras de hor-
migón pretensado prefabricado,
estas se hincan en el terreno con
empleando una maquinaria in-
mensa.
Dentro de las cimentaciones di-
rectas, se distinguen dos tipos:
zapatas y losas. Generalmente se
emplearán zapatas, salvo en aque-
llas situaciones que sea preferible
económicamente la cimentación
por losas.
Zapatas
La instrucción del hormigón es-
tructural (EHE-08) y práctica-
mente la totalidad de los textos
que tratan este tema distingue
dos tipos de zapatas: rígidas y
flexibles. Una zapata se conside-
rará rígida si el vuelo máximo de
la misma es menor que dos veces
el canto, y se considerará flexible
11Nº14. Junio de 2016
Imagen 5. Principales tipos y subtipos de cimentaciones. Galería de imágenes de la asignatura Hormigón
Armado de la EPS UJAEN.
REFERENCIAS Y BIBLIOGRAFÍA:
- García Meseguer, Álvaro; Morán Cabré, Francisco; Arroyo Portero, Juan Carlos. Jiménez Montoya Hormigón
Armado. ED. Gustavo Gil 15º Edición. (2009)
- EHE-08 (2008) Instrucción de Hormigón Estructural. Ministerio de Fomento.
- Apuntes de la asignatura ‘Hormigón Armado’. De Borja Varona Moya, F.; López Júárez, J.A. Escuela politécnica
superior de Alicante
- Calavera Ruiz, J. Cálculo de Estructuras de Cimentación. Ed.: Intemac. 4º Edición Madrid (2000)
- Código Técnico de la Edificación (CTE). Documento básico de Seguridad estructural. Cimientos (SE-C). 2006
12. Si hiciésemos una encuesta sobre cuál fue el
primer coche de la historia, muchos (si no la mayoría)
de los encuestados responderían diciendo que fue el
Ford A allá por el 1903. Siendo así,
la mayoría de los encuestados habría
contestado incorrectamente confun-
dida por un error común, el Ford A
fue el primer automóvil fabricado en
serie. El primer automóvil movido
por un motor de combustión inter-
na (MCI) del que se tiene registro es
el patentado por Karl Benz en 1886.
Sin embargo, y como es
lógico, antes de que apareciese el
primer coche movido por un MCI,
éstos ya llevaban un tiempo desa-
rrollándose. El primer motor tal y
como lo entendemos ahora aparece-
ría en 1876 de la mano de Nicolaus
Otto. Los motores Otto no fueron
la primera piedra en el camino de
los MCI, pues ya antes se habían
desarrollado las máquinas de vapor
y otros motores de combustión in-
terna, pero sí que marcaron la estra-
tegia de los desarrollo futuros de los
MCI en una dirección con respecto
a la cual apenas existieron variacio-
nes.
Hemos mencionado otros
motores anteriores al de Otto. El
primero de todos ellos es sin duda
el desarrollado por Lenoir en 1860. Consistía en un
monocilindro de dos tiempos sin compresión previa de
la mezcla, formada por gas de hulla y aire. Este motor
era muy ruidoso y con tendencia a sobrecalentarse y
gripar si no se refrigeraba intensamente. Tenía un bajo
rendimiento por la ausencia de compresión previa y
por la pequeña relación de expansión.
En vista de los fallos del modelo de Lenoir el
siguiente motor, el de cuatro tiempos
de Beau de Rochas, trató de solivian-
tarlos introduciendo una compresión
de la carga antes de la combustión.
Aunque no llegó a fabricar ninguno,
Beau de Rochas sentó las bases del
motor que luego llevaría a la práctica
Nicolaus Otto.
Por su parte, en 1864, Otto se
asociaba con Eugen Langen y fundaba
la compañía Gasmotorenfabrik Deutz
AG en donde también trabajaron los
alemanes Daimler y Maybach. Otto
comenzó operando con motores de
gas sin compresión previa al igual que
Lenoir, pero en 1876 patentó su mo-
tor de cuatro tiempos. Sus competido-
res le acusaron de plagiar a Beau de
Rochas pero en algunos países como
Reino Unido y EEUU su patente fue
aceptada al no haber llegado el francés
a construir el motor.
Los mencionados Daimler y
Maybach, que se habían separado de
Otto en 1882 por desavenencias con
él, solicitaron en 1884 una patente
para lo que llegó a conocerse como
motor de cabeza caliente, siendo un
motor a medio camino entre el motor de Otto y el de
Diesel posterior.
Según el propio Daimler, el motor se regía por
el siguiente principio:
‘‘Las paredes del espacio A adquieren, a las pocas
HISTORIA DE LOS MOTORES
ALFONSO ROJO LAHUERTA. INGENIERO INDUSTRIAL
12 Nº14. Junio de 2016
Imagen. 1 Nicolaus Otto
Ref: www.ecured.cu
Imagen 2. Rudolf Diesel
Ref: www.quotationof.com
13. repeticiones de dicho juego, una temperatura normal algo elevada,
la cual, unida al efecto de la compresión, produce con regularidad
la inflamación de la mezcla en, o alrededor del punto muerto
superior de curva del pistón, según el principio confirmado por la
experiencia, de que mezclas combustibles, las que bajo presión
puramente atmosféricas no se inflamarían o quemarían con lenti-
tud, al ser comprimidas rápidamente, queman, no solamente con
rapidez, sino hasta hacen explosión’’
Decimos que es algo a medio camino entre los
motores Otto y los de Diesel porque aunque al igual
que en éstos el encendido se realiza por compresión,
ésta se hace sobre la mezcla aire combustible, siendo
en el Diesel únicamente sobre el aire.
Rudolf Diesel nació en París de padres alema-
nes. Desde sus inicios tuvo claro que quería mejorar el
rendimiento del ciclo Otto acercándolo lo máximo po-
sible al ciclo de Carnot. Para ello quería mantener
constante la temperatura durante las primeras fases de
compresión y, sobre todo, de expansión. Con este ob-
jeto pensó en inyectar el combustible en la cámara en
al mismo tiempo en que éste se quemaba con una ley
de inyección que mantuviese constante la temperatura
compensando el calentamiento de la combustión con
el enfriamiento de la expansión. Por esta razón varió el
planteamiento de Daimler comprimiendo sólo aire. La
idea se completaba refrigerando la primera mitad de la
carrera de compresión mediante inyección de agua. A
las compresiones y expansiones isotermas seguían las
compresiones y expansiones isentrópicas respectiva-
mente. De esta manera conseguía acercarse sustancial-
mente al pretendido ciclo ideal de Carnot consiguiendo
elevar los rendimientos de entre 6 y 10% de unas má-
quinas de vapor no tan antiguas a un sorprendente
26%, valor muy elevado para la época pero lejos aún
del 80% que pretendía alcanzar por el ciclo de Carnot.
Su muerte en 1913 durante una travesía al atravesar el
Canal de la Mancha cuando se dirigía a trabajar en In-
glaterra en vísperas de la Primera Guerra Mundial trun-
có su objetivo.
Gracias a Nicolaus Otto y a Rudolf Diesel se
habían sentado las bases de lo
que luego se conocería como
Motores de Encendido Provo-
cado (MEP) y de Encendido
por Compresión (MEC). Una
vez esbozados los primeros
motores de ambos tipos las
mejores no tardaron en suce-
derse de la mano de muchos
investigadores. Éstas muchas
veces han sido exclusivas para
uno de los dos tipos de moto-
res, entre las que caben desta-
car el método de encendido y
formación de la mezcla en los
MEP y los sistemas de inyec-
ción en los MEC. Otros avan-
ces como la sobrealimenta-
ción, el posicionado de la vál-
vulas, el control electrónico y
Imagen 3. Motor de Lenoir
Ref: www.britannica.com
Imagen 4. Daimler y Maybach
Ref: blog.ridenroad.com
13Nº14. Junio de 2016
14. Merece la pena detenerse en
algunos elementos debido a la gran
importancia que tuvieron.
Sobrealimentación
Básicamente existen dos for-
mas de sobrealimentar un motor, por
medio de compresores accionados por
el motor (sobrealimentación mecánica) y
por medio de un compresor accionado
por una turbina movida por los gases
de escape (turboalimentación). La apari-
ción de la mecánica se debió, princi-
palmente, a los trabajos de Daimler y
Renault (1885 y 1902). Büchi, por su
parte, fue el que promovió la turboali-
mentada (1905).
En un principio tuvieron mucha más impor-
tancia las mecánicas llegando a ser claves en los avio-
nes de la Primera Guerra Mundial. Sin embrago desde
que General Motors introdujo en el mercado en 1962
los primeros motores de gasolina turboalimentados su
importancia y estudio no ha dejado de aumentar hasta
suponer la casi totalidad en el caso de los motores Die-
sel.
Sistemas de formación de la mezcla en MEP
Aunque desde el principio ya se estudiaban
simultáneamente el carburador y los sistemas de inyec-
ción, no fue hasta la aparición del control electrónico
que éstas se impusieron al primero.
Al igual que en el caso anterior fue la aviación
la que ayudó a dar un empujón a los sistemas de inyec-
ción. A las ventajas iniciales del menor coste y gran
sencillez de los carburadores se opuso el problema de
que a elevadas alturas se congelaban y que al hacer
grandes giros parte del combustible se derramaba con
sus consecuentes peligros para la integridad del avión y
su tripulación.
Como sabemos los sistemas pueden ser de in-
yección directa o indirecta. La indirecta, que consiste
las mejoras en
lubricación, ma-
teriales y tecnolo-
gías de fabrica-
ción han sido de mucha utilidad a ambos.
A continuación se remarcan algunos de los
hitos más importantes:
1876: Primera patente de Otto
1885: Patente de Daimler de la sobrealimentación
1885: Primer carburador de Benz
1886: Primer automóvil con MCIA de Benz
1892: Motor Diesel
1905: Büchi patenta motor con turbocompresor
1909: L’Orange y Benz desarrollan la precámara de
combustión
1925: Inyección directa de gasolina por Hesselman
1927: Inyección en línea por Bosch
1933: Primer turismo Diesel por Citroën
1961: Inyección electrónica de Bendix
1962: Primera bomba de inyección por émbolo radial
1978: Primer turismo sobrealimentado por Mercedes
1995: Denso presenta el primer common rail
Imagen 5. Carburador de un automóvil:
Ref: spanish.alibaba.com
14 Nº14. Junio de 2016
El desarrollo de la inyección indirecta, de la electrónica y del catalizador de tres vías
condenó a los carburadores a su desaparición en los motores de cuatro tiempos
15. en la introducción del combustible antes de la válvula
de admisión y no directamente en el cilindro (inyección
directa), comenzó a desarrollarse en los 50. Su desarro-
llo, junto con la aparición de la electrónica y el cataliza-
dor de tres vías condenó a los carburadores a su desa-
parición en los motores de cuatro tiempos hacia finales
de los 70. Por su parte, la inyección directa hizo su apa-
rición en los 90 de la mano de Mitsubishi.
Sistema de inyección Diesel
Originalmente el combustible era inyectado,
atomizado, mediante aire comprimido por una tobera.
En 1927 Bosch revolucionó el mercado al fabricar la
primera bomba de inyección en línea que, junto con el
desarrollo de la precámara de combustión, permitió
aumentar enormemente la potencia suministrada por el
motor Diesel. A partir de ese momento la evolución
fue constante apareciendo mejoras como la bomba
rotativa.
El primer vehículo con common rail apareció en
1997 en el Alfa Romeo 156 1.9 JTD. A la vez que éste
se desarrollaron otros sistemas como el inyector bom-
ba y unit pump (compuesto por una bomba para cada
cilindro y un inyector mecánico o common rail ).
Sistemas de control de emisiones
Como todos sabemos la masificación del uso
del automóvil ha beneficiado al incremento en la con-
taminación atmosférica. Esto ha provocado la imposi-
ción de una reglamentación en lo referente a las emi-
siones que los motores deben cumplir. En un principio
fue suficiente con optimizar la combustión y emplear
catalizadores, pero el endurecimiento de las restriccio-
nes en los 80 forzó al desarrollo del catalizador de tres
vías. Este dispositivo, utilizado hasta la actualidad, im-
plicó la supresión del plomo en las gasolinas y la elimi-
nación del carburador, puesto que éste no podía con-
trolar de manera eficiente el dosado estequiométrico
necesario para la máxima eficiencia del sistema.
Como se puede observar el carburador, a pesar
de las mejoras que fue incorporando con los años, acu-
muló tantas desventajas ya mencionadas que terminó
por descartarse del todo excepto para motores de dos
tiempos.
Por el lado de los Diesel el post tratamiento de
los gases de escape no se hizo necesario hasta la llegada
del nuevo siglo. Los principales factores que les han
permitido cumplir
con la normativa
han sido la flexibili-
dad de los sistemas
de inyección, la re-
circulación de los
gases de escape
(válvula EGR) y la
utilización de la in-
yección directa en
motores de automó-
viles.
El post tratamiento
ha llegado en forma
de filtros de partícu-
las, de catalizadores
y mediante el SCR
(Selective Catalytic Re-
duction).
REFERENCIAS Y BIBLIOGRAFÍA:
- F. Payri; J.M. Desantes. Motores de combustión
interna alternativos. Valencia, España: Universidad
Politécnica de Valencia.
15Nº14. Junio de 2016
Imagen 6. Alfa Romeo 156 1.9 JTD
Ref: commons.wikimedia.org
16. AUTOMATIZACIÓN AVANZADA DE REDES
HIDRÁULICAS URBANAS
JUAN GONZÁLEZ GONZÁLEZ. INGENIERO DE CAMINOS, CANALES Y PUERTOS.
recogida de aguas sanitarias resi-
duales.
De forma más detallada se pue-
den enumerar los propósitos de
la automatización como los si-
guientes:
- Mejora de la calidad del servi-
cio.
- Mayor seguridad y eficacia de
gestión.
- Flexibilidad de trabajo para
operarios y gestores.
- Incremento de velocidad de
respuesta ante requerimientos del
servicio o imprevistos.
- Disminución sustancial de los
costes de mantenimiento y ejecu-
ción.
- Control amplio de los paráme-
tros del proceso de distribución o
recolección del agua y simulacio-
nes en tiempo real.
- Aumento de la capacidad de
detección de fugas o averías.
- Almacenamiento de datos técni-
cos y auditorias económicas.
La automatización se vertebra
sobre un conjunto de tecnologías
de tipo informático, electrónico y
de telecomunicación que permi-
ten distintos niveles de control y
gestión de las instalaciones hi-
dráulicas.
ESTADIOS DE AUTOMATI-
ZACIÓN EN REDES HI-
DRÁULICAS
Estos sistemas se encuadran en
distintos niveles atendiendo al
grado de avance tecnológico y al
número de herramientas de las
que dispongan.
En un primer nivel se encuentra
la telemedida-telealarma consis-
tente en un sistema de recogida
de información desde unos pun-
tos concretos llamados localiza-
ciones de control de la red.
Vivimos en una época caracteri-
zada por los procesos de infor-
matización y modernización tec-
nológica que tienen lugar en casi
todos los ámbitos de la vida coti-
diana, las relaciones sociales, los
sectores económicos, la gestión
de recursos, la administración de
servicios y un largo etcétera.
Gran parte de los avances tecno-
lógicos están fundamentalmente
basados en el campo de las tele-
comunicaciones y la informática.
Tanto es así que las llamadas tec-
nologías de la información tienen
hoy en día una integración plena
en un gran conjunto de activida-
des de diversa índole y su imple-
mentación facilita en gran medida
el desarrollo de éstas.
En esta línea se pueden citar los
sistemas de automatización de las
redes hidráulicas cuyo objetivo es
la optimización y mejora de la
eficacia de los servicios de distri-
bución de aguas potables y de
16 Nº14. Junio de 2016
Esquema 1.Intercambio de información entre los componentes de la telegestión o sistema de automatización avanzada.
17. recorrido del agua tomando co-
mo referencia la información del
conjunto de instalaciones interre-
lacionadas y conectadas telemáti-
camente al CCO. A partir de
este control permanente de la red
y sus instalaciones se calculan
predicciones de situaciones futu-
ras. Esto conlleva una mayor se-
guridad ante imprevistos y una
forma de optimizar el rendimien-
to del conjunto tanto de la obra
civil como del servicio prestado.
Finalmente el estadio de máxima
envergadura es la telegestión. És-
ta integra el registro de datos e
información para su posterior
análisis en relación a diferentes
cuestiones. Por un lado, se ex-
traen datos significativos de ren-
dimiento y se concluye con pará-
metros indicadores de los aspec-
tos a optimizar. Por otro lado, se
planifican actuaciones y toma de
decisiones en diversos escenarios
relacionados con fugas, operacio-
nes de conservación, averías de
equipos, reemplazamientos de
tuberías, etc. Incluso se generan
informes de consumos, estudios
de financiación, auditorías y ba-
lances económicos e inventarios
de mantenimiento.
En definitiva, la automatización
más avanzada se corresponde
con la denominada telegestión y
se define como el procedimiento
integrado de gestión de las obras
hidráulicas que abarca hasta la
planificación del funcionamiento
de la infraestructura y el servicio.
Para ello implementa los medios
telemáticos mas innovadores con
los que gobernar a distancia las
instalaciones, transmitir informa-
ción y actuar de la forma más
eficiente y eficaz posible.
El suministro de valores de los
parámetros de funcionamiento de
tuberías y equipos proporciona la
capacidad de analizar la operativi-
dad de la red y percibir averías.
En estas últimas circunstancias
entra en juego la telealarma, por
la cual, de forma sencilla y eficaz,
se avisa a los pertinentes opera-
rios de control. Tiene la ventaja
de que se puede realizar la alarma
en cualquier lugar donde se en-
cuentre dicho personal y en el
momento en el que tenga lugar la
anomalía. Para la telecomunica-
ción de estaciones de telemedida
con los técnicos se usa radio o
telefonía.
En un grado más avanzado de
automatización se sitúa el tele-
mando. En este caso, la informa-
ción llega desde las estaciones
remotas distribuidas por la insta-
lación hidráulica hasta los pues-
tos centrales de mando, infor-
mando del estado de funciona-
miento del sistema. Dichos cen-
tros de mando poseen la capaci-
dad de actuar sobre las instalacio-
nes de tal modo que ejecutan
maniobras de accionamiento,
conexión, desconexión y regula-
ción de equipos y válvulas. Se
valen de un ordenador central
para cambiar consignas y modifi-
car parámetros.
Un paso más sería la categoría de
telecontrol mediante un Centro
de Control de Operaciones
(CCO). Se incluye, además de las
funciones de niveles anteriores, la
simulación en tiempo real del
Imagen 1. Pantalla de programa informático para seguimiento de las instalaciones conectadas al CCO.
17Nº14. Junio de 2016
“La telemedida de valores de los parámetros de funcionamiento de tuberías y equipos
proporciona la capacidad de analizar la operatividad de la red y percibir averías”
18. ESTRUCTURA DE LA TE-
LEGESTIÓN
La telegestión se vertebra en
torno a una aplicación o sistema
tipo SCADA (Supervisory Con-
trol and Data Acquisition Sys-
tem) que consta de cuatro ele-
mentos clave interrelacionados
entre sí:
1– Estaciones remotas de infor-
mación: aparatos electrónicos
que se encuentran instalados en
los puntos de control sobre tube-
rías, bombas, depósitos, válvulas,
caudalímetros, contadores y todo
aquel instrumento que requiera
control. Incorporan sensores y
medidores de parámetros base a
través de señales digitales que
registran valores máximos y míni-
mos (encendido/apagado, detec-
ción de flujo, niveles extremos
mediante boyas) o señales analó-
gicas que son sensibles a un gran
rango de valores intermedios
(presiones, caudales, temperatu-
ras, niveles medios, turbidez, ve-
locidades). Toda esta informa-
ción se almacena en un hardware
provisto de CPU y de memoria
que trabaja con tarjetas entrada/
salida y módems.
2– Centros y puestos de control
de operaciones (CCO): unidades
informáticas que reciben todas
las referencias de las estaciones
remotas y las procesan para dar
lugar a productos variados sobre
los que articular la gestión y ex-
plotación de la red hidráulica. Las
herramientas para tratar las espe-
cificaciones obtenidas son:
- Registros de datos y situaciones
históricas.
- Bases de parámetros optimiza-
dos.
- Balances de volúmenes de agua,
to de actuaciones sobre compo-
nentes de la red. En este punto
podemos destacar el corte a dis-
tancia de válvulas, arranque o
parada de motores y bombas, etc.
3– Sistemas de comunicación:
instrumentos de conexión entre
las estaciones remotas y las CCO.
Su función es centralizadora y
difusora a la vez, pues dirigen los
datos hasta los CCO y las órde-
nes de vuelta a los elementos de
la red.
El soporte de telecomunicación
puede ser telefónico, por radio,
GSM, GPRS, red Ethernet, red
Internet o por cable.
4– Terminales y equipos para
contactar con el personal de las
distintas áreas de la explotación.
Sirven para transmitir las órdenes
e indicaciones y para enviar y
recibir registros. Se trata de orde-
nadores, PDAs, móviles, etc.
salidas, entradas, etc.
- Curvas de magnitudes hidráuli-
cas con respecto al tiempo.
- Informes pormenorizados de
interrelación de magnitudes.
- Fórmulas de cálculo hidráulico.
- Balances económicos de gastos
e ingresos en la explotación de las
infraestructuras.
- Visualización sinóptica de gráfi-
cos de simulación de evolución
en distintos escenarios.
- Listados de alarmas.
- Control de acceso de usuarios.
- Almacén de protocolos de ac-
tuación en situaciones de funcio-
namiento defectuoso o crisis.
Los centros de operaciones tam-
bién son los encargados de capa-
citar al operador o gestor de la
explotación para el accionamien-
Esquema 2. Control por sistema SCADA de impulsión de agua con bomba (E-1) hasta depósito. Ubica-
ción de estaciones remotas (PLC) para medición de flujo y nivel.
18 Nº14. Junio de 2016
“Los centros de operaciones son los encargados de
capacitar al gestor para actuar sobre la red ”
19. REDES DE DISTRIBUCIÓN
El agua procedente de las fuentes
de captación es transportada por
las canalizaciones y conducciones
en alta hasta las estaciones de
tratamiento de agua potable
(ETAPs) donde reciben trata-
mientos que la convierten en apta
para el consumo. Posteriormente
esta agua pasa a almacenarse en
depósitos y de ahí se distribuye a
través de las redes de distribución
o de abastecimiento en baja hasta
las acometidas y puntos de ali-
mentación.
Centrándonos en el ámbito ur-
bano, la telegestión controla cada
una de las fases por las que pasa
el agua en ese transporte en baja,
comenzando por su almacena-
miento en los depósitos. Los pa-
rámetros controlados en esta in-
fraestructura son caudales de en-
trada/salida, volúmenes de agua
recibida/liberada, niveles máxi-
mos/mínimos, niveles interme-
dios continuos, turbidez, apertu-
ra/cierre de válvulas, regulación
de las mismas, cantidad de cloro
administrado y estado encendi-
do/apagado de bombas.
De igual forma son muy intere-
santes considerar otros controla-
dores que detecten anomalías
importantes a poner en conoci-
miento como intrusismo de obje-
tos o elementos indeseables, fa-
llos o cortes de alimentación eléc-
trica, inundaciones de otros com-
partimentos como cámaras de
llaves o cámaras de bombas, in-
cendios detectados, presencias
ajenas al personal o desborda-
mientos del vaso del depósito. A
éstas se le asocia el sistema de
telealarma para dar parte en el
CCO al instante de alguna de
estas situaciones.
tros que determinan el comporta-
miento de la cañería, la cual tra-
baja en régimen de presión en
estas instalaciones de abasteci-
miento. Se trata del caudal que
circula por la red y la presión con
la que discurre dicho caudal en el
interior del tubo. Por medio de la
variación en estos parámetros y
de las anomalías en las series de
medidas recopiladas seremos ca-
paces de detectar los puntos de la
red en los cuales se producen
fugas de agua.
Un par de aspectos que caracteri-
zan la instalación de automatis-
mos en las redes de abastecimien-
to son la sectorización del con-
junto de la red y el grado de auto-
nomía de dichos automatismos.
Por una lado, normalmente, el
mallado de la red suele ser exten-
so y complejo, y aún más cuando,
como en estos casos, se trata de
un grupo de tuberías interconec-
tadas entre sí y funcionando a
presión. La gestión y supervisión
del conjunto es aconsejable reali-
zarla dividiendo la malla general
en submallas en las cuales sea
más sencillo el procedimiento de
mantenimiento y control. Al fin y
al cabo no es más que sectorizar
la red de distribución colocando
en cada sector los automatismos
necesarios que caractericen esa
parte del mallado global. Por otro
lado, nos encontramos con que
los lugares donde se deben colo-
car las estaciones remotas están
situados en cualquier punto de la
geografía urbana y en consecuen-
cia variará la accesibilidad para
conectarlas a la red eléctrica. Esto
provoca que algunos de los apa-
ratos automáticos que componen
las estaciones remotas deban ser
equipos autónomos provistos de
baterías.
En las estaciones de bombeo de
agua potable (EBAPs) las estacio-
nes remotas obtienen informa-
ción acerca del equipo de bom-
beo como número de arranques/
paradas, horas de funcionamien-
to, temperatura, estado de dife-
rencial eléctrico o posición ma-
nual/automático. A la par se ins-
talan medidores de las condicio-
nes de trabajo de las unidades de
bombeo, fundamentalmente cau-
dales, presiones de impulsión y
volúmenes de agua. Los controla-
dores de anomalías también son
de gran utilidad aquí y se corres-
ponden en su mayoría con los
implementados en depósitos.
Atendiendo a las tuberías de dis-
tribución del agua potable será de
vital importancia llevar una medi-
da exhaustiva de los dos paráme-
Imagen 2. Automatismo para punto de control
en red de abastecimiento.
Ref: Pino Coronel, J. Conferencia sobre telecontrol y
telegestión de redes hidráulicas.
19Nº14. Junio de 2016
Gráfico 1. Curva producida en un CCO sobre el
volumen acumulado en un depósito
20. cidad que lleven estos efluentes.
En base a estos dos conceptos se
puede determinar el caudal y el
volumen transportado.
Los sensores acoplados a las tu-
berías proporcionarán registros
asociados a estas cuestiones, pero
cumpliendo ciertos requisitos
adicionales con respecto a aque-
llos destinados al agua potable:
- Grado de autonomía aún mayor
por situarse en puntos aún más
inaccesibles para la red eléctrica.
- Protección más considerable del
dispositivo a consecuencia de la
gran cantidad de sustancias sóli-
das y deshechos que son arrastra-
dos y que pueden producir daños
materiales y agresiones químicas.
- Necesidad mayor de manteni-
miento por ser más susceptibles a
ser dañados por los residuos y a
ser víctimas de obstrucciones que
no permitan el correcto funcio-
namiento del dispositivo.
Otros elementos estratégicos en
la gestión de la red de saneamien-
to pueden llegar a ser los aliviade-
ros de tormenta. Se configuran
como desagües para recoger las
aguas pluviales que circulan por
las vías urbanas y dirigirlas hasta
los colectores de alcantarillado.
En estas infraestructuras son vi-
tales los caudales y los volúmenes
de vertido pluvial. Los dispositi-
vos que se están desarrollando en
este sentido también prevén el
conteo del número de desborda-
mientos y el tiempo que duran
éstos así como la detección de los
instantes en los que los aliviade-
ros están recibiendo vertidos.
Similares a estos aparatos auto-
matizados son los que se instalan
en puntos de cabecera de colec-
tores y en confluencias de tube-
rías para controlar los vertidos
que pasan por estos puntos estra-
tégicos. El nivel de mayor sofisti-
cación es alcanzado en las redes
de alcantarillado que incorporan
unos medidores especiales de
parámetros medioambientales y
que por lo tanto ofrecen infor-
mación sobre el grado de conta-
minación de los vertidos.
A pesar de que el régimen de tra-
bajo de estas redes hidráulicas es
sin carga, en ocasiones se hace
necesario impulsar el agua hacia
cotas más elevadas en su camino
hacia las EDARs y esta impulsión
se hace sometiendo a cierta carga
al agua residual. Aparecen en este
punto las estaciones de bombeo
de agua residual (EBARs). Para la
propia unidad de bombeo existen
automatismos en estaciones re-
motas para abarcar cuestiones
como parada/marcha, modo ma-
nual/automático, parámetros
eléctricos, caudal bombeado o
presión de impulsión. De la mis-
ma forma la arqueta habilitada
para recibir el efluente y albergar
las bombas se equipa con agita-
dores, boyas y contadores encar-
gados de registrar niveles máxi-
mos/mínimos/intermedios, cau-
dales entrada/salida y turbidez.
REDES DE SANEAMIEN-
TO
El agua residual que entra en la
red llamada de saneamiento pue-
de ser de origen urbano, indus-
trial o procedente de las precipi-
taciones. Ya sea por sistema se-
parativo o por sistema unitario,
esta agua discurre por colectores,
que suelen trabajar en régimen de
lámina libre, y alcanzan las esta-
ciones de depuración de aguas
residuales (EDARs). En éstas
últimas se procede al tratamiento
de retirada de la mayor cantidad
de residuos y contaminantes para
obtener un agua apta para el ver-
tido mediante emisarios de distin-
tos tipos al medio natural, o bien
para proceder a su reutilización.
En primer lugar, los elementos
principales que interesan a la tele-
gestión son las tuberías colecto-
ras. El transporte en lámina libre
de estos colectores depende del
nivel que se alcance y de la velo-
“El nivel de mayor sofisticación es alcanzado en las redes de alcantarillado que incorporan
medidores especiales de parámetros medioambientales y grados de contaminación”
Imagen 3. Estaciones remotas instaladas en
estación de bombeo de agua residual.
Ref: Pino Coronel, J. Conferencia sobre telecontrol y
telegestión de redes hidráulicas.
20 Nº14. Junio de 2016
21. to, Montaverner, Calpe, Quart de
Poblet y Chiva. El objetivo prin-
cipal es alcanzar una gestión efi-
ciente del servicio ajustando pe-
riodos de facturación, alertando
sobre anomalías, evitando moles-
tias a usuarios, eliminando niveles
ínfimos de consumo por ausencia
de lecturas y sobre todo aumen-
tando el rendimiento hidráulico
mediante la reducción de fugas.
Otro caso a destacar es el proyec-
to Smart Water en Santander,
cuyo eje es la iniciativa pionera
en el mundo de aplicación de la
telegestión al ciclo integral del
agua. Se lleva a cabo por la em-
presa FCC Aqualia y el Ayunta-
miento de Santander y engloba
estaciones remotas en instalacio-
nes tanto con suministro eléctri-
co como sin él: bombeos, depósi-
tos, arquetas y aliviaderos. A esto
se añade la sectorización de la red
de abastecimiento así como los
controles de caudal y toma de
muestras en el saneamiento. El
proveedor técnico ha sido la em-
presa Sofrel.
La monitorización y seguimiento
del ciclo del agua de la ciudad de
Santander han logrado el estable-
cimiento de ratios de consumos,
umbrales de alarmas, índices de
calidad del agua y la adecuación
de la presión de funcionamiento
en la distribución. Pero sin duda
la exclusividad de este proyecto
reside en el desarrollo de una
aplicación para dispositivos Ipho-
ne, Ipad y Android para acceder a
información del servicio de abas-
tecimiento y alcantarillado.
EXPERIENCIAS REALES
DE AUTOMATIZACIÓN
En la actualidad el proceso de
automatización de las redes hi-
dráulicas en el ámbito urbano se
encuentra en pleno auge y existe
la posibilidad de encontrar distin-
tos niveles de automatización
distinguiendo redes con un bajo
grado de implementación y otras
con una alta cualificación teleges-
tora.
Un ejemplo bastante significativo
de implantación en un grado de
telemedida es la instalación del
más amplio parque de contadores
inteligentes de España. Se está
llevando a cabo por parte del
Grupo Aguas de Valencia, que
gestionaba la lectura de 410.000
contadores automatizados en
2014 y que prevé alcanzar pronto
los 600.000. Este macroproyecto
se articula en torno a los sistemas
de lectura a distancia de contado-
res y un centro de operaciones y
control único para las poblacio-
nes de Valencia, Gandía, Sagun-
Imagen 4. Contador inteligente para lectura a
distancia.
Ref: www.iagua.es
REFERENCIAS Y
BIBLIOGRAFÍA:
- Pino Coronel, J. Conferencia
sobre telecontrol y telegestión de redes
hidráulicas. E.T.S. Ingeniería de
Caminos, Canales y Puertos de
Granada, 2013.
- García Molina, J. A. Apuntes de
planificación, diseño, gestión y
seguridad de obras hidráulicas.
E.T.S. Ingeniería de Caminos,
Canales y Puertos de Granada,
2013.
- Hontoria García, E. y Osorio
Robles, F. Fundamentos y cálculo de
redes de distribución. Granada.
Colegio de I.C.C.P., 2005.
- www.esmartcity.es
- www.tecnoaqua.esImagen 5. Soluciones para medida de nivel en redes de saneamiento.
Ref: www.iagua.es
21Nº14. Junio de 2016
22. INTRODUCCIÓN
A diario navegamos por internet pero rara vez
nos preguntamos cómo es capaz de llegar la informa-
ción que generamos en nuestro dispositivo a otros
usuarios o viceversa. Detrás de ello hay un proceso
relativamente complejo que trabaja sobre un elemento
que no hace más que crecer día tras día: la red.
Podemos definir red como conjunto de ele-
mentos interconectados entre sí. En todas las redes
existen los nodos, que en el caso de internet no son
más que dispositivos con cierta capacidad de almacena-
miento (al contrario que las conexiones que unen un
dispositivo con otro).
Centrándonos en redes de telecomunicaciones,
concretamente en redes de datos, existe varios tipos de
redes: LAN , MAN, WAN. La primera de ellas conecta
un número no muy elevado de dispositivos entre sí. Un
claro ejemplo es la red que montamos en casa con 2 ó
3 PCs. Las redes MAN son muy similares a las LAN,
pero la distancia entre los dispositivos interconectados
suele ser mayor (varios cientos de metros en ocasio-
nes). La última de ellas es la más amplia de todas. Se
podría decir que una red WAN es sinónimo de lo que
conocemos como INTERNET. Una enorme nube de
dispositivos interconectados a través de una gran canti-
dad de posibles caminos o rutas. El principio de fun-
cionamiento de internet se basa en la conmutación de
paquetes. En este tipo de comunicación la información
viaja fraccionada y es posible que vaya intercalada con
"paquetes" que provengan de otro usuario y vayan des-
tinados a otro dispositivo. Existe otra forma de
comunicación que se conoce como conmutación de
circuitos. En esta ocasión, se establece un circuito fijo
entre emisor y receptor y la información viajará única-
mente por el mismo. Además, el canal será dedicado
exclusivamente a esa comunicación hasta que ésta ter-
mine.
MODELO OSI
El funcionamiento de internet se basa en un
modelo que, a pesar de estar en desuso, supuso la base
de esta forma de comunicación, el modelo OSI.
Se basa en la existencia de 7 capas o niveles de
tratamiento de la información (Figura 1). Cada una de
las capas tiene una o varias funciones características.
Dependiendo de si nos centramos en el emisor o en el
receptor, la información comenzará a ser tratada en la
capa 1 o física o en la capa 7 o de enlace. Veamos paso
a paso de qué se encarga cada capa. Para ello, vamos a
situarnos en el contexto del emisor.
La capa 7 o de Aplicación, se encarga de sumi-
nistrar servicios de red a las aplicaciones. Se ocupa de
añadir las librerías (*.dll, *.doc, etc).
La capa 6 o de Presentación es la encargada de
INTERNET Y SU
FUNCIONAMIENTO
JOSÉ MANUEL IBÁÑEZ POVEDA. INGENIERO INDUSTRIAL.
22 Nº14. Junio de 2016
Figura de introducción: La red.
Ref: www.tynecuador.com
23. dar formato a los datos. Es decir, realiza tareas como
conversión de código de caracteres (de EBCDIC a AS-
CII por ejemplo), conversión de datos (punto flotante
entre enteros), comprensión de datos, cifrado de datos,
etc.
La capa 5 o de Sesión permite que dos proce-
sos de aplicación en diferentes equipos establezcan,
empleen y cesen una conexión de manera segura con
reconocimiento de nombres, registro y otros datos.
La capa 4 o de Transporte se encarga de asegu-
rar la fiabilidad de la transmisión desde el emisor al
receptor. Es en esta capa donde la información se divi-
de en segmentos que serán enviados en paquetes a tra-
vés de la capa de red. En el sentido contrario del flujo
de la información, la capa de transporte unirá los seg-
mentos recibidos para pasar a la capa de sesión la in-
formación ensamblada de nuevo.
La capa 3 o de Red determina el mejor camino
a través de la red para que los paquetes lleguen al des-
tino a través de varios enlaces.
La capa 2 o de Enlace es la responsable de la
sincronización de la señal, control de acceso al medio
de transmisión y, además, contiene un mecanismo para
la detección y/o corrección de errores.
Por último, la capa 1 o Física es la que propor-
ciona un medio de transmisión (cable par trenzado por
ejemplo). Transforma la información proporcionada
por las capas superiores en una señal adecuada para el
medio de transferencia (codificación, modulación, etc).
Incluye el diseño físico real de la red y básicamente,
convierte la información recibida en bits (viceversa
para el sentido contrario de flujo de información).
ENCAPSULAMIENTO
A medida que los datos generados viajan hacia
la capa física, la memoria que ocupan no hace más que
crecer. Esto se debe a que cada capa añade informa-
ción vital a los datos de origen para asegurar que la in-
formación llegue al destino de forma correcta. Este
proceso es conocido como Encapsulamiento.
La capa de aplicación recibe los datos sin mo-
dificación alguna y añade una cabecera que contiene las
librerías (*.dll, *.doc, etc). Al conjunto formado por
dicha cabecera más la información de origen se le de-
nomina Dato. Este "pack" se envía como un "todo" a
la siguiente capa. El nivel 6 o de Presentación, añade su
propia cabecera que contiene los códigos léxicos. A
este conjunto de información se le sigue denominando
Dato. La capa de Sesión añade los "Keep alive" o
mensajes de inicio, mantenimiento y cierre de sesión.
Nuevamente, este flujo de información recibe el nom-
bre de Dato. La siguiente cabecera que añadirá la capa
de transporte de destino. En este punto, el total de la
Figura 1: Capas modelo OSI.
Ref: alegsa.com.ar
23Nº14. Junio de 2016
24. capa de transporte funciona de manera similar a la del
modelo de referencia. La capa de Internet está com-
puesta por la capa de Red, también en esta ocasión con
las correspondientes funciones de la misma. Por últi-
mo, la capa de Acceso a Red está compuesta por capa
de Enlace y Capa Física del modelo OSI.
Para conocer más acerca del funcionamiento
de internet hemos de conocer el concepto de protoco-
lo y de interfaz. Un protocolo es el conjunto de nor-
mas que regulan la comunicación entre las mismas ca-
pas (mismo nivel) de dos dispositivos distintos en una
red. La interfaz es el conjunto de normas que regulan
la comunicación entre dos capas contiguas dentro del
mismo dispositivo de la red.
Este modelo recibe su nombre debido a uno
de los principales protocolos empleados en la capa de
Internet, el protocolo IP. Este protocolo elige la mejor
ruta para la transmisión de la información, sin preocu-
parse del contenido de la misma. Cada ordenador co-
nectado a una red TCP/IP tiene una dirección IP que
consiste en 4 campos de 8 bits cada uno, formando un
total de 32 bits (en el caso de IPv4). Este protocolo
posibilita direcciones para 232 host (dispositivos conec-
tados). Existe un proyecto en desarrollo que será im-
plementado en el futuro que permitirá 2128 host.
de la información se divide en varias partes que serán
denominadas Segmento. La dirección IP de origen y
de destino es añadida por la capa de red. La unidad de
información se llamará, en esta ocasión, Paquete. La
capa de enlace añade las direcciones MAC (direcciones
físicas) de origen y destino. La unidad básica de infor-
mación de esta capa recibe el nombre de Trama o
Marco. Por último, la capa física recibe toda la infor-
mación proporcionada y la transforma en bits, sin aña-
dir ningún tipo de información extra, como sí hacen el
resto de capas o niveles. Según el código de línea em-
pleado, estos bits recibirán un valor de voltaje determi-
nado que viajará por el medio de transmisión. En senti-
do contrario de flujo de información el proceso es si-
milar pero de manera inversa. Cada capa recibe la in-
formación de la capa inferior, extrae la cabecera corres-
pondiente y eleva los datos.
MODELO TCP/IP
Es el modelo que se emplea actualmente. Su
funcionamiento es muy similar al modelo OSI, pero
añadiendo una serie de pequeños cambios.
El más importante de ellos consiste en el nú-
mero de capas. Mientras que el modelo OSI estaba
constituido por 7 capas, el modelo TCP/IP posee úni-
camente 4: Capa de Aplicación, capa de Transporte,
capa de Internet y capa de Acceso a Red.
La primera de las capas engloba la capa de
Aplicación, capa de Presentación y capa de Sesión del
modelo OSI, con las correspondientes funciones. La
Figura 3: IP y Máscara
24 Nº14. Junio de 2016
Figura 2: PDU de las distintas capas.
Ref: es.wikipedia.org
25. Las direcciones IP se suelen expresar en for-
mato decimal. Un ejemplo podría ser 192.168.2.1.
Existen tres tipos de direcciones IP: Clase A, Clase B y
Clase C.
La Clase A engloba desde 1 hasta la 126. Un
ejemplo podría ser la red 7.0.0.0. Son las redes de ma-
yor tamaño y suelen ser propiedad de Organismos Gu-
bernamentales o grandes empresas. En esta clase, los
primeros 8 bits designan la red, los demás designan el
host o la subred.
La Clase B abarca desde la 128 hasta la 191.
Pongamos como ejemplo 190.28.0.0. Son las redes de
tamaño intermedio, permiten conectar 216 - 2 host. Es-
tas dos direcciones serán reservadas para designar la
red (primera dirección) y para broadcast, que es una
difusión para todos los elementos conectados a la red
(última dirección).
La Clase C abarca desde la 192 hasta la 233.
Un ejemplo de esta clase sería 192.168. 2.4. El identifi-
cador de red sería 192.168.2.0 y la dirección de broad-
cast 192.168.2.255. Estas redes son las de menor tama-
ño, ya que únicamente permite conectar 254 host. Esta
es la clase de dirección IP de la que solemos disponer
en nuestros hogares. Por regla general, la dirección IP
cambiará cada vez que reiniciemos el router, a menos
que paguemos una suma adicional a nuestro proveedor
para recibir una dirección IP estática. Tecleando en el
cmd "ipconfig /all" se mostrará en pantalla nuestra
configuración de red, en la que podremos consultar
algunos datos interesantes, como nuestra IP actual.
Véase la Figura 3.
Como se puede observar, la IP corresponde a
Clase C. Aparece, además, un campo denominado
"Máscara de subred". La máscara ayudará a definir qué
parte de la IP pertenece al host y qué parte a la red. Se
realiza la operación AND a la dirección IP a analizar.
En el caso de la figura 3, Si realizamos la operación
lógica AND a la dirección 192.168.42.227 con
255.255.255.0 obtendremos como resultado
192.168.42.0. Este resultado indica que los 3 primeros
campos son para designar la red y el último para desig-
nar el host, que se corresponde con la estructura de las
direcciones de Clase C. Una posible máscara para Clase
B sería 255.255.0.0 y para Clase A 255.0.0.0. Sin em-
bargo, las máscaras no tienen por qué ser siempre tan
sencillas. Se puede dar el caso de que una máscara sea
255.255.255.242, que se utilizaría para crear subredes.
Mediante este elemento, seremos capaces de
crear todo tipo de redes gracias a las cuales podremos
seguir disfrutando de este maravilloso mundo de infini-
tas posibilidades.
Sin embargo, con el tiempo, la red no ha sido
el único elemento que ha ido avanzando en tecnología
y desarrollándose. Simultáneamente ha aparecido ver-
siones cada vez más avanzadas y nocivas de los conoci-
dos virus y troyanos. Todo aquél que desee utilizar la
red sin sufrir sustos desagradables y percances tendrá
que arreglárselas para adquirir un antivirus. De esta
forma será posible navegar de forma más segura y pro-
teger datos muy valiosos como los datos bancarios,
archivos multimedia y otro tipo de datos privados y/o
personales. Detrás de todo este concepto existe un
mundo oscuro sobre el que hay una enorme diversidad
de opiniones.
Figura 4: Virus, troyanos y actividades sumergidas.
Ref: www.timos.info
25Nº14. Junio de 2016
“Mediante el comando ipconfig /all seremos capaces de consultar nuestra configuración IP
en cualquier momento”-
26. dustria alimentaria, se utiliza generalmente para contro-
lar las horas que transcurren desde que un producto es
recolectado, procesado, almacenado, envasado y envia-
do al supermercado.
Por un lado, es crucial para mantener su textura, sabor
y color inalterable para tener la certeza de que se en-
vían productos de la máxima calidad y de acuerdo con
los exigentes controles de sanidad, así, se puede enviar
un haz de luz (infrarrojo) para determinar si su estruc-
tura molecular y determinar que se encuentra en condi-
ciones óptimas sin necesidad de realizar ninguna prue-
ba tradicional de sabor, color u olor.
Por otro, también se realizan pruebas de sabor, color u
olor, para verificar mayor seguridad en los alimentos,
aunque en algunos casos sería contraproducente reali-
zar pruebas a todos los productos. Para las pruebas
realizadas para comprobar su sabor, se recurre a la
práctica, teniendo en cuenta que no todos los produc-
tos se deben comprobar con el sentido del gusto. El
gusto es un sentido bastante subjetivo y depende de
muchos factores, en el caso de una destilería de whis-
key el sentido del gusto (en los casos normales) estaría
bastante mermado a primeras horas del día, además de
sólo poder realizar un número limitado de muestras.
La espectrosco-
pia infrarroja
estudia las inter-
acciones que
ocurren entre la
materia su radia-
ción electromag-
nética y tiene
importantes apli-
caciones en el
campo de la in-
geniería.
Se trata de estu-
diar el comporta-
miento de una onda y sus principales características
(longitud de onda, y frecuencia) sobre un objeto de
estudio. Con ello podemos conocer su estructura mole-
cular sin tener que realizar ensayos que pueden des-
tructivos o incluso necesitar parte del objeto para reali-
zar pruebas hasta hallarla. Con este sistema no es nece-
sario interaccionar con el objeto de estudio, únicamen-
te un haz de luz infrarrojo es necesario. Es una práctica
muy fiable que es necesaria para realizar controles de
calidad a productos en segundos. En el caso de la in-
ESPECTROSCOPIO Y EL CONTROL DE CALIDAD
PEDRO MANUEL VÉLEZ GÓMEZ. GRADUADO EN INGENIERÍA MECÁNICA.
Nº 1. Descomposición de la luz a través de un
prisma.
26 Nº14. Junio de 2016
27. ner un mejor rendimiento en la producción, procesan-
do las mejores estructuras moleculares (más estables),
donde se pretende extender la vida útil de los produc-
tos sin recurrir a cámaras frigoríficas, y así pudiendo
transportarlo a mayor distancia sin que afecte a su cali-
dad siendo estos más seguros puesto que, su estructura
molecular permanecerá inalterable más tiempo y se
podrá ofrecer un mayor tiempo de caducidad en los
productos.
Desde que se descubrió la existencia de la luz infrarroja
allá por el año 1800 por Frederick William Herschel se
han realizado importantes avances partiendo de la des-
composición de la luz del sol con un prisma en una
gama de colores. Colocó un termómetro para medir la
temperatura en todos los colores, situando el termóme-
tro más allá del rojo y notó que era una temperatura
más elevada que el resto. Esto es debido a que aunque
el color rojo es visible en la descomposición de la luz
del sol, más allá del rojo tenemos el infrarrojo que no
es percibido por el ser humano a simple vista debido a
su longitud de onda que está en el límite (es menor)
que podemos percibir. El ojo humano únicamente es
capaz de recoger 390 a 750 nm, si necesitamos ver
otras longitudes de onda, es necesario recurrir a apara-
tos de visión especiales, aunque esta luz es emitida por
cualquier cuerpo que esté una temperatura mayor de 0º
Kelvin. La fuerza de atracción entre dos átomos que
depende de su composición y de la distancia entre los
átomos o momento dipolar, produce una vibración
determinada si aplicamos luz infrarroja.
Para evitar en la
medida riesgos
en los test de
calidad, se recu-
rren a la densi-
dad medida con
aparatos calibra-
dos al efecto,
color, que puede
realizarse con la
comprobación
de una plantilla o
paleta de colores
o por medio de sofisticadas cámaras que registran el
color, dichas cámaras son calibradas con una determi-
nada iluminación debido a que dependiendo de la luz a
la que sea expuesta el producto, tendrá una tonalidad
diferente.
Al poder analizar las estructuras moleculares de mues-
tras a través de la radiación de rayos infrarrojos, pode-
mos realizar un plan más ajustado a todo el proceso,
desde la recolección, mucho más ordenada y adecuada
a las necesidades de la industria aplicando procesos de
fabricación “just in time”, donde se obtiene frescura en
productos perecederos, pudiendo establecer la fecha de
caducidad fijándonos en parámetros de evolución en la
degradación de las estructuras moleculares, asimismo,
conoceremos cómo afecta al cultivo una recolección
nocturna o diurna, dentro de las mismas, cuál es la
temperatura y época ideales de recolección para obte-
Nº 2. Frederick William Herschel observando la
descomposición de la luz de una vela a través de un
espectroscopio.
Nº 3 Representación esquemática del espectro que proyectan algunas bombillas convencionales.
27Nº14. Junio de 2016
28. guir corriente (frecuencia umbral).
En la industria y los procesos industriales, en el caso de
control de calidad, es necesario conocer las exigencias y
los cánones básicos de calidad. Una vez conocidos, se
preparan unas muestras, dichas muestras son necesa-
rias para proceder a la calibración de los equipos de
infrarrojos. En el caso de productos perecederos, se
elegirán productos que al menos en apariencia conser-
ven estados óptimos de consumo, piezas con buen co-
lor, peso y sabor, incluso, olor también se recurre a
laboratorios donde se le someten a unas pruebas de
calidad. Posteriormente se analizarán los efectos que
tienen cuando se someten a la espectroscopia infrarro-
ja. Según los resultados obtenidos, serán clave para
determinar si las siguientes muestras son y están en las
mismas condiciones que el espécimen de muestra ini-
cial. También se comprobarán los parámetros en piezas
de peor calidad, así, podremos comparar los resultados
entre el espécimen deseable y el desechable. Estos pa-
rámetros son importantes a la hora de realizar una bue-
na calibración y para establecer una regla en el proceso
de producción.
También nos permitirá diferenciar entre varias calida-
des, desde una superior, media o inferior. Una vez se
produzca la calibración espectroscópica, es necesaria
realizar una comprobación exhaustiva para recopilar
datos y estudiar los aciertos y errores según la calibra-
ción previa. Se introducen varios especímenes en el
área de valoración registrando y visualizando los valo-
res que recogen.
Aunque algunos
compuestos no
pueden ser estu-
diados con esta
luz debido a que
su momento di-
polar no es alte-
rado por dicha
luz, en conse-
cuencia, no po-
demos conocer su
estructura de esta
manera, estos
compuestos son los compuestos homonucleares
(suelen estar en estado gaseoso en condiciones norma-
les de presión y temperatura). Como podemos ver en la
figura número 4, el momento dipolar de una molécula
dada depende de su geometría. No obstante, esto es
una excepción, ya que la inmensa mayoría de todos los
objetos o compuestos que utilizamos son compuestos.
La luz aunque se comporta como una onda, también es
energía electromagnética. En el caso de la verificación
del color del producto aunque el proceso es más com-
plejo de lo que se expone y se utilizan aparatos más
sofisticados, se recurre al principio básico de colocar
dos placas de metal aisladas al vacío y separadas una
distancia, utilizando unos emisores de luz llamados
leds, podemos controlar su color y la intensidad de
dicha luz. Los electrones de una placa saltan y se pro-
duce corriente eléctrica, si lo conectamos a un amperí-
metro, conoceremos la corriente que circula por ellos,
cuantificando la intensidad que circula
por el circuito en función de la luz
emitida.
Esto puede parecer que al aumentar la
intensidad de la luz por medio de los
leds, deberá aumentar necesariamente
la intensidad en el circuito, pero esto
no es realmente así, puesto que solo
para una cierta diferencia de potencial
y en colores como el rojo y el infrarro-
jo, no se produce intensidad de co-
rriente en el circuito debido a que la
energía se traduce en calor, de ahí que
Frederick William Herschel observara
mayor temperatura cuando aproximó
un termómetro a este tipo de luz. Es
decir, solo si se emite luz a una deter-
minada frecuencia podremos conse-
Nº 5. Circuito representativo del efecto fotoeléctrico.
28 Nº14. Junio de 2016
Nº 4. Representación de la molécula del compues-
to dióxido de azufre.
Http://www.calabriancorp.com/
29. Se podrán realizar pruebas con 100 especímenes para
conocer el porcentaje de ejemplares válidos o rechaza-
dos. A pesar de ser una prueba bastante fiable, debe-
mos rigurosos en establecer el mínimo de productos,
piezas, objetos… que son tolerables con errores. En el
caso por ejemplo de ser productos de salud se ha de
tener ejemplares que se acerquen casi 100% debido su
uso muy específico, y además reflejar de forma clara
sus todas sus contraindicaciones.
En el caso de telas u otros productos similares y siem-
pre que no tengan un destino concreto y sensible en el
que sea necesaria una seguridad alta, se puede dismi-
nuir este margen.
Existen varios tipos de infrarrojos, estos tipos están
diferenciados en infrarrojos cercanos, medios y lejanos,
donde la única diferencia es la longitud de onda que
posee el haz de luz infrarrojo cercano (NIR) posee una
longitud de onda de 800 nm a 2500 nm, el infrarrojo
medio (MIR) posee una longitud de onda de 2,5 μm a
50 μm y por último el infrarrojo lejano (FIR) de 50 μm
a 1000 μm. Siendo en términos generales la más utiliza-
da es la luz infrarroja media (MIR). Por todo ello, se
dispone de varias longitudes de onda y se utilizará de-
pendiendo de la estructura molecular que necesitemos
comprobar. Los seres vivos disponen de una radiación
constante y propia por la emisión de temperatura.
De acuerdo con la ley de desplazamiento de Wien,
donde la longitud de onda λ máxima puede ser calcula-
da a través de una constante multiplicada por la tempe-
ratura en el punto negro (real), es decir, la longitud de
onda de un cuerpo emisor es inversamente proporcio-
nal a la temperatura de este, donde se pueden observar
que a menor temperatura (menor energía), colores más
oscuros y a más temperatura (mayor temperatura), co-
lores más claros.
Cuando la luz viaja de un medio a otro diferente, la
energía que transporta es invariable. Esta energía de-
pende de la longitud de onda λ y a su vez de la frecuen-
cia. Dado que la luz viaja de un medio a otro, su fre-
cuencia no cambia, solo cambiará su longitud de onda
(V=F•λ),siendo
la velocidad de
una luz una cons-
tante. Siempre
que el haz de luz
sea emitido, pro-
ducirá dos fenó-
menos conoci-
dos, como son la
reflexión o la
refracción.
En función del
análisis que se
deba realizar, es posible realizar una polarización para
evitar que las ondas se propaguen en direcciones y sen-
tidos que no sean necesarios para el análisis. Para el
caso del análisis en un control de calidad, es preciso
focalizar el haz de luz justamente donde se encuentra el
objeto de estudio.
La polarización de la luz se puede aplicar por absor-
ción, reflexión o birrefringencia. Para la absorción es
necesario colocar un elemento que pueda absorber de
forma selectiva dividiendo la luz policromática en luz
monocromática con diversas longitudes de onda. Es
utilizado para recepción en cámaras digitales con re-
ceptores CCD.
Debido a su sen-
sibilidad, y a que
recoge los colo-
res, hemos de
tener en cuenta a
la temperatura
que se registran,
puesto que si es
cercana a 0ºC es
muy probable
que no se pro-
duzca un registro
correcto.
Nº 6. Efecto producido por la luz polarizada
frente a la no polarizada.
29Nº14. Junio de 2016
“Existen varios tipos de infrarrojos, estos tipos están diferenciados entre cercanos, medios
y lejanos”.-
REFERENCIAS Y
BIBLIOGRAFÍA:
-. http://www.sites.google.es/site/
electricalia/
-. http://www.calabriancorp.com
-. http://www.portal.uned.es/
30. queña o gran sección (túneles), construcción de pozos
o chimeneas, etc.
2.- Trabajos similares o iguales a los definidos como
voladuras de exterior, como el banqueo al piso de tú-
neles, banqueo de cámaras en explotaciones mineras,
banqueo principal en excavación de cavernas de cen-
trales subterráneas, etc.
En este segundo caso, nos encontramos con trabajos
muy similares a los que se realizan a cielo abierto, so-
bre todo en todo lo concerniente a trabajos en banco,
cuya técnica es la misma que la empleada en exterior
salvando los condicionantes propios del trabajo en ga-
lerías.
Para el primer caso, el que nos ocupa en este artículo,
tanto los sistemas de perforación como de voladura,
carga y transporte son específicos y están adaptados
para las particularidades de los trabajos de interior.
Voladuras de Interior
Una de las particularidades de las voladuras en interior
es la necesidad de conseguir, con una voladura previa,
una primera cara libre o cuele. Como ya se describió en
el artículo dedicado a las voladuras a cielo abierto, la
presencia de esta cara libre es fundamental para maxi-
Por voladuras en interior se entiende que son aquellas
que se realizan subterráneamente, para el arranque de
roca en explotaciones, obras públicas o cualquier otro
trabajo subterráneo.
Dentro de este conjunto, podrían establecerse clasifica-
ciones complementarias de todo tipo, pero desde un
punto de vista conceptual pueden establecerse dos
grandes grupos de trabajos subterráneos:
1.- Trabajos que por su forma son específicos de obras
subterráneas, tanto en perforación como en voladura.
Como por ejemplo el avance en galería, bien en pe-
VOLADURAS EN INTERIOR
ALVARO M. SÁNCHEZ GUISÁNDEZ. GRADUADO EN INGENIERÍA MINERA.
Imagen Nº1 Frente de avance listo para ejecutar una voladura en la excava-
ción de un túnel.
http://ingeol.cl/
30 Nº14. Junio de 2016
31. La primera, por ejecutarse las voladuras con difícil sali-
da (tratándose de túneles sólo pueden salir por el plano
que conforma el frente de avance) y la segunda por ser
necesario obtener tamaños de roca reducidos que estén
acorde con los medios de carga y transporte usados,
cuyas dimensiones han de ser muy ajustadas para poder
ser aptos en trabajos de interior.
Esta circunstancia también conlleva que los consumos
específicos sean mayores en las voladuras que se reali-
zan en interior que a cielo abierto, pues al ser necesario
conseguir granulometrías menores, aumenta la cantidad
de explosivo por m3 de roca volada.
Otra importante diferencia a considerar entre el labo-
reo de interior y de exterior es la toxicidad de los gases
procedentes de las voladuras, que en interior adquiere
una gran importancia y en consecuencia condiciona el
explosivo usado.
En cuanto a labores con ambiente explosivo podemos
decir, que aparece una nueva selección del explosivo a
usar (Explosivos de Seguridad) y que el avance de las
labores se ve afectado por una legislación que limita las
cantidades de explosivo por barreno y pega y la dura-
ción de la propia pega, además de las limitaciones de
humos.
Por tal motivo, aunque trabajos de interior puedan ser
parecidos o aparentemente iguales a algún trabajo de
exterior, siempre existen matizaciones en pequeña o
gran medida que establecen diferencias importantes.
mizar el poder destructor del explosivo, calcular el es-
quema de barrenado y dirigir la salida de la voladura.
Esta cara libre o cuele se consigue apoyándonos bien
en barrenos vacíos, sin carga explosiva, o bien en el
propio frente de la roca. De esta manera, la voladura
principal va precedida de la apertura de un cuele, aun-
que todo se realice en la misma pega y por tanto la di-
ferencia de tiempo entre ambas sea tan solo de milési-
mas de segundo.
Los equipos de perforación son también específicos,
aunque las perforadoras sean similares a las utilizadas a
cielo abierto, son diferentes los chasis y brazos para
poder adaptarse a las dimensiones y al tipo de trabajo.
También nos encontramos con que, en estas condicio-
nes, los esquemas de perforación son muy reducidos,
debido a dos razones fundamentales.
Imagen Nª2. Pala cargadora en la Mina de Aguas Teñidas, Huelva. En la ima-
gen se aprecian las condiciones de trabajo típicas de este tipo de labores.
http://huelvaya.es/
Imagen Nº3. Trabajos de banqueo para rebajar la cota del suelo del túnel, ejemplo de trabajo en interior que se ejecuta de manera similar a como se realiza en exterior
http://www.redimin.cl/
31Nº14. Junio de 2016
32. mente se suele situar en el centro aproximado de la
galería.
Contracuele
El contracuele lo conforma la corona de barrenos que
circunvala a los del cuele. Mientras que la misión del
cuele es crear un primer hueco, el contracuele tiene la
misión de ensancharlo y preparar así la cara libre a la
destroza (que conforma el grueso de la voladura), con
un mayor hueco que permita la evacuación del escom-
bro de la misma. En el contracuele no hay barrenos
vacíos y aunque están más espaciados tienen distancias
entre sí que se consideran cortas.
Destroza
Comprende el área de barrenos entre el contra-cuele y
el límite de contorno. Es corriente escuchar los nom-
bres de corona y contra-corona cuando esta destroza
está formada por dos filas. Esta es la voladura princi-
pal, en cuanto a volumen de arranque en la galería. El
esquema suele ser más abierto, con mayor separación
entre barrenos logrando con ello consumos específicos
de explosivo menores que en el caso de cuele y contra-
cuele. En estos barrenos suele usarse como explosivos
de menor potencia (como la Amonita), rebajando así
los costes en explosivo.
Para elegir el esquema a utilizar en una destroza, entran
en juego múltiples factores como el diámetro de perfo-
ración, la profundidad de avance, tipo de explosivo,
secuenciación, granulometría deseada y por supuesto el
tipo de sección que queramos conseguir.
Avance en Galería
De una manera bási-
ca podemos decir
que el avance en ga-
lería se consigue
creando un vano en
la roca de una longi-
tud suficientemente
importante, mediante
las artes de perfora-
ción y voladura en un
fondo cerrado (no se
contemplan para este
artículo otros sistemas de tunelización). A cada paso de
ese avance, a cada voladura, se le denomina “Pega” y
por cada pega tendremos una fase en la que se taladran
los barrenos que conforman el esquema de voladura y
de carga de explosivos, posteriormente se realiza la
ejecución de la propia voladura. Tras esto vienen las
labores de recogida y transporte del material volado.
Completada la recogida se comprueba el avance, se
analiza el frente por si hubiera defectos de la voladura,
se realizan las correcciones oportunas en el sosteni-
miento, y se vuelve a empezar.
Partes del esquema de voladura
Para cualquier galería o túnel cabe distinguir en la pega
cinco partes fundamentales:
1) Cuele
2) Contracuele
3) Destroza
4) Contorno o Recorte
5) Zapateras
Cuele
Como ya se ha comentado es una par-
te fundamental en el esquema de vola-
dura. Lo conforman una serie de ba-
rrenos de diámetro mayor al resto y
una separación pequeña (hay muchos
tipos de cuele) y no suelen contener
explosivo. Su misión será la de crear
un hueco inicial en la galería, de forma
que los que se disparen con posteriori-
dad encuentren ya creada esa cara li-
bre. El cuele puede situarse en cual-
quier posición: en el frente, al suelo, al
techo o en hastiales aunque general-
Imagen Nº4 . Esquematización de las diferentes parte de una pega
32 Nº14. Junio de 2016
Imagen Nº4. Tareas de avance en galería. Instalación de
mallas y bulones para reforzar el sostenimiento.
http://www.redimin.cl/
33. Contorno o Recorte
Se define así a la fila o corona de barrenos que definen
la sección del túnel en techo y hastiales, sin incluir el
piso. La misión de estos barrenos es doble, debiendo
arrancar la piedra que les corresponda y además deben
definir el perfil o sección túnel. Por tanto su número,
espaciamiento y carga, son determinantes para la cali-
dad final del perfil buscado.
Existen dos técnicas de efectuar los tiros perimetrales
que son el recorte y el precorte.
El recorte, que es la técnica más empleada, consiste en
perforar un número importante de taladros paralelos al
eje del túnel en el contorno, y con una concentración
de explosivo pequeña o incluso nula, siendo estos ba-
rrenos los últimos en detonar en la secuencia de encen-
dido.
Por otro lado en la técnica del precorte se perfora un
mayor número de taladros perimetrales y paralelos en-
tre sí a unas distancias entre 25 cm y 50 cm y conte-
niendo carga explosiva. Esta técnica exige una perfora-
ción muy precisa que asegure un buen paralelismo y
una homogénea separación entre los taladros. En la
secuencia de encendido, son los primeros en detonar,
con lo que se crea una fisura perimetral que aísla y pro-
tege a la roca del macizo de las vibraciones del resto de
la voladura. Esta técnica es de uso poco frecuente, ex-
cepto en casos especiales.
Zapateras
Son los barrenos que forman el piso de túnel. General-
mente son los últimos en dispararse y están taladrados
con un cierto ángulo o “pinchados” como se denomi-
nan en el argot minero. Son barrenos que van sobre-
cargados de explosivo pues precisan una energía adi-
cional para conseguir el "levante" de toda la piedra que
los afecta.
Avance de la pega
El avance de la pega es la medida entre dos situaciones
de frentes consecutivos. En el caso de un avance del
100% esta dimensión coincidiría con la profundidad de
barrenado pero estos avances no son frecuentes. Un
avance de 85 a 90% es considerado habitualmente co-
mo bueno, encontrándonos en el nuevo frente fondos
de barreno perforados (denominados “culos”) de lon-
gitudes de un 15% a un 10% de la longitud barrenada.
Menores avances suelen explicarse por cueles defec-
tuosos en la mayoría de los casos. Existen casos donde
la presencia de lisos (fracturas naturales) pueden dar
avances mayores a la longitud perforada, bien por des-
cuelgue, o bien por actuar la fisura como una cara libre
de fondo.
El avance de una pega depende de un gran número de
factores como la capacidad de la maquinaria a la hora
de barrenar, el tipo de roca a la que nos enfrentamos
(dureza, rotura, abrasividad…), el tipo de sostenimien-
to al que nos obliga el terreno excavado...etc.
El avance debe determinarse por lo tanto en función
de muchos parámetros y debe diseñarse aquel que pro-
duzca un conjunto de operación más económico (el
encaje de ciclos es la premisa básica en toda obra de
interior), y que, por lo general, no coincide con el má-
ximo alcanzable.
Imagen Nº5. Jumbo realizando perforaciones según el esquema de perforación
programado para esa sección.
http://img.directindustry.es/
33Nº14. Junio de 2016
“Un avance de 85 a 90% es considerado habitualmente como bueno”
34. puede montarse un martillo de perforación
(perforadora) o una cesta en la que pueden alojarse uno
o dos operarios permitiendo así el acceso a cualquier
parte del frente.
El funcionamiento de los jumbos es eléctrico cuando
están estacionados en situación de trabajo y pueden
disponer también de un motor Diésel para el desplaza-
miento. Los martillos funcionan a rotopercusión, es
decir, la barrena gira continuamente ejerciendo simultá-
neamente un impacto sobre el fondo del taladro. El
accionamiento es hidráulico, con lo que se consiguen
potencias mucho más elevadas que con el sistema neu-
mático. El arrastre del detritus y la refrigeración se con-
siguen igualmente con agua.
Los jumbos actuales tienen sistemas electrónicos para
controlar la dirección de los taladros, el impacto y la
velocidad de rotación de los martillos e incluso pueden
memorizar el esquema de tiro y perforar todos los tala-
dros automáticamente. En este caso un único maqui-
nista puede perforar una pega completa en unas pocas
horas.
Accesorios de perforación.
Los accesorios de perforación comúnmente usados
son las varillas o barrenas y las bocas de perforación.
Las barrenas de perforación son simplemente barras de
acero con un conducto interior para el paso del agua de
Maquinaria de perforación en interior
La perforación en interior suele realizarse mediante dos
técnicas: la primera se realiza mediante el uso de marti-
llos neumáticos manuales accionados por aire compri-
mido, y la segunda mediante martillos hidráulicos mon-
tados sobre chasis autopropulsados, que son conocidos
como Jumbos.
Martillos manuales
Los martillos manuales de aire comprimido funcionan
a percusión, es decir, la barrena golpea contra la roca y
gira de forma discontinua entre cada percusión, sepa-
rándose del fondo del taladro. El detritus es arrastrado
hasta el exterior del taladro mediante agua, que tiene
también la finalidad de refrigerar la barrena. Los marti-
llos manuales son actualmente de uso poco frecuente
limitándose su uso a túneles muy pequeños o de forma
accidental, pues tienen rendimientos muy inferiores a
los jumbos y requieren mucha mano de obra.
Jumbos
La máquina habitual de perforación es el jumbo. Cons-
ta de una carrocería de automóvil dotada de dos o tres
brazos articulados, según los modelos. En cada brazo
Imagen Nº6 . Jumbo de dos brazos, pala cargadora y Dumper minero adapta-
dos para trabajos en interior.
www.cat.com
34 Nº14. Junio de 2016
“Los Jumbos pueden memorizar el esquema de tiro y perforar todos los taladros
automáticamente”
Imagen Nº7. Operarios perforando con martillo manual
http://www.latinomineria.com/
35. da el no poder comprobar la continuidad del circuito
de la voladura antes del disparo, lo cual sí es posible
con los eléctricos. Esta comprobación se hace indis-
pensable sobre todo en minería a cielo abierto donde
en cada pega pueden llegar a utilizarse miles de kilos de
explosivo y donde un fallo en la voladura puede supo-
ner importantes pérdidas de material y tiempo, ambos
traducidos en minería y obra pública como una gran
pérdida de dinero.
En cuanto al retacado del barreno (que consiste en ta-
ponar el barreno impidiendo que la energía de explo-
sión se escape por la boca, obteniendo un efecto ca-
ñón), normalmente se utilizan cartuchos de arcilla de
gran plasticidad que logran taponar por completo la
boca del taladro.
Control de las vibraciones
Por último reseñar que las vibraciones producidas por
efecto de las voladuras no sólo pueden tener efecto en
los elementos cercanos a la pega, sino que se transmi-
ten por el terreno y pueden llegar a producir daños en
edificios y estructuras en superficie. Por este motivo es
fundamental el control de las mismas mediante una
secuenciación de
barrenos suficien-
te o incluso redu-
ciendo el avance
de cada pega si
fuera necesario,
cumpliendo con
los límites regla-
mentados para
cada tipo de pro-
yecto.
refrigeración y unas roscas en los extremos donde se
acoplan las bocas o los manguitos. La boca de perfora-
ción es la herramienta de corte, que generalmente es de
metal endurecido (carburo de tungsteno) o widia, dis-
puesto en formas diversas: en cruz, en X o botones,
con unos diámetros habitualmente comprendidos entre
45 y 102 milímetros.
La elección de un tipo u otro de boca, así como de sus
diámetros, depende del tipo de maquinaria de perfora-
ción, de las características de la roca y del diámetro de
los cartuchos del explosivo a introducir.
Explosivos y detonadores
Los tipos de explosivo que deben utilizarse en túneles
dependen de las características de la roca, principal-
mente de su densidad, resistencia a compresión y velo-
cidad de propagación sónica de la roca. Además los
explosivos, durante la detonación, deben generar gases
no tóxicos, lo que limita el tipo de explosivos en inte-
rior a los denominados explosivos de seguridad.
El explosivo más utilizado para el cuele y contracuele,
destroza y zapateras, es la GOMA-2 E-C o RIOMEX
E20/40. El diámetro de los cartuchos deberá ser lo
más próximo al diámetro de perforación de los tala-
dros, compatible con su introducción dentro del ba-
rreno. La iniciación de la explosión en cada barreno se
realiza en el cartucho cebo instalado en el fondo del
barreno el cual contiene un detonador.
La activación de los detonadores puede ser eléctrica o
por impacto (iniciación no eléctrica).
En el primer caso se utilizan exclusivamente detonado-
res eléctricos de alta insensibilidad por razones de se-
guridad, como prevención contra las posibles corrien-
tes parásitas.
Se puede aumentar la seguridad utilizando detonadores
de iniciación no eléctrica que tienen como contraparti-
Imagen Nº8. Detalle de la configuración del chasis de la maquinaria de interior con una gran longitud y pequeña altura.
www.cat.com
REFERENCIAS Y
BIBLIOGRAFÍA:
Unión E spañol a de
Explosivos, “Manual de
Empleo de Explosivos”,
Madrid. 2002
http://ingeol.cl/
www.redimin.cl/
www.maxam.com
35Nº14. Junio de 2016
36. La sabiduría popular dice que de noche no hay luz,
pero esto no es completamente cierto. Más exacto es
decir que no hay luz visible por el
ojo humano. De igual manera que
no podemos ver las ondas de ra-
dio o los rayos X, no podemos ver
el tipo de luz que hay en la noche.
Pero de la misma manera que se
pueden construir aparatos que nos
permiten ver las ondas de radio o
los rayos X, se pueden hacer apa-
ratos que nos permitan ver la "luz
nocturna".
A pesar de que de noche no se ve
el sol, la luna y las estrellas están
presentes alumbrando el campo
de batalla. Es necesario aprove-
char mejor esa luz; es por eso que
este tipo de aparatos también se
llaman intensificadores de la vi-
sión o de la imagen, pues son co-
mo superojos que nos permiten
ver otros tipos de luz.
El ojo humano es más sensible a
la luz diurna, que está en la parte
verde del espectro lumínico. Sin
embargo, de noche el espectro de
luz se corre hacia el infrarrojo cer-
cano. A causa de esto los aparatos de visión nocturna
deben tomar las ondas de luz de esta parte del espectro
y traducirlas a otras que el ojo humano pueda ver. Es
por eso que las imágenes de estos dispositivos son de
color verde.
Historia y desarrollo:
-Convertidores activos de luz
A principios de la década de los
año treinta se comenzó a experi-
mentar con la intensificación elec-
trónica de la luz, y la tecnología se
hizo disponible dos décadas más
tarde. Sin embargo, estos conver-
tidores de luz infrarroja no eran
muy sensibles y, por lo tanto, ne-
cesitaban un dispositivo adicional
que iluminara la escena con luz
infrarroja. Por eso se los llama
"activos".
Sus desventajas eran varias y muy
importantes. Primero, se necesita-
ba una gran fuente de luz, en don-
de la parte visible por el ojo hu-
mano era filtrada y ,el resto, sien-
do luz infrarroja invisible al ojo
humano, iluminaba la escena. Es-
to hacía que el equipo fuera apara-
toso y pesado, pero también que
fuera detectable. Al ser "activo",
cualquier enemigo con un equipo de visión nocturna
"pasivo" podía ver la fuente de luz como si fuera una
EVOLUCIÓN DE LA VISIÓN NOCTURNA.
REBECA ROSADO MARTÍNEZ, ING. ARMAMENTO Y MATERIAL.
36 Nº14. Junio de 2016
Imagen. Nº 1 Los sistemas de visión nocturna están en cons-
tante evolución.
Fuente: www.sophimania.pe
Imagen Nº 2 Monoocular de tercera generación acoplable a un
fusil.
Fuente: www.militar.org