1. Sistema Recomendador para la Determinación
de Medidas de Protección Contra Incendios -
Norma IRAM N° 3528 “Método de Purt”
Prof. Ing. Mario Raúl López1
y Dra. Milagros Gutiérrez2
1
UTN-FRP Departamento Ingeniería Electromecánica. Av.Almafuerte N°
1033-(3100) Paraná, Entre Ríos, Argentina. mrlopez@frp.utn.edu.ar
2
UTN-FRSF CIDISI Centro de Investigación y Desarrollo de Ingeniería en Sistemas
de Información. Lavaisse 610-(3000) Santa Fé, Argentina. mmgutier@frsf.utn.edu.ar
Resumen. Aunque existen numerosos métodos de evaluación nu-
mérica del riesgo de incendios, en la República Argentina para decidir
sobre la aplicación de sistemas fijos de extinción y/o de detección de
incendios, se utiliza la Norma IRAM Nº 3528 denominada “INSTA-
LACIONES FIJAS CONTRA INCENDIOS Evaluación del Riesgo
por el Método de Purt, para la aplicación de sistemas automáticos
de detección y extinción”. El método se aplica en forma manual y
su aplicación depende completamente de una persona o grupo espe-
cializado y está sujeto a errores. A partir de la conceptualización del
dominio y -eventualmente- el desarrollo de un sistema recomendador
sería posible dar soporte automatizado al profesional en la toma de
decisión sobre la implementación del sistema de detección y/o extin-
ción a utilizar en la planta.
Palabras claves: Sistema recomendador, Incendio, método de
Purt, norma IRAM.
1. Introducción
El método de Gustav Purt[2] efectúa una evaluación del riesgo de incendio de
forma general, dado que afirma que el cálculo excesivo de coeficientes que in-
tervienen en el incendio tenga cierta influencia sobre el riesgo real; y tiene en
cuenta que el fuego se produce en el contenido y en los edificios[1].
1
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1270
2. Su finalidad es deducir (Fig. 1), en base al riesgo potencial existente, qué medios
de lucha contra incendios son necesarios implementar en la actividad (primera in-
tervención y elementos de protección tales como detección y extinción automáti-
ca).
Figura 1: Proceso de Recomendación
por Experto Humano
El método se basa en el análisis de
la acción destructora del fuego que se
desarrolla en dos ámbitos diferencia-
dos: edificio o continente y su conte-
nido.
El riesgo del edificio estriba en la po-
sibilidad de que se produzca un daño
importante en el inmueble: destruc-
ción total del edificio. Para ello utiliza
dos factores esenciales:
La intensidad y duración del in-
cendio.
La resistencia de los elementos
constructivos.
El riesgo del edificio o continente (GR) se centra en la posibilidad de la destruc-
ción del inmueble, para su cálculo se utiliza la expresión:
GR =
(Qm.C + Qi).B.L
W.Ri
siendo:
Qm = Coeficiente de la carga de fuego del contenido (Tabla I, sec. 3.6.1.1).
C = Coeficiente de Combustibilidad del contenido (Tabla III, sec. 3.6.1.2).
Qi = Coeficiente de carga de fuego del continente (Tabla V y VI, sec.
3.6.1.3).
B = Coeficiente correspondiente a la situación e importancia del sector
(Tabla VII, sec. 3.6.1.4).
L = Coeficiente de tiempo necesario para iniciar la extinción (Tabla
VIII, sec. 3.6.1.5).
W = Coeficiente de resistencia al fuego del continente (Tabla IX, sec.
3.6.1.6).
Ri = Coeficiente de reducción del riesgo (Tabla X, sec. 3.6.1.7).
El riesgo del contenido (IR) está constituido por los daños personales
y materiales ocasionados a personas y cosas que se encuentren en el
interior del edificio. Para su cálculo se utiliza la expresión:
2
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1271
3. IR = H.D.F
donde:
H = coeficiente de daño a personas (Tabla XI).
D = coeficiente de peligro para los bienes (Tabla XII).
F = coeficiente de influencia del humo (Tabla XIII).
La obtención de los valores de GR e IR, a partir de los factores señalados, los
cuales se encuentran tabulados, permite una vez llevado al siguiente gráfico (Fig.
2), obtener de forma rápida las medidas de detección y extinción más adecuadas
al riesgo evaluado, dependiendo de la zona del diagrama en la que se encuentren
las rectas x = IR e y = GR.
Figura 2: Diagrama de medidas, método
de Gustav Purt
(1) El riesgo es poco significativo;
en general, son superfluas las medidas
especiales. (2) Una instalación auto-
mática de protección contra incendio
no es estrictamente necesaria ni reco-
mendable. (3) Instalación automáti-
ca de extinción necesaria; instalación
de protección no apropiada al riesgo.
(4) Instalación de protección necesa-
ria; instalación automática de extin-
ción no apropiada al riesgo; (5) Do-
ble protección por instalación de pre-
detección y extinción automática re-
comendable. Instalación de extinción
necesaria. (6) Doble protección por
instalación de predetección y extin-
ción automática recomendable. Insta-
lación de predetección necesaria. (7)
Doble protección por instalación de
predetección y extinción automática
necesaria.
Finalmente podemos señalar que por
tratarse de una Norma IRAM es de aplicación en todo el ámbito de la República
Argentina y en todo tipo de industrias con la única excepción que representa la
industria de los hidrocarburos.
Actualmente la aplicación de esta norma, es realizada en forma manual por un
especialista en la disciplina de la Higiene y la Seguridad en el Trabajo (Ley
N° 24557 de Riesgos del Trabajo, Ley N° 19587 de Seguridad e Higiene en el
Trabajo y Decreto Reglamentario N° 351/79, Capítulo 18, artículos 160 al 187)
quien realiza la búsqueda de los datos tabulados en la norma y calcula los índices
correspondientes para determinar las medidas de seguridad a implementar.
3
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1272
4. 2. Fundamentación
En la actualidad, el método de Purt se aplica en forma manual, es decir, su
utilización depende completamente de una persona o grupo especializado en
la materia. Como toda actividad desarrollada en forma manual, está sujeta a
errores, ya sea por distracción, falta de capacidad para manejar gran cantidad
de información, falta de expertos, dificultades para adquirir entrenamiento, etc.
Además no es posible hacer experimentos para ver si las medidas de seguridad
funcionan, ya que no se puede hacer un ensayo de tipo destructivo, por pequeño
que sea, en una planta que está en plena producción, y que, generalmente, son
muy pocas las empresas que nacen con todos los elementos de seguridad .
Para limitar la búsqueda y obtener tan pronto como sea posible una solución
correcta dentro del conjunto de posibles soluciones, contar con una herramienta
computacional que asista en la elaboración de una solución semi-automática es
altamente deseable. Esta herramienta deberá estar orientada a tecnologías de
sistemas basados en conocimientos[4] y sistemas recomendadores.
Entonces, a partir de la conceptualización del dominio, la creación de un modelo[5,
6] y -eventualmente- el desarrollo de un sistema recomendador[7] sería posible
lograr un sistema que de soporte al profesional en la toma de decisión sobre la
implementación de las medidas de seguridad aplicando el método de Purt.
Un sistema recomendador es aquel que brinda información oportuna que el usua-
rio necesita para tomar mejores decisiones en la tarea que está llevando a cabo
[8]. Este tipo de sistemas para poder tomar decisiones sobre qué recomenda-
ción hacer toma información disponible como ser: información sobre el perfil del
usuario, decisiones tomadas con anterioridad, similaridad de características del
entorno sobre la que se está tomando la decisión, entre otras. También debe
contar con un mecanismo que le permita filtrar la información que encuentra
disponible para solo mostrar la que es de interés para el usuario.
Existen diferentes tipos de filtros que pueden ser utilizados en un sistema reco-
mendador tales como filtros colaborativos [8] y filtros basados en contenido [9].
En muchos casos estas propuestas son usadas en conjunto dando lugar a filtros
híbridos.
3. Propuesta
En este trabajo nos proponemos la conceptualización y eventualmente el desa-
rrollo de una solución que de soporte a los profesionales del área de Higiene y
Seguridad en el Trabajo en la toma de decisiones en el campo de la lucha contra
incendios. Esta solución estará basada en la utilización de los principios detalla-
dos en el método de Purt y cumpliendo lo estipulado en la Norma IRAM 3528.
Se requiere que dicha solución facilite la recomendación de los dispositivos nece-
sarios tanto sea para la extinción como para la detección temprana de incendios
en inmuebles y explotaciones fabriles -continente y contenido- de los tipos cons-
tructivos más comunes y que sea de utilidad para los técnicos y profesionales del
área.
4
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1273
5. Las ventajas de usar un sistema recomendador en la determinación de las medi-
das de seguridad contra incendios a implementar en plantas son evidentes[16, 17,
18]: Permanencia, Duplicación, Rapidez, Bajo costo, Fiabilidad, y consolidación
de varios conocimientos.
Para facilitar la experimentación, actualmente inhabilitada por las característi-
cas manuales del método y los elevados costos que significarían realizar un ensayo
en cualquier planta fabril, este sistema deberá contar con una interfaz adecuada
y amigable para que el usuario se vea cómodo para utilizarla introduciendo los
datos básicos, y con una base de conocimiento apropiada donde se encuentren
almacenados tablas y datos específicos con los valores de los distintos materiales
y ambientes susceptibles de incendios.
Figura 3: Sistema Recomendador
En este punto creemos que se ha-
ce indispensable la utilización de una
ontología ([16, 17, 18]), donde pueda
sistematizarse el conocimiento necesa-
rio: perfiles de usuarios, preferencias,
tendencias, datos de materiales y es-
pecíficos que hagan a la aplicación del
método de Purt, etc.
Esta ontología estará hospedada en
un sitio de la web de fácil acceso pa-
ra los usuarios, los cuales, como podrá
apreciarse en la figura 3, no serán ne-
cesariamente expertos en la materia,
aunque el sistema si podrá aprovechar
las recomendaciones de otros expertos o resultados similares efectuados previa-
mente.
La Ontología de materiales y datos específicos deberá contener la información
necesaria para que el sistema realice el razonamiento adecuado, en función o
como resultado de la aplicación del método, así tendríamos un algoritmo como
el siguiente:
% TR (Riesgo Total) es el valor del área del diagrama determinado
% por las coordenadas IR y GR (riesgo contenido y continente)
Si TR = 1 entonces Recomendacion1
Si TR = 2 entonces Recomendacion2
....
% Si TR cae fuera del diagrama aumentar resistencia al fuego
& y decrementar sector de incendio y tiempo de extinción
Recalculo(Resistencia,SectorIncendio,TiempoExtincion)
Recomendacion1:
VerificarMateriales
....
Recomendación2:
5
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1274
6. VerificarMateriales
....
....
Recalculo(R,S,T):
....
Además, para evitar colisiones y resultar coherentes con el trabajo previo del ex-
perto humano donde ya ha establecido, por ejemplo, la distribución de extintores
e hidrantes, las verificaciones de materiales y las recomendaciones que realice el
sistema deberán tener en cuenta una clasificación como la que se observa en la
siguiente figura 4 extraído de [19].
Figura 4: Cuadro Resumen Tipos de Materiales Combustibles
4. Conclusiones y Trabajos Futuros
La evaluación del riesgo de incendio resulta fundamental a la hora de adoptar
las medidas de prevención y protección necesarias en cada caso, ya que éstas
deberán estar acordes con el riesgo detectado [12].
6
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1275
7. Aunque existen numerosos métodos de evaluación numérica, este método (Purt)
tiene en cuenta que el fuego se produce en el contenido y en los edificios. Razones
valederas para ser adoptado por la normativa argentina [14] que coincide con
lo expresado por algunos autores [13]: «Si la finalidad del método consiste en
deducir de la evaluación del riesgo las medidas de protección contra incendios,
entonces el más apropiado es el del Dr. Gustav Purt».
Por el lado de los sistemas recomendadores podemos decir, coincidiendo con [15],
que estos sistemas de recomendación son ya ampliamente utilizados y debido a la
gran cantidad de información de todo tipo que nos rodea, su presencia y utilidad
es de esperar que aumente en el futuro.
Este conocimiento se podrá integrar en bases de datos, donde usuarios comunes
encontrarán la información precisa y podrán realizar inferencias buscando in-
formación relacionada. Además, podrán intercambiar sus datos siguiendo estos
esquemas comunes consensuados, e incluso podrán reutilizarlos.
En este sentido, estamos trabajando en la conceptualización de un modelo para
la diversidad de materiales que se pueden encontrar, tanto en el contenido como
el continente, de las plantas fabriles.
Referencias
[1] José Ma. Cortés Díaz. “Seguridad e Higiene del Trabajo. Técnicas de preven-
ción de riesgos laborales” (Capítulo 17). 3ra edición. Editorial Alfaomega.
México 2002.
[2] Gustav Purt. “Sistema de evaluación del riesgo de incendio que puede servir
de base para el proyecto de instalaciones automáticas de protección contra
incendios”. Texto revisado de la conferencia pronunciada durante el sexto
Seminario Internacional de Detección Automática de Incendios del IENT,
celebrado en Aquisgran en Octubre de 1971.
[3] Gretener, M. “Determination des mesures de protection decoulant de
l’evaluation du danger potenciel d’incendie”. Berne, Ass. des etablissements
cantonaux d’assurances contre l’ncendie. 1973.
[4] Russell, S. and P. Norvig. Artificial Intelligence. A modern approach. Third
edition. Prentice hall 2010.
[5] Speel P., Schreiber, A., van Joolingen, W., van Heijst G. and Beijer, G.J.
Conceptual Modelling for Knowledge-Based Systems. en: Encyclopedia of
Computer Science and Technology, Marce Dekker Inc., New York.
[6] Robinson, S. Conceptual Modelling: Who Needs It? SCS M&S Magazine
2010 / n2 (April).
[7] M. Montaner, “A Taxonomy of Recommender Agents on the Internet”,
Artificial Intelligence Review 19, 2003, pp. 285–330.
7
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1276
9. Modelado del proceso de destilación molecular
mediante redes neuronales
Carolina A. Allevi, Cecilia L. Pagliero, Miriam A. Martinello
Departamento de Tecnología Química-Facultad de Ingeniería (UNRC-CONICET)
Ruta 8 km. 601 – 5800 Río Cuarto – Argentina.
callevi@ing.unrc.edu.ar
Resumen. En este trabajo se presenta el modelado del proceso de destilación
molecular mediante una red neuronal artificial para la predicción de la
concentración del componente más volátil en el residuo y la relación
residuo/alimentación (R/F) de una muestra binaria patrón. Los datos se
obtuvieron por resolución numérica del modelo fenomenológico del proceso.
Las redes neuronales tienen la capacidad de aprender, reconocer patrones de
una serie de entradas y salidas, sin hipótesis previas sobre su naturaleza. Las
entradas a la red fueron el flujo de alimentación (Q) y la temperatura del
evaporador (TE). Se desarrolló un modelo neuronal artificial feed-forward
backpropagation compuesto por dos neuronas en la entrada, seis neuronas en
una capa oculta y dos neuronas en la capa de salida. Se utilizó para el
entrenamiento el algoritmo Levenberg-Marquartd, con el cual se alcanzo una
buena predicción de los datos de validación, con un mínimo error cuadrático
medio.
Palabras Clave: Destilación Molecular, Redes Neuronales Artificiales.
1 Introducción
La destilación molecular es un proceso de separación y purificación que se caracteriza
por el alto vacío, las temperaturas reducidas y los bajos tiempos de residencia lo cual
la hacen útil para materiales termolábiles. Como resultado de este proceso se obtienen
dos fracciones a partir de una mezcla de componentes de volatilidades diferentes: la
fracción pesada (residuo) y la fracción liviana (destilado).
Existen muchas aplicaciones de destilación molecular para diferentes materiales, tales
como la concentración de monoglicéridos [1], el enriquecimiento de metilchavicol
[2], el enriquecimiento de oxiterpenos del aceite de naranja [3] y la desacidificación
de aceites [4].
El proceso de separación por destilación molecular tiene lugar en cuatro etapas: (i) el
transporte de componentes desde la mezcla líquida hacia la superficie de la película,
(ii) la evaporación de los componentes más volátiles en la superficie de la película,
(iii) el transporte de las moléculas evaporadas a través del espacio de destilación y
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1278
10. (iv) la condensación de las moléculas evaporadas. La representación completa del
proceso se realiza analizando todas las etapas mediante balances de cantidad de
movimiento, de masa y de energía, aunque en general la etapa limitante es la primera
y es la única que se tiene en cuenta en el modelo.
Se han publicado distintos trabajos sobre el modelado y simulación de una mezcla
binaria en dos tipos de destiladores: de película descendente y centrífugo [5], del
modelado y la simulación del proceso de destilación molecular de un residuo de
petróleo, resuelto por el método implícito de diferencias finitas de Crank-Nicholson
[6].
Las redes neuronales artificiales representan una tecnología que tiene sus raíces en
muchas disciplinas: Neurociencias, Matemáticas, Estadística e Ingeniería. Se aplican
para diversos propósitos, tales como modelado, reconocimiento de patrones,
identificación de sistemas no lineales, control de procesos, clasificación y
agrupamiento, optimización, predicción y procesamiento de señales. Las redes
neuronales se presentan como una herramienta prometedora para el modelado de
sistemas complejos. Se han aplicado en la simulación de una planta de tratamiento
de aguas residuales industriales, para determinar las propiedades ambientales de la
corriente de salida [7], en la predicción de la caída de presión para fluidos no
newtonianos a través de accesorios de tuberías [8]. Específicamente en destilación
molecular, se utilizaron las redes neuronales como modelos predictivos para la
concentración y recuperación de tocoferoles del destilado de desodorización de aceite
de colza [9].
2 Materiales y métodos
En este trabajo se realiza el modelado mediante redes neuronales para la destilación
molecular de una muestra binaria: dibutilftalato (DBP) y dibutilsebacato (DBS). Los
datos se obtuvieron mediante el modelado matemático fenomenológico de la película
del evaporador.
El modelo se aplicó al destilador molecular KDL4 (UIC-GmbH), instalado en la
planta piloto del Departamento de Tecnología Química de la Facultad de Ingeniería.
El equipo de destilación molecular consiste en dos cilindros concéntricos, uno interno
y otro externo. La evaporación ocurre en la superficie interna del cilindro exterior y la
condensación en la superficie externa del cilindro interior. Consta de un sistema de
rodillos logra el barrido de la película líquida sobre la superficie de evaporación la
cual es una de las condiciones claves para una destilación satisfactoria. El sistema de
rodillos es el responsable de la dispersión de la película sobre la superficie del
evaporador, además de un mezclado permanente. Posee equipos auxiliarles como
sistema de bombas en serie y baños termostáticos para el evaporador, el condensador
y la alimentación.
Se realizó el modelo matemático en dos dimensiones de la película que se forma en la
pared del evaporador del destilador molecular. Para ello se establecieron una serie de
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1279
11. suposiciones: estado estacionario, propiedades fisicoquímicas de los componentes
constantes, fluido newtoniano, flujo laminar, coordenadas cilíndricas, temperaturas de
pared del evaporador y del condensador constantes, sin difusión axial, ni flujo radial.
Las ecuaciones que describen el proceso de destilación molecular son las ecuaciones
de conservación de masa, de energía, y de cantidad de movimiento; y la ecuación de
Langmuir-Knudsen para la evaporación de los componentes en la superficie de la
película.
Los datos obtenidos mediante el modelo matemático se utilizan para la selección,
creación y configuración de la arquitectura de la red neuronal, la cual se usará con
fines predictivos. En la Tabla 1 se muestran los datos obtenidos por el modelo
matemático. En la misma se puede observar que las variables operativas que se
modificaron fueron la temperatura del evaporador (TE) y el flujo de alimentación (Q),
permaneciendo constante la temperatura de alimentación (TF) que para todos los
casos fue TF = 370 K. Las variables de salida fueron la concentración del componente
más volátil en el residuo (%XDBP) y la relación residuo/alimentación (R/F).
Tabla 1. Set de datos generados a partir del modelo matemático, los cuales han sido divididos
en dos subconjuntos: datos para entrenamiento y datos para validación de las redes neuronales.
TF=370K.
Set Datos n TE Q % XDBP R/F
Entrenamiento
1 350 2,5 49,06 0,97
2 370 2,5 45,88 0,88
3 380 1 23,93 0,44
4 380 2,5 41,27 0,76
5 380 3 42,81 0,80
6 380 5 45,87 0,88
7 390 1 0,26 0,07
8 390 2 24,9 0,45
9 390 2,5 31,05 0,54
10 390 5 41,68 0,76
11 400 2,5 8,32 0,21
Validación
12 360 2,5 48,04 0,94
13 380 1,5 34,00 0,61
14 380 2 38,00 0,70
15 380 2,5 41,27 0,76
16 390 1,5 14,08 0,30
17 390 3 34,84 0,61
En la Fig. 1 se muestra la variación de la concentración de DBP (%XDBP) y R/F en
función de la temperatura del evaporador (TE). El aumento de la temperatura de
evaporación produce la disminución de las dos variables de salida debido al mayor
aporte energético y por lo tanto a una mayor evaporación del componente más volátil
y menor producción de residuo. En la Fig.2 puede verse la variación de la
concentración de (%XDBP) y de R/F, en función del flujo de alimentación. Un
aumento del flujo de alimentación se traduce en menos tiempo del material en el
equipo, por lo tanto se produce una menor evaporación con concentraciones y
relación de residuo/alimentación mayores.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1280
12. 0,1
0,3
0,5
0,7
0,9
0
10
20
30
40
50
60
340 360 380 400 420
R/F
% XDBP
TE (K)
XDBP vs TE
R/F vs TE
Fig. 1. R/F y %XDBP vs TE con Q =2,5mL/min.
0
0,2
0,4
0,6
0,8
1
20
30
40
50
0 2 4 6
R/F
% XDBP
Q (mL/min)
XDBP vs Q
R/F vs Q
Fig. 2. R/F y %XDBP vs Q con TE = 380K
Luego de analizar los resultados del modelado se procede a la determinación de la
mejor red neuronal que sea capaz de aprender y predecir correctamente los datos.
Para ello se deben analizar distintas arquitecturas de redes, comparar diferentes
algoritmos de entrenamiento, funciones de transferencia, a efectos de encontrar la
óptima para esta aplicación. Y luego realizar la validación del modelo de redes
obtenido.
En la selección de la red se recolectan los datos donde se utilizaron un total de 17
datos, 65% de los cuales se usaron para el entrenamiento, y el 35% restante para
validar la red (Tabla 1).
Se creo una red neuronal de propagación hacia adelante con retropropagacion de los
errores (feed-forward backpropagation). En la red de propagacion hacia adelante
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1281
13. todas las neuronas de una capa estan conectadas con neuronas de otras capas. La red
seleccionada consta de una capa de entrada, una capa oculta y una capa de salida. En
la capa de entrada no se realizan cálculos, su función es distribuir y enviar las señales
de entrada a la capa oculta. Cada capa contiene un número de neuronas. La cantidad
de neuronas en las capas de entrada y de salida quedan determinadas por las variables
de entrada y de salida del proceso. Para la capa oculta, el numero de neuronas se
determina por el método de prueba y error. Las neuronas en la capa de entrada son
dos, debido a las dos variables de entrada: TE y Q. Se determinó que el número de
neuronas en la capa oculta es 6, y la capa de salida contiene dos neuronas, una por
cada variable de salida: R/F y %XDBP (Fig. 3).
En cada capa se selecciona una función de transferencia. En este trabajo se seleccionó
para la predicción, en la capa oculta la función de transferencia tangente hiperbólica y
en la capa de salida la función lineal.
Las conexiones entre neuronas, entre capas están ponderadas, a cada conexión se le
asocia un peso .Luego se selecciona la arquitecura de red y se inicializan los pesos
donde la red puede partir de pesos iguales a cero o de valores aleatorios antes de que
empiece a aprender. Inmediatamente empieza la etapa de entrenamiento para lo cual
se debe seleccionar algún algoritmo de aprendizaje, en este caso se utilizó el
algoritmo de aprendizaje de Leveberg-Marquardt. El objetivo del entrenamiento es
conseguir que para la destilación molecular, el conjunto de datos de entradas produzca
un conjunto de salidas deseadas. El proceso de entrenamiento consiste en la
aplicación de diferentes vectores de entrada para que se ajusten los pesos de las
interconexiones.
El aprendizaje se realizó mediante la propagación del error hacia atrás consiste en dos
pasos a través de las diferentes capas de la red: un paso hacia adelante y un paso hacia
atrás. En el paso hacia adelante, un vector de entrada se aplica a los nodos de la red, y
su efecto se propaga a través de la red capa por capa. Finalmente, un conjunto de
salidas es producido como respuesta de la red. Durante el paso hacia adelante son
establecidos los pesos sinápticos de la red. Durante el paso hacia atrás, los pesos son
ajustados de acuerdo con la regla de corrección del error. Durante el entrenamiento
los pesos convergen gradualmente hacia los valores que hacen que para cada entrada
produzca la salida deseada.
Fig.3. Red Neuronal. La cual consta de una capa de entrada con dos neuronas, una capa oculta
con 6 neuronas y una capa de salida con dos neuronas.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1282
14. 3 Resultados
Los pesos sinápticos de las conexiones para la arquitectura de red óptima obtenidos
son los mostrados en las Tablas 2 y 3.
Una vez que la red neuronal ha sido entrenada, la red es validada mediante un
conjunto de datos diferentes a los utilizados en el entrenamiento (Tabla 4).
Tabla 2.Pesos de las conexiones entre la capa de entrada y la capa oculta (CO). Los pesos entre
las entradas 1 y 2 y las neuronas de la CO se denotan W1,j, W2,j. Bias en la capa de ocultas (CO)
j
nodos CO
Bias
(CO)
W1,j W2j
1 -2.7230 3.3021 1.5370
2 -2.4953 1.4505 -1.9692
3 0.2929 -2.6833 -1.8145
4 1.7605 2.3559 -2.7085
5 1.0240 0.0158 -3.6053
6 -3.0888 -2.1998 -2.4901
Tabla 3. Pesos de las conexiones entre la capa de entrada y la capa oculta (CO). Los pesos
entre las entradas 1 y 2 y las neuronas de la CO se denotan W1,j, W2,j. Bias en la capa de salida
(CS)
j
nodos CS
Bias
(CS)
W1,j W2j W3j W4j W5j W6j
1 -0.4397 -0.2852 -1.3014 0.2879 0.0798 -0.3948 0.2744
2 -0.3089 -0.4608 -1.3605 0.1841 0.4120 -0.5894 0.6255
Tabla 4. Resultados de la etapa de validación
Set Datos TE Q
Modelo Matemático Modelo Neuronal
XDBP (%) R/F XDBP(%) RF
Validación
360 2,5 48,04 0,94 47,34 0,92
380 1,5 34,00 0,61 30,18 0,55
380 2 38,00 0,70 36,82 0,67
380 2,5 41,27 0,76 41,26 0,76
390 1,5 14,08 0,30 14,35 0,27
390 3 34,84 0,61 35,49 0,63
En la Fig. 4 se puede observar la disminución del error cuadrático medio a medida
que las iteraciones avanzan con el entrenamiento. El entrenamiento se detuvo porque
alcanzo la performance, el mínimo error. En las Fig. 5 y 6 se muestran la salida de la
red versus los datos del modelo matemático (salidas deseadas). El ajuste de los datos
es bueno debido a que se ve una pequeña dispersión de la recta a 45 grados que sería
el ajuste perfecto donde las salidas de la red son iguales a las salidas del modelo.
También puede verse en la Tabla 4 la buena predicción del modelo comparando los
valores del modelo matemático con el neuronal.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1283
15. 0 2 4 6 8 10 12
10
-4
10
-2
10
0
10
2
Best Training Performance is 7.4509e-005 at epoch 12
Mean
Squared
Error
(mse)
12 Epochs
Train
Best
Goal
Fig. 4. Error cuadrático medio de la red neuronal, el cual disminuye durante el entrenamiento,
es decir durante la actualización de los pesos de las conexiones entre neuronas.
0
0,2
0,4
0,6
0,8
1
0 0,2 0,4 0,6 0,8 1
R/Fmod
R/FRN
y=x
Fig. 5. R/Fmod del modelo matemático vs R/FRN obtenido de las redes neuronales
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1284
16. 0
10
20
30
40
50
0 10 20 30 40 50
%XDBPmod
%XDBPRN
y=x
Fig. 6. XDBPmod del modelado matemático vs XDBPRN obtenido de la red neuronal
Conclusiones
El modelado neuronal brinda las herramientas para analizar la influencia las variables
del proceso de destilación molecular sobre las variables de respuesta sin necesidad de
recurrir a la experimentación, siendo esta última una ventaja ya que se minimizan
costos. El modelo neuronal encontrado es un buen modelo predictivo con bajo error,
capaz de predecir valores en el rango estudiado, que además posibilita analizar la
optimización y el control del proceso.
Referencias
1. Fregolente L. V., Fregolente P. B. L., Chicuta A. M., Batistella C. B., MacielFilho R. and Wolf-Maciel M. R. Trans
IChemE, Part A, Chemical Engineering Research and Design, 2007, 85(A11): 1524–1528
2. Martins P. F., Carmona C., Martinez E. L., Sbaite P, MacielFilho R., Wolf Maciel M.R. Short path evaporation for
methyl chavicol enrichment from basil essential oil. Separation and PurificationTechnology 87 (2012) 71–78
3. Martins P.F., Medeiros H.H.R., Sbaite P., Wolf Maciel M.R. Enrichment of oxyterpenes from orange oil by short
path evaporation. Separation and Purification Technology 116 (2013) 385-390
4. Martinello M., Hecker G., Pramparo M. (2007). Grape seed oil deacidification by molecular distillation: Analysis of
operative variables influence using the response surface methodology J. Food Eng. ,81, 60.
5. Batistella C.B. and W. MacielM.R.. Modeling, simulation and analysis de molecular destillators: Centrifugal and
falling film. European Symposium on Computer
6. ZuñigaLiñan L.,NascimentoLimab N.M.,1, Manentic F., Wolf Maciela M.R.,MacielFilhob
R.,MedinadL.C.Experimental campaign, modeling, and sensitivity analysis for the molecular distillation of
petroleum residues 673.15 K+
7. Gontarski, C.A., Mori M., Rodrigues P.R., Prenem L.F. Simulation of an industrial wastewater treatment plant using
artificial neural networks. Comput. Chem. Eng 24 (2000), 1719-1723
8. Bar N, Bandyopadhyay T.K., Biswas M.N., Das S.K..Prediction of pressure drop using artificial neural network for
non-Newtonian liquid flow through piping components.J. Petro. Sci. Eng. 71 (2010), 187–194.
9. Shao P., Jiang S.T., Ying Y.J. Optimization of molecular distillation for recovery oftocopherol from rapeseed oil
deodorizer distillate using response surface and artificial neural network models. Food Bioprod. Process 85 (2007),
85-92
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1285
17. Problemas y Soluciones en la Completitud de Modelos
en Lenguaje Natural
Graciela D.S. Hadad1,2
, Claudia S. Litvak1
, Jorge H. Doorn1,2
1
DIIT, Universidad Nacional de La Matanza, Argentina
2
Escuela de Informática, Universidad Nacional del Oeste, Argentina
{ghadad, clitvak}@ing.unlam.edu.ar, jdoorn@exa.unicen.edu.ar
Abstract. Un proceso de requisitos habitualmente se debe valer de modelos en
lenguaje natural para facilitar la comunicación y validación con los clientes.
Dichos modelos deben ser lo más precisos y completos posibles, dado que a
partir de ellos se elaboran otros modelos necesarios para un desarrollo de
software robusto. A lo largo de casi dos décadas, diversos autores en la
Ingeniería de Requisitos han utilizado un modelo léxico con diferentes
propósitos. Se han realizado varios estudios para establecer el grado de
completitud del modelo léxico construido, obteniéndose en todos los casos un
número excesivo de omisiones. En el presente trabajo, se ha detectado que
varias de estas omisiones no eran efectivamente tales, y sólo contribuían a
distorsionar los resultados de completitud obtenidos. Este hallazgo permitirá
mejorar el método de estimación de completitud y, principalmente, establecer
mejoras en la construcción del modelo léxico.
Keywords: Ingeniería de Requisitos, Modelado de Requisitos, Completitud de
Modelos, Léxico Extendido del Lenguaje.
1 Introducción
En muchos de los procesos de requisitos propuestos por diversos autores [1] [2] [3]
[4] [5] [6] [7] [8] se incluye la creación de un glosario como una de las actividades
iníciales del mismo. Estos glosarios contienen los términos relevantes utilizados por
los clientes del futuro sistema de software. El objetivo de estos glosarios es, en primer
lugar, facilitar la comprensión del vocabulario del contexto del cual ha surgido la
necesidad de un nuevo sistema [9]. Subsidiariamente, estos glosarios se utilizan para
reforzar la legibilidad por parte de los clientes de los documentos que se generen [2]
[4] [5]. Adicionalmente, suelen ser utilizados por los propios ingenieros de requisitos,
como una fuente sólida de conocimiento para iniciar el estudio de ese contexto que
define y condiciona las características del futuro sistema de software. Que un glosario
sea una fuente de conocimiento es un hecho muy conocido en el dominio de la
lingüística [10] [11]. Como ejemplo de esto es apropiado utilizar una vez más el muy
conocido hecho que en algunas lenguas orientales, como el mandarín, taiwanés y
otros, existen muchas palabras para arroz; en particular, hay 50 palabras en mandarín
[12]. Esto se debe a que estas culturas tienen mucho para decir acerca del arroz y
necesitan una gran precisión en el lenguaje para poder hacerlo. Un fenómeno parecido
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1286
18. ocurre cuando en un texto o en un discurso se necesitan introducir nuevos conceptos;
necesariamente el autor o el orador deben recurrir a la definición de los términos
significativos que le permitirán introducir esos conceptos en forma precisa [13].
Retornando al uso de glosarios en el proceso de requisitos, estos enfoques proveen un
punto de vista divergente de los clásicos enfoques top-down o bottom-up. Empezar
por una revisión de un glosario no implica estudiar los inacabables detalles que se
abordan en un enfoque bottom-up, ni procurar comprender la esencia del objeto de
estudio a través de una visión panorámica. Por el contrario, empezar por un glosario
significa aprovechar las abstracciones conceptuales ya realizadas por los hablantes de
donde se extrajo ese glosario. Esto es notablemente importante ya que la información
obtenida por este medio es más sencilla de obtener y más valiosa. De alguna manera
podría decirse que de un glosario se obtiene información más concentrada y, por lo
tanto, más útil para el proceso de requisitos. Sin embargo, no todo son loas al trabajar
de esta manera. Aparece claramente la duda de la calidad del material de origen, es
decir, la calidad del glosario. Y es aquí donde surge el aspecto más importante e
insidioso de esa duda acerca de la calidad: la completitud del glosario. Omisiones en
el glosario son entonces potenciales omisiones en el resto de los artefactos generados
en las actividades del proceso de requisitos y en los requisitos mismos.
En el presente artículo se revisan los resultados obtenidos a lo largo de varios
proyectos en los que se abordaron diferentes formas de estimar la completitud de
glosarios [14] [15] [16] [17] y se presentan nuevas visiones que aclaran en forma
notoria los resultados de dichos trabajos, llegándose a caracterizar varias de las causas
esenciales que provocan las omisiones observadas. En la sección siguiente se
introduce el tema de completitud en los modelos de requisitos, en la sección 3 se
presenta el trabajo realizado y en la sección 4 las conclusiones.
2 Completitud del Modelo Léxico
Los estudios sobre la completitud de glosarios fueron realizados en el marco de un
proceso de requisitos cuya primera actividad consiste en construir un modelo
denominado Léxico Extendido del Lenguaje (LEL), procediendo inmediatamente a
estudiar el contexto de donde surge la necesidad del sistema, guiado por el LEL [18]
[19]. Los componentes del modelo LEL son el nombre del término, la noción y el
impacto. En la noción se registra el significado o denotación del término y en el
impacto se registra la connotación del mismo. La evolución del modelo LEL y de sus
usos, desde su presentación [9] hasta el presente, ofrece algunos aspectos muy
valiosos. En [20] se propusieron unas heurísticas para la construcción del LEL, que no
fueron objetadas ni modificadas pese a haberse encontrado numerosos usos para este
modelo [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33]. Algunos de
estos usos son aplicaciones directas, sin modificaciones del modelo aunque con
diferentes propósitos, mientras que otros usos modifican ligeramente el modelo. Sábat
Neto [21] definió un glosario usando el modelo LEL, que registra la terminología
relativa a requisitos no funcionales. Breitman y Leite [22] han presentado un proceso
de construcción de una ontología de aplicación web a partir de un LEL. Leonardi y
Leite [23] [34] han definido una estrategia para identificar reglas del negocio, en base
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1287
19. a patrones, relacionándolas con las entradas de un LEL creado previamente. Fiorini et
al. [25] han mostrado un enfoque sistemático para la descripción, almacenamiento y
reuso de procesos, donde mediante patrones de proceso, marcan frases especiales del
LEL. Ravid et al. [26] construyeron prototipos de requisitos por medio de escenarios
(que denominan “escenarios de casos de uso”), creando simultáneamente un LEL.
Mauco et al. [29] [30] han propuesto un conjunto de heurísticas para derivar
especificaciones formales escritas en el lenguaje de especificación RAISE a partir de
modelos del LEL y de escenarios. Hadad et al. [Hadad 08] han presentado una
heurística para derivar casos de uso a partir del LEL, junto con una herramienta que
permite su creación. Leonardi et al. [32] construyeron una herramienta
semiautomática para derivar diagramas de clases del universo de discurso a partir del
LEL. Antonelli [35] ha propuesto una estrategia para identificar características
transversales utilizando el LEL.
Concurrentemente con estos trabajos, los primeros estudios de completitud del LEL
[14] [15] comenzaron a crear dudas acerca de la calidad del mismo y de las
heurísticas de construcción, al comprobar que diferentes ingenieros de requisitos,
todos siguiendo las mismas heurísticas, llegaban a obtener LELs muy diferentes [17].
La completitud es una de las propiedades consideradas imprescindibles, tal es así que
el estándar IEEE 29148 [36] la considera como una de las propiedades fundamentales
que debe cumplir cada requisito individualmente y el conjunto de requisitos de
software como un todo. Estudiar la completitud en la ingeniería de requisitos implica
verificar si se ha elicitado y modelado toda la información perteneciente al contexto
donde el sistema de software se implantará. El objetivo en un proyecto de software es
obtener sistemas de software “idealmente” completos que respondan a todas las
necesidades de los clientes.
La incompletidud en procesos de requisitos fue estudiada por Firesmith [37], quien
investigó el significado de la completitud y estableció algunos parámetros para
prevenir la obtención de especificaciones de requisitos incompletas. El enfoque de
Firesmith y el de Litvak et al. [15] [16] difieren en el sentido que Firesmith propugna
una visión conceptual de la completitud mientras que los otros trabajos aspiran a
desarrollar estrategias que permitan estimar la completitud y eventualmente actuar
sobre sus causas.
En el primer trabajo realizado por Doorn y Ridao [14] [38], se aplicó el método de
captura-recaptura [39], utilizando la adaptación denominada Detection Profile Method
[40], para predecir el número de elementos faltantes en el LEL y en escenarios, donde
concluyeron que al aumentar el número de elicitadores (ingenieros de requisitos) la
cantidad de elementos estimados se acercaría significativamente a la cantidad
realmente existente en el dominio del problema. Para realizar este trabajo, dispusieron
de nueve muestras del LEL desarrolladas sobre el mismo caso de estudio (ver 2ª
columna de Tabla 1). El estudio presentado por Litvak et al. [15] aplicó también
Detection Profile Method [40] incorporando correcciones semánticas previas a la
aplicación de dicho método. En el trabajo posterior [16], se presentaron una serie de
correcciones semánticas más refinadas, donde se estudió la relevancia, pertenencia,
sinonimia y homonimia del contenido textual del modelo y se compararon con los
resultados de los trabajos precedentes, concluyendo que se logró una mejor
estimación de la completitud de modelos en lenguaje natural. En dicho estudio, el
análisis semántico se realizó en dos etapas: una primera etapa entre los elementos de
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1288
20. una misma muestra del LEL (intra-análisis), estudiando pertenencia, relevancia y
redundancia de cada término, y una segunda etapa comparando los elementos entre
las muestras (inter-análisis), estudiando sinónimos y homónimos (ver 3ª columna de
Tabla 1). A fin de profundizar las comparaciones semánticas del estudio realizado, se
agregaron nuevos léxicos del mismo caso de estudio, con un proceso de construcción
más cuidado. En dicho nuevo trabajo [17], se comprobó que diferentes grupos de
ingenieros trabajando sobre un mismo problema encuentran en el mejor de los casos
sólo el 50% de los elementos del modelo. Los resultados obtenidos llevaron a la
necesidad de profundizar la investigación y, por consiguiente, al presente trabajo (ver
4ª columna de Tabla 1).
3 Mejoras en la Estimación de Completitud
Los resultados sobre completitud presentados en [14] y los obtenidos posteriormente
al incorporar correcciones semánticas [16] [17] son cuanto menos alarmantes.
Habiéndose estimado un nivel de incompletitud del 50% o superior, entonces si estas
cifras son correctas, el modelo utilizado es inaceptable.
Reconsiderando todos los aspectos del problema, apareció como muy probable que
las cifras obtenidas hayan sido sobreestimadas. Es así que se incorpora a este estudio
la hipótesis que existen omisiones aparentes. Realmente esta suposición existió en
forma algo confusa en [16]. En los estudios y trabajos posteriores, que sustentan el
presente artículo, esta hipótesis fue central en todo momento.
Es así que una de las principales tareas consistió en distinguir las omisiones aparentes
de las omisiones reales, siendo:
Omisiones aparentes: aquellas detectadas como omisiones por la forma en que se
realizaron las capturas.
Omisiones reales: aquellas que se refieren a la ausencia de una unidad de
información en el documento bajo estudio.
Obviamente, es necesario reducir o eliminar las omisiones aparentes para lograr que
las estimaciones de completitud sean correctas y descubrir las causas de ambos tipos
de omisiones para luego desarrollar LELs con un grado de completitud alto.
Esta visión ideal, consistente en perfeccionar la herramienta empleada en el estudio
del problema para luego aplicarla, no ha podido ser llevada a la práctica. Esto se debe
a que el análisis de cada aspecto del problema ha llevado, en la mayoría de los casos,
a descubrir simultáneamente el origen esencial del defecto y la forma de corregirlo.
En otras palabras, las mejoras logradas en la construcción del LEL se han producido
en forma incremental y no se han concentrado ni en las omisiones aparentes ni en las
omisiones reales, sino que se refieren a ambas.
3.1 Mejora de las Comparaciones
Los resultados obtenidos en trabajos anteriores [14] [15] [16] [17], si bien fueron
promisorios, hicieron evidente la necesidad de reducir el tamaño de las unidades
comparadas entre las muestras del LEL. Esto se debió principalmente a la presencia
de sentencias largas que tenían dos o más enunciados empotrados en ellas.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1289
21. La nueva propuesta consistió en incorporar al análisis semántico un análisis
gramatical de cada sentencia del modelo LEL. Entonces, se comparó semántica y
gramaticalmente el contenido de las muestras disponibles. Para cada término de una
muestra, se consideró su noción e impacto como un conjunto de sentencias. En
detalle:
• Se organizó gramaticalmente todo el conjunto de sentencias en Sujeto, Verbo y
Resto del Predicado, buscando quién era realmente el sujeto en cada caso. Aquí se
consideraron las sentencias con Sujeto tácito. Si dicho Sujeto era el mismo
término del LEL, éste fue agregado. Si dicho sujeto se podía sobreentender, fue
agregado.
• En los casos de sentencias subordinadas (o sea, contenidas en otras sentencias), se
las desdobló y consideró individualmente, aplicando la misma acción del paso
anterior sobre cada sentencia resultante.
• Respecto de los verbos, se ignoraron las diferencias por conjugaciones y tiempos
verbales. Se consideraron también los sinónimos existentes de dichos verbos.
• Se convirtieron las sentencias que estaban en voz pasiva en voz activa.
3.2 Presencia de Jerarquías en el LEL
Una segunda mejora en las comparaciones se logró estudiando con cuidado las
jerarquías presentes en el LEL. El primer aspecto a ser considerado en relación con
las mismas, es que en el LEL se pueden observar tanto jerarquías completas como
jerarquías incompletas (ver Figura 1). A veces esto ocurre por defectos en la
construcción del LEL y otras veces porque corresponde que sea así dada la estructura
lingüística propia del contexto bajo estudio.
Fig. 1. Jerarquías entre Términos del LEL
Puede ocurrir que uno de los términos especializados esté fuera del alcance del
contexto bajo estudio y, por ende, no sea un término del LEL, por lo cual se tendrá
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1290
22. una jerarquía incompleta (ver Figura 1.b). También puede ocurrir que el término
genérico esté fuera del alcance del contexto entonces será una jerarquía incompleta
sin padre (ver Figura 1.c). Si se extendiera el alcance del glosario, entonces todo
genérico tendría a su vez un genérico de orden superior. Sin embargo, esto no
prospera mucho en LELs reales, ya que la gran mayoría de las jerarquías tienen sólo
dos niveles, siendo muy excepcionales los casos de jerarquías más profundas. Se
presenta frecuentemente una situación errónea, donde el genérico es considerado
sinónimo de un especializado (ver Figura 1.d). Se ha descubierto que la existencia de
jerarquías entre términos del LEL es un fuerte inductor de errores sutiles en los que un
impacto correcto se desplaza incorrectamente entre los especializados y los genéricos.
3.3 Algunos Tipos de Omisiones
Algunos ejemplos de tipos de omisiones halladas durante el presente trabajo se
muestran en la Tabla 1. La 4ª columna de la Tabla 1 muestra en forma evidente la
mejora en la detección de las omisiones reales y la reducción de las omisiones
aparentes, frente a los trabajos realizados previamente, que utilizaron comparaciones
solo sintácticas [14] o comparaciones solo semánticas [15][16][17].
Tabla 1. Ejemplos de omisiones halladas durante este estudio.
Comparación
sintáctica [14]
Primera
comparación
semántica[15][16][17]
Comparación actual
semántica y
gramatical
Unidad de
Comparación
Nombre del término
Término con noción e
impacto como un todo
Sentencia desagregada
de noción e impacto
Migración del
impacto de un
término existente a
otro existente
Omisión aparente de
impacto, no detectada.
Omisión aparente de
impacto, no detectada.
No hay omisión.
Falta de un término
con traslado de un
impacto a otro
Omisión aparente de
impacto, no detectada.
Omisión real de
término detectada.
Omisión aparente de
impacto, no detectada.
Omisión real de
término detectada.
Omisión real de
término detectada.
Sentencias
contenidas en
sentencias
Omisión aparente de
noción o impacto, no
detectada.
Omisión aparente de
noción o impacto, no
detectada.
No hay omisión.
Sinónimos no
considerados
Dos omisiones
aparentes de términos.
No hay omisión. No hay omisión.
Término genérico
como sinónimo de
especializado
Omisión real de
término, no detectada.
Omisión real de
término, no detectada.
Omisión real de
término detectada.
4 Conclusiones
Es conocido que el problema de completitud es de difícil abordaje. Más aún, se ha
podido comprobar que en modelos construidos en lenguaje natural no sólo están
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1291
23. ocultas las omisiones sino que también es complicado darse cuenta que las mismas
puedan existir. En el caso del Léxico Extendido del Lenguaje se ha detectado
reiteradamente la presencia de omisiones, pero es necesario aún mejorar los
mecanismos de búsqueda y las heurísticas de construcción del modelo para reducirlas.
Si bien es hoy conocido que las cifras presentadas en el primer estudio de completitud
del LEL están sobredimensionadas, la alarma encendida en su oportunidad continúa
vigente, ya que ninguno de los trabajos más meticulosos realizados posteriormente
han descartado la existencia de omisiones en cantidad y calidad preocupantes.
Se ignora la importancia de las omisiones reales y de algunas de las omisiones
aparentes (por ejemplo, migración de impactos entre términos) sobre los modelos
siguientes y finalmente sobre los requisitos mismos y sus atributos. Naturalmente, el
estudio de estos aspectos es parte del trabajo futuro a ser encarado. Se planifica en un
futuro próximo revisar las heurísticas de construcción del LEL bajo la óptica de este
artículo y mejorarlas.
Referencias
1. Constantine, L.: Joint Essential Modelling, User Requirements Modelling for Usability. Intl
Conference on Requirements Engineering (Tutorial Notes), Colorado Springs, Constantine &
Lockwood (1998)
2. Rolland, C., Ben Achour, C.: Guiding the construction of textual use case specifications. Data &
Knowledge Engineering 25 (1998) 125–160.
3. Oberg, R., Probasco, L, Ericsson, M.: Applying Requirements Management with Use Cases. Rational
Software Corporation (1998)
4. Alspaugh, T.A., Antón, A.I., Barnes, T., Mott, B.W.: An Integrated Scenario Management Strategy.
Intl Symposium On Requirements Engineering, Irlanda, IEEE Computer Society Press (1999) 142-149
5. Regnell, B., Kimbler, K., Wesslén, A.: Improving the Use Case Driven Approach to Requirements
Engineering. 2nd IEEE International Symposium on Requirements Engineering, Marzo 1995. Parte de
Ph.D. Thesis: Requirements Engineering with Use Cases – a Basis for Software Development, Reporte
Técnico 132, Paper I, Department of Communication Systems, Lund University (1999) 43–63
6. Whitenack, B.G. Jr.: RAPPeL: A Requirements Analysis Process Pattern Language for Object
Oriented Development. Knowledge Systems Corp. (1994)
7. Jacobson, I., Booch, G., Rumbaugh, J., “The Unified Software Development Process”, Addison-
Wesley, Reading, MA, 1º edición, Febrero 1999.
8. Díaz, I., Pastor, O., Moreno, L., Matteo, A.: Una Aproximación Lingüística de Ingeniería de Requisitos
para OO-Method, VII Workshop Iberoamericano de Ingeniería de Requisitos y Desarrollo de
Ambientes de Software, Arequipa, Perú (2004)
9. Leite, J.C.S.P.: Application Languages: A Product of Requirements Analysis. Computer Science
Department of PUC-Rio, Brasil (1989)
10. Smeaton, A.F.: Natural Language Processing and Information Retrieval. Information Processing and
Management, Vol. 26, Nº 1 (1990) 73–92
11. Briner, L.L.: Identifying Keywords in Text Data Processing, Directions and Challenges, 15th Annual
Technical Symposium (1996) 85–90
12. Free Chinese & Japanese Online Dictionary, Oriental Outpost,
http://www.orientaloutpost.com/shufa.php?q=rice, visitado 28/5/2014
13. Berry, D.M., Kamsties, E.: Ambiguity in Requirements Specification. En: Leite, J.C.SP., Doorn,
J.H(eds): Perspectives on Software Requirements, Kluwer Academic Publishers, EEUU (2004) 7-44
14. Doorn, J.H., Ridao, M.: Completitud de Glosarios: Un Estudio Experimental. VI Workshop on
Requirements Engineering, Brasil (2003) 317–328
15. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Un abordaje al problema de completitud en requisitos de
software. XVIII Congreso Argentino de Ciencias de la Computación, Bahía Blanca (2012) 827–836
16. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Correcciones semánticas en métodos de estimación de
completitud de modelos en lenguaje natural. XVI Workshop on Requirements Engineering,
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1292
24. Montevideo, Uruguay (2013) 105–117
17. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Mejoras semánticas para estimar la Completitud de Modelos
en Lenguaje Natural. Primer Congreso Nacional de Ingeniería Informática / Sistemas de Información,
Córdoba (2013)
18. Leite, J.C.S.P., Hadad, G.D.S., Doorn, J.H., Kaplan, G.N.: A Scenario Construction Process.
Requirements Engineering Journal, Springer-Verlag London Ltd., Vol.5, Nº1 (2000) 38-61
19. Leite, J.C.S.P., Doorn, J.H., Kaplan, G.N., Hadad, G.D.S., Ridao, M.N.: Defining System Context
using Scenarios. In: Leite, J.C.S.P., Doorn, J.H. (eds): Perspectives on Software Requirements, Kluwer
Academic Publishers, EEUU, ISBN: 1-4020-7625-8 (2004) 169-199
20. Hadad, G.D.S., Kaplan, G.N., Oliveros, A., Leite, J.C.S.P.: Construcción de Escenarios a partir del
Léxico Extendido del Lenguaje. 26 JAIIO – Jornadas Argentinas de Informática, Simposio en
Tecnología de Software, Buenos Aires (1997) 65–77
21. Sábat Neto, J.M.: Integrando Requisitos Não Funcionais à Modelagem Orientada a Objetos. M.Sc.
Dissertation, Computer Science Department of PUC-Rio, Brasil (2000)
22. Breitman, K.K., Leite, J.C.S.P.: Ontology as a requirements engineering product. 11th IEEE Intl
Conference on Requirements Engineering, EEUU, IEEE Computer Society (2003) 309-319
23. Leonardi, M.C.: Una Estrategia de Modelado Conceptual de Objetos basada en Modelos de Requisitos
en Lenguaje Natural. M.Sc. Dissertation, Universidad Nacional de La Plata, Argentina (2001)
24. Pimenta, M.S., Faust, R.: Eliciting Interactive Systems Requirements in a Language-Centred User-
Designer Collaboration: A Semiotic Approach. Special Issue on HCI and Requirements of ACM
SIGCHI Bulletin, Vol.29, Nº1 (1997) 61-65
25. Fiorini, S.T., Leite, J.C.S.P., Lucena, C.J.P.: Reusing Process Patterns. 2nd International Workshop on
Learning Software Organizations, Oulu-Finlandia (2000) 19-37
26. Ravid, A., Berry, D. M.: A Method for Extracting and StatingSoftware Requirements that a User
Interface Prototype Contains, Requirements Engineering Journal, Springer-Verlag, Vol.5, Nº4 (2000)
225-241
27. De Bortoli, L.Â, Alencar Price, A.M.: O Uso de Workflow para Apoiar a Elicitação de Requisitos. III
Workshop de Engenharia de Requisitos, Río de Janeiro, Brasil (2000) 22-37
28. Estrada, H., Martínez, A., Pastor, O., Ortiz, J., Ríos, O.A.: Generación Automática de un Esquema
Conceptual OO a Partir de un Modelo Conceptual de Flujo de Trabajo. IV Workshop on Requirements
Engineering, Buenos Aires ( 2001) 223-245
29. Mauco, M.V., George, C.: Using Requirements Engineering to Derive a Formal Specification. Reporte
Técnico Nº 223, UNU/IIST, P.O. Box 3058, Macau (2000)
30. Mauco, M.V., Riesco, D., George, C.: Heuristics to Structure a Formal Specification in RSL from a
Client-oriented Technique. 1st Annual Intl Conference on Computer and Information Science, ISBN:
0-9700776-2-9, Florida, EEUU (2001)
31. Hadad, G.D.S., Migliaro, A., Grieco, N.: Derivar casos de uso de un glosario. XIV Congreso Argentino
de la Ciencia de la Computación, ISBN: 978-987-24611-0-2, La Rioja (2008) 722-734
32. Leonardi M.C., Ridao M., Mauco M.V., Felice L., Montejano G., Riesco D., Debnath N.: An ATL
Transformation from Natural Language Requirements Models to Business Models of a MDA Project.
11th International Conference on Telecommunications for Intelligent Transport Systems, Rusia (2011)
33. Antonelli, R.L., Rossi, G., Leite, J.C.S., Oliveros, A.: Buenas prácticas en la especificación del
dominio de una aplicación. 16th Workshop on Requirements Engineering, Uruguay (2013)
34. Leite J.C.S.P, Leonardi, M.C.: Business rules as organizational Policies. IEEE Ninth International
Workshop on Software Specification and Design, IEEE Computer Society Press (1998) 68-76
35. Antonelli, R.L.: Identificación temprana de características transversales en el lenguaje de la aplicación
capturado con el Léxico Extendido del Lenguaje. Tesis de Doctorado, Facultad de Ciencias
Informáticas, Universidad Nacional de La Plata (2012)
36. IEEE 29148-2011: IEEE Systems and software engineering - Life cycle processes - Requirements
engineering, IEEE, Nueva York (2011)
37. Firesmith, D.: Are Your Requirements Complete? Journal of Object Technology, Vol.4, Nº1 (2005)
27–43
38. Ridao, M., Doorn, J.H.: Estimación de Completitud en Modelos de Requisitos Basados en Lenguaje
Natural. IX Workshop on Requirements Engineering, Brasil (2006) 151–158
39. Otis, D.L., Burnham, K.P., White, G.C., Anderson, D.R.: Statistical inference from Capture on Closed
Animal Populations. Wildlife Monograph, 62 (1978)
40. Wohlin, C., Runeson, P.: Defect content estimations from Review Data. 20th Intl Conference on
Software Engineering, Japón (1998) 400–409
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1293
25. Análisis de desempeño de algoritmos de detección
automática. Caso de estudio: detección de la capa
esporádica E
Maria G. Molina1,2
, Enrico Zuccheretti3
, Bruno Zolesi3
, Cesidio Bianchi3
, Umberto
Sciacca3
, James B. Ariokasami3
,Miguel A. Cabrera1
1
Laboratorio de Telecomunicaciones, Facultad de Ciencias Exactas y Tecnlogia (FACET),
Universidad Nacional de Tucuman (UNT), Av. Independencia 1800, Tucuman, Argentina,
gmolina@herrera.unt.edu.ar
2
Departamento de Ciencias de la Computacion, FACET, UNT, Av. Independencia 1800,
Tucuman, Argentina, gmolina@herrera.unt.edu.ar
3
Istituto Nazionale de Geofisica e Vulcanologia, Via di Vigna Murata, Roma, Italia.
enrico.zuccheretti@ingv.it
Resumen. Actualmente gran parte de las mediciones ionosféricas se realizan
mediante el uso de un radar HF denominado sondador ionosférico. Este equipo
transmite pulsos cortos de señales de radio hacia los estratos de la alta
atmósfera terrestre conocida como la ionosfera donde son reflejados y
posteriormente recepcionados. Medir el tiempo de retardo entre la transmisión
de la señal y la recepción de la misma permite estimar la altura virtual a la cual
se produjo la reflexión. En este trabajo se realiza el estudio comparativo de
algoritmos de detección en particular para la capa esporádica E. Se usaron
algoritmos de umbral fijo, CA-CFAR (cell averaging- constant false alarm rate)
y OS-CFAR (order statistics-constant false alarm rate). Los resultados
preliminares muestran un comportamiento más robusto en el caso de OS-CFAR
respecto a los otros dos algoritmos. Este trabajo muestra resultados parciales
sobre estudios científicos aplicados a la detección de capas ionosféricas y por lo
tanto es conveniente en el futuro realizar un estudio mas exhaustivo.
Palabras Clave: Algoritmos, Detección automática, Radar, Sondador
ionosférico.
1 Introducción
Actualmente gran parte de las mediciones de parámetros ionosféricos se realizan
mediante el uso de un sondador ionosféricos o ionosonda, el que básicamente es un
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1294
26. radar en banda de HF. Este sistema transmite cortos pulsos de portadoras moduladas
mediante un sistema de antenas con lóbulo de radiación orientado verticalmente hacia
los estratos de la atmósfera superior terrestre y mide el retardo de las señales
reflejadas por los estratos ionosféricos. Si es posible estimar el tiempo entre la
transmisión de la señal y la recepción de la misma, entonces es posible estimar la
altura en la cual se produjo la reflexión. Este tipo de sondaje es el denominado
sondaje vertical y una vez realizado, mediante algoritmos de detección es posible
determinar el tiempo de retardo y con ello la altura virtual de los estratos ionosféricos.
Si se realizan sondajes continuos utilizando frecuencias entre 1 y 20 MHz, es posible
obtener una representación grafica de la altura virtual en función de la frecuencia que
se denomina ionograma.
En este trabajo se estudió del comportamiento de diferentes algoritmos de
detección analizando el caso de la capa esporádica E. Para ello se utilizaron datos
obtenidos mediante el sondador ionosférico AIS-INGV (Advanced Ionospheric
Sounder – Instituto Nazionale di Geofisica e Vulcanologia) en el observatorio
ionosférico de Roma (41.8 N, 12.5 E) durante Marzo de 2014. Los sondajes fueron
realizados a una frecuencia fija de 3 MHz en horario diurno donde típicamente se
forma el estrato Es (capa esporádica E).
La comparación se realizó utilizando los algoritmos usando umbral fijo, CA-CFAR
(cell averaging- constant false alarm rate) y OS-CFAR (order statistics-constant false
alarm rate). Los resultados preliminares muestran un comportamiento más robusto en
el caso de OS-CFAR respecto a los otros dos algoritmos. Este trabajo es parte de un
estudio mas amplio sobre detección de capas ionosféricas y por lo tanto es
conveniente en el futuro realizar un estudio mas exhaustivo.
2 Estratos ionosféricos y las telecomunicaciones
Se puede definir a la ionósfera como una parte de la atmósfera terrestre donde iones y
electrones están presentes en cantidades suficiente como para afectar la propagación
de ondas electromagnéticas. Es la región de espacio localizada aproximadamente
entre los 50 y 1000 km por encima de la superficie de la tierra y es la porción más alta
de la atmósfera. Absorbe grandes cantidades de la energía radiante del sol, mediante
procesos de disociación e ionización de distintas especies moleculares y atómicas que
constituye la atmosfera terrestre. En este proceso se generan iones y electrones libres
y se produce la absorción de la radiación letal para la vida en la tierra.
La ionósfera no es uniforme, existiendo gradientes verticales de temperatura y
densidad, o sea, está estratificada. Las regiones de la ionósfera varían en altura y en
densidad de ionización con la hora del día, fluctúan con un patrón cuasi cíclico todo el
año y de acuerdo con el ciclo de manchas solares de once años [1].
No existe una separación total entre sus regiones, sino un cambio en la densidad
numérica de cargas, lo que marca la diferencia entre ellas. Así se pueden clasificar las
distintas regiones como sigue: la región D está comprendida entre los 60 y los 90 km
de altura, el orden de magnitud de la densidad electrónica es de 102
a 104
cm-3
, la
región E, entre 105 y 160 km con densidad electrónica del orden de 105
cm-3
y la
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1295
27. región F sobre los 180 km, con densidad del orden de 105
a 106
cm-3
. Esta última
región tiene un pico de densidad máxima a una altura del orden de los 300 km.
En los sistemas de comunicación de radio, las ondas se pueden propagar de varias
formas, dependiendo del tipo de sistema y del ambiente. Si bien las ondas
electromagnéticas viajan en línea recta, esta trayectoria puede ser alterada por el
medio en el que se trasladan. Estas desviaciones en la trayectoria de la señales de
radio influyen directamente en las radiocomunicaciones [1].
Dependiendo de cuán ionizada esté la ionósfera, las comunicaciones se ven afectadas
en mayor o menor medida. Muchos sistemas de comunicación utilizan la ionósfera
como medio para transmitir ondas de radio a grandes distancias. Algunas frecuencias
de radio son absorbidas y otras reflejadas, lo que hace que las señales fluctúen con
rapidez y que sigan rutas de propagación inesperadas. Las comunicaciones aero-
terrestres, barco-puerto, las estaciones de radio de onda corta y algunas frecuencias de
radio aficionados se ven afectados frecuentemente. En los últimos años los estudios
de la ionósfera han despertado un renovado interés debido a que este medio
interrumpe o modifica la fase y amplitud de las señales de comunicación en la banda
L, como la de los sistemas de posicionamiento global, GLONAS, GPS, GALILEO,
etc.
3 Detección automática de ecos ionosféricos
Una de las funciones principales que debe llevar a cabo un radar es la detección del
denominado blanco. Esta función no se realiza en un único paso sino que en general
se puede realizar como una serie de etapas que dependen de las características del
blanco [2]. En el caso del sondador ionosférico el blanco es la ionosfera que en un
periodo corto de tiempo puede suponerse como un blanco no fluctuante [1]. El
proceso comienza con la codificación de una señal portadora s(t) utilizando un código
binario complementario C[t]. Luego esta señal codificada Tx(t) es enviada a la
ionosfera y posteriormente recepcionada Rx(t). En un paso sucesivo, donde se da
inicio al proceso de detección, esta señal será muestreada en cuadratura (I[t], Q[t]) y
luego correlacionada con el código local (código original al momento de la
codificación de la portadora). Con el fin de mejorar la relación señal a ruido, este
proceso se integra coherentemente para varios pulsos [3]. En la Fig. 1 se muestra un
esquema simplificado en las etapas de detección del sondador ionosféricos AIS-
INGV.
Luego de ser correlacionada e integrada coherentemente a la señal se le aplica algún
algoritmo de detección automática que permita decidir si una determinada muestra es
un eco o solo es producto de ruido o interferencia. Para ello es necesario establecer un
valor de umbral de modo que toda medición que exceda este umbral será declarada
como blanco.
Existen numerosos algoritmos para la detección automática de blancos, cada uno trata
de sortear numerosos problemas de detección que dependen de las características
estadísticas de las señales y de los blancos.
En el caso del sondador ionosféricos se probó el desempeño de tres algoritmos.
Primero se estableció un umbral fijo (TFix) que se calculo usando todas las muestras
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1296
28. de la señal. Para el cálculo del umbral se utilizo como estadística el valor promedio de
todas las amplitudes de la señal.
En segundo término se utilizo una ventana móvil alrededor de cada muestra para
calcular las estadísticas usando también el promedio. La diferencia es que la ventana
de tamaño N menor al total de muestra varía según la muestra que se trate obteniendo
así un valor variable de umbral. Este algoritmo es conocido en la literatura de radares
como CA-CFAR (Cell Averaging- Constant False Alarm Rate)[2] [4].
Por ultimo se utilizó el denominado algoritmo OS-CFAR (Order Statistics-Constant
False Alarm Rate) el cual utiliza también una ventana móvil de tamaño N. En este
caso las estadísticas se calculan ordenando las amplitudes en dicha ventana y
seleccionando el k-esimo valor como representativo del nivel de interferencia
alrededor de la muestra de interés. Si se elije el valor k-esimo como N/2, entonces la
estadística utilizada es similar a una media móvil [2] [4].
4 Datos y resultados
Desde el punto de vista de la detección, dentro de una señal reflejada por un estrato
ionosférico, una de las tareas mas complejas es la de estimar la altura de la capa
]
[
C
Correlación
e
Integración
Coherente
]
[
],
[ t
Q
t
I
)
(t
Rx Muestreo en
Cuadratura
t
Ionósfera
)
(t
Tx
Portadora
)
(t
s
Generador
Código
Complementario
Obtención
pico del eco y
Estimación
de la
Altura Virtual
72 221.7 371.4 521.1 670.8 820.5
200
600
1000
1400
1800
Km
Figura 1. Esquema de las etapas de detección de ecos del sondador ionosférico
AIS-INGV.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1297
29. esporádica E. Esto sucede a bajas alturas y en general los ecos provenientes de esta
capa suceden en horario diurno, por lo tanto se realizaron sondajes diurnos a una
frecuencia fija de 3 MHz. A fin de probar los algoritmos propuestos se realizó una
campaña de recolección de datos por un periodo de tres días realizando sondajes cada
dos minutos. La obtención de datos sin procesar se realizó en el observatorio
ionosférico de Roma utilizando el sondador AIS-INGV (Marzo de 2014).
Una de las situaciones típicas observadas ocurre cuando una porción de energía de la
onda electromagnética transmitida es reflejada en la capa Es mientras que otra
porción penetra más allá en altura hasta ser reflejada por la capa F. Desde el punto de
vista de la detección ocurre que la energía retornada por la primera capa es inferior al
resto y compite con ecos de mayor amplitud. Si el algoritmo utilizado para estimar el
umbral usa todas las muestras que componen la señal, que es el caso de TFix, sucede
que todas las amplitudes se encuentran en competencia y la detección de ecos más
débiles como la capa E se ven afectados. En la Fig.2 se muestra un ejemplo de este
caso. Si bien en el ejemplo todos los algoritmos detectan la capa E, TFix detecta
levemente el pico. Mientras que los algoritmos CA-CFAR y OS-CFAR tienen una
performance mejor, siendo este ultimo el que mejor provee información sobre el
blanco. OS-CFAR además de detectar el pico del eco, muestra información de lo que
sucede en los alrededores de este incluyendo información como la cantidad de
muestras que componen el blanco.
100 200 300 400 500 600 700 800
10
15
20
25
30
35
km
Amplitud
Señal
CA-CFAR
OS-CFAR
TFix
04/04/2014
17:52 UT
3.0Mhz
Otro caso interesante ocurre cuando la capa E se encuentra bien definida y la señal
transmitida incide prácticamente de manera vertical. En este caso el eco reflectado
tendrá mayor energía de tal manera que puede ser reflejado nuevamente en tierra y
reenviado hacia la ionosfera. Esto produce la aparición de múltiples reflexiones en los
ionogramas. En la Fig. 3 se puede observar un caso con múltiples reflexiones.
Respecto a los algoritmos de detección estudiados, se puede observar que nuevamente
el algoritmo TFix ve disminuida su capacidad de detección debido a su característica
global. El cálculo de estadísticas locales en ventanas móviles de los otros dos
Fig. 2. Comparación de desempeño de los tres algoritmos propuestos
para la detección de la capa E cuando compite con ecos de mayor
amplitud. El eco alrededor de los 150 km corresponde a la capa Es.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1298
30. algoritmos permite que el eco detectado no compita con la energía de otros ecos. Una
vez mas el algoritmo OS-CFAR provee mayor información sobre el eco y sobre su
forma.
100 200 300 400 500 600 700 800
5
10
15
20
25
30
35
km
Amplitud
COMPARACION ENTRE ALGORITMOS DE DETECCION
Señal
CA-CFAR
OS-CFAR
TFix
3.0Mhz
11/04/2014
18:22 UT
4 Conclusiones
Se han presentado casos de estudio sobre detección de capas ionosféricas esporádicas
utilizando algoritmos desarrollados a tal fin para ser utilizados en sistemas digitales
de sondaje ionosférico. Una de las tareas mas complejas que debe realizar un
algoritmo de detección automática es la de detectar ecos de baja energía comparada
con otros ecos dentro de la misma señal. En este trabajo se analizaron numerosos
casos y se ejemplificaron dos de ellos. En ambas situaciones se observaron los
inconvenientes que posee el algoritmo de detección utilizando un único umbral fijo
(TFix). Esto se debe a que para obtener este valor de umbral se recurre a calcular el
valor promedio de todas las muestras incluyendo a aquellos ecos de gran amplitud.
Esta condición global produce un valor de umbral más apto para ecos de gran
amplitud y puede enmascarar ecos de menor energía como el caso de la esporádica
capa E. La solución propuesta en este trabajo es obtener un valor de umbral variable
que se calcule con valores promedios (CA-CFAR) de manera local alrededor del valor
que se esta testeando. De esta manera, las muestras para calcular el promedio
alrededor del eco en la mayoría de los casos no contendrán otro eco. Por esto, el valor
del umbral en la posición del eco es menor que en sus alrededores permitiendo la
detección del mismo. Esta condición de localidad permite que ecos de menor energía
sean detectados. Si además se obtiene un umbral variable usando como estadística una
media móvil alrededor de la muestra de interés, además se pueden eliminar problemas
como el cálculo de un promedio sesgado. Al reordenar ascendentemente en amplitud
Fig. 3. Comparación de desempeño de los tres algoritmos propuestos
para la detección de la capa E en el caso de múltiples reflexiones. El eco
alrededor de los 11 km corresponde a la capa Es.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1299
31. las muestras en la ventana y elegir el valor medio (OS-CFAR), el cálculo de las
estadística desestima los valores mas altos que pueden corresponder a ecos. De este
modo se obtiene una mejor performance como se muestra en los ejemplos
seleccionados. Este estudio fue realizado como parte de un estudio mas completo
sobre detección de ecos ionosféricos sin embargo estos resultados parciales muestran
la robustez del algoritmo OS-CFAR en las condiciones descriptas. Para completar
estos resultados es preciso realizar un estudio más extenso de casos y de datos.
Agradecimientos. Este trabajo ha sido subsidiado de manera parcial por el Instituto
de Geofísica y Vulcanología-Italia a través de Proyecto Bec.ar y Proyecto PICT-
2011-1008.
Referencias
1. Rishbeth, H., and O. K. Garriot. Introduction to Ionospheric Physics, Academic Press,
England. (1969)
2. Richard, G.. Radar System Performance Modeling, 2nd. Edit., Ed. Artech House, Norwood,
MA. (2005)
3. Ariokiasamy, James B., C. Bianchi, U. Sciacca, G. Tutone and E. Zuccheretti. The new AIS-
INGV Digital Ionosonde. Desing Report, Sezione di Geomagnetismo, Aeronomia e
Geofisica Ambientale, Istituto Nazionale di Geofisica e Vulcanologia (INGV), Roma, Italia
(2003)
4. Skolnik, M. I.. Introduction to radar systems, Mc. Graw-Hill, Tokyo. (1980)
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1300
32. Estudio sobre Eficiencia Energética en Esquemas de
Apagado Selectivo para Redes de Telefonía Móvil
Silvina A. Grupalli1,2, Martín G. Ferreyra1,3
y Miguel A. Cabrera1
1
Laboratorio de Telecomunicaciones, Depto. de Eléctrica, Electrónica y Computación
(DEEC), Facultad de Ciencias Exactas y Tecnología (FACET), UNT.
2
Laboratorio de Instrumentación Industrial, DEEC, FACET, UNT.
3
Laboratorio de Física Experimental, Depto. de Física, FACET, UNT.
sgrupalli@herrera.unt.edu.ar, mferreyra@herrera.unt.edu.ar, mcabrera@herrera.unt.edu.ar
Resumen. En este trabajo se estudia cómo mejorar la eficiencia energética de
una red de telefonía celular implementando un esquema de apagado selectivo de
estaciones base (BS) para entornos urbanos de alta densidad. Como escenario se
plantea una topología de red lineal, donde las BS se despliegan regularmente y
los usuarios se distribuyen de manera uniforme, utilizando tecnologías 3G/4G
con bandas de frecuencias admisibles en 900 MHz, 1900 MHz y 2100 MHz. Se
analizan las relaciones entre potencias consumidas, ancho de banda disponible y
porcentaje de apagado de la red mediante simulaciones basadas en el modelo de
propagación COST 231-Walfisch-Ikegami. Por último se propone un indicador
de eficiencia energética SG y se analizan los resultados obtenidos a partir del
mismo.
Palabras Clave:3G/4G, Apagado Selectivo, COST 231-Walfisch-Ikegami,
Eficiencia Energética, Estaciones Base, Microceldas Celulares.
1 Introducción
En la comunidad de redes móviles de última generación, existe una tendencia por
parte de los operadores a tratar de reducir el consumo de energía de la red y a la
implementación de redes que persiguen una reducción de la huella de contaminación
ambiental manteniendo la calidad de servicio en función de los requerimientos de
cobertura, capacidad y necesidades de los usuarios. Con este objetivo, se han
instalado en los últimos años una mayor cantidad de estaciones base o “BS” (del
inglés Base Station) para aumentar la capacidad de la red, que hoy representan
alrededor del 80 % del total del consumo de energía de la red celular [1]. En este
sentido, un camino eficaz para el ahorro energético en las redes celulares, es reducir el
consumo de energía de las BS.
Siendo que la carga de tráfico en las redes celulares fluctúa considerablemente debido
a la alternancia de día y de noche, la movilidad del usuario y la naturaleza a ráfagas
de las aplicaciones de datos [2] es necesario realizar el despliegue de las BS para
satisfacer los requisitos de los usuarios respecto a la carga de tráfico pico. Sin
embargo, esto causa que la mayoría de las mismas sean subutilizadas gran parte del
tiempo, ya que la duración de la carga de tráfico pico suele ser bastante corta. Aun
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1301
33. cuando la carga de tráfico es baja o incluso nula, una BS todavía consume gran parte
de la energía pico, lo que significa que el consumo de energía de la misma no es
proporcional a la carga de tráfico y gran parte de la energía se desperdicia durante el
período de tráfico bajo. En los últimos años se han realizado varios estudios que
trabajan en la desconexión de BS, centrados principalmente en la fase de
funcionamiento de la red [3] - [8]. Otras líneas abordan la optimización del consumo
de energía mediante umbrales de tráfico para la desconexión de la BS y evalúan el
ahorro energético utilizando de los modos de suspensión [9]. Estudios más recientes
intentan reducir el consumo de energía suponiendo que el tráfico de datos se mantiene
siempre en el valor de pico y proponen que las estaciones base se pueden apagar
selectivamente cuando la carga de tráfico es baja [10]. Hasta ahora, los escenarios
planteados para el estudio de apagados selectivos, se sitúan en zonas urbanas y
suburbanas desplegando un conjunto de macro celdas con amplios rangos de
cobertura. Sin embargo existen escenarios urbanos más reducidos, con radios de
cobertura críticos donde también es posible plantear un esquema de optimización de
los recursos energéticos sin alterar la calidad de los servicios al usuario final.
En este trabajo se estudia el problema de cómo implementar BS mejorando la
eficiencia energética de la red, a partir de un modelo de apagado selectivo que se
ajuste a este tipo de entornos. Para ello se ha considerado una topología de red lineal
de BS homogéneas desplegadas regularmente y con usuarios distribuidos de manera
uniforme. Se propone un escenario situado en un entorno urbano de alta densidad,
donde red celular se implementa sobre tecnologías 3G/4G con bandas de frecuencias
admisibles en 900 MHz, 1900 MHz y 2100 MHz.
2 Modelo de Apagado Selectivo
El planteo de este modelo considera una red celular lineal como se muestra en la Fig.
1, donde un conjunto de BS homogéneas se despliegan con regularidad a lo largo de
una línea, siendo d0 la distancia entre las mismas. Se asume que todas las BS tienen
igual potencia de transmisión máxima Pt
max
y ancho de banda AB.
Fig. 1. Red celular lineal homogénea desplegada regularmente
Para cada BS se definen dos estados: Modo activo: con consumo de energía Pa
(Potencia con BS Activa) y Modo de reposo: con el consumo de energía Ps
(Potencia
con BS Pasiva). Se asume que cada dispositivo móvil tiende a asociarse con la BS
más cercana. La región de cobertura de cada BS está definida como una celda y la red
puede ser dividida en N celdas del mismo tamaño. El tráfico en la red se distribuye
uniformemente en función de las BS activas. La red posee N+1 estados, donde cada
uno de ellos puede representarse como m, siendo m = {0, 1, … , N}. Cada estado
corresponde a una cierta proporción de estaciones de base en modo activo y otras en
modo de reposo. Para cada estado se define una distancia intercelda, que representa la
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1302
34. distancia media entre dos celdas activas. Suponiendo una red suficientemente extensa
(N∞), la potencia se evalúa por unidad de longitud utilizando la siguiente ecuación:
. .
(1)
Donde representa el porcentaje de BS activas y 0 la unidad de longitud por la
que se evalúa la potencia.
Fig. 2 Estados de la red en tres condiciones de pagado selectivo: a) m=0 ; b) m=1 ; c) m=2
Existen dos esquemas básicos para el modelo de apagado:
Apagado en modo de suspensión (o Standby): En este modo la BS queda fuera de
servicio mediante el apagado de los amplificadores de potencia, quedando aún activos
los equipos auxiliares (refrigeración, procesadores, fuentes de alimentación, etc.). La
Ps
alcanza valores de hasta un 40 % de la Pa
[11]. Este tipo de apagado selectivo es el
más utilizado en las investigaciones abordadas hasta el momento.
Apagado Selectivo del Sitio Completo (o Switch Off): Consiste en la desconexión
completa del sitio quedando activos solo los elementos necesarios para su
reencendido. En este modo, el valor de Ps
es prácticamente nulo.
3 Modelo COST 231 Walfisch-Ikegami
El modelo híbrido de propagación COST 231 Walfisch-Ikegami, es utilizado para
realizar predicciones y estudios de cobertura en redes de telefonía celular de corto
alcance (microceldas) dentro de los márgenes de frecuencias 900 MHZ, 1800MHz y
2100MHz. El modelo contempla dos opciones para el cálculo de las pérdidas de
propagación, LOS (“Line of Sight”, línea de visión directa entre el transmisor y el
receptor) y NLOS (“No Line of Sight”, no existe línea de visión directa entre el
transmisor y el receptor) y además define los siguientes parámetros: hb[m]: Altura de
la estación base a nivel de tierra , hm[m]: Altura de la estación móvil a nivel de tierra,
hr[m]: Altura media de los edificios, w [m]: Ancho de la calle donde se encuentra la
estación móvil, b [m]: Promedio de la distancia entre centros de edificios, d [Km]:
Distancia entre la estación base y móvil, [°]: Ángulo del rayo con el eje de la calle,
LO [db]: Pérdidas por el espacio libre, Lrts [dB]: Pérdida por difracción del techo a la
calle y pérdida esparcida, Lmsd[dB]: Pérdida de difracción multipantalla y f [MHz]:
Frecuencia de la portadora.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1303
35. Fig 3. Parámetros del Modelo COST 231 Walfisch-Ikegami
Las pérdidas se modelan a partir de las siguientes ecuaciones:
1) En condiciones de LOS:
42.6 26 log 20 log (2)
2) En condiciones de NLOS:
, 0
, 0
(3)
Pérdidas por el espacio libre:
32.4 20 log 20 log (4)
16.9 10 log 10 log 20 log (5)
Donde la pérdida por la orientación de la calle se corrige empíricamente según:
10 0.354 , 0° 35°
2.5 0.075 35 , 35° 55°
4.0 0.114 55 , 55° 90°
(6)
En la Tabla 1 se resume el rango de validez del modelo:
Tabla 1. Rango de validez del modelo COST 231- Walfisch-Ikegami
Frecuencia de la portadora f [800 : 2000] MHz
Altura de la antena de BS hb [4:50] m
Altura de la antena móvil hm [1:3] m
Distancia del móvil a la BS d [0,02:5] Km
Por las características y alcance descriptos en este modelo, la utilización del mismo
resulta apropiado para el estudio predictivo de radios de cobertura en los escenarios
previstos para este trabajo.
4 Descripción del Escenario
Para este estudio se ha considerado una topología de red lineal donde las BS
homogéneas se despliegan regularmente y los usuarios se distribuyen de manera
uniforme. La misma se sitúa en una zona urbana de alta densidad donde las BS
conforman una red de microceldas con radios de cobertura solapados en un porcentaje
superior al 50% y con distancias interceldas de 100 m. El grado de solapamiento
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1304
36. responde a condiciones de saturación de la BS, inherentes a redes urbanas altamente
congestionadas, donde un dispositivo móvil se asocia a la estación que tiene
disponibilidad de ancho de banda y no necesariamente a la que se encuentra a menor
distancia. Debido a que la distancia intercelda es considerablemente baja, las
potencias que maneja cada microcelda se encuentran entre 2 y 10 W. Este trabajo
analiza tres condiciones posibles para las BS, operando a 2W, 5W y 10W
respectivamente. La frecuencia de operación de la red se establece en 1900 MHz.
En la Tabla 2 se resumen las características de recepción para el dispositivo móvil:
Tabla 2. Características de recepción para el dispositivo móvil
Ancho de Banda del Canal
Ancho de Banda 20 MHz 10 MHz 5 MHz
AB [Mb/s] Sensibilidad Rx [dbm]
4 -99,0 -99,0 -97,5
3,5 -99,8 -99,9 -98,4
3 -100,5 -100,8 -99,2
2,5 -101,3 -101,6 -100,6
2 -102,0 -102,5 -102,0
1,5 -102,5 -103,8 -103,5
1 -103,0 -105,0 -105,0
0,5 -103,8 -106,2 -108,0
0,25 -104,2 -107,0 -109,1
0,125 -104,4 -107,3 -110,0
5 Simulaciones
Inicialmente se propone como parámetros del modelo COST 231 Walfisch-Ikegami
los siguientes: f=1900 MHz; hb=30 m; hm=1,5 m ; hr=20m ; w=10 m ; b=20m. En la
Fig. 4 se muestran las predicciones obtenidas por el mismo, en las condiciones
descriptas y utilizando potencias de transmisión Pt igual a 2W, 5W y 10W
respectivamente.
Fig. 4. Predicciones del modelo COST 231 Walfisch-Ikegami utilizando potencias de
transmisión Pt igual a 2W, 5W y 10W respectivamente.
‐118
‐108
‐98
‐88
‐78
0 100 200 300 400 500
Potencia
en
el
Movil
[dbm]
Distancia desde el móvil a la BS [m]
Predicciones de Cobertura de las BS
Pt=10W Pt=5W Pt=2W
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1305
37. Posteriormente se plantea el esquema de apagado de las BS desde 0 a 90%, lo que se
traduce en un incremento de la distancia intercelda promedio a medida que éstas van
quedando fuera de servicio. Combinando los resultados del modelo con las
especificaciones de los dispositivos móviles enunciadas en la Tabla 2, se obtiene las
curvas de la Fig. 5. Las mismas representan el máximo ancho de banda que puede
alcanzar un dispositivo móvil ubicado a la distancia más desfavorable respecto de la
BS a la que se encuentra asociado. Los cálculos fueron realizados contemplando
canales de 5 y 10 MHz para potencias de transmisión Pt igual a 2W, 5W y 10W.
(a) (b)
Fig. 5. Ancho de banda máximo que puede alcanzar una estación móvil en el punto más
desfavorable de la red como función del porcentaje de apagado de la misma, para ancho de
canal de 5MHz en (a) y de 10 MHz en (b).
Para poder comparar las variables de interés, se normalizan la potencia y el ancho de
banda resultando Pmmax=1 y ABmax=1. Considerando que el esquema de apagado
selectivo busca incrementar los rango de cobertura de cada microcelda como
consecuencia de la disminución del tráfico, en la Fig.6 se plantean los siguientes
resultados para un canal de 5MHz.
Fig. 6. Comparación normalizada del ancho de banda, potencia consumida en modo de
suspensión (StandBy) y potencia consumida en modo de apagado total del sitio (Switch off)
como función del % de apagado de la red, para un ancho de canal = 5MHz y Pt=2W en (a),
Pt=5W en (b) y Pt=10W en (c).
0
1
2
3
4
5
0 0,5 1
Ancho
de
banda
[Mb/s]
% de apagado de la red
AB vs % de apagado para un
ancho de canal de 5 Mhz
Pt=10W
Pt=5W
Pt=2W
0
1
2
3
4
5
0 0,5 1
Ancho
de
banda
[Mb/s]
% de apagado de la red
AB vs % de apagado para un
ancho de canal de 10 Mhz
Pt=10W
Pt=5W
Pt=2W
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1306
38. 6 Estimación de la Eficiencia Energética en Función del Ancho
de Banda Máximo Disponible
Con el objetivo de cuantificar la eficiencia energética de la red, en este trabajo se
establece el coeficiente SG como indicador de la relación ancho de banda disponible
(AB) en función de la potencia consumida por las estaciones base por unidad de
distancia en un esquema de apagado selectivo (Pm):
(7)
En la Fig. 7 se representa SG en función del porcentaje de apagado de la red. El valor
máximo de cada curva establece el porcentaje para el cual se alcanza una máxima
eficiencia energética en las condiciones estudiadas. Este indicador permite planificar
el despliegue de una red de microceldas para atender las demandas de pico y generar
un esquema de apagado selectivo que brinde la máxima eficiencia energética
manteniendo la calidad de servicio al usuario final.
Fig. 7. Coeficiente SG para distintas potencias de transmisión Pt y potencia total Pm en las
modalidades del esquema de apagado selectivo de suspensión (Standby) y apagado total del
sitio (Switch off).
7 Conclusiones
En este trabajo se estudia cómo implementar BS mejorando la eficiencia energética de
la red, a partir del planteo de un modelo de apagado selectivo que se ajusta a entornos
urbanos de alta densidad. El concepto de microceldas con alto grado de solapamiento,
se proyecta como solución para atender las demandas de pico en el tráfico de la red.
Sin embargo, implica que una gran cantidad de puntos de transmisión quedan
subutilizados cuando el tráfico de datos disminuye. En estas situaciones cobra
0,0
0,5
1,0
1,5
2,0
0 0,2 0,4 0,6 0,8 1
Coeficiente
SG
% de apagado de la red
Coeficiente SG vs % de Apagado de la Red para Pt=2W, Pt=5W y
Pt=10W
Pm para Pt= 2W (Stby)
Pm para Pt= 5W (Stby)
Pm para Pt= 10W (Stby)
Pm para Pt= 2W (SwOff)
Pm para Pt= 5W (SwOff)
Pm para Pt= 10W (SwOff)
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1307