SlideShare una empresa de Scribd logo
1 de 226
Descargar para leer sin conexión
Sistema Recomendador para la Determinación
de Medidas de Protección Contra Incendios -
Norma IRAM N° 3528 “Método de Purt”
Prof. Ing. Mario Raúl López1
y Dra. Milagros Gutiérrez2
1
UTN-FRP Departamento Ingeniería Electromecánica. Av.Almafuerte N°
1033-(3100) Paraná, Entre Ríos, Argentina. mrlopez@frp.utn.edu.ar
2
UTN-FRSF CIDISI Centro de Investigación y Desarrollo de Ingeniería en Sistemas
de Información. Lavaisse 610-(3000) Santa Fé, Argentina. mmgutier@frsf.utn.edu.ar
Resumen. Aunque existen numerosos métodos de evaluación nu-
mérica del riesgo de incendios, en la República Argentina para decidir
sobre la aplicación de sistemas fijos de extinción y/o de detección de
incendios, se utiliza la Norma IRAM Nº 3528 denominada “INSTA-
LACIONES FIJAS CONTRA INCENDIOS Evaluación del Riesgo
por el Método de Purt, para la aplicación de sistemas automáticos
de detección y extinción”. El método se aplica en forma manual y
su aplicación depende completamente de una persona o grupo espe-
cializado y está sujeto a errores. A partir de la conceptualización del
dominio y -eventualmente- el desarrollo de un sistema recomendador
sería posible dar soporte automatizado al profesional en la toma de
decisión sobre la implementación del sistema de detección y/o extin-
ción a utilizar en la planta.
Palabras claves: Sistema recomendador, Incendio, método de
Purt, norma IRAM.
1. Introducción
El método de Gustav Purt[2] efectúa una evaluación del riesgo de incendio de
forma general, dado que afirma que el cálculo excesivo de coeficientes que in-
tervienen en el incendio tenga cierta influencia sobre el riesgo real; y tiene en
cuenta que el fuego se produce en el contenido y en los edificios[1].
1
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1270
Su finalidad es deducir (Fig. 1), en base al riesgo potencial existente, qué medios
de lucha contra incendios son necesarios implementar en la actividad (primera in-
tervención y elementos de protección tales como detección y extinción automáti-
ca).
Figura 1: Proceso de Recomendación
por Experto Humano
El método se basa en el análisis de
la acción destructora del fuego que se
desarrolla en dos ámbitos diferencia-
dos: edificio o continente y su conte-
nido.
El riesgo del edificio estriba en la po-
sibilidad de que se produzca un daño
importante en el inmueble: destruc-
ción total del edificio. Para ello utiliza
dos factores esenciales:
La intensidad y duración del in-
cendio.
La resistencia de los elementos
constructivos.
El riesgo del edificio o continente (GR) se centra en la posibilidad de la destruc-
ción del inmueble, para su cálculo se utiliza la expresión:
GR =
(Qm.C + Qi).B.L
W.Ri
siendo:
Qm = Coeficiente de la carga de fuego del contenido (Tabla I, sec. 3.6.1.1).
C = Coeficiente de Combustibilidad del contenido (Tabla III, sec. 3.6.1.2).
Qi = Coeficiente de carga de fuego del continente (Tabla V y VI, sec.
3.6.1.3).
B = Coeficiente correspondiente a la situación e importancia del sector
(Tabla VII, sec. 3.6.1.4).
L = Coeficiente de tiempo necesario para iniciar la extinción (Tabla
VIII, sec. 3.6.1.5).
W = Coeficiente de resistencia al fuego del continente (Tabla IX, sec.
3.6.1.6).
Ri = Coeficiente de reducción del riesgo (Tabla X, sec. 3.6.1.7).
El riesgo del contenido (IR) está constituido por los daños personales
y materiales ocasionados a personas y cosas que se encuentren en el
interior del edificio. Para su cálculo se utiliza la expresión:
2
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1271
IR = H.D.F
donde:
H = coeficiente de daño a personas (Tabla XI).
D = coeficiente de peligro para los bienes (Tabla XII).
F = coeficiente de influencia del humo (Tabla XIII).
La obtención de los valores de GR e IR, a partir de los factores señalados, los
cuales se encuentran tabulados, permite una vez llevado al siguiente gráfico (Fig.
2), obtener de forma rápida las medidas de detección y extinción más adecuadas
al riesgo evaluado, dependiendo de la zona del diagrama en la que se encuentren
las rectas x = IR e y = GR.
Figura 2: Diagrama de medidas, método
de Gustav Purt
(1) El riesgo es poco significativo;
en general, son superfluas las medidas
especiales. (2) Una instalación auto-
mática de protección contra incendio
no es estrictamente necesaria ni reco-
mendable. (3) Instalación automáti-
ca de extinción necesaria; instalación
de protección no apropiada al riesgo.
(4) Instalación de protección necesa-
ria; instalación automática de extin-
ción no apropiada al riesgo; (5) Do-
ble protección por instalación de pre-
detección y extinción automática re-
comendable. Instalación de extinción
necesaria. (6) Doble protección por
instalación de predetección y extin-
ción automática recomendable. Insta-
lación de predetección necesaria. (7)
Doble protección por instalación de
predetección y extinción automática
necesaria.
Finalmente podemos señalar que por
tratarse de una Norma IRAM es de aplicación en todo el ámbito de la República
Argentina y en todo tipo de industrias con la única excepción que representa la
industria de los hidrocarburos.
Actualmente la aplicación de esta norma, es realizada en forma manual por un
especialista en la disciplina de la Higiene y la Seguridad en el Trabajo (Ley
N° 24557 de Riesgos del Trabajo, Ley N° 19587 de Seguridad e Higiene en el
Trabajo y Decreto Reglamentario N° 351/79, Capítulo 18, artículos 160 al 187)
quien realiza la búsqueda de los datos tabulados en la norma y calcula los índices
correspondientes para determinar las medidas de seguridad a implementar.
3
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1272
2. Fundamentación
En la actualidad, el método de Purt se aplica en forma manual, es decir, su
utilización depende completamente de una persona o grupo especializado en
la materia. Como toda actividad desarrollada en forma manual, está sujeta a
errores, ya sea por distracción, falta de capacidad para manejar gran cantidad
de información, falta de expertos, dificultades para adquirir entrenamiento, etc.
Además no es posible hacer experimentos para ver si las medidas de seguridad
funcionan, ya que no se puede hacer un ensayo de tipo destructivo, por pequeño
que sea, en una planta que está en plena producción, y que, generalmente, son
muy pocas las empresas que nacen con todos los elementos de seguridad .
Para limitar la búsqueda y obtener tan pronto como sea posible una solución
correcta dentro del conjunto de posibles soluciones, contar con una herramienta
computacional que asista en la elaboración de una solución semi-automática es
altamente deseable. Esta herramienta deberá estar orientada a tecnologías de
sistemas basados en conocimientos[4] y sistemas recomendadores.
Entonces, a partir de la conceptualización del dominio, la creación de un modelo[5,
6] y -eventualmente- el desarrollo de un sistema recomendador[7] sería posible
lograr un sistema que de soporte al profesional en la toma de decisión sobre la
implementación de las medidas de seguridad aplicando el método de Purt.
Un sistema recomendador es aquel que brinda información oportuna que el usua-
rio necesita para tomar mejores decisiones en la tarea que está llevando a cabo
[8]. Este tipo de sistemas para poder tomar decisiones sobre qué recomenda-
ción hacer toma información disponible como ser: información sobre el perfil del
usuario, decisiones tomadas con anterioridad, similaridad de características del
entorno sobre la que se está tomando la decisión, entre otras. También debe
contar con un mecanismo que le permita filtrar la información que encuentra
disponible para solo mostrar la que es de interés para el usuario.
Existen diferentes tipos de filtros que pueden ser utilizados en un sistema reco-
mendador tales como filtros colaborativos [8] y filtros basados en contenido [9].
En muchos casos estas propuestas son usadas en conjunto dando lugar a filtros
híbridos.
3. Propuesta
En este trabajo nos proponemos la conceptualización y eventualmente el desa-
rrollo de una solución que de soporte a los profesionales del área de Higiene y
Seguridad en el Trabajo en la toma de decisiones en el campo de la lucha contra
incendios. Esta solución estará basada en la utilización de los principios detalla-
dos en el método de Purt y cumpliendo lo estipulado en la Norma IRAM 3528.
Se requiere que dicha solución facilite la recomendación de los dispositivos nece-
sarios tanto sea para la extinción como para la detección temprana de incendios
en inmuebles y explotaciones fabriles -continente y contenido- de los tipos cons-
tructivos más comunes y que sea de utilidad para los técnicos y profesionales del
área.
4
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1273
Las ventajas de usar un sistema recomendador en la determinación de las medi-
das de seguridad contra incendios a implementar en plantas son evidentes[16, 17,
18]: Permanencia, Duplicación, Rapidez, Bajo costo, Fiabilidad, y consolidación
de varios conocimientos.
Para facilitar la experimentación, actualmente inhabilitada por las característi-
cas manuales del método y los elevados costos que significarían realizar un ensayo
en cualquier planta fabril, este sistema deberá contar con una interfaz adecuada
y amigable para que el usuario se vea cómodo para utilizarla introduciendo los
datos básicos, y con una base de conocimiento apropiada donde se encuentren
almacenados tablas y datos específicos con los valores de los distintos materiales
y ambientes susceptibles de incendios.
Figura 3: Sistema Recomendador
En este punto creemos que se ha-
ce indispensable la utilización de una
ontología ([16, 17, 18]), donde pueda
sistematizarse el conocimiento necesa-
rio: perfiles de usuarios, preferencias,
tendencias, datos de materiales y es-
pecíficos que hagan a la aplicación del
método de Purt, etc.
Esta ontología estará hospedada en
un sitio de la web de fácil acceso pa-
ra los usuarios, los cuales, como podrá
apreciarse en la figura 3, no serán ne-
cesariamente expertos en la materia,
aunque el sistema si podrá aprovechar
las recomendaciones de otros expertos o resultados similares efectuados previa-
mente.
La Ontología de materiales y datos específicos deberá contener la información
necesaria para que el sistema realice el razonamiento adecuado, en función o
como resultado de la aplicación del método, así tendríamos un algoritmo como
el siguiente:
% TR (Riesgo Total) es el valor del área del diagrama determinado
% por las coordenadas IR y GR (riesgo contenido y continente)
Si TR = 1 entonces Recomendacion1
Si TR = 2 entonces Recomendacion2
....
% Si TR cae fuera del diagrama aumentar resistencia al fuego
& y decrementar sector de incendio y tiempo de extinción
Recalculo(Resistencia,SectorIncendio,TiempoExtincion)
Recomendacion1:
VerificarMateriales
....
Recomendación2:
5
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1274
VerificarMateriales
....
....
Recalculo(R,S,T):
....
Además, para evitar colisiones y resultar coherentes con el trabajo previo del ex-
perto humano donde ya ha establecido, por ejemplo, la distribución de extintores
e hidrantes, las verificaciones de materiales y las recomendaciones que realice el
sistema deberán tener en cuenta una clasificación como la que se observa en la
siguiente figura 4 extraído de [19].
Figura 4: Cuadro Resumen Tipos de Materiales Combustibles
4. Conclusiones y Trabajos Futuros
La evaluación del riesgo de incendio resulta fundamental a la hora de adoptar
las medidas de prevención y protección necesarias en cada caso, ya que éstas
deberán estar acordes con el riesgo detectado [12].
6
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1275
Aunque existen numerosos métodos de evaluación numérica, este método (Purt)
tiene en cuenta que el fuego se produce en el contenido y en los edificios. Razones
valederas para ser adoptado por la normativa argentina [14] que coincide con
lo expresado por algunos autores [13]: «Si la finalidad del método consiste en
deducir de la evaluación del riesgo las medidas de protección contra incendios,
entonces el más apropiado es el del Dr. Gustav Purt».
Por el lado de los sistemas recomendadores podemos decir, coincidiendo con [15],
que estos sistemas de recomendación son ya ampliamente utilizados y debido a la
gran cantidad de información de todo tipo que nos rodea, su presencia y utilidad
es de esperar que aumente en el futuro.
Este conocimiento se podrá integrar en bases de datos, donde usuarios comunes
encontrarán la información precisa y podrán realizar inferencias buscando in-
formación relacionada. Además, podrán intercambiar sus datos siguiendo estos
esquemas comunes consensuados, e incluso podrán reutilizarlos.
En este sentido, estamos trabajando en la conceptualización de un modelo para
la diversidad de materiales que se pueden encontrar, tanto en el contenido como
el continente, de las plantas fabriles.
Referencias
[1] José Ma. Cortés Díaz. “Seguridad e Higiene del Trabajo. Técnicas de preven-
ción de riesgos laborales” (Capítulo 17). 3ra edición. Editorial Alfaomega.
México 2002.
[2] Gustav Purt. “Sistema de evaluación del riesgo de incendio que puede servir
de base para el proyecto de instalaciones automáticas de protección contra
incendios”. Texto revisado de la conferencia pronunciada durante el sexto
Seminario Internacional de Detección Automática de Incendios del IENT,
celebrado en Aquisgran en Octubre de 1971.
[3] Gretener, M. “Determination des mesures de protection decoulant de
l’evaluation du danger potenciel d’incendie”. Berne, Ass. des etablissements
cantonaux d’assurances contre l’ncendie. 1973.
[4] Russell, S. and P. Norvig. Artificial Intelligence. A modern approach. Third
edition. Prentice hall 2010.
[5] Speel P., Schreiber, A., van Joolingen, W., van Heijst G. and Beijer, G.J.
Conceptual Modelling for Knowledge-Based Systems. en: Encyclopedia of
Computer Science and Technology, Marce Dekker Inc., New York.
[6] Robinson, S. Conceptual Modelling: Who Needs It? SCS M&S Magazine
2010 / n2 (April).
[7] M. Montaner, “A Taxonomy of Recommender Agents on the Internet”,
Artificial Intelligence Review 19, 2003, pp. 285–330.
7
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1276
[8] Prem Melville and Vikas Sindhwani. Recommender Systems. Encyclopedia
of Machine Learning, 2010.
[9] Mooney, R. J and Roy, L. Content-based book recommendation using lear-
ning for text categorization. In Workshop Recom. Sys.: Algo. and Evalua-
tion. 1999.
[10] http://www.todomonografias.com/industria-y-materiales/actividades-
industriales-proteccion-contra-incendios/ Actividades industriales Protec-
ción contra incendios – Monografía. (consultado 8/1/2013).
[11] http://www.estrucplan.com.ar/articulos/verarticulo.asp?IDArticulo=767
Métodos de evaluación del riesgo de incendio, herramientas decisivas en la
aplicación de las medidas de prevención y protección contra incendios de
personas, bienes y actividades. Artículo. (consultado 9/1/2013)
[12] Cortés Díaz, José María. Seguridad e Higiene del Trabajo. Técnicas de pre-
vención de riesgos laborales. 3ra. edición © 2002 Alfaomega grupo editor.
México D.F.
[13] Villanueva Muñoz, J.L.: Evaluación del riesgo de incendio. Método Gustav
Purt. Notas Técnicas de Prevención. NTP.100-1984. Instituto Nacional de
Seguridad e Higiene en el Trabajo. Madrid (1984).
[14] Norma IRAM N° 3528 “INSTALACIONES FIJAS CONTRA INCENDIOS.
Evaluación del Riesgo por el Método de Purt, para la aplicación de sistemas
automáticos de detección y extinción”. (1981) Argentina.
[15] Sergio M. G. Nieto. Filtrado Colaborativo y Sistemas de Recomendación.
Inteligencia en Redes de Comunicaciones.Ingeniería de Telecomunicación.
Universidad Calos III de Madrid.
[16] Sebastián Lendinez Teixeira. APO: APLICACIÓN PARA LA POBLA-
CION DE ONTOLOGÍAS. INGENIERÍA TÉCNICA EN INFORMÁTICA
DE GESTIÓN. Universidad Carlos III de Madrid. España.
[17] Gleison Santos, Karina Villela, Lílian Schnaider, Ana Regina Rocha, Guil-
herme Horta Travassos. Building ontology based tools for a software develop-
ment environment. COPPE/Federal University of Rio de Janeiro - Brasil.
[18] Karin Koogan Breitman, Julio Cesar Sampaio do Prado Leite. Lexicon Ba-
sed Ontology Construction. PUC-Rio, Computer Science Department, LES.
Rio de Janeiro, RJ, Brazil.
[19] Laboratorio de Producción. Prevención y Control de Incendios. Facultad
Ingenieria Industrial. Colombia. Edición 2009-2.
8
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1277
Modelado del proceso de destilación molecular
mediante redes neuronales
Carolina A. Allevi, Cecilia L. Pagliero, Miriam A. Martinello
Departamento de Tecnología Química-Facultad de Ingeniería (UNRC-CONICET)
Ruta 8 km. 601 – 5800 Río Cuarto – Argentina.
callevi@ing.unrc.edu.ar
Resumen. En este trabajo se presenta el modelado del proceso de destilación
molecular mediante una red neuronal artificial para la predicción de la
concentración del componente más volátil en el residuo y la relación
residuo/alimentación (R/F) de una muestra binaria patrón. Los datos se
obtuvieron por resolución numérica del modelo fenomenológico del proceso.
Las redes neuronales tienen la capacidad de aprender, reconocer patrones de
una serie de entradas y salidas, sin hipótesis previas sobre su naturaleza. Las
entradas a la red fueron el flujo de alimentación (Q) y la temperatura del
evaporador (TE). Se desarrolló un modelo neuronal artificial feed-forward
backpropagation compuesto por dos neuronas en la entrada, seis neuronas en
una capa oculta y dos neuronas en la capa de salida. Se utilizó para el
entrenamiento el algoritmo Levenberg-Marquartd, con el cual se alcanzo una
buena predicción de los datos de validación, con un mínimo error cuadrático
medio.
Palabras Clave: Destilación Molecular, Redes Neuronales Artificiales.
1 Introducción
La destilación molecular es un proceso de separación y purificación que se caracteriza
por el alto vacío, las temperaturas reducidas y los bajos tiempos de residencia lo cual
la hacen útil para materiales termolábiles. Como resultado de este proceso se obtienen
dos fracciones a partir de una mezcla de componentes de volatilidades diferentes: la
fracción pesada (residuo) y la fracción liviana (destilado).
Existen muchas aplicaciones de destilación molecular para diferentes materiales, tales
como la concentración de monoglicéridos [1], el enriquecimiento de metilchavicol
[2], el enriquecimiento de oxiterpenos del aceite de naranja [3] y la desacidificación
de aceites [4].
El proceso de separación por destilación molecular tiene lugar en cuatro etapas: (i) el
transporte de componentes desde la mezcla líquida hacia la superficie de la película,
(ii) la evaporación de los componentes más volátiles en la superficie de la película,
(iii) el transporte de las moléculas evaporadas a través del espacio de destilación y
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1278
(iv) la condensación de las moléculas evaporadas. La representación completa del
proceso se realiza analizando todas las etapas mediante balances de cantidad de
movimiento, de masa y de energía, aunque en general la etapa limitante es la primera
y es la única que se tiene en cuenta en el modelo.
Se han publicado distintos trabajos sobre el modelado y simulación de una mezcla
binaria en dos tipos de destiladores: de película descendente y centrífugo [5], del
modelado y la simulación del proceso de destilación molecular de un residuo de
petróleo, resuelto por el método implícito de diferencias finitas de Crank-Nicholson
[6].
Las redes neuronales artificiales representan una tecnología que tiene sus raíces en
muchas disciplinas: Neurociencias, Matemáticas, Estadística e Ingeniería. Se aplican
para diversos propósitos, tales como modelado, reconocimiento de patrones,
identificación de sistemas no lineales, control de procesos, clasificación y
agrupamiento, optimización, predicción y procesamiento de señales. Las redes
neuronales se presentan como una herramienta prometedora para el modelado de
sistemas complejos. Se han aplicado en la simulación de una planta de tratamiento
de aguas residuales industriales, para determinar las propiedades ambientales de la
corriente de salida [7], en la predicción de la caída de presión para fluidos no
newtonianos a través de accesorios de tuberías [8]. Específicamente en destilación
molecular, se utilizaron las redes neuronales como modelos predictivos para la
concentración y recuperación de tocoferoles del destilado de desodorización de aceite
de colza [9].
2 Materiales y métodos
En este trabajo se realiza el modelado mediante redes neuronales para la destilación
molecular de una muestra binaria: dibutilftalato (DBP) y dibutilsebacato (DBS). Los
datos se obtuvieron mediante el modelado matemático fenomenológico de la película
del evaporador.
El modelo se aplicó al destilador molecular KDL4 (UIC-GmbH), instalado en la
planta piloto del Departamento de Tecnología Química de la Facultad de Ingeniería.
El equipo de destilación molecular consiste en dos cilindros concéntricos, uno interno
y otro externo. La evaporación ocurre en la superficie interna del cilindro exterior y la
condensación en la superficie externa del cilindro interior. Consta de un sistema de
rodillos logra el barrido de la película líquida sobre la superficie de evaporación la
cual es una de las condiciones claves para una destilación satisfactoria. El sistema de
rodillos es el responsable de la dispersión de la película sobre la superficie del
evaporador, además de un mezclado permanente. Posee equipos auxiliarles como
sistema de bombas en serie y baños termostáticos para el evaporador, el condensador
y la alimentación.
Se realizó el modelo matemático en dos dimensiones de la película que se forma en la
pared del evaporador del destilador molecular. Para ello se establecieron una serie de
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1279
suposiciones: estado estacionario, propiedades fisicoquímicas de los componentes
constantes, fluido newtoniano, flujo laminar, coordenadas cilíndricas, temperaturas de
pared del evaporador y del condensador constantes, sin difusión axial, ni flujo radial.
Las ecuaciones que describen el proceso de destilación molecular son las ecuaciones
de conservación de masa, de energía, y de cantidad de movimiento; y la ecuación de
Langmuir-Knudsen para la evaporación de los componentes en la superficie de la
película.
Los datos obtenidos mediante el modelo matemático se utilizan para la selección,
creación y configuración de la arquitectura de la red neuronal, la cual se usará con
fines predictivos. En la Tabla 1 se muestran los datos obtenidos por el modelo
matemático. En la misma se puede observar que las variables operativas que se
modificaron fueron la temperatura del evaporador (TE) y el flujo de alimentación (Q),
permaneciendo constante la temperatura de alimentación (TF) que para todos los
casos fue TF = 370 K. Las variables de salida fueron la concentración del componente
más volátil en el residuo (%XDBP) y la relación residuo/alimentación (R/F).
Tabla 1. Set de datos generados a partir del modelo matemático, los cuales han sido divididos
en dos subconjuntos: datos para entrenamiento y datos para validación de las redes neuronales.
TF=370K.
Set Datos n TE Q % XDBP R/F
Entrenamiento
1 350 2,5 49,06 0,97
2 370 2,5 45,88 0,88
3 380 1 23,93 0,44
4 380 2,5 41,27 0,76
5 380 3 42,81 0,80
6 380 5 45,87 0,88
7 390 1 0,26 0,07
8 390 2 24,9 0,45
9 390 2,5 31,05 0,54
10 390 5 41,68 0,76
11 400 2,5 8,32 0,21
Validación
12 360 2,5 48,04 0,94
13 380 1,5 34,00 0,61
14 380 2 38,00 0,70
15 380 2,5 41,27 0,76
16 390 1,5 14,08 0,30
17 390 3 34,84 0,61
En la Fig. 1 se muestra la variación de la concentración de DBP (%XDBP) y R/F en
función de la temperatura del evaporador (TE). El aumento de la temperatura de
evaporación produce la disminución de las dos variables de salida debido al mayor
aporte energético y por lo tanto a una mayor evaporación del componente más volátil
y menor producción de residuo. En la Fig.2 puede verse la variación de la
concentración de (%XDBP) y de R/F, en función del flujo de alimentación. Un
aumento del flujo de alimentación se traduce en menos tiempo del material en el
equipo, por lo tanto se produce una menor evaporación con concentraciones y
relación de residuo/alimentación mayores.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1280
0,1
0,3
0,5
0,7
0,9
0
10
20
30
40
50
60
340 360 380 400 420
R/F
% XDBP
TE (K)
XDBP vs TE
R/F vs TE
Fig. 1. R/F y %XDBP vs TE con Q =2,5mL/min.
0
0,2
0,4
0,6
0,8
1
20
30
40
50
0 2 4 6
R/F
% XDBP
Q (mL/min)
XDBP vs Q
R/F vs Q
Fig. 2. R/F y %XDBP vs Q con TE = 380K
Luego de analizar los resultados del modelado se procede a la determinación de la
mejor red neuronal que sea capaz de aprender y predecir correctamente los datos.
Para ello se deben analizar distintas arquitecturas de redes, comparar diferentes
algoritmos de entrenamiento, funciones de transferencia, a efectos de encontrar la
óptima para esta aplicación. Y luego realizar la validación del modelo de redes
obtenido.
En la selección de la red se recolectan los datos donde se utilizaron un total de 17
datos, 65% de los cuales se usaron para el entrenamiento, y el 35% restante para
validar la red (Tabla 1).
Se creo una red neuronal de propagación hacia adelante con retropropagacion de los
errores (feed-forward backpropagation). En la red de propagacion hacia adelante
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1281
todas las neuronas de una capa estan conectadas con neuronas de otras capas. La red
seleccionada consta de una capa de entrada, una capa oculta y una capa de salida. En
la capa de entrada no se realizan cálculos, su función es distribuir y enviar las señales
de entrada a la capa oculta. Cada capa contiene un número de neuronas. La cantidad
de neuronas en las capas de entrada y de salida quedan determinadas por las variables
de entrada y de salida del proceso. Para la capa oculta, el numero de neuronas se
determina por el método de prueba y error. Las neuronas en la capa de entrada son
dos, debido a las dos variables de entrada: TE y Q. Se determinó que el número de
neuronas en la capa oculta es 6, y la capa de salida contiene dos neuronas, una por
cada variable de salida: R/F y %XDBP (Fig. 3).
En cada capa se selecciona una función de transferencia. En este trabajo se seleccionó
para la predicción, en la capa oculta la función de transferencia tangente hiperbólica y
en la capa de salida la función lineal.
Las conexiones entre neuronas, entre capas están ponderadas, a cada conexión se le
asocia un peso .Luego se selecciona la arquitecura de red y se inicializan los pesos
donde la red puede partir de pesos iguales a cero o de valores aleatorios antes de que
empiece a aprender. Inmediatamente empieza la etapa de entrenamiento para lo cual
se debe seleccionar algún algoritmo de aprendizaje, en este caso se utilizó el
algoritmo de aprendizaje de Leveberg-Marquardt. El objetivo del entrenamiento es
conseguir que para la destilación molecular, el conjunto de datos de entradas produzca
un conjunto de salidas deseadas. El proceso de entrenamiento consiste en la
aplicación de diferentes vectores de entrada para que se ajusten los pesos de las
interconexiones.
El aprendizaje se realizó mediante la propagación del error hacia atrás consiste en dos
pasos a través de las diferentes capas de la red: un paso hacia adelante y un paso hacia
atrás. En el paso hacia adelante, un vector de entrada se aplica a los nodos de la red, y
su efecto se propaga a través de la red capa por capa. Finalmente, un conjunto de
salidas es producido como respuesta de la red. Durante el paso hacia adelante son
establecidos los pesos sinápticos de la red. Durante el paso hacia atrás, los pesos son
ajustados de acuerdo con la regla de corrección del error. Durante el entrenamiento
los pesos convergen gradualmente hacia los valores que hacen que para cada entrada
produzca la salida deseada.
Fig.3. Red Neuronal. La cual consta de una capa de entrada con dos neuronas, una capa oculta
con 6 neuronas y una capa de salida con dos neuronas.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1282
3 Resultados
Los pesos sinápticos de las conexiones para la arquitectura de red óptima obtenidos
son los mostrados en las Tablas 2 y 3.
Una vez que la red neuronal ha sido entrenada, la red es validada mediante un
conjunto de datos diferentes a los utilizados en el entrenamiento (Tabla 4).
Tabla 2.Pesos de las conexiones entre la capa de entrada y la capa oculta (CO). Los pesos entre
las entradas 1 y 2 y las neuronas de la CO se denotan W1,j, W2,j. Bias en la capa de ocultas (CO)
j
nodos CO
Bias
(CO)
W1,j W2j
1 -2.7230 3.3021 1.5370
2 -2.4953 1.4505 -1.9692
3 0.2929 -2.6833 -1.8145
4 1.7605 2.3559 -2.7085
5 1.0240 0.0158 -3.6053
6 -3.0888 -2.1998 -2.4901
Tabla 3. Pesos de las conexiones entre la capa de entrada y la capa oculta (CO). Los pesos
entre las entradas 1 y 2 y las neuronas de la CO se denotan W1,j, W2,j. Bias en la capa de salida
(CS)
j
nodos CS
Bias
(CS)
W1,j W2j W3j W4j W5j W6j
1 -0.4397 -0.2852 -1.3014 0.2879 0.0798 -0.3948 0.2744
2 -0.3089 -0.4608 -1.3605 0.1841 0.4120 -0.5894 0.6255
Tabla 4. Resultados de la etapa de validación
Set Datos TE Q
Modelo Matemático Modelo Neuronal
XDBP (%) R/F XDBP(%) RF
Validación
360 2,5 48,04 0,94 47,34 0,92
380 1,5 34,00 0,61 30,18 0,55
380 2 38,00 0,70 36,82 0,67
380 2,5 41,27 0,76 41,26 0,76
390 1,5 14,08 0,30 14,35 0,27
390 3 34,84 0,61 35,49 0,63
En la Fig. 4 se puede observar la disminución del error cuadrático medio a medida
que las iteraciones avanzan con el entrenamiento. El entrenamiento se detuvo porque
alcanzo la performance, el mínimo error. En las Fig. 5 y 6 se muestran la salida de la
red versus los datos del modelo matemático (salidas deseadas). El ajuste de los datos
es bueno debido a que se ve una pequeña dispersión de la recta a 45 grados que sería
el ajuste perfecto donde las salidas de la red son iguales a las salidas del modelo.
También puede verse en la Tabla 4 la buena predicción del modelo comparando los
valores del modelo matemático con el neuronal.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1283
0 2 4 6 8 10 12
10
-4
10
-2
10
0
10
2
Best Training Performance is 7.4509e-005 at epoch 12
Mean
Squared
Error
(mse)
12 Epochs
Train
Best
Goal
Fig. 4. Error cuadrático medio de la red neuronal, el cual disminuye durante el entrenamiento,
es decir durante la actualización de los pesos de las conexiones entre neuronas.
0
0,2
0,4
0,6
0,8
1
0 0,2 0,4 0,6 0,8 1
R/Fmod
R/FRN
y=x
Fig. 5. R/Fmod del modelo matemático vs R/FRN obtenido de las redes neuronales
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1284
0
10
20
30
40
50
0 10 20 30 40 50
%XDBPmod
%XDBPRN
y=x
Fig. 6. XDBPmod del modelado matemático vs XDBPRN obtenido de la red neuronal
Conclusiones
El modelado neuronal brinda las herramientas para analizar la influencia las variables
del proceso de destilación molecular sobre las variables de respuesta sin necesidad de
recurrir a la experimentación, siendo esta última una ventaja ya que se minimizan
costos. El modelo neuronal encontrado es un buen modelo predictivo con bajo error,
capaz de predecir valores en el rango estudiado, que además posibilita analizar la
optimización y el control del proceso.
Referencias
1. Fregolente L. V., Fregolente P. B. L., Chicuta A. M., Batistella C. B., MacielFilho R. and Wolf-Maciel M. R. Trans
IChemE, Part A, Chemical Engineering Research and Design, 2007, 85(A11): 1524–1528
2. Martins P. F., Carmona C., Martinez E. L., Sbaite P, MacielFilho R., Wolf Maciel M.R. Short path evaporation for
methyl chavicol enrichment from basil essential oil. Separation and PurificationTechnology 87 (2012) 71–78
3. Martins P.F., Medeiros H.H.R., Sbaite P., Wolf Maciel M.R. Enrichment of oxyterpenes from orange oil by short
path evaporation. Separation and Purification Technology 116 (2013) 385-390
4. Martinello M., Hecker G., Pramparo M. (2007). Grape seed oil deacidification by molecular distillation: Analysis of
operative variables influence using the response surface methodology J. Food Eng. ,81, 60.
5. Batistella C.B. and W. MacielM.R.. Modeling, simulation and analysis de molecular destillators: Centrifugal and
falling film. European Symposium on Computer
6. ZuñigaLiñan L.,NascimentoLimab N.M.,1, Manentic F., Wolf Maciela M.R.,MacielFilhob
R.,MedinadL.C.Experimental campaign, modeling, and sensitivity analysis for the molecular distillation of
petroleum residues 673.15 K+
7. Gontarski, C.A., Mori M., Rodrigues P.R., Prenem L.F. Simulation of an industrial wastewater treatment plant using
artificial neural networks. Comput. Chem. Eng 24 (2000), 1719-1723
8. Bar N, Bandyopadhyay T.K., Biswas M.N., Das S.K..Prediction of pressure drop using artificial neural network for
non-Newtonian liquid flow through piping components.J. Petro. Sci. Eng. 71 (2010), 187–194.
9. Shao P., Jiang S.T., Ying Y.J. Optimization of molecular distillation for recovery oftocopherol from rapeseed oil
deodorizer distillate using response surface and artificial neural network models. Food Bioprod. Process 85 (2007),
85-92
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1285
Problemas y Soluciones en la Completitud de Modelos
en Lenguaje Natural
Graciela D.S. Hadad1,2
, Claudia S. Litvak1
, Jorge H. Doorn1,2
1
DIIT, Universidad Nacional de La Matanza, Argentina
2
Escuela de Informática, Universidad Nacional del Oeste, Argentina
{ghadad, clitvak}@ing.unlam.edu.ar, jdoorn@exa.unicen.edu.ar
Abstract. Un proceso de requisitos habitualmente se debe valer de modelos en
lenguaje natural para facilitar la comunicación y validación con los clientes.
Dichos modelos deben ser lo más precisos y completos posibles, dado que a
partir de ellos se elaboran otros modelos necesarios para un desarrollo de
software robusto. A lo largo de casi dos décadas, diversos autores en la
Ingeniería de Requisitos han utilizado un modelo léxico con diferentes
propósitos. Se han realizado varios estudios para establecer el grado de
completitud del modelo léxico construido, obteniéndose en todos los casos un
número excesivo de omisiones. En el presente trabajo, se ha detectado que
varias de estas omisiones no eran efectivamente tales, y sólo contribuían a
distorsionar los resultados de completitud obtenidos. Este hallazgo permitirá
mejorar el método de estimación de completitud y, principalmente, establecer
mejoras en la construcción del modelo léxico.
Keywords: Ingeniería de Requisitos, Modelado de Requisitos, Completitud de
Modelos, Léxico Extendido del Lenguaje.
1 Introducción
En muchos de los procesos de requisitos propuestos por diversos autores [1] [2] [3]
[4] [5] [6] [7] [8] se incluye la creación de un glosario como una de las actividades
iníciales del mismo. Estos glosarios contienen los términos relevantes utilizados por
los clientes del futuro sistema de software. El objetivo de estos glosarios es, en primer
lugar, facilitar la comprensión del vocabulario del contexto del cual ha surgido la
necesidad de un nuevo sistema [9]. Subsidiariamente, estos glosarios se utilizan para
reforzar la legibilidad por parte de los clientes de los documentos que se generen [2]
[4] [5]. Adicionalmente, suelen ser utilizados por los propios ingenieros de requisitos,
como una fuente sólida de conocimiento para iniciar el estudio de ese contexto que
define y condiciona las características del futuro sistema de software. Que un glosario
sea una fuente de conocimiento es un hecho muy conocido en el dominio de la
lingüística [10] [11]. Como ejemplo de esto es apropiado utilizar una vez más el muy
conocido hecho que en algunas lenguas orientales, como el mandarín, taiwanés y
otros, existen muchas palabras para arroz; en particular, hay 50 palabras en mandarín
[12]. Esto se debe a que estas culturas tienen mucho para decir acerca del arroz y
necesitan una gran precisión en el lenguaje para poder hacerlo. Un fenómeno parecido
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1286
ocurre cuando en un texto o en un discurso se necesitan introducir nuevos conceptos;
necesariamente el autor o el orador deben recurrir a la definición de los términos
significativos que le permitirán introducir esos conceptos en forma precisa [13].
Retornando al uso de glosarios en el proceso de requisitos, estos enfoques proveen un
punto de vista divergente de los clásicos enfoques top-down o bottom-up. Empezar
por una revisión de un glosario no implica estudiar los inacabables detalles que se
abordan en un enfoque bottom-up, ni procurar comprender la esencia del objeto de
estudio a través de una visión panorámica. Por el contrario, empezar por un glosario
significa aprovechar las abstracciones conceptuales ya realizadas por los hablantes de
donde se extrajo ese glosario. Esto es notablemente importante ya que la información
obtenida por este medio es más sencilla de obtener y más valiosa. De alguna manera
podría decirse que de un glosario se obtiene información más concentrada y, por lo
tanto, más útil para el proceso de requisitos. Sin embargo, no todo son loas al trabajar
de esta manera. Aparece claramente la duda de la calidad del material de origen, es
decir, la calidad del glosario. Y es aquí donde surge el aspecto más importante e
insidioso de esa duda acerca de la calidad: la completitud del glosario. Omisiones en
el glosario son entonces potenciales omisiones en el resto de los artefactos generados
en las actividades del proceso de requisitos y en los requisitos mismos.
En el presente artículo se revisan los resultados obtenidos a lo largo de varios
proyectos en los que se abordaron diferentes formas de estimar la completitud de
glosarios [14] [15] [16] [17] y se presentan nuevas visiones que aclaran en forma
notoria los resultados de dichos trabajos, llegándose a caracterizar varias de las causas
esenciales que provocan las omisiones observadas. En la sección siguiente se
introduce el tema de completitud en los modelos de requisitos, en la sección 3 se
presenta el trabajo realizado y en la sección 4 las conclusiones.
2 Completitud del Modelo Léxico
Los estudios sobre la completitud de glosarios fueron realizados en el marco de un
proceso de requisitos cuya primera actividad consiste en construir un modelo
denominado Léxico Extendido del Lenguaje (LEL), procediendo inmediatamente a
estudiar el contexto de donde surge la necesidad del sistema, guiado por el LEL [18]
[19]. Los componentes del modelo LEL son el nombre del término, la noción y el
impacto. En la noción se registra el significado o denotación del término y en el
impacto se registra la connotación del mismo. La evolución del modelo LEL y de sus
usos, desde su presentación [9] hasta el presente, ofrece algunos aspectos muy
valiosos. En [20] se propusieron unas heurísticas para la construcción del LEL, que no
fueron objetadas ni modificadas pese a haberse encontrado numerosos usos para este
modelo [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33]. Algunos de
estos usos son aplicaciones directas, sin modificaciones del modelo aunque con
diferentes propósitos, mientras que otros usos modifican ligeramente el modelo. Sábat
Neto [21] definió un glosario usando el modelo LEL, que registra la terminología
relativa a requisitos no funcionales. Breitman y Leite [22] han presentado un proceso
de construcción de una ontología de aplicación web a partir de un LEL. Leonardi y
Leite [23] [34] han definido una estrategia para identificar reglas del negocio, en base
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1287
a patrones, relacionándolas con las entradas de un LEL creado previamente. Fiorini et
al. [25] han mostrado un enfoque sistemático para la descripción, almacenamiento y
reuso de procesos, donde mediante patrones de proceso, marcan frases especiales del
LEL. Ravid et al. [26] construyeron prototipos de requisitos por medio de escenarios
(que denominan “escenarios de casos de uso”), creando simultáneamente un LEL.
Mauco et al. [29] [30] han propuesto un conjunto de heurísticas para derivar
especificaciones formales escritas en el lenguaje de especificación RAISE a partir de
modelos del LEL y de escenarios. Hadad et al. [Hadad 08] han presentado una
heurística para derivar casos de uso a partir del LEL, junto con una herramienta que
permite su creación. Leonardi et al. [32] construyeron una herramienta
semiautomática para derivar diagramas de clases del universo de discurso a partir del
LEL. Antonelli [35] ha propuesto una estrategia para identificar características
transversales utilizando el LEL.
Concurrentemente con estos trabajos, los primeros estudios de completitud del LEL
[14] [15] comenzaron a crear dudas acerca de la calidad del mismo y de las
heurísticas de construcción, al comprobar que diferentes ingenieros de requisitos,
todos siguiendo las mismas heurísticas, llegaban a obtener LELs muy diferentes [17].
La completitud es una de las propiedades consideradas imprescindibles, tal es así que
el estándar IEEE 29148 [36] la considera como una de las propiedades fundamentales
que debe cumplir cada requisito individualmente y el conjunto de requisitos de
software como un todo. Estudiar la completitud en la ingeniería de requisitos implica
verificar si se ha elicitado y modelado toda la información perteneciente al contexto
donde el sistema de software se implantará. El objetivo en un proyecto de software es
obtener sistemas de software “idealmente” completos que respondan a todas las
necesidades de los clientes.
La incompletidud en procesos de requisitos fue estudiada por Firesmith [37], quien
investigó el significado de la completitud y estableció algunos parámetros para
prevenir la obtención de especificaciones de requisitos incompletas. El enfoque de
Firesmith y el de Litvak et al. [15] [16] difieren en el sentido que Firesmith propugna
una visión conceptual de la completitud mientras que los otros trabajos aspiran a
desarrollar estrategias que permitan estimar la completitud y eventualmente actuar
sobre sus causas.
En el primer trabajo realizado por Doorn y Ridao [14] [38], se aplicó el método de
captura-recaptura [39], utilizando la adaptación denominada Detection Profile Method
[40], para predecir el número de elementos faltantes en el LEL y en escenarios, donde
concluyeron que al aumentar el número de elicitadores (ingenieros de requisitos) la
cantidad de elementos estimados se acercaría significativamente a la cantidad
realmente existente en el dominio del problema. Para realizar este trabajo, dispusieron
de nueve muestras del LEL desarrolladas sobre el mismo caso de estudio (ver 2ª
columna de Tabla 1). El estudio presentado por Litvak et al. [15] aplicó también
Detection Profile Method [40] incorporando correcciones semánticas previas a la
aplicación de dicho método. En el trabajo posterior [16], se presentaron una serie de
correcciones semánticas más refinadas, donde se estudió la relevancia, pertenencia,
sinonimia y homonimia del contenido textual del modelo y se compararon con los
resultados de los trabajos precedentes, concluyendo que se logró una mejor
estimación de la completitud de modelos en lenguaje natural. En dicho estudio, el
análisis semántico se realizó en dos etapas: una primera etapa entre los elementos de
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1288
una misma muestra del LEL (intra-análisis), estudiando pertenencia, relevancia y
redundancia de cada término, y una segunda etapa comparando los elementos entre
las muestras (inter-análisis), estudiando sinónimos y homónimos (ver 3ª columna de
Tabla 1). A fin de profundizar las comparaciones semánticas del estudio realizado, se
agregaron nuevos léxicos del mismo caso de estudio, con un proceso de construcción
más cuidado. En dicho nuevo trabajo [17], se comprobó que diferentes grupos de
ingenieros trabajando sobre un mismo problema encuentran en el mejor de los casos
sólo el 50% de los elementos del modelo. Los resultados obtenidos llevaron a la
necesidad de profundizar la investigación y, por consiguiente, al presente trabajo (ver
4ª columna de Tabla 1).
3 Mejoras en la Estimación de Completitud
Los resultados sobre completitud presentados en [14] y los obtenidos posteriormente
al incorporar correcciones semánticas [16] [17] son cuanto menos alarmantes.
Habiéndose estimado un nivel de incompletitud del 50% o superior, entonces si estas
cifras son correctas, el modelo utilizado es inaceptable.
Reconsiderando todos los aspectos del problema, apareció como muy probable que
las cifras obtenidas hayan sido sobreestimadas. Es así que se incorpora a este estudio
la hipótesis que existen omisiones aparentes. Realmente esta suposición existió en
forma algo confusa en [16]. En los estudios y trabajos posteriores, que sustentan el
presente artículo, esta hipótesis fue central en todo momento.
Es así que una de las principales tareas consistió en distinguir las omisiones aparentes
de las omisiones reales, siendo:
Omisiones aparentes: aquellas detectadas como omisiones por la forma en que se
realizaron las capturas.
Omisiones reales: aquellas que se refieren a la ausencia de una unidad de
información en el documento bajo estudio.
Obviamente, es necesario reducir o eliminar las omisiones aparentes para lograr que
las estimaciones de completitud sean correctas y descubrir las causas de ambos tipos
de omisiones para luego desarrollar LELs con un grado de completitud alto.
Esta visión ideal, consistente en perfeccionar la herramienta empleada en el estudio
del problema para luego aplicarla, no ha podido ser llevada a la práctica. Esto se debe
a que el análisis de cada aspecto del problema ha llevado, en la mayoría de los casos,
a descubrir simultáneamente el origen esencial del defecto y la forma de corregirlo.
En otras palabras, las mejoras logradas en la construcción del LEL se han producido
en forma incremental y no se han concentrado ni en las omisiones aparentes ni en las
omisiones reales, sino que se refieren a ambas.
3.1 Mejora de las Comparaciones
Los resultados obtenidos en trabajos anteriores [14] [15] [16] [17], si bien fueron
promisorios, hicieron evidente la necesidad de reducir el tamaño de las unidades
comparadas entre las muestras del LEL. Esto se debió principalmente a la presencia
de sentencias largas que tenían dos o más enunciados empotrados en ellas.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1289
La nueva propuesta consistió en incorporar al análisis semántico un análisis
gramatical de cada sentencia del modelo LEL. Entonces, se comparó semántica y
gramaticalmente el contenido de las muestras disponibles. Para cada término de una
muestra, se consideró su noción e impacto como un conjunto de sentencias. En
detalle:
• Se organizó gramaticalmente todo el conjunto de sentencias en Sujeto, Verbo y
Resto del Predicado, buscando quién era realmente el sujeto en cada caso. Aquí se
consideraron las sentencias con Sujeto tácito. Si dicho Sujeto era el mismo
término del LEL, éste fue agregado. Si dicho sujeto se podía sobreentender, fue
agregado.
• En los casos de sentencias subordinadas (o sea, contenidas en otras sentencias), se
las desdobló y consideró individualmente, aplicando la misma acción del paso
anterior sobre cada sentencia resultante.
• Respecto de los verbos, se ignoraron las diferencias por conjugaciones y tiempos
verbales. Se consideraron también los sinónimos existentes de dichos verbos.
• Se convirtieron las sentencias que estaban en voz pasiva en voz activa.
3.2 Presencia de Jerarquías en el LEL
Una segunda mejora en las comparaciones se logró estudiando con cuidado las
jerarquías presentes en el LEL. El primer aspecto a ser considerado en relación con
las mismas, es que en el LEL se pueden observar tanto jerarquías completas como
jerarquías incompletas (ver Figura 1). A veces esto ocurre por defectos en la
construcción del LEL y otras veces porque corresponde que sea así dada la estructura
lingüística propia del contexto bajo estudio.
Fig. 1. Jerarquías entre Términos del LEL
Puede ocurrir que uno de los términos especializados esté fuera del alcance del
contexto bajo estudio y, por ende, no sea un término del LEL, por lo cual se tendrá
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1290
una jerarquía incompleta (ver Figura 1.b). También puede ocurrir que el término
genérico esté fuera del alcance del contexto entonces será una jerarquía incompleta
sin padre (ver Figura 1.c). Si se extendiera el alcance del glosario, entonces todo
genérico tendría a su vez un genérico de orden superior. Sin embargo, esto no
prospera mucho en LELs reales, ya que la gran mayoría de las jerarquías tienen sólo
dos niveles, siendo muy excepcionales los casos de jerarquías más profundas. Se
presenta frecuentemente una situación errónea, donde el genérico es considerado
sinónimo de un especializado (ver Figura 1.d). Se ha descubierto que la existencia de
jerarquías entre términos del LEL es un fuerte inductor de errores sutiles en los que un
impacto correcto se desplaza incorrectamente entre los especializados y los genéricos.
3.3 Algunos Tipos de Omisiones
Algunos ejemplos de tipos de omisiones halladas durante el presente trabajo se
muestran en la Tabla 1. La 4ª columna de la Tabla 1 muestra en forma evidente la
mejora en la detección de las omisiones reales y la reducción de las omisiones
aparentes, frente a los trabajos realizados previamente, que utilizaron comparaciones
solo sintácticas [14] o comparaciones solo semánticas [15][16][17].
Tabla 1. Ejemplos de omisiones halladas durante este estudio.
Comparación
sintáctica [14]
Primera
comparación
semántica[15][16][17]
Comparación actual
semántica y
gramatical
Unidad de
Comparación
Nombre del término
Término con noción e
impacto como un todo
Sentencia desagregada
de noción e impacto
Migración del
impacto de un
término existente a
otro existente
Omisión aparente de
impacto, no detectada.
Omisión aparente de
impacto, no detectada.
No hay omisión.
Falta de un término
con traslado de un
impacto a otro
Omisión aparente de
impacto, no detectada.
Omisión real de
término detectada.
Omisión aparente de
impacto, no detectada.
Omisión real de
término detectada.
Omisión real de
término detectada.
Sentencias
contenidas en
sentencias
Omisión aparente de
noción o impacto, no
detectada.
Omisión aparente de
noción o impacto, no
detectada.
No hay omisión.
Sinónimos no
considerados
Dos omisiones
aparentes de términos.
No hay omisión. No hay omisión.
Término genérico
como sinónimo de
especializado
Omisión real de
término, no detectada.
Omisión real de
término, no detectada.
Omisión real de
término detectada.
4 Conclusiones
Es conocido que el problema de completitud es de difícil abordaje. Más aún, se ha
podido comprobar que en modelos construidos en lenguaje natural no sólo están
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1291
ocultas las omisiones sino que también es complicado darse cuenta que las mismas
puedan existir. En el caso del Léxico Extendido del Lenguaje se ha detectado
reiteradamente la presencia de omisiones, pero es necesario aún mejorar los
mecanismos de búsqueda y las heurísticas de construcción del modelo para reducirlas.
Si bien es hoy conocido que las cifras presentadas en el primer estudio de completitud
del LEL están sobredimensionadas, la alarma encendida en su oportunidad continúa
vigente, ya que ninguno de los trabajos más meticulosos realizados posteriormente
han descartado la existencia de omisiones en cantidad y calidad preocupantes.
Se ignora la importancia de las omisiones reales y de algunas de las omisiones
aparentes (por ejemplo, migración de impactos entre términos) sobre los modelos
siguientes y finalmente sobre los requisitos mismos y sus atributos. Naturalmente, el
estudio de estos aspectos es parte del trabajo futuro a ser encarado. Se planifica en un
futuro próximo revisar las heurísticas de construcción del LEL bajo la óptica de este
artículo y mejorarlas.
Referencias
1. Constantine, L.: Joint Essential Modelling, User Requirements Modelling for Usability. Intl
Conference on Requirements Engineering (Tutorial Notes), Colorado Springs, Constantine &
Lockwood (1998)
2. Rolland, C., Ben Achour, C.: Guiding the construction of textual use case specifications. Data &
Knowledge Engineering 25 (1998) 125–160.
3. Oberg, R., Probasco, L, Ericsson, M.: Applying Requirements Management with Use Cases. Rational
Software Corporation (1998)
4. Alspaugh, T.A., Antón, A.I., Barnes, T., Mott, B.W.: An Integrated Scenario Management Strategy.
Intl Symposium On Requirements Engineering, Irlanda, IEEE Computer Society Press (1999) 142-149
5. Regnell, B., Kimbler, K., Wesslén, A.: Improving the Use Case Driven Approach to Requirements
Engineering. 2nd IEEE International Symposium on Requirements Engineering, Marzo 1995. Parte de
Ph.D. Thesis: Requirements Engineering with Use Cases – a Basis for Software Development, Reporte
Técnico 132, Paper I, Department of Communication Systems, Lund University (1999) 43–63
6. Whitenack, B.G. Jr.: RAPPeL: A Requirements Analysis Process Pattern Language for Object
Oriented Development. Knowledge Systems Corp. (1994)
7. Jacobson, I., Booch, G., Rumbaugh, J., “The Unified Software Development Process”, Addison-
Wesley, Reading, MA, 1º edición, Febrero 1999.
8. Díaz, I., Pastor, O., Moreno, L., Matteo, A.: Una Aproximación Lingüística de Ingeniería de Requisitos
para OO-Method, VII Workshop Iberoamericano de Ingeniería de Requisitos y Desarrollo de
Ambientes de Software, Arequipa, Perú (2004)
9. Leite, J.C.S.P.: Application Languages: A Product of Requirements Analysis. Computer Science
Department of PUC-Rio, Brasil (1989)
10. Smeaton, A.F.: Natural Language Processing and Information Retrieval. Information Processing and
Management, Vol. 26, Nº 1 (1990) 73–92
11. Briner, L.L.: Identifying Keywords in Text Data Processing, Directions and Challenges, 15th Annual
Technical Symposium (1996) 85–90
12. Free Chinese & Japanese Online Dictionary, Oriental Outpost,
http://www.orientaloutpost.com/shufa.php?q=rice, visitado 28/5/2014
13. Berry, D.M., Kamsties, E.: Ambiguity in Requirements Specification. En: Leite, J.C.SP., Doorn,
J.H(eds): Perspectives on Software Requirements, Kluwer Academic Publishers, EEUU (2004) 7-44
14. Doorn, J.H., Ridao, M.: Completitud de Glosarios: Un Estudio Experimental. VI Workshop on
Requirements Engineering, Brasil (2003) 317–328
15. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Un abordaje al problema de completitud en requisitos de
software. XVIII Congreso Argentino de Ciencias de la Computación, Bahía Blanca (2012) 827–836
16. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Correcciones semánticas en métodos de estimación de
completitud de modelos en lenguaje natural. XVI Workshop on Requirements Engineering,
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1292
Montevideo, Uruguay (2013) 105–117
17. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Mejoras semánticas para estimar la Completitud de Modelos
en Lenguaje Natural. Primer Congreso Nacional de Ingeniería Informática / Sistemas de Información,
Córdoba (2013)
18. Leite, J.C.S.P., Hadad, G.D.S., Doorn, J.H., Kaplan, G.N.: A Scenario Construction Process.
Requirements Engineering Journal, Springer-Verlag London Ltd., Vol.5, Nº1 (2000) 38-61
19. Leite, J.C.S.P., Doorn, J.H., Kaplan, G.N., Hadad, G.D.S., Ridao, M.N.: Defining System Context
using Scenarios. In: Leite, J.C.S.P., Doorn, J.H. (eds): Perspectives on Software Requirements, Kluwer
Academic Publishers, EEUU, ISBN: 1-4020-7625-8 (2004) 169-199
20. Hadad, G.D.S., Kaplan, G.N., Oliveros, A., Leite, J.C.S.P.: Construcción de Escenarios a partir del
Léxico Extendido del Lenguaje. 26 JAIIO – Jornadas Argentinas de Informática, Simposio en
Tecnología de Software, Buenos Aires (1997) 65–77
21. Sábat Neto, J.M.: Integrando Requisitos Não Funcionais à Modelagem Orientada a Objetos. M.Sc.
Dissertation, Computer Science Department of PUC-Rio, Brasil (2000)
22. Breitman, K.K., Leite, J.C.S.P.: Ontology as a requirements engineering product. 11th IEEE Intl
Conference on Requirements Engineering, EEUU, IEEE Computer Society (2003) 309-319
23. Leonardi, M.C.: Una Estrategia de Modelado Conceptual de Objetos basada en Modelos de Requisitos
en Lenguaje Natural. M.Sc. Dissertation, Universidad Nacional de La Plata, Argentina (2001)
24. Pimenta, M.S., Faust, R.: Eliciting Interactive Systems Requirements in a Language-Centred User-
Designer Collaboration: A Semiotic Approach. Special Issue on HCI and Requirements of ACM
SIGCHI Bulletin, Vol.29, Nº1 (1997) 61-65
25. Fiorini, S.T., Leite, J.C.S.P., Lucena, C.J.P.: Reusing Process Patterns. 2nd International Workshop on
Learning Software Organizations, Oulu-Finlandia (2000) 19-37
26. Ravid, A., Berry, D. M.: A Method for Extracting and StatingSoftware Requirements that a User
Interface Prototype Contains, Requirements Engineering Journal, Springer-Verlag, Vol.5, Nº4 (2000)
225-241
27. De Bortoli, L.Â, Alencar Price, A.M.: O Uso de Workflow para Apoiar a Elicitação de Requisitos. III
Workshop de Engenharia de Requisitos, Río de Janeiro, Brasil (2000) 22-37
28. Estrada, H., Martínez, A., Pastor, O., Ortiz, J., Ríos, O.A.: Generación Automática de un Esquema
Conceptual OO a Partir de un Modelo Conceptual de Flujo de Trabajo. IV Workshop on Requirements
Engineering, Buenos Aires ( 2001) 223-245
29. Mauco, M.V., George, C.: Using Requirements Engineering to Derive a Formal Specification. Reporte
Técnico Nº 223, UNU/IIST, P.O. Box 3058, Macau (2000)
30. Mauco, M.V., Riesco, D., George, C.: Heuristics to Structure a Formal Specification in RSL from a
Client-oriented Technique. 1st Annual Intl Conference on Computer and Information Science, ISBN:
0-9700776-2-9, Florida, EEUU (2001)
31. Hadad, G.D.S., Migliaro, A., Grieco, N.: Derivar casos de uso de un glosario. XIV Congreso Argentino
de la Ciencia de la Computación, ISBN: 978-987-24611-0-2, La Rioja (2008) 722-734
32. Leonardi M.C., Ridao M., Mauco M.V., Felice L., Montejano G., Riesco D., Debnath N.: An ATL
Transformation from Natural Language Requirements Models to Business Models of a MDA Project.
11th International Conference on Telecommunications for Intelligent Transport Systems, Rusia (2011)
33. Antonelli, R.L., Rossi, G., Leite, J.C.S., Oliveros, A.: Buenas prácticas en la especificación del
dominio de una aplicación. 16th Workshop on Requirements Engineering, Uruguay (2013)
34. Leite J.C.S.P, Leonardi, M.C.: Business rules as organizational Policies. IEEE Ninth International
Workshop on Software Specification and Design, IEEE Computer Society Press (1998) 68-76
35. Antonelli, R.L.: Identificación temprana de características transversales en el lenguaje de la aplicación
capturado con el Léxico Extendido del Lenguaje. Tesis de Doctorado, Facultad de Ciencias
Informáticas, Universidad Nacional de La Plata (2012)
36. IEEE 29148-2011: IEEE Systems and software engineering - Life cycle processes - Requirements
engineering, IEEE, Nueva York (2011)
37. Firesmith, D.: Are Your Requirements Complete? Journal of Object Technology, Vol.4, Nº1 (2005)
27–43
38. Ridao, M., Doorn, J.H.: Estimación de Completitud en Modelos de Requisitos Basados en Lenguaje
Natural. IX Workshop on Requirements Engineering, Brasil (2006) 151–158
39. Otis, D.L., Burnham, K.P., White, G.C., Anderson, D.R.: Statistical inference from Capture on Closed
Animal Populations. Wildlife Monograph, 62 (1978)
40. Wohlin, C., Runeson, P.: Defect content estimations from Review Data. 20th Intl Conference on
Software Engineering, Japón (1998) 400–409
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1293
Análisis de desempeño de algoritmos de detección
automática. Caso de estudio: detección de la capa
esporádica E
Maria G. Molina1,2
, Enrico Zuccheretti3
, Bruno Zolesi3
, Cesidio Bianchi3
, Umberto
Sciacca3
, James B. Ariokasami3
,Miguel A. Cabrera1
1
Laboratorio de Telecomunicaciones, Facultad de Ciencias Exactas y Tecnlogia (FACET),
Universidad Nacional de Tucuman (UNT), Av. Independencia 1800, Tucuman, Argentina,
gmolina@herrera.unt.edu.ar
2
Departamento de Ciencias de la Computacion, FACET, UNT, Av. Independencia 1800,
Tucuman, Argentina, gmolina@herrera.unt.edu.ar
3
Istituto Nazionale de Geofisica e Vulcanologia, Via di Vigna Murata, Roma, Italia.
enrico.zuccheretti@ingv.it
Resumen. Actualmente gran parte de las mediciones ionosféricas se realizan
mediante el uso de un radar HF denominado sondador ionosférico. Este equipo
transmite pulsos cortos de señales de radio hacia los estratos de la alta
atmósfera terrestre conocida como la ionosfera donde son reflejados y
posteriormente recepcionados. Medir el tiempo de retardo entre la transmisión
de la señal y la recepción de la misma permite estimar la altura virtual a la cual
se produjo la reflexión. En este trabajo se realiza el estudio comparativo de
algoritmos de detección en particular para la capa esporádica E. Se usaron
algoritmos de umbral fijo, CA-CFAR (cell averaging- constant false alarm rate)
y OS-CFAR (order statistics-constant false alarm rate). Los resultados
preliminares muestran un comportamiento más robusto en el caso de OS-CFAR
respecto a los otros dos algoritmos. Este trabajo muestra resultados parciales
sobre estudios científicos aplicados a la detección de capas ionosféricas y por lo
tanto es conveniente en el futuro realizar un estudio mas exhaustivo.
Palabras Clave: Algoritmos, Detección automática, Radar, Sondador
ionosférico.
1 Introducción
Actualmente gran parte de las mediciones de parámetros ionosféricos se realizan
mediante el uso de un sondador ionosféricos o ionosonda, el que básicamente es un
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1294
radar en banda de HF. Este sistema transmite cortos pulsos de portadoras moduladas
mediante un sistema de antenas con lóbulo de radiación orientado verticalmente hacia
los estratos de la atmósfera superior terrestre y mide el retardo de las señales
reflejadas por los estratos ionosféricos. Si es posible estimar el tiempo entre la
transmisión de la señal y la recepción de la misma, entonces es posible estimar la
altura en la cual se produjo la reflexión. Este tipo de sondaje es el denominado
sondaje vertical y una vez realizado, mediante algoritmos de detección es posible
determinar el tiempo de retardo y con ello la altura virtual de los estratos ionosféricos.
Si se realizan sondajes continuos utilizando frecuencias entre 1 y 20 MHz, es posible
obtener una representación grafica de la altura virtual en función de la frecuencia que
se denomina ionograma.
En este trabajo se estudió del comportamiento de diferentes algoritmos de
detección analizando el caso de la capa esporádica E. Para ello se utilizaron datos
obtenidos mediante el sondador ionosférico AIS-INGV (Advanced Ionospheric
Sounder – Instituto Nazionale di Geofisica e Vulcanologia) en el observatorio
ionosférico de Roma (41.8 N, 12.5 E) durante Marzo de 2014. Los sondajes fueron
realizados a una frecuencia fija de 3 MHz en horario diurno donde típicamente se
forma el estrato Es (capa esporádica E).
La comparación se realizó utilizando los algoritmos usando umbral fijo, CA-CFAR
(cell averaging- constant false alarm rate) y OS-CFAR (order statistics-constant false
alarm rate). Los resultados preliminares muestran un comportamiento más robusto en
el caso de OS-CFAR respecto a los otros dos algoritmos. Este trabajo es parte de un
estudio mas amplio sobre detección de capas ionosféricas y por lo tanto es
conveniente en el futuro realizar un estudio mas exhaustivo.
2 Estratos ionosféricos y las telecomunicaciones
Se puede definir a la ionósfera como una parte de la atmósfera terrestre donde iones y
electrones están presentes en cantidades suficiente como para afectar la propagación
de ondas electromagnéticas. Es la región de espacio localizada aproximadamente
entre los 50 y 1000 km por encima de la superficie de la tierra y es la porción más alta
de la atmósfera. Absorbe grandes cantidades de la energía radiante del sol, mediante
procesos de disociación e ionización de distintas especies moleculares y atómicas que
constituye la atmosfera terrestre. En este proceso se generan iones y electrones libres
y se produce la absorción de la radiación letal para la vida en la tierra.
La ionósfera no es uniforme, existiendo gradientes verticales de temperatura y
densidad, o sea, está estratificada. Las regiones de la ionósfera varían en altura y en
densidad de ionización con la hora del día, fluctúan con un patrón cuasi cíclico todo el
año y de acuerdo con el ciclo de manchas solares de once años [1].
No existe una separación total entre sus regiones, sino un cambio en la densidad
numérica de cargas, lo que marca la diferencia entre ellas. Así se pueden clasificar las
distintas regiones como sigue: la región D está comprendida entre los 60 y los 90 km
de altura, el orden de magnitud de la densidad electrónica es de 102
a 104
cm-3
, la
región E, entre 105 y 160 km con densidad electrónica del orden de 105
cm-3
y la
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1295
región F sobre los 180 km, con densidad del orden de 105
a 106
cm-3
. Esta última
región tiene un pico de densidad máxima a una altura del orden de los 300 km.
En los sistemas de comunicación de radio, las ondas se pueden propagar de varias
formas, dependiendo del tipo de sistema y del ambiente. Si bien las ondas
electromagnéticas viajan en línea recta, esta trayectoria puede ser alterada por el
medio en el que se trasladan. Estas desviaciones en la trayectoria de la señales de
radio influyen directamente en las radiocomunicaciones [1].
Dependiendo de cuán ionizada esté la ionósfera, las comunicaciones se ven afectadas
en mayor o menor medida. Muchos sistemas de comunicación utilizan la ionósfera
como medio para transmitir ondas de radio a grandes distancias. Algunas frecuencias
de radio son absorbidas y otras reflejadas, lo que hace que las señales fluctúen con
rapidez y que sigan rutas de propagación inesperadas. Las comunicaciones aero-
terrestres, barco-puerto, las estaciones de radio de onda corta y algunas frecuencias de
radio aficionados se ven afectados frecuentemente. En los últimos años los estudios
de la ionósfera han despertado un renovado interés debido a que este medio
interrumpe o modifica la fase y amplitud de las señales de comunicación en la banda
L, como la de los sistemas de posicionamiento global, GLONAS, GPS, GALILEO,
etc.
3 Detección automática de ecos ionosféricos
Una de las funciones principales que debe llevar a cabo un radar es la detección del
denominado blanco. Esta función no se realiza en un único paso sino que en general
se puede realizar como una serie de etapas que dependen de las características del
blanco [2]. En el caso del sondador ionosférico el blanco es la ionosfera que en un
periodo corto de tiempo puede suponerse como un blanco no fluctuante [1]. El
proceso comienza con la codificación de una señal portadora s(t) utilizando un código
binario complementario C[t]. Luego esta señal codificada Tx(t) es enviada a la
ionosfera y posteriormente recepcionada Rx(t). En un paso sucesivo, donde se da
inicio al proceso de detección, esta señal será muestreada en cuadratura (I[t], Q[t]) y
luego correlacionada con el código local (código original al momento de la
codificación de la portadora). Con el fin de mejorar la relación señal a ruido, este
proceso se integra coherentemente para varios pulsos [3]. En la Fig. 1 se muestra un
esquema simplificado en las etapas de detección del sondador ionosféricos AIS-
INGV.
Luego de ser correlacionada e integrada coherentemente a la señal se le aplica algún
algoritmo de detección automática que permita decidir si una determinada muestra es
un eco o solo es producto de ruido o interferencia. Para ello es necesario establecer un
valor de umbral de modo que toda medición que exceda este umbral será declarada
como blanco.
Existen numerosos algoritmos para la detección automática de blancos, cada uno trata
de sortear numerosos problemas de detección que dependen de las características
estadísticas de las señales y de los blancos.
En el caso del sondador ionosféricos se probó el desempeño de tres algoritmos.
Primero se estableció un umbral fijo (TFix) que se calculo usando todas las muestras
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1296
de la señal. Para el cálculo del umbral se utilizo como estadística el valor promedio de
todas las amplitudes de la señal.
En segundo término se utilizo una ventana móvil alrededor de cada muestra para
calcular las estadísticas usando también el promedio. La diferencia es que la ventana
de tamaño N menor al total de muestra varía según la muestra que se trate obteniendo
así un valor variable de umbral. Este algoritmo es conocido en la literatura de radares
como CA-CFAR (Cell Averaging- Constant False Alarm Rate)[2] [4].
Por ultimo se utilizó el denominado algoritmo OS-CFAR (Order Statistics-Constant
False Alarm Rate) el cual utiliza también una ventana móvil de tamaño N. En este
caso las estadísticas se calculan ordenando las amplitudes en dicha ventana y
seleccionando el k-esimo valor como representativo del nivel de interferencia
alrededor de la muestra de interés. Si se elije el valor k-esimo como N/2, entonces la
estadística utilizada es similar a una media móvil [2] [4].
4 Datos y resultados
Desde el punto de vista de la detección, dentro de una señal reflejada por un estrato
ionosférico, una de las tareas mas complejas es la de estimar la altura de la capa
]
[
C
Correlación
e
Integración
Coherente
]
[
],
[ t
Q
t
I
)
(t
Rx Muestreo en
Cuadratura
t
Ionósfera
)
(t
Tx
Portadora
)
(t
s
Generador
Código
Complementario
Obtención
pico del eco y
Estimación
de la
Altura Virtual
72 221.7 371.4 521.1 670.8 820.5
200
600
1000
1400
1800
Km
Figura 1. Esquema de las etapas de detección de ecos del sondador ionosférico
AIS-INGV.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1297
esporádica E. Esto sucede a bajas alturas y en general los ecos provenientes de esta
capa suceden en horario diurno, por lo tanto se realizaron sondajes diurnos a una
frecuencia fija de 3 MHz. A fin de probar los algoritmos propuestos se realizó una
campaña de recolección de datos por un periodo de tres días realizando sondajes cada
dos minutos. La obtención de datos sin procesar se realizó en el observatorio
ionosférico de Roma utilizando el sondador AIS-INGV (Marzo de 2014).
Una de las situaciones típicas observadas ocurre cuando una porción de energía de la
onda electromagnética transmitida es reflejada en la capa Es mientras que otra
porción penetra más allá en altura hasta ser reflejada por la capa F. Desde el punto de
vista de la detección ocurre que la energía retornada por la primera capa es inferior al
resto y compite con ecos de mayor amplitud. Si el algoritmo utilizado para estimar el
umbral usa todas las muestras que componen la señal, que es el caso de TFix, sucede
que todas las amplitudes se encuentran en competencia y la detección de ecos más
débiles como la capa E se ven afectados. En la Fig.2 se muestra un ejemplo de este
caso. Si bien en el ejemplo todos los algoritmos detectan la capa E, TFix detecta
levemente el pico. Mientras que los algoritmos CA-CFAR y OS-CFAR tienen una
performance mejor, siendo este ultimo el que mejor provee información sobre el
blanco. OS-CFAR además de detectar el pico del eco, muestra información de lo que
sucede en los alrededores de este incluyendo información como la cantidad de
muestras que componen el blanco.
100 200 300 400 500 600 700 800
10
15
20
25
30
35
km
Amplitud
Señal
CA-CFAR
OS-CFAR
TFix
04/04/2014
17:52 UT
3.0Mhz
Otro caso interesante ocurre cuando la capa E se encuentra bien definida y la señal
transmitida incide prácticamente de manera vertical. En este caso el eco reflectado
tendrá mayor energía de tal manera que puede ser reflejado nuevamente en tierra y
reenviado hacia la ionosfera. Esto produce la aparición de múltiples reflexiones en los
ionogramas. En la Fig. 3 se puede observar un caso con múltiples reflexiones.
Respecto a los algoritmos de detección estudiados, se puede observar que nuevamente
el algoritmo TFix ve disminuida su capacidad de detección debido a su característica
global. El cálculo de estadísticas locales en ventanas móviles de los otros dos
Fig. 2. Comparación de desempeño de los tres algoritmos propuestos
para la detección de la capa E cuando compite con ecos de mayor
amplitud. El eco alrededor de los 150 km corresponde a la capa Es.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1298
algoritmos permite que el eco detectado no compita con la energía de otros ecos. Una
vez mas el algoritmo OS-CFAR provee mayor información sobre el eco y sobre su
forma.
100 200 300 400 500 600 700 800
5
10
15
20
25
30
35
km
Amplitud
COMPARACION ENTRE ALGORITMOS DE DETECCION
Señal
CA-CFAR
OS-CFAR
TFix
3.0Mhz
11/04/2014
18:22 UT
4 Conclusiones
Se han presentado casos de estudio sobre detección de capas ionosféricas esporádicas
utilizando algoritmos desarrollados a tal fin para ser utilizados en sistemas digitales
de sondaje ionosférico. Una de las tareas mas complejas que debe realizar un
algoritmo de detección automática es la de detectar ecos de baja energía comparada
con otros ecos dentro de la misma señal. En este trabajo se analizaron numerosos
casos y se ejemplificaron dos de ellos. En ambas situaciones se observaron los
inconvenientes que posee el algoritmo de detección utilizando un único umbral fijo
(TFix). Esto se debe a que para obtener este valor de umbral se recurre a calcular el
valor promedio de todas las muestras incluyendo a aquellos ecos de gran amplitud.
Esta condición global produce un valor de umbral más apto para ecos de gran
amplitud y puede enmascarar ecos de menor energía como el caso de la esporádica
capa E. La solución propuesta en este trabajo es obtener un valor de umbral variable
que se calcule con valores promedios (CA-CFAR) de manera local alrededor del valor
que se esta testeando. De esta manera, las muestras para calcular el promedio
alrededor del eco en la mayoría de los casos no contendrán otro eco. Por esto, el valor
del umbral en la posición del eco es menor que en sus alrededores permitiendo la
detección del mismo. Esta condición de localidad permite que ecos de menor energía
sean detectados. Si además se obtiene un umbral variable usando como estadística una
media móvil alrededor de la muestra de interés, además se pueden eliminar problemas
como el cálculo de un promedio sesgado. Al reordenar ascendentemente en amplitud
Fig. 3. Comparación de desempeño de los tres algoritmos propuestos
para la detección de la capa E en el caso de múltiples reflexiones. El eco
alrededor de los 11 km corresponde a la capa Es.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1299
las muestras en la ventana y elegir el valor medio (OS-CFAR), el cálculo de las
estadística desestima los valores mas altos que pueden corresponder a ecos. De este
modo se obtiene una mejor performance como se muestra en los ejemplos
seleccionados. Este estudio fue realizado como parte de un estudio mas completo
sobre detección de ecos ionosféricos sin embargo estos resultados parciales muestran
la robustez del algoritmo OS-CFAR en las condiciones descriptas. Para completar
estos resultados es preciso realizar un estudio más extenso de casos y de datos.
Agradecimientos. Este trabajo ha sido subsidiado de manera parcial por el Instituto
de Geofísica y Vulcanología-Italia a través de Proyecto Bec.ar y Proyecto PICT-
2011-1008.
Referencias
1. Rishbeth, H., and O. K. Garriot. Introduction to Ionospheric Physics, Academic Press,
England. (1969)
2. Richard, G.. Radar System Performance Modeling, 2nd. Edit., Ed. Artech House, Norwood,
MA. (2005)
3. Ariokiasamy, James B., C. Bianchi, U. Sciacca, G. Tutone and E. Zuccheretti. The new AIS-
INGV Digital Ionosonde. Desing Report, Sezione di Geomagnetismo, Aeronomia e
Geofisica Ambientale, Istituto Nazionale di Geofisica e Vulcanologia (INGV), Roma, Italia
(2003)
4. Skolnik, M. I.. Introduction to radar systems, Mc. Graw-Hill, Tokyo. (1980)
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1300
Estudio sobre Eficiencia Energética en Esquemas de
Apagado Selectivo para Redes de Telefonía Móvil
Silvina A. Grupalli1,2, Martín G. Ferreyra1,3
y Miguel A. Cabrera1
1
Laboratorio de Telecomunicaciones, Depto. de Eléctrica, Electrónica y Computación
(DEEC), Facultad de Ciencias Exactas y Tecnología (FACET), UNT.
2
Laboratorio de Instrumentación Industrial, DEEC, FACET, UNT.
3
Laboratorio de Física Experimental, Depto. de Física, FACET, UNT.
sgrupalli@herrera.unt.edu.ar, mferreyra@herrera.unt.edu.ar, mcabrera@herrera.unt.edu.ar
Resumen. En este trabajo se estudia cómo mejorar la eficiencia energética de
una red de telefonía celular implementando un esquema de apagado selectivo de
estaciones base (BS) para entornos urbanos de alta densidad. Como escenario se
plantea una topología de red lineal, donde las BS se despliegan regularmente y
los usuarios se distribuyen de manera uniforme, utilizando tecnologías 3G/4G
con bandas de frecuencias admisibles en 900 MHz, 1900 MHz y 2100 MHz. Se
analizan las relaciones entre potencias consumidas, ancho de banda disponible y
porcentaje de apagado de la red mediante simulaciones basadas en el modelo de
propagación COST 231-Walfisch-Ikegami. Por último se propone un indicador
de eficiencia energética SG y se analizan los resultados obtenidos a partir del
mismo.
Palabras Clave:3G/4G, Apagado Selectivo, COST 231-Walfisch-Ikegami,
Eficiencia Energética, Estaciones Base, Microceldas Celulares.
1 Introducción
En la comunidad de redes móviles de última generación, existe una tendencia por
parte de los operadores a tratar de reducir el consumo de energía de la red y a la
implementación de redes que persiguen una reducción de la huella de contaminación
ambiental manteniendo la calidad de servicio en función de los requerimientos de
cobertura, capacidad y necesidades de los usuarios. Con este objetivo, se han
instalado en los últimos años una mayor cantidad de estaciones base o “BS” (del
inglés Base Station) para aumentar la capacidad de la red, que hoy representan
alrededor del 80 % del total del consumo de energía de la red celular [1]. En este
sentido, un camino eficaz para el ahorro energético en las redes celulares, es reducir el
consumo de energía de las BS.
Siendo que la carga de tráfico en las redes celulares fluctúa considerablemente debido
a la alternancia de día y de noche, la movilidad del usuario y la naturaleza a ráfagas
de las aplicaciones de datos [2] es necesario realizar el despliegue de las BS para
satisfacer los requisitos de los usuarios respecto a la carga de tráfico pico. Sin
embargo, esto causa que la mayoría de las mismas sean subutilizadas gran parte del
tiempo, ya que la duración de la carga de tráfico pico suele ser bastante corta. Aun
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1301
cuando la carga de tráfico es baja o incluso nula, una BS todavía consume gran parte
de la energía pico, lo que significa que el consumo de energía de la misma no es
proporcional a la carga de tráfico y gran parte de la energía se desperdicia durante el
período de tráfico bajo. En los últimos años se han realizado varios estudios que
trabajan en la desconexión de BS, centrados principalmente en la fase de
funcionamiento de la red [3] - [8]. Otras líneas abordan la optimización del consumo
de energía mediante umbrales de tráfico para la desconexión de la BS y evalúan el
ahorro energético utilizando de los modos de suspensión [9]. Estudios más recientes
intentan reducir el consumo de energía suponiendo que el tráfico de datos se mantiene
siempre en el valor de pico y proponen que las estaciones base se pueden apagar
selectivamente cuando la carga de tráfico es baja [10]. Hasta ahora, los escenarios
planteados para el estudio de apagados selectivos, se sitúan en zonas urbanas y
suburbanas desplegando un conjunto de macro celdas con amplios rangos de
cobertura. Sin embargo existen escenarios urbanos más reducidos, con radios de
cobertura críticos donde también es posible plantear un esquema de optimización de
los recursos energéticos sin alterar la calidad de los servicios al usuario final.
En este trabajo se estudia el problema de cómo implementar BS mejorando la
eficiencia energética de la red, a partir de un modelo de apagado selectivo que se
ajuste a este tipo de entornos. Para ello se ha considerado una topología de red lineal
de BS homogéneas desplegadas regularmente y con usuarios distribuidos de manera
uniforme. Se propone un escenario situado en un entorno urbano de alta densidad,
donde red celular se implementa sobre tecnologías 3G/4G con bandas de frecuencias
admisibles en 900 MHz, 1900 MHz y 2100 MHz.
2 Modelo de Apagado Selectivo
El planteo de este modelo considera una red celular lineal como se muestra en la Fig.
1, donde un conjunto de BS homogéneas se despliegan con regularidad a lo largo de
una línea, siendo d0 la distancia entre las mismas. Se asume que todas las BS tienen
igual potencia de transmisión máxima Pt
max
y ancho de banda AB.
Fig. 1. Red celular lineal homogénea desplegada regularmente
Para cada BS se definen dos estados: Modo activo: con consumo de energía Pa
(Potencia con BS Activa) y Modo de reposo: con el consumo de energía Ps
(Potencia
con BS Pasiva). Se asume que cada dispositivo móvil tiende a asociarse con la BS
más cercana. La región de cobertura de cada BS está definida como una celda y la red
puede ser dividida en N celdas del mismo tamaño. El tráfico en la red se distribuye
uniformemente en función de las BS activas. La red posee N+1 estados, donde cada
uno de ellos puede representarse como m, siendo m = {0, 1, … , N}. Cada estado
corresponde a una cierta proporción de estaciones de base en modo activo y otras en
modo de reposo. Para cada estado se define una distancia intercelda, que representa la
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1302
distancia media entre dos celdas activas. Suponiendo una red suficientemente extensa
(N∞), la potencia se evalúa por unidad de longitud utilizando la siguiente ecuación:
. .
(1)
Donde representa el porcentaje de BS activas y 0 la unidad de longitud por la
que se evalúa la potencia.
Fig. 2 Estados de la red en tres condiciones de pagado selectivo: a) m=0 ; b) m=1 ; c) m=2
Existen dos esquemas básicos para el modelo de apagado:
 Apagado en modo de suspensión (o Standby): En este modo la BS queda fuera de
servicio mediante el apagado de los amplificadores de potencia, quedando aún activos
los equipos auxiliares (refrigeración, procesadores, fuentes de alimentación, etc.). La
Ps
alcanza valores de hasta un 40 % de la Pa
[11]. Este tipo de apagado selectivo es el
más utilizado en las investigaciones abordadas hasta el momento.
 Apagado Selectivo del Sitio Completo (o Switch Off): Consiste en la desconexión
completa del sitio quedando activos solo los elementos necesarios para su
reencendido. En este modo, el valor de Ps
es prácticamente nulo.
3 Modelo COST 231 Walfisch-Ikegami
El modelo híbrido de propagación COST 231 Walfisch-Ikegami, es utilizado para
realizar predicciones y estudios de cobertura en redes de telefonía celular de corto
alcance (microceldas) dentro de los márgenes de frecuencias 900 MHZ, 1800MHz y
2100MHz. El modelo contempla dos opciones para el cálculo de las pérdidas de
propagación, LOS (“Line of Sight”, línea de visión directa entre el transmisor y el
receptor) y NLOS (“No Line of Sight”, no existe línea de visión directa entre el
transmisor y el receptor) y además define los siguientes parámetros: hb[m]: Altura de
la estación base a nivel de tierra , hm[m]: Altura de la estación móvil a nivel de tierra,
hr[m]: Altura media de los edificios, w [m]: Ancho de la calle donde se encuentra la
estación móvil, b [m]: Promedio de la distancia entre centros de edificios, d [Km]:
Distancia entre la estación base y móvil,  [°]: Ángulo del rayo con el eje de la calle,
LO [db]: Pérdidas por el espacio libre, Lrts [dB]: Pérdida por difracción del techo a la
calle y pérdida esparcida, Lmsd[dB]: Pérdida de difracción multipantalla y f [MHz]:
Frecuencia de la portadora.
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1303
Fig 3. Parámetros del Modelo COST 231 Walfisch-Ikegami
Las pérdidas se modelan a partir de las siguientes ecuaciones:
1) En condiciones de LOS:
42.6 26 log 20 log	 (2)
2) En condiciones de NLOS:
, 0
, 0
(3)
Pérdidas por el espacio libre:
32.4 20 log 20	 log (4)
16.9 10 log 	10	log 20	 log (5)
Donde la pérdida por la orientación de la calle se corrige empíricamente según:
10 0.354		,				0°  35°
2.5 0.075  35 , 35°  55°
4.0 0.114  55 , 55°  90°
(6)
En la Tabla 1 se resume el rango de validez del modelo:
Tabla 1. Rango de validez del modelo COST 231- Walfisch-Ikegami
Frecuencia de la portadora f [800 : 2000] MHz
Altura de la antena de BS hb [4:50] m
Altura de la antena móvil hm [1:3] m
Distancia del móvil a la BS d [0,02:5] Km
Por las características y alcance descriptos en este modelo, la utilización del mismo
resulta apropiado para el estudio predictivo de radios de cobertura en los escenarios
previstos para este trabajo.
4 Descripción del Escenario
Para este estudio se ha considerado una topología de red lineal donde las BS
homogéneas se despliegan regularmente y los usuarios se distribuyen de manera
uniforme. La misma se sitúa en una zona urbana de alta densidad donde las BS
conforman una red de microceldas con radios de cobertura solapados en un porcentaje
superior al 50% y con distancias interceldas de 100 m. El grado de solapamiento
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1304
responde a condiciones de saturación de la BS, inherentes a redes urbanas altamente
congestionadas, donde un dispositivo móvil se asocia a la estación que tiene
disponibilidad de ancho de banda y no necesariamente a la que se encuentra a menor
distancia. Debido a que la distancia intercelda es considerablemente baja, las
potencias que maneja cada microcelda se encuentran entre 2 y 10 W. Este trabajo
analiza tres condiciones posibles para las BS, operando a 2W, 5W y 10W
respectivamente. La frecuencia de operación de la red se establece en 1900 MHz.
En la Tabla 2 se resumen las características de recepción para el dispositivo móvil:
Tabla 2. Características de recepción para el dispositivo móvil
Ancho de Banda del Canal
Ancho de Banda 20 MHz 10 MHz 5 MHz
AB [Mb/s] Sensibilidad Rx [dbm]
4 -99,0 -99,0 -97,5
3,5 -99,8 -99,9 -98,4
3 -100,5 -100,8 -99,2
2,5 -101,3 -101,6 -100,6
2 -102,0 -102,5 -102,0
1,5 -102,5 -103,8 -103,5
1 -103,0 -105,0 -105,0
0,5 -103,8 -106,2 -108,0
0,25 -104,2 -107,0 -109,1
0,125 -104,4 -107,3 -110,0
5 Simulaciones
Inicialmente se propone como parámetros del modelo COST 231 Walfisch-Ikegami
los siguientes: f=1900 MHz; hb=30 m; hm=1,5 m ; hr=20m ; w=10 m ; b=20m. En la
Fig. 4 se muestran las predicciones obtenidas por el mismo, en las condiciones
descriptas y utilizando potencias de transmisión Pt igual a 2W, 5W y 10W
respectivamente.
Fig. 4. Predicciones del modelo COST 231 Walfisch-Ikegami utilizando potencias de
transmisión Pt igual a 2W, 5W y 10W respectivamente.
‐118
‐108
‐98
‐88
‐78
0 100 200 300 400 500
Potencia
en
el
Movil
[dbm]
Distancia desde el móvil a la BS [m]
Predicciones de Cobertura de las BS
Pt=10W Pt=5W Pt=2W
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1305
Posteriormente se plantea el esquema de apagado de las BS desde 0 a 90%, lo que se
traduce en un incremento de la distancia intercelda promedio a medida que éstas van
quedando fuera de servicio. Combinando los resultados del modelo con las
especificaciones de los dispositivos móviles enunciadas en la Tabla 2, se obtiene las
curvas de la Fig. 5. Las mismas representan el máximo ancho de banda que puede
alcanzar un dispositivo móvil ubicado a la distancia más desfavorable respecto de la
BS a la que se encuentra asociado. Los cálculos fueron realizados contemplando
canales de 5 y 10 MHz para potencias de transmisión Pt igual a 2W, 5W y 10W.
(a) (b)
Fig. 5. Ancho de banda máximo que puede alcanzar una estación móvil en el punto más
desfavorable de la red como función del porcentaje de apagado de la misma, para ancho de
canal de 5MHz en (a) y de 10 MHz en (b).
Para poder comparar las variables de interés, se normalizan la potencia y el ancho de
banda resultando Pmmax=1 y ABmax=1. Considerando que el esquema de apagado
selectivo busca incrementar los rango de cobertura de cada microcelda como
consecuencia de la disminución del tráfico, en la Fig.6 se plantean los siguientes
resultados para un canal de 5MHz.
Fig. 6. Comparación normalizada del ancho de banda, potencia consumida en modo de
suspensión (StandBy) y potencia consumida en modo de apagado total del sitio (Switch off)
como función del % de apagado de la red, para un ancho de canal = 5MHz y Pt=2W en (a),
Pt=5W en (b) y Pt=10W en (c).
0
1
2
3
4
5
0 0,5 1
Ancho
de
banda
[Mb/s]
% de apagado de la red
AB vs % de apagado para un
ancho de canal de 5 Mhz
Pt=10W
Pt=5W
Pt=2W
0
1
2
3
4
5
0 0,5 1
Ancho
de
banda
[Mb/s]
% de apagado de la red
AB vs % de apagado para un
ancho de canal de 10 Mhz
Pt=10W
Pt=5W
Pt=2W
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1306
6 Estimación de la Eficiencia Energética en Función del Ancho
de Banda Máximo Disponible
Con el objetivo de cuantificar la eficiencia energética de la red, en este trabajo se
establece el coeficiente SG como indicador de la relación ancho de banda disponible
(AB) en función de la potencia consumida por las estaciones base por unidad de
distancia en un esquema de apagado selectivo (Pm):
	
(7)
En la Fig. 7 se representa SG en función del porcentaje de apagado de la red. El valor
máximo de cada curva establece el porcentaje para el cual se alcanza una máxima
eficiencia energética en las condiciones estudiadas. Este indicador permite planificar
el despliegue de una red de microceldas para atender las demandas de pico y generar
un esquema de apagado selectivo que brinde la máxima eficiencia energética
manteniendo la calidad de servicio al usuario final.
Fig. 7. Coeficiente SG para distintas potencias de transmisión Pt y potencia total Pm en las
modalidades del esquema de apagado selectivo de suspensión (Standby) y apagado total del
sitio (Switch off).
7 Conclusiones
En este trabajo se estudia cómo implementar BS mejorando la eficiencia energética de
la red, a partir del planteo de un modelo de apagado selectivo que se ajusta a entornos
urbanos de alta densidad. El concepto de microceldas con alto grado de solapamiento,
se proyecta como solución para atender las demandas de pico en el tráfico de la red.
Sin embargo, implica que una gran cantidad de puntos de transmisión quedan
subutilizados cuando el tráfico de datos disminuye. En estas situaciones cobra
0,0
0,5
1,0
1,5
2,0
0 0,2 0,4 0,6 0,8 1
Coeficiente
SG
% de apagado de la red
Coeficiente SG vs % de Apagado de la Red para Pt=2W, Pt=5W y
Pt=10W
Pm para Pt= 2W (Stby)
Pm para Pt= 5W (Stby)
Pm para Pt= 10W (Stby)
Pm para Pt= 2W (SwOff)
Pm para Pt= 5W (SwOff)
Pm para Pt= 10W (SwOff)
II Congreso Argentino de Ingeniería - CADI 2014
VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014
Cap 8: Tecnología de la Información y Comunicación
Setiembre 2014
ISBN 978-987-1662-51-7
1307
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer
Metodo purt leer

Más contenido relacionado

Similar a Metodo purt leer

Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...
Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...
Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...Miguel A. Amutio
 
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La Laguna
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La LagunaEl nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La Laguna
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La LagunaMiguel A. Amutio
 
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TIC
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TICEl nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TIC
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TICMiguelAmutio1
 
Guia de Respuesta ante Emergencias.pdf
Guia de Respuesta ante Emergencias.pdfGuia de Respuesta ante Emergencias.pdf
Guia de Respuesta ante Emergencias.pdfKarina Linares SA
 
Guía_de_respuesta_ante_emergencias.pdf
Guía_de_respuesta_ante_emergencias.pdfGuía_de_respuesta_ante_emergencias.pdf
Guía_de_respuesta_ante_emergencias.pdfJosè Oliver Vielma
 
Actividad No.3: Métodos para la evaluación integral de riesgos
Actividad No.3: Métodos para la evaluación integral de riesgosActividad No.3: Métodos para la evaluación integral de riesgos
Actividad No.3: Métodos para la evaluación integral de riesgosYENIFERRICO
 
Métodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosMétodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosdiegofernando93110404
 
Actividad 3. Métodos de evaluación de riesgos
Actividad 3. Métodos de evaluación de riesgosActividad 3. Métodos de evaluación de riesgos
Actividad 3. Métodos de evaluación de riesgosJenifferCriollo
 
Métodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosMétodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosIvonneAnglicaTllezGu
 
Herramientas de analisis forense en delitos informaticos
Herramientas de analisis forense en delitos informaticosHerramientas de analisis forense en delitos informaticos
Herramientas de analisis forense en delitos informaticosCarmen Castillo
 
Metodos para evaluacion integral del riesgo
Metodos para evaluacion integral del riesgoMetodos para evaluacion integral del riesgo
Metodos para evaluacion integral del riesgodanielaraigozarivera
 
medidas actividades psicosociales
medidas actividades psicosociales medidas actividades psicosociales
medidas actividades psicosociales Jenny Rincon
 
plan-de-contingencia-sistemas-informaticos
plan-de-contingencia-sistemas-informaticosplan-de-contingencia-sistemas-informaticos
plan-de-contingencia-sistemas-informaticosAllan Rayo
 
Metodología para Elaboración de un Plan de Seguridad Informática
Metodología para Elaboración de un Plan de Seguridad InformáticaMetodología para Elaboración de un Plan de Seguridad Informática
Metodología para Elaboración de un Plan de Seguridad Informáticaivargasem119
 
Métodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosMétodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgossandradiaz109941
 
Metodos de evaluación de Riesgos
Metodos de evaluación de RiesgosMetodos de evaluación de Riesgos
Metodos de evaluación de RiesgosRhonan Soler
 

Similar a Metodo purt leer (20)

Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...
Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...
Progreso de la adecuación al Esquema Nacional de Seguridad, en la reunión de ...
 
Esquema nacional de seguridad
Esquema nacional de seguridadEsquema nacional de seguridad
Esquema nacional de seguridad
 
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La Laguna
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La LagunaEl nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La Laguna
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE TIC La Laguna
 
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TIC
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TICEl nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TIC
El nuevo Esquema Nacional de Seguridad. Jornadas CRUE-TIC
 
Guia de Respuesta ante Emergencias.pdf
Guia de Respuesta ante Emergencias.pdfGuia de Respuesta ante Emergencias.pdf
Guia de Respuesta ante Emergencias.pdf
 
Guía_de_respuesta_ante_emergencias.pdf
Guía_de_respuesta_ante_emergencias.pdfGuía_de_respuesta_ante_emergencias.pdf
Guía_de_respuesta_ante_emergencias.pdf
 
Actividad No.3: Métodos para la evaluación integral de riesgos
Actividad No.3: Métodos para la evaluación integral de riesgosActividad No.3: Métodos para la evaluación integral de riesgos
Actividad No.3: Métodos para la evaluación integral de riesgos
 
Métodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosMétodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgos
 
Actividad 3. Métodos de evaluación de riesgos
Actividad 3. Métodos de evaluación de riesgosActividad 3. Métodos de evaluación de riesgos
Actividad 3. Métodos de evaluación de riesgos
 
Actividad 3 unidad 2
Actividad 3 unidad 2Actividad 3 unidad 2
Actividad 3 unidad 2
 
Metodo de analisis de riesgos, Magerit
Metodo de analisis de riesgos, MageritMetodo de analisis de riesgos, Magerit
Metodo de analisis de riesgos, Magerit
 
Métodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosMétodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgos
 
Herramientas de analisis forense en delitos informaticos
Herramientas de analisis forense en delitos informaticosHerramientas de analisis forense en delitos informaticos
Herramientas de analisis forense en delitos informaticos
 
Metodos para evaluacion integral del riesgo
Metodos para evaluacion integral del riesgoMetodos para evaluacion integral del riesgo
Metodos para evaluacion integral del riesgo
 
Metodologias de riesgos
Metodologias de riesgosMetodologias de riesgos
Metodologias de riesgos
 
medidas actividades psicosociales
medidas actividades psicosociales medidas actividades psicosociales
medidas actividades psicosociales
 
plan-de-contingencia-sistemas-informaticos
plan-de-contingencia-sistemas-informaticosplan-de-contingencia-sistemas-informaticos
plan-de-contingencia-sistemas-informaticos
 
Metodología para Elaboración de un Plan de Seguridad Informática
Metodología para Elaboración de un Plan de Seguridad InformáticaMetodología para Elaboración de un Plan de Seguridad Informática
Metodología para Elaboración de un Plan de Seguridad Informática
 
Métodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgosMétodos para la evaluación integral de riesgos
Métodos para la evaluación integral de riesgos
 
Metodos de evaluación de Riesgos
Metodos de evaluación de RiesgosMetodos de evaluación de Riesgos
Metodos de evaluación de Riesgos
 

Último

Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.José Luis Palma
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.DaluiMonasterio
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxinformacionasapespu
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinavergarakarina022
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdfDemetrio Ccesa Rayme
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleJonathanCovena1
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFAROJosé Luis Palma
 

Último (20)

Repaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia GeneralRepaso Pruebas CRECE PR 2024. Ciencia General
Repaso Pruebas CRECE PR 2024. Ciencia General
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.Clasificaciones, modalidades y tendencias de investigación educativa.
Clasificaciones, modalidades y tendencias de investigación educativa.
 
EXPECTATIVAS vs PERSPECTIVA en la vida.
EXPECTATIVAS vs PERSPECTIVA  en la vida.EXPECTATIVAS vs PERSPECTIVA  en la vida.
EXPECTATIVAS vs PERSPECTIVA en la vida.
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptxPRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
PRIMER SEMESTRE 2024 ASAMBLEA DEPARTAMENTAL.pptx
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
codigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karinacodigos HTML para blogs y paginas web Karina
codigos HTML para blogs y paginas web Karina
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
La Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdfLa Trampa De La Felicidad. Russ-Harris.pdf
La Trampa De La Felicidad. Russ-Harris.pdf
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdf
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.Defendamos la verdad. La defensa es importante.
Defendamos la verdad. La defensa es importante.
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
Introducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo SostenibleIntroducción:Los objetivos de Desarrollo Sostenible
Introducción:Los objetivos de Desarrollo Sostenible
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARONARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
NARRACIONES SOBRE LA VIDA DEL GENERAL ELOY ALFARO
 

Metodo purt leer

  • 1. Sistema Recomendador para la Determinación de Medidas de Protección Contra Incendios - Norma IRAM N° 3528 “Método de Purt” Prof. Ing. Mario Raúl López1 y Dra. Milagros Gutiérrez2 1 UTN-FRP Departamento Ingeniería Electromecánica. Av.Almafuerte N° 1033-(3100) Paraná, Entre Ríos, Argentina. mrlopez@frp.utn.edu.ar 2 UTN-FRSF CIDISI Centro de Investigación y Desarrollo de Ingeniería en Sistemas de Información. Lavaisse 610-(3000) Santa Fé, Argentina. mmgutier@frsf.utn.edu.ar Resumen. Aunque existen numerosos métodos de evaluación nu- mérica del riesgo de incendios, en la República Argentina para decidir sobre la aplicación de sistemas fijos de extinción y/o de detección de incendios, se utiliza la Norma IRAM Nº 3528 denominada “INSTA- LACIONES FIJAS CONTRA INCENDIOS Evaluación del Riesgo por el Método de Purt, para la aplicación de sistemas automáticos de detección y extinción”. El método se aplica en forma manual y su aplicación depende completamente de una persona o grupo espe- cializado y está sujeto a errores. A partir de la conceptualización del dominio y -eventualmente- el desarrollo de un sistema recomendador sería posible dar soporte automatizado al profesional en la toma de decisión sobre la implementación del sistema de detección y/o extin- ción a utilizar en la planta. Palabras claves: Sistema recomendador, Incendio, método de Purt, norma IRAM. 1. Introducción El método de Gustav Purt[2] efectúa una evaluación del riesgo de incendio de forma general, dado que afirma que el cálculo excesivo de coeficientes que in- tervienen en el incendio tenga cierta influencia sobre el riesgo real; y tiene en cuenta que el fuego se produce en el contenido y en los edificios[1]. 1 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1270
  • 2. Su finalidad es deducir (Fig. 1), en base al riesgo potencial existente, qué medios de lucha contra incendios son necesarios implementar en la actividad (primera in- tervención y elementos de protección tales como detección y extinción automáti- ca). Figura 1: Proceso de Recomendación por Experto Humano El método se basa en el análisis de la acción destructora del fuego que se desarrolla en dos ámbitos diferencia- dos: edificio o continente y su conte- nido. El riesgo del edificio estriba en la po- sibilidad de que se produzca un daño importante en el inmueble: destruc- ción total del edificio. Para ello utiliza dos factores esenciales: La intensidad y duración del in- cendio. La resistencia de los elementos constructivos. El riesgo del edificio o continente (GR) se centra en la posibilidad de la destruc- ción del inmueble, para su cálculo se utiliza la expresión: GR = (Qm.C + Qi).B.L W.Ri siendo: Qm = Coeficiente de la carga de fuego del contenido (Tabla I, sec. 3.6.1.1). C = Coeficiente de Combustibilidad del contenido (Tabla III, sec. 3.6.1.2). Qi = Coeficiente de carga de fuego del continente (Tabla V y VI, sec. 3.6.1.3). B = Coeficiente correspondiente a la situación e importancia del sector (Tabla VII, sec. 3.6.1.4). L = Coeficiente de tiempo necesario para iniciar la extinción (Tabla VIII, sec. 3.6.1.5). W = Coeficiente de resistencia al fuego del continente (Tabla IX, sec. 3.6.1.6). Ri = Coeficiente de reducción del riesgo (Tabla X, sec. 3.6.1.7). El riesgo del contenido (IR) está constituido por los daños personales y materiales ocasionados a personas y cosas que se encuentren en el interior del edificio. Para su cálculo se utiliza la expresión: 2 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1271
  • 3. IR = H.D.F donde: H = coeficiente de daño a personas (Tabla XI). D = coeficiente de peligro para los bienes (Tabla XII). F = coeficiente de influencia del humo (Tabla XIII). La obtención de los valores de GR e IR, a partir de los factores señalados, los cuales se encuentran tabulados, permite una vez llevado al siguiente gráfico (Fig. 2), obtener de forma rápida las medidas de detección y extinción más adecuadas al riesgo evaluado, dependiendo de la zona del diagrama en la que se encuentren las rectas x = IR e y = GR. Figura 2: Diagrama de medidas, método de Gustav Purt (1) El riesgo es poco significativo; en general, son superfluas las medidas especiales. (2) Una instalación auto- mática de protección contra incendio no es estrictamente necesaria ni reco- mendable. (3) Instalación automáti- ca de extinción necesaria; instalación de protección no apropiada al riesgo. (4) Instalación de protección necesa- ria; instalación automática de extin- ción no apropiada al riesgo; (5) Do- ble protección por instalación de pre- detección y extinción automática re- comendable. Instalación de extinción necesaria. (6) Doble protección por instalación de predetección y extin- ción automática recomendable. Insta- lación de predetección necesaria. (7) Doble protección por instalación de predetección y extinción automática necesaria. Finalmente podemos señalar que por tratarse de una Norma IRAM es de aplicación en todo el ámbito de la República Argentina y en todo tipo de industrias con la única excepción que representa la industria de los hidrocarburos. Actualmente la aplicación de esta norma, es realizada en forma manual por un especialista en la disciplina de la Higiene y la Seguridad en el Trabajo (Ley N° 24557 de Riesgos del Trabajo, Ley N° 19587 de Seguridad e Higiene en el Trabajo y Decreto Reglamentario N° 351/79, Capítulo 18, artículos 160 al 187) quien realiza la búsqueda de los datos tabulados en la norma y calcula los índices correspondientes para determinar las medidas de seguridad a implementar. 3 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1272
  • 4. 2. Fundamentación En la actualidad, el método de Purt se aplica en forma manual, es decir, su utilización depende completamente de una persona o grupo especializado en la materia. Como toda actividad desarrollada en forma manual, está sujeta a errores, ya sea por distracción, falta de capacidad para manejar gran cantidad de información, falta de expertos, dificultades para adquirir entrenamiento, etc. Además no es posible hacer experimentos para ver si las medidas de seguridad funcionan, ya que no se puede hacer un ensayo de tipo destructivo, por pequeño que sea, en una planta que está en plena producción, y que, generalmente, son muy pocas las empresas que nacen con todos los elementos de seguridad . Para limitar la búsqueda y obtener tan pronto como sea posible una solución correcta dentro del conjunto de posibles soluciones, contar con una herramienta computacional que asista en la elaboración de una solución semi-automática es altamente deseable. Esta herramienta deberá estar orientada a tecnologías de sistemas basados en conocimientos[4] y sistemas recomendadores. Entonces, a partir de la conceptualización del dominio, la creación de un modelo[5, 6] y -eventualmente- el desarrollo de un sistema recomendador[7] sería posible lograr un sistema que de soporte al profesional en la toma de decisión sobre la implementación de las medidas de seguridad aplicando el método de Purt. Un sistema recomendador es aquel que brinda información oportuna que el usua- rio necesita para tomar mejores decisiones en la tarea que está llevando a cabo [8]. Este tipo de sistemas para poder tomar decisiones sobre qué recomenda- ción hacer toma información disponible como ser: información sobre el perfil del usuario, decisiones tomadas con anterioridad, similaridad de características del entorno sobre la que se está tomando la decisión, entre otras. También debe contar con un mecanismo que le permita filtrar la información que encuentra disponible para solo mostrar la que es de interés para el usuario. Existen diferentes tipos de filtros que pueden ser utilizados en un sistema reco- mendador tales como filtros colaborativos [8] y filtros basados en contenido [9]. En muchos casos estas propuestas son usadas en conjunto dando lugar a filtros híbridos. 3. Propuesta En este trabajo nos proponemos la conceptualización y eventualmente el desa- rrollo de una solución que de soporte a los profesionales del área de Higiene y Seguridad en el Trabajo en la toma de decisiones en el campo de la lucha contra incendios. Esta solución estará basada en la utilización de los principios detalla- dos en el método de Purt y cumpliendo lo estipulado en la Norma IRAM 3528. Se requiere que dicha solución facilite la recomendación de los dispositivos nece- sarios tanto sea para la extinción como para la detección temprana de incendios en inmuebles y explotaciones fabriles -continente y contenido- de los tipos cons- tructivos más comunes y que sea de utilidad para los técnicos y profesionales del área. 4 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1273
  • 5. Las ventajas de usar un sistema recomendador en la determinación de las medi- das de seguridad contra incendios a implementar en plantas son evidentes[16, 17, 18]: Permanencia, Duplicación, Rapidez, Bajo costo, Fiabilidad, y consolidación de varios conocimientos. Para facilitar la experimentación, actualmente inhabilitada por las característi- cas manuales del método y los elevados costos que significarían realizar un ensayo en cualquier planta fabril, este sistema deberá contar con una interfaz adecuada y amigable para que el usuario se vea cómodo para utilizarla introduciendo los datos básicos, y con una base de conocimiento apropiada donde se encuentren almacenados tablas y datos específicos con los valores de los distintos materiales y ambientes susceptibles de incendios. Figura 3: Sistema Recomendador En este punto creemos que se ha- ce indispensable la utilización de una ontología ([16, 17, 18]), donde pueda sistematizarse el conocimiento necesa- rio: perfiles de usuarios, preferencias, tendencias, datos de materiales y es- pecíficos que hagan a la aplicación del método de Purt, etc. Esta ontología estará hospedada en un sitio de la web de fácil acceso pa- ra los usuarios, los cuales, como podrá apreciarse en la figura 3, no serán ne- cesariamente expertos en la materia, aunque el sistema si podrá aprovechar las recomendaciones de otros expertos o resultados similares efectuados previa- mente. La Ontología de materiales y datos específicos deberá contener la información necesaria para que el sistema realice el razonamiento adecuado, en función o como resultado de la aplicación del método, así tendríamos un algoritmo como el siguiente: % TR (Riesgo Total) es el valor del área del diagrama determinado % por las coordenadas IR y GR (riesgo contenido y continente) Si TR = 1 entonces Recomendacion1 Si TR = 2 entonces Recomendacion2 .... % Si TR cae fuera del diagrama aumentar resistencia al fuego & y decrementar sector de incendio y tiempo de extinción Recalculo(Resistencia,SectorIncendio,TiempoExtincion) Recomendacion1: VerificarMateriales .... Recomendación2: 5 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1274
  • 6. VerificarMateriales .... .... Recalculo(R,S,T): .... Además, para evitar colisiones y resultar coherentes con el trabajo previo del ex- perto humano donde ya ha establecido, por ejemplo, la distribución de extintores e hidrantes, las verificaciones de materiales y las recomendaciones que realice el sistema deberán tener en cuenta una clasificación como la que se observa en la siguiente figura 4 extraído de [19]. Figura 4: Cuadro Resumen Tipos de Materiales Combustibles 4. Conclusiones y Trabajos Futuros La evaluación del riesgo de incendio resulta fundamental a la hora de adoptar las medidas de prevención y protección necesarias en cada caso, ya que éstas deberán estar acordes con el riesgo detectado [12]. 6 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1275
  • 7. Aunque existen numerosos métodos de evaluación numérica, este método (Purt) tiene en cuenta que el fuego se produce en el contenido y en los edificios. Razones valederas para ser adoptado por la normativa argentina [14] que coincide con lo expresado por algunos autores [13]: «Si la finalidad del método consiste en deducir de la evaluación del riesgo las medidas de protección contra incendios, entonces el más apropiado es el del Dr. Gustav Purt». Por el lado de los sistemas recomendadores podemos decir, coincidiendo con [15], que estos sistemas de recomendación son ya ampliamente utilizados y debido a la gran cantidad de información de todo tipo que nos rodea, su presencia y utilidad es de esperar que aumente en el futuro. Este conocimiento se podrá integrar en bases de datos, donde usuarios comunes encontrarán la información precisa y podrán realizar inferencias buscando in- formación relacionada. Además, podrán intercambiar sus datos siguiendo estos esquemas comunes consensuados, e incluso podrán reutilizarlos. En este sentido, estamos trabajando en la conceptualización de un modelo para la diversidad de materiales que se pueden encontrar, tanto en el contenido como el continente, de las plantas fabriles. Referencias [1] José Ma. Cortés Díaz. “Seguridad e Higiene del Trabajo. Técnicas de preven- ción de riesgos laborales” (Capítulo 17). 3ra edición. Editorial Alfaomega. México 2002. [2] Gustav Purt. “Sistema de evaluación del riesgo de incendio que puede servir de base para el proyecto de instalaciones automáticas de protección contra incendios”. Texto revisado de la conferencia pronunciada durante el sexto Seminario Internacional de Detección Automática de Incendios del IENT, celebrado en Aquisgran en Octubre de 1971. [3] Gretener, M. “Determination des mesures de protection decoulant de l’evaluation du danger potenciel d’incendie”. Berne, Ass. des etablissements cantonaux d’assurances contre l’ncendie. 1973. [4] Russell, S. and P. Norvig. Artificial Intelligence. A modern approach. Third edition. Prentice hall 2010. [5] Speel P., Schreiber, A., van Joolingen, W., van Heijst G. and Beijer, G.J. Conceptual Modelling for Knowledge-Based Systems. en: Encyclopedia of Computer Science and Technology, Marce Dekker Inc., New York. [6] Robinson, S. Conceptual Modelling: Who Needs It? SCS M&S Magazine 2010 / n2 (April). [7] M. Montaner, “A Taxonomy of Recommender Agents on the Internet”, Artificial Intelligence Review 19, 2003, pp. 285–330. 7 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1276
  • 8. [8] Prem Melville and Vikas Sindhwani. Recommender Systems. Encyclopedia of Machine Learning, 2010. [9] Mooney, R. J and Roy, L. Content-based book recommendation using lear- ning for text categorization. In Workshop Recom. Sys.: Algo. and Evalua- tion. 1999. [10] http://www.todomonografias.com/industria-y-materiales/actividades- industriales-proteccion-contra-incendios/ Actividades industriales Protec- ción contra incendios – Monografía. (consultado 8/1/2013). [11] http://www.estrucplan.com.ar/articulos/verarticulo.asp?IDArticulo=767 Métodos de evaluación del riesgo de incendio, herramientas decisivas en la aplicación de las medidas de prevención y protección contra incendios de personas, bienes y actividades. Artículo. (consultado 9/1/2013) [12] Cortés Díaz, José María. Seguridad e Higiene del Trabajo. Técnicas de pre- vención de riesgos laborales. 3ra. edición © 2002 Alfaomega grupo editor. México D.F. [13] Villanueva Muñoz, J.L.: Evaluación del riesgo de incendio. Método Gustav Purt. Notas Técnicas de Prevención. NTP.100-1984. Instituto Nacional de Seguridad e Higiene en el Trabajo. Madrid (1984). [14] Norma IRAM N° 3528 “INSTALACIONES FIJAS CONTRA INCENDIOS. Evaluación del Riesgo por el Método de Purt, para la aplicación de sistemas automáticos de detección y extinción”. (1981) Argentina. [15] Sergio M. G. Nieto. Filtrado Colaborativo y Sistemas de Recomendación. Inteligencia en Redes de Comunicaciones.Ingeniería de Telecomunicación. Universidad Calos III de Madrid. [16] Sebastián Lendinez Teixeira. APO: APLICACIÓN PARA LA POBLA- CION DE ONTOLOGÍAS. INGENIERÍA TÉCNICA EN INFORMÁTICA DE GESTIÓN. Universidad Carlos III de Madrid. España. [17] Gleison Santos, Karina Villela, Lílian Schnaider, Ana Regina Rocha, Guil- herme Horta Travassos. Building ontology based tools for a software develop- ment environment. COPPE/Federal University of Rio de Janeiro - Brasil. [18] Karin Koogan Breitman, Julio Cesar Sampaio do Prado Leite. Lexicon Ba- sed Ontology Construction. PUC-Rio, Computer Science Department, LES. Rio de Janeiro, RJ, Brazil. [19] Laboratorio de Producción. Prevención y Control de Incendios. Facultad Ingenieria Industrial. Colombia. Edición 2009-2. 8 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1277
  • 9. Modelado del proceso de destilación molecular mediante redes neuronales Carolina A. Allevi, Cecilia L. Pagliero, Miriam A. Martinello Departamento de Tecnología Química-Facultad de Ingeniería (UNRC-CONICET) Ruta 8 km. 601 – 5800 Río Cuarto – Argentina. callevi@ing.unrc.edu.ar Resumen. En este trabajo se presenta el modelado del proceso de destilación molecular mediante una red neuronal artificial para la predicción de la concentración del componente más volátil en el residuo y la relación residuo/alimentación (R/F) de una muestra binaria patrón. Los datos se obtuvieron por resolución numérica del modelo fenomenológico del proceso. Las redes neuronales tienen la capacidad de aprender, reconocer patrones de una serie de entradas y salidas, sin hipótesis previas sobre su naturaleza. Las entradas a la red fueron el flujo de alimentación (Q) y la temperatura del evaporador (TE). Se desarrolló un modelo neuronal artificial feed-forward backpropagation compuesto por dos neuronas en la entrada, seis neuronas en una capa oculta y dos neuronas en la capa de salida. Se utilizó para el entrenamiento el algoritmo Levenberg-Marquartd, con el cual se alcanzo una buena predicción de los datos de validación, con un mínimo error cuadrático medio. Palabras Clave: Destilación Molecular, Redes Neuronales Artificiales. 1 Introducción La destilación molecular es un proceso de separación y purificación que se caracteriza por el alto vacío, las temperaturas reducidas y los bajos tiempos de residencia lo cual la hacen útil para materiales termolábiles. Como resultado de este proceso se obtienen dos fracciones a partir de una mezcla de componentes de volatilidades diferentes: la fracción pesada (residuo) y la fracción liviana (destilado). Existen muchas aplicaciones de destilación molecular para diferentes materiales, tales como la concentración de monoglicéridos [1], el enriquecimiento de metilchavicol [2], el enriquecimiento de oxiterpenos del aceite de naranja [3] y la desacidificación de aceites [4]. El proceso de separación por destilación molecular tiene lugar en cuatro etapas: (i) el transporte de componentes desde la mezcla líquida hacia la superficie de la película, (ii) la evaporación de los componentes más volátiles en la superficie de la película, (iii) el transporte de las moléculas evaporadas a través del espacio de destilación y II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1278
  • 10. (iv) la condensación de las moléculas evaporadas. La representación completa del proceso se realiza analizando todas las etapas mediante balances de cantidad de movimiento, de masa y de energía, aunque en general la etapa limitante es la primera y es la única que se tiene en cuenta en el modelo. Se han publicado distintos trabajos sobre el modelado y simulación de una mezcla binaria en dos tipos de destiladores: de película descendente y centrífugo [5], del modelado y la simulación del proceso de destilación molecular de un residuo de petróleo, resuelto por el método implícito de diferencias finitas de Crank-Nicholson [6]. Las redes neuronales artificiales representan una tecnología que tiene sus raíces en muchas disciplinas: Neurociencias, Matemáticas, Estadística e Ingeniería. Se aplican para diversos propósitos, tales como modelado, reconocimiento de patrones, identificación de sistemas no lineales, control de procesos, clasificación y agrupamiento, optimización, predicción y procesamiento de señales. Las redes neuronales se presentan como una herramienta prometedora para el modelado de sistemas complejos. Se han aplicado en la simulación de una planta de tratamiento de aguas residuales industriales, para determinar las propiedades ambientales de la corriente de salida [7], en la predicción de la caída de presión para fluidos no newtonianos a través de accesorios de tuberías [8]. Específicamente en destilación molecular, se utilizaron las redes neuronales como modelos predictivos para la concentración y recuperación de tocoferoles del destilado de desodorización de aceite de colza [9]. 2 Materiales y métodos En este trabajo se realiza el modelado mediante redes neuronales para la destilación molecular de una muestra binaria: dibutilftalato (DBP) y dibutilsebacato (DBS). Los datos se obtuvieron mediante el modelado matemático fenomenológico de la película del evaporador. El modelo se aplicó al destilador molecular KDL4 (UIC-GmbH), instalado en la planta piloto del Departamento de Tecnología Química de la Facultad de Ingeniería. El equipo de destilación molecular consiste en dos cilindros concéntricos, uno interno y otro externo. La evaporación ocurre en la superficie interna del cilindro exterior y la condensación en la superficie externa del cilindro interior. Consta de un sistema de rodillos logra el barrido de la película líquida sobre la superficie de evaporación la cual es una de las condiciones claves para una destilación satisfactoria. El sistema de rodillos es el responsable de la dispersión de la película sobre la superficie del evaporador, además de un mezclado permanente. Posee equipos auxiliarles como sistema de bombas en serie y baños termostáticos para el evaporador, el condensador y la alimentación. Se realizó el modelo matemático en dos dimensiones de la película que se forma en la pared del evaporador del destilador molecular. Para ello se establecieron una serie de II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1279
  • 11. suposiciones: estado estacionario, propiedades fisicoquímicas de los componentes constantes, fluido newtoniano, flujo laminar, coordenadas cilíndricas, temperaturas de pared del evaporador y del condensador constantes, sin difusión axial, ni flujo radial. Las ecuaciones que describen el proceso de destilación molecular son las ecuaciones de conservación de masa, de energía, y de cantidad de movimiento; y la ecuación de Langmuir-Knudsen para la evaporación de los componentes en la superficie de la película. Los datos obtenidos mediante el modelo matemático se utilizan para la selección, creación y configuración de la arquitectura de la red neuronal, la cual se usará con fines predictivos. En la Tabla 1 se muestran los datos obtenidos por el modelo matemático. En la misma se puede observar que las variables operativas que se modificaron fueron la temperatura del evaporador (TE) y el flujo de alimentación (Q), permaneciendo constante la temperatura de alimentación (TF) que para todos los casos fue TF = 370 K. Las variables de salida fueron la concentración del componente más volátil en el residuo (%XDBP) y la relación residuo/alimentación (R/F). Tabla 1. Set de datos generados a partir del modelo matemático, los cuales han sido divididos en dos subconjuntos: datos para entrenamiento y datos para validación de las redes neuronales. TF=370K. Set Datos n TE Q % XDBP R/F Entrenamiento 1 350 2,5 49,06 0,97 2 370 2,5 45,88 0,88 3 380 1 23,93 0,44 4 380 2,5 41,27 0,76 5 380 3 42,81 0,80 6 380 5 45,87 0,88 7 390 1 0,26 0,07 8 390 2 24,9 0,45 9 390 2,5 31,05 0,54 10 390 5 41,68 0,76 11 400 2,5 8,32 0,21 Validación 12 360 2,5 48,04 0,94 13 380 1,5 34,00 0,61 14 380 2 38,00 0,70 15 380 2,5 41,27 0,76 16 390 1,5 14,08 0,30 17 390 3 34,84 0,61 En la Fig. 1 se muestra la variación de la concentración de DBP (%XDBP) y R/F en función de la temperatura del evaporador (TE). El aumento de la temperatura de evaporación produce la disminución de las dos variables de salida debido al mayor aporte energético y por lo tanto a una mayor evaporación del componente más volátil y menor producción de residuo. En la Fig.2 puede verse la variación de la concentración de (%XDBP) y de R/F, en función del flujo de alimentación. Un aumento del flujo de alimentación se traduce en menos tiempo del material en el equipo, por lo tanto se produce una menor evaporación con concentraciones y relación de residuo/alimentación mayores. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1280
  • 12. 0,1 0,3 0,5 0,7 0,9 0 10 20 30 40 50 60 340 360 380 400 420 R/F % XDBP TE (K) XDBP vs TE R/F vs TE Fig. 1. R/F y %XDBP vs TE con Q =2,5mL/min. 0 0,2 0,4 0,6 0,8 1 20 30 40 50 0 2 4 6 R/F % XDBP Q (mL/min) XDBP vs Q R/F vs Q Fig. 2. R/F y %XDBP vs Q con TE = 380K Luego de analizar los resultados del modelado se procede a la determinación de la mejor red neuronal que sea capaz de aprender y predecir correctamente los datos. Para ello se deben analizar distintas arquitecturas de redes, comparar diferentes algoritmos de entrenamiento, funciones de transferencia, a efectos de encontrar la óptima para esta aplicación. Y luego realizar la validación del modelo de redes obtenido. En la selección de la red se recolectan los datos donde se utilizaron un total de 17 datos, 65% de los cuales se usaron para el entrenamiento, y el 35% restante para validar la red (Tabla 1). Se creo una red neuronal de propagación hacia adelante con retropropagacion de los errores (feed-forward backpropagation). En la red de propagacion hacia adelante II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1281
  • 13. todas las neuronas de una capa estan conectadas con neuronas de otras capas. La red seleccionada consta de una capa de entrada, una capa oculta y una capa de salida. En la capa de entrada no se realizan cálculos, su función es distribuir y enviar las señales de entrada a la capa oculta. Cada capa contiene un número de neuronas. La cantidad de neuronas en las capas de entrada y de salida quedan determinadas por las variables de entrada y de salida del proceso. Para la capa oculta, el numero de neuronas se determina por el método de prueba y error. Las neuronas en la capa de entrada son dos, debido a las dos variables de entrada: TE y Q. Se determinó que el número de neuronas en la capa oculta es 6, y la capa de salida contiene dos neuronas, una por cada variable de salida: R/F y %XDBP (Fig. 3). En cada capa se selecciona una función de transferencia. En este trabajo se seleccionó para la predicción, en la capa oculta la función de transferencia tangente hiperbólica y en la capa de salida la función lineal. Las conexiones entre neuronas, entre capas están ponderadas, a cada conexión se le asocia un peso .Luego se selecciona la arquitecura de red y se inicializan los pesos donde la red puede partir de pesos iguales a cero o de valores aleatorios antes de que empiece a aprender. Inmediatamente empieza la etapa de entrenamiento para lo cual se debe seleccionar algún algoritmo de aprendizaje, en este caso se utilizó el algoritmo de aprendizaje de Leveberg-Marquardt. El objetivo del entrenamiento es conseguir que para la destilación molecular, el conjunto de datos de entradas produzca un conjunto de salidas deseadas. El proceso de entrenamiento consiste en la aplicación de diferentes vectores de entrada para que se ajusten los pesos de las interconexiones. El aprendizaje se realizó mediante la propagación del error hacia atrás consiste en dos pasos a través de las diferentes capas de la red: un paso hacia adelante y un paso hacia atrás. En el paso hacia adelante, un vector de entrada se aplica a los nodos de la red, y su efecto se propaga a través de la red capa por capa. Finalmente, un conjunto de salidas es producido como respuesta de la red. Durante el paso hacia adelante son establecidos los pesos sinápticos de la red. Durante el paso hacia atrás, los pesos son ajustados de acuerdo con la regla de corrección del error. Durante el entrenamiento los pesos convergen gradualmente hacia los valores que hacen que para cada entrada produzca la salida deseada. Fig.3. Red Neuronal. La cual consta de una capa de entrada con dos neuronas, una capa oculta con 6 neuronas y una capa de salida con dos neuronas. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1282
  • 14. 3 Resultados Los pesos sinápticos de las conexiones para la arquitectura de red óptima obtenidos son los mostrados en las Tablas 2 y 3. Una vez que la red neuronal ha sido entrenada, la red es validada mediante un conjunto de datos diferentes a los utilizados en el entrenamiento (Tabla 4). Tabla 2.Pesos de las conexiones entre la capa de entrada y la capa oculta (CO). Los pesos entre las entradas 1 y 2 y las neuronas de la CO se denotan W1,j, W2,j. Bias en la capa de ocultas (CO) j nodos CO Bias (CO) W1,j W2j 1 -2.7230 3.3021 1.5370 2 -2.4953 1.4505 -1.9692 3 0.2929 -2.6833 -1.8145 4 1.7605 2.3559 -2.7085 5 1.0240 0.0158 -3.6053 6 -3.0888 -2.1998 -2.4901 Tabla 3. Pesos de las conexiones entre la capa de entrada y la capa oculta (CO). Los pesos entre las entradas 1 y 2 y las neuronas de la CO se denotan W1,j, W2,j. Bias en la capa de salida (CS) j nodos CS Bias (CS) W1,j W2j W3j W4j W5j W6j 1 -0.4397 -0.2852 -1.3014 0.2879 0.0798 -0.3948 0.2744 2 -0.3089 -0.4608 -1.3605 0.1841 0.4120 -0.5894 0.6255 Tabla 4. Resultados de la etapa de validación Set Datos TE Q Modelo Matemático Modelo Neuronal XDBP (%) R/F XDBP(%) RF Validación 360 2,5 48,04 0,94 47,34 0,92 380 1,5 34,00 0,61 30,18 0,55 380 2 38,00 0,70 36,82 0,67 380 2,5 41,27 0,76 41,26 0,76 390 1,5 14,08 0,30 14,35 0,27 390 3 34,84 0,61 35,49 0,63 En la Fig. 4 se puede observar la disminución del error cuadrático medio a medida que las iteraciones avanzan con el entrenamiento. El entrenamiento se detuvo porque alcanzo la performance, el mínimo error. En las Fig. 5 y 6 se muestran la salida de la red versus los datos del modelo matemático (salidas deseadas). El ajuste de los datos es bueno debido a que se ve una pequeña dispersión de la recta a 45 grados que sería el ajuste perfecto donde las salidas de la red son iguales a las salidas del modelo. También puede verse en la Tabla 4 la buena predicción del modelo comparando los valores del modelo matemático con el neuronal. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1283
  • 15. 0 2 4 6 8 10 12 10 -4 10 -2 10 0 10 2 Best Training Performance is 7.4509e-005 at epoch 12 Mean Squared Error (mse) 12 Epochs Train Best Goal Fig. 4. Error cuadrático medio de la red neuronal, el cual disminuye durante el entrenamiento, es decir durante la actualización de los pesos de las conexiones entre neuronas. 0 0,2 0,4 0,6 0,8 1 0 0,2 0,4 0,6 0,8 1 R/Fmod R/FRN y=x Fig. 5. R/Fmod del modelo matemático vs R/FRN obtenido de las redes neuronales II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1284
  • 16. 0 10 20 30 40 50 0 10 20 30 40 50 %XDBPmod %XDBPRN y=x Fig. 6. XDBPmod del modelado matemático vs XDBPRN obtenido de la red neuronal Conclusiones El modelado neuronal brinda las herramientas para analizar la influencia las variables del proceso de destilación molecular sobre las variables de respuesta sin necesidad de recurrir a la experimentación, siendo esta última una ventaja ya que se minimizan costos. El modelo neuronal encontrado es un buen modelo predictivo con bajo error, capaz de predecir valores en el rango estudiado, que además posibilita analizar la optimización y el control del proceso. Referencias 1. Fregolente L. V., Fregolente P. B. L., Chicuta A. M., Batistella C. B., MacielFilho R. and Wolf-Maciel M. R. Trans IChemE, Part A, Chemical Engineering Research and Design, 2007, 85(A11): 1524–1528 2. Martins P. F., Carmona C., Martinez E. L., Sbaite P, MacielFilho R., Wolf Maciel M.R. Short path evaporation for methyl chavicol enrichment from basil essential oil. Separation and PurificationTechnology 87 (2012) 71–78 3. Martins P.F., Medeiros H.H.R., Sbaite P., Wolf Maciel M.R. Enrichment of oxyterpenes from orange oil by short path evaporation. Separation and Purification Technology 116 (2013) 385-390 4. Martinello M., Hecker G., Pramparo M. (2007). Grape seed oil deacidification by molecular distillation: Analysis of operative variables influence using the response surface methodology J. Food Eng. ,81, 60. 5. Batistella C.B. and W. MacielM.R.. Modeling, simulation and analysis de molecular destillators: Centrifugal and falling film. European Symposium on Computer 6. ZuñigaLiñan L.,NascimentoLimab N.M.,1, Manentic F., Wolf Maciela M.R.,MacielFilhob R.,MedinadL.C.Experimental campaign, modeling, and sensitivity analysis for the molecular distillation of petroleum residues 673.15 K+ 7. Gontarski, C.A., Mori M., Rodrigues P.R., Prenem L.F. Simulation of an industrial wastewater treatment plant using artificial neural networks. Comput. Chem. Eng 24 (2000), 1719-1723 8. Bar N, Bandyopadhyay T.K., Biswas M.N., Das S.K..Prediction of pressure drop using artificial neural network for non-Newtonian liquid flow through piping components.J. Petro. Sci. Eng. 71 (2010), 187–194. 9. Shao P., Jiang S.T., Ying Y.J. Optimization of molecular distillation for recovery oftocopherol from rapeseed oil deodorizer distillate using response surface and artificial neural network models. Food Bioprod. Process 85 (2007), 85-92 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1285
  • 17. Problemas y Soluciones en la Completitud de Modelos en Lenguaje Natural Graciela D.S. Hadad1,2 , Claudia S. Litvak1 , Jorge H. Doorn1,2 1 DIIT, Universidad Nacional de La Matanza, Argentina 2 Escuela de Informática, Universidad Nacional del Oeste, Argentina {ghadad, clitvak}@ing.unlam.edu.ar, jdoorn@exa.unicen.edu.ar Abstract. Un proceso de requisitos habitualmente se debe valer de modelos en lenguaje natural para facilitar la comunicación y validación con los clientes. Dichos modelos deben ser lo más precisos y completos posibles, dado que a partir de ellos se elaboran otros modelos necesarios para un desarrollo de software robusto. A lo largo de casi dos décadas, diversos autores en la Ingeniería de Requisitos han utilizado un modelo léxico con diferentes propósitos. Se han realizado varios estudios para establecer el grado de completitud del modelo léxico construido, obteniéndose en todos los casos un número excesivo de omisiones. En el presente trabajo, se ha detectado que varias de estas omisiones no eran efectivamente tales, y sólo contribuían a distorsionar los resultados de completitud obtenidos. Este hallazgo permitirá mejorar el método de estimación de completitud y, principalmente, establecer mejoras en la construcción del modelo léxico. Keywords: Ingeniería de Requisitos, Modelado de Requisitos, Completitud de Modelos, Léxico Extendido del Lenguaje. 1 Introducción En muchos de los procesos de requisitos propuestos por diversos autores [1] [2] [3] [4] [5] [6] [7] [8] se incluye la creación de un glosario como una de las actividades iníciales del mismo. Estos glosarios contienen los términos relevantes utilizados por los clientes del futuro sistema de software. El objetivo de estos glosarios es, en primer lugar, facilitar la comprensión del vocabulario del contexto del cual ha surgido la necesidad de un nuevo sistema [9]. Subsidiariamente, estos glosarios se utilizan para reforzar la legibilidad por parte de los clientes de los documentos que se generen [2] [4] [5]. Adicionalmente, suelen ser utilizados por los propios ingenieros de requisitos, como una fuente sólida de conocimiento para iniciar el estudio de ese contexto que define y condiciona las características del futuro sistema de software. Que un glosario sea una fuente de conocimiento es un hecho muy conocido en el dominio de la lingüística [10] [11]. Como ejemplo de esto es apropiado utilizar una vez más el muy conocido hecho que en algunas lenguas orientales, como el mandarín, taiwanés y otros, existen muchas palabras para arroz; en particular, hay 50 palabras en mandarín [12]. Esto se debe a que estas culturas tienen mucho para decir acerca del arroz y necesitan una gran precisión en el lenguaje para poder hacerlo. Un fenómeno parecido II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1286
  • 18. ocurre cuando en un texto o en un discurso se necesitan introducir nuevos conceptos; necesariamente el autor o el orador deben recurrir a la definición de los términos significativos que le permitirán introducir esos conceptos en forma precisa [13]. Retornando al uso de glosarios en el proceso de requisitos, estos enfoques proveen un punto de vista divergente de los clásicos enfoques top-down o bottom-up. Empezar por una revisión de un glosario no implica estudiar los inacabables detalles que se abordan en un enfoque bottom-up, ni procurar comprender la esencia del objeto de estudio a través de una visión panorámica. Por el contrario, empezar por un glosario significa aprovechar las abstracciones conceptuales ya realizadas por los hablantes de donde se extrajo ese glosario. Esto es notablemente importante ya que la información obtenida por este medio es más sencilla de obtener y más valiosa. De alguna manera podría decirse que de un glosario se obtiene información más concentrada y, por lo tanto, más útil para el proceso de requisitos. Sin embargo, no todo son loas al trabajar de esta manera. Aparece claramente la duda de la calidad del material de origen, es decir, la calidad del glosario. Y es aquí donde surge el aspecto más importante e insidioso de esa duda acerca de la calidad: la completitud del glosario. Omisiones en el glosario son entonces potenciales omisiones en el resto de los artefactos generados en las actividades del proceso de requisitos y en los requisitos mismos. En el presente artículo se revisan los resultados obtenidos a lo largo de varios proyectos en los que se abordaron diferentes formas de estimar la completitud de glosarios [14] [15] [16] [17] y se presentan nuevas visiones que aclaran en forma notoria los resultados de dichos trabajos, llegándose a caracterizar varias de las causas esenciales que provocan las omisiones observadas. En la sección siguiente se introduce el tema de completitud en los modelos de requisitos, en la sección 3 se presenta el trabajo realizado y en la sección 4 las conclusiones. 2 Completitud del Modelo Léxico Los estudios sobre la completitud de glosarios fueron realizados en el marco de un proceso de requisitos cuya primera actividad consiste en construir un modelo denominado Léxico Extendido del Lenguaje (LEL), procediendo inmediatamente a estudiar el contexto de donde surge la necesidad del sistema, guiado por el LEL [18] [19]. Los componentes del modelo LEL son el nombre del término, la noción y el impacto. En la noción se registra el significado o denotación del término y en el impacto se registra la connotación del mismo. La evolución del modelo LEL y de sus usos, desde su presentación [9] hasta el presente, ofrece algunos aspectos muy valiosos. En [20] se propusieron unas heurísticas para la construcción del LEL, que no fueron objetadas ni modificadas pese a haberse encontrado numerosos usos para este modelo [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33]. Algunos de estos usos son aplicaciones directas, sin modificaciones del modelo aunque con diferentes propósitos, mientras que otros usos modifican ligeramente el modelo. Sábat Neto [21] definió un glosario usando el modelo LEL, que registra la terminología relativa a requisitos no funcionales. Breitman y Leite [22] han presentado un proceso de construcción de una ontología de aplicación web a partir de un LEL. Leonardi y Leite [23] [34] han definido una estrategia para identificar reglas del negocio, en base II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1287
  • 19. a patrones, relacionándolas con las entradas de un LEL creado previamente. Fiorini et al. [25] han mostrado un enfoque sistemático para la descripción, almacenamiento y reuso de procesos, donde mediante patrones de proceso, marcan frases especiales del LEL. Ravid et al. [26] construyeron prototipos de requisitos por medio de escenarios (que denominan “escenarios de casos de uso”), creando simultáneamente un LEL. Mauco et al. [29] [30] han propuesto un conjunto de heurísticas para derivar especificaciones formales escritas en el lenguaje de especificación RAISE a partir de modelos del LEL y de escenarios. Hadad et al. [Hadad 08] han presentado una heurística para derivar casos de uso a partir del LEL, junto con una herramienta que permite su creación. Leonardi et al. [32] construyeron una herramienta semiautomática para derivar diagramas de clases del universo de discurso a partir del LEL. Antonelli [35] ha propuesto una estrategia para identificar características transversales utilizando el LEL. Concurrentemente con estos trabajos, los primeros estudios de completitud del LEL [14] [15] comenzaron a crear dudas acerca de la calidad del mismo y de las heurísticas de construcción, al comprobar que diferentes ingenieros de requisitos, todos siguiendo las mismas heurísticas, llegaban a obtener LELs muy diferentes [17]. La completitud es una de las propiedades consideradas imprescindibles, tal es así que el estándar IEEE 29148 [36] la considera como una de las propiedades fundamentales que debe cumplir cada requisito individualmente y el conjunto de requisitos de software como un todo. Estudiar la completitud en la ingeniería de requisitos implica verificar si se ha elicitado y modelado toda la información perteneciente al contexto donde el sistema de software se implantará. El objetivo en un proyecto de software es obtener sistemas de software “idealmente” completos que respondan a todas las necesidades de los clientes. La incompletidud en procesos de requisitos fue estudiada por Firesmith [37], quien investigó el significado de la completitud y estableció algunos parámetros para prevenir la obtención de especificaciones de requisitos incompletas. El enfoque de Firesmith y el de Litvak et al. [15] [16] difieren en el sentido que Firesmith propugna una visión conceptual de la completitud mientras que los otros trabajos aspiran a desarrollar estrategias que permitan estimar la completitud y eventualmente actuar sobre sus causas. En el primer trabajo realizado por Doorn y Ridao [14] [38], se aplicó el método de captura-recaptura [39], utilizando la adaptación denominada Detection Profile Method [40], para predecir el número de elementos faltantes en el LEL y en escenarios, donde concluyeron que al aumentar el número de elicitadores (ingenieros de requisitos) la cantidad de elementos estimados se acercaría significativamente a la cantidad realmente existente en el dominio del problema. Para realizar este trabajo, dispusieron de nueve muestras del LEL desarrolladas sobre el mismo caso de estudio (ver 2ª columna de Tabla 1). El estudio presentado por Litvak et al. [15] aplicó también Detection Profile Method [40] incorporando correcciones semánticas previas a la aplicación de dicho método. En el trabajo posterior [16], se presentaron una serie de correcciones semánticas más refinadas, donde se estudió la relevancia, pertenencia, sinonimia y homonimia del contenido textual del modelo y se compararon con los resultados de los trabajos precedentes, concluyendo que se logró una mejor estimación de la completitud de modelos en lenguaje natural. En dicho estudio, el análisis semántico se realizó en dos etapas: una primera etapa entre los elementos de II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1288
  • 20. una misma muestra del LEL (intra-análisis), estudiando pertenencia, relevancia y redundancia de cada término, y una segunda etapa comparando los elementos entre las muestras (inter-análisis), estudiando sinónimos y homónimos (ver 3ª columna de Tabla 1). A fin de profundizar las comparaciones semánticas del estudio realizado, se agregaron nuevos léxicos del mismo caso de estudio, con un proceso de construcción más cuidado. En dicho nuevo trabajo [17], se comprobó que diferentes grupos de ingenieros trabajando sobre un mismo problema encuentran en el mejor de los casos sólo el 50% de los elementos del modelo. Los resultados obtenidos llevaron a la necesidad de profundizar la investigación y, por consiguiente, al presente trabajo (ver 4ª columna de Tabla 1). 3 Mejoras en la Estimación de Completitud Los resultados sobre completitud presentados en [14] y los obtenidos posteriormente al incorporar correcciones semánticas [16] [17] son cuanto menos alarmantes. Habiéndose estimado un nivel de incompletitud del 50% o superior, entonces si estas cifras son correctas, el modelo utilizado es inaceptable. Reconsiderando todos los aspectos del problema, apareció como muy probable que las cifras obtenidas hayan sido sobreestimadas. Es así que se incorpora a este estudio la hipótesis que existen omisiones aparentes. Realmente esta suposición existió en forma algo confusa en [16]. En los estudios y trabajos posteriores, que sustentan el presente artículo, esta hipótesis fue central en todo momento. Es así que una de las principales tareas consistió en distinguir las omisiones aparentes de las omisiones reales, siendo: Omisiones aparentes: aquellas detectadas como omisiones por la forma en que se realizaron las capturas. Omisiones reales: aquellas que se refieren a la ausencia de una unidad de información en el documento bajo estudio. Obviamente, es necesario reducir o eliminar las omisiones aparentes para lograr que las estimaciones de completitud sean correctas y descubrir las causas de ambos tipos de omisiones para luego desarrollar LELs con un grado de completitud alto. Esta visión ideal, consistente en perfeccionar la herramienta empleada en el estudio del problema para luego aplicarla, no ha podido ser llevada a la práctica. Esto se debe a que el análisis de cada aspecto del problema ha llevado, en la mayoría de los casos, a descubrir simultáneamente el origen esencial del defecto y la forma de corregirlo. En otras palabras, las mejoras logradas en la construcción del LEL se han producido en forma incremental y no se han concentrado ni en las omisiones aparentes ni en las omisiones reales, sino que se refieren a ambas. 3.1 Mejora de las Comparaciones Los resultados obtenidos en trabajos anteriores [14] [15] [16] [17], si bien fueron promisorios, hicieron evidente la necesidad de reducir el tamaño de las unidades comparadas entre las muestras del LEL. Esto se debió principalmente a la presencia de sentencias largas que tenían dos o más enunciados empotrados en ellas. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1289
  • 21. La nueva propuesta consistió en incorporar al análisis semántico un análisis gramatical de cada sentencia del modelo LEL. Entonces, se comparó semántica y gramaticalmente el contenido de las muestras disponibles. Para cada término de una muestra, se consideró su noción e impacto como un conjunto de sentencias. En detalle: • Se organizó gramaticalmente todo el conjunto de sentencias en Sujeto, Verbo y Resto del Predicado, buscando quién era realmente el sujeto en cada caso. Aquí se consideraron las sentencias con Sujeto tácito. Si dicho Sujeto era el mismo término del LEL, éste fue agregado. Si dicho sujeto se podía sobreentender, fue agregado. • En los casos de sentencias subordinadas (o sea, contenidas en otras sentencias), se las desdobló y consideró individualmente, aplicando la misma acción del paso anterior sobre cada sentencia resultante. • Respecto de los verbos, se ignoraron las diferencias por conjugaciones y tiempos verbales. Se consideraron también los sinónimos existentes de dichos verbos. • Se convirtieron las sentencias que estaban en voz pasiva en voz activa. 3.2 Presencia de Jerarquías en el LEL Una segunda mejora en las comparaciones se logró estudiando con cuidado las jerarquías presentes en el LEL. El primer aspecto a ser considerado en relación con las mismas, es que en el LEL se pueden observar tanto jerarquías completas como jerarquías incompletas (ver Figura 1). A veces esto ocurre por defectos en la construcción del LEL y otras veces porque corresponde que sea así dada la estructura lingüística propia del contexto bajo estudio. Fig. 1. Jerarquías entre Términos del LEL Puede ocurrir que uno de los términos especializados esté fuera del alcance del contexto bajo estudio y, por ende, no sea un término del LEL, por lo cual se tendrá II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1290
  • 22. una jerarquía incompleta (ver Figura 1.b). También puede ocurrir que el término genérico esté fuera del alcance del contexto entonces será una jerarquía incompleta sin padre (ver Figura 1.c). Si se extendiera el alcance del glosario, entonces todo genérico tendría a su vez un genérico de orden superior. Sin embargo, esto no prospera mucho en LELs reales, ya que la gran mayoría de las jerarquías tienen sólo dos niveles, siendo muy excepcionales los casos de jerarquías más profundas. Se presenta frecuentemente una situación errónea, donde el genérico es considerado sinónimo de un especializado (ver Figura 1.d). Se ha descubierto que la existencia de jerarquías entre términos del LEL es un fuerte inductor de errores sutiles en los que un impacto correcto se desplaza incorrectamente entre los especializados y los genéricos. 3.3 Algunos Tipos de Omisiones Algunos ejemplos de tipos de omisiones halladas durante el presente trabajo se muestran en la Tabla 1. La 4ª columna de la Tabla 1 muestra en forma evidente la mejora en la detección de las omisiones reales y la reducción de las omisiones aparentes, frente a los trabajos realizados previamente, que utilizaron comparaciones solo sintácticas [14] o comparaciones solo semánticas [15][16][17]. Tabla 1. Ejemplos de omisiones halladas durante este estudio. Comparación sintáctica [14] Primera comparación semántica[15][16][17] Comparación actual semántica y gramatical Unidad de Comparación Nombre del término Término con noción e impacto como un todo Sentencia desagregada de noción e impacto Migración del impacto de un término existente a otro existente Omisión aparente de impacto, no detectada. Omisión aparente de impacto, no detectada. No hay omisión. Falta de un término con traslado de un impacto a otro Omisión aparente de impacto, no detectada. Omisión real de término detectada. Omisión aparente de impacto, no detectada. Omisión real de término detectada. Omisión real de término detectada. Sentencias contenidas en sentencias Omisión aparente de noción o impacto, no detectada. Omisión aparente de noción o impacto, no detectada. No hay omisión. Sinónimos no considerados Dos omisiones aparentes de términos. No hay omisión. No hay omisión. Término genérico como sinónimo de especializado Omisión real de término, no detectada. Omisión real de término, no detectada. Omisión real de término detectada. 4 Conclusiones Es conocido que el problema de completitud es de difícil abordaje. Más aún, se ha podido comprobar que en modelos construidos en lenguaje natural no sólo están II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1291
  • 23. ocultas las omisiones sino que también es complicado darse cuenta que las mismas puedan existir. En el caso del Léxico Extendido del Lenguaje se ha detectado reiteradamente la presencia de omisiones, pero es necesario aún mejorar los mecanismos de búsqueda y las heurísticas de construcción del modelo para reducirlas. Si bien es hoy conocido que las cifras presentadas en el primer estudio de completitud del LEL están sobredimensionadas, la alarma encendida en su oportunidad continúa vigente, ya que ninguno de los trabajos más meticulosos realizados posteriormente han descartado la existencia de omisiones en cantidad y calidad preocupantes. Se ignora la importancia de las omisiones reales y de algunas de las omisiones aparentes (por ejemplo, migración de impactos entre términos) sobre los modelos siguientes y finalmente sobre los requisitos mismos y sus atributos. Naturalmente, el estudio de estos aspectos es parte del trabajo futuro a ser encarado. Se planifica en un futuro próximo revisar las heurísticas de construcción del LEL bajo la óptica de este artículo y mejorarlas. Referencias 1. Constantine, L.: Joint Essential Modelling, User Requirements Modelling for Usability. Intl Conference on Requirements Engineering (Tutorial Notes), Colorado Springs, Constantine & Lockwood (1998) 2. Rolland, C., Ben Achour, C.: Guiding the construction of textual use case specifications. Data & Knowledge Engineering 25 (1998) 125–160. 3. Oberg, R., Probasco, L, Ericsson, M.: Applying Requirements Management with Use Cases. Rational Software Corporation (1998) 4. Alspaugh, T.A., Antón, A.I., Barnes, T., Mott, B.W.: An Integrated Scenario Management Strategy. Intl Symposium On Requirements Engineering, Irlanda, IEEE Computer Society Press (1999) 142-149 5. Regnell, B., Kimbler, K., Wesslén, A.: Improving the Use Case Driven Approach to Requirements Engineering. 2nd IEEE International Symposium on Requirements Engineering, Marzo 1995. Parte de Ph.D. Thesis: Requirements Engineering with Use Cases – a Basis for Software Development, Reporte Técnico 132, Paper I, Department of Communication Systems, Lund University (1999) 43–63 6. Whitenack, B.G. Jr.: RAPPeL: A Requirements Analysis Process Pattern Language for Object Oriented Development. Knowledge Systems Corp. (1994) 7. Jacobson, I., Booch, G., Rumbaugh, J., “The Unified Software Development Process”, Addison- Wesley, Reading, MA, 1º edición, Febrero 1999. 8. Díaz, I., Pastor, O., Moreno, L., Matteo, A.: Una Aproximación Lingüística de Ingeniería de Requisitos para OO-Method, VII Workshop Iberoamericano de Ingeniería de Requisitos y Desarrollo de Ambientes de Software, Arequipa, Perú (2004) 9. Leite, J.C.S.P.: Application Languages: A Product of Requirements Analysis. Computer Science Department of PUC-Rio, Brasil (1989) 10. Smeaton, A.F.: Natural Language Processing and Information Retrieval. Information Processing and Management, Vol. 26, Nº 1 (1990) 73–92 11. Briner, L.L.: Identifying Keywords in Text Data Processing, Directions and Challenges, 15th Annual Technical Symposium (1996) 85–90 12. Free Chinese & Japanese Online Dictionary, Oriental Outpost, http://www.orientaloutpost.com/shufa.php?q=rice, visitado 28/5/2014 13. Berry, D.M., Kamsties, E.: Ambiguity in Requirements Specification. En: Leite, J.C.SP., Doorn, J.H(eds): Perspectives on Software Requirements, Kluwer Academic Publishers, EEUU (2004) 7-44 14. Doorn, J.H., Ridao, M.: Completitud de Glosarios: Un Estudio Experimental. VI Workshop on Requirements Engineering, Brasil (2003) 317–328 15. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Un abordaje al problema de completitud en requisitos de software. XVIII Congreso Argentino de Ciencias de la Computación, Bahía Blanca (2012) 827–836 16. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Correcciones semánticas en métodos de estimación de completitud de modelos en lenguaje natural. XVI Workshop on Requirements Engineering, II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1292
  • 24. Montevideo, Uruguay (2013) 105–117 17. Litvak C.S., Hadad, G.D.S., Doorn, J.H.: Mejoras semánticas para estimar la Completitud de Modelos en Lenguaje Natural. Primer Congreso Nacional de Ingeniería Informática / Sistemas de Información, Córdoba (2013) 18. Leite, J.C.S.P., Hadad, G.D.S., Doorn, J.H., Kaplan, G.N.: A Scenario Construction Process. Requirements Engineering Journal, Springer-Verlag London Ltd., Vol.5, Nº1 (2000) 38-61 19. Leite, J.C.S.P., Doorn, J.H., Kaplan, G.N., Hadad, G.D.S., Ridao, M.N.: Defining System Context using Scenarios. In: Leite, J.C.S.P., Doorn, J.H. (eds): Perspectives on Software Requirements, Kluwer Academic Publishers, EEUU, ISBN: 1-4020-7625-8 (2004) 169-199 20. Hadad, G.D.S., Kaplan, G.N., Oliveros, A., Leite, J.C.S.P.: Construcción de Escenarios a partir del Léxico Extendido del Lenguaje. 26 JAIIO – Jornadas Argentinas de Informática, Simposio en Tecnología de Software, Buenos Aires (1997) 65–77 21. Sábat Neto, J.M.: Integrando Requisitos Não Funcionais à Modelagem Orientada a Objetos. M.Sc. Dissertation, Computer Science Department of PUC-Rio, Brasil (2000) 22. Breitman, K.K., Leite, J.C.S.P.: Ontology as a requirements engineering product. 11th IEEE Intl Conference on Requirements Engineering, EEUU, IEEE Computer Society (2003) 309-319 23. Leonardi, M.C.: Una Estrategia de Modelado Conceptual de Objetos basada en Modelos de Requisitos en Lenguaje Natural. M.Sc. Dissertation, Universidad Nacional de La Plata, Argentina (2001) 24. Pimenta, M.S., Faust, R.: Eliciting Interactive Systems Requirements in a Language-Centred User- Designer Collaboration: A Semiotic Approach. Special Issue on HCI and Requirements of ACM SIGCHI Bulletin, Vol.29, Nº1 (1997) 61-65 25. Fiorini, S.T., Leite, J.C.S.P., Lucena, C.J.P.: Reusing Process Patterns. 2nd International Workshop on Learning Software Organizations, Oulu-Finlandia (2000) 19-37 26. Ravid, A., Berry, D. M.: A Method for Extracting and StatingSoftware Requirements that a User Interface Prototype Contains, Requirements Engineering Journal, Springer-Verlag, Vol.5, Nº4 (2000) 225-241 27. De Bortoli, L.Â, Alencar Price, A.M.: O Uso de Workflow para Apoiar a Elicitação de Requisitos. III Workshop de Engenharia de Requisitos, Río de Janeiro, Brasil (2000) 22-37 28. Estrada, H., Martínez, A., Pastor, O., Ortiz, J., Ríos, O.A.: Generación Automática de un Esquema Conceptual OO a Partir de un Modelo Conceptual de Flujo de Trabajo. IV Workshop on Requirements Engineering, Buenos Aires ( 2001) 223-245 29. Mauco, M.V., George, C.: Using Requirements Engineering to Derive a Formal Specification. Reporte Técnico Nº 223, UNU/IIST, P.O. Box 3058, Macau (2000) 30. Mauco, M.V., Riesco, D., George, C.: Heuristics to Structure a Formal Specification in RSL from a Client-oriented Technique. 1st Annual Intl Conference on Computer and Information Science, ISBN: 0-9700776-2-9, Florida, EEUU (2001) 31. Hadad, G.D.S., Migliaro, A., Grieco, N.: Derivar casos de uso de un glosario. XIV Congreso Argentino de la Ciencia de la Computación, ISBN: 978-987-24611-0-2, La Rioja (2008) 722-734 32. Leonardi M.C., Ridao M., Mauco M.V., Felice L., Montejano G., Riesco D., Debnath N.: An ATL Transformation from Natural Language Requirements Models to Business Models of a MDA Project. 11th International Conference on Telecommunications for Intelligent Transport Systems, Rusia (2011) 33. Antonelli, R.L., Rossi, G., Leite, J.C.S., Oliveros, A.: Buenas prácticas en la especificación del dominio de una aplicación. 16th Workshop on Requirements Engineering, Uruguay (2013) 34. Leite J.C.S.P, Leonardi, M.C.: Business rules as organizational Policies. IEEE Ninth International Workshop on Software Specification and Design, IEEE Computer Society Press (1998) 68-76 35. Antonelli, R.L.: Identificación temprana de características transversales en el lenguaje de la aplicación capturado con el Léxico Extendido del Lenguaje. Tesis de Doctorado, Facultad de Ciencias Informáticas, Universidad Nacional de La Plata (2012) 36. IEEE 29148-2011: IEEE Systems and software engineering - Life cycle processes - Requirements engineering, IEEE, Nueva York (2011) 37. Firesmith, D.: Are Your Requirements Complete? Journal of Object Technology, Vol.4, Nº1 (2005) 27–43 38. Ridao, M., Doorn, J.H.: Estimación de Completitud en Modelos de Requisitos Basados en Lenguaje Natural. IX Workshop on Requirements Engineering, Brasil (2006) 151–158 39. Otis, D.L., Burnham, K.P., White, G.C., Anderson, D.R.: Statistical inference from Capture on Closed Animal Populations. Wildlife Monograph, 62 (1978) 40. Wohlin, C., Runeson, P.: Defect content estimations from Review Data. 20th Intl Conference on Software Engineering, Japón (1998) 400–409 II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1293
  • 25. Análisis de desempeño de algoritmos de detección automática. Caso de estudio: detección de la capa esporádica E Maria G. Molina1,2 , Enrico Zuccheretti3 , Bruno Zolesi3 , Cesidio Bianchi3 , Umberto Sciacca3 , James B. Ariokasami3 ,Miguel A. Cabrera1 1 Laboratorio de Telecomunicaciones, Facultad de Ciencias Exactas y Tecnlogia (FACET), Universidad Nacional de Tucuman (UNT), Av. Independencia 1800, Tucuman, Argentina, gmolina@herrera.unt.edu.ar 2 Departamento de Ciencias de la Computacion, FACET, UNT, Av. Independencia 1800, Tucuman, Argentina, gmolina@herrera.unt.edu.ar 3 Istituto Nazionale de Geofisica e Vulcanologia, Via di Vigna Murata, Roma, Italia. enrico.zuccheretti@ingv.it Resumen. Actualmente gran parte de las mediciones ionosféricas se realizan mediante el uso de un radar HF denominado sondador ionosférico. Este equipo transmite pulsos cortos de señales de radio hacia los estratos de la alta atmósfera terrestre conocida como la ionosfera donde son reflejados y posteriormente recepcionados. Medir el tiempo de retardo entre la transmisión de la señal y la recepción de la misma permite estimar la altura virtual a la cual se produjo la reflexión. En este trabajo se realiza el estudio comparativo de algoritmos de detección en particular para la capa esporádica E. Se usaron algoritmos de umbral fijo, CA-CFAR (cell averaging- constant false alarm rate) y OS-CFAR (order statistics-constant false alarm rate). Los resultados preliminares muestran un comportamiento más robusto en el caso de OS-CFAR respecto a los otros dos algoritmos. Este trabajo muestra resultados parciales sobre estudios científicos aplicados a la detección de capas ionosféricas y por lo tanto es conveniente en el futuro realizar un estudio mas exhaustivo. Palabras Clave: Algoritmos, Detección automática, Radar, Sondador ionosférico. 1 Introducción Actualmente gran parte de las mediciones de parámetros ionosféricos se realizan mediante el uso de un sondador ionosféricos o ionosonda, el que básicamente es un II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1294
  • 26. radar en banda de HF. Este sistema transmite cortos pulsos de portadoras moduladas mediante un sistema de antenas con lóbulo de radiación orientado verticalmente hacia los estratos de la atmósfera superior terrestre y mide el retardo de las señales reflejadas por los estratos ionosféricos. Si es posible estimar el tiempo entre la transmisión de la señal y la recepción de la misma, entonces es posible estimar la altura en la cual se produjo la reflexión. Este tipo de sondaje es el denominado sondaje vertical y una vez realizado, mediante algoritmos de detección es posible determinar el tiempo de retardo y con ello la altura virtual de los estratos ionosféricos. Si se realizan sondajes continuos utilizando frecuencias entre 1 y 20 MHz, es posible obtener una representación grafica de la altura virtual en función de la frecuencia que se denomina ionograma. En este trabajo se estudió del comportamiento de diferentes algoritmos de detección analizando el caso de la capa esporádica E. Para ello se utilizaron datos obtenidos mediante el sondador ionosférico AIS-INGV (Advanced Ionospheric Sounder – Instituto Nazionale di Geofisica e Vulcanologia) en el observatorio ionosférico de Roma (41.8 N, 12.5 E) durante Marzo de 2014. Los sondajes fueron realizados a una frecuencia fija de 3 MHz en horario diurno donde típicamente se forma el estrato Es (capa esporádica E). La comparación se realizó utilizando los algoritmos usando umbral fijo, CA-CFAR (cell averaging- constant false alarm rate) y OS-CFAR (order statistics-constant false alarm rate). Los resultados preliminares muestran un comportamiento más robusto en el caso de OS-CFAR respecto a los otros dos algoritmos. Este trabajo es parte de un estudio mas amplio sobre detección de capas ionosféricas y por lo tanto es conveniente en el futuro realizar un estudio mas exhaustivo. 2 Estratos ionosféricos y las telecomunicaciones Se puede definir a la ionósfera como una parte de la atmósfera terrestre donde iones y electrones están presentes en cantidades suficiente como para afectar la propagación de ondas electromagnéticas. Es la región de espacio localizada aproximadamente entre los 50 y 1000 km por encima de la superficie de la tierra y es la porción más alta de la atmósfera. Absorbe grandes cantidades de la energía radiante del sol, mediante procesos de disociación e ionización de distintas especies moleculares y atómicas que constituye la atmosfera terrestre. En este proceso se generan iones y electrones libres y se produce la absorción de la radiación letal para la vida en la tierra. La ionósfera no es uniforme, existiendo gradientes verticales de temperatura y densidad, o sea, está estratificada. Las regiones de la ionósfera varían en altura y en densidad de ionización con la hora del día, fluctúan con un patrón cuasi cíclico todo el año y de acuerdo con el ciclo de manchas solares de once años [1]. No existe una separación total entre sus regiones, sino un cambio en la densidad numérica de cargas, lo que marca la diferencia entre ellas. Así se pueden clasificar las distintas regiones como sigue: la región D está comprendida entre los 60 y los 90 km de altura, el orden de magnitud de la densidad electrónica es de 102 a 104 cm-3 , la región E, entre 105 y 160 km con densidad electrónica del orden de 105 cm-3 y la II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1295
  • 27. región F sobre los 180 km, con densidad del orden de 105 a 106 cm-3 . Esta última región tiene un pico de densidad máxima a una altura del orden de los 300 km. En los sistemas de comunicación de radio, las ondas se pueden propagar de varias formas, dependiendo del tipo de sistema y del ambiente. Si bien las ondas electromagnéticas viajan en línea recta, esta trayectoria puede ser alterada por el medio en el que se trasladan. Estas desviaciones en la trayectoria de la señales de radio influyen directamente en las radiocomunicaciones [1]. Dependiendo de cuán ionizada esté la ionósfera, las comunicaciones se ven afectadas en mayor o menor medida. Muchos sistemas de comunicación utilizan la ionósfera como medio para transmitir ondas de radio a grandes distancias. Algunas frecuencias de radio son absorbidas y otras reflejadas, lo que hace que las señales fluctúen con rapidez y que sigan rutas de propagación inesperadas. Las comunicaciones aero- terrestres, barco-puerto, las estaciones de radio de onda corta y algunas frecuencias de radio aficionados se ven afectados frecuentemente. En los últimos años los estudios de la ionósfera han despertado un renovado interés debido a que este medio interrumpe o modifica la fase y amplitud de las señales de comunicación en la banda L, como la de los sistemas de posicionamiento global, GLONAS, GPS, GALILEO, etc. 3 Detección automática de ecos ionosféricos Una de las funciones principales que debe llevar a cabo un radar es la detección del denominado blanco. Esta función no se realiza en un único paso sino que en general se puede realizar como una serie de etapas que dependen de las características del blanco [2]. En el caso del sondador ionosférico el blanco es la ionosfera que en un periodo corto de tiempo puede suponerse como un blanco no fluctuante [1]. El proceso comienza con la codificación de una señal portadora s(t) utilizando un código binario complementario C[t]. Luego esta señal codificada Tx(t) es enviada a la ionosfera y posteriormente recepcionada Rx(t). En un paso sucesivo, donde se da inicio al proceso de detección, esta señal será muestreada en cuadratura (I[t], Q[t]) y luego correlacionada con el código local (código original al momento de la codificación de la portadora). Con el fin de mejorar la relación señal a ruido, este proceso se integra coherentemente para varios pulsos [3]. En la Fig. 1 se muestra un esquema simplificado en las etapas de detección del sondador ionosféricos AIS- INGV. Luego de ser correlacionada e integrada coherentemente a la señal se le aplica algún algoritmo de detección automática que permita decidir si una determinada muestra es un eco o solo es producto de ruido o interferencia. Para ello es necesario establecer un valor de umbral de modo que toda medición que exceda este umbral será declarada como blanco. Existen numerosos algoritmos para la detección automática de blancos, cada uno trata de sortear numerosos problemas de detección que dependen de las características estadísticas de las señales y de los blancos. En el caso del sondador ionosféricos se probó el desempeño de tres algoritmos. Primero se estableció un umbral fijo (TFix) que se calculo usando todas las muestras II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1296
  • 28. de la señal. Para el cálculo del umbral se utilizo como estadística el valor promedio de todas las amplitudes de la señal. En segundo término se utilizo una ventana móvil alrededor de cada muestra para calcular las estadísticas usando también el promedio. La diferencia es que la ventana de tamaño N menor al total de muestra varía según la muestra que se trate obteniendo así un valor variable de umbral. Este algoritmo es conocido en la literatura de radares como CA-CFAR (Cell Averaging- Constant False Alarm Rate)[2] [4]. Por ultimo se utilizó el denominado algoritmo OS-CFAR (Order Statistics-Constant False Alarm Rate) el cual utiliza también una ventana móvil de tamaño N. En este caso las estadísticas se calculan ordenando las amplitudes en dicha ventana y seleccionando el k-esimo valor como representativo del nivel de interferencia alrededor de la muestra de interés. Si se elije el valor k-esimo como N/2, entonces la estadística utilizada es similar a una media móvil [2] [4]. 4 Datos y resultados Desde el punto de vista de la detección, dentro de una señal reflejada por un estrato ionosférico, una de las tareas mas complejas es la de estimar la altura de la capa ] [ C Correlación e Integración Coherente ] [ ], [ t Q t I ) (t Rx Muestreo en Cuadratura t Ionósfera ) (t Tx Portadora ) (t s Generador Código Complementario Obtención pico del eco y Estimación de la Altura Virtual 72 221.7 371.4 521.1 670.8 820.5 200 600 1000 1400 1800 Km Figura 1. Esquema de las etapas de detección de ecos del sondador ionosférico AIS-INGV. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1297
  • 29. esporádica E. Esto sucede a bajas alturas y en general los ecos provenientes de esta capa suceden en horario diurno, por lo tanto se realizaron sondajes diurnos a una frecuencia fija de 3 MHz. A fin de probar los algoritmos propuestos se realizó una campaña de recolección de datos por un periodo de tres días realizando sondajes cada dos minutos. La obtención de datos sin procesar se realizó en el observatorio ionosférico de Roma utilizando el sondador AIS-INGV (Marzo de 2014). Una de las situaciones típicas observadas ocurre cuando una porción de energía de la onda electromagnética transmitida es reflejada en la capa Es mientras que otra porción penetra más allá en altura hasta ser reflejada por la capa F. Desde el punto de vista de la detección ocurre que la energía retornada por la primera capa es inferior al resto y compite con ecos de mayor amplitud. Si el algoritmo utilizado para estimar el umbral usa todas las muestras que componen la señal, que es el caso de TFix, sucede que todas las amplitudes se encuentran en competencia y la detección de ecos más débiles como la capa E se ven afectados. En la Fig.2 se muestra un ejemplo de este caso. Si bien en el ejemplo todos los algoritmos detectan la capa E, TFix detecta levemente el pico. Mientras que los algoritmos CA-CFAR y OS-CFAR tienen una performance mejor, siendo este ultimo el que mejor provee información sobre el blanco. OS-CFAR además de detectar el pico del eco, muestra información de lo que sucede en los alrededores de este incluyendo información como la cantidad de muestras que componen el blanco. 100 200 300 400 500 600 700 800 10 15 20 25 30 35 km Amplitud Señal CA-CFAR OS-CFAR TFix 04/04/2014 17:52 UT 3.0Mhz Otro caso interesante ocurre cuando la capa E se encuentra bien definida y la señal transmitida incide prácticamente de manera vertical. En este caso el eco reflectado tendrá mayor energía de tal manera que puede ser reflejado nuevamente en tierra y reenviado hacia la ionosfera. Esto produce la aparición de múltiples reflexiones en los ionogramas. En la Fig. 3 se puede observar un caso con múltiples reflexiones. Respecto a los algoritmos de detección estudiados, se puede observar que nuevamente el algoritmo TFix ve disminuida su capacidad de detección debido a su característica global. El cálculo de estadísticas locales en ventanas móviles de los otros dos Fig. 2. Comparación de desempeño de los tres algoritmos propuestos para la detección de la capa E cuando compite con ecos de mayor amplitud. El eco alrededor de los 150 km corresponde a la capa Es. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1298
  • 30. algoritmos permite que el eco detectado no compita con la energía de otros ecos. Una vez mas el algoritmo OS-CFAR provee mayor información sobre el eco y sobre su forma. 100 200 300 400 500 600 700 800 5 10 15 20 25 30 35 km Amplitud COMPARACION ENTRE ALGORITMOS DE DETECCION Señal CA-CFAR OS-CFAR TFix 3.0Mhz 11/04/2014 18:22 UT 4 Conclusiones Se han presentado casos de estudio sobre detección de capas ionosféricas esporádicas utilizando algoritmos desarrollados a tal fin para ser utilizados en sistemas digitales de sondaje ionosférico. Una de las tareas mas complejas que debe realizar un algoritmo de detección automática es la de detectar ecos de baja energía comparada con otros ecos dentro de la misma señal. En este trabajo se analizaron numerosos casos y se ejemplificaron dos de ellos. En ambas situaciones se observaron los inconvenientes que posee el algoritmo de detección utilizando un único umbral fijo (TFix). Esto se debe a que para obtener este valor de umbral se recurre a calcular el valor promedio de todas las muestras incluyendo a aquellos ecos de gran amplitud. Esta condición global produce un valor de umbral más apto para ecos de gran amplitud y puede enmascarar ecos de menor energía como el caso de la esporádica capa E. La solución propuesta en este trabajo es obtener un valor de umbral variable que se calcule con valores promedios (CA-CFAR) de manera local alrededor del valor que se esta testeando. De esta manera, las muestras para calcular el promedio alrededor del eco en la mayoría de los casos no contendrán otro eco. Por esto, el valor del umbral en la posición del eco es menor que en sus alrededores permitiendo la detección del mismo. Esta condición de localidad permite que ecos de menor energía sean detectados. Si además se obtiene un umbral variable usando como estadística una media móvil alrededor de la muestra de interés, además se pueden eliminar problemas como el cálculo de un promedio sesgado. Al reordenar ascendentemente en amplitud Fig. 3. Comparación de desempeño de los tres algoritmos propuestos para la detección de la capa E en el caso de múltiples reflexiones. El eco alrededor de los 11 km corresponde a la capa Es. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1299
  • 31. las muestras en la ventana y elegir el valor medio (OS-CFAR), el cálculo de las estadística desestima los valores mas altos que pueden corresponder a ecos. De este modo se obtiene una mejor performance como se muestra en los ejemplos seleccionados. Este estudio fue realizado como parte de un estudio mas completo sobre detección de ecos ionosféricos sin embargo estos resultados parciales muestran la robustez del algoritmo OS-CFAR en las condiciones descriptas. Para completar estos resultados es preciso realizar un estudio más extenso de casos y de datos. Agradecimientos. Este trabajo ha sido subsidiado de manera parcial por el Instituto de Geofísica y Vulcanología-Italia a través de Proyecto Bec.ar y Proyecto PICT- 2011-1008. Referencias 1. Rishbeth, H., and O. K. Garriot. Introduction to Ionospheric Physics, Academic Press, England. (1969) 2. Richard, G.. Radar System Performance Modeling, 2nd. Edit., Ed. Artech House, Norwood, MA. (2005) 3. Ariokiasamy, James B., C. Bianchi, U. Sciacca, G. Tutone and E. Zuccheretti. The new AIS- INGV Digital Ionosonde. Desing Report, Sezione di Geomagnetismo, Aeronomia e Geofisica Ambientale, Istituto Nazionale di Geofisica e Vulcanologia (INGV), Roma, Italia (2003) 4. Skolnik, M. I.. Introduction to radar systems, Mc. Graw-Hill, Tokyo. (1980) II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1300
  • 32. Estudio sobre Eficiencia Energética en Esquemas de Apagado Selectivo para Redes de Telefonía Móvil Silvina A. Grupalli1,2, Martín G. Ferreyra1,3 y Miguel A. Cabrera1 1 Laboratorio de Telecomunicaciones, Depto. de Eléctrica, Electrónica y Computación (DEEC), Facultad de Ciencias Exactas y Tecnología (FACET), UNT. 2 Laboratorio de Instrumentación Industrial, DEEC, FACET, UNT. 3 Laboratorio de Física Experimental, Depto. de Física, FACET, UNT. sgrupalli@herrera.unt.edu.ar, mferreyra@herrera.unt.edu.ar, mcabrera@herrera.unt.edu.ar Resumen. En este trabajo se estudia cómo mejorar la eficiencia energética de una red de telefonía celular implementando un esquema de apagado selectivo de estaciones base (BS) para entornos urbanos de alta densidad. Como escenario se plantea una topología de red lineal, donde las BS se despliegan regularmente y los usuarios se distribuyen de manera uniforme, utilizando tecnologías 3G/4G con bandas de frecuencias admisibles en 900 MHz, 1900 MHz y 2100 MHz. Se analizan las relaciones entre potencias consumidas, ancho de banda disponible y porcentaje de apagado de la red mediante simulaciones basadas en el modelo de propagación COST 231-Walfisch-Ikegami. Por último se propone un indicador de eficiencia energética SG y se analizan los resultados obtenidos a partir del mismo. Palabras Clave:3G/4G, Apagado Selectivo, COST 231-Walfisch-Ikegami, Eficiencia Energética, Estaciones Base, Microceldas Celulares. 1 Introducción En la comunidad de redes móviles de última generación, existe una tendencia por parte de los operadores a tratar de reducir el consumo de energía de la red y a la implementación de redes que persiguen una reducción de la huella de contaminación ambiental manteniendo la calidad de servicio en función de los requerimientos de cobertura, capacidad y necesidades de los usuarios. Con este objetivo, se han instalado en los últimos años una mayor cantidad de estaciones base o “BS” (del inglés Base Station) para aumentar la capacidad de la red, que hoy representan alrededor del 80 % del total del consumo de energía de la red celular [1]. En este sentido, un camino eficaz para el ahorro energético en las redes celulares, es reducir el consumo de energía de las BS. Siendo que la carga de tráfico en las redes celulares fluctúa considerablemente debido a la alternancia de día y de noche, la movilidad del usuario y la naturaleza a ráfagas de las aplicaciones de datos [2] es necesario realizar el despliegue de las BS para satisfacer los requisitos de los usuarios respecto a la carga de tráfico pico. Sin embargo, esto causa que la mayoría de las mismas sean subutilizadas gran parte del tiempo, ya que la duración de la carga de tráfico pico suele ser bastante corta. Aun II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1301
  • 33. cuando la carga de tráfico es baja o incluso nula, una BS todavía consume gran parte de la energía pico, lo que significa que el consumo de energía de la misma no es proporcional a la carga de tráfico y gran parte de la energía se desperdicia durante el período de tráfico bajo. En los últimos años se han realizado varios estudios que trabajan en la desconexión de BS, centrados principalmente en la fase de funcionamiento de la red [3] - [8]. Otras líneas abordan la optimización del consumo de energía mediante umbrales de tráfico para la desconexión de la BS y evalúan el ahorro energético utilizando de los modos de suspensión [9]. Estudios más recientes intentan reducir el consumo de energía suponiendo que el tráfico de datos se mantiene siempre en el valor de pico y proponen que las estaciones base se pueden apagar selectivamente cuando la carga de tráfico es baja [10]. Hasta ahora, los escenarios planteados para el estudio de apagados selectivos, se sitúan en zonas urbanas y suburbanas desplegando un conjunto de macro celdas con amplios rangos de cobertura. Sin embargo existen escenarios urbanos más reducidos, con radios de cobertura críticos donde también es posible plantear un esquema de optimización de los recursos energéticos sin alterar la calidad de los servicios al usuario final. En este trabajo se estudia el problema de cómo implementar BS mejorando la eficiencia energética de la red, a partir de un modelo de apagado selectivo que se ajuste a este tipo de entornos. Para ello se ha considerado una topología de red lineal de BS homogéneas desplegadas regularmente y con usuarios distribuidos de manera uniforme. Se propone un escenario situado en un entorno urbano de alta densidad, donde red celular se implementa sobre tecnologías 3G/4G con bandas de frecuencias admisibles en 900 MHz, 1900 MHz y 2100 MHz. 2 Modelo de Apagado Selectivo El planteo de este modelo considera una red celular lineal como se muestra en la Fig. 1, donde un conjunto de BS homogéneas se despliegan con regularidad a lo largo de una línea, siendo d0 la distancia entre las mismas. Se asume que todas las BS tienen igual potencia de transmisión máxima Pt max y ancho de banda AB. Fig. 1. Red celular lineal homogénea desplegada regularmente Para cada BS se definen dos estados: Modo activo: con consumo de energía Pa (Potencia con BS Activa) y Modo de reposo: con el consumo de energía Ps (Potencia con BS Pasiva). Se asume que cada dispositivo móvil tiende a asociarse con la BS más cercana. La región de cobertura de cada BS está definida como una celda y la red puede ser dividida en N celdas del mismo tamaño. El tráfico en la red se distribuye uniformemente en función de las BS activas. La red posee N+1 estados, donde cada uno de ellos puede representarse como m, siendo m = {0, 1, … , N}. Cada estado corresponde a una cierta proporción de estaciones de base en modo activo y otras en modo de reposo. Para cada estado se define una distancia intercelda, que representa la II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1302
  • 34. distancia media entre dos celdas activas. Suponiendo una red suficientemente extensa (N∞), la potencia se evalúa por unidad de longitud utilizando la siguiente ecuación: . . (1) Donde representa el porcentaje de BS activas y 0 la unidad de longitud por la que se evalúa la potencia. Fig. 2 Estados de la red en tres condiciones de pagado selectivo: a) m=0 ; b) m=1 ; c) m=2 Existen dos esquemas básicos para el modelo de apagado:  Apagado en modo de suspensión (o Standby): En este modo la BS queda fuera de servicio mediante el apagado de los amplificadores de potencia, quedando aún activos los equipos auxiliares (refrigeración, procesadores, fuentes de alimentación, etc.). La Ps alcanza valores de hasta un 40 % de la Pa [11]. Este tipo de apagado selectivo es el más utilizado en las investigaciones abordadas hasta el momento.  Apagado Selectivo del Sitio Completo (o Switch Off): Consiste en la desconexión completa del sitio quedando activos solo los elementos necesarios para su reencendido. En este modo, el valor de Ps es prácticamente nulo. 3 Modelo COST 231 Walfisch-Ikegami El modelo híbrido de propagación COST 231 Walfisch-Ikegami, es utilizado para realizar predicciones y estudios de cobertura en redes de telefonía celular de corto alcance (microceldas) dentro de los márgenes de frecuencias 900 MHZ, 1800MHz y 2100MHz. El modelo contempla dos opciones para el cálculo de las pérdidas de propagación, LOS (“Line of Sight”, línea de visión directa entre el transmisor y el receptor) y NLOS (“No Line of Sight”, no existe línea de visión directa entre el transmisor y el receptor) y además define los siguientes parámetros: hb[m]: Altura de la estación base a nivel de tierra , hm[m]: Altura de la estación móvil a nivel de tierra, hr[m]: Altura media de los edificios, w [m]: Ancho de la calle donde se encuentra la estación móvil, b [m]: Promedio de la distancia entre centros de edificios, d [Km]: Distancia entre la estación base y móvil,  [°]: Ángulo del rayo con el eje de la calle, LO [db]: Pérdidas por el espacio libre, Lrts [dB]: Pérdida por difracción del techo a la calle y pérdida esparcida, Lmsd[dB]: Pérdida de difracción multipantalla y f [MHz]: Frecuencia de la portadora. II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1303
  • 35. Fig 3. Parámetros del Modelo COST 231 Walfisch-Ikegami Las pérdidas se modelan a partir de las siguientes ecuaciones: 1) En condiciones de LOS: 42.6 26 log 20 log (2) 2) En condiciones de NLOS: , 0 , 0 (3) Pérdidas por el espacio libre: 32.4 20 log 20 log (4) 16.9 10 log 10 log 20 log (5) Donde la pérdida por la orientación de la calle se corrige empíricamente según: 10 0.354 , 0°  35° 2.5 0.075  35 , 35°  55° 4.0 0.114  55 , 55°  90° (6) En la Tabla 1 se resume el rango de validez del modelo: Tabla 1. Rango de validez del modelo COST 231- Walfisch-Ikegami Frecuencia de la portadora f [800 : 2000] MHz Altura de la antena de BS hb [4:50] m Altura de la antena móvil hm [1:3] m Distancia del móvil a la BS d [0,02:5] Km Por las características y alcance descriptos en este modelo, la utilización del mismo resulta apropiado para el estudio predictivo de radios de cobertura en los escenarios previstos para este trabajo. 4 Descripción del Escenario Para este estudio se ha considerado una topología de red lineal donde las BS homogéneas se despliegan regularmente y los usuarios se distribuyen de manera uniforme. La misma se sitúa en una zona urbana de alta densidad donde las BS conforman una red de microceldas con radios de cobertura solapados en un porcentaje superior al 50% y con distancias interceldas de 100 m. El grado de solapamiento II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1304
  • 36. responde a condiciones de saturación de la BS, inherentes a redes urbanas altamente congestionadas, donde un dispositivo móvil se asocia a la estación que tiene disponibilidad de ancho de banda y no necesariamente a la que se encuentra a menor distancia. Debido a que la distancia intercelda es considerablemente baja, las potencias que maneja cada microcelda se encuentran entre 2 y 10 W. Este trabajo analiza tres condiciones posibles para las BS, operando a 2W, 5W y 10W respectivamente. La frecuencia de operación de la red se establece en 1900 MHz. En la Tabla 2 se resumen las características de recepción para el dispositivo móvil: Tabla 2. Características de recepción para el dispositivo móvil Ancho de Banda del Canal Ancho de Banda 20 MHz 10 MHz 5 MHz AB [Mb/s] Sensibilidad Rx [dbm] 4 -99,0 -99,0 -97,5 3,5 -99,8 -99,9 -98,4 3 -100,5 -100,8 -99,2 2,5 -101,3 -101,6 -100,6 2 -102,0 -102,5 -102,0 1,5 -102,5 -103,8 -103,5 1 -103,0 -105,0 -105,0 0,5 -103,8 -106,2 -108,0 0,25 -104,2 -107,0 -109,1 0,125 -104,4 -107,3 -110,0 5 Simulaciones Inicialmente se propone como parámetros del modelo COST 231 Walfisch-Ikegami los siguientes: f=1900 MHz; hb=30 m; hm=1,5 m ; hr=20m ; w=10 m ; b=20m. En la Fig. 4 se muestran las predicciones obtenidas por el mismo, en las condiciones descriptas y utilizando potencias de transmisión Pt igual a 2W, 5W y 10W respectivamente. Fig. 4. Predicciones del modelo COST 231 Walfisch-Ikegami utilizando potencias de transmisión Pt igual a 2W, 5W y 10W respectivamente. ‐118 ‐108 ‐98 ‐88 ‐78 0 100 200 300 400 500 Potencia en el Movil [dbm] Distancia desde el móvil a la BS [m] Predicciones de Cobertura de las BS Pt=10W Pt=5W Pt=2W II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1305
  • 37. Posteriormente se plantea el esquema de apagado de las BS desde 0 a 90%, lo que se traduce en un incremento de la distancia intercelda promedio a medida que éstas van quedando fuera de servicio. Combinando los resultados del modelo con las especificaciones de los dispositivos móviles enunciadas en la Tabla 2, se obtiene las curvas de la Fig. 5. Las mismas representan el máximo ancho de banda que puede alcanzar un dispositivo móvil ubicado a la distancia más desfavorable respecto de la BS a la que se encuentra asociado. Los cálculos fueron realizados contemplando canales de 5 y 10 MHz para potencias de transmisión Pt igual a 2W, 5W y 10W. (a) (b) Fig. 5. Ancho de banda máximo que puede alcanzar una estación móvil en el punto más desfavorable de la red como función del porcentaje de apagado de la misma, para ancho de canal de 5MHz en (a) y de 10 MHz en (b). Para poder comparar las variables de interés, se normalizan la potencia y el ancho de banda resultando Pmmax=1 y ABmax=1. Considerando que el esquema de apagado selectivo busca incrementar los rango de cobertura de cada microcelda como consecuencia de la disminución del tráfico, en la Fig.6 se plantean los siguientes resultados para un canal de 5MHz. Fig. 6. Comparación normalizada del ancho de banda, potencia consumida en modo de suspensión (StandBy) y potencia consumida en modo de apagado total del sitio (Switch off) como función del % de apagado de la red, para un ancho de canal = 5MHz y Pt=2W en (a), Pt=5W en (b) y Pt=10W en (c). 0 1 2 3 4 5 0 0,5 1 Ancho de banda [Mb/s] % de apagado de la red AB vs % de apagado para un ancho de canal de 5 Mhz Pt=10W Pt=5W Pt=2W 0 1 2 3 4 5 0 0,5 1 Ancho de banda [Mb/s] % de apagado de la red AB vs % de apagado para un ancho de canal de 10 Mhz Pt=10W Pt=5W Pt=2W II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1306
  • 38. 6 Estimación de la Eficiencia Energética en Función del Ancho de Banda Máximo Disponible Con el objetivo de cuantificar la eficiencia energética de la red, en este trabajo se establece el coeficiente SG como indicador de la relación ancho de banda disponible (AB) en función de la potencia consumida por las estaciones base por unidad de distancia en un esquema de apagado selectivo (Pm): (7) En la Fig. 7 se representa SG en función del porcentaje de apagado de la red. El valor máximo de cada curva establece el porcentaje para el cual se alcanza una máxima eficiencia energética en las condiciones estudiadas. Este indicador permite planificar el despliegue de una red de microceldas para atender las demandas de pico y generar un esquema de apagado selectivo que brinde la máxima eficiencia energética manteniendo la calidad de servicio al usuario final. Fig. 7. Coeficiente SG para distintas potencias de transmisión Pt y potencia total Pm en las modalidades del esquema de apagado selectivo de suspensión (Standby) y apagado total del sitio (Switch off). 7 Conclusiones En este trabajo se estudia cómo implementar BS mejorando la eficiencia energética de la red, a partir del planteo de un modelo de apagado selectivo que se ajusta a entornos urbanos de alta densidad. El concepto de microceldas con alto grado de solapamiento, se proyecta como solución para atender las demandas de pico en el tráfico de la red. Sin embargo, implica que una gran cantidad de puntos de transmisión quedan subutilizados cuando el tráfico de datos disminuye. En estas situaciones cobra 0,0 0,5 1,0 1,5 2,0 0 0,2 0,4 0,6 0,8 1 Coeficiente SG % de apagado de la red Coeficiente SG vs % de Apagado de la Red para Pt=2W, Pt=5W y Pt=10W Pm para Pt= 2W (Stby) Pm para Pt= 5W (Stby) Pm para Pt= 10W (Stby) Pm para Pt= 2W (SwOff) Pm para Pt= 5W (SwOff) Pm para Pt= 10W (SwOff) II Congreso Argentino de Ingeniería - CADI 2014 VIII Congreso Argentino de Enseñanza de la Ingeniería - CAEDI 2014 Cap 8: Tecnología de la Información y Comunicación Setiembre 2014 ISBN 978-987-1662-51-7 1307