θ            E       0 {ξ}                                                 ˜ − θ                                          ...
Teoría de Señales:           Fundamentos             Francisco Vargas         Universidad de Antioquia             Maurici...
ISBN: XXX-XXX-XXXX-XX-X                                     %$# !  Este libro está hecho con ayuda de                 y LT...
Probability is our evaluation supported by all what we know. It’s a situation that depends essentially   upon our incomple...
Prefacio           Flavio Prieto, Bogotá, 2010
IntroducciónE   n la actualidad, cada vez es más evidente la importancia en el uso apropiado de la información en los dive...
NotacionesNotación                     Significadox (a ,b ; s )                Señal x con parámetros a ,b y argumento sx ∗...
Índice general1. Representación de Señales y Sistemas                                                                     ...
VI                                                                                                                        ...
1                     Representación de Señales y SistemasU    na señal se puede definir como una función que conlleva info...
2                                                                                   Capítulo 1. Representación de Señales ...
1.1. Definiciones Básicas                                                                                                  ...
4                                                         Capítulo 1. Representación de Señales y Sistemas    – Sistema es...
1.1. Definiciones Básicas                                                                        51.1.2.   Proceso de señal...
6                                                                                                                         ...
1.1. Definiciones Básicas                                                                              7(1.6) y (1.7), cuya...
8                                                                         Capítulo 1. Representación de Señales y Sistemas...
1.1. Definiciones Básicas                                                                                         9Ejemplo ...
10                                                                       Capítulo 1. Representación de Señales y Sistemas1...
1.1. Definiciones Básicas                                                                         11clásicos de Lebesgue, e...
12                                                     Capítulo 1. Representación de Señales y Sistemasestá provisto del s...
1.1. Definiciones Básicas                                                                  13                              ...
14                                                                     Capítulo 1. Representación de Señales y SistemasDir...
1.2. Representación discreta de señales                                                                           151.2. R...
16                                                                                 Capítulo 1. Representación de Señales y...
1.2. Representación discreta de señales                                                                                   ...
18                                                                             Capítulo 1. Representación de Señales y Sis...
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
61729033 teoria-de-senales-funcadmentos
Próxima SlideShare
Cargando en…5
×

61729033 teoria-de-senales-funcadmentos

1.352 visualizaciones

Publicado el

0 comentarios
1 recomendación
Estadísticas
Notas
  • Sé el primero en comentar

Sin descargas
Visualizaciones
Visualizaciones totales
1.352
En SlideShare
0
De insertados
0
Número de insertados
2
Acciones
Compartido
0
Descargas
68
Comentarios
0
Recomendaciones
1
Insertados 0
No insertados

No hay notas en la diapositiva.

61729033 teoria-de-senales-funcadmentos

  1. 1. θ E 0 {ξ} ˜ − θ - c= θ E +T E ξ, η E h(t , τ) x∈ξ 1 z ˜ θ = h ∗z E η Teoría de Señales: FundamentosFrancisco Vargas, Mauricio Álvarez, Mauricio Orozco, Germán Castellanos 2010
  2. 2. Teoría de Señales: Fundamentos Francisco Vargas Universidad de Antioquia Mauricio Álvarez Universidad Tecnológica de Pereira Mauricio Orozco, Germán CastellanosUniversidad Nacional de Colombia, Manizales 2010 Sección de Publicaciones e ImagenUniversidad Nacional de Colombia, Manizales §¥ ¡ £¦ ¨¡ ¨¦ © ¨§¤¥¦¥¤£ ¢¡ 
  3. 3. ISBN: XXX-XXX-XXXX-XX-X %$# ! Este libro está hecho con ayuda de y LTEX. A
  4. 4. Probability is our evaluation supported by all what we know. It’s a situation that depends essentially upon our incomplete information, and it’s also a measurement of the incompleteness of our information. K. Popper
  5. 5. Prefacio Flavio Prieto, Bogotá, 2010
  6. 6. IntroducciónE n la actualidad, cada vez es más evidente la importancia en el uso apropiado de la información en los diver- sos campos de la actividad humana. Al respecto, la tarea por excelencia, que ha ocupado por bastante tiempo laatención de los programas de Ingeniería Electrónica, Telecomunicaciones e inclusive de Sistemas, está directamenterelacionada con la transmisión de señales con contenido informativo. Tal situación ha conformado una estructuraen los diferentes planes curriculares que se sigue, a veces dogmáticamente, sin tener en cuenta que el cúmulo detecnologías, relacionadas con el manejo de la información tiene una naturaleza de cambio dinámico, de integracióny aglutinamiento con otras tecnologías y ciencias, que hacen que, prácticamente, cada día se deban actualizar loscontenidos de las respectivas asignaturas. El mismo avance de la ciencia, sobre la cual se asume descansa la teoríabásica de la Ingeniería, se mueve estrepitósamente. Hasta ayer, el análisis espectral se basaba exclusivamente en ladescomposición de Fourier, que aunque sigue siendo la representación universal mediante la cual se interpretan losdiversos aspectos relacionados con el proceso espectral de las señales, cede paso a novedosas formas de descom-posición con propiedades adecuadas para el manejo de nuevos problemas, en particular, la no estacionariedad, elproceso localizado, etc. El mismo concepto de aleatoriedad también exige su ampliación hasta revisar las defini-ciones de incertidumbre; porque de qué otra manera se pueden entender las técnicas de análisis de complejidad?.Por cierto, la ampliación de los conceptos y herramientas en el manejo no llegan solamente hasta revisar la natu-raleza aleatoria de las señales. Ya es un hecho la demostrada efectividad en el proceso de la información por partede una serie de herramientas, que no están explícitamente basadas en principios probabilísticos. Sin embargo, lasnovedades sugeridas anteriormente implican, por lo menos, dos aspectos básicos a considerar: Primero, que el in-geniero debe ser consiente del cambio en el objeto de su materia prima de trabajo, esto es, la información y el valoragregado de su proceso se convierten en un objetivo importante de la Ingeniería. Segundo, los cambios a realizarcorresponden a avances conceptuales mas no a interrupciones o introducción de herramientas desarticuladas. Conbastante pena, se observa como los estudiantes, que quieren trabajar con tareas de extracción de información en cur-sos superiores o de posgrado, caen secuestrados en procedimientos reduccionistas que intentan sin la taoría básicaexplicar o aplicar transformaciones, a veces, suficientemente complejas de proceso. Consecuentemente, cualquierintento de interpretación, generalización o particularización sobre los resultados en el análisis de las señales se veirremediablemente limitado o confinado a explicaciones erróneas. Los autores del presente libro encuentran evidente que la mejor forma de entender las nuevas y bastante potentesherramientas de proceso consiste en estudiar con mayor profundidad los conceptos básicos de la Teoría de Señales.Se ha mantenido un esquema clãsico en la disposición de los capítulos, pero su material se amplia con conceptosy ejemplos, que además de explicar estudiar la transmisión de señales, también se analizan aspectos relacionadoscon su extracción. El material dispuesto en el presente texto describe las formas básicas de representación y proce-so de señales aleatorias, con especial énfasis en los modelos de análisis matemático estadístico, que se considera,tienen un aporte significativo en la formulación y solución de aplicaciones en las áreas de sismología, análisis debioseñales, sistemas de medida, sistemas de control y seguimiento, radiocomunicación, entre otros. Por eso, el con-tenido presentado corresponde a la evolución en el análisis de aleatoriedad desde las señales hasta su asociacióncon los respectivos sistemas de proceso. El contenido del texto es el siguiente: el Capítulo I describe los fundamentos de representación determinísticade señales y sistemas. El Capítulo II presenta los principios básicos de la modulación como la tarea de proceso queacopla los parámetros de las señales en su transmisión por los diversos canales de comunicación. El Capítulo IIIdescribe las particularidades en la representación de procesos aleatorios en el tiempo. También se analizan los prin-cipios de la transformación de señales aleatorias mediante sistemas lineales. El Capítulo IV corresponde al análisisde la inmunidad para canales Gaussianos. Finalmente, el Capítulo V estudia los conceptos básicos de la Teoría de laInformación. El material está orientado a los estudiantes de pregrado, que cursen la asignatura de Teoría de Señalesy supone como prerrequisito los cursos de Teoría de probabilidades, así como el de Análisis Espectral. El materialteórico presentado incluye la deducción de la mayoría de las expresiones presentadas, aunque se brinda la literaturanecesaria para la profundización de cada tema en particular. Los Autores, Manizales, 2010
  7. 7. NotacionesNotación Significadox (a ,b ; s ) Señal x con parámetros a ,b y argumento sx ∗ (s ) Conjugado de x ∈ por sℜ {x } ; ℑ {x } Parte real de x ; parte imaginaria de xx [k ] Señal discretizada (con argumento normalizado){x k : k = 1, . . . , N } Conjunto o sucesión de N valores discretos x kx k (t ) Trayectoria o contorno por el argumento t de x kd (x m , x n ) Distancia métrica entre los elementos x m y x nx , ξ; x, ξ ; X , Ξ Escalar; Vector; Matrizi1×n ; In×n Vector unitario; Matriz unitaria con dimensión n × nrank X ; trace X ; det X Rango; traza; determinante de XX ;X ;X ( ) Matriz inversa; transpuesta, hessiana {x }; , , , Transformada de x ; T. Laplace, Fourier, Zeta, WaveletX (s ); X (ω) Densidad espectral de {x } por s ; Espectro de FourierX Espacio métrico funcional , , , Dominio de los naturales, enteros, reales y complejos 1; n Espacio de los números reales; E. euclídeo con dimensión nL2 [a ,b ] Espacio de Hilbert de señales integrables por Lebesgue en [a ,b ]P(Ω) Medida de probabilidad del espacio de eventos elementales ΩFξ (x ); p ξ (x ) Distribución de probabilidad; densidad de probabilidad de ξN (m 1ξ , µ1ξ ) Densidad de probabilidad Gaussiana de ξ con momentos m 1ξ y µ1ξE {ξ}; ξ(t ) Valor esperado - promedio de ensamble ; promedio de tiempom nξ (t ); µnξ (t ) Momento inicial; Momento centralizado de orden n para ξΘξ (ω); µΘ (t ) nξ Función característica; cumulantes de orden n por Θξ (ω)R ξ,η (τ); K ξ,η (τ) Función de correlación; Función de covarianza entre ξ y ηξθ Valor estimado de ξ obtenido por el estimador θΛξ ; ξΛ Relación de verosimilitud; Est. por máxima verosimilitudS ξ (ω) Densidad espectral potencia de ξH Espacio de Hilbert de p.a. centralizados, integrables al cuadrado ξ = E {|ξ|2 }1/2 ; 〈ξ, η〉 Norma del p.a. ξ; producto punto de los p.a. ξ y η en Hξ⊥η P.a. ortogonales ξ y η, definidos en H ¦ ¨ Algoritmos o aplicaciones de software
  8. 8. Índice general1. Representación de Señales y Sistemas 1 1.1. Definiciones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1. Clasificación de señales y sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.2. Proceso de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.3. Modelos de señales singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.4. Espacios de representación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2. Representación discreta de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2.1. Descomposición en funciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2.2. Conjunto ortogonal completo de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.2.3. Otros conjuntos ortogonales completos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.3. Representación integral de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.3.1. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.3.2. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 1.3.3. Integral de convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 1.4. Representación operacional de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 1.4.1. Método de la integral de superposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 1.4.2. Método de análisis espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 1.4.3. Método de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 1.4.4. Sistemas discriminantes de frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 542. Principios de modulación 59 2.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.1.1. Canal básico de transmisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.1.2. Clasificación de métodos de modulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 2.1.3. Comparación de métodos de modulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.2. Modulación sinosoidal análoga de amplitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.2.1. Modulación de doble banda lateral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.2.2. Modulación de banda lateral única . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.2.3. Modulación de banda lateral vestigial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 2.3. Modulación sinosoidal análoga de ángulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.3.1. Modulaciones de fase y frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.3.2. Modulación de ángulo de banda angosta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 2.3.3. Modulación de ángulo de banda ancha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 V
  9. 9. VI Índice general 2.4. Modulación banda base de pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 2.4.1. Modulación análoga de pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 2.4.2. Modulación digital de pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 2.5. Modulación digital de radiofrecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 2.5.1. Descripción básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 2.5.2. Modulación digital de amplitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 2.5.3. Modulación digital de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 2.5.4. Modulación digital de frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 2.5.5. Modulación mínima de frecuencia con fase continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1083. Análisis de aleatoriedad 113 3.1. Señales aleatorias en el tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 3.1.1. Estacionariedad de las señales aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 3.1.2. Ergodicidad de las señales aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 3.1.3. Descomposición espectral de señales aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 3.1.4. Densidad espectral de potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 3.2. Paso de señales aleatorias por sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 3.2.1. Análisis en el tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 3.2.2. Análisis en la frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 3.2.3. Empleo de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 3.3. Filtración óptima lineal por mínimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 3.3.1. Optimización de la respuesta a impulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 3.3.2. Condición de realización física . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 3.3.3. Filtros acoplados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1574. Fidelidad y detección de señales 163 4.1. Fidelidad en sistemas analógicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 4.1.1. Relación señal a ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 4.1.2. Fidelidad en sistemas de banda base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 4.1.3. Fidelidad en sistemas de amplitud modulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 4.1.4. Fidelidad en sistemas de modulación de ángulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 4.2. Métodos de detección de modulación digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 4.2.1. Modelo de detección Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 4.2.2. Detección bayesiana de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 4.2.3. Detección de máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 4.3. Recepción óptima coherente de señales digitales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 4.3.1. Receptor óptimo potencial binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 4.3.2. Receptor de correlación óptimo potencial binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 4.3.3. Fidelidad de detección óptima binaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1855. Teoría de la información 189 5.1. Fuentes de información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 5.1.1. Medida de la información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 5.1.2. Entropía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 5.1.3. Propiedades de la entropía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 5.2. Codificación de una fuente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 5.2.1. Propiedades de los códigos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 5.2.2. Códigos instantáneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 5.2.3. Código binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 5.2.4. Compresión de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 5.3. Canales de transmisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 5.3.1. Medidas de capacidad en canales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 5.3.2. Transmisión de información en canales discretos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 5.3.3. Entropía e información para ensambles continuos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212Bibliografía 219
  10. 10. 1 Representación de Señales y SistemasU na señal se puede definir como una función que conlleva información, que se puede referir a un fenómeno físico medido o al comportamiento de un sistema físico. Aunque la infor-mación se puede representar en variadas formas, en todos los casos se busca que la informa-ción esté contenida en un patrón de variaciones de alguna forma. Las señales se representanmatemáticamente por funciones de una o más variables independientes.1.1. Definiciones BásicasLa señal de entrada x (s ) es el enlace de in-teracción entre los elementos. De otra man- x 1 (s ) E E y1 (s )era, es la acción llevada a activar el sistema. x 2 (s ) E E y2 (s ) E {x(s )} E ... ...Mientras, la respuesta o salida y (s ) es la ac- x m (s ) E E yn (s )ción conjunta del sistema como resultado deuna activación. El mismo sistema, que es ungrupo de elementos u objetos con un fin de- Figura 1.1: Diagrama básico de un sistema con transformación {·}terminado {·}, se representa por una cajacerrada, o caja negra, con un número dado determinales de entrada y salida, para propósitos de análisis como se ilustra en la Figura 1.1. En un sistema, cada señal de entrada se transforma en una única respuesta, lo que implicaque actuando sobre una entrada x (s ) = {x i (s ) : i = 1, . . . , m } se obtiene una única salida en laforma, y (s ) = y i (s ) : i = 1, . . . , n , cuya transformación generalizada se representa por: y (s ) = {x (s )}donde {·} corresponde a la transformación o transformada de entrada–salida (señal respues-ta). En la mayoría de los casos de análisis de señales informativas, el parámetro s correspondeal tiempo t .1.1.1. Clasificación de señales y sistemasLas señales, de acuerdo con la forma de definición de sus valores con respecto a su argumentodel tiempo, se clasifican en los siguientes tipos: 1
  11. 11. 2 Capítulo 1. Representación de Señales y Sistemas – Señales análogas o continuas (en el tiempo). Señales para las cuales, tanto su argumen- to como la misma función, pueden tomar cualquier valor del continuo de los interva- los para los que se define el argumento, t ∈ [t 0 , t f ], x ∈ [x min ,x max ]. La definición de señales análogas usualmente se extiende hasta soportar discontinuidades de primer gra- do, x (t k − ) = x (t k + ) , siendo |x (t )| ∞, ∀t . – Señales discretas (en el tiempo). El argumento de la función (tiempo) está definido sola- mente sobre una malla de valores x (t k ), k ∈ . Sin embargo, la función toma cualquier valor del intervalo continuo x ∈ [x min ,x max ]. En aquellos valores del tiempo sobre los cuales la señal no se define t = t k , el valor de la función se asume igual a cero. Cuando los valores de una señal discretizada en el tiempo, x (t k ) , pertenecen a un con- junto finito, xQ ∈ {xQ (i ) : i , . . . , N }, N ∞, se habla de señales digitales. Otras formas de clasificación de las señales son las siguientes: – Señal de energía. Sin importar que el intervalo de tiempo sea infinito, se cumple que la energía de la señal es finita, esto es, ex = x 2 = |x (t )|2 d t ∞, (1.1) – Señal de potencia. Cuando la potencia media de la señal x (t ) durante un intervalo de tiem- po T , es finita y no es igual a cero, es decir, 1 px = l´m ı |x (t )|2 d t ∞, (1.2) T →∞ T T – Señal periódica. Cuando se cumple la condición x (t + T ) = x (t ), t ∈ [0, T ] , T 0 (1.3) donde el valor de min {T } que satisfaga la condición (1.3), cuando existe, se denomina período fundamental. En caso de no cumplirse la anterior condición, la señal se denomina aperiódica.Ejemplo 1.1 Demostrar la periodicidad de la función x (t ) = e j (ω0 t +θ ) , −∞ t ∞, donde ω0 = const . A partir de (1.3) se cumple que x (t ) = x (t + T ) = x (t + n T ), ∀n ∈ , con lo cual se puede demostrar laperiodicidad de la función x (t ) = e j (ω0 t +θ ) = e j (ω0 (t +T )+θ ) = e j ω0 (t +T ) e θ = e j ω0 t e j ω0 T e θAdemás, cuando e j ω0 T = cos ω0 T + j sin ω0 T = 1, la señal es periódica y equivale a decir que cos ω0 T = 1y sin ω0 T = 0, entonces, ω0 T = 2πk con k ∈ . Por lo tanto, ω0 = 2πk /T. Una señal cuasiperiódica corresponde a una función con período fundamental demasiadolargo. Estas señales, generalmente, se componen por dos o más señales periódicas. Un ejemplo
  12. 12. 1.1. Definiciones Básicas 3de señal cuasiperiódica compuesta de dos señales periódicas es la función compuesta de laforma: x (t ) = sin t + sin 2t . – Señal aleatoria. Corresponde al caso de dependencias, para cuyo valor se tiene alguna incertidumbre en función de cualquier argumento. – Señal determinística. Función que se puede modelar o describir analíticamente como una dependencia completamente especificada con respecto a su argumento. – Señal de dimensión multiple. Función que se describe a partir de un conjunto compuesto de m ∈ + variables independientes. Cuando la función depende de una sola variable, se habla de señales de dimensión única o simple. En cuanto a los sistemas, éstos se pueden clasificar de la siguiente forma: – Sistema lineal, cuando se cumple la ley de superposición. Sea a i y i (t ) = {a i x i (t )} , donde a i = const ., i = 1, 2, . . . , n. Entonces: n a i x i (t ) = {a 1 x 1 (t ) + a 2 x 2 (t ) + . . . + a i x i (t ) + . . . + a n x n (t )} i =1 = a 1 y 1 (t ) + a 2 y 2 (t ) + . . . + a i y i (t ) + . . . + a n y n (t ) n = a i y i (t ) (1.4) i =1 Cuando la expresión (1.4) no se cumple, el sistema se denomina no lineal.Ejemplo 1.2 Sea un sistema con relación entrada-salida de la forma y (t ) = a x (t ) + b, siendo los valoresa ,b = const . Determinar el valor de b para el cual el sistema se puede considerar lineal. Considerando dos señales de entrada diferentes x 1 (t ) y x 2 (t ), las salidas correspondientes serían y i (t ) = a x i (t ) + b, i = 1, 2 Si se aplica la entrada x 1 (t ) + x 2 (t ), la salida será a (x 1 (t ) + x 2 (t )) + b. De acuerdo con la condición delinealidad (1.4), se debe cumplir que: a (x 1 (t ) + x 2 (t )) + b = a (x 1 (t ) + x 2 (t )) + 2b,luego, para b = 0 el sistema es lineal. – Sistema invariante (en el tiempo). Si un desplazamiento en el argumento de la función o señal de la entrada del sistema provoca respectivamente un corrimiento en el argumento de su respectiva salida. En el caso de señales que varían en el tiempo se tiene: y (t − t 0 ) = {x (t − t 0 )} , ∀t 0 0 (1.5) En caso contrario, el sistema se denomina variable.
  13. 13. 4 Capítulo 1. Representación de Señales y Sistemas – Sistema estable. Si una señal de entrada x (t ) con amplitud finita, max{|x (t )|} ∞, produce una respuesta y (t ) de amplitud finita, esto es, max{|y (t )|} ∞. De otra manera, el sistema es inestable. – Sistema invertible. Si distintas entradas producen distintas salidas, esto es, si al observar la salida del sistema se puede determinar su correspondiente entrada. En caso contrario, el sistema se considera no invertible.Ejemplo 1.3 Cualquier sistema descrito por la expresión, y (t ) = const .debe ser considerado como no invertible, por cuanto genera un mismo valor a la salida, sin importar cual seael valor de la señal de entrada. – Sistema realizable o causal. Se debe tener una respuesta de salida que no suceda antes de que se aplique una función de entrada al sistema. Esto es, si la función de entrada se aplica a partir de un tiempo, t = t 0 , entonces, la respuesta sólo estará determinada para t ≥ t 0 . Si no se cumple esta condición, el sistema es no causal. – Sistema (de tiempo) continuo. Cuando los cambios de los valores de entrada y salida corres- ponden a intervalos continuos (en el tiempo). – Sistema (de tiempo) discreto. Cuando las señales asociadas con el sistema son discretas, esto es, existen sobre una malla de valores puntuales (en el tiempo). En los demás valores del argumento, la señal es igual a cero. Generalmente, los sistemas de tiempo continuo se modelan mediante el uso de ecua- ciones diferenciales, mientras, los sistemas discretos, con ecuaciones iterativas. – Sistemas sin memoria. Si la salida, para cualquier tiempo t k , depende sólo de la entrada para el mismo valor de tiempo. – Sistemas con memoria. Si la señal de salida, para un valor del tiempo dado t k , depende de valores de la señal de entrada determinados dentro del intervalo (t k − T, t k ), entonces el sistema tiene memoria T . – Sistemas con parámetros concentrados. Si el tiempo de proceso de la señal de entrada a través del sistema es considerablemente pequeño. Estos sistemas se modelan mediante ecuaciones diferenciales ordinarias. En los sistemas eléctricos, esto significa que la longi- tud de onda de la señal de entrada es mucho mayor con respecto a las dimensiones físicas de los elementos de proceso del sistema. – Sistemas con parámetros distribuidos. La señal de entrada tarda un tiempo considerable en excitar los elementos del sistema, dependiendo el retardo de la velocidad de proceso de la señal. Estos sistemas se pueden modelar con ecuaciones diferenciales parciales.
  14. 14. 1.1. Definiciones Básicas 51.1.2. Proceso de señalesEl proceso, entendido como la aplicación y sentido práctico que toma la transformación de lasseñales con carga informativa, se puede clasificar así: a). Continuo o análogo. Cuando la transformación, que caracteriza el proceso, se realiza so- bre una señal que repite la forma de la magnitud física observada, esto es, existe analogía entre ambas. El conjunto de valores sobre el cual se realiza el proceso es continuo y, por lo tanto, infinito. b). Digital. Cuando la transformación se realiza sobre una función correspondiente a la for- ma de la magnitud física observada, la cual se representa por un conjunto finito (contable) y a priori conocido de estados o, inclusive, de relaciones entre los mismos. En el proceso digital, las funciones de salida no deben presentar ninguna analogía de forma con la señal de entrada. Entre las principales ventajas de los sistemas de proceso digital con respecto a los análogosestán las siguientes: – Son realizables sobre tecnología digital lógica, por lo cual se alcanzan alta confiabilidad, estabilidad, reducido tamaño y baja potencia, adaptándose rápidamente al diseño de los circuitos integrados. – Los dispositivos digitales son menos sensibles a las tolerancias de sus elementos y pueden ser reproducidos en grandes volúmenes con alta exactitud sin requerir un ajuste adi- cional, como usualmente ocurre con los elementos análogos. – Se facilita el proceso simultáneo de varias señales mediante un solo dispositivo digital, reduciendo los costos de hardware. Además, las características de proceso pueden cam- biarse y ajustarse durante el proceso realizando la sintonía necesaria sobre el respectivo algoritmo de proceso; condición importante en la adaptabilidad de los sistemas. Los dispositivos digitales se asocian con algunas desventajas. La primera es el incrementoen la complejidad del sistema de proceso, por cuanto hay necesidad de un pre y pos-procesoadicional de las señales. La segunda desventaja es el rango limitado de frecuencias disponiblesde los procesadores digitales que ofrecen aún valores insuficientes para señales de muy altasfrecuencias. Sin embargo, las ventajas del proceso digital compensan por mucho las desventajasen las diversas aplicaciones, sumado al hecho de la tendencia constante en la rebaja de costosdel hardware de proceso digital. Como resultado el proceso digital de señales se extiende cadavez a una mayor cantidad de actividades del campo humano. Es importante tener en cuentaque el proceso digital exige la adecuación en la representación de las señales continuas, la cualen la práctica se realiza mediante su discretización. Por lo tanto, el análisis básico del procesodigital se realiza sobre la representación discretizada de señales y sistemas.1.1.3. Modelos de señales singularesEstas funciones son modelos abstractos matemáticos y, en rigor, no aparecen en sistemas físi-camente implementables. Sin embargo, son aproximaciones adecuadas a ciertas condiciones yrestricciones reales, que permiten evaluar el comportamiento asintótico de los sistemas físicos.
  15. 15. 6 Capítulo 1. Representación de Señales y SistemasFunción signo. Definida por la expresión: sgn(t ) T  −1, t t 0 1  sgn(t − t 0 ) = 0, t = t0 E  t0 t 1, t t0 −1donde la multiplicación x (t ) sgn(t − t 0 ) deno- Figura 1.2: Representación de la función signota el cambio de signo de la función x (t ) a par-tir del punto t = t 0 , (Figura 1.2).Función delta de Dirac. La función delta δ(t ) es también llamada función impulso o funciónKronecker, y se puede interpretar como la acción que hace angosta una función dada, p α (t −t 0 ),definida con área unitaria en la forma: ∞ 1 p α (t )d t = α =1 (1.6) α −∞de tal manera, que su base determinada para un intervalo de tiempo (t 0 − α/2, t 0 + α/2) tiendea 0, esto es, ∞, t = t 0 δ(t − t 0 ) = l´m p α (t − t 0 ) = ı (1.7) α→0 0, t = t0 β δ (t − t 0 ) T β T E x t0 t T (t ) p Tα (t ) E α . x (k ∆τ)p α(t − k ∆τ)∆τ ...................................................................................... . ....... ................ . ....... . . .. . .. ........ . . ......... .... ............ ... .. .. . . . .......... ... ...... . . . . . . . T ∆τ T .. ... ........ .. ...... . . ... . . ..................... .. . .. .. ........... ... . . ....... .. ... .... . .. .... . .... .......... ........ .... ... . .. .... ............ . . .. .. .... . ... .. . . ... ... ... . . .. ... ..... . .. ... ..... . ... . . . . 1 ....... .... ................................. . . .. . ... . . p (t − k ∆τ) α . . . . . . . . . α p α (t − ∆τ) . . . . . . . . . . . . . . .. E t . . . . . . ∆τ 2∆τ 3∆τ k ∆τ (k + 1)∆τ . . c . E . . . t0 t (a) Representación (b) Aproximación Figura 1.3: Sobre el concepto de la función delta δ(t ) Cabe anotar, que la definición completa de la función delta está dada por el par de ecuaciones
  16. 16. 1.1. Definiciones Básicas 7(1.6) y (1.7), cuya representación gráfica, en el caso particular de un pulso rectangular se ve enla Figura 1.3(a) (parte inferior). La representación convencional de β δ(t − t 0 ) se muestra en laFigura 1.3(a) (parte superior), donde la amplitud β debe ser entendida como el área del pulsoelemental. La función δ(t ) tiene las siguientes propiedades: a). Simetría. δ(t ) = δ(−t ) b). Escala de tiempo, 1 δ(αt ) = δ(t ) (1.8) |α| c). Multiplicación, (por una función en el tiempo); x (t )δ(t − t 0 ) = x (t 0 )δ(t − t 0 ) Realmente, la continuidad de la función x (t ) se restringe al intervalo x (t 0− ) = x (t 0+ ), en caso contrario, es simplemente imposible encontrar el valor correspondiente de la multi- plicación y preferiblemente se debe evitar tal situación. d). Selectividad, ∞ ∞ δ(t − t 0 )x (t )d t = x (t 0 ) δ(t − t 0 )d t = x (t 0 ) (1.9) −∞ −∞ La función x (t ) debe ser continua, o al menos tener un número finito de discontinuidades de salto para un intervalo finito de tiempo, por cuanto el valor exacto de la integral en el punto de discontinuidad no tiene ningún sentido físico importante [1]. De (1.9) e inter- cambiando t y t 0 , además notando por τ a t 0 se obtiene la integral de Duhamel: ∞ x (t ) = x (τ)δ(τ − t )d τ (1.10) −∞ La integral (1.10) es la representación de la función x (t ) mediante un continuo de funcionesdelta y corresponde a su aproximación en forma de un conjunto de pulsos rectangulares, p a (t ),determinados dentro del intervalo de análisis, como se muestra en la Figura 1.3(b). Haciendo N∆τ → 0 y N → ∞ se obtiene la aproximación, x (t ) ≈ k =−N x (k ∆τ)p a (k ∆τ − t )∆τ.
  17. 17. 8 Capítulo 1. Representación de Señales y SistemasEjemplo 1.4 Evaluar la expresión ∞ t 2 e − sin t cos 2t δ(2t − 2π)d t , −∞Mediante el empleo secuencial de las propiedades, primero de escala (1.8) y luego de selectividad (1.9), seobtiene que: ∞ ∞ 2 − sin t 1 t e cos 2t δ(2t − 2π)d t = t 2 e − sint cos 2t δ(t − π)d t 2 −∞ −∞ 1 = π2 . 2Función escalón unitario. La definiciónmatemática de esta función, representada enla Figura 1.4, es la siguiente: T (t − t 0 ) u 1, t ≥ t0 u (t − t 0 ) = (1.11) 0, t t0 1 A partir de la definición dada en (1.7) sepuede demostrar que: 1 1 t0 t p α (t ) = u (t ) − u (t − t 0 ) t0 t0 1 Figura 1.4: Representación gráfica de la función es- = (u (t ) − u (t − t 0 )) calón unitario t0tomando el límite de t 0 → 0, se obtiene que 1 δ(t ) = l´m p a (t ) = l´m ı ı (u (t ) − u (t − t 0 )) t 0 →0 t 0 →0 t 0 d u (t ) = dt De manera inversa, integrando la anterior expresión se obtiene d u (t ) δ(t )d t = d t = u (t ) dt
  18. 18. 1.1. Definiciones Básicas 9Ejemplo 1.5 Sea x (t ) = u (t − t 0 ) − u (t − n t 0 ) − k δ(t − m t 0 ), donde m , n ≥ 1. Determinar el valor de kpara el cual se cumpla que: ∞ x (t )d t = 0 −∞ A partir de la anterior condición de igualdad a 0, se obtiene que, ∞ (u (t − t 0 ) − u (t − n t 0 ) − k δ(t − m t 0 )) d t = 0 −∞ ∞ ∞ ∞ u (t − t 0 )d t − u (t − n t 0 )d t − k δ(t − m t 0 )d t = 0 t0 nt 0 −∞Sin embargo,   T T   l´m  ı  u (t − t 0 )d t − u (t − n t 0 )d t  − k = 0  T →∞ t0 nt 0 l´m ((T − t 0 ) · 1 − (T − n t 0 ) · 1) − k = 0 ı T →∞ l´m (T − t 0 − T + n t 0 ) − k = 0 ı T →∞luego, n t 0 − t 0 − k = 0,Por lo tanto, k = (n − 1)t 0 .Función pulso rectangular. Definida por la expresión: 1, |t − t 0 | ≤ τ/2 rectτ (t − t 0 ) = (1.12) 0, |t − t 0 | τ/2 Por cuanto, rectτ (t − t 0 ) = u (t − (t 0 − τ/2)) − u (t − (t 0 + τ/2))entonces se cumple la siguiente relación: d rectτ (t ) = (δ(t ) − δ (t − t 0 )) dt Así mismo, se cumple que 1 rectτ (t − t 0 ) = sgn(t − t 0 ) − sgn(t − t 0 − τ) 2
  19. 19. 10 Capítulo 1. Representación de Señales y Sistemas1.1.4. Espacios de representaciónCualquier espacio vectorial con dimensión n se caracteriza completamente por las proyec-ciones sobre sus n ejes de coordenadas. En la descomposición vectorial, es preferible el usode ejes perpendiculares y normalizados, para los que se cumple la condición de ortogonalidad: 0, i=j 〈αi , α j 〉 = 1, i=jdonde αi , α j son los vectores unidades de los respectivos ejes de coordenadas. Si el vector estádado en un espacio con n dimensiones, entonces éste se puede descomponer en n compo- nnentes y, por lo tanto, expresado por la suma, a = k =1 a k αk , siendo a k las proyecciones delvector sobre los ejes de coordenadas, la dirección de los cuales está dada por el sistema de vec-tores coordenadas o bases, {αk : k = 1, . . . , n}.Ejemplo 1.6 Considérense los siguientes casos de descomposición vectorial: 1. Sea el conjunto {αn (t ) : n = 1, . . . , N }, un sistema de vectores ortogonales sobre un intervalo dado en algún espacio de Hilbert. Demostrar que el conjunto corresponde a un sistema independiente lineal. Al analizar la igualdad k 1 α1 + k 2 α2 + · · · + k n αn + · · · + k N αN = 0 se observa que al multiplicar escalarmente ambos lados de la igualdad por cada uno de los vectores y teniendo en cuenta su ortogonalidad, se obtiene que: αn · (k 1 α1 + k 2 α2 + · · · + k n αn + · · · + k N αN ) = αn · 0 {αn · k n αn } = 0, n = 1, . . . , N con lo cual k n = 0, n = 1, 2, . . . , N . Esto es, la ortogonalidad del sistema de vectores condiciona su independencia lineal. 2. Dado un sistema de vectores no nulos y no ortogonales {g 0 , g 1 , · · · , g n , · · ·} en el espacio de Hilbert, construir sobre este un sistema ortonormal {u 0 , u 1 , · · · , u n , · · ·}, tal que cada vector u k de una combi- nación lineal del tipo u k = c k 0 g 0 + c k 1 g 1 + · · · + c k n g n , siendo c k 0 , c k 1 , · · · , c k n valores constantes. Al normalizar el elemento g 0 y suponer que u 0 = g 0 / g 0 , el vector h 1 = g 1 −(g 1 , u 0 )u 0 es ortogonal a u 0 . Normalizando h 1 se obtiene un nuevo elemento ortonormalizado del sistema u 1 = h 1 / h 1 . La operación se repite y se halla el elemento h 2 = g 2 − (g 2 , u 0 )u 0 − (g 2 , u 1 )u 1 , por lo que se obtiene u 2 = h 2 / h 2 que es ortogonal tanto a u 0 como a u 1 . Repitiendo el proceso, iterativamente, en el paso k ∈ se obtiene la siguiente combinación lineal: h k = g k − g k , u 0 u 0 − g k , u 1 u 1 − · · · − g k , u k −1 u k −1 En forma general, el conjunto de las posibles señales de análisis se entenderá como el forma-do por todas las funciones de variable compleja definidas en forma continua sobre un eje real,por ejemplo, el del tiempo: L = {x = x (t ) : x (t ) ∈ , t ∈ }donde L = {x : } es el conjunto formado por todos los elementos, x , para los cuales cumpleque: ⇒ x ∈ L. La mayoría de los espacios de funciones de señales se restringen a los espacios
  20. 20. 1.1. Definiciones Básicas 11clásicos de Lebesgue, en los que se cumple que   1/p      Lp = Lp ( ) = x ∈L: x p =  |x (t )|p d t   ∞ , p ≥1   L∞ = L∞ ( ) = x ∈ L : x ∞ = sup |x (t )| ∞ tdonde x L p ( ) es la norma definida para x en el espacio L p . La restricción de p ≥ 1, implica que la clase L p ( ) es un espacio lineal normalizado y corres-ponde a un espacio de Banach, el cual es completo con respecto a la correspondiente norma. De manera similar, se definen los espacios formados por las funciones de valor complejo de-terminadas en forma discreta (sucesión) en el tiempo: = {x = x (t n ) = (x n ) : x n ∈ , n ∈ }Las restricciones sobre pertenencia a espacios lineales normalizados son similares a las de lasseñales continuas, en las cuales las operaciones de integración se cambian por operaciones desumatoria discreta; es decir, se generan los siguientes espacios:   ∞ 1/p   p p = x∈ : x p = |x n | ∞   n =1 La generación de conjuntos de señales a partir de alguna condición común con interpretaciónfísica (energía, longitud en el tiempo, transformación hacia algún espacio complejo, etc.), im-plica establecer el modelo matemático formal de relación entre los elementos del conjunto.Definición 1.1 De manera general, la forma para distinguir dos elementos de un conjunto encada pareja de elementos consiste en compararla con un número real positivo, el cual se interpretacomo la distancia entre los elementos, tal que d : X × X → , donde x n ,x m ∈ X, d (x n ,x m ) ≥ 0En este caso, los elementos x n y x m presentan iguales propiedades geométricas. Un ejemplo de distancia entre dos señales x (t ) e y (t ) del espacio de funciones complejas enel tiempo, a lo largo de un intervalo T está dado por la siguiente expresión:  1/2   d x , y = x − y =  |x (t ) − y (t ) |2 d t    (1.13) TDefinición 1.2 El conjunto de funciones relacionados con la distancia (1.13), para los cuales larespectiva norma es acotada, x 2 ∞, o espacio L 2 ( ), corresponde a un espacio de Hilbert que
  21. 21. 12 Capítulo 1. Representación de Señales y Sistemasestá provisto del siguiente producto interno: x,y L2( ) = x ∗ (t )y (t )d t Un conjunto con una distancia dada en forma adecuada conforma un conjunto de señales. Elespacio de funciones dado por la distancia (1.13) tiene aplicación amplia en la representaciónde señales debido a la interpretación física simple de su respectiva norma, que corresponde a laenergía de las señales. Esto es, cuando x ∈ L 2 (T ) se dice que 2 x = 〈x ,x ∗ 〉L 2 (T ) exes la energía de la señal. Por cierto, la señal x (t ) determinada sobre T , corresponde a la señal deenergía, que cumple la condición (1.1). El soporte de una señal continua, supp (x ), corresponde a la cerradura del conjunto de puntost , tales que x (t ) = 0. Si el soporte de la función se confina dentro de un intervalo finito delargumento t , entonces se habla de una función con soporte compacto. La representación en forma discreta de cualquier señal de energía, x ∈ L 2 (T ), que cumpla lacondición (1.1), implica hallar la transformación del espacio L 2 (T ) en el espacio n , donde elvalor de la dimensión n se elige a partir del compromiso entre la precisión y la economía de larepresentación. La forma general para hallar esta representación consiste en la selección de unsubespacio de dimensión n a partir de L 2 (T ). Teniendo en cuenta que L 2 (T ) es un espacio completo separable [2], la señal x ∈ L 2 (T ) sepuede representar, de manera aproximada con cualquier precisión, si la dimensión de repre-sentación se escoge suficientemente grande (n → ∞), por medio de un conjunto de valores ocoeficientes x k , expresados en combinación lineal del siguiente espacio de funciones de coor-denadas, elegido adecuadamente: ∞ x (t ) = x k φk (t ) , (1.14) kdonde φk (t ) corresponde a un conjunto de funciones elegidas a priori, que conforman una baseen el espacio vectorial L 2 (T ), las cuales son denominadas funciones base, siendo k el orden de lafunción dentro del conjunto φk (t ) . La descomposición en funciones base (1.14) correspondea la representación espectral generalizada. En forma general, las funciones base, obtenidas para la representación de señales, debencumplir los siguientes requerimientos: a). La serie (1.14) debe ser convergente, b). Los coeficientes {x k : k ∈ } deben tener procedimientos simples de cálculo, c). Sus valores no deben depender del límite superior de la suma de la representación (1.14).0.
  22. 22. 1.1. Definiciones Básicas 13 Problemas1. Clasificar las siguientes señales por su tipo (de potencia o de energía): a). a sin(ωt ). b). a t e −t k (u (t ) − u (t − t 0 )) , t 0 0.2. Representar en forma de una suma de funciones lineales por segmentos la señal x (t ), quetiene el siguiente modelo matemático:  0, t 0  x (t ) = x 0 (t /t 0 ) , 0 ≤ t ≤ t 0  x0, t t03. Calcular para que valores de α converge la energía, ex , de la señal, x (t ) = 30e −10αt u (t )4. Sea x (t ) = u (t − t 0 ) − u (t − nt 0 ) − k δ(t − m t 0 ),siendo m , n ≥ 1. Determinar el valor de k para el cual se cumpla que: ∞ x (t )d t = 0 −∞5. Descomponer en un par de funciones u (t ) la representación a rectT (t − t 0 ) − a /2, ∀a , t 0 , T ∈6. Determinar para la señal, x (t ) = t 2 , 0 ≤ t ≤ 1,la respectiva aproximación, empleando la función de dependencia lineal y (t ) = a t + b,tal que sea la mejor en el sentido del mínimo error de distancia (métrica).7. Demostrar que haciendo n → ∞, las siguientes sucesiones de funciones tienden a la delta de
  23. 23. 14 Capítulo 1. Representación de Señales y SistemasDirac: n (a ). x n (t ) = (n/2)e −π|t | . (b ). x n (t ) = exp(−nt 2 /2). 2π8. Describir mediante la función u (t ) las funciones representadas en la Figura 1.5 T T T x 1 (t ) x 2 (t ) x 3 (t )    e . f   e f   e f   E e E fE 0 t0 t 0 t0 t1 t 0 t0 t1 t2 t a) b) c) Figura 1.59. Sea el siguiente par de funciones: x (t ) = rectτ , y (t ) = y 0 e αt u (t ), ∀y 0 , α, τ ∈Dada la apertura τ, encontrar el valor del parámetro α, para el cual la distancia (1.13) sea lamínima posible.10. En un espacio de Hilbert están dados los vectores u y v , tal que v = 1. En analogía con lageometría de los vectores comunes en un plano, el vector w = (u , v )v se denomina proyecciónortogonal del vector u en la dirección v . Demostrar que el vector y = u − w es ortogonal alvector v .11. Demostrar que en un espacio real de Hilbert se cumple la desigualdad triangular, esto es, x +y ≤ x + y
  24. 24. 1.2. Representación discreta de señales 151.2. Representación discreta de señales1.2.1. Descomposición en funciones ortogonalesLos sistemas ortogonales corresponden a un caso particular de sistemas de funciones indepen-dientes lineales. Más aún, cualquier sistema de este último tipo puede ser transformado a unsistema ortogonal empleando, por ejemplo el método de Gramm-Schimdt (ver ejemplo 1.6) [3].Un sistema de funciones complejas φm (t ) se define como ortogonal en el intervalo de repre-sentación (t i , t f ), si se cumple la relación: tf tf ∗ ∗ 0, m =n φm (t )φn (t )d t = φm (t )φn (t )d t = (1.15) em n , m =n ti tisiendo em m = en n = em = en una magnitud de energía. Mientras, para el caso de las señales depotencia, definidas en (1.2), se tendrá: tf tf 1 ∗ 1 ∗ 0, m =n φm (t )φn (t )d t = φm (t )φn (t )d t = t f − ti t f − ti pm n , m =n ti tidonde pm m = pn n = pm = pn es la potencia media o cuadrado de la norma de la función φn (t ). Se dice que el conjunto de funciones base está normalizado si se cumple que: tf tf |φm (t )|2 d t = |φn (t )|2 d t = em n = 1, ∀m , n ti ti Si el conjunto es a la vez normalizado y ortogonal, entonces se denomina ortonormal. A partir de la representación (1.14), cualquier señal de energía x (t ) se puede representar deforma aproximada en términos de φn (t ): x (t ) ≈ x n φn (t ) (1.16) n ∈Ndonde los coeficientes x n caracterizan el peso de la correspondiente función ortogonal φn (t ).Luego, la representación (1.16) de la función x (t ) corresponde a su expansión o representaciónortogonal aproximada, para la cual los valores x n se determinan de acuerdo con la condición demínimo error tomada en la aproximación. El tipo de error comúnmente empleado en la valoración de la aproximación (1.16) es la po-tencia media de error, que en el caso particular se determina como el valor cuadrático medio(ver expresión (3.9a), cuando n = 2) de la siguiente diferencia, tf N 2 2 1 2 N (t ) = x (t ) − x n φn (t ) d t , siendo N (t ) ≥ 0 (1.17) t f − ti n =0 t1
  25. 25. 16 Capítulo 1. Representación de Señales y Sistemas Por cuanto, el error cuadrático medio, dado en (1.17), se expresa en función de los coeficientes 2x 0 ,x 1 , . . . ,x N , entonces, para su minimización, min{ N (t )}, se deben hacer igual a cero todas lasrespectivas derivadas parciales: 2 2 2 ∂( N) ∂( N) ∂( N) = = ··· = =0 ∂ x0 ∂ x1 ∂ xN La derivada parcial de (1.17) por los coeficientes x k será:   tf N 2 2 ∂ N (t ) 1 ∂   = x (t ) − x n φn (t ) d t =0 ∂ xk t f − ti ∂ xk  n =0  ti Denotando por a = x (t ) y b = n x n φn (t ), la expresión dentro del integral anterior toma laforma |a − b |2 = (a − b) (a − b)∗ = (a − b ) a ∗ − b ∗ = a a ∗ − ab ∗ − b a ∗ + bb ∗ Luego, se cumple que   tf tf tf  N  ∂ |x (t )|2 d t −   ∗ ∗ x (t )x n φn (t )d t + x ∗ (t )x n φn (t )d t − ∂ xk  n =0 ti ti ti tf  N  x n φn (t ) x m φm d t  = 0 ∗ ∗  m =0 ti En virtud de la condición definida de ortogonalidad (1.15), los productos internos ∗ φm (t )φn (t )d tpara todo m = n, serán iguales a 0, esto es,    tf tf tf tf N ∂   2  |x (t )|2 d t −   ∗ ∗ x (t )x n φn (t )d t + x ∗ (t )x n φn (t )d t − x n φn (t ) d t   ∂ xk  n =0 ti ti ti ti =0 (1.18) De igual manera, todas aquellas componentes que no contengan el término x k , se debenigualar a cero.
  26. 26. 1.2. Representación discreta de señales 17 Como resultado sólo se obtienen dos componentes diferentes de 0:   tf tf ∂   − x ∗ (t )x k φk (t )d t + ∗ ∗ x k φk (t )x k φk (t )d t =0 ∂ xk   ti tique al diferenciar por x k e intercambiando los términos se obtiene: tf tf 2 x ∗ (t )φk (t )d t = x k ∗ φk (t ) d t ti ti Por último, cuando se generaliza en función del índice n, da como resultado: tf x (t )φn (t )d t ∗ tf ti 1 1 ∗ xn = tf = x (t )φn (t )d t (1.19) pn t f − t i 2 ti φn (t ) d t ti El numerador de (1.19) es la energía (o potencia) de la señal x (t ) y de la función base φn (t ),mientras en el denominador aparece la energía (o la respectiva potencia) de las funciones base. De la expresión (1.18) se obtiene que el error 2 (t ) es igual a  tf 1  2 N (t ) =  |x (t )|2 d t t f − ti  ti  tf tf tf  N  2  −  ∗ ∗ x (t )x n φn (t )d t + x ∗ (t )x n φn (t )d t − x n φn (t ) d t    n =0 ti ti ti Además, de (1.19) resulta que tf 1 ∗ x k pn = x (t )φn (t )d t t f − ti ti
  27. 27. 18 Capítulo 1. Representación de Señales y Sistemascon lo cual, el error 2 (t ) se puede determinar como: tf N 1 2 N (t ) = |x (t )|2 d t − ∗ ∗ 2x n x n pn − x n x n pn t f − ti n =0 ti tf N 1 = |x (t )|2 d t − 2 |x n |pn t f − ti n =0 ti N 2 =p− |x n |pn (1.20) n =0 Por cuanto la potencia del error siempre es positiva, 2 (t ) ≥ 0, entonces, de la anterior expre-sión se deduce la siguiente desigualdad: N p≥ |x k |2 pk , k =0conocida como la desigualdad de Bessel, la cual indica que la potencia de la aproximación de laseñal x (t ) obtenida por (1.16) es menor o, en el mejor de los casos, igual a la potencia de la señaloriginal. De otra parte, de (1.20) se observa que al aumentar N , o sea, al aproximar la señal con con-juntos mayores ortogonales, entonces el error 2 (t ) disminuye.Teorema 1.1 (Parseval) Por definición 2 ≥ 0, por lo tanto, al hacer N → ∞ en (1.20), la suma N 2 tf 2 tiende a cero. Como resultado se 2 k =0 x k pk converge al valor del integral t i x (t )d t , luegotiene la siguiente igualdad: tf ∞ 2 |x (t )| d t = |x n |2 = pn , n =1 tiEn este caso, el conjunto ortogonal se define como completo en (t i , t f ). Si en la expansión (1.16) la cantidad de términos N → ∞, o sea, ∞ x (t ) = x n φn (t ) (1.21) n =−∞entonces, la serie infinita converge hacia la función x (t ), de tal manera que el valor cuadráticomedio del error 2 (t ) de la aproximación se hace igual a 0. Por lo tanto, la representación de unafunción x (t ), dada en (1.21) por medio de un sistema base con número infinito de funcionesortogonales, se identifica con la representación generalizada de Fourier de x (t ) para el conjuntobase φn (t ) : n ∈ .

×