Procesamiento Analogico de Senales

120
TABLA DE CONTENIDO UNIDAD 1 Función Par e impar Sistemas Lineales Invariantes en el tiempo CAPITULO 1. Introducción y términos básicos Introducción. Definición de señales y sistemas Clasificación de señales analógicas Funciones fundamentales en el procesamiento analógico de señales Funciones complejas y sinusoides Funciones singulares Función impulso Función Delta Función escalón Unitario Función Rampa Funciones periódicas y no periódica Transformaciones de escalamiento y desplazamiento en l tiempo CAPITULO 2. Propiedades de los sistemas Sistemas lineales Principio de superposición Linealidad Sistemas invariantes en el tiempo Sistemas lineales invariantes en el tiempo Homogeneidad Sistemas series Sistemas paralelos CAPITULO 3. Sistemas Lineales Caracterización UNAD UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA Escuela de Ciencias Básicas Tecnología e Ingeniería Procesamiento de Señales Análogas Indira Cassaleth Garrido

Transcript of Procesamiento Analogico de Senales

Page 1: Procesamiento Analogico de Senales

TABLA DE CONTENIDO

UNIDAD 1

Función Par e impar Sistemas Lineales Invariantes en el tiempo

CAPITULO 1. Introducción y términos básicos

Introducción.

Definición de señales y sistemas

Clasificación de señales analógicas

Funciones fundamentales en el procesamiento analógico de señales Funciones complejas y sinusoides Funciones singulares Función impulso Función Delta Función escalón Unitario Función Rampa

Funciones periódicas y no periódica

Transformaciones de escalamiento y desplazamiento en l tiempo

CAPITULO 2. Propiedades de los sistemas

Sistemas lineales

Principio de superposición

Linealidad

Sistemas invariantes en el tiempo

Sistemas lineales invariantes en el tiempo

Homogeneidad

Sistemas series

Sistemas paralelos

CAPITULO 3. Sistemas Lineales

Caracterización

UNAD

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA

Escuela de Ciencias Básicas Tecnología e Ingeniería

Procesamiento de Señales Análogas

Indira Cassaleth Garrido

Page 2: Procesamiento Analogico de Senales

2

Respuesta al impulso

Función de transferencia

UNIDAD 2

Muestreo, cuantificación y Análisis de Fourier para señales en tiempo continuo

CAPITULO 4. Muestreo

Introducción.

Muestreo de señales

Aliasing

Frecuencia de Nyquist

Recuperación de una señal muestreada

CAPITULO 5. Cuantificación

Uniforme

No uniforme

Cuantificadores óptimos

CAPITULO 6. Análisis de Fourier para señales en tiempo continuo

Serie de Fourier en tiempo continuo

Convolución y sus propiedades

Ejercicio conceptual

Page 3: Procesamiento Analogico de Senales

3

UNIDAD 1

CAPITULO 1. Introducción y términos básicos

Introducción.

Cada vez tiene mayor importancia el tratamiento de la señal a nivel de

ingenierías, dado a que el mundo está sumergido en señales. Los seres vivos

producen y procesan señales desde el proceso de producción e interpretación

del habla y, en general, de muchos sonidos, hasta la captura y proceso de las

señales luminosas con nuestro sentido de la vista y nuestro sistema nervioso.

Por otra parte, en la era moderna, el hombre se ha dedicado, con intensidad

exponencial, a construir nuevas señales, procesándolas, almacenándolas o

transmitiéndolas, buscando, por ejemplo, mecanismos para la detección de

fenómenos a distancia.

Este curso tiene como objetivo que los estudiantes manejen los conceptos

básicos y herramientas matemáticas fundamentales para el análisis y síntesis

de sistemas lineales, con enfoque especial de sistemas de comunicación. El

curso está basado en dos unidades fundamentales en donde se tratan los

temas fundamentales para el tratamiento de señales, los cuales serán

fundamentales para el análisis de señales en tiempo discreto; las definiciones,

clasificaciones y formas de representación de las señales en función de sus

variables. Los estudiantes de este curso realizan ejercicios relacionados fuera

de clase, así como trabajos prácticos; algunos de sus trabajos serán realizados

por la herramienta computacional MATLAB.

Definición de señales y sistemas

Una señal se define como una cantidad física que varia con el tiempo, el

espacio o cualquier otra variable o variables independientes; las cuales se

Page 4: Procesamiento Analogico de Senales

4

pretenden utilizar para transmitir información. Por ejemplo, la voz humana, un

electrocardiograma, un electroencefalograma, etc.. Por ejemplo, las funciones

pzpzpzxc

ttxb

ttxa

543),(.

25)(.

3)(.

En el inciso a. La señal varia con la variable independiente t (Tiempo) y en b,

varia cuadráticamente con t y en la c se observa una señal que depende de

dos variables independientes z y p. (Unidimensional y multidimensional)

Por ejemplo: A continuación se observa algunos ejemplos de procesamiento

de señales aplicados a la las comunicaciones, procesamiento digital de

imágenes, procesamiento de señales de voz, etc, a través del software MatLab.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7-5

0

5

Origin

al

0 0.01 0.02 0.03 0.04 0.05 0.06

0.47183

0.40442

0.33702

0.26961

0.20221

0.13481

0.067404

0

Modula

ted

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7-2

0

2

Dem

odula

ted

Time (Seconds)

Figura 1. Modulación de una señal

Toolboxes de MatLab

Page 5: Procesamiento Analogico de Senales

5

Figura 2. Procesamiento de imagen

Toolboxes de MatLab

0 0.5 1 1.5 2-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

Time in seconds

13129 Samples

Figura 3. Procesamiento de señales de voz

Toolboxes de MatLab

Page 6: Procesamiento Analogico de Senales

6

04/08 04/13 04/18 04/23 04/28 05/03 05/08 05/13 05/180

200

400

600

800

1000

1200

1400

Volu

me (

share

s,

10000s)

Figura 4. Estadísticas del volumen de un taque de aromáticos

Toolboxes de MatLab

Las señales se procesan u operan por medio de sistemas. Cuando una o más

señales de excitación se aplican a una o más entradas del sistema, este

produce una o más señales de respuesta en sus salidas. A continuación se

describe el diagrama de bloques de un sistema simple, en donde se relaciona

la excitación a la entrada del sistema y la respuesta como la salida del mismo.

Figura 5. Esquema de un sistema simple

Un ejemplo del sistema descrito anteriormente es el sistema de

comunicaciones, el transmisor es un dispositivo que produce una señal y el

Entrada SISTEMA Salida

Excitación Respuesta

Page 7: Procesamiento Analogico de Senales

7

receptor es un dispositivo que adquiere una señal, el canal es la trayectoria que

la señal y/o el ruido toman desde el transmisor y/o fuente de ruido hasta el

receptor.

Figura 6. Esquema de un sistema transmisor_receptor

Clasificación de señales analógicas

La primera clasificación que se realizara son las señales en tiempo continuo y

en tiempo discreto. Una señal x(t) es una señal continua si está definida para

todo el tiempo t. Una señal discreta es una secuencia de números, denotada

comúnmente como x[n], donde n es un número entero. Una señal discreta se

puede obtener al muestrear una señal continua.

Clasificación de las señales de acuerdo a su variable independiente y depende

de las características del tiempo que puede ser valor continuo o discreto. Es

continuo si la variable independiente de una señal es continua y es la variable

del tiempo por tanto es una variable de tiempo continua, definida para valores

continuos de la variable independiente.

Es importante recalcar que una señal de tiempo continuo no necesariamente

esta discreta por una función matemática continua ( es decir que representa

una forma de onda continua)

A continuación se describen algunos ejemplos de señales continuas

Transmisor

Señal de

Información

Señal de información

con ruido

Canal Receptor

Page 8: Procesamiento Analogico de Senales

8

0 2 4 6 8 10 12-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1Señaloidal en tiempo continuo

t, tiempo

y(t

)

Figura 7. Señal senoidal en tiempo continuo

0 20 40 60 80 100 120 140-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1Señaloidal en tiempo discreto

t, tiempo

y(t

)

Figura 8. Señal senoidal en tiempo discreto

Estos dos tipos de señales son muy importantes dentro del procesamiento de

la información; en estos momentos nos centraremos en las funciones de

señales de tiempo continuo.

Page 9: Procesamiento Analogico de Senales

9

FUNCIONES FUNAMENTALES EN EL PROCESAMIENTO ANALÓGICO DE LA SEÑAL

Estas funciones tienen la características de ser el pilar fundamental para el

procesamiento de señales., ya que sus conceptos están inmersos dentro de los

teoremas fundamentales del procesamiento de señales.

FUNCIONES COMPLEJAS Y SENOIDES

Las funciones matemáticas se usan para describir señales, por ejemplo

señales senoidales en tiempo continuo están descritas por:

)2

cos()(0T

tAtG

El periodo fundamental To y la frecuencia cíclica fundamental fo son reciprocos

simples uno del otro

Funciones de Singularidad

Las funciones de singularidad son un grupo de funciones que están

relacionadas con la función impulso. Aparte de la función impulso están la

función escalón y la función rampa

Función Impulso La función impulso es más un concepto matemático que una función, que se

define de la siguiente manera:

0,0

0,)(

t

tInfinitot

Page 10: Procesamiento Analogico de Senales

10

1)(

0

0

dtt

La función es cero para cualquier valor de t, excepto cero.

Cuando la t es cero el valor de la función es infinito

Por definición el área de esta función es igual a uno

Figura 8. Representación gráfica de la función impulso

Función Delta

La función impulso posee algunas propiedades que pueden resultar útiles.

tt ,0)(

También es importante para posteriores desarrollos la propiedad de

desplazamiento o corrimiento.

Page 11: Procesamiento Analogico de Senales

11

)()()()()()()(

)()(

fdttfdtftdttft

fdttft

Función Escalón Unitario

La función escalón unitario se define como la integral de la función impulso

desde el infinito negativo hasta el tiempo. la integral de la función impulso es 0

si el tiempo t es menor que 0, y 1 si el tiempo t es mayor que se define

exactamente el escalón unitario.

0,1

0,0)(

tPara

tParatu

El tipo de escalón unitario corresponde a una salida. El valor de la función en

t = 0, es indefinido. Otros textos lo pueden definir como 1 ó 0. El escalón

unitario está asociado a la gráfica que se describe a continuación.

Figura 9. Representación gráfica de la función Escalón Unitario

Page 12: Procesamiento Analogico de Senales

12

Función Rampa

La función rampa es la integral de la función escalón. Si se considera que se

está sumando toda el área bajo la función escalón a hasta un tiempo t.

Si t < 0 (cero), el valor de la integral será 0 (cero). Si es mayor que 0 (cero),

entonces el valor será igual a la integral de 1 desde el tiempo 0 hasta el tiempo

t, la cual también tiene el valor t, es decir:

0,

0,0)(

tParat

tParatramp

Figura 10. Representación gráfica de la función rampa

Relación Impulso / Escalón

Tal como se puede fácilmente demostrar, la función escalón y la función

impulso están relacionados de la siguiente manera:

)()(

)()(

tudt

dt

y

tdtu

Page 13: Procesamiento Analogico de Senales

13

Relación Escalón / Rampa

Análogamente igualmente se demuestra que

)()(

)()(

trampdt

dtu

y

tdutramp

FUNCIONES EXPONENCIALES

Dada la importancia de las funciones exponenciales en el tratamiento de

señales. Dividiremos su estudio en exponenciales continuas y exponenciales

discretas. Y realizaremos ejercicios para observar los diferentes casos que

encontramos dentro del estudio de las mismas.

Señales Exponenciales Continuas

La señales exponenciales continuas están definidas de la siguiente forma

tjbaAetx )()(

donde A es la amplitud de la señal exponencial , a componente real y b

componente imaginario. Existen diferentes señales según los valores de a y b,

diferenciándose básicamente tres casos:

Page 14: Procesamiento Analogico de Senales

14

a. Señales Exponenciales Reales

Para ellas se tiene en cuenta que A Real, a ≠ 0, b = 0. Si a es positiva,

entonces conforme t se incrementa x(t) es una exponencial creciente. Si a es

negativa, entonces x(t) es una exponencial decreciente. Observemos el

comportamiento de la exponencial para los siguientes ejemplos:

Ejemplo: A = 3, a = 0.5, b = 0.

-5 -4 -3 -2 -1 0 1 2 3 4 50

5

10

15

20

25

30

35

40

x(t)=A*exp(a*t)

Señal Continua: A=3, a=0.5, b=0

Tiempo (seg)

x(t)

Figura 11. Señal exponencial creciente

Ejemplo: A = 3, a =- 0.5, b = 0.

Page 15: Procesamiento Analogico de Senales

15

-5 -4 -3 -2 -1 0 1 2 3 4 50

5

10

15

20

25

30

35

40

x(t)=A*exp(-a*t)

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

x(t)

Figura 12. Señal exponencial decreciente

Ejemplo: A = - 3, a = 0.5, b = 0.

-5 -4 -3 -2 -1 0 1 2 3 4 5-40

-35

-30

-25

-20

-15

-10

-5

0

x(t)= -A*exp(a*t)

Señal Continua: A= -3, a=0.5, b=0

Tiempo (seg)

x(t)

Figura 11. Señal exponencial creciente, con valores A negativos y a positivo

Page 16: Procesamiento Analogico de Senales

16

Ejemplo: A =- 3, a = - 0.5, b = 0.

-5 -4 -3 -2 -1 0 1 2 3 4 5-40

-35

-30

-25

-20

-15

-10

-5

0

x(t)=-A*exp(-a*t)

Señal Continua: A= -3, a=-0.5, b=0

Tiempo (seg)

x(t)

Figura 12. Señal exponencial creciente, con valores A y a negativos

b. Señales Exponenciales Complejas:

Para este tipo de señales se tiene la ecuación tjbaAetx )()( , en donde A

como Real y a = 0, b ≠ 0

Esta señal, es muy usada para describir muchos procesos físicos, es periódica

con período b

T2

. Usando la relación de Euler se puede escribir en términos

de señales senoidales

x(t) = ACos( b t ) + j ASen( b t )

Page 17: Procesamiento Analogico de Senales

17

Ejemplo: A = - 3, a = 0, b = 0.3

0 20 40 60 80 100 120-3

-2

-1

0

1

2

3

Parte real

Señal Continua: A=3, a=0, b=0.3

Tiempo (seg)

Real x(

t)

0 20 40 60 80 100 120-3

-2

-1

0

1

2

3

Parte imaginaria

Señal Continua: A=3, a=0, b=0.3

Tiempo (seg)

Imagin

aria x

(t)

Figura 13. Señal exponencial componente par e impar. Para b=0, a: negartivo

Page 18: Procesamiento Analogico de Senales

18

c. Señales Exponenciales Generales

Para este caso se tiene que A es Real, a ≠ 0, b ≠ 0.

El caso más general de una exponencial compleja.

Si a >0, x(t) corresponde a senoidales multiplicadas por una exponencial

creciente. Si a <0, x(t) corresponde a senoidales multiplicadas por una

exponencial decreciente. Para ello, se utiliza relación de Euler de la siguiente

forma:

)] t b Sen( j ) t b [Cos(e *A x(t) at

Ejemplo: A = 3, a = 1, b = 4

0 100 200 300 400 500 600-1

-0.5

0

0.5

1

1.5x 10

20 Parte real

Señal Continua: A=3, a=1, b=4

Tiempo (seg)

Real x(

t)

Page 19: Procesamiento Analogico de Senales

19

0 100 200 300 400 500 600-10

-8

-6

-4

-2

0

2

4

6

8x 10

19 Parte imaginaria

Señal Continua: A=3, a=1, b=4

Tiempo (seg)

Imagin

aria x

(t)

Figura 14. Señal senoidales multiplicadas por una exponencial creciente

Ejemplo: Graficar la señal con las siguientes condiciones A = 3, a =- 1, b = 4

Page 20: Procesamiento Analogico de Senales

20

0 100 200 300 400 500 600-1

-0.5

0

0.5

1

1.5

2x 10

-17 Parte real

Señal Continua: A=3, a= -1, b=4

Tiempo (seg)

Real x(

t)

0 100 200 300 400 500 600-1

-0.5

0

0.5

1

1.5

2x 10

-17 Parte imaginaria

Señal Continua: A=3, a= -1, b=4

Tiempo (seg)

Imagin

aria x

(t)

Figura 15. Señal senoidales multiplicadas por una exponencial decreciente

Page 21: Procesamiento Analogico de Senales

21

Señales Exponenciales Discretas

Las señales exponenciales discretas se representan matemáticamente como:

njbaAenx )(

Igualmente, según los valores de a y b, pueden diferenciarse básicamente tres

casos:

Señales Exponenciales Reales: Haciendo la asociación con el ejemplo en

exponenciales continuas y conservando las mismos valores, observaremos los

diferentes casos de las exponenciales

A Real, a ≠ 0, b = 0

Una expresión más general de x[n] sería x[n] = cn , donde c = (e a)

Si a > 0 (c > 1), entonces x[n] es una exponencial creciente.

Si a < 0 (c < 1), entonces x[n] es una exponencial decreciente.

Page 22: Procesamiento Analogico de Senales

22

Figura a.

-5 -4 -3 -2 -1 0 1 2 3 4 50

5

10

15

20

25

30

35

40

x(n)=A*exp(a*n)

Señal Continua: A=3, a=0.5, b=0

Muestra (n)

x(n

)

-5 -4 -3 -2 -1 0 1 2 3 4 50

5

10

15

20

25

30

35

40

x(n)=A*exp(-a*n)

Señal Continua: A=3, a= -0.5, b=0

Muestra (n)

x(n)

Figura b.

Page 23: Procesamiento Analogico de Senales

23

-5 -4 -3 -2 -1 0 1 2 3 4 5-40

-35

-30

-25

-20

-15

-10

-5

0

x(n)= -A*exp(a*n)

Señal Continua: A= -3, a=0.5, b=0

Muestra (n)

x(n

)

Figura c.

-5 -4 -3 -2 -1 0 1 2 3 4 5-40

-35

-30

-25

-20

-15

-10

-5

0

x(n)=-A*exp(-a*n)

Señal Continua: A= -3, a=-0.5, b=0

Muestra (n)

x(n)

Figura d.

Figura 15. Señal exponenciales: a. Exponencial creciente, b: exponencial

decreciente, c: exponencial valores A(negativo) , a(positivo), d: exponencial

valores A(negativo) , a(negativo),

Page 24: Procesamiento Analogico de Senales

24

Señales Exponenciales Complejas

Se partirá de A Real, a = 0, b ≠ 0. Esta señal, es periódica con período N si

Nb= 2m, siendo N y m enteros, en caso contrario la señal es aperiódica.

Usando la relación de Euler se puede escribir en términos de señales

senoidales:

x[n] = ACos( b n ) + j ASen( b n )

Señales Exponenciales Generales

la forma general de una exponencial está dada por A Real, a ≠ 0, b ≠ 0

Utilizando la relación de Euler se puede escribir:

x[n] = Acn [ Cos( b n ) + j Sen( b n )]

Si a > 0 (c > 1), entonces x[n] es una senoidal creciente.

Si a < 0 (c < 1), entonces x[n] es una senoidal decreciente.

Ejemplo: Señal discreta teniendo valores de A = 3, a = 0, b = 0.3

1 2 3 4 5 6 7 8 9 10 11-3

-2

-1

0

1

2

3

Parte real

Señal Continua: A=3, a=0, b=0.3

Muestra (n)

Re

al x(

n)

Page 25: Procesamiento Analogico de Senales

25

1 2 3 4 5 6 7 8 9 10 11-3

-2

-1

0

1

2

3

Parte imaginaria

Señal Continua: A=3, a=0, b=0.3

Muestra (n)

Ima

gin

aria

x(n

)

Figura 16. Señal exponenciales discreta de la forma x[n] = Acn [ Cos( b n ) + j

Sen( b n )]: Para valores de A = 3, a = 0, b = 0.3

Ejemplo: Graficar la señal exponencial discreta para los siguientes valores de

A = 3, a = -1, b = 4.

Observe que a diferencia del ejemplo anterior a presenta un valor diferente de

cero. A continuación se describe los resultados de esta graficación, la cual se

debe comprobar.

Page 26: Procesamiento Analogico de Senales

26

1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 60

0.2

0.4

0.6

0.8

1

1.2

1.4x 10

-17 Parte real

Señal Continua: A=3, a= -1, b=4

Muestra (n)

Real x(

n)

1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6-3

-2.5

-2

-1.5

-1

-0.5

0

0.5x 10

-31 Parte imaginaria

Muestra (n)

Ima

gin

aria

x(n

)

Page 27: Procesamiento Analogico de Senales

27

1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 60

2

4

6

8

10

12x 10

19 Parte real

Señal Continua: A=3, a=1, b=4

Muestra (n)

Real x(

n)

1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6-3.5

-3

-2.5

-2

-1.5

-1

-0.5

0

0.5x 10

6 Parte imaginaria

Muestra (n)

Imagin

aria x

(n)

Page 28: Procesamiento Analogico de Senales

28

SEÑALES PERIÓDICAS Y NO PERIÓDICAS

Una señal continua es periódica con periodo T si existe un valor positivo T tal

que

x(t + T) = x(t), para todo t

Cualquier señal que no sea periódica se llama no periódica o aperiódica. El

valor más pequeño de T que satisface esta ecuación se llama periodo

fundamental.

El recíproco del periodo fundamental es la frecuencia fundamental, se mide en

Hertz (ciclos por segundo) y describe qué tan seguido la señal periódica se

repite.

TF

1

La frecuencia angular, medida en radianes por segundo, se define como

N

2

Una señal discreta x[n] es periódica si satisface la condición:

x[n] = x[n + N] para todos los enteros n

donde N es un número entero. El valor más pequeño de N que satisface esta

ecuación se llama periodo fundamental.

Page 29: Procesamiento Analogico de Senales

29

Señales Pares e Impares

Una señal es par si se cumple que x(-t) = x(t) para todo t. Es impar si x(-t) = -

x(t) para todo t. Cualquier señal puede ser expresada como una suma de dos

señales, una de las cuales es par y la otra impar:

)()(2

1)(

)()(2

1)(

)()()(

txtxtx

txtxtx

donde

txtxtx

o

e

oe

Generalmente cuando se tienen varias señales multiplicándose se puede

seguir cuatro sencillas reglas, tal como se realiza al multiplicar números con

signo distinto:

a. Par * par = par

b. Par * impar = impar

c. Impar * par = impar

d. Impar * impar = par

TRANSFORMACIONES DE ESCALAMIENTO Y DESPLAZAMIENTO EN EL

TIEMPO

Escalamiento en amplitud El escalamiento en el tiempo es la transformación funcional mas sencilla, Esta

transformación presenta la siguiente notación:

Page 30: Procesamiento Analogico de Senales

30

y(t) = A*x(t)

para cualquier valor de t, la transformación multiplica el valor producido de x(t)

por A. La figura17 indica algunos ejemplos de escalamiento en amplitud, en la

figura a se encuentra la señal original x(t), en la b) se encuentra la señal

original multiplicada por una constante con valor de 3, en c) se encuentra la

señal original escalada por un valor –3 y en la d) se muestra la señal original

escalada por el valor de - 1/3. Por tanto el escalamiento en amplitud es una

transformación de la variable dependiente y.

-5 -4 -3 -2 -1 0 1 2 3 4 5-1.5

-1

-0.5

0

0.5

1

1.5

2

2.5Funcion original, x(t)

tiempo, t

am

plit

ud (

cm

)

a) Señal Original, x(t)

Page 31: Procesamiento Analogico de Senales

31

-5 -4 -3 -2 -1 0 1 2 3 4 5-6

-5

-4

-3

-2

-1

0

1

2

3

4

5

6

7

8Funcion original, y(t)=3*x(t)

tiempo, t

am

plit

ud (

cm

)

b) señal y(t) = 3*x(t)

-5 -4 -3 -2 -1 0 1 2 3 4 5-8

-6

-4

-2

0

2

4

6Funcion original, y(t)=--3*x(t)

tiempo, t

am

plit

ud (

cm

)

c) señal y(t) = -- 3*x(t)

Page 32: Procesamiento Analogico de Senales

32

-5 -4 -3 -2 -1 0 1 2 3 4 5-1

-0.5

0

0.5Funcion original, y(t)=--(1/3)*x(t)

tiempo, t

am

plit

ud (

cm

)

d) señal y(t) = -(1/3)*x(t)

Figura 17. Grafica de escalamiento en amplitud

Desplazamiento en el tiempo

El desplazamiento en el tiempo atiende a la una de las transformaciones:

a. tt to

b. tt + to

en donde to es una constante arbitraria. En el caso del inciso a, tiene el efecto

de desplazar la señal original to unidades a la derecha, en el caso del inciso b,

tiene el efecto de desplazar la señal original to unidades a la izquierda.

En el siguiente figura se ilustra una función y(t) desplazada en el tiempo.

Page 33: Procesamiento Analogico de Senales

33

-8 -6 -4 -2 0 2 4 6 8-10

0

10

20

Funcion original, y(t)

Tiempo, t

Am

plitu

d

-8 -6 -4 -2 0 2 4 6 8-10

0

10

20

Funcion desplazada, y(t+1)

Tiempo, t

Am

plitu

d

-8 -6 -4 -2 0 2 4 6 8-10

0

10

20

Funcion desplazada, y(t-1)

Tiempo, t

Am

plitu

d

Figura 18. Grafica de desplazamiento en el tiempo

Escalamiento en el tiempo

El escalamiento en el tiempo atiende a la transformación funcional t t/a. Esta

transformación expande la función original horizontalmente (en t) por un factor

a. Si tenemos la transformación funcional t a.t, contrae la función original

horizontalmente (en t) en un factor a. Si a<0, la función también se invertirá en

Page 34: Procesamiento Analogico de Senales

34

el tiempo. La figura muestra una señal original x(t), y se pide obtener x(t/2) y

x(2t).

-15 -10 -5 0 5 10 15-6

-4

-2

0

2

4

6

8

10

12

14Funcion original, y(t)

Tiempo, t

Am

plit

ud

-15 -10 -5 0 5 10 15-6

-4

-2

0

2

4

6

8

10

12

14Funcion escalada (t/2), y(t/2)

Tiempo, t

Am

plit

ud

Page 35: Procesamiento Analogico de Senales

35

-15 -10 -5 0 5 10 15-6

-4

-2

0

2

4

6

8

10

12

14Funcion escalada (2*t), y(2*t)

Tiempo, t

Am

plit

ud

Figura 18. Grafica de escalamiento en el tiempo

CAPITULO 2. PROPIEDADES DE LOS SISTEMAS

Sistemas Lineales (SL)

Un sistema es lineal se obtiene cuando la entrada de un sistema dado es

escaldado por un valor, la salida del sistema es escalado por la misma

cantidad. La entrada del sistema lineal, X, produce una salida, Y. Si se escala

en amplitud la señal X por un valor α y es pasada a través del mismo sistema,

la salida también será escalada por el mismo valor α. Como se ilustra a

continuación.

Page 36: Procesamiento Analogico de Senales

36

Figura 19. Grafica de escalamiento en sistemas lineales

Un sistema lineal es aquel que satisface el principio de superposición. El

principio de superposición exige que si dos entradas son sumadas juntas y

pasadas a través del sistema lineal, la salida será equivalente a la suma de las

dos entradas evaluadas individualmente.

Por medio del principio de superposición se muestra:

Figura 20. Principio de superposición

Si esta afirmación se cumple se dice que el sistema es lineal.

La propiedad de escalamiento en amplitud también es válida para el principio

de superposición. Por lo tanto, si las entradas x y y son escaladas por factores

S.L X

Salida Entrada

Y

S.L α X α Y

S.L X1

Salida Entrada

Y1

S.L X2 Y2

S.L X1+Y1 X2+Y2

Page 37: Procesamiento Analogico de Senales

37

α y β, respectivamente, entonces la suma de estas entradas escaladas dará la

suma de las salidas escaladas individualmente.

Figura 21. Grafica de escalamiento en amplitud en el principio de superposición

Sistemas Lineales Invariantes en el Tiempo (SIT) Un sistema invariante en el tiempo (SIT) tiene la propiedad de que cierta

entrada siempre dará la misma salida, sin consideración alguna a cuando la

entrada fue aplicada al sistema.

Figura 22. Grafica de sistemas invariantes en el tiempo

En esta figura, x(t) y x(t−t0) son pasadas a través del sistema TI. Ya que el

sistema TI es invariante en el tiempo, las entradas x(t) y x(t−t0) producen la

misma salida. La única diferencia es que la salida debida a x(t−t0) es cambiada

por el tiempo t0.

S.L α X1

Salida Entrada

α Y1

S.L β X2 β Y2

S.L α X1+X2 α Y1+Y2

SIT X(t)

Salida Entrada

Y(t)

SIT X(t-to) Y(t-to)

Page 38: Procesamiento Analogico de Senales

38

Si un sistema es invariante en el tiempo o de tiempo variado puede ser visto en

la ecuación diferencial (o ecuación en diferencia) descrita. Los sistemas

invariantes en el tiempo son modelados con ecuaciones de coeficientes

constantes. Una ecuación diferencial (o en diferencia) de coeficientes

constantes significa que los parámetros del sistema no van cambiando a través

del tiempo y que la entrada nos dará el mismo resultado ahora, así como

después.

Sistemas Lineales Invariantes en el Tiempo (LTI)

A los sistemas que son lineales y al mismo tiempo invariantes en el tiempo nos

referiremos a ellos como sistemas LTI . Como se muestra a continuación la

señal de salida es una versión escalada y desplazada en el tiempo de la señal

de entrada.

Figura 23. Sistemas LTI

Los sistemas LTI son subconjuntos de los sistemas lineales, estos obedecen al

principio de superposición. En la siguiente figura se puede observar el efecto

de aplicar el tiempo invariante a la definición de sistema lineal del sistema

anterior.

LTI X(t)

Salida Entrada

Y(t)

LTI X(t-to) Y(t-to)

LTI X1(t)

Salida Entrada

Y1(t)

LTI X2(t) Y2(t)

Page 39: Procesamiento Analogico de Senales

39

Aplicando el principio de superposición se tiene: Los Sistemas LTI pueden trabajar en Serie o Paralelo. Si dos o mas sistemas

están en serie uno con otro, el orden puede ser intercambiado sin que se vea

afectada la salida del sistema. Los sistemas en series también son llamados

como sistemas en cascada.

Figura 24. Sistema LTI en Cascada

Si dos o mas sistemas LTI están en paralelo con otro, un sistema equivalente

es aquel que esta definido como la suma de estos sistemas individuales.

Figura 25. Sistema LTI en paralelo

LTI X1(t-t1)+ X2(t-t2)

Salida Entrada

Y1(t-t1)+ Y2(t-t2)

H1 H2

H1

H2

H1 + H2

Page 40: Procesamiento Analogico de Senales

40

CAPITULO 3. SISTEMAS LINEALES

Función Delta de Dirac La Función Delta de Dirac, conocida también como el impulso unitario o función

delta es una función infinítamente angosta, infinítamente alta, cuya integral

tiene un valor unitario. Tal vez la manera mas simple de visualizar esto es usar

un pulso rectangular que va de a-(/2) a a+(/2) con una altura de (1/) .

Como se observa a continuación.

Figura 26. Función delta de Dirac

Al momento de tomar su límite, lim0, se puede observar que su ancho tiende a

ser cero y su altura tiende a infinito conforme su área total permanece

constante con un valor de uno. La función del impulso usualmente se escribe

como:

∫−∞∞δ(t) dt=1

por tanto la función se puede representar como:

/2

(1/)

-/2

Page 41: Procesamiento Analogico de Senales

41

En primera instancia se observara el comportamiento de la función Delta

multiplicada por otra función

f(t) δ(t) =f(0) δ(t)

Esta función es cero en todas partes excepto en el origen, así que básicamente

estamos eliminando el valor de la función de multiplicación al evaluarla en cero.

A primera vista esto no parece tener mayor importancia, porque ya sabemos

que el impulso evaluado en cero es infinito, y todo lo multiplicado por infinito da

un resultado infinito. Pero, ¿qué pasa si integramos el resultado de la

multiplicación?

Propiedad de Desplazamiento

∫−∞∞f(t) δ(t) dt=∫−∞

∞f(0) δ(t) dt= f(0) ∫−∞∞δ(t) dt= f(0)

Lo que se obtiene es una función evaluada en cero. Si hubiéramos usado

δ(t−T) en vez de δ(t), podríamos haber desplazado f(T). A esto es lo que

llamaremos la propiedad de desplazamiento de la función de Dirac, el cual se

usa frecuentemente para definir el impulso unitario.

1

Page 42: Procesamiento Analogico de Senales

42

Esta propiedad es muy útil al momento de desarrollar la idea de convolución la

cual es una de los fundamentos principales para el procesamiento de señales.

Al usar convolución y esta propiedad podemos representar una aproximación a

cualquier resultado de un sistema si se conoce la respuesta al impulso del

sistema y su señal de entrada..

Propiedades de Impulso Unitario

El impulso unitario se puede definir en forma funcional como

δ[t] =

Las propiedades del impulso unitario son:

unitario.escalón el es u(t) donde

(t)u dt

d (t)

(-t) (t)

(t) 1

t)(

Impulso de tiempo-discreto (muestreo unitario)

La extensión de la función impulso unitario al tiempo-discreto se convierte en

una trivialidad. Todo lo que realmente necesitamos es darnos cuenta que la

integración en tiempo-continuo equivale a una sumatoria en tiempo-discreto.

Por lo tanto buscaremos una señal que al sumarla sea cero y al mismo tiempo

sea cero en todas partes excepto en el origen.

Impulso de Tiempo-Discreto

1, si t = 0 0 en otro caso

Page 43: Procesamiento Analogico de Senales

43

Se define de la siguiente forma

δ[n] =

Figura 27. Impulso de Tiempo-Discreto

Al analizar una gráfica de tiempo-discreto de cualquier señal discreta, uno

puede notar que todas las señales discretas están compuestas de un conjunto

de muestras unitarias que están escalados y desplazados en el tiempo. Si

dejamos que el valor de una secuencia en cada entero k sea descrita por s[k] y

la muestra unitaria retrasado que ocurre en k sea escrito como δ[n−k], se

puede escribir cualquier señal como la suma de impulsos unitarios retrasados

que son escalados por un valor de la señal, o por coeficientes de escalamiento.

s[n] = ∑∞ k=−∞… s[k] δ[n−k]

Esta ecuación es una propiedad que solo se aplica a señales de tiempo-

discreto y resulta ser una propiedad muy útil para estas señales.

.

La Respuesta de Impulso

La respuesta de impulso es exactamente lo que su nombre implica- la

respuesta de un sistema LTI, como por ejemplo un filtro, cuando la señal de

1, si n = 0 0 en otro caso

1

Page 44: Procesamiento Analogico de Senales

44

entrada del sistema es un impulso unitario (o muestra unitaria). Un sistema

puede ser completamente descrito por su respuesta al impulso por las razones

explicadas previamente, ya que todas las señales pueden ser representadas

por una superposición de señales. Una respuesta al impulso da una

descripción equivalente a la dada por una función de transferencia, ya que

existen Transformadas de Laplace para cada una.

.

Función de transferencia

En un sistema lineal e invariante en el tiempo (LTI), se definie la función de

transferencia como la transformada de Laplace de la salida dividida en la

transformada de Laplace de la entrada, bajo condiciones iniciales nulas.

La función de transferencia se expresa como

H(s)=Y(s) / X(s)

Si la función de entrada es una función impulsional; es decir,

X(t)= (t) X(s)= 1 y H(s)=Y(s)

Las raíces del numerador de H(s) se conoce como ceros y las raíces del

denominador se conoce como polos de la FT. La representación grafica de una

función de transferencia en el plano complejo s se le conoce como diagramas

de polos y ceros.

L.T.I X(t)

Salida Entrada

Y(t)

Page 45: Procesamiento Analogico de Senales

45

UNIDAD 2

CAPITULO 4. Muestreo

Introducción.

Muchos equipos y dispositivos modernos requieren procesar la señales

analógicas que reciben y convertirlas en señales digitales para poder funcionar.

Harry Nyquist propuso un teorema que ha tenido efectos profundos en la teoría

de información así como el diseño práctico de técnicas de comunicaciones de

datos que implican la digitalización de señales análogas. Nyquist fue un de los

pioneros más importantes de la teoría de comunicación. En 1924, Nyquist

publicó el artículo " Certain Factors Affecting Telegraph Speed." Él observó que

la velocidad de una transmisión en el cable era proporcional a la anchura de las

frecuencias usadas, hoy conocida como la ancho de banda del circuito. En

1928 Nyquist publicó uno segundo artículo importante “Certain Topics in

Telegraph Transmisión Theory”. En ello, Nyquist postuló un teorema que

propuso que muestras tomadas dos veces el valor de la frecuencia mayor de la

señal puede representar la señal perfectamente. El teorema está basado sobre

la asunción que la transmisión es en uno canal sin ruido. Este es un concepto

muy importante, y utilizado en el campo de ingeniería de telecomunicaciones.

Muestreo de señales

Para convertir una señal analógica en digital, se debe realizar una serie de

pasos. Es necesario primero realizar un muestreo o sampling de la señal, es

decir, tomar diferentes muestras de tensiones o voltajes en diferentes puntos

de la onda senoidal. La frecuencia a la que se realiza el muestreo se denomina

razón, tasa o también frecuencia de muestreo y se mide en kilohertz (kHz).

Durante el proceso de muestreo se asignan valores numéricos equivalentes a

Page 46: Procesamiento Analogico de Senales

46

la tensión o voltaje existente en diferentes puntos de la sinusoide, con la

finalidad de realizar a continuación el proceso de cuantización.

Figura 28. representación física de un sistema de muestreo

En la siguiente figura se ofrece las formas de las tres señales principales:

S(t): Señal a muestrear

: Señal muestreadora Sd(t): Señal muestreada

Figura 29. Muestreo de señales

Page 47: Procesamiento Analogico de Senales

47

Teorema del muestreo (Teorema de Nyquist-Shannon)

El muestreo periódico de una señal analógica se realiza cuando tomamos

mediciones de la misma a intervalos iguales. Por ejemplo cuando se graba una

señal de audio a la PC mediante una placa de sonido, el conversor A/D de la

PC estará digitalizando la señal a una cierta frecuencia tal como 11, 22, ó 44

kHz, denominada frecuencia de muestreo. Si la frecuencia de muestreo es muy

baja, es decir mediciones demasiado espaciadas, se perderán “detalles” de la

señal original. Mediante una simple demostración gráfica se puede ver. En las

figuras A-B-C-D hemos representado cuatros señales distintas (en línea azul)

muestreadas periódicamente a igual frecuencia (los círculos rojos denotan las

“muestras”). En A y B las señales aparecen correctamente representadas por

las muestras, en C la velocidad de muestreo parece insuficiente, y en D las

muestras representan una señal como la de B, es decir la señal de D es un

“alias” de la señal de B. Este efecto se denomina en inglés “aliasing”.

Figura 30. Teorema de Nyquist-Shannon

A.

B.

C.

D.

Page 48: Procesamiento Analogico de Senales

48

El Teorema del Muestreo, o Teorema de Nyquist-Shannon, establece que la

frecuencia mínima de muestreo necesaria para evitar el “aliasing” debe ser.

fs > 2.BW

con fs: frecuencia de muestreo, BW: ancho de banda de la señal a muestrear

BW = fmax - fmin

Para señales con fmin = 0, se puede expresar como

fs > 2 .fmax

Para demostrar el teorema se recurre a los conceptos básicos de series de

Fourier y trigonometría.

Conceptos básicos de Series de Fourier

Una función s(t) periódica en el tiempo, con período T, puede ser representada

por una sumatoria de funciones senoidales del tipo

)2cos(

)2cos(

...)32cos()22cos()2cos()(

1

1

3322110

kk

Nn

tfkC

tfnC

tfCtfCtfCCtS

Para k = 0, 1, 2,...,n

Es decir una serie de componentes cosenoidales de amplitud Ck, fase k y

frecuencia fk = k.f múltiplo de la frecuencia fundamental f=1/T (la de la función

representada). Es la conocida serie de Fourier.

La representación de estas amplitudes Ck sobre un diagrama Amplitud vs

frecuencia es lo que denominamos diagrama espectral o espectro de

frecuencia de la señal. La componente c0 es la componente de frecuencia 0

Page 49: Procesamiento Analogico de Senales

49

(componente de continua). Se puede hablar así de una función S(f), con

dominio 0, f, 2f, 3f...nf e imagen c0, c1, c2, c3... cn.

La señal analógica, que se quiere muestrear, en caso de ser periódica tendrá

un espectro que será una suma de componentes senoidales de frecuencias

espaciadas a intervalos f=1/T o una integral de componentes senoidales de

frecuencias infinitamente próximas entre sí. Por ejemplo, el espectro de

amplitud de una señal s(t) cuadrada sigue una ley S(f)=1/f (pero con las

componentes pares c2, c4, c6... nulas). Este espectro es teóricamente infinito

(ancho de banda infinito). Las señales reales ocupan un ancho de banda finito.

Por ejemplo una señal de audio ocupa un rango de frecuencias entre unos

20Hz y 15 kHz.

Si una señal no es periódica, en vez de una sumatoria de componentes

espaciadas a intervalos 1/T, se tiene una integral (no periódica es período T

infinito, espaciamiento 1/T nulo). La forma de calcular la S(f) de una función no

periódica en el tiempo es mediante la Transformada de Fourier.

Aún así, si una señal es no periódica, sus componentes ocuparán una cierta

banda de frecuencias. Lo que realmente interesa es el espectro de la función

impulso repetitivo, ya que la señal obtenida como muestreo periódico de una

señal analógica equivale al producto de dicha señal analógica por la función

impulso repetitivo.

La función impulso (no repetitivo) d(t1) es aquella que vale 1 en t = t1 y 0 en t

t1.

La función impulso repetitivo es dr(t)=d(0)+d(T)+d(2.T)+ d(3.T) .... es decir

impulsos espaciados T segundos en el tiempo, o lo que es lo mismo con

frecuencia de repetición f = 1/T.

Esta señal tiene un espectro

Dr(f) = k.[d(0) + d(f) + d(2.f) + d(3.f)+.....], con k cte.

Page 50: Procesamiento Analogico de Senales

50

Es decir (sin considerar la fase) dr(t)=k.(1+ cos(2..f.t)+ cos(2.2.f.t)+

cos(2.3.f.t)+.... [Ecuación 2]

En las gráficas siguientes se representan en el dominio del tiempo (izquierda)

funciones impulso repetitivo de 10 y 20 Hz y sus espectros correspondientes

(derecha).

Figura 31. Señales en el dominio del tiempo y sus correspondientes espectros

Ya se tienen los elementos para la demostración:

Por trigonometría se tienen que:

cos(a).cos(b) = ½ [cos (a+b) + cos(a-b)] [Ecuación. 3]

Por ejemplo, al multiplicar una señal cosenoidal de amplitud 1 y 5 kHz por una

señal cosenoidal de amplitud 1 y 50kHz resultan dos componentes

cosenoidales de amplitud 0,5 y 45kHz y 0,5 y 55kHz.

Page 51: Procesamiento Analogico de Senales

51

Figura 32. Señales señoidales a diferentes frecuencias con sus espectros.

Al muestrear la señal analógica s(t) obtenemos una señal s*(t) que equivale al

producto de la señal original por la función impulso repetitivo dr(t) .

s*(t)=s(t).dr(t) [Ecuación 4].

Reemplazando en la Ecuación 4 s(t) por Ecuación 1 y dr(t) por Ecuación 2

(sin considerar la fase ni el factor k en la Ecuación 2) se obtiene

s*(t)=s(t).dr(t)=[c0+c1.cos(2..fa.t)+ c2.cos(2..2.fa.t)+...+

cn.cos(2..n.fa.t)].[k.(1+ cos(2..fs.t)+ cos(2..2.fs.t)+ cos(2..3.fs.t)+....]

con fa frecuencia de la señal analógica y fs frecuencia de muestreo.

aplicando distributiva y la identidad trigonométrica de la Ecuación. 3 se obtiene

una serie de componentes cosenoidales cuyas frecuencias serán

fs fa, fs2.fa, fs 3.fa.....2.fs fa, 2.fs 2.fa, 2.fs 3.fa, ... 3.fs fa, 3.fs 2.fa,

3.fs3.fa...

Page 52: Procesamiento Analogico de Senales

52

Agrupadas de la siguiente manera

(fs fa, fs2.fa, fs3.fa...)(2.fsfa, 2.fs2.fa, 2.fs3.fa, ...)( 3.fsfa, 3.fs2.fa,

3.fs3.fa...)...

Cada grupo reproduce el espectro de la señal s(t) y su “reflejo” sobre las

componentes fs, 2fs, 3fs.

El mismo análisis es válido para una señal no periódica.

En las gráficas siguientes se ilustra la señal a muestrear y su espectro, la señal

muestreada a una frecuencia fs > fmax, y finalmente la señal muestreada a fs <

fmax, resultando el efecto de “aliasing”.

Page 53: Procesamiento Analogico de Senales

53

file:///C:/WINDOWS/Archivos temporales de

Internet/Content.IE5/W5MRGDI3/TMuestreo[1].doc

http://www.elprisma.com/apuntes/curso.asp?id=11349

Una de las aplicaciones donde se puede apreciar más el concepto de aliasing

es en el procesamiento de imágenes. El aliasing ocurre cuando se intenta

representar una imagen pero que debido a la resolución resulta que éste sea

incapaz de representar la curva como tal, y por tanto dichas curvas se

Page 54: Procesamiento Analogico de Senales

54

muestran en pantalla dentadas al estar compuestas por cuadros menudos (los

pixeles). Como se puede observar en las siguientes imágenes

Sin Aliasing Con aliasing

Figura 33. Imágenes con y sin aliasing.

CAPITULO 5. Cuantificación

Introducción

Una vez realizado el muestreo de la señal, se continua con la cuantización

(quantization) de la señal analógica. Para esta parte del proceso los valores

continuos de la sinusoide se convierten en series de valores numéricos

decimales discretos correspondientes a los diferentes niveles o variaciones de

voltajes que contiene la señal analógica origina.

Por tanto, la cuantización representa el componente de muestreo de las

variaciones de valores de tensiones o voltajes tomados en diferentes puntos de

la onda sinusoidal, que permite medirlos y asignarles sus correspondientes

valores en el sistema numérico decimal, antes de convertir esos valores en

sistema numérico binario. Como muestra la siguiente figura 34.

Page 55: Procesamiento Analogico de Senales

55

Figura 34. Grafica de cuantización de señales

Sin embargo, en esta parte se realizará énfasis en el proceso de cuantificación

de la señal.

Cuantificación

La cuantificación es la conversión de una señal discreta en el tiempo evaluada

de forma continua a una señal discreta en el tiempo discretamente evaluada. El

valor de cada muestra de la señal se representa como un valor elegido de entre

un conjunto finito de posibles valores.

Se conoce como error de cuantificación (o ruido), a la diferencia entre la señal

de entrada (sin cuantificar) y la señal de salida (ya cuantificada), interesa que el

ruido sea lo más bajo posible. Para conseguir esto, se pueden usar distintas

técnicas de cuantificación

Page 56: Procesamiento Analogico de Senales

56

Cuantificación uniforme

En los cuantificadores uniformes (o lineales) la distancia entre los niveles de

reconstrucción es siempre la misma, como se observa en la siguiente figura:

No hacen ninguna suposición acerca de la naturaleza de la señal a cuantificar,

de ahí que no proporcionen los mejores resultados. Sin embargo, tienen como

ventaja que son los más fáciles y menos costosos de implementar. En la

siguiente figura se ve un ejemplo de cuantificación uniforme:

Figura 35. Grafica de cuantización uniforme

Cuantificación logarítmica

Las señales de voz pueden tener un rango dinámico superior a los 60 dB, por

lo que para conseguir una alta calidad de voz se deben usar un elevado

número de niveles de reconstrucción. Sin embargo, interesa que la resolución

del cuantificador sea mayor en las partes de la señal de menor amplitud que en

las de mayor amplitud. Por tanto, en la cuantificación lineal se desperdician

niveles de reconstrucción y, consecuentemente, ancho de banda. Esto se

puede mejorar incrementando la distancia entre los niveles de reconstrucción

conforme aumenta la amplitud de la señal.

Page 57: Procesamiento Analogico de Senales

57

Un método sencillo para conseguir esto es haciendo pasar la señal por un

compresor logarítmico antes de la cuantificación. Esta señal comprimida puede

ser cuantificada uniformemente. A la salida del sistema, la señal pasa por un

expansor, que realiza la función inversa al compresor. A esta técnica se le

llama compresión. Su principal ventaja es que es muy fácil de implementar y

funciona razonáblemente bien con señales distintas a la de la voz. Para llevar a

cabo la compresión existen dos funciones muy utilizadas: Ley-A (utilizada

principalmente en Europa) y ley-µ(utilizada en EEUU).

Ley-A :

11

)sgn(log1

)/(log1

10)sgn(

log1

)(

max

max

max

max

x

x

Asix

A

xxAx

Ax

xsix

A

xA

xc

e

e

e

Ley-µ :

)sgn()1(log

)/1(log)(

max

max xxx

xxce

e

En la mayoría de los sistemas telefónicos, A se fija a 87.56 y µ a 255.

La siguiente figura muestra la gráfica de la ley-µ para distintos valores de µ:

Page 58: Procesamiento Analogico de Senales

58

Figura 36. Grafica de cuantización logarítmica

Cuantificación no uniforme

El problema de la cuantificación uniforme es que conforme aumenta la amplitud

de la señal, también aumenta el error. Este problema lo resuelve el

cuantificador logarítmico de forma parcial. Sin embargo, si se conoce la

función de la distribución de probabilidad, podemos ajustar los niveles de

recontrucción a la distribución de forma que se minimice el error cuadrático

medio. Esto significa que la mayoría de los niveles de reconstrucción se den en

la vecindad de las entradas más frecuentes y, consecuentemente, se minimice

el error (ruido).

La siguiente figura representa la cuantificación no uniforme

Figura 37. Grafica de cuantización no uniforme

Page 59: Procesamiento Analogico de Senales

59

En la práctica, se puede usar una estimación de la distribución para diseñar los

cuantificadores. Esta estimación se puede obtener a partir de los datos a

cuantificar de forma iterativa.

Cuantificación vectorial

En los métodos anteriores, cada muestra se cuantificaba independientemente a

las muestras vecinas. Sin embargo, la teoría demuestra que ésta no es la mejor

forma de cuantificar los datos de entrada. Resulta más eficiente cuantificar los

datos en bloques de N muestras. El proceso es sencillamente una extensión de

los anteriores métodos escalares descritos anteriormente. En este tipo de

cuantificación, el bloque de N muestras se trata como un vector N-dimensional.

En la siguiente figura se observa un ejemplo de cuantificación vectorial (VQ) en

dos dimensiones:

Figura 38. Grafica de cuantización vectorial

El plano XY está dividido en seis regiones distintas. El vector de entrada (con

dos componentes) se reemplaza se reemplaza por el centroide i (representa

Page 60: Procesamiento Analogico de Senales

60

todos los vectores de una determinada región i) de la región a la que

pertenece.

La cuantificación vectorial ofrece mejores resultados que la cuantificación

escalar, sin embargo, es más sensible a los errores de transmisión y lleva

consigo una mayor complejidad computacional.

Ruido de cuantificación

Figura 39. Procesos de la conversión A/D.

Se define como error de cuantificación o ruido de cuantificación a la señal en

tiempo discreto y amplitud continua introducida por el proceso de cuantificación

y que resulta de igualar los niveles de las muestras de amplitud continua a los

niveles de cuantificación más próximos. Una vez cuantificadas las muestras

podrán ser codificadas ya que siempre se podrá establecer una

correspondencia biunívoca entre cada nivel de cuantificación y en número

entero. Para el caso del cuantificador ideal se trata del único error que

introduce el proceso.

Page 61: Procesamiento Analogico de Senales

61

Figura 40. Proceso de cuantificación

http://es.wikipedia.org/wiki/Imagen:FuncionTransferenciaCuantificador.svg

Función de transferencia del proceso de cuantificación. Un intervalo de valores

de entrada (escalón de cuantificación) se corresponde con un único valor de

salida. Así, por cada valor de entrada se obtiene un valor de salida y un error

que, si se resta al de salida, devolvería el valor de entrada. El error es máximo

cuando el valor de entrada es equidistante a sus dos niveles de cuantificación

más próximos (se dice entonces que se encuentra sobre el nivel de decisión).

El error es cero cuando el valor de entrada equivale a un nivel de cuantificación

y, por tanto, al nivel de salida. Se puede observar que la amplitud máxima del

error es de medio escalón de cuantificación (Δ = Escalón de cuantificación)

mientras la señal de entrada se encuentra dentro del rango de cuantificación.

El proceso de convertir una señal en tiempo discreto de amplitud continua (esto

es, en el proceso de muestreo la señal se ha dividido en el tiempo en un

número finito de muestras pero el valor de estas aún no ha sido limitado en

precisión) en una señal discreta en tiempo y amplitud (sus dos dimensiones),

expresando cada muestra por medio de una precisión finita y conocida (en

contraposición a una precisión infinita -en matemática- o indeterminada -en

física-) consecuencia del ajuste a un número finito y determinado de niveles, se

denomina cuantificación. La diferencia que resulta de restar la señal de entrada

a la de salida es el error de cuantificación, esto es, la medida en la que ha sido

necesario cambiar el valor de una muestra para igualarlo a su nivel de

Page 62: Procesamiento Analogico de Senales

62

cuantificación más próximo. Esta diferencia, entendida como una secuencia de

muestras de tiempo discreto pero de amplitud continua (al igual que la señal de

entrada), puede ser interpretado en la práctica como una señal indeseada

añadida a la señal original (motivo por el que se denomina ruido, aunque no

siempre cumpla con todos los criterios necesarios para ser considerado así y

no distorsión), de modo que se cumple:

Figura 41. Modelo matemático del ruido de cuantificación.

De esta representación se puede extraer

)()()( nxnq

xnq

e

donde

)(nx representa a la secuencia de muestras de amplitud continua a la entrada

del cuantificador

Page 63: Procesamiento Analogico de Senales

63

)(nxq Es la secuencia de muestras de amplitud discreta (cuantificadas) a la

salida del cuantificador

)(neq representa a la secuencia de muestras de amplitud continua del error de

cuantificación.

El receptor/lector de )(nq

x (o de su versión codificada posterior) no tiene la

información necesaria para identificar el componente de error )(neq que

incluye y poder recuperar )(nx . Es decir, la reconstrucción de las muestras

originales de amplitud continua (sin cuantificar) no es posible sólo a partir de

las muestras cuantificadas: falta la información necesaria para distinguir el error

de la señal una vez estos se suman en la cuantificación.

En la Figura 42 es posible verificar que el error de cuantificación )(neq está

siempre en el rango -Δ/2 a Δ/2 mientras la señal analógica de entrada se

encuentre dentro del rango del cuantificador:

2)(

2

n

qe

donde es el tamaño del escalón de cuantificación que viene dado por:

L

R

donde es el rango del cuantificador y el número de niveles de

cuantificación.

Page 64: Procesamiento Analogico de Senales

64

Figura 42: Grafica de cuantificación de un senoide

La línea roja en la figura 42 corresponde con las muestras (2000 en este

ejemplo para el ciclo completo por lo que produce la ilusión de ser continua) sin

cuantificar (muestras de entrada al cuantificador) de una señal original

sinusoidal sin dither, la verde representa esas mismas muestras de entrada

cuantificadas (salida del cuantificador ideal) y la azul muestra el error de

cuantificación que resulta del proceso de cuantificación.

La relación señal a ruido de cuantificación (SQNR) es para este caso de sólo

24,74 dB con objeto de resaltar el error de cuantificación y su forma. Dicho de

otro modo, la amplitud de la sinusoidal original de entrada (línea roja) es de 7,5

niveles de cuantificación (la máxima amplitud de una sinusoidal que puede

cuantificar un cuantificador por redondeo de 4 bits ya que el nivel de

cuantificación de valor 0 no puede estar centrado al haber un número par de

niveles totales).

Page 65: Procesamiento Analogico de Senales

65

Con objeto de poner de manifiesto el ruido de cuantificación, a la señal de

entrada sinusoidal de este ejemplo no se le ha añadido Dither (un ruido

analógico que se añade intencionadamente a la señal de entrada antes de la

conversión A/D). En la práctica, y como consecuencia de la lógica y habitual

práctica de añadir dither (véase Ruido o distorsión: la necesidad de añadir

dither), la figura notablemente escalonada de una señal cuantificada como la

ilustrada aquí adquiere el aspecto de la Figura 42 color verde.

En el caso de que el error está limitado en magnitud [es decir, 2

)(

neq ], el

error resultante se denomina ruido granular. Cuando la entrada cae fuera del

rango de cuantificación (recorte), )(neq es ilimitado y resulta en ruido de

sobrecarga.

Teóricamente, la cuantificación de las señales analógicas resulta siempre en

una pérdida de información (incluso en su caso ideal). Éste es el resultado de

la ambigüedad introducida por la cuantificación. De hecho, la cuantificación es

un proceso no reversible, dado que a todas las muestras a un intervalo inferior

a Δ/2 de un determinado nivel se les asignan el mismo valor. Sin embargo,

discretizar una señal en su otra dimensión (el tiempo) mediante el proceso de

muestreo, no es irreversible tal y como demuestra el teorema de muestreo y si

se cumplen los criterios que impone el propio teorema debido a la naturaleza

periódica y, por tanto, determinista de las señales que se someten a este

proceso y a la limitación del ancho de banda (límite superior a la frecuencia de

los componentes que componen la señal periódica).

Es decir, una onda periódica muestreada cumpliendo los criterios de Nyquist

sólo puede comportarse de un único modo entre dos muestras contiguas y este

comportamiento es totalmente deducible a partir de la serie completa de

muestras de amplitud continua de la señal. La discretización de la dimensión

amplitud (la cuantificación), es, por tanto, el único proceso que introduce un

error teórico (en procesos ideales) sobre la señal original en todo el

procedimiento completo de digitalización de una señal.

Page 66: Procesamiento Analogico de Senales

66

Espectro y distribución de probabilidad de la amplitud del error de

cuantificación

El ruido de cuantificación es aproximadamente de distribución uniforme en

amplitud y de densidad espectral más o menos constante sobre toda la banda

de Nyquist (hasta la frecuencia crítica) en el supuesto de que el error de

cuantificación no está correlacionado con la señal ni presente periodicidad. En

este caso es posible referirse al error de cuantificación como un ruido blanco

uniforme.

Bajo ciertas condiciones donde la tasa de muestreo y la señal están

relacionados armónicamente, esto es, que alguno de sus componentes

armónicos sea de una frecuencia submúltiplo par de la de muestreo, el error de

cuantificación queda correlacionado y la energía se concentra en los armónicos

de la señal (si bien la potencia del error es, en general, la misma que para el

caso no correlacionado). En este caso, cuando la señal no deseada es función

de la señal de entrada, el error no es un ruido y debe ser descrito como

distorsión.

Cálculo de la relación señal-ruido de cuantificación (SQNR)

Si se cumplen las siguientes suposiciones sobre las propiedades estadísticas

de )(neq :

1. El error )(neq se distribuye uniformemente sobre el rango

2)(

2

neq

2. La secuencia de error )(neq es una secuencia estacionaria de ruido blanco.

En otras palabras, el error )(neq y el error )(meq para están

incorrelados.

Page 67: Procesamiento Analogico de Senales

67

3. La secuencia de error )(neq está incorrelada con la secuencia )(nx .

4. La secuencia )(nx tiene media cero y es estacionaria.

el efecto del ruido aditivo )(neq en la señal deseada se puede cuantificar

evaluando la relación (potencia) señal a ruido de cuantificación (SQNR), que se

puede expresar en escala logarítmica (en decibelios o dB) como

n

x

P

PSQNR 10log10

donde xP es la potencia de la señal y nP es la potencia del ruido de

cuantificación.

En adelante y para el resto de los cálculos sobre la potencia promedio del error

de cuantificación, se aceptará que el error cumple con las propiedades

estadísticas descritas. No obstante, en general, estas suposiciones no se

mantienen, por lo que los cálculos que siguen no se entenderán de aplicación

universal. Sin embargo, se mantienen cuando el tamaño del escalón de

cuantificación es pequeño en relación con la señal y la secuencia

)(nx atraviesa varios niveles de cuantificación entre dos muestras sucesivas.

Potencia del error de cuantificación

Page 68: Procesamiento Analogico de Senales

68

Figura 43: Función de densidad de probabilidad

Función de densidad de probabilidad de los valores del error de cuantificación.

Se trata de una distribución uniforme continua en el rango (-Δ/2, Δ/2). Como se

observa en la figura 43. Su varianza es de Δ²/12 y su desviación estándar (σe)

está marcada en rojo.

Si el error de cuantificación se mantiene uniforme en el rango (-Δ/2, Δ/2)

(Figura 6), el valor medio del error es, por tanto, cero y la potencia del ruido en

toda la banda de Nyquist con relación al escalón de cuantificación es la

varizanza e2 de esta distribución uniforme:

1212

11)(

23222

2

2

2

2

deedeepeP en

Este resultado coincide con la potencia promedio de una onda triangular o en

dientes de sierra de amplitud máxima (amplitud de pico o cresta) : una

señal en dientes de sierra )(te de esta amplitud de pico en el intervalo

correspondiente a un semiciclo (0, π) se puede describir:

Page 69: Procesamiento Analogico de Senales

69

tparatte 0,2

)(

Por tanto, la potencia de la señal en dientes de sierra es:

124

1

4

11)(

1 22

0

2

22

0

2

2

0

2

dttdttdttePn

que coincide con el análisis por la varianza del primer cálculo.

Es importante notar que estos cálculos se refieren a la potencia total del ruido

de cuantificación distribuido en todo el intervalo de frecuencias desde corriente

continua hasta la frecuencia de Nyquist (la mitad de la tasa de muestreo), es

decir, no contempla la reducción de la potencia consecuencia del uso de un

filtro por sobremuestreo en la conversión A/D.

Potencia de una señal armónica (sinusoidal)

Para una señal armónica (sinusoidal) )(tx de amplitud de pico

122

2 bb

A , es decir, de máxima amplitud para el rango de

convertidor de un bits, la potencia xP , se obtiene:

8

4)(

2

1)2(

)()2(2

1)(

2

1

22

0

221

2

0

221

2

0

2

bb

b

x

dttsen

dttsendttxP

Page 70: Procesamiento Analogico de Senales

70

Conocida la potencia np del error de cuantificación en función del escalón de

cuantificación y la potencia xp de una señal sinusoidal de amplitud máxima

para un convertidor de rango b2 siendo el número de bits que

caracteriza al cuantificador, se puede sustituir en la ecuación antes

mencionada del cálculo de la relación SNQR (resultado expresado en dB):

7609.10206.62

3log10)4log(10

2

3log)4log(10

)2

34log(10

8

124log10

12

8

4

log10log102

2

bb

P

PSQNR

b

bb

b

n

x

En ocasiones se describe esta relación sin la constante "1,761". Esto es debido

a que no se ha tenido en cuenta que la relación señal a ruido no es una simple

relación entre amplitudes de pico: se relacionan las potencias de dos señales y

éstas, en relación a su amplitud de pico, dependen de su forma de onda. En el

caso de la aproximación descrita con la constante "1,761", lo que se relaciona

es una sinusoidal pura máxima con un ruido cuya amplitud en las muestras

cumple una densidad de probabilidad uniforme. La necesidad de añadir una

constante resulta del hecho de que la potencia de una sinusoidal es un 50%

mayor que la del ruido de distribución uniforme de idéntica amplitud de pico

[10·log (1,5) ≈ 1,761]. Si la señal de referencia (máxima) no fuera una

sinusoidal pura, este valor sólo sería una aproximación. El uso de una

sinusoidal pura como referencia resulta, por tanto, de una convención.

Es necesario recordar que aunque la aproximación SQNR ≈ 6,0206b + 1,7609

se emplea casi universalmente para la determinación de la relación señal a

ruido de cuantificación máxima teórica de un cuantificador, ésta sólo es un

cálculo preciso para una señal de entrada sinusoidal de máxima amplitud (que

Page 71: Procesamiento Analogico de Senales

71

cubre todo el rango del cuantificador) y cuyo error de cuantificación cumple las

suposiciones estadísticas descritas en el cálculo de la potencia del error (véase

Ruido o Distorsión).

La relación SQNR aquí mostrada contempla un ruido que se extiende por toda

la banda de Nyquist. Si parte de esta banda se filtra se deberá añadir una

constante para la banda restante.

Valor eficaz (RMS) del error de cuantificación

Si el error de cuantificación se mantiene uniforme en el rango (-Δ/2, Δ/2), el

valor medio del error es, por tanto, cero y el valor eficaz (raíz cuadrática

media o RMS del inglés Root Mean Square) del ruido expresado en escalones

de cuantificación es igual a la desviación estándar de esta distribución

uniforme:

6

3

32)

12(

11)(

32

2

22

2

2

deedeepee

Es importante recalcar que estos cálculos se refieren al valor eficaz del ruido de

cuantificación distribuido en todo el intervalo de frecuencias desde CC hasta la

frecuencia de Nyquist (la mitad de la tasa de muestreo), es decir, no contempla

la reducción del valor eficaz consecuencia del uso de un filtro por

sobremuestreo en la conversión A/D.

Valor eficaz (RMS) de una señal armónica (sinusoidal)

Page 72: Procesamiento Analogico de Senales

72

Para una señal armónica (sinusoidal) )(tx de amplitud de pico

122

2 bb

A .

Es decir, de máxima amplitud para el rango de convertidor de un bits, el valor

eficaz en escalones de cuantificación , se obtiene:

4

)2(2

2

2)(

2

1)2(

)()2(2

1)(

2

1

12

0

21

2

0

221

2

0

2

bbb

b

x

dttsen

dttsendttx

Claro esta, que también es posible deducir la relación señal a ruido de

cuantificación (SQNR) a partir de los valores eficaces del ruido y la señal

sinusoidal máxima para un número determinado de bits mediante:

7609.10206.62

6log20)2log(20

2

6log20)2log(20

)2

232log(20

6

)(3

4

)2(2

log20log20

bb

SQNR

b

b

b

n

x

La relación SQNR aquí mostrada contempla un ruido que se extiende por toda

la banda de Nyquist. Si parte de esta banda se filtra se deberá añadir una

constante para la banda restante.

Page 73: Procesamiento Analogico de Senales

73

Ruido o Distorsión

El error de cuantificación no siempre cumple, ni por aproximación, con las

propiedades estadísticas que caracterizan a una señal aleatoria, esto es, no

siempre puede ser descrito como un ruido. Un ruido blanco de espectro

uniforme debe mostrar, al menos, una buena aproximación a las siguientes

propiedades estadísticas:

1. El error )(neq se distribuye uniformemente sobre el rango

2

)(2

neq

2. La secuencia del error )(neq es una secuencia estacionaria de ruido

blanco. Dicho de otro modo, el error )(neq y el error )(meq para nonm no

muestra correlación. Es decir, no hay periodicidad.

3. La secuencia del error )(neq no muestra correlación con la secuencia )(nx ,

es decir, con la analógica de entrada al cuantificador.

Figura 44: Ruido de cuantificación

En la figura 44 se muestra ejemplos de ruido de cuantificación de distinta

relación señal-ruido de cuantificación (SQNR) de un único ciclo de 2000

Page 74: Procesamiento Analogico de Senales

74

muestras correspondientes a una señal armónica (sinusoidal). De arriba a

abajo: 1) Línea negra: error resultante de cuantificación sobre señal original de

amplitud 1,5 escalones de cuantificación (SQNR: 10,18 dB). 2) Línea roja: error

resultante de cuantificación sobre señal original de amplitud 7,5 escalones de

cuantificación (SQNR: 24,74 dB). 3) Línea azul: error resultante de

cuantificación sobre señal original de amplitud 127,5 escalones de

cuantificación (SQNR: 49,77 dB). Línea verde: error resultante de cuantificación

sobre señal original de amplitud 32767,5 escalones de cuantificación (SQNR:

98,19 dB). En todos los casos, la amplitud máxima del error equivale a la mitad

de un escalón de cuantificación y en las cuatro muestras de esta figura el

escalón de cuantificación se muestra con idéntica amplitud.

Cuando el error de cuantificación ni siquiera se aproxima a estos supuestos

estadísticos, el error no debe ser considerado ruido, sino distorsión. Esto es

especialmente notable cuando se cumple al menos una de las tres condiciones

relativas a la señal y su relación con el muestreo y la cuantificación:

1. La relación señal a ruido de cuantificación es baja, es decir, cuando la

amplitud de la señal a cuantificar cubre un rango de pocas decenas de

escalones de cuantificación.

2. Con tasas de muestreo altas en relación con los componentes de frecuencia

más alta de la señal, la secuencia original de muestras a cuantificar se

mantienen dentro del mismo escalón de cuantificación entre dos muestras

consecutivas.

3. Cuando existen componentes cuya frecuencia son submúltiplos enteros de la

tasa de muestreo.

Cuando se da alguna de estas condiciones, si bien no se alteran los valores

generales de potencia del error en todo su espectro (y, por tanto, de la relación

total SQNR), ésta se concentra en armónicos cuya intensidad excede

ampliamente el nivel del ruido cuando éste puede ser considerado como tal.

Page 75: Procesamiento Analogico de Senales

75

La distorsión, en general, es una propiedad menos tolerable que el ruido. La

energía se acumula en frecuencias determinadas del espectro y la relación de

esta energía con la de la señal de entrada puede ser significativa. En

aplicaciones de audio y vídeo, el fenómeno de la distorsión es mucho más

perceptible que el del ruido.

Existe un modo de asegurar que el error de cuantificación se pueda considerar

siempre un ruido blanco, es decir, que cumpla una buena aproximación a los

tres supuestos estadísticos antes mencionados que caracterizan a este tipo de

ruido: sacrificar relación señal a ruido total (SNR) añadiendo ruido analógico a

la señal analógica antes del proceso de conversión A/D.

Este ruido analógico que se añade intencionadamente antes del proceso de

conversión A/D se denomina Dither (que podría ser traducido al español como

"temblor") y, siendo del correcto tipo y amplitud, asegura que en todas las

circunstancias de muestreo y cuantificación, el error de cuantificación muestre

una densidad espectral de potencia (DEP) compatible con la naturaleza

aleatoria de un ruido.

La necesidad de añadir "dither"

Figura 45: Función densidad de probabilidad de un dither triangular. La

varianza es de Δ²/6 y su desviación estándar (σv) está marcada en rojo.

El dither sacrifica relación señal a ruido total (SNR) a cambio de impedir que la

señal cuantificada pueda mostrar características propias de una distorsión, esto

es, alejarse del ideal de una señal aleatoria como ruido. La reducción teórica de

Page 76: Procesamiento Analogico de Senales

76

la relación señal a ruido total como consecuencia de la adición correcta de

dither triangular de rango (-Δ, Δ) (Figura 45) a la señal analógica de entrada al

convertidor A/D es de, aproximadamente, 4,77 dB (el equivalente a multiplicar

por tres la potencia del ruido, esto es, 10· log(3) ≈ 4,77), de modo que un

cuantificador de 16 bits, por ejemplo, cuya relación señal sinusoidal máxima a

ruido de cuantificación (SQNR) es de, aproximadamente, 98,09 dB, en la

práctica no puede presentar relaciones señal a ruido (SNR) superiores a los

93,32 dB sólo como consecuencia del uso de dither. Naturalmente, en la

práctica la reducción será aún mayor. Para muchas aplicaciones este sacrificio

debe ser considerado un mal necesario.

Es necesario tener presente que en muchos casos se hace innecesario añadir

dither artificialmente toda vez que la señal a convertir ya incluye un ruido cuya

potencia es suficiente para evitar la necesidad de añadir más, esto es, cuando

la potencia del ruido de la señal iguala o supera la potencia que

resultaría del escalón de cuantificación del cuantificador que se pretende

emplear. Esto es especialmente frecuente en los procesos de cuantificación de

más de 16 bits, donde es habitual que la señal analógica a cuantificar presente

un ruido de potencia o valor eficaz comparable o superior al del hipotético ruido

que resultaría de ese mismo proceso de cuantificación realizado sin añadir

dither. Toda atenuación digital de una señal debe compensar la inevitable

atenuación del dither original añadiendo el perdido en la atenuación. Esto es un

procedimiento habitual en los procesadores digitales de señal (DSP).

Son varios los tipos de dither empleados en la conversión A/D de señales. Si

bien en todos los casos se trata de un ruido de densidad espectral de potencia

(DEP) esencialmente constante en todo el espectro (es decir, blanco), tanto la

distribución estadística de la amplitud que pueden mostrar las muestras de

entrada al cuantificador como la amplitud de pico del dither a añadir puede ser

variable

- Función densidad de probabilidad (FDP) uniforme (RPDF) y amplitud de pico

Page 77: Procesamiento Analogico de Senales

77

2

(potencia =

12

2).

- FDP uniforme (RPDF) y amplitud de pico (potencia =3

2).

- FDP triangular (TPDF) y amplitud de pico (potencia =6

2).

- FDP gausiana y 2

(potencia =

4

2).

Para el cálculo de la potencia del ruido total (dither más el error de

cuantificación) tras el proceso de cuantificación, basta añadir 12

2a la potencia

del dither.

El sobremuestreo en conversión A/D y su relación con el error de

cuantificación

El sobremuestreo en la conversión A/D (que no debe ser confundido con el

sobremuestreo en conversión D/A) consiste en realizar el proceso de muestreo

a una tasa superior a la estrictamente necesaria para la reconstrucción de la

señal a registrar. Esta tasa estrictamente necesaria viene determinada, de

acuerdo con el teorema de muestreo de Nyquist-Shannon, por la frecuencia

límite que se desea registrar en la señal de interés: sólo se podrán registrar

frecuencias por debajo de la mitad de la tasa de muestreo.

En la práctica, y como consecuencia de las limitaciones prácticas de los filtros

analógicos reales, siempre es necesario realizar sobremuestreo en alguna

medida. Por ejemplo, en aplicaciones de audiofrecuencia como el CD de audio,

donde la señal de interés se limita componentes de frecuencias de hasta 20

kHz, se aplica un sobremuestreo de un 10% (k=1,1), aproximadamente,

resultando en una frecuencia límite de 22,05 kHz (tasa de muestreo de 44100

muestras por segundo). Pero este sobremuestreo del 10% sólo tiene por objeto

contemplar las limitaciones prácticas que resultan de una implantación real.

Page 78: Procesamiento Analogico de Senales

78

En otros diseños, un sobremuestreo aún mayor permite implantaciones

prácticas que minimizan o eliminan la necesidad de filtros antialiasing

analógicos complejos y costosos, esto es, permiten filtros con pendientes de

atenuación suaves y de fase lineal en la banda pasante (ventajas prácticas

que, en algunos casos, se pueden lograr también aplicando técnicas de

sobremuestreo con filtrado digital en la conversión D/A).

http://es.wikipedia.org/wiki/Imagen:DEP_RuidoCuantificacion.svg

Figura 46: Densidad Espectral de Potencia (DEP)

En la figura 46 se muestra Densidad Espectral de Potencia del ruido de

cuantificación (no se muestra señal) para dos tasas de muestreo fs2=2fs1. Es

importante notar que el eje de las ordenadas no representa potencia, sino

potencia por unidad de frecuencia. La potencia en este diagrama es siempre un

área (en verde). La potencia total (área verde) es la misma en los dos casos a y

b (A²/12) por lo que se demuestra que es independiente de la frecuencia de

muestreo, pero la que resulta de una tasa de muestreo doble (b con tasa fs2) se

extiende por un intervalo espectral superior con una densidad de potencia que

es la mitad del caso a.

Page 79: Procesamiento Analogico de Senales

79

Sin embargo, el sobremuestreo también puede ser empleado para lograr una

mayor relación señal a ruido de cuantificación máxima a la posible para un

número determinado de niveles de cuantificación sin sobremuestro. Esto es así

porque las ecuaciones que se detallan en este artículo se refieren a señales

(sus potencias y valores eficaces) que cubren toda la banda de Nyquist o, dicho

de otro modo, presuponen que todas las posibles frecuencias de la señal

cuantificada son de interés hasta el límite de Nyquist. Si hay sobremuestreo y

los intervalos excedentes del espectro (donde no existen frecuencias de

interés) se eliminan -filtran-, se reducirá la potencia total del ruido de

cuantificación y, consecuentemente, aumentará la relación señal a ruido de

cuantificación (SQNR) máxima en la banda de interés (que con sobremuestreo

sólo es un subconjunto de toda la banda de Nyquist). Para este caso

(sobremuestreo más filtro), las ecuaciones de este artículo para el cálculo de la

potencia (o del valor eficaz) del ruido de cuantificación y de la relación señal a

ruido de cuantificación sobre sinusoidal máxima deberán contemplar como

variable al cociente (k) resultante de dividir la frecuencia crítica (frecuencia de

Nyquist) que resulta de la tasa de muestreo empleada entre el ancho de banda

de interés.

Figura 47: Grafica de análisis de potencia restante y potencia eliminada de una

señal

Si se emplea una tasa de muestreo fs y sólo se tiene interés por registrar

señales con frecuencias hasta fs/4, se estará empleando un factor de

Page 80: Procesamiento Analogico de Senales

80

sobremuestreo k=2. Si se elimina el ruido correspondiente al espectro que no

es de interés (de fs/4 a fs/2 en este ejemplo y cuya potencia está representada

por el área roja) mediante un filtro pasa-bajo ideal se estará dividiendo la

potencia total del ruido en un factor que será el mismo que el de sobremuestreo

(k), en este caso, la potencia pasaría de Δ²/12 a Δ²/24. La relación señal a ruido

de cuantificación máxima teórica se incrementará en este caso en

10·log(k)=10·log(2)≈3,0103 dB.

Sea igual al ancho de banda (Hz) de la señal de interés (si se trata de una

señal en banda base, la frecuencia más alta de interés que ésta puede

contener) y la tasa (muestras por segundo) de muestreo empleada, el factor

de sobremuestreo se define como:

B

fk s

2

La potencia del ruido de cuantificación nP pasa de 12

2para toda la banda de

Nyquist a k12

2 tras aplicar el filtro y sólo para la banda de interés.

En el cálculo de la relación señal a ruido de cuantificación máxima, es

necesario añadir una constante (g, conocida como ganancia del proceso) que

depende del factor k empleado:

gbSQNR

Kg

7609.10206.6

log10

Page 81: Procesamiento Analogico de Senales

81

El equivalente en bits gb de esta ganancia de proceso es:

kk

Kbg log661.14log

loglog 4

De modo que SQNR también se puede expresar:

7609.1)(0206.6 gbbSQNR

Así, mediante este procedimiento, es necesario multiplicar por 4 la tasa de

muestreo cada vez que se desea añadir, aproximadamente, 6,0206 dB a la

relación señal a ruido de cuantificación máxima teórica de un cuantificador

determinado. Por ejemplo; si para una señal de 30 kHz de ancho de banda B =

30000 se emplea una tasa de muestreo de 65 millones de muestras por

segundo fs = 65000000 con una cuantificación de 10 bits (SQNR máxima

teórica de 61,967 dB sin sobremuestreo), tendrá una relación señal a ruido de

cuantificación de 92,31 dB para sinusoidal máxima sobre la banda de 30 kHz

exclusivamente, esto es, una ganancia de proceso de 30,35 dB (k ≈ 1083; bg ≈

5).

Por sí solo, el sobremuestreo más el filtrado no es un proceso eficiente para

incrementar la SQNR máxima de un sistema o formato, dado que multiplicar

por 4 la tasa de muestreo equivale a un incremento de la SQNR que se

corresponde con doblar el número de niveles de cuantificación, esto es,

emplear un bit más en la codificación (+6,0206 dB aprox.). Sin compresión de

datos, un CD-Audio genera, para su transmisión o almacenamiento, un caudal

de datos netos de 1,41 Mbps. Un sistema con una cuantificación de 131072

niveles (codificación de 17 bits) en lugar de los 65536 (16 bits) que emplea el

CD-Audio generaría un flujo de datos sólo un 6,25% superior, esto es, de 1,5

Page 82: Procesamiento Analogico de Senales

82

Mbps. Sin embargo, si se pretende la misma SQNR sólo mediante

sobremuestreo y filtro, será necesario multiplicar por 4 la tasa de muestreo y,

en el mismo factor, el flujo de datos que genera (pasando de 1,41 Mbps a 5,64

Mbps).

Sin embargo, sí existen modelos teóricos que explotan notablemente mejor el

principio del sobremuestreo gracias al uso de técnicas adicionales que

redistribuyen el ruido de cuantificación en el espectro, aumentando la densidad

espectral de potencia en la banda a eliminar y disminuyendo la que

corresponde a la banda de interés: la modulación denominada Sigma-Delta, de

aplicación extendida para señales de ancho de banda bajo o medio-bajo.

Modulación Sigma-Delta

Figura 48: Modulación Delta y sus dos tipos de errores de cuantificación (en

azul).

Page 83: Procesamiento Analogico de Senales

83

Basado en el principio de sobremuestreo existe un tipo de conversor A/D y D/A

caracterizado por el uso de un tipo de codificación de forma de onda

denominado modulación sigma delta (o modulación ). Estos conversores

explotan eficientemente el principio de sobremuestreo empleando técnicas de

modelado de ruido (del inglés Noise Shaping), y filtrado digital.

Mediante el proceso de diezmado (también descrito como submuestreo o, del

inglés, downsampling), consistente en dividir la tasa de muestreo de una señal

en tiempo discreto por un divisor entero (cualquier valor entero, no

necesariamente diez como se podría pensar por el significado habitual del

verbo diezmar), esto es,

nMxnxd

se puede deshacer el sobremuestreo sin pérdida alguna de información

(siempre que sólo se elimine el sobremuestreo en hasta su factor , es decir,

y se haga uso previamente del correspondiente filtrado antialiasing).

Una buena proporción de convertidores A/D hacen uso de modelos de

codificación por modulación para después proceder a la conversión a

modulación por impulsos codificados (PCM).

Page 84: Procesamiento Analogico de Senales

84

CAPITULO 6. Análisis de Fourier para señales en tiempo continuo

Serie de Fourier en tiempo continuo

Las técnicas de análisis de Fourier de tiempo continuo son ampliamente útiles

para analizar y conocer las propiedades de la señales y sistemas de tiempo

continuo. Por otro lado, las técnicas del análisis de Fourier de tiempo discreto

son de igual manera útiles en el estudio de señales y sistemas de tiempo

discreto. El origen del análisis de tiempo continuo se atribuye a las

investigaciones realizadas sobre los problemas de la física matemática en el

siglo XVIII, mientras que las herramientas para analizar señales de tiempo

discreto tienen raíces diferentes. Esto proporcionó un segundo entorno en el

cual se realizó gran parte del trabajo inicial sobre señales y sistemas de tiempo

discreto.

En los años 40 y 50 se obtuvo un gran desarrollo en las técnicas de tiempo

discreto y en particular en el uso de las herramientas del análisis de Fourier.

Este impulso se debió al incremento en el uso y en la capacidad de las

computadoras digitales y el desarrollo de métodos de diseño de sistemas de

datos muestreados. Estos sistemas en general requieren del calculo de

numerosas transformadas de Fourier. Por último, en los años 60 se desarrolló

un algoritmo mejor conocido como la transformada rápida de Fourier o FFT, el

cual demostró ser totalmente adecuado para una implementación digital

eficiente y redujo considerablemente el tiempo de computación para las

transformadas. Con esta herramienta muchas ideas interesantes pero poco

prácticas se convirtieron en aplicaciones reales.

Existen varias similitudes entre las técnicas del análisis de Fourier de tiempo

discreto y de tiempo continuo, por ejemplo, las razones básicas de la utilidad de

representar señales en términos de exponenciales complejas son las mismas

para ambos análisis. En particular, si la entrada y la salida de un sistema

linealmente invariable en el tiempo de tiempo discreto son expresadas como

Page 85: Procesamiento Analogico de Senales

85

combinaciones lineales de exponenciales compleja, entonces los coeficientes

de la representación de la salida pueden ser expresados en términos de los

coeficientes de la combinación lineal que representa la entrada.

Por otro lado existen cierta diferencias, la representación en serie de Fourier de

una señal periódica de tiempo discreto es una serie finita. De hecho, la FFT

depende de manera intrínseca de esta finitud y por consecuencia es un

concepto de tiempo discreto.

Consideraciones Teóricas para la FFT.

El algoritmo para la FFT explota las propiedades de simetría de la exponencial

compleja discreta en el tiempo para reducir el número de multiplicaciones. Para

evaluar una transformada discreta de Fourier con N muestras el algoritmo de la

FFT encuentra su eficiencia cuando N es una potencia de 2. Esta restricción no

afecta el uso práctico de la FFT ya que la longitud de h(n) puede ser

incrementada a la siguiente potencia de 2 aumentando el número adecuado de

ceros.

Debido a la naturaleza discreta del índice de tiempo para señales de tiempo

discreto, el escalamiento en tiempo y en frecuencia asume una forma diferente

con respecto a la de tiempo continuo. Sea x(n) una señal con espectro X().

Consideremos la transformada Y() de y(n).

n

nj

n

nj enxenyY )()()(

1

Sustituyendo m = -n en la ecuación se obtiene:

)()()( )(

XemxYn

mj

2

Page 86: Procesamiento Analogico de Senales

86

Esto es, aplicando la transformada de Fourier.

)()( Xnx

Aunque esta última ecuación es similar al caso de tiempo continuo, la

deferencias surgen cuando tratamos de escalar en tiempo y en frecuencia en

lugar de invertir el eje de tiempo.

El resultado que puede ser paralelo a la ecuación correspondiente al análisis

de tiempo continuo es el que se desarrolla a continuación:

kdemúltiploesnSixnx kn

k )()(

kdemúltiploesnonSinxk 0)(

Sea k un entero positivo.

En 1807, Fourier, establece en los trabajos presentados en el instituto de

Francia que: cualquier señal periódica puede ser representada por una serie de

sumas trigonométricas en senos y cosenos relacionadas armónicamente.

Los argumentos establecidos por Fourier eran imprecisos y en 1829 Dirichlet

proporcionó las condiciones precisas para que una señal periódica pueda ser

representada por una serie de Fourier.

Fourier obtuvo además, una representación para señales no periódicas, no

como suma de senoides relacionadas armónicamente, sino como integrales de

senoides, las cuales no todas están relacionadas armónicamente. Al igual que

las series de Fourier, la integral de Fourier, llamada Transformada de Fourier,

es una de las herramientas más poderosas para el análisis de sistemas LTI

(Sistema Lineal Invariante en el Tiempo).

Page 87: Procesamiento Analogico de Senales

87

Representación de una señal periódica

Una señal es periódica si para algún valor positivo T, diferente de cero, se

verifica que:

x(t) = x ( t + T ) para toda t.

Para que una señal periódica pueda representarse por una serie de Fourier,

debe respetar las condiciones de Dirichlet:

Que tenga un número finito de discontinuidades en el periodo T, en caso

de ser discontinua.

El valor medio en el periodo T, sea finito.

Que tenga un número finito de máximos positivos y negativos.

Si se satisfacen estas condiciones, existe la serie de Fourier y puede

escribirse en la forma trigonométrica como:

...)32

...3cos2coscos(2)(

32

13210

tsenbtsenb

tsenbtatataatx

Representándolo en términos de sumatoria:

)(.)cos(.2)(1

0 tksenbtkaatx k

k

k

Los coeficientes ak y bk, se obtienen mediante el siguiente cálculo integral:

T

k dttktxT

a )cos()(1

Page 88: Procesamiento Analogico de Senales

88

T

k dttksentxT

b )()(1

CONVOLUCIÓN Y SUS PROPIEDADES

Convolución de Señales

dthxthtxty )()()(*)()(

Esta operación es muy usada en comunicaciones, análisis armónico, etc.,

permitiendo encontrar fácilmente muchos resultados importantes.

La integral del lado derecho, es decir la integral de convolución, se puede

interpretar como el área bajo la curva resultante del producto entre las

funciones x( ) y h( t - ).

Para esta integral, se han realizado los siguientes cambios de variable:

Para x( t ) se hace el cambio de variable independiente, t = . Para h( t ) se

hace el cambio de variable independiente, t = , además se refleja y se

desplaza la señal t unidades.

El cálculo de la integral se puede realizar de dos maneras, analíticamente

(resolviendo las integrales planteadas) o gráficamente (calculando las áreas

respectivas a partir de los gráficos realizados para las señales).

Page 89: Procesamiento Analogico de Senales

89

La convolución con (t) se calcula valiéndose de la propiedad de separación

de la función (t), que permite escribir la función x(t) como la suma de infinitos

pulso:

)()()()(*)()( xdttxttxty

Además se puede verificar que:

)()()()(*)(

)()(*)(

)()(*)(

)()(*)(

2121

2121

TtfTtfTtTttf

TTtTtTt

TTtfTtTtf

TtfTttf

Ejemplo de cálculo de convolución en tiempo continuo

Primero se definirá las señales x ( t ) y h ( t )

casootroEn

ttth

,0

40,)(

y

casootroEn

ttx

,0

11,1)(

A continuación se grafican las señales

Page 90: Procesamiento Analogico de Senales

90

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.5

1

1.5

2

2.5

3

3.5

4

h(t)=t, para 0<=t<=4)

Señal h(t)

Tiempo (seg)

h(t

)

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x(t)=1, para -1<=t<=1

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

x(t)

Page 91: Procesamiento Analogico de Senales

91

ahora se observan las dos graficas en el mimo plano, tratando de conservar el

rojo para h(t) y el color azul para x(t).

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.5

1

1.5

2

2.5

3

3.5

4

Funciones

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

Se cambia la variable t por y se refleja h ( t ); es decir, obtener h(-t)

Page 92: Procesamiento Analogico de Senales

92

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.5

1

1.5

2

2.5

3

3.5

4

h(-t))

Señal h(t)

Tiempo (seg)

h(-

t)

Por tanto graficando las dos funciones en una sola grafica tendríamos

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(-t)

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud)

Page 93: Procesamiento Analogico de Senales

93

Ahora se desplaza h ( - ), t unidades, consiguiendo h ( t - ) , o lo que es lo

mismo h ( - ( - t ) ) :

Luego se deben tomar en cuenta los diferentes intervalos de t para los cuales

cambia la expresión de x ( t ) · h ( t - ), resolviendo la integral de convolución

para cada intervalo.

Primero se considerará el intervalo entre - < t < -1, en el cual se tiene, para

cualquier valor de t:

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t+2)

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

Resolviendo la integral se tendría

10)(

0)()()(*)()(

0)()(

tParatY

dthXthtXtY

thX

t

Page 94: Procesamiento Analogico de Senales

94

El segundo intervalo a considerar será - 1 < t < 1, en el cual se tiene, para

cualquier valor de t

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t+0.5)

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(-t)

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

Resultado

Page 95: Procesamiento Analogico de Senales

95

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t-0.5)

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud

(t)

112

)1()(

2

1

2)()(*)()(

0

1)()(

2

1

2

tParat

tY

tt

dtthtXtY

valorpara

tparatthX

t

El siguiente intervalo a considerar sería 1 < t < 2, en donde:

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t-t) para 1<t<2

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

Page 96: Procesamiento Analogico de Senales

96

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t-t) para 1<t<2

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

Como se puede observar la zona verde es el resultado de la operación.

212)(

2)()(*)()(

0

11)()(

1

1

tParattY

tdtthtXtY

valorpara

paratthX

El cuarto intervalo a considerar sería 2 < t < 4, en el cual, para cualquier valor

de t:

Resultado

Page 97: Procesamiento Analogico de Senales

97

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t-t) para 2<t<4

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t-t) para 2<t<4

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

Resultado

Page 98: Procesamiento Analogico de Senales

98

422

4)(

24)()(*)()(

0

14)()(

2

1

4

2

tParat

ttY

ttdtthtXtY

valorpara

tparatthX

t

El último intervalo será 4< t < , en el cual se obtiene para cualquier valor de t

-8 -6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

Funciones x(t) y h(t-t) para 4<t<8

Señal Continua: A=3, a= -0.5, b=0

Tiempo (seg)

Am

plit

ud(t

)

Page 99: Procesamiento Analogico de Senales

99

tParatY

dthXthtXtY

thX

t

40)(

0)()()(*)()(

0)()(

4

Finalmente, resumiendo el resultado de x ( t ) * h ( t ) en un gráfico, se obtiene:

-6 -4 -2 0 2 4 6 80

0.5

1

1.5

2

2.5

3

3.5

4

4.5

Resultado de la convolución de las Funciones x(t) y h(t) para todo t

Tiempo (seg)

Am

plit

ud(t

)

Ahora se describirá la convolución para señales discretas.

Page 100: Procesamiento Analogico de Senales

100

CONVOLUCION DE SEÑALES DISCRETAS

El concepto de la convolución discreta es la misma que la de

convolución continua. Hay que tener en cuenta que la convolución es

un instrumento poderoso al determinar el resultado de un sistema

después de saber la una entrada arbitraria y la respuesta al impulso

del sistema. Puede muy práctico el calcular la convolución en forma

gráfica para reforzar los conceptos.

Suma De Convolución

La suma de convolución provee una manera matemáticamante

concisa para expresar el resultado de un sistema LTI, basado en una

entrada arbitraria para una señal discreta y saber la respuesta del

sistema. La suma de convolución es expresada de la siguiente forma

knhkxny

Como en el tiempo continuo la convolución es representado por el

símbolo *, y puede ser escrita como:

nhnxny *

Realizando una transformación de variables en la suma de

convolución, k=n−k, se puede demostrar fácilmente que la

convolución es conmutativa

nxnhnhnx **

La segunda propiedad de la convolución es que es asociativa:

nznhnxnznhnx ****

Y por ultimo, la convolución es distributiva

Page 101: Procesamiento Analogico de Senales

101

nznhnznxnznhnx ***

El calculo de la convolución entre x(k) y h(k) supone la realización de

los siguientes pasos

a. Reflexión. Se refleja h(k) respecto de K00 para producir h(-k).

b. Desplazamiento. Se desplaza h(-k), n hacia la derecha(izquierda)

si n es positivo (negativo), para obtener h(n-k).

c. Multiplicación. Multiplicamos x(k) por h(n-k) para obtener la

secuencia producto.

d. Suma. Se suman todos los valores de la secuencia, es decir,

todas las respuestas impulsionales del sistema para obtener la

respuesta en el punto indicado.

Ejemplo

Sea la señal la respuesta impulsional de un sistema lineal e invariante

en el tiempo dada por:

Determine la respuesta al sistema si se tiene una señal de entrada x(n):

Solución:

Se empieza graficando las señales h(n) y x(n)

h(n)={ -1, 2, 1,-1}

x(n)={1, 2, 0,1}

Page 102: Procesamiento Analogico de Senales

102

-3 -2 -1 0 1 2 3 4 5 6 7 8 9 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-3 -2 -1 0 1 2 3 4 5 6 7 8 9 10-2

-1

0

1

2

Señal h(n)

n

h[n

]

Ahora se empezará a calcular. Para n=0, y(0), recuerde los pasos

mencionados anteriormente (reflejar, multiplicar y sumar). Observe que

Page 103: Procesamiento Analogico de Senales

103

en la siguiente gráfica los valores que tienen contribución es en cero y

uno, ya que al multiplicar los otros valores se encontrará con ceros a

ambos lados.

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(-k)

n

h[n

]

Por tanto y[0]=[(1*2) +(2*-1)] = 0;

Ahora se empezará a realizar los desplazamientos de la señal h.

Page 104: Procesamiento Analogico de Senales

104

-5 0 5 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-5 0 5 10-2

-1

0

1

2

Señal h(-2-k)

n

h[n

]

y[-2]=0, debido a que no coinciden ninguna de las componentes de las

dos señales.

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(-1-k)

n

h[n

]

y[-1]=1*-1 = -1;

Page 105: Procesamiento Analogico de Senales

105

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(1-k)

n

h[n

]

y[1]=[(1*1) +(2*2)+ (0*-1)] = 5;

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(2-k)

n

h[n

]

y[2]=[(1*-1) +(2*1)+ (0*2)+( 1*-1)] = 0;

Page 106: Procesamiento Analogico de Senales

106

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(3-k)

n

h[n

]

y[3]=[(1*0) +(2*-1)+ (0*1)+( 1*2) +( 0*-1)] = 0;

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(4-k)

n

h[n

]

y[4]=[(1*0) +(2*0)+ (0*-1)+( 1*1) +( 0*2)+..] = 1;

Page 107: Procesamiento Analogico de Senales

107

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n

]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(5-k)

n

h[n

]

y[5]=[(1*0) +(2*0)+ (0*0)+( 1*-1) +( 0*1)+..] = -1;

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x(n)

n

x[n

]

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal h(6-k)

n

h[n

]

y[6]=[(1*0) +(2*0)+ (0*0)+( 1*0) +( 0*2)+..] = 0;

Page 108: Procesamiento Analogico de Senales

108

Desde este punto todas las contribuciones son ceros. Ahora

representemos cada respuesta impulsional y organicemos la ecuación

final y[n]:

-6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12-2

-1

0

1

2

3

4

5

6

Señal y(n)

n

y[n

]

Ejercicio: Analice y verifique que y(n)=x(n)*h(n)

Page 109: Procesamiento Analogico de Senales

109

-5 0 5 10 15 20 250

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

n

x[n]

-5 0 5 10 15 20 250

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

n

h[n

]

Page 110: Procesamiento Analogico de Senales

110

-5 0 5 10 15 20 250

1

2

3

4

5

6

7

8

9

n

y[n

]

Derivación de Señales

Esta operación, muy usada en el modelado de sistemas, la podemos interpretar

como la velocidad de cambio de la señal. Gráficamente representa su

pendiente.

dt

tdxty

)()(

Para el modelado de muchos sistemas se usan ecuaciones diferenciales,

definidas como:

M

kk

k

k

N

kk

k

kdt

txdb

dt

tyda

00

)()(

Page 111: Procesamiento Analogico de Senales

111

Algunos ejemplos de su utilización serían:

- Respuesta de un circuito RC.

- Movimiento de un vehículo sujeto a entradas de aceleración y fuerzas de

fricción.

A partir de una expresión para x(t) en función de señales elementales se puede

obtener su derivada mediante el uso de las siguientes relaciones:

dt

trampdtu

)()(

-1 0 1 2 3 4 5 6 7 8 9 10

0

2

4

6

8

Señal ramp[t]

t

ram

p[t]

-1 0 1 2 3 4 5 6 7 8 9 10

0

2

4

6

8

Señal dramp[t]/dt

t

u[t]

dt

tudt

)()(

Page 112: Procesamiento Analogico de Senales

112

-1 -0.5 0 0.5 1 1.5 2 2.5 3-1

0

1

2

Señal u[t]

t

u[t]

-1 -0.5 0 0.5 1 1.5 2 2.5 3-1

0

1

2

Señal d u[t]/dt

t

d[t]

Ejemplo: Sea la señal x1 (t) como se define a continuación.

)1()()(1 tramptramptx

Page 113: Procesamiento Analogico de Senales

113

-1 0 1 2 3 4 5 6 7 8 9 10-1

0

1

2

Señal ramp[t]

t

ram

p[t]

-1 0 1 2 3 4 5 6 7 8 9 10-1

0

1

2

Señal ramp[t-1]

t

ram

p[t-1

]

-1 0 1 2 3 4 5 6 7 8 9 10-1

0

1

2

Señal ramp[t]-ramp[t-1]

t

x1[t]

Obtenga x2(t). Calculada como:

dt

txdtx

)()( 1

2

)1()()(2 tututx

Page 114: Procesamiento Analogico de Senales

114

-1 0 1 2 3 4 5 6 7 8 9 10-1

0

1

2

Señal u[t]

t

u[t]

-1 0 1 2 3 4 5 6 7 8 9 10-1

0

1

2

Señal u[t-1]

t

u[t-1

]

-1 0 1 2 3 4 5 6 7 8 9 10-1

0

1

2

Señal u[t]-u[t-1]

t

x2[t]

En el caso de los sistemas discretos estas ecuaciones se conocen como

ecuaciones de diferencias, definidas como:

M

k

k

N

k

k knxbknya00

Igualmente las señales elementales discretas están relacionadas mediante las

siguientes ecuaciones de diferencias:

1

1

nunun

nrampnrampnu

Page 115: Procesamiento Analogico de Senales

115

Ejemplo:

1112 nxnxnx

-2 0 2 4 6 8 10-2

0

2

Señal x1[n]

n

x1[n

]

-2 0 2 4 6 8 10-2

0

2

Señal x1[n-1])

n

x1[n

-1]

-2 0 2 4 6 8 10-2

0

2

Señal x2[n])

n

x2[n

]

Integración de Señales

t

dxty )()(

La integración de señales es una operación muy usada en comunicaciones,

análisis espectral, etc., representando gráficamente el área acumulada bajo la

curva que define la señal.

Page 116: Procesamiento Analogico de Senales

116

Las señales fundamentales, rampa y escalón, están relacionadas por medio de

las siguientes integrales:

t

dutramp )()(

-1 -0.5 0 0.5 1 1.5 2 2.5 3-1

0

1

2

Señal u[t]

t

u[t]

-1 -0.5 0 0.5 1 1.5 2 2.5 3-1

0

1

2

Señal ramp(t)

t

ram

p[t]

t

dtu )()(

Page 117: Procesamiento Analogico de Senales

117

-1 -0.5 0 0.5 1 1.5 2 2.5 3-1

0

1

2

Señal d[t]

t

d[t]

-1 -0.5 0 0.5 1 1.5 2 2.5 3-1

0

1

2

Señal u[t]

t

u[t]

Ejemplo: La función x1(t) está definida por:

85,2

53,

30,2

0,0

)(21

tpara

tparat

tparat

tpara

tx

Encuentre x(t) dado por

t

dxtx )()( 1

Integrando por intervalos tenemos:

Page 118: Procesamiento Analogico de Senales

118

85,2

53,3

30,

0,0

)( 3

2

tparat

tparat

tparat

tpara

tx

A continuación se puede observar su respuesta gráfica

-2 0 2 4 6 8 10

0

5

10

15

20

25

Señal x1[t]

t

x1[t]

-2 0 2 4 6 8 100

10

20

30

40

Señal Resultante

t

x[t]

Para las señales discretas, la integración no es más que una sumatoria:

n

k

kxny

Page 119: Procesamiento Analogico de Senales

119

Igualmente las señales elementales discretas están relacionadas mediante las

siguientes sumatorias:

n

k

n

k

kunramp

knu

Ejemplo: La señal x2 está expresada por:

n

k

kxnx 12

-2 0 2 4 6 8 10-2

-1

0

1

2

Señal x1[n]

n

x1[n

]

-2 -1 0 1 2 3 4 5 6 7 8 9 100

2

4

6

8

10

12

14

16

Señal x2[n])

n

x2[n

]

Page 120: Procesamiento Analogico de Senales

120