Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una...

21
1 Introducción a la Estadística y a la Teoría de Procesos Estocásticos en Comunicaciones 1. Concepto y definición de probabilidad. Se define experimento aleatorio como cualquier circunstancia natural o artificial cuyo resultado es incierto. Por ejemplo, lanzar una moneda al aire, la temperatura media de pasado mañana, número de goles en un partido de fútbol, el ruido presente en un receptor, etc. Prueba es una realización de un experimento y suceso es el conjunto o un subconjunto de los resultados posibles de un experimento. Habitualmente se define el conjunto que contiene todos los resultados posibles de un experimento llamado espacio de sucesos. Para esa representación, un suceso será un subconjunto de ese total; así, el suceso A se dará en todas las pruebas cuyos resultados sean elementos de A. Temperaturas del 19 de marzo del 2007 suceso A: máximas entre 18º y 20º suceso B: " entre 19º y 21º suceso C: " entre 30º y 32º P(AB) Todos los sucesos de A y/o B P(AB) Todos los sucesos de A y B simultáneamente. La Probabilidad es una medida de la verosimilitud de un suceso. Sean las siguientes asignaciones: A: suceso A : suceso complementario de A P(A): probabilidad del suceso A : suceso seguro (ocurre siempre) φ: suceso imposible (nunca ocurre) La definición axiomática de probabilidad presenta los siguientes axiomas: 1.- P(A) 0; 2.- P(A) 1; por lo tanto P() = 1; 3.- Si AB=φ P(A)+P(B) = P(AB); Propiedades que se derivan de la definición son: 1.- P(φ) = 0; 2.- P(A) = 1 - P( A ) 1 3.- Si AB φ, entonces P(AB) = P(A) + P(B) - P(AB); La definición clásica o más conocida de probabilidad es la basada en una magnitud llamada frecuencia relativa de un suceso A B C Espacio de Sucesos

Transcript of Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una...

Page 1: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

1

Introducción a la Estadística y a la Teoría de Procesos Estocásticos en Comunicaciones

1. Concepto y definición de probabilidad. Se define experimento aleatorio como cualquier circunstancia natural o artificial cuyo resultado es incierto. Por ejemplo, lanzar una moneda al aire, la temperatura media de pasado mañana, número de goles en un partido de fútbol, el ruido presente en un receptor, etc. Prueba es una realización de un experimento y suceso es el conjunto o un subconjunto de los resultados posibles de un experimento. Habitualmente se define el conjunto que contiene todos los resultados posibles de un experimento llamado espacio de sucesos. Para esa representación, un suceso será un subconjunto de ese total; así, el suceso A se dará en todas las pruebas cuyos resultados sean elementos de A.

Temperaturas del 19 de marzo del 2007

suceso A: máximas entre 18º y 20º suceso B: " entre 19º y 21º suceso C: " entre 30º y 32º P(A∪B) → Todos los sucesos de A y/o B P(A∩B) → Todos los sucesos de A y B simultáneamente. La Probabilidad es una medida de la verosimilitud de un suceso. Sean las siguientes asignaciones: A: suceso A: suceso complementario de A P(A): probabilidad del suceso A Ω: suceso seguro (ocurre siempre) φ: suceso imposible (nunca ocurre) La definición axiomática de probabilidad presenta los siguientes axiomas: 1.- P(A) ≥ 0; 2.- P(A) ≤ 1; por lo tanto P(Ω) = 1; 3.- Si A∩B=φ ⇒ P(A)+P(B) = P(A∪B); Propiedades que se derivan de la definición son: 1.- P(φ) = 0; 2.- P(A) = 1 - P(A) ≤ 1 3.- Si A∩B ≠ φ, entonces P(A∪B) = P(A) + P(B) - P(A∩B); La definición clásica o más conocida de probabilidad es la basada en una magnitud llamada frecuencia relativa de un suceso

A B C

Espacio de Sucesos

Page 2: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

2

P = lim NF / Np NF = Ocurrencias de un suceso pruebas → ∞ Np = Resultados posibles

A continuación se enunciarán algunos teoremas referentes a la probabilidad. Probabilidad condicional

P(A / M) = P (A M)

P ( M )∩

P(A/M): Probabilidad de que ocurra A cuanto ha ocurrido M. P(A∩M): Probabilidad conjunta de A y M. P(M): Probabilidad del suceso M. Teorema de la probabilidad total Sea un espacio de sucesos Ω en el que se define una serie de sucesos posibles [A1...An] mutuamente excluyentes cuya unión es Ω.

Se define la probabilidad de ocurrencia de un proceso B como:

P(B) = P(B/A1) P(A1) + P(B/A2) P(A2) + ... + P(B/An) P(An) = P(B / A P(Ai = 1

n

i i∑ ⋅) )

Teorema de Bayes

P (A / B) = P(B/ A P(A

P(B/ A P(Ai

i i

i ii = 1

n

) )

) )

⋅∑

P(Ai) = Probabilidades a priori. P(B/Ai ) = Probabilidades condicionadas. P(Ai/B) = Probabilidades a posteriori. Independencia entre sucesos Dos sucesos son independientes si la probabilidad conjunta de ambos sucesos es

A1 A3

A2 An

B

Page 3: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

3

P(A∩B) = P(A)⋅P(B). Para n sucesos, la definición queda:

P(A ... A P(A1 n ii = 1

n

∩ ∩ =∏) )

Experimentos de Bernouilli Si se llama p a la probabilidad de que ocurra un suceso, q a la probabilidad de que no ocurra (q=1-p), la probabilidad de que ocurra k veces en n experimentos repetidos es:

P k nk

p qnk n-k( ) =

Este número, para un número de experimentos y unos valores de probabilidad tales que se cumpla n⋅p⋅q >> 1, y según el teorema de De Moivre-Laplace, puede aproximarse a la expresión:

2npq)np-k( 2

npq 21qp

kn

k-nk−

≅⋅

e

π ; n ↑↑, p y q ≠ 0

Es decir, se aproxima el valor de probabilidad a una función gaussiana

e 2x2

21= g(x)

π

La suma de esta función a lo largo de un intervalo es

G(x) = g(y) dy 1 - 1x

g(x)-

x

≈∞

∫ ; a partir de esta última se define también la función

de error erf(x) = 12

dy = G(x) -12

y2

0

x 2

eπ−∫

Page 4: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

4

Repaso de combinatoria Se denominan variaciones de m elementos tomados de n en n, al número de colecciones distintas que pueden formarse con n elementos distintos entre los m, siendo dos colecciones distintas si tienen algún elemento distinto, o bien si aún teniendo los mismos elementos, están en distinto orden.

( )( ) ( ) ( )!!121, nm

mnmmmmV nm −=+−⋅⋅⋅−−=

Las Variaciones con repetición son análogas al caso anterior cuando se pueden

repetir elementos. nR

nm mV =,

Permutaciones de n elementos son el número de colecciones distintas que pueden formarse con los n elementos, siendo dos colecciones distintas si el orden de los elementos es distinto. Es un caso particular de las variaciones.

( )( ) !12321, nnnnVP nnn =⋅⋅⋅⋅⋅−−==

Si se tiene n elementos de los cuales a son iguales, b son iguales, c son iguales, etc. el número de permutaciones con repetición que pueden formarse es

⋅⋅⋅=

!!!!,...,,

cbanP cba

n

Se llaman permutaciones circulares de n elementos a las distintas formas de

colocar a n elementos en círculo, teniendo en cuenta que no hay primero ni último.

( )!11 −== − nPP nC

n

Se denominan combinaciones de m elementos tomados de n en n, al número de colecciones distintas que pueden formarse con n elementos distintos entre los m, siendo dos colecciones distintas si tienen algún elemento distinto, no distinguiéndose por el orden si tienen los mismos elementos.

( )( ) ( )( )

=

−=

+−⋅⋅⋅−−==

nm

nmnm

nnmmmm

PV

Cn

nmnm !!

!!

121,,

Se denominan combinaciones con repetición de m elementos tomados de n en n,

al número de colecciones distintas que pueden formarse con n elementos de entre los m, pudiéndose repetir, siendo dos colecciones distintas exclusivamente si tienen algún elemento distinto.

−+== −+ n

nmCC nnm

Rnm

1,1,

Page 5: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

5

2. Variable aleatoria Una variable aleatoria es una función real cuyo dominio es el conjunto S de todos los resultados posibles de un experimento. Se asigna un número real a cada uno de los posibles resultados del experimento. Debe cumplir 2 propiedades: Χ: S → ℜ 1) Χ≤x es un suceso posible. 2) pΧ=∞=pΧ=-∞=0 Por lo tanto, representamos cada resultado posible por un número real. Cualquier suceso puede representarse por la unión de intervalos en ℜ y, además, se cumplen las propiedades anteriores. Esto se hace porque es más sencillo trabajar con intervalos reales que con subconjuntos de naturaleza arbitraria. Las variables aleatorias pueden ser:

- Discretas: Si sólo pueden tener valores discretos. suceso A → Χ=2 ∪ Χ=4

p(A) → pΧ=9 ∪ pΧ=4 - Continuas: Si pueden tener un rango de valores continuos.

suceso A → 7≤Χ≤9 ∪ 11≤Χ≤15 p(A) → p7≤Χ≤9 ∪ p11≤Χ≤15

- Mixtas: Algunos de los valores pueden ser discretos y otros continuos. Función de distribución La función de distribución o función de distribución de probabilidad acumulada de la variable aleatoria X caracteriza la probabilidad asociada al evento Χ≤x. Se define de la forma:

( ) xXpxFX ≤=

La función de distribución cumple las siguientes propiedades:

1) 0 ≤ FΧ(x) ≤ 1 2) FΧ(-∞)=0 y FΧ(∞)=1, ya que pΧ≤-∞=0. 3) FΧ(x1) ≤ FΧ(x2) si x1 ≤ x2. 4) FΧ(x+ε)= FΧ(x), si ε>0 y ε→0. (Es continua por la derecha) 5) px1≤X≤x2= FΧ(x2)-FΧ(x1)

Función de densidad de probabilidad Es una función real de una variable aleatoria que permite calcular de forma sencilla las probabilidades de sucesos asociados a la misma. Se define como la derivada de la función de distribución:

Page 6: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

6

dxxdFxf X

X)(

)( =

La función de densidad de probabilidad (fdp) debe cumplir las siguientes

propiedades:

1) fΧ(x) ≥ 0

2) 1 =(x)dx f∫∞

∞−Χ

3) d )(f)( λλ∫∞−

Χ=x

X xF

4) px1≤Χ≤ x2 = x)dx(f2

1

x

x∫ Χ

Puede advertirse que la función densidad de probabilidad caracteriza totalmente la variable aleatoria y el suceso que la define. Media, varianza y valor cuadrático medio Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos un número muy grande de resultados de un experimento caracterizado por la misma. Viene dada por el operador esperanza, E xpΧxX= E η i

iix =⋅= ∑ para una variable aleatoria discreta

(x) dxfx = X= E η x

+

-x ⋅∫

para una variable aleatoria continua

La varianza es una medida de la concentración de valores de la variable aleatoria alrededor de su media, de forma que cuanto mayor sea la varianza, mayor será la probabilidad de encontrar resultados alejados de ella. La raíz cuadrada de la varianza se llama desviación típica.

)x p( Χ)η(x = )η = E( Χ σ ii

xixx =⋅−− ∑ 222 para una v.a. discreta

(x) dxf)(x - η = )η = E( Χ σ Χ

+

-xxx ⋅− ∫

222 para una v.a. continua

La varianza se puede expresar en función del valor cuadrático medio 2ΧΕ , de modo que 2

x22

x - ησ ΧΕ= . Esto se debe a que la esperanza es un operador lineal.

ii

iii

iii

i a = a = a η⋅ΧΕ⋅

ΧΕ ∑∑∑

- = 2 - + = ) 2 - ( 2x

2x

2x

22x

2 ηηηηη ΧΕΧΕΧΕΧ+ΧΕ x

Page 7: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

7

3. Variables aleatorias de uso habitual en comunicaciones Variable aleatoria Gaussiana Las funciones de densidad de probabilidad y de distribución de una v.a. Gaussiana son

2x

2x

2) - x (

x21 σ

η

σπ

⋅= e) , σ(x) = N(ηf xxΧ

dy(y)f(x)= Fx

-XX ∫

La media y la varianza son

Χx

+

-x ) dx = η, σN(ηx ΕΧ ∫

⋅=

222xxx

+

-xx ) dx = σ, σN ( η)(x - η = )ηE(XVar (x) = ⋅− ∫

A partir de la forma de la fdp se observa que el valor más probable es el valor medio y a medida que el valor de la v.a. se aleja de él, la probabilidad para ese valor será menor. Adviértase que esta función de densidad de probabilidad queda totalmente determinada mediante dos parámetros: la media y la varianza. Si σx es muy pequeña, el problema tiende a ser determinista. La probabilidad p x1 ≤ X ≤ x2 viene dada por la función erf(x)

dy e21 = erf(x)

x

0

2y- 2

∫π

dxe2

1 = xpx2

x

2x

2

1

2) -(x

x

xx21

ση

σπ

∫≤Χ≤

Haciendo un cambio de variable en la integral

x

x -x =u ση ;

x

dx =du σ

; x

x11

- x=uση ;

x

x22

xuση−

=

=du e21 +du e

21 =du e

21 xpx

x

x2

2

x

x1

2x

x2

x

x1

2

- x

0

2u -0

- x

2u -

- x

- x

2u -

21 ∫∫∫=≤Χ≤ση

ση

ση

ση πππ

x

fx(x)

ηx

xσπ2

1

2/1

2

1 −e

xσπ

ηx+σx ηx-σx

Page 8: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

8

- x

erf - - x

erf =x

x1

x

x2

ση

ση

−+=∫

∞ x

xx

-XX

xerfdy(y)f(x)= F

ση

21

Los valores de la función erf(x) están tabulados y por lo tanto será sencillo

calcular la probabilidad de que el valor de una v.a. gaussiana se encuentre en un determinado intervalo. Un problema que podemos modelar a partir de una v.a. gaussiana sería conocer el valor real de una resistencia tras el proceso de fabricación. Su valor medio o más probable será su valor nominal mientras que encontrar valores de resistencia alejados del nominal tendrá una probabilidad menor. Variable aleatoria Uniforme En este caso la f.d.p. está definida en un intervalo, siendo nula la probabilidad de encontrar valores fuera de él. La probabilidad de que la v.a. tenga un determinado valor en el intervalo es la misma para cualquier valor.

>

≤<−−

=

>

≤<−

=

b x 1

bxa

ax 0

)(

b x 0

bxa 1ax 0

)(

abaxxF

abxf

X

X

x2 2

b

ax 2

ab = )a(b 21

a-b1 =dx

a-b1x = Ex ηη =

+−⋅⋅= ∫

= E (x - 1

b - a(x - dx =

112

( b - a )x x xa

b2σ η η2 2 2) )= ∫

Un ejemplo de v.a. uniforme es el error que se produce al hacer una

cuantificación uniforme de señales. Se estudiará posteriormente. Variable aleatoria Binomial

Es una v.a. discreta que toma los siguientes valores de probabilidad

x

fx(x)

ηxa b

ab −

1

Page 9: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

9

n 1,....., 0,k 1,qp ==+

== − qp

kn

kxp knk

Por lo tanto sus funciones de densidad de probabilidad y de distribución son

=

=

=

=

n

k

knkX

n

k

knkX

kxuqpkn

xF

kxqpkn

xf

0

0

)()(

)()( δ

Esta distribución proviene de experimentos aleatorios con dos posibles resultados repetidos varias veces, como por ejemplo lanzar una moneda n veces y sacar cara k veces. Variable aleatoria de Poisson Una v.a. de Poisson con parámetro a es una v.a. discreta que toma los siguientes valores de probabilidad

1,..... 0,k 0,a !

=>== −

kaekxp

ka

Por lo tanto sus funciones de densidad de probabilidad y de distribución son

)(!

)(

)(!

)(

0

0

kxukaexF

kxkaexf

k

ka

X

k

ka

X

−=

−=

∑∞

=

=

− δ

Esta distribución es similar a la binomial. Cuando n→∞ y p→0 la binomial se convierte en la de Poisson con n⋅p=a. Una aplicación importante de la distribución de Poisson es cuando describe el número de eventos sucedidos en un período de tiempo, como es el número de llamadas realizadas en un intervalo, el número de electrones emitidos en un cátodo, el número de elementos que esperan en una cola, etc. Cuando λ es el régimen, o tasa, promedio de ocurrencia del evento y T es el período de interés, la constante a se calcula de la forma a=λ⋅T. Variable aleatoria Exponencial

Es una v.a. continua cuyas funciones de densidad de probabilidad y de distribución son

x

fx(x)

0 1 2 3 4 5 6

n=6 p=0,25

Page 10: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

10

<>−=

<

>=

−−

−−

a x 0a x1)(

a x 0

a x1)(

bax

X

bax

X

exF

ebxf

Variable aleatoria de Rayleigh

Es una v.a. continua cuyas funciones de densidad de probabilidad y de distribución son

( )( )

( )

≤≥−=

≥−=

−−

−−

a x 0a x1)(

a x 0

a x2)(

2

2

bax

X

bax

X

exF

eaxbxf

4. Funciones de probabilidad condicionadas Se definen las funciones de distribución condicional y de densidad de probabilidad condicional de la siguiente forma

( )dx

BxFdBxf

p (B)Bx)(Xp BxF

XX

X

)/()/(

)/(

=

∩≤=

El teorema de la probabilidad total queda de la forma

=

=

=++=

=++=

n

iiiXXXX

n

iiiXXXX

BpBxfBpBx fBpBxfxf

BpBxFBpBx FBpBx FxF

12211

12211

)()/(...)()/()()/()(

)()/(...)()/()()/()(

El teorema de Bayes queda de la forma

x

fx(x)

a

1/b

x

fx(x)0,607 b/2

a a 2/b

Page 11: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

11

( ) )()(

)/(/ Apxf

AxfxXApX

X==

Multiplicando esta expresión por fX(x) e integrando, se obtiene la versión continua del teorema de la probabilidad total

( ) )()(/ ApdxxfxXAp X ==∫∞

∞−

La versión continua del teorema de Bayes será

( )

( ) ∫∞

∞−

=

==

dxxfxXAp

xfxXApAxf

X

XX

)(/

)(/)/(

5. Variable aleatoria multidimensional En la práctica se dan casos en que varias magnitudes aleatorias interaccionan para dar lugar a otra de la cual se desea obtener alguna información o, de forma más general, realizar su caracterización mediante su función de densidad de probabilidad o de distribución. Por ejemplo, una variable aleatoria que sea suma de otras dos, Z=X+Y. Para encontrar las propiedades estadísticas de las magnitudes aleatorias resultantes será necesario conocer las características propias de las magnitudes iniciales y las características conjuntas de las mismas, donde estas últimas miden el grado de interacción que existe entre las magnitudes iniciales. Se realizará la presentación del caso para dos variables aleatorias y se extenderá para el caso general. Función de distribución conjunta Si las variables aleatorias X e Y son discretas, la función de distribución conjunta queda

( ) ( ) ( )m

N

n

M

mnmnXY yyuxxuyYxXpyYxXpyxF −−===≤≤= ∑∑

= =1 1,,,

Debe cumplir las siguientes propiedades

1) ( ) ( ) ( ) 0, ,0, ,0, =−∞=∞−=−∞∞− xFyFF XYXYXY 2) ( ) 1, =∞∞XYF 3) ( ) 1,0 ≤≤ yxFXY 4) ( )yxFXY , es una función no decreciente en x e y.

Page 12: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

12

5) ( ) ( )

( ) ( )1221

11222121

,, ,,,yxFyxFyxFyxFyYyxXxp

XYXY

XYXY

−−−+=≤≤≤≤

6) ( ) ( ) ( ) ( )yFyFxFxF YXYXXY =∞=∞ , ,, De la última propiedad se observa que las funciones de distribución marginales FX(x) y FY(y) se pueden obtener de la conjunta. Para N variables aleatorias se puede generalizar de la forma

( ) ,...,,,...,, 221121...21 NNNXXX xXxXxXpxxxFN

≤≤≤= Función de densidad de probabilidad conjunta La función de densidad de probabilidad conjunta de las variables aleatorias X e Y es

( ) ( )yx

yxFyxf XYXY ∂∂

∂=

,,2

Si las variables aleatorias son discretas se tiene

( ) ( ) ( )m

N

n

M

mnmnXY yyxxyYxXpyxf −−=== ∑∑

= =

δδ1 1

,,

Las propiedades que debe cumplir son: 1) ( ) 0, ≥yxf XY

2) ( )∫ ∫∞

∞−

∞−

= 1, dxdyyxf XY

3) ( ) ( )∫ ∫∞− ∞−

=x y

XYXY dudvvufyxF ,,

4) ( ) ( ) ( ) ( )∫ ∫∫ ∫∞−

∞−∞−

∞−

==y

XYY

x

XYX dudvvufyFdudvvufxF , ,,

5) ( )∫ ∫− −

=≤≤≤≤2

1

2

1

,, 2121

x

x

y

yXY dxdyyxfyYyxXxp

6) Las funciones de densidad de probabilidad marginales son

( ) ( )∫∫∞

∞−

∞−

== dxyxfyfdyyxfxf XYYXYX ,)( ,,)( .

Page 13: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

13

La generalización para N variables aleatorias es

( )( )

N

NXXXN

NXXX xxxxxxF

xxxf N

N ∂∂∂

∂=

...,...,,

,...,,21

21...21...

21

21

Funciones de distribución y de densidad de probabilidad condicionadas La función de distribución condicionada en función de la conjunta queda

( )( ) ( )( )

( )( ) ( ) ( )( ) ( )12

1221

,,/

,,/

yFyFyxFyxF

yYyxF

yFyxF

y)p (YyYxXpyYxF

YY

XYXYX

Y

XYX

−−

=≤≤

=≤

≤≤=≤

La función de densidad de probabilidad condicionada será

( )( ) ( )( )dx

yYxdFyYxf X

X≤

=≤/

/

La función de distribución también se puede representar de la forma

( )( )( )

( )∫ ∫

∫∞

∞−

=≤≤2

1

2

1

,

,/ 21 y

yXY

y

yXY

X

dxdyyxf

dyyxfyYyxF

Independencia estadística Aplicando la definición de independencia estadística, se dice que dos variables aleatorias X e Y son independientes si se cumple

( ) y)p (Yx)p (XyYxXp ≤⋅≤=≤≤ ,

De aquí se deduce que si dos variables aleatorias son independientes se cumple

( ) ( ) ( )( ) ( ) ( )yfxfyxf

yFxFyxF

YXXY

YXXY

⋅=⋅=

,,

También se cumple

( )( ) ( ) ( )( ) ( )( )( ) ( ) ( )( ) ( )yfxXyfxfyYxf

yFxXyFxFyYxF

YYXX

YYXX

=≤=≤=≤=≤

/ ,// ,/

Momentos de una y de dos variables aleatorias

Page 14: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

14

Para una variable aleatoria X, se define el momento sobre el origen de orden n como

(x) dxfx = X= Em x

+

-

nnn ⋅∫

De aquí se deduce que la media es m1 y que el valor cuadrático medio es m2. Los momentos en torno a la media se denominan momentos centrales. Se define el momento central de orden n como

(x) dxf)(x - η = )η = E( Χ Χn

+

-x

nxn ⋅− ∫

µ

Por lo tanto µ2 es la varianza de la variable aleatoria.

Para dos variables aleatorias X e Y, se define el momento conjunto sobre el origen de orden n+k como

∫ ∫∞

⋅+

-XY

k+

-

nknnk y) dxdy (xfyx = YX= Em ,

Se observa que mn0 y m0k son los momentos sobre el origen de X e Y. Al momento de segundo orden m11 se denomina correlación de X e Y

∫ ∫∞

⋅⋅⋅=+

-XY

+

-XY y) dxdy (xfyx = YX= EmR ,11

Se dice que las variables aleatorias son incorreladas cuando YEX= ERXY ⋅ . Además, se puede demostrar que si son independientes, son necesariamente incorreladas. Cuando 0= RXY se dice que las variables aleatorias son ortogonales.

Se define el momento conjunto central de orden n+k como

( )∫ ∫∞

−−−−+

-XY

ky

+

-

nx

ky

nxnk y) dxdy (xf )η( yηx = )η( Y )η = E( Χ ,µ

Al momento de segundo orden µ11 se denomina covarianza de X e Y.

yxXYyxXY ηη ) =Rη )( Yη=E( ΧC −−−= 11µ

Page 15: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

15

Se denomina coeficiente de correlación a

yx

XYCσσµµ

µρ ==

2002

11

Se puede demostrar que ρ está acotado entre –1 y 1. Variables aleatorias conjuntamente gaussianas Las variables aleatorias X e Y son conjuntamente gaussianas si su función de densidad de probabilidad conjunta se expresa de la forma

( )( ) ( )( ) ( )

+−

−−

⋅−

=2

2y

x

yx2

2x

2

-y -y-x2 -x 12

1

2yx 121, yyxey) (xfΧY

σ

η

σσ

ηηρ

ση

ρ

ρσπσ

Cuando ρ=0, las variables aleatorias están incorreladas, cumpliéndose entonces

( ) ( ) ( )yfxfyxf YXXY ⋅=, . Por lo tanto, en este caso incorrelación supone independencia. Se cumple siempre que el valor máximo viene dado por

( )2

yx

yx12

1,,ρσπσ

ηη−

=≤ ΧYΧY fy) (xf

6. Procesos estocásticos Los procesos estocásticos representan magnitudes variables en el tiempo cuyo valor en cada instante es incierto. Son, por lo tanto, funciones temporales cuyo valor en cada instante es una variable aleatoria. Ejemplos de esto son las señales de voz, de ruido, los índices de la bolsa, etc. El proceso estocástico no tiene por que ser una función continua del tiempo. Si nos fijamos en los valores que presenta un proceso estocástico en un intervalo de tiempo, a la curva resultante se le denomina realización del proceso. En general, las realizaciones del proceso serán distintas para intervalos de tiempo distintos. Para modelar matemáticamente el proceso se ha de tener en cuenta su condición de variable aleatoria dependiente del tiempo. Se representará de la forma X(t). Funciones de distribución y de densidad de probabilidad de un proceso estocástico Al igual que el proceso estocástico, las funciones de distribución y de densidad de probabilidad serán dependientes del tiempo. Al fijar un instante de tiempo t se genera

Page 16: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

16

una variable aleatoria X(t), de tal forma que se definen las funciones de distribución y de densidad de probabilidad de primer orden de la forma

( )

dxtxdF

txf

xtXptxF

XX

X

),(),(

)(,

=

≤=

Si se fijan dos instantes t1 y t2 se generan las variables aleatorias X(t1) y X(t2). Se definen las funciones de distribución y de densidad de probabilidad de segundo orden de la forma

( )

21

21212

2121

22112121

),;,(),;,(

)(,)(,;,

xxttxxF

ttxxf

xtXxtXpttxxF

XX

X

∂∂∂

=

≤≤=

De forma general se tendrá para orden n

( )

n

nnXn

nnX

nnnnX

xxttxxF

ttxxf

xtXxtXpttxxF

∂∂∂

=

≤≤=

...),...,;,...,(

),...,;,...,(

)(,...,)(,...,;,...,

1

1111

1111

En la práctica las funciones que se suelen emplear son las de primer y segundo orden, debido a la complejidad de las expresiones. Momentos de un proceso estocástico Sea X(t) una variable aleatoria definida al fijar el instante de tiempo t. Se define el momento sobre el origen de orden n

( ) ( ) t) dx (xfx = tX= Etm x

+

-

nnn ,⋅∫

De donde se observa que la media es ηx(t)=m1(t) y que el valor cuadrático medio es EX2(t)= m2(t). Se define el momento central de orden n como

( ) t) dx(xf)t(x - = )tηt = E( Χt Χn

+

-x

nxn ,)()()( ⋅− ∫

ηµ

Por lo tanto la varianza es σx

2(t)=µ2(t).

Page 17: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

17

Se ha visto que cuando se fijan los instantes t1 y t2 se generan las variables aleatorias X(t1) y X(t2). Se definen los momentos conjuntos de ambas variables aleatorias, de los que sólo nos vamos a fijar en los siguientes.

Page 18: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

18

Se define la autocorrelación del proceso estocástico como

( ) ( ) ( ) ( )∫ ∫∞

+

-X

+

-XX dxdxttxxfxx = tXtX= EttR 212121212121 ,;,,

Se define la autocovarianza como

( ) ( ) ( )( ) ( ) ( )( ) ttXttX= EttC xxXX 221121 , ηη −−

Desarrollando se obtiene

( ) ( ) ( ) ( ) tttt=RttC xxXXXX 212121 ,, ηη−

Se pueden definir también momentos conjuntos de dos o más procesos estocásticos. Sean las variables aleatorias X(t1) e Y(t2). Se define la función de correlación cruzada como

( ) ( ) ( ) ( )∫ ∫∞

⋅⋅+

-XY

+

-XY dxdyttyxfyx = tYtX= EttR 212121 ,;,,

La función de covarianza cruzada es

( ) ( ) ( )( ) ( ) ( )( ) ttYttX= EttC yxXY 221121 , ηη −− Procesos estocásticos estacionarios El número de variables aleatorias introducidas por un proceso estocástico es infinito, ya que cada instante distinto genera una variable aleatoria distinta. Cada una tendrá sus respectivas funciones y estadísticos, por lo que resulta evidente la dificultad de trabajar con tal cantidad de parámetros. Lo habitual es buscar ciertas propiedades de los procesos que posibiliten trabajar de una forma más cómoda. Se dice que un proceso estocástico es estacionario de primer orden si su función densidad de probabilidad de primer orden es independiente del tiempo

)(),(),( xfttxftxf XXX =∆+=

Esto significa que ηx(t)=ηx, σx2(t)=σx

2, )( 22 ΧΕ=ΧΕ t

Se dice que un proceso estocástico es estacionario de segundo orden si su función densidad de probabilidad de segundo orden cumple

),;,(),;,( 21212121 ttttxxfttxxf XX ∆+∆+=

Page 19: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

19

También se suele expresar de la forma

122112212121 );,();,(),;,( ttxxfttxxfttxxf XXX −==−= ττ

Esto significa que

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )τ

ττ

XXXXXX

XXXXXX

Ctt= CttCtXtXERtt= RttR

=−+==−

1221

1221

,,

Se dice que un proceso estocástico es estacionario en sentido amplio cuando su media no depende del tiempo y su autocorrelación depende del desplazamiento τ. En este caso la función de autocorrelación cumple las siguientes propiedades: 1) ( ) ( )0XXXX RR ≤τ . Está acotada y es máxima en el origen.

2) ( ) )(0 2 tXERXX = 3) ( ) ( )ττ −= XXXX RR 4) ( ) 2lim xXXR ητ

τ=

∞→, si el proceso no tiene componentes periódicas.

Se dice que un proceso estocástico es estacionario en sentido estricto si su

función de densidad de probabilidad de orden n cumple:

),...,;,...,(),...,;,...,( 1111 ttttxxfttxxf nnXnnX ∆+∆+=

Si un proceso es estacionario en sentido estricto, entonces es estacionario para cualquier orden k≤n.

Se dice que dos procesos estocásticos son conjuntamente estacionarios en sentido amplio cuando cada uno es estacionario en sentido amplio y la función de correlación cruzada depende solamente del desplazamiento τ.

( ) ( ) ( ) ( ) ( )( ) ( ) yxXYXY

YXXYXY

= RC=RtYtXE=RttR

ηητττττ

−−+=21 ,

Se dice que dos procesos estocásticos conjuntamente estacionarios en sentido amplio son ortogonales cuando ( ) 0=τXYR . Se dice que son incorrelados cuando

( ) ( ) yxXYXY RC ηηττ =→= 0 . Se dice que son independientes cuando

),...,,,...,(),...,,,...,(),...,,,...,;,...,,,...,( ''1111

''1111 nnYnnXnnnnXY ttyyfttxxfttttyyxxf =

Si dos procesos son independientes entonces también son incorrelados. Además, si dos procesos son incorrelados y al menos uno de ellos tiene media nula, entonces también son ortogonales.

Page 20: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

20

Procesos estocásticos ergódicos Un proceso estocástico es ergódico si sus promedios estadísticos coinciden con los respectivos promedios temporales. Por lo tanto, cualquier estadístico podrá obtenerse a partir de una sola realización del proceso. Características espectrales de los procesos estocásticos Para analizar en frecuencia un proceso estocástico X(t), se presenta la dificultad de que no se puede asegurar a priori que todas las realizaciones del proceso tengan transformada de Fourier. Sin embargo, se verá a continuación que es posible obtener la Densidad Espectral de Potencia DEP, del proceso. Supóngase una realización del proceso x(t). En general será una función definida en potencia, por lo que es posible que no tenga transformada de Fourier. Por lo tanto se define la señal xT(t) como la realización del proceso definida en un intervalo T. Esta señal será definida en energía, por lo que se puede asegurar que tiene transformada de Fourier XT(w). Aplicando el teorema de Parseval, la potencia media de la realización será

dwwPdwwXT

dttxT

dttxT

P xTT

TT

T

TTx ∫∫∫∫

∞−

∞−∞→

∞−∞→

−∞→

==== )(21)(1

lim21)(1

lim)(1lim

222/

2/

2

ππ

donde Px(w) es la DEP de la realización x(t). De forma análoga se puede obtener la potencia media del proceso

dwwPdwwXET

dttXET

P XTT

T

TTX ∫∫∫

∞−

∞−∞→

−∞→

=== )(21)(1

lim21)(1

lim2

2/

2/

2

ππ

donde )(1lim)( 2wXE

TwP T

TX

∞→= es la DEP del proceso X(t).

Cuando el proceso es estacionario en sentido amplio se cumple

)0()0(1lim)(1

lim2/

2/

2/

2/

2X

T

TX

T

T

TTX RdtR

TdttXE

TP === ∫∫

−∞→

−∞→

donde se observa que la potencia media del proceso viene dada por su valor cuadrático medio. Además, se cumple lo que se conoce como teorema de Wiener-Khinchin, que demuestra que la transformada de Fourier de la autocorrelación del proceso es la DEP

( ) ( )wPR XTF

X →τ

Page 21: Introducción a la Estadística y a la Teoría de Procesos ...€¦ · Se define media de una variable aleatoria como el valor medio que toma esa variable aleatoria cuando promediamos

21

Transformaciones de procesos Los procesos estocásticos modelan variaciones temporales que, a su vez, pueden ser transformados por sistemas. Las herramientas de análisis de señales y sistemas pueden entonces extenderse al caso habitual en que las señales sean procesos estocásticos. En particular, cuando se trata de sistemas lineales e invariantes, se pueden trasladar la mayor parte de las conclusiones que tratan de señales deterministas definidas en potencia al campo de los procesos estocásticos estacionarios. Se puede demostrar que si se dispone de un proceso estocástico estacionario X(t) a la entrada de un sistema lineal e invariante, la relación entre las autocorrelaciones de la entrada y la salida es

)(*)(*)()( ττττ −= hhRR XY

Aplicando transformada de Fourier a la ecuación

2* )()()()()()( wHwPwHwHwPwP XXY == Ruido blanco gaussiano El ruido habitual que se introduce en cualquier sistema de comunicaciones se modela como un proceso estocástico estacionario blanco y gaussiano que se añade de forma aditiva a la señal transmitida que llega al receptor. La validez de la hipótesis de que el ruido tenga una distribución gaussiana y no cualquier otra, se apoya en el hecho de que lo consideremos consecuencia de múltiples fuentes de ruido independientes. En esta situación, cuando el número de fuentes tiende a ser infinito, se aplica el Teorema del Límite Central, que indica que la distribución resultante tiende a ser gaussiana. La incorrelación del ruido indica la independencia total entre instantes sucesivos de tiempo. Esto es así porque las variables aleatorias gaussianas que están incorreladas son también independientes.

T[ ] X(t) Y(t)=T[X(t)]

Receptor+X(t)

N(t)