Función de distribución de una variable aleatoria
Transcript of Función de distribución de una variable aleatoria
Función de distribución de una variable aleatoria
Es una función determinista que me describe matemáticamete el comportamiento probabílistico de una variable o intervalo de variables aleatoria
Variable aleatoria: variable que se asocia a cada resultado de un experimento aleatorio
F(x)=P(X<x) X: variable aleatoria x: variable determinista
X puede ser discreta o con,nua
Ejemplo: ¿Cuál es la F(x) para el experimento de :rada de un dado, anotando lo que sale en la cara superior?
! ! ! ! ! !!!!!!!!!!
!!!! !!!!
Función de distribución de una variable aleatoria
X: variable aleatoria x: variable determinista
Como puedo determinar la P(x1 ≤ x < x2 ) ???? Entonces si la variable aleatoria es discreta:
Función de densidad de probabilidad (I)
Es una función de densidad lineal de una variable aleatoria
f(x) dx = P(x≤ x <x+dx)
66 Variables aleatorias
Ejemplo II–11 Si deseamos determinar la probabilidad de que este valor se encuentre en el rango 4 < x ≤ 7,
P (4 < x ≤ 7) = F (7) − F (4) =2136
− 636
=1536
= (436
+536
+636
)
Analogamente para x > 10,
P (x > 10) = 1 − F (10) = 1 − 3336
=336
= (236
+136
)
Como ejercicio adicional se puede demostrar que es mas difıcil obtener 9 tirando 3 dados que obtener 10.
Galileo (1564-1642) demostro que hay 216 combinaciones posibles equiprobables: 25 conducen a 9 y 27 a
10. La diferencia es muy pequena: 2/216 ∼ 0.01.
6.1.3. Variable aleatoria continua
Veamos ahora el caso de las variables aleatorias continuas, es decir, aquellas que pueden tomar cualquier
valor en un intervalo (a, b), o incluso (−∞,∞). En este caso, la probabilidad de que la variable X tome
un valor determinado dentro de ese intervalo es cero, ya que existen infinitos valores posibles en cualquier
intervalo, por pequeno que sea, alrededor del valor en cuestion. Por ejemplo, la probabilidad de que la
altura de una persona sea exactamente 1.75 cm, con infinitos ceros en las cifras decimales, es cero. Por
tanto no se puede definir una funcion de probabilidad igual que se hacıa para las variables discretas, dando
la probabilidad de cada valor de la variable. Lo que se si puede especificar es la probabilidad de que la
variable este en un cierto intervalo. Para ello se define una funcion f(x) llamada funcion de densidad, o
distribucion de probabilidad, de la variable aleatoria continua X de forma que, para todo x, cumpla
f(x) ≥ 0 ;
∫ ∞
−∞f(x) dx = 1. (6.4)
De forma que la probabilidad de que X se encuentre entre dos valores x1 y x2 se puede calcular como
P (x1 < X < x2) =
∫ x2
x1
f(x) dx. (6.5)
Las tres expresiones anteriores constituyen la definicion de la funcion de densidad. Puede demostrarse
que esta definicion cumple los axiomas de la probabilidad. Puesto que la probabilidad de que X tome un
determinado valor x0 es nula (∫ x0
x0f(x) dx = 0), en la expresion anterior es indiferente escribir el signo <
o ≤.
Puede observarse que, por la definicion (6.4), la representacion grafica de la funcion de densidad (Figu-
ra 6.2) sera la de una curva, normalmente continua, que toma siempre valores positivos o nulos, y con area,
comprendida entre la curva y el eje x, unidad. De igual forma, por la expresion (6.5), la probabilidad de que
la variable tome un valor entre x1 y x2 sera el area bajo la funcion de densidad entre las abscisas x1 y x2.
Esta asociacion de probabilidad a area es sumamente util para el estudio de la distribuciones continuas de
probabilidad.
Al igual que para el caso discreto, se puede definir la funcion de distribucion F (x) en cada punto x
de una variable aleatoria continua como la probabilidad de que la variable X tome un valor inferior a x
F (x) = P (X < x). (6.6)
Por la definicion de funcion de densidad, esta se relaciona con la funcion de distribucion por
F (x) =
∫ x
−∞f(t) dt. (6.7)
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 67
Figura 6.2: Funcion de densidad, f(x), y funcion de distribucion, F (x), para una variable aleatoria continua.
Tambien al igual que en el caso discreto, la probabilidad de que X este en un cierto intervalo (x1, x2) se
podra expresar como
P (x1 < X < x2) = F (x2) − F (x1) =
∫ x2
x1
f(x) dx.
Si hacemos ese intervalo cada vez mas pequeno, tendremos
F (x + ∆x) − F (x) = P (x < X < x + ∆x) " f(x)∆x
⇒ f(x) =dF (x)
dx.
Es decir, la derivada de la funcion de distribucion es la funcion de densidad.
En general, la funcion de distribucion sera una funcion continua no decreciente que ademas cumple
F (−∞) =
∫ −∞
−∞f(x) dx = 0 ; F (∞) =
∫ ∞
−∞f(x) dx = 1.
y, por tanto, su representacion grafica sera como la mostrada en la Figura 6.2.
Evidentemente, la variable estadıstica puede que solo tome valores en un intervalo (a, b). En este caso las
integrales infinitas vistas anteriormente se reducen a integrales finitas y se cumple
∫ b
af(x) dx = 1 y F (x) =
0 x < a∫ x
a f(t) dt a < x < b
1 x > b
6.2. Medidas caracterısticas de una variable aleatoria
De la misma forma en que se definıan medidas caracterısticas de las distribuciones de frecuencias, se pue-
den definir tambien medidas caracterısticas para la distribucion de una variable aleatoria, dividiendose estas
en medidas de centralizacion y medidas de dispersion. Por convenio, estas medidas teoricas se representan
por letras griegas para ası diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
f(x)
x
Si la variable aleatoria es continua, se define la función de densidad de probabilidad…..
6.2 Medidas caracterısticas de una variable aleatoria 67
Figura 6.2: Funcion de densidad, f(x), y funcion de distribucion, F (x), para una variable aleatoria continua.
Tambien al igual que en el caso discreto, la probabilidad de que X este en un cierto intervalo (x1, x2) se
podra expresar como
P (x1 < X < x2) = F (x2) − F (x1) =
∫ x2
x1
f(x) dx.
Si hacemos ese intervalo cada vez mas pequeno, tendremos
F (x + ∆x) − F (x) = P (x < X < x + ∆x) " f(x)∆x
⇒ f(x) =dF (x)
dx.
Es decir, la derivada de la funcion de distribucion es la funcion de densidad.
En general, la funcion de distribucion sera una funcion continua no decreciente que ademas cumple
F (−∞) =
∫ −∞
−∞f(x) dx = 0 ; F (∞) =
∫ ∞
−∞f(x) dx = 1.
y, por tanto, su representacion grafica sera como la mostrada en la Figura 6.2.
Evidentemente, la variable estadıstica puede que solo tome valores en un intervalo (a, b). En este caso las
integrales infinitas vistas anteriormente se reducen a integrales finitas y se cumple
∫ b
af(x) dx = 1 y F (x) =
0 x < a∫ x
a f(t) dt a < x < b
1 x > b
6.2. Medidas caracterısticas de una variable aleatoria
De la misma forma en que se definıan medidas caracterısticas de las distribuciones de frecuencias, se pue-
den definir tambien medidas caracterısticas para la distribucion de una variable aleatoria, dividiendose estas
en medidas de centralizacion y medidas de dispersion. Por convenio, estas medidas teoricas se representan
por letras griegas para ası diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 67
Figura 6.2: Funcion de densidad, f(x), y funcion de distribucion, F (x), para una variable aleatoria continua.
Tambien al igual que en el caso discreto, la probabilidad de que X este en un cierto intervalo (x1, x2) se
podra expresar como
P (x1 < X < x2) = F (x2) − F (x1) =
∫ x2
x1
f(x) dx.
Si hacemos ese intervalo cada vez mas pequeno, tendremos
F (x + ∆x) − F (x) = P (x < X < x + ∆x) " f(x)∆x
⇒ f(x) =dF (x)
dx.
Es decir, la derivada de la funcion de distribucion es la funcion de densidad.
En general, la funcion de distribucion sera una funcion continua no decreciente que ademas cumple
F (−∞) =
∫ −∞
−∞f(x) dx = 0 ; F (∞) =
∫ ∞
−∞f(x) dx = 1.
y, por tanto, su representacion grafica sera como la mostrada en la Figura 6.2.
Evidentemente, la variable estadıstica puede que solo tome valores en un intervalo (a, b). En este caso las
integrales infinitas vistas anteriormente se reducen a integrales finitas y se cumple
∫ b
af(x) dx = 1 y F (x) =
0 x < a∫ x
a f(t) dt a < x < b
1 x > b
6.2. Medidas caracterısticas de una variable aleatoria
De la misma forma en que se definıan medidas caracterısticas de las distribuciones de frecuencias, se pue-
den definir tambien medidas caracterısticas para la distribucion de una variable aleatoria, dividiendose estas
en medidas de centralizacion y medidas de dispersion. Por convenio, estas medidas teoricas se representan
por letras griegas para ası diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
Función de densidad de probabilidad (I)
Es una función de densidad lineal de una variable aleatoria
66 Variables aleatorias
Ejemplo II–11 Si deseamos determinar la probabilidad de que este valor se encuentre en el rango 4 < x ≤ 7,
P (4 < x ≤ 7) = F (7) − F (4) =2136
− 636
=1536
= (436
+536
+636
)
Analogamente para x > 10,
P (x > 10) = 1 − F (10) = 1 − 3336
=336
= (236
+136
)
Como ejercicio adicional se puede demostrar que es mas difıcil obtener 9 tirando 3 dados que obtener 10.
Galileo (1564-1642) demostro que hay 216 combinaciones posibles equiprobables: 25 conducen a 9 y 27 a
10. La diferencia es muy pequena: 2/216 ∼ 0.01.
6.1.3. Variable aleatoria continua
Veamos ahora el caso de las variables aleatorias continuas, es decir, aquellas que pueden tomar cualquier
valor en un intervalo (a, b), o incluso (−∞,∞). En este caso, la probabilidad de que la variable X tome
un valor determinado dentro de ese intervalo es cero, ya que existen infinitos valores posibles en cualquier
intervalo, por pequeno que sea, alrededor del valor en cuestion. Por ejemplo, la probabilidad de que la
altura de una persona sea exactamente 1.75 cm, con infinitos ceros en las cifras decimales, es cero. Por
tanto no se puede definir una funcion de probabilidad igual que se hacıa para las variables discretas, dando
la probabilidad de cada valor de la variable. Lo que se si puede especificar es la probabilidad de que la
variable este en un cierto intervalo. Para ello se define una funcion f(x) llamada funcion de densidad, o
distribucion de probabilidad, de la variable aleatoria continua X de forma que, para todo x, cumpla
f(x) ≥ 0 ;
∫ ∞
−∞f(x) dx = 1. (6.4)
De forma que la probabilidad de que X se encuentre entre dos valores x1 y x2 se puede calcular como
P (x1 < X < x2) =
∫ x2
x1
f(x) dx. (6.5)
Las tres expresiones anteriores constituyen la definicion de la funcion de densidad. Puede demostrarse
que esta definicion cumple los axiomas de la probabilidad. Puesto que la probabilidad de que X tome un
determinado valor x0 es nula (∫ x0
x0f(x) dx = 0), en la expresion anterior es indiferente escribir el signo <
o ≤.
Puede observarse que, por la definicion (6.4), la representacion grafica de la funcion de densidad (Figu-
ra 6.2) sera la de una curva, normalmente continua, que toma siempre valores positivos o nulos, y con area,
comprendida entre la curva y el eje x, unidad. De igual forma, por la expresion (6.5), la probabilidad de que
la variable tome un valor entre x1 y x2 sera el area bajo la funcion de densidad entre las abscisas x1 y x2.
Esta asociacion de probabilidad a area es sumamente util para el estudio de la distribuciones continuas de
probabilidad.
Al igual que para el caso discreto, se puede definir la funcion de distribucion F (x) en cada punto x
de una variable aleatoria continua como la probabilidad de que la variable X tome un valor inferior a x
F (x) = P (X < x). (6.6)
Por la definicion de funcion de densidad, esta se relaciona con la funcion de distribucion por
F (x) =
∫ x
−∞f(t) dt. (6.7)
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 67
Figura 6.2: Funcion de densidad, f(x), y funcion de distribucion, F (x), para una variable aleatoria continua.
Tambien al igual que en el caso discreto, la probabilidad de que X este en un cierto intervalo (x1, x2) se
podra expresar como
P (x1 < X < x2) = F (x2) − F (x1) =
∫ x2
x1
f(x) dx.
Si hacemos ese intervalo cada vez mas pequeno, tendremos
F (x + ∆x) − F (x) = P (x < X < x + ∆x) " f(x)∆x
⇒ f(x) =dF (x)
dx.
Es decir, la derivada de la funcion de distribucion es la funcion de densidad.
En general, la funcion de distribucion sera una funcion continua no decreciente que ademas cumple
F (−∞) =
∫ −∞
−∞f(x) dx = 0 ; F (∞) =
∫ ∞
−∞f(x) dx = 1.
y, por tanto, su representacion grafica sera como la mostrada en la Figura 6.2.
Evidentemente, la variable estadıstica puede que solo tome valores en un intervalo (a, b). En este caso las
integrales infinitas vistas anteriormente se reducen a integrales finitas y se cumple
∫ b
af(x) dx = 1 y F (x) =
0 x < a∫ x
a f(t) dt a < x < b
1 x > b
6.2. Medidas caracterısticas de una variable aleatoria
De la misma forma en que se definıan medidas caracterısticas de las distribuciones de frecuencias, se pue-
den definir tambien medidas caracterısticas para la distribucion de una variable aleatoria, dividiendose estas
en medidas de centralizacion y medidas de dispersion. Por convenio, estas medidas teoricas se representan
por letras griegas para ası diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 67
Figura 6.2: Funcion de densidad, f(x), y funcion de distribucion, F (x), para una variable aleatoria continua.
Tambien al igual que en el caso discreto, la probabilidad de que X este en un cierto intervalo (x1, x2) se
podra expresar como
P (x1 < X < x2) = F (x2) − F (x1) =
∫ x2
x1
f(x) dx.
Si hacemos ese intervalo cada vez mas pequeno, tendremos
F (x + ∆x) − F (x) = P (x < X < x + ∆x) " f(x)∆x
⇒ f(x) =dF (x)
dx.
Es decir, la derivada de la funcion de distribucion es la funcion de densidad.
En general, la funcion de distribucion sera una funcion continua no decreciente que ademas cumple
F (−∞) =
∫ −∞
−∞f(x) dx = 0 ; F (∞) =
∫ ∞
−∞f(x) dx = 1.
y, por tanto, su representacion grafica sera como la mostrada en la Figura 6.2.
Evidentemente, la variable estadıstica puede que solo tome valores en un intervalo (a, b). En este caso las
integrales infinitas vistas anteriormente se reducen a integrales finitas y se cumple
∫ b
af(x) dx = 1 y F (x) =
0 x < a∫ x
a f(t) dt a < x < b
1 x > b
6.2. Medidas caracterısticas de una variable aleatoria
De la misma forma en que se definıan medidas caracterısticas de las distribuciones de frecuencias, se pue-
den definir tambien medidas caracterısticas para la distribucion de una variable aleatoria, dividiendose estas
en medidas de centralizacion y medidas de dispersion. Por convenio, estas medidas teoricas se representan
por letras griegas para ası diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
f(x)
x x
f(x) dx = P(x≤ x <x+dx)
Función de densidad de probabilidad (II)
66 Variables aleatorias
Ejemplo II–11 Si deseamos determinar la probabilidad de que este valor se encuentre en el rango 4 < x ≤ 7,
P (4 < x ≤ 7) = F (7) − F (4) =2136
− 636
=1536
= (436
+536
+636
)
Analogamente para x > 10,
P (x > 10) = 1 − F (10) = 1 − 3336
=336
= (236
+136
)
Como ejercicio adicional se puede demostrar que es mas difıcil obtener 9 tirando 3 dados que obtener 10.
Galileo (1564-1642) demostro que hay 216 combinaciones posibles equiprobables: 25 conducen a 9 y 27 a
10. La diferencia es muy pequena: 2/216 ∼ 0.01.
6.1.3. Variable aleatoria continua
Veamos ahora el caso de las variables aleatorias continuas, es decir, aquellas que pueden tomar cualquier
valor en un intervalo (a, b), o incluso (−∞,∞). En este caso, la probabilidad de que la variable X tome
un valor determinado dentro de ese intervalo es cero, ya que existen infinitos valores posibles en cualquier
intervalo, por pequeno que sea, alrededor del valor en cuestion. Por ejemplo, la probabilidad de que la
altura de una persona sea exactamente 1.75 cm, con infinitos ceros en las cifras decimales, es cero. Por
tanto no se puede definir una funcion de probabilidad igual que se hacıa para las variables discretas, dando
la probabilidad de cada valor de la variable. Lo que se si puede especificar es la probabilidad de que la
variable este en un cierto intervalo. Para ello se define una funcion f(x) llamada funcion de densidad, o
distribucion de probabilidad, de la variable aleatoria continua X de forma que, para todo x, cumpla
f(x) ≥ 0 ;
∫ ∞
−∞f(x) dx = 1. (6.4)
De forma que la probabilidad de que X se encuentre entre dos valores x1 y x2 se puede calcular como
P (x1 < X < x2) =
∫ x2
x1
f(x) dx. (6.5)
Las tres expresiones anteriores constituyen la definicion de la funcion de densidad. Puede demostrarse
que esta definicion cumple los axiomas de la probabilidad. Puesto que la probabilidad de que X tome un
determinado valor x0 es nula (∫ x0
x0f(x) dx = 0), en la expresion anterior es indiferente escribir el signo <
o ≤.
Puede observarse que, por la definicion (6.4), la representacion grafica de la funcion de densidad (Figu-
ra 6.2) sera la de una curva, normalmente continua, que toma siempre valores positivos o nulos, y con area,
comprendida entre la curva y el eje x, unidad. De igual forma, por la expresion (6.5), la probabilidad de que
la variable tome un valor entre x1 y x2 sera el area bajo la funcion de densidad entre las abscisas x1 y x2.
Esta asociacion de probabilidad a area es sumamente util para el estudio de la distribuciones continuas de
probabilidad.
Al igual que para el caso discreto, se puede definir la funcion de distribucion F (x) en cada punto x
de una variable aleatoria continua como la probabilidad de que la variable X tome un valor inferior a x
F (x) = P (X < x). (6.6)
Por la definicion de funcion de densidad, esta se relaciona con la funcion de distribucion por
F (x) =
∫ x
−∞f(t) dt. (6.7)
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 67
Figura 6.2: Funcion de densidad, f(x), y funcion de distribucion, F (x), para una variable aleatoria continua.
Tambien al igual que en el caso discreto, la probabilidad de que X este en un cierto intervalo (x1, x2) se
podra expresar como
P (x1 < X < x2) = F (x2) − F (x1) =
∫ x2
x1
f(x) dx.
Si hacemos ese intervalo cada vez mas pequeno, tendremos
F (x + ∆x) − F (x) = P (x < X < x + ∆x) " f(x)∆x
⇒ f(x) =dF (x)
dx.
Es decir, la derivada de la funcion de distribucion es la funcion de densidad.
En general, la funcion de distribucion sera una funcion continua no decreciente que ademas cumple
F (−∞) =
∫ −∞
−∞f(x) dx = 0 ; F (∞) =
∫ ∞
−∞f(x) dx = 1.
y, por tanto, su representacion grafica sera como la mostrada en la Figura 6.2.
Evidentemente, la variable estadıstica puede que solo tome valores en un intervalo (a, b). En este caso las
integrales infinitas vistas anteriormente se reducen a integrales finitas y se cumple
∫ b
af(x) dx = 1 y F (x) =
0 x < a∫ x
a f(t) dt a < x < b
1 x > b
6.2. Medidas caracterısticas de una variable aleatoria
De la misma forma en que se definıan medidas caracterısticas de las distribuciones de frecuencias, se pue-
den definir tambien medidas caracterısticas para la distribucion de una variable aleatoria, dividiendose estas
en medidas de centralizacion y medidas de dispersion. Por convenio, estas medidas teoricas se representan
por letras griegas para ası diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
f(x)
x x
6.2 Medidas caracterısticas de una variable aleatoria 67
Figura 6.2: Funcion de densidad, f(x), y funcion de distribucion, F (x), para una variable aleatoria continua.
Tambien al igual que en el caso discreto, la probabilidad de que X este en un cierto intervalo (x1, x2) se
podra expresar como
P (x1 < X < x2) = F (x2) − F (x1) =
∫ x2
x1
f(x) dx.
Si hacemos ese intervalo cada vez mas pequeno, tendremos
F (x + ∆x) − F (x) = P (x < X < x + ∆x) " f(x)∆x
⇒ f(x) =dF (x)
dx.
Es decir, la derivada de la funcion de distribucion es la funcion de densidad.
En general, la funcion de distribucion sera una funcion continua no decreciente que ademas cumple
F (−∞) =
∫ −∞
−∞f(x) dx = 0 ; F (∞) =
∫ ∞
−∞f(x) dx = 1.
y, por tanto, su representacion grafica sera como la mostrada en la Figura 6.2.
Evidentemente, la variable estadıstica puede que solo tome valores en un intervalo (a, b). En este caso las
integrales infinitas vistas anteriormente se reducen a integrales finitas y se cumple
∫ b
af(x) dx = 1 y F (x) =
0 x < a∫ x
a f(t) dt a < x < b
1 x > b
6.2. Medidas caracterısticas de una variable aleatoria
De la misma forma en que se definıan medidas caracterısticas de las distribuciones de frecuencias, se pue-
den definir tambien medidas caracterısticas para la distribucion de una variable aleatoria, dividiendose estas
en medidas de centralizacion y medidas de dispersion. Por convenio, estas medidas teoricas se representan
por letras griegas para ası diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
66 Variables aleatorias
Ejemplo II–11 Si deseamos determinar la probabilidad de que este valor se encuentre en el rango 4 < x ≤ 7,
P (4 < x ≤ 7) = F (7) − F (4) =2136
− 636
=1536
= (436
+536
+636
)
Analogamente para x > 10,
P (x > 10) = 1 − F (10) = 1 − 3336
=336
= (236
+136
)
Como ejercicio adicional se puede demostrar que es mas difıcil obtener 9 tirando 3 dados que obtener 10.
Galileo (1564-1642) demostro que hay 216 combinaciones posibles equiprobables: 25 conducen a 9 y 27 a
10. La diferencia es muy pequena: 2/216 ∼ 0.01.
6.1.3. Variable aleatoria continua
Veamos ahora el caso de las variables aleatorias continuas, es decir, aquellas que pueden tomar cualquier
valor en un intervalo (a, b), o incluso (−∞,∞). En este caso, la probabilidad de que la variable X tome
un valor determinado dentro de ese intervalo es cero, ya que existen infinitos valores posibles en cualquier
intervalo, por pequeno que sea, alrededor del valor en cuestion. Por ejemplo, la probabilidad de que la
altura de una persona sea exactamente 1.75 cm, con infinitos ceros en las cifras decimales, es cero. Por
tanto no se puede definir una funcion de probabilidad igual que se hacıa para las variables discretas, dando
la probabilidad de cada valor de la variable. Lo que se si puede especificar es la probabilidad de que la
variable este en un cierto intervalo. Para ello se define una funcion f(x) llamada funcion de densidad, o
distribucion de probabilidad, de la variable aleatoria continua X de forma que, para todo x, cumpla
f(x) ≥ 0 ;
∫ ∞
−∞f(x) dx = 1. (6.4)
De forma que la probabilidad de que X se encuentre entre dos valores x1 y x2 se puede calcular como
P (x1 < X < x2) =
∫ x2
x1
f(x) dx. (6.5)
Las tres expresiones anteriores constituyen la definicion de la funcion de densidad. Puede demostrarse
que esta definicion cumple los axiomas de la probabilidad. Puesto que la probabilidad de que X tome un
determinado valor x0 es nula (∫ x0
x0f(x) dx = 0), en la expresion anterior es indiferente escribir el signo <
o ≤.
Puede observarse que, por la definicion (6.4), la representacion grafica de la funcion de densidad (Figu-
ra 6.2) sera la de una curva, normalmente continua, que toma siempre valores positivos o nulos, y con area,
comprendida entre la curva y el eje x, unidad. De igual forma, por la expresion (6.5), la probabilidad de que
la variable tome un valor entre x1 y x2 sera el area bajo la funcion de densidad entre las abscisas x1 y x2.
Esta asociacion de probabilidad a area es sumamente util para el estudio de la distribuciones continuas de
probabilidad.
Al igual que para el caso discreto, se puede definir la funcion de distribucion F (x) en cada punto x
de una variable aleatoria continua como la probabilidad de que la variable X tome un valor inferior a x
F (x) = P (X < x). (6.6)
Por la definicion de funcion de densidad, esta se relaciona con la funcion de distribucion por
F (x) =
∫ x
−∞f(t) dt. (6.7)
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
Parámetros que caracterizan una variable aleatoria
Existen los parámetros que caracterizan la centralización, la dispersión y la forma de la distribución que :ene la variable.
CENTRALIZACIÓN: Parámetro media, mediana y moda
¿Cómo definir el valor más representa:vo de la variable aleatoria?
68 Variables aleatorias
6.2.1. Media o esperanza matematica
La principal medida de centralizacion de la distribucion de una variable aleatoria es la media, tam-
bien conocida como esperanza matematica. Sea una variable aleatoria discreta X que toma los valores
x1, x2, . . . y sea f(x) su funcion de probabilidad. Por definicion, la media o esperanza matematica µ (tambien
representada por E(X)) de X viene dada por la expresion
µ = E(X) =∑
i
xif(xi). (6.8)
Es decir, la media se obtiene multiplicando cada valor de X por su probabilidad y sumando estos productos
para todos los posibles valores de X (el sumatorio se puede extender desde 1 hasta n o ∞). Evidentemente, el
significado de la media es que da un valor tıpico o promedio de la variable aleatoria. Notese que esta definicion
es consistente con la de la media aritmetica para una distribucion de frecuencias (x =∑k
i=1 xini/N), ya que
si hacemos tender el numero de medidas a infinito y recordamos la definicion de probabilidad dada en (5.1)
lımN→∞
x = lımN→∞
k∑
i=1
xini
N=
k∑
i=1
xi
(
lımN→∞
ni
N
)
=k
∑
i=1
xiP (X = xi) =k
∑
i=1
xif(xi) = µ.
En el caso continuo la expresion para la media es similar. Se define la media o esperanza matematica de
una variable aleatoria continua X con funcion de densidad f(x) como
µ = E(X) =
∫ ∞
−∞xf(x) dx, (6.9)
y su significado es el mismo. Cuando la variable aleatoria solo tome valores en un intervalo (a, b), la media
se puede escribir tambien como
µ = E(X) =
∫ b
axf(x) dx.
El concepto de esperanza matematica se puede generalizar para una funcion g(X) de la variable aleatoria
X. Notese que dicha funcion sera una nueva variable aleatoria. La media de esa funcion vendra dada entonces,
en el caso discreto y continuo, por
µg(X) = E(g(X)) =
{ ∑
i g(xi)f(xi)∫ ∞−∞ g(x)f(x) dx
(6.10)
En particular, si la funcion es de la forma g(X) = aX + b donde a y b son constantes, se tiene
µaX+b = E(aX + b) = aµX + b, (6.11)
ya que, aplicando (6.10) en el caso continuo
µaX+b =
∫ ∞
−∞(ax + b)f(x) dx = a
∫ ∞
−∞xf(x) dx + b
∫ ∞
−∞f(x) dx = aµX + b.
Particularizando a los casos especiales de a = 0 y b = 0 se obtienen dos propiedades importantes de la media
µb = E(b) = b (a = 0); µaX = E(aX) = aµX (b = 0). (6.12)
Ejemplo II–12 Calculemos la media en el lanzamiento de dos dados: µ =∑
i
xi f(xi) =25236
= 7
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
68 Variables aleatorias
6.2.1. Media o esperanza matematica
La principal medida de centralizacion de la distribucion de una variable aleatoria es la media, tam-
bien conocida como esperanza matematica. Sea una variable aleatoria discreta X que toma los valores
x1, x2, . . . y sea f(x) su funcion de probabilidad. Por definicion, la media o esperanza matematica µ (tambien
representada por E(X)) de X viene dada por la expresion
µ = E(X) =∑
i
xif(xi). (6.8)
Es decir, la media se obtiene multiplicando cada valor de X por su probabilidad y sumando estos productos
para todos los posibles valores de X (el sumatorio se puede extender desde 1 hasta n o ∞). Evidentemente, el
significado de la media es que da un valor tıpico o promedio de la variable aleatoria. Notese que esta definicion
es consistente con la de la media aritmetica para una distribucion de frecuencias (x =∑k
i=1 xini/N), ya que
si hacemos tender el numero de medidas a infinito y recordamos la definicion de probabilidad dada en (5.1)
lımN→∞
x = lımN→∞
k∑
i=1
xini
N=
k∑
i=1
xi
(
lımN→∞
ni
N
)
=k
∑
i=1
xiP (X = xi) =k
∑
i=1
xif(xi) = µ.
En el caso continuo la expresion para la media es similar. Se define la media o esperanza matematica de
una variable aleatoria continua X con funcion de densidad f(x) como
µ = E(X) =
∫ ∞
−∞xf(x) dx, (6.9)
y su significado es el mismo. Cuando la variable aleatoria solo tome valores en un intervalo (a, b), la media
se puede escribir tambien como
µ = E(X) =
∫ b
axf(x) dx.
El concepto de esperanza matematica se puede generalizar para una funcion g(X) de la variable aleatoria
X. Notese que dicha funcion sera una nueva variable aleatoria. La media de esa funcion vendra dada entonces,
en el caso discreto y continuo, por
µg(X) = E(g(X)) =
{ ∑
i g(xi)f(xi)∫ ∞−∞ g(x)f(x) dx
(6.10)
En particular, si la funcion es de la forma g(X) = aX + b donde a y b son constantes, se tiene
µaX+b = E(aX + b) = aµX + b, (6.11)
ya que, aplicando (6.10) en el caso continuo
µaX+b =
∫ ∞
−∞(ax + b)f(x) dx = a
∫ ∞
−∞xf(x) dx + b
∫ ∞
−∞f(x) dx = aµX + b.
Particularizando a los casos especiales de a = 0 y b = 0 se obtienen dos propiedades importantes de la media
µb = E(b) = b (a = 0); µaX = E(aX) = aµX (b = 0). (6.12)
Ejemplo II–12 Calculemos la media en el lanzamiento de dos dados: µ =∑
i
xi f(xi) =25236
= 7
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
68 Variables aleatorias
6.2.1. Media o esperanza matematica
La principal medida de centralizacion de la distribucion de una variable aleatoria es la media, tam-
bien conocida como esperanza matematica. Sea una variable aleatoria discreta X que toma los valores
x1, x2, . . . y sea f(x) su funcion de probabilidad. Por definicion, la media o esperanza matematica µ (tambien
representada por E(X)) de X viene dada por la expresion
µ = E(X) =∑
i
xif(xi). (6.8)
Es decir, la media se obtiene multiplicando cada valor de X por su probabilidad y sumando estos productos
para todos los posibles valores de X (el sumatorio se puede extender desde 1 hasta n o ∞). Evidentemente, el
significado de la media es que da un valor tıpico o promedio de la variable aleatoria. Notese que esta definicion
es consistente con la de la media aritmetica para una distribucion de frecuencias (x =∑k
i=1 xini/N), ya que
si hacemos tender el numero de medidas a infinito y recordamos la definicion de probabilidad dada en (5.1)
lımN→∞
x = lımN→∞
k∑
i=1
xini
N=
k∑
i=1
xi
(
lımN→∞
ni
N
)
=k
∑
i=1
xiP (X = xi) =k
∑
i=1
xif(xi) = µ.
En el caso continuo la expresion para la media es similar. Se define la media o esperanza matematica de
una variable aleatoria continua X con funcion de densidad f(x) como
µ = E(X) =
∫ ∞
−∞xf(x) dx, (6.9)
y su significado es el mismo. Cuando la variable aleatoria solo tome valores en un intervalo (a, b), la media
se puede escribir tambien como
µ = E(X) =
∫ b
axf(x) dx.
El concepto de esperanza matematica se puede generalizar para una funcion g(X) de la variable aleatoria
X. Notese que dicha funcion sera una nueva variable aleatoria. La media de esa funcion vendra dada entonces,
en el caso discreto y continuo, por
µg(X) = E(g(X)) =
{ ∑
i g(xi)f(xi)∫ ∞−∞ g(x)f(x) dx
(6.10)
En particular, si la funcion es de la forma g(X) = aX + b donde a y b son constantes, se tiene
µaX+b = E(aX + b) = aµX + b, (6.11)
ya que, aplicando (6.10) en el caso continuo
µaX+b =
∫ ∞
−∞(ax + b)f(x) dx = a
∫ ∞
−∞xf(x) dx + b
∫ ∞
−∞f(x) dx = aµX + b.
Particularizando a los casos especiales de a = 0 y b = 0 se obtienen dos propiedades importantes de la media
µb = E(b) = b (a = 0); µaX = E(aX) = aµX (b = 0). (6.12)
Ejemplo II–12 Calculemos la media en el lanzamiento de dos dados: µ =∑
i
xi f(xi) =25236
= 7
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
discreto con:nuo
Valor medio o media
Parámetros que caracterizan una variable aleatoria
CENTRALIZACIÓN: Parámetro media, mediana y moda
Mediana: es aquel valor de los posible de X que su función de distribución es igual a 0.5
Moda: es aquel valor de los posible de X que su función de densidad de probabilidad o probabilidad es máxima.
Parámetros que caracterizan una variable aleatoria
DISPERSIÓN: Parámetro varianza
Varianza
6.2 Medidas caracterısticas de una variable aleatoria 69
6.2.2. Varianza y desviacion tıpica
La media por sı sola no proporciona una adecuada descripcion de la distribucion de la variable aleatoria.
Ademas de conocer en que valor se centra esa distribucion es importante determinar la dispersion o variacion
de los valores de la variable aleatoria en torno a la media. Para ello se define la varianza, representada por
σ2 o Var(X), de una variable aleatoria discreta X como
Var(X) = σ2 = E(
(X − µ)2)
=∑
i
(xi − µ)2f(xi). (6.13)
Es decir, es la esperanza matematica de las desviaciones al cuadrado de los valores de la variable respecto a
su media. Es claro que cuanto mayor sea la varianza menos concentrados estaran los valores de X respecto
a su media. Al igual que ocurrıa con la media, la definicion anterior de la varianza esta ıntimamente ligada
a la definicion, ya vista, de varianza de una distribucion de frecuencias
lımN→∞
s2 = lımN→∞
∑ki=1(xi − x)2ni
N − 1= lım
N→∞
N
N − 1
k∑
i=1
(xi − x)2ni
N.
Teniendo en cuenta que cuando N tiende a ∞, N/(N − 1) tiende a 1, x tiende a µ, y ni/N tiende a la
probabilidad de xi
lımN→∞
s2 =k
∑
i=1
(xi − µ)2P (X = xi) = σ2.
Con el fin de obtener una medida de dispersion que tenga las mismas unidades que la variable aleatoria
se define la desviacion tıpica σ como la raız cuadrada positiva de la varianza
σ = +√
σ2 =
√∑
i
(xi − µ)2f(xi). (6.14)
Existe una expresion alternativa mas util en la practica para calcular la varianza
σ2 =∑
i
x2i f(xi) − µ2 = E(X2) − µ2. (6.15)
Para demostrar esta expresion desarrollamos el cuadrado en (6.13) y aplicamos la definicion de media
σ2 =∑
i
(xi − µ)2f(xi) =∑
i
(x2i + µ2 − 2xiµ)f(xi) =
=∑
i
x2i f(xi) + µ2
∑
i
f(xi) − 2µ∑
i
xif(xi) = E(X2) + µ2 − 2µµ = E(X2) − µ2.
De la misma manera se puede definir la varianza y desviacion tıpica de una variable aleatoria continua
X con funcion de densidad f(x)
Var(X) = σ2 = E(
(X − µ)2)
=
∫ ∞
−∞(x − µ)2f(x) dx, (6.16)
σ =
√∫ ∞
−∞(x − µ)2f(x) dx. (6.17)
Cuando X solo toma valores en un intervalo (a, b), la definicion de la varianza se reduce a
σ2 =
∫ b
a(x − µ)2f(x) dx.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 69
6.2.2. Varianza y desviacion tıpica
La media por sı sola no proporciona una adecuada descripcion de la distribucion de la variable aleatoria.
Ademas de conocer en que valor se centra esa distribucion es importante determinar la dispersion o variacion
de los valores de la variable aleatoria en torno a la media. Para ello se define la varianza, representada por
σ2 o Var(X), de una variable aleatoria discreta X como
Var(X) = σ2 = E(
(X − µ)2)
=∑
i
(xi − µ)2f(xi). (6.13)
Es decir, es la esperanza matematica de las desviaciones al cuadrado de los valores de la variable respecto a
su media. Es claro que cuanto mayor sea la varianza menos concentrados estaran los valores de X respecto
a su media. Al igual que ocurrıa con la media, la definicion anterior de la varianza esta ıntimamente ligada
a la definicion, ya vista, de varianza de una distribucion de frecuencias
lımN→∞
s2 = lımN→∞
∑ki=1(xi − x)2ni
N − 1= lım
N→∞
N
N − 1
k∑
i=1
(xi − x)2ni
N.
Teniendo en cuenta que cuando N tiende a ∞, N/(N − 1) tiende a 1, x tiende a µ, y ni/N tiende a la
probabilidad de xi
lımN→∞
s2 =k
∑
i=1
(xi − µ)2P (X = xi) = σ2.
Con el fin de obtener una medida de dispersion que tenga las mismas unidades que la variable aleatoria
se define la desviacion tıpica σ como la raız cuadrada positiva de la varianza
σ = +√
σ2 =
√∑
i
(xi − µ)2f(xi). (6.14)
Existe una expresion alternativa mas util en la practica para calcular la varianza
σ2 =∑
i
x2i f(xi) − µ2 = E(X2) − µ2. (6.15)
Para demostrar esta expresion desarrollamos el cuadrado en (6.13) y aplicamos la definicion de media
σ2 =∑
i
(xi − µ)2f(xi) =∑
i
(x2i + µ2 − 2xiµ)f(xi) =
=∑
i
x2i f(xi) + µ2
∑
i
f(xi) − 2µ∑
i
xif(xi) = E(X2) + µ2 − 2µµ = E(X2) − µ2.
De la misma manera se puede definir la varianza y desviacion tıpica de una variable aleatoria continua
X con funcion de densidad f(x)
Var(X) = σ2 = E(
(X − µ)2)
=
∫ ∞
−∞(x − µ)2f(x) dx, (6.16)
σ =
√∫ ∞
−∞(x − µ)2f(x) dx. (6.17)
Cuando X solo toma valores en un intervalo (a, b), la definicion de la varianza se reduce a
σ2 =
∫ b
a(x − µ)2f(x) dx.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 69
6.2.2. Varianza y desviacion tıpica
La media por sı sola no proporciona una adecuada descripcion de la distribucion de la variable aleatoria.
Ademas de conocer en que valor se centra esa distribucion es importante determinar la dispersion o variacion
de los valores de la variable aleatoria en torno a la media. Para ello se define la varianza, representada por
σ2 o Var(X), de una variable aleatoria discreta X como
Var(X) = σ2 = E(
(X − µ)2)
=∑
i
(xi − µ)2f(xi). (6.13)
Es decir, es la esperanza matematica de las desviaciones al cuadrado de los valores de la variable respecto a
su media. Es claro que cuanto mayor sea la varianza menos concentrados estaran los valores de X respecto
a su media. Al igual que ocurrıa con la media, la definicion anterior de la varianza esta ıntimamente ligada
a la definicion, ya vista, de varianza de una distribucion de frecuencias
lımN→∞
s2 = lımN→∞
∑ki=1(xi − x)2ni
N − 1= lım
N→∞
N
N − 1
k∑
i=1
(xi − x)2ni
N.
Teniendo en cuenta que cuando N tiende a ∞, N/(N − 1) tiende a 1, x tiende a µ, y ni/N tiende a la
probabilidad de xi
lımN→∞
s2 =k
∑
i=1
(xi − µ)2P (X = xi) = σ2.
Con el fin de obtener una medida de dispersion que tenga las mismas unidades que la variable aleatoria
se define la desviacion tıpica σ como la raız cuadrada positiva de la varianza
σ = +√
σ2 =
√∑
i
(xi − µ)2f(xi). (6.14)
Existe una expresion alternativa mas util en la practica para calcular la varianza
σ2 =∑
i
x2i f(xi) − µ2 = E(X2) − µ2. (6.15)
Para demostrar esta expresion desarrollamos el cuadrado en (6.13) y aplicamos la definicion de media
σ2 =∑
i
(xi − µ)2f(xi) =∑
i
(x2i + µ2 − 2xiµ)f(xi) =
=∑
i
x2i f(xi) + µ2
∑
i
f(xi) − 2µ∑
i
xif(xi) = E(X2) + µ2 − 2µµ = E(X2) − µ2.
De la misma manera se puede definir la varianza y desviacion tıpica de una variable aleatoria continua
X con funcion de densidad f(x)
Var(X) = σ2 = E(
(X − µ)2)
=
∫ ∞
−∞(x − µ)2f(x) dx, (6.16)
σ =
√∫ ∞
−∞(x − µ)2f(x) dx. (6.17)
Cuando X solo toma valores en un intervalo (a, b), la definicion de la varianza se reduce a
σ2 =
∫ b
a(x − µ)2f(x) dx.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
6.2 Medidas caracterısticas de una variable aleatoria 69
6.2.2. Varianza y desviacion tıpica
La media por sı sola no proporciona una adecuada descripcion de la distribucion de la variable aleatoria.
Ademas de conocer en que valor se centra esa distribucion es importante determinar la dispersion o variacion
de los valores de la variable aleatoria en torno a la media. Para ello se define la varianza, representada por
σ2 o Var(X), de una variable aleatoria discreta X como
Var(X) = σ2 = E(
(X − µ)2)
=∑
i
(xi − µ)2f(xi). (6.13)
Es decir, es la esperanza matematica de las desviaciones al cuadrado de los valores de la variable respecto a
su media. Es claro que cuanto mayor sea la varianza menos concentrados estaran los valores de X respecto
a su media. Al igual que ocurrıa con la media, la definicion anterior de la varianza esta ıntimamente ligada
a la definicion, ya vista, de varianza de una distribucion de frecuencias
lımN→∞
s2 = lımN→∞
∑ki=1(xi − x)2ni
N − 1= lım
N→∞
N
N − 1
k∑
i=1
(xi − x)2ni
N.
Teniendo en cuenta que cuando N tiende a ∞, N/(N − 1) tiende a 1, x tiende a µ, y ni/N tiende a la
probabilidad de xi
lımN→∞
s2 =k
∑
i=1
(xi − µ)2P (X = xi) = σ2.
Con el fin de obtener una medida de dispersion que tenga las mismas unidades que la variable aleatoria
se define la desviacion tıpica σ como la raız cuadrada positiva de la varianza
σ = +√
σ2 =
√∑
i
(xi − µ)2f(xi). (6.14)
Existe una expresion alternativa mas util en la practica para calcular la varianza
σ2 =∑
i
x2i f(xi) − µ2 = E(X2) − µ2. (6.15)
Para demostrar esta expresion desarrollamos el cuadrado en (6.13) y aplicamos la definicion de media
σ2 =∑
i
(xi − µ)2f(xi) =∑
i
(x2i + µ2 − 2xiµ)f(xi) =
=∑
i
x2i f(xi) + µ2
∑
i
f(xi) − 2µ∑
i
xif(xi) = E(X2) + µ2 − 2µµ = E(X2) − µ2.
De la misma manera se puede definir la varianza y desviacion tıpica de una variable aleatoria continua
X con funcion de densidad f(x)
Var(X) = σ2 = E(
(X − µ)2)
=
∫ ∞
−∞(x − µ)2f(x) dx, (6.16)
σ =
√∫ ∞
−∞(x − µ)2f(x) dx. (6.17)
Cuando X solo toma valores en un intervalo (a, b), la definicion de la varianza se reduce a
σ2 =
∫ b
a(x − µ)2f(x) dx.
Estadıstica Basica para Estudiantes de Ciencias Febrero 2009
Dispersión:
Parámetros que caracterizan una variable aleatoria. Operador Esperanza
3.3 Functions of a Single Random Variable 17
and in particular ∫ ∞
−∞f (x)dx = 1 . (3.2.8)
A trivial example of a continuous distribution is given by the angularposition of the hand of a watch read at random intervals. We obtain a constantprobability density (Fig. 3.2).
360°
360°
x
x
0
1
0
F(x)
f(x)
0
3601
0
Fig.3.2: Distribution function and probabil-ity density for the angular position of a watchhand.
3.3 Functions of a Single Random Variable,Expectation Value, Variance, Moments
In addition to the distribution of a random variable x, we are often interestedin the distribution of a function of x. Such a function of a random variable isalso a random variable:
y = H(x) . (3.3.1)
The variable y then possesses a distribution function and probability densityin the same way as x.
In the two simple examples of the last section we were able to give the dis-tribution function immediately because of the symmetric nature of the prob-lems. Usually this is not possible. Instead, we have to obtain it from exper-iment. Often we are limited to determining a few characteristic parametersinstead of the complete distribution.
The mean or expectation value of a random variable is the sum of allpossible values xi of x multiplied by their corresponding probabilities
E(x) = x =n∑
i=1
xiP (x = xi) . (3.3.2)
Variable aleatoria x 18 3 Random Variables: Distributions
Note that x is not a random variable but rather has a fixed value. Correspond-ingly the expectation value of a function (3.3.1) is defined to be
E{H(x)} =n∑
i=1
H(xi)P (x = xi) . (3.3.3)
In the case of a continuous random variable (with a differentiable distributionfunction), we define by analogy
E(x) = x =∫ ∞
−∞xf (x)dx (3.3.4)
and
E{H(x)} =∫ ∞
−∞H(x)f (x)dx . (3.3.5)
If we choose in particular
H(x) = (x− c)! , (3.3.6)
we obtain the expectation values
α! = E{(x− c)!} , (3.3.7)
which are called the !−th moments of the variable about the point c. Of specialinterest are the moments about the mean,
µ! = E{(x− x)!} . (3.3.8)
The lowest moments are obviously
µ0 = 1 , µ1 = 0 . (3.3.9)
The quantityµ2 = σ 2(x) = var(x) = E{(x− x)2} (3.3.10)
is the lowest moment containing information about the average deviation ofthe variable x from its mean. It is called the variance of x.
We will now try to visualize the practical meaning of the expectationvalue and variance of a random variable x. Let us consider the measure-ment of some quantity, for example, the length x0 of a small crystal usinga microscope. Because of the influence of different factors, such as the im-perfections of the different components of the microscope and observationalerrors, repetitions of the measurement will yield slightly different results forx. The individual measurements will, however, tend to group themselves inthe neighborhood of the true value of the length to be measured, i.e., it will
Operador esperanza:
18 3 Random Variables: Distributions
Note that x is not a random variable but rather has a fixed value. Correspond-ingly the expectation value of a function (3.3.1) is defined to be
E{H(x)} =n∑
i=1
H(xi)P (x = xi) . (3.3.3)
In the case of a continuous random variable (with a differentiable distributionfunction), we define by analogy
E(x) = x =∫ ∞
−∞xf (x)dx (3.3.4)
and
E{H(x)} =∫ ∞
−∞H(x)f (x)dx . (3.3.5)
If we choose in particular
H(x) = (x− c)! , (3.3.6)
we obtain the expectation values
α! = E{(x− c)!} , (3.3.7)
which are called the !−th moments of the variable about the point c. Of specialinterest are the moments about the mean,
µ! = E{(x− x)!} . (3.3.8)
The lowest moments are obviously
µ0 = 1 , µ1 = 0 . (3.3.9)
The quantityµ2 = σ 2(x) = var(x) = E{(x− x)2} (3.3.10)
is the lowest moment containing information about the average deviation ofthe variable x from its mean. It is called the variance of x.
We will now try to visualize the practical meaning of the expectationvalue and variance of a random variable x. Let us consider the measure-ment of some quantity, for example, the length x0 of a small crystal usinga microscope. Because of the influence of different factors, such as the im-perfections of the different components of the microscope and observationalerrors, repetitions of the measurement will yield slightly different results forx. The individual measurements will, however, tend to group themselves inthe neighborhood of the true value of the length to be measured, i.e., it will
Dado un
18 3 Random Variables: Distributions
Note that x is not a random variable but rather has a fixed value. Correspond-ingly the expectation value of a function (3.3.1) is defined to be
E{H(x)} =n∑
i=1
H(xi)P (x = xi) . (3.3.3)
In the case of a continuous random variable (with a differentiable distributionfunction), we define by analogy
E(x) = x =∫ ∞
−∞xf (x)dx (3.3.4)
and
E{H(x)} =∫ ∞
−∞H(x)f (x)dx . (3.3.5)
If we choose in particular
H(x) = (x− c)! , (3.3.6)
we obtain the expectation values
α! = E{(x− c)!} , (3.3.7)
which are called the !−th moments of the variable about the point c. Of specialinterest are the moments about the mean,
µ! = E{(x− x)!} . (3.3.8)
The lowest moments are obviously
µ0 = 1 , µ1 = 0 . (3.3.9)
The quantityµ2 = σ 2(x) = var(x) = E{(x− x)2} (3.3.10)
is the lowest moment containing information about the average deviation ofthe variable x from its mean. It is called the variance of x.
We will now try to visualize the practical meaning of the expectationvalue and variance of a random variable x. Let us consider the measure-ment of some quantity, for example, the length x0 of a small crystal usinga microscope. Because of the influence of different factors, such as the im-perfections of the different components of the microscope and observationalerrors, repetitions of the measurement will yield slightly different results forx. The individual measurements will, however, tend to group themselves inthe neighborhood of the true value of the length to be measured, i.e., it will
El valor esperado de
18 3 Random Variables: Distributions
Note that x is not a random variable but rather has a fixed value. Correspond-ingly the expectation value of a function (3.3.1) is defined to be
E{H(x)} =n∑
i=1
H(xi)P (x = xi) . (3.3.3)
In the case of a continuous random variable (with a differentiable distributionfunction), we define by analogy
E(x) = x =∫ ∞
−∞xf (x)dx (3.3.4)
and
E{H(x)} =∫ ∞
−∞H(x)f (x)dx . (3.3.5)
If we choose in particular
H(x) = (x− c)! , (3.3.6)
we obtain the expectation values
α! = E{(x− c)!} , (3.3.7)
which are called the !−th moments of the variable about the point c. Of specialinterest are the moments about the mean,
µ! = E{(x− x)!} . (3.3.8)
The lowest moments are obviously
µ0 = 1 , µ1 = 0 . (3.3.9)
The quantityµ2 = σ 2(x) = var(x) = E{(x− x)2} (3.3.10)
is the lowest moment containing information about the average deviation ofthe variable x from its mean. It is called the variance of x.
We will now try to visualize the practical meaning of the expectationvalue and variance of a random variable x. Let us consider the measure-ment of some quantity, for example, the length x0 of a small crystal usinga microscope. Because of the influence of different factors, such as the im-perfections of the different components of the microscope and observationalerrors, repetitions of the measurement will yield slightly different results forx. The individual measurements will, however, tend to group themselves inthe neighborhood of the true value of the length to be measured, i.e., it will
Se llama momento de orden l de una variable con respecto a c