Tema 66 – Distribuciones de probabilidad de variable continua. Características y tratamiento. La distribución normal. Aplicaciones.

Tema 66 – Distribuciones de probabilidad de variable continua. Características y tratamiento. La distribución normal. Aplicaciones.

1. Variables Aleatorias Continuas.

2. Distribuciones Multivariantes.

3. Distribuciones Acumulativas.

4. Distribuciones Marginales.

5. Distribuciones Condicionales.

6. Distribución Uniforme.

7. Distribución Normal.

7.1. Aproximación de las Distribuciones Binomial y Poisson a la Normal.

8. Otras Distribuciones.

8.1. Distribución Gamma.

8.2. Distribución Exponencial.

8.3. Distribución Weibull.

8.4. Distribución c2 de Pearson

Bibliografía Recomendada.

1. VARIABLES ALEATORIAS CONTINUAS.

En el caso de variables discretas es posible asociar una probabilidad finita a cada punto (elemento) del conjunto muestral, aunque el número de puntos (elementos) que lo compongan sea infinito (numerable). La suma de todas las probabilidades será la unidad.

En el caso de una variable continua esto no es posible. Las probabilidades no sumarán uno, a menos que prácticamente a todos sus puntos (todos menos un conjunto numerable) les asignemos probabilidad cero. La solución a este problema que se plantea es considerar intervalos en lugar de puntos.

DEF Diremos que X es una Variable Aleatoria Continua (Unidimensional) si existe una función f(x) que verifica

1) f(x) ³ 0 “xÎIR

2) ò-¥ f (x)dx = 1

y tal que para cualquier suceso A

P( A) = P( X Î A) = ò f (x)dx

A

La función f(x) recibe el nombre de función de densidad.

A partir de ahora consideraremos que las variables aleatorias continuas tienen función de densidad también continua, salvo, a lo sumo, en un número finito de puntos.

Definamos A como A={x : a<x<b }. Entonces

b

P( A) = P(a < X < b) = ò f (x)dx = òa

A

f (x)dx

Veamos algunas propiedades que verifican las variables aleatorias continuas.

1) Debido a que la integral anterior tiene el mismo valor independientemente de si los puntos a y/o b pertenecen al intervalo, tenemos que se verifica

P(a<X<b) = P(a<X£b) = P(a£X<b) = P(a£X£b)

2) A partir de la definición de probabilidad que hemos dado para las variables aleatorias continuas, se verifica que la probabilidad en un punto es cero

a

P( X = a) = òa

f ( x)dx = 0

3) Si A no es un intervalo sino la unión disjunta de un número finito de intervalos A = A1ÈA2È…ÈAn con AiÇAj=Æ “i¹j y Ai={x : ai<x<bi}

se verifica que

P( A) = P( A1 È A2 È È An ) = ò f (x)dx = ò f (x)dx + ò f (x)dx + + ò f ( x)dx =

A A1 A2 An

ò

= b1 a1

b2

+ òa

f (x)dx

2

bn

+ + òa

f (x)dx

n

f (x)dx

Esta propiedad establece que la probabilidad de que el valor de una variable aleatoria pertenezca a un conjunto A es el área comprendida entre f(x) y el eje x sobre el conjunto. Así se justifica la segunda condición de las funciones de densidad, donde en el caso de que el suceso A sea toda la recta real su probabilidad (según el axioma P2) debe ser la unidad.

Cualquier función f puede servir como función de densidad de una variable aleatoria continua siempre que verifique las dos condiciones dadas en la definición anterior.

Es claro que en un problema particular, se elegirá como función de densidad aquella que, para todo a y b (a<b)

b

P(a < X < b) = òa

f (x)dx

represente la probabilidad de que el valor de la variable aleatoria X se halle comprendido entre a y b.

cualquier función positiva en un dominio elegido arbitrariamente puede considerarse como una función de densidad de una variable aleatoria, siempre que la función esté multiplicada por una constante que haga que su integral, en todo su dominio, sea 1. Así, por ejemplo

ì0

clip_image002

í

f (x) = ï2x + 3

x £ 2

2 < x < 4

es una función de densidad, ya que

ï 18

î0

x ³ 4

+¥ 2 4 2x + 3

ò f (x)dx = ò 0dx + ò dx + ò 0dx = 0 + 1 + 0 = 1

-¥ -¥

2 18 4

2. DISTRIBUCIONES MULTIVARIANTES.

DEF Diremos que X e Y son variables aleatorias continuas distribuidas conjuntamente si existe una función f tal que f( x,y)³0 “X,YÎIR y tal que para cualquier suceso A

P( A) = P(( X ,Y ) Î A) = ò f ( x, y)dxdy

A

Vemos que es necesario que

1) f(x,y)³0 “X,YÎIR

+¥ +¥

2) ò-¥ ò-¥ f ( x, y)dydx = 1

La función f recibe el nombre de Función de Densidad de las variables aleatorias X e Y.

En el caso de k variables aleatorias continuas, la definición de distribución conjunta es análoga.

Ejemplo.

Definamos la función de distribución siguiente

clip_image003ïì1 (6 – x y) f (x, y) = í8

0 < x < 2

2 < y < 4

ïî0

en otro

caso

Triviamente podemos comprobar que verifica las dos condiciones para ser función de densidad.

Si X e Y son dos variables aleatorias que tienen esta densidad, la probabilidad de que estén en la región X<1 y Y<3 sería:

1 3

P( X <1,Y < 3) = ò

1 3 6 x y 3

f ( x, y)dydx = ò ò dydx =

ò-¥ -¥

0 2 8 8

La probabilidad de que X+Y sea inferior a 3 es

1 3- x 6 x y 5

P( X + Y < 3) = ò ò dydx =

0 2 8 24

La probabilidad de que X<1 cuando se sabe que Y<3 es

clip_image004P( X <1| Y < 3) = P( X <1,Y < 3)

P(Y < 3)

el numerador ya lo conocemos, veamos el valor del denominador.

2 3 6 x y 5

P(Y < 3) = ò ò dydx =

Y entonces

0 2 8 8

3

clip_image005

8

P( X <1,Y < 3) 3

clip_image006clip_image007clip_image008P( X <1| Y < 3) = = =

clip_image009P(Y < 3) 5 5

8

3. DISTRIBUCIONES ACUMULATIVAS.

Puesto que en el caso de variables continuas las probabilidades vienen dadas por integrales, resulta a menudo conveniente considerar las integrales de las densidades con preferencia a las densidades mismas.

DEF Dada f(x) función de densidad de una variable aleatoria X, definimos la función F(x), llamada función de distribución Acumulativa, como

x

F( x) = P( X £ x) = ò-¥ f (t )dt

PROP Si F(x) es una función de distribución acumulativa, verifica las siguientes propiedades:

1) F es una función no decreciente. 2) F(–¥) = 0

3) F(+¥) = 1

4) F es continua.

Dem.

La demostración es inmediata.

La función de densidad, si existe, puede hallarse a partir de la función de distribución acumulativa derivando F en los puntos donde tiene derivada. Es decir,

clip_image010f (x) = dF( x)

dx

La probabilidad de que X esté en un cierto intervalo a<X£b puede expresarse del siguiente modo con la función de Distribución Acumulativa

P(a<X£b) = P(X£b) – P(X£a) = F(b) – F(a)

Para más de dos variables aleatorias, la función de distribución acumulativa se define de forma análoga al caso de una variable.

x y

F( x, y) = P(X £ x, Y £ y) = ò-¥ ò-¥ f (t1 , t2 )dt 2 dt1

siendo f( x,y) la función de densidad.

Dada la función de distribución acumulativa F(x,y), podemos hallar la función de densidad derivando F respecto de cada una de sus variables, en el supuesto, claro está, de que las derivadas existan.

clip_image011f (x, y) = ¶ ¶ F (x, y)

x y

La probabilidad de que (X,Y) esté en un rectángulo cualquiera

a1 < X < b1 a2 < Y < b2

podemos escribirla mediante la función acumulativa como

P(a1 < X < b1 , a2 < Y < b2 ) = P( X < b1 ,Y < b2 ) – P( X < a1 ,Y < b2 ) –

P( X < b1 , Y < a2 ) + P( X < a1 ,Y < a2 ) =

= F (b1 , b2 ) – F(a1 , b2 ) – F(b1 , a2 ) + F(a1 , a2 )

Estas distribuciones pueden complicarse mucho cuando se trata de más de dos variables aleatorias. De hecho, muchos problemas importantes de estadística permanecen sin resolver por la excesiva complicación de las integrales que hay que resolver.

4. DISTRIBUCIONES MARGINALES.

Cada distribución de más de una variable tiene asociadas varias distribuciones marginales. Sea f(x,y) la función de densidad correspondiente a dos variables aleatorias continuas. Puede ocurrir que sólo nos interese una de las variables, por ejemplo X. Buscaremos entonces una función que al integrarla sobre un intervalo a<X<b nos dé la probabilidad de que X esté situada en ese intervalo. Cada uno de esos intervalos corresponde en el plano XY a una franja vertical. Por tanto

b

P(a < X < b) = òa ò-¥ f ( x, y)dydx

Cualquiera que sea la especificación de X, los límites de integración de Y son toda la recta real, de modo que podemos definir una función como

DEF Llamamos Función de Densidad Marginal con respecto a X a

f1 (x) = ò- ¥ f ( x, y)dy

ya que, para cualquier par de valores a y b se verifica que

b

P(a < X < b) = òa

f1 ( x)dx

De forma análoga podemos definir

DEF Llamamos Función de Densidad Marginal con respecto a Y a

f 2 ( y) = ò- ¥ f ( x, y)dx

ya que, para cualquier par de valores a y b se verifica que

b

P(a < Y < b) = òa

f 2 ( y)dy

La función de distribución marginal acumulativa se encuentra fácilmente a partir de la función de distribución acumulativa. Para dos variables, esta función acumulativa marginal es

x x

F1 (x) = ò- ¥ ò- ¥ f ( x, y)dydx = ò- ¥ f 1 (x)dx = F (x,+¥)

Igualmente, de forma análoga obtenemos

y y

F2 ( y) = ò-¥ ò-¥ f (x, y)dxdy = ò-¥ f 2 ( y)dy = F (+¥, y)

5. DISTRIBUCIONES CONDICIONALES.

Sea una función de densidad de dos variables aleatorias X e Y, f(x,y). Buscamos una función f(x|y) que nos dé la densidad de X cuando conozcamos Y. Es decir, una función tal que

b

P(a < X < b | Y ) = òa

para valores cualesquiera a y b.

f ( x | y)dx

DEF Definimos la función de densidad condicional f( x|y) como

f (x | y) =

f ( x, y)

con

f ( y) > 0

clip_image012

f 2 ( y)

2

DEF Definimos la función de densidad condicional f( y|x) como

clip_image013f ( y | x) =

f (x, y) f1 ( x)

con

f1 ( x) > 0

La función de densidad f( x|y) es una función de densidad de la variable X, siendo Y un parámetro que tendrá un valor numérico determinado para cada función de densidad condicional dada. Por tanto, la función f2(c) debe considerarse como una constante. La función de densidad conjunta f(x,y) está representada por una superficie en el plano XY. Un plano perpendicular a XY, que corte a éste según la recta y=c, cortará a la superficie según la curva f(x,c). El área limitada por esta curva es

ò-¥ f (x, c)dx = f 2 (c)

Por tanto, si dividimos f(x,c) por f2(c), obtenemos una función de densidad que es precisamente f(x|c)

Las distribuciones condicionales se definen de manera análoga para las distribuciones con varias variables. Así, para cinco variables aleatorias que tengan como función de densidad f(x1, x2, x3, x4, x5), la función de densidad condicional de X1, X3, X5 para valores dados de X2 y X4 es

f (x , x

, x , x

, x )

f (x , x , x

| x , x

) = 1 2 3 4 5

1 3 5 2 4

f 24 (x2 ,

x4 )

6. DISTRIBUCIÓN UNIFORME.

Comenzaremos el estudio de las distribuciones continuas con la más elemental de todas ellas.

DEF Diremos que una variable aleatoria X es uniforme en el intervalo (a,b) cuando su función de densidad de probabilidades es constante en él. Es decir

ï 1

a < x < b

clip_image014f (x) = íb a

ïî0

en el

resto

Su función de distribución vendrá dada por

ì0

clip_image015

í

F( x) = ï x a

ï b a

î1

x £ a

a < x < b x ³ b

Los parámetros de la distribución son los extremos del intervalo a y b. Estos parámetros verifican las desigualdades

– ¥ < a < b < +¥

La media y la varianza de la distribución uniforme son

clip_image016m = a + b a 2 =

2

(b a) 2

clip_image017

12

7. DISTRIBUCIÓN NORMAL.

Pieza clave en el estudio de la Estadística la constituye la distribución normal. Muchas distribuciones de frecuencias tienen aspectos parecidos, aunque describen fenómenos muy diferentes: pesos y alturas de una gran población, errores de medida,

etc. Se apunta de esta manera el concepto de distribución normal. La dificultad de realizar un cálculo rápido de áreas bajo la curva normal, así como la imposibilidad de obtenerlas para todos los valores posibles de m y s, nos conduce a buscar transformaciones que obvien esta dificultad.

DEF Diremos que una variable aleatoria X que toma todos los valores reales tiene una distribución normal si su función de densidad de probabilidades es de la forma

f (x) =

1 -( x m )

clip_image018clip_image019

2

e 2a 2

– ¥ < x < +¥

Sus parámetros fundamentales son su media (m) que puede tomar cualquier valor real, y su varianza (s2) que debe ser positiva.

Examinando la primera y segunda derivada de la función de densidad, podemos realizar un estudio de la misma, destacando las siguientes propiedades, que no vamos a demostrar por su sencillez.

PROP La moda de la distribución (máximo de la función de densidad) se alcanza en x=m.

PROP La curva es simétrica respecto de un eje vertical que pasa por x= m.

PROP La curva tiene sus puntos de inflexión en x = m ± s.

PROP Los valores de la media, la moda y la mediana coinciden.

PROP El eje de abscisas (y=0) es la asíntota horizontal de la curva (por ambos lados).

PROP El área comprendida entre la curva y el eje horizontal es 1.

Vamos a obtener ahora los valores de la media y la varianza de esta distribución.

PROP La Media y la Varianza de la distribución normal son m y s2, respectivamente.

Dem.

E( X ) = ò-¥ xf (x)dx =

1 +¥

clip_image020ò- ¥ x·e

-( x m )

clip_image021

2

2a 2 dx

Haciendo el cambio de variable

z = x m

clip_image022a

dx = s dz

obtenemos

z 2 z2 z 2

clip_image023clip_image024clip_image025clip_image026clip_image027clip_image028E( X ) = 1 ò+¥(m+ az)e– 2 dz = m ò+¥ e – 2 dz + a ò+¥ ze– 2 dz = m

-¥ -¥ -¥

Analizando las dos integrales en las que ha quedado descompuesto la original, tenemos que la primera es m multiplicada por una integral cuyo valor es 1 y la segunda es una integral impar en un dominio simétrico, siendo su resultado 0.

La varianza de la distribución normal viene dada por

clip_image029E[( X m) 2 ]= 1 ò+¥( x m) 2 e

-( x m )

clip_image030

2

2a 2 dx

a

y haciendo de nuevo el cambio de variable

clip_image031z = x m

a

dx = s dz

obtenemos

2 z2

clip_image032clip_image026[1]

ò

E[( X m) 2 ]= a z 2e – 2 dz

Aplicando ahora la integración por partes con

u = z

z2

du = dz

z2

llegamos a

v = –e 2

dv = ze

2 dz

2 æ é

clip_image033z 2 ù

z 2 ö

clip_image034E[( X m) 2 ]= a

ç ê- ze – 2 ú

+¥ – ÷ 2 2

clip_image035

ò 2

+ e dz = a (0 + 1) = a

ç -¥ ÷

ë

è ê úû -¥ ø

La curva de una distribución de probabilidad continua o función de densidad de probabilidad, se traza de manera que bajo la curva limitada por las abscisas x=x1 y x=x2, es igual a la probabilidad de que la variable aleatoria X tome valores comprendidos entre x1 y x2. Así tenemos

P(x1

< X < x2 ) =

1 x 2

clip_image036

1

x e

-( x m )

clip_image037

2

2a 2 dx

La transformación

z = x m

clip_image038a

nos proporciona valores de una distribución normal

de media 0 y varianza 1, N(0,1). Veámoslo

P(x1 < X < x2 ) =

1 x 2

clip_image039ò

( x m ) 2

clip_image040

e 2a 2

dx = 1

z2 –

ò e

z2

clip_image0412 dz = P(z1 < Z < z2 )

clip_image042x1 z1

donde se observa que Z es una variable aleatoria normal de media 0 y varianza 1.

A la variable aleatoria que posee estas características se la denomina variable aleatoria normal estándar o tipificada y a su función de distribución, igualmente normal estándar.

Supongamos que X tiene una distribución N(0,1), entonces

P(a < X < b) = 1

b z

clip_image043

2

òa e dz

clip_image0442

Esta integral no puede evaluarse por métodos ordinarios. Por ello, debemos acudir a los métodos de integración numérica. La función de distribución de la normal estandarizada o tipificada es

F(s) = 1

s z

clip_image045

2

ò-¥ dz

clip_image046e 2

Esta función se encuentra recogida en tablas. Para el cálculo de la probabilidad de que la variable aleatoria X esté en el intervalo (a,b), teniendo X una distribución normal N(0,1), haremos uso de las tablas.

P(a < X < b) = F(b) – F(a)

La importancia de esta tabulación radica en que si X es una variable aleatoria con distribución normal cualquiera N(m,s2), la probabilidad anterior puede calcularse realizando la transformación

clip_image047z = x m

a

con lo cual tipificamos la variable aleatoria X y a continuación utilizamos la tabulación mencionada. Es decir

P(a < X < b) = Pæ a m < Z < b mö

æ b mö

æ a mö

clip_image048clip_image038[1]clip_image038[2]clip_image048[1]ç ÷ = Fç ÷ – Fç ÷

è a a ø

è a ø

è a ø

Una conc lusión de la definición de F es que

F(-x) = 1 – F(x)

Esta relación es muy útil, puesto que en la mayoría de las tablas la función F

aparece tabulada sólo para valores positivos de la variable.

Finalmente, vamos a calcular la probabilidad

P(m ka < X < m + ka)

siendo X una variable aleatoria con distribución normal cualquiera N(m,s2)

ç

P(m ka < X < m + ka) = Pæ- k <

è

X m

clip_image049

a

< k ö = F(k) – F(-k) = 2F(k) – 1

÷

ø

Expresión en la que podemos observar que la probabilidad anterior es independiente de m y s, y que ésta sólo depende de k.

7.1. Aproximación de las Distribuciones Binomial y Poisson a la Normal.

Las probabilidades asociadas a experimentos binomiales, cuando n es pequeña, se obtienen con facilidad mediante la fórmula B(x;n,p) (ya vista en el tema anterior). Para valores grandes de n, por lo general las probabilidades binomiales se calculan con procedimientos de aproximación. Si X es una variable aleatoria binomial de parámetros n y p, entonces, si n es grande y ni p ni q son próximos a cero, podemos considerar que X sigue una distribución normal N(np, npq). Esta propiedad la conocemos como

TEOREMA. Teorema de De Moivre.

Si X tiene una distribución binomial de parámetros n y p, entonces la variable aleatoria tipificada

clip_image050Z = X np

npq

tiende a una distribución normal estándar N(0,1) cuando n®¥.

OBS En general, podemos considerar como buena aproximación cuando n>25 y npq>5.

Debemos resaltar que estamos aproximando una distribución discreta por una continua, por tanto, resulta necesario establecer una corrección por continuidad. Se ha encontrado que la siguiente corrección para continuidad mejora la proximidad anterior.

ç

P( X = k ) º Pæ k

è

æ

1 £ X £ k + 1 ö

clip_image051clip_image052

÷

2 2 ø

1 1 ö

P(a < X < b) º Pç a +

è

£ X £ b – ÷

clip_image041[1]clip_image0532 2 ø

P(a < X £ b) º Pæ a + 1 £ X £ b + 1 ö

clip_image054clip_image045[1]ç ÷

è 2 2 ø

P(a £ X < b) º Pæ a – 1 £ X £ b – 1 ö

clip_image041[2]clip_image055ç

è

ç

P(a £ X £ b) º Pæ a

è

÷

2 2 ø

clip_image054[1]clip_image045[2]

÷

1 £ X £ b + 1 ö

2 2 ø

donde k, a y b son números enteros.

De la misma manera que se ha establecido una aproximación de la distribución binomial a la normal, podemos establecer una aproximación de la distribución de Poisson a la normal.

Sea X una variable aleatoria de Poisson P(l) con l grande, en la práctica l>25. En estas condiciones, la variable tipificada

clip_image056Z = X 1

tiene aproximadamente una distribución normal estándar N(0,1) y, por tanto, podemos considerar que X sigue aproximadamente una distribución N(l,l). Aquí también será conveniente tener en cuenta la corrección por continuidad similar a la efectuada para la distribución binomial.

8. OTRAS DISTRIBUCIONES.

Como la distribución Normal no resuelve todos los problemas, tenemos que recurrir a otras distribuciones para resolver determinados problemas en los campos de la ingeniería y de la ciencia, como son la distribución Gamma, Exponencial, Wiebull y c2.

8.1. Distribución Gamma.

DEF Definimos la función Gamma como

¥

G(a) = ò

xa -1e x dx

a > 0

0

Integrando por partes con

u = xa -1

dv = e x dx

se obtiene la fórmula de recurrencia

G(a) = (a – 1)·G(a – 1)

En particular, G(1)=1 y si a=n, siendo n un número positivo, la recurrencia anterior conduce a que

G(n) = (n – 1)!

Algunas expresiones útiles para la función gamma son

PROP La Función Gamma verifica

1) Fórmula de los complementos:

clip_image057æ 1 ö

G(a)G(1 – a) =

n

clip_image058

sen an

con 0<a<1

clip_image0592) Gç ÷ =

è 2 ø

DEF Diremos que la variable aleatoria X tiene una Distribución Gamma, con parámetros a y b, si su función de densidad viene dada por

clip_image060ì – x

ï xa -1e

clip_image061

ï

f (x;a, ) = í a G(a)

x > 0,a > 0, > 0

î0 en el

resto

donde a se conoce como parámetro de forma y b como parámetro de escala.

Cuando a es entero positivo, la distribución Gamma también se conoce con el nombre de Distribución de Erlang, en honor al científico danés que la utilizó por primera vez en el año 1900.

PROP La media y la varianza de la distribución gamma son

Dem.

E( X ) = a

Var( X ) = a 2

En efecto, el r-ésimo momento en torno al cero vale

clip_image062m‘ = G(a +1) = aG(a) = a

= E( X )

1 G(a)

clip_image063

G(a)

Y para la varianza tenemos

clip_image064m‘ = 2 G(a + 2) = 2 (a + 1)aG(a) = (a +1)a

2 G(a)

clip_image065

G(a)

2

1

Var( X ) = E( X 2 ) – [E( X )]2 = m

m‘2 = a(a +1) a = a 2

8.2. Distribución Exponencial.

Si particularizamos la distribución Gamma para a=1 obtenemos:

clip_image066ì – x

ïe

clip_image067f (x; ) = í

ï

x > 0, > 0

î0 en el

resto

que es la función de densidad de una variable aleatoria X con distribución exponencial.

Esta función exponencial se caracteriza por el parámetro b, que representa el lapso promedio de tiempo que transcurre entre dos sucesos independientes de Poisson. Es decir, la distribución exponencial puede modelar el tiempo transcurrido entre dos sucesos consecutivos de Poisson (llegadas o prestaciones de servicios).

Su función de distribución es

clip_image005[1]x

F( x; b) = P( X £ x) = 1 – e

PROP La media y la varianza de la función exponencial son

Dem.

E( X ) =

Var( X ) = 2

Basta tomar a=1 en la media y varianza de Gamma para obtener los resultados.

8.3. Distribución de Weibull.

La distribución de Weibull fue establecida por el físico suizo del que lleva su nombre y al igual que la distribución exponencial, su función fundamental es en el estudio de la fiabilidad.

DEF Diremos que una variable aleatoria X tiene una distribución de Weibull si su función de densidad de probabilidad es de la forma

ì

ïaxa -1e

a

æ x ö

÷

è ø

clip_image068f (x;a, ) = í

ï a

x > 0,a > 0, > 0

ïî0

en el

resto

La distribución de Weibull es una familia de distribuciones que dependen de dos parámetros, el de forma, a, y el de escala, b. Podemos introducir un parámetro adicional reemplazando la variable aleatoria de Weibull X, por X–a, donde a es un parámetro de localización, que representa un valor umbral de tiempo de garantía.

PROP La media y la varianza de la distribución Weibull son

æ 1 ö

é æ 2 ö

æ 1 öù

clip_image069clip_image070clip_image069[1]E( X ) = Gç1 + ÷

Var( X ) = 2 êGç1 +

÷ – G2 ç1 + ÷ú

Dem.

è aø

ë è aø

è a øû

El r-ésimo momento en torno al cero de una variable aleatoria que sigue una distribución de Weibull es

m ‘ = r Gæ + r ö

con lo cual

r ç1 ÷

clip_image071è aø

m ‘ = Gç1 + 1 ÷ = E( X )

y para la varianza tenemos

æ ö

clip_image072

1 è aø

2

2 æ ö é æ öù

Var( X ) = E( X 2 ) – [E( X )]

= m ‘-m‘2 = 2 Gç1 + 2 ÷ – ê Gç1 + 1 ÷ú =

è

2 1 a ø ë è

aøû

é æ 2 ö æ 1 öù

clip_image069[2]clip_image069[3]= 2 êGç1 + ÷ – G2 ç1 + ÷ú

ë è aø è a øû

8.4. clip_image073Distribución x 2 de Pearson.

Sean X1, X2, …, Xn n variables aleatorias N(0,1) independientes entre sí. La variable

1

Y = X 2


+ X 2

+ + X 2

recibe el nombre de c2

de Pearson con n grados de libertad y se

2

n

n

denota por X2 .

Por estar formada la variable aleatoria Y por suma de cuadrados resulta positiva, además su función de densidad de probabilidad es

clip_image074clip_image075ì n -1 – x

ï x 2 e 2

clip_image076f (x; n) = ï n

æ n ö

x > 0

clip_image077clip_image053[1]

2

í2 Gç ÷

ï

ï è 2 ø

î0

en el

resto

X

n

Una propiedad importante de la 2 es que la suma de varias de ellas que sean

independientes nos da como resultado otra cuyo número de grados de libertad es la suma de los grados de libertad de éstas.

X

n

PROP La media y la varianza de una distribución 2 es

E(X) = n Var(X) = 2n

Dem.

El r-ésimo momento en torno al cero es

n + 1÷

n ÷

æ

clip_image078

m ‘ = 2

ö

= 2n

æ ö

clip_image078[1]

2 ø = n = E( X )

è ø è

1 æ n ö

2 æ n ö

clip_image079clip_image080Gç ÷ Gç ÷

y para la varianza

è 2 ø

n + 2÷

è 2 ø

n ÷

æ ö æ ö

m

2

‘= 4

clip_image078[2]

è 2 ø =

æ n ö

æ n ö n

clip_image041[3]clip_image081

+

4ç 1÷

è 2 ø 2

clip_image078[3]

è 2 ø

æ n ö

= n2 + 2n

clip_image079[1]clip_image026[2]Gç ÷ Gç ÷

è 2 ø è 2 ø

Var( X ) = E( X 2 ) – [E( X )]2 = m ‘-m‘2 = n 2 + 2n n2 = 2n

2 1

Integrando por partes, desde 2l hasta +¥, la función de densidad de una distribución

c2 con n=2(r+1) grados de libertad, se obtiene la siguiente relación entre las probabilidades de una c2 con un número par de grados de libertad y las de una distribución de Poisson

P(X2

> 21) =


x

clip_image082x c e 2

dx =

c 1r e 1

clip_image083= P(R(1) £ c)

2( c+1)

∫21

clip_image084

2c +1 c!

å

r!

r = 0

donde se ha tenido en cuenta que para c entero es G(c+1)=c!. En ciertas ocasiones suele utilizarse esta relación para calcular probabilidades de Poisson

BIBLIOGRAFÍA RECOMENDADA.

Estadística Teórica. Aut. J.M.Doblado y M.C. Nieto. Edit. UNED Introducción a la Estadística Teórica. Aut.: G Arnáiz. Edit.: Lex Nova Estadística Teórica y Aplicada. Aut.: A. Nortes. Edit.: S. Rodríguez.

Introducción a la Probabilidad y la Medida (I). Aut.: P Zoroa y N. Zoroa. Edit.: Maior DM.

Introducción a la Teoría de la Estadística. Aut.: Mood, Graybill. Edit.: Aguilar.