Toda la documentación que encontrarás en Oposinet la puedes tener en tu ordenador en formato word. De esta forma podrás modificarla y trabajar con ella con más comodidad.


Ponte en contacto con nosotros a la dirección y te la enviaremos. A cambio te pedimos que compartas tu información, enviándonos documentos interesantes para la preparación de estas oposiciones: temas, programaciones didácticas, exámenes... Es imprescindible que estos documentos no posean derechos de autor, que no existan ya en la web y que sean realmente interesantes para la preparación de las oposiciones.


Otra opción para conseguir los documentos en formato word es realizar un pago de 19,5 euros, con la cual mantendremos esta web y compraremos nuevos materiales para ponerlos al alcance del resto de la comunidad. Importante: con el pago te proporcionaremos TODOS los documentos que hayamos publicado de una de las especialidades de oposiciones. Los documentos publicados en formato pdf no te los proporcionamos en formato Word sino en pdf.




Tema 65 – Distribuciones de probabilidad de variables discreta. Características y tratamiento. Las distribuciones binomial y de Poisson. Aplicaciones.

1. Introducción.

2. Funciones de Cuantía.

3. Distribuciones Multivariantes.

4. Distribución de Bernouilli.

5. Distribución Binomial.

6. Distribución de Poisson.

7. Ajuste de una Distribución Binomial a una Poisson.

8. Otras Distribuciones Discretas.

8.1. Distribución Multinomial.

8.2. Distribución Hipergeométrica.

8.3. Distribución Hipergeométrica Multivariante.

8.4. Distribución Geométrica o de Pascal.

8.5. Distribución Binomial Negativa. Bibliografía Recomendada.

1. INTRODUCCIÓN.

DEF Diremos que X es una variable aleatoria discreta unidimensional si es una variable aleatoria que toma sólo un número finito o infinito numerable de valores del eje x.

Supongamos que X toma únicamente los valores x1, x2, …, xn, … con probabilidades f(x1), f(x2), …, f( xn), … e imaginemos que A es cualquier subconjunto de los puntos x1, x2, …, xn, … La probabilidad P(A) del suceso A (probabilidad de que x esté en A) se define como

P( A) = å f (x)

xÎA

donde el sumatorio representa la suma de f(x) para aquellos valores xi que pertenecen a A.

Así, por ejemplo, P(X=4) indica la probabilidad de que el valor de la variable sea 4, y P(1<X<3) indica la probabilidad de que el valor de la variable aleatoria esté comprendido entre 1 y 3.

Dada una situación experimental, f(x) la tomaremos de tal manera que se ajuste al problema particular que estemos considerando.

DEF Llamaremos a f(x) Función de Densidad de una variable Discreta, si satisface las dos condiciones siguientes:

· f(xi)³0 “i

· å f (xi ) = 1

La función de Densidad también se conoce como Función de Cuantía.

Ejemplo. Sea un experimento aleatorio consistente en lanzar cuatro monedas simétricas y registrar el número de caras. Los valores que toma una variable aleatoria X serán 0, 1, 2, 3 y 4. Para calcular la función de densidad f(x), probabilidad de que aparezcan x caras, observamos que el número de formas en que pueden caer las cuatro

æ 4ö

monedas es 24. El número de formas en que pueden aparecer x caras es ç

÷ ; por tanto,

è xø

æ 4ö

ç ÷

Como

f (x) = è x ø

clip_image00224

x = 0,1,2,3,4

f(x)³0 0£x£4

4 1 4

æ 4ö

clip_image003å f ( x) = åç

÷ =1

x= 0

24 x =0 è x ø

Entonces, f(x) es una función de densidad.

Es importante destacar que f(x) da las frecuencias relativas o frecuencias con que se presenta cada uno de los valores de X.

2. FUNCIONES DE CUANTÍA.

El conjunto de resultados posibles de un suceso aleatorio se divide en un cierto número de clases mutuamente excluyentes en relación con determinado atributo. A cada clase se le asocia un valor de la variable aleatoria, o variante X. La función de cuantía es una función que da la probabilidad de que ocurra un valor determinado de x.

La variante X puede describir un atributo, como era el caso anterior del lanzamiento de 4 monedas, o puede ser simplemente el resultado de una codificación. Así, al extraer bolas de una urna, pueden clasificarse según su color, y podríamos definir una variable aleatoria X estableciendo arbitrariamente una correspondencia entre los valores de X y los colores.

La función de cuantía puede ser una expresión matemática, como en el apartado anterior, o bien reducirse a una tabla de valores.

A menudo resulta necesario calcular la probabilidad cuando la variable aleatoria se encuentra en un determinado rango de valores, como por ejemplo, P(X<3) o P(1<X<5). En estos casos, y también en otras situaciones, es conveniente definir una nueva función.

DEF Llamaremos Función de Distribución Acumulativa a F(x), que se define como F(x)=P(X£x). Es decir

F( x) = å f (xi )

xi £ x

PROP P(a<x£b) = F(b) – F(a)

Dem.

Inmediata a partir de la definición.

3. DISTRIBUCIONES MULTIVARIANTES.

Si el resultado de un suceso aleatorio lo podemos clasificar de más de una manera, la función de cuantía es una función de más de una variable. Así, al extraer una carta de una baraja francesa, podríamos caracterizarla según su palo y su numeración. Tendríamos la variable aleatoria X que toma los valores 1, 2, 3 y 4 (representando cada uno a un palo de la baraja) y la variable aleatoria Y que toma los valores del 1 al 13.

La variable aleatoria (X,Y) es bidimensional y la probabilidad de extraer una carta se representa por f(X,Y). Si cada carta tiene la misma probabilidad de ser extraida, la función de cuantía será

clip_image004f ( X ,Y ) = 1

52

1 £ X £ 4

1 £ Y £13

Este tipo de funciones pueden representarse sobre un plano. Las probabilidades vienen representadas por segmentos verticales en los puntos (x,y) del plano horizontal en el cual están definidas. En el ejemplo, los segmentos serán de igual altura.

En general, la variable aleatoria k-dimensional (x1, x2, …, xn) se denomina función de cuantía de la variable aleatoria k-dimensional. Sea A un subconjunto del conjunto de valores de la variable aleatoria, entonces

P((x1 , x2 , , xk ) Î A) = å f ( x1 , x2 , , xk )

A

donde el sumatorio supone la suma que toma la función de cuantía para los valores de la variable que pertenecen al conjunto A.

DEF Sea

xi1

, xi2

, , xi

cualquier subconjunto de las variables aleatorias discretas x1,

t

1

x2, …, xn. La distribución marginal de la variable aleatoria t-dimensional ( xi

es

, xi2

, , xi )

t

f i ,i ,…, i ( xi , xi ,…, xi ) = å f ( x1 , x2 ,…, xn )

1 2 t 1 t t

donde la suma se extiende a todos los valores, a excepción de

xi1

, xi2

, , xi .

t

DEF Sean

xi1

, xi2

, , xi

y x j1 , x

j , , x j

dos subconjuntos disjuntos de las variables

t

t

2

s

j

s

aleatorias discretas x1, x2, …, xn. La distribución condicional de la variable aleatoria

i

t-dimensional ( x

1

, xi2

, , xi

) dado el valor ( x

1 , x j2

, , x j

) es

f i ,i ,…, i , j , j ,…, j ( xi , xi

, , xi , x j , x j , , x j )

g( x , x

, , x

| x , x

, , x

) = 1 2 t 1 2 s 1 2 t 1 2 s

i1 i2

it j1 j2 js

f j1 , j2 ,…, js

( x j1

, x j2

, , x j )

s

para todos los valores de x para los cuales no se anula el denominador.

DEF Las variables aleatorias discretas x1, x2, …, xk son Independientes si

f (x1 , x2 ,…, xk ) = f ( x1 )· f ( x2 )·…· f (xk )

para todos los valores en que está definida la variable aleatoria.

Ejemplo Supongamos que extraemos 12 cartas sin reemplazamiento de una baraja francesa. Sea X1 el número de ases, X2 el número de doses, X3 el número de treses y X4 el número de cuatros. La distribución de estas variables viene expresada por una función de cuatro variables, que es:

æ 4 ö

æ 4 ö

æ 4 ö

æ 4 ö æ

36 ö

ç ÷ × ç

÷ × ç

÷ × ç

÷ × ç ÷

f (x , x

, x , x

) = è x1 ø

è x2 ø

è x3 ø

è x4 ø

è12 – x1 – x2 – x3 – x4 ø

clip_image0051 2 3 4

æ 52ö

ç ÷

è12 ø

siendo el recorrido de cada una de las variables aleatorias de 1£Xi£4 y verificando la restricción de

å X i £ 12

Existe una gran cantidad de distribuciones marginales y condicionales asociadas con esta distribución. Veamos dos ejemplos de distribuciones marginales y otro de distribución condicional.

æ 4 ö

æ 4 ö æ

44 ö

ç ÷ × ç ÷ × ç ÷

f ( x , x

) = è x2 ø

è x3 ø

è12 – x2 – x3 ø

0 £ x £ 4

clip_image00623 3 4

i

æ 52ö

ç ÷

è12 ø

æ 4 ö æ

48 ö

ç ÷ × ç ÷

f 4 (x4

) = è x4 ø

è12 – x4 ø

clip_image007æ 52ö

0 £ x4 £ 4

ç ÷

è12 ø

æ 4 ö æ 4 ö æ 36 ö

ç ÷ × ç ÷ × ç ÷

f (x , x

| x , x

) = è x2 ø

è x4 ø

è12 – x1 – x2 – x3 – x4 ø

0 £ xi £ 4

clip_image0082 4 1 3

æ 44 ö

ç ÷

x2 + x4

£ 12 – x1


x3

è12 – x1 – x3 ø

4. DISTRIBUCIÓN DE BERNOUILLI.

Llamaremos Prueba de Bernouilli a toda realización de un experimento aleatorio en el que sólo sean posibles dos resultados mutuamente exclusivos (por ejemplo, éxito y fracaso). Por tanto, podemos definir un espacio muestral como

W = {0,1}

donde 0 representa “fracaso” y 1 representa “éxito”. Definamos una variable aleatoria X que pueda tomar sólo los valores anteriores, con probabilidades asociadas

P(éxito) = p P(fracaso) = q = 1 – p

Es claro que la función de distribución de probabilidades (también llamada de cuantía) de X es:

f(x) = P(X=x) = px(1–p)1-x para x=0,1

Esta distribución de probabilidades recibe el nombre de Distribución de Bernouilli.

La media y la varianza de una variable aleatoria que posee una distribución de probabilidades de Bernouilli son:

E(X) = 0·f(0) + 1·f(1) =00·q + 1·p = p

Var(X) = E(X2) – [E(X)]2 = 0·f(0) + 1·f(1) – p2 = p – p2 = p(1–p) = pq

5. DISTRIBUCIÓN BINOMIAL.

Supongamos n pruebas independientes entre sí de Bernouilli tales que la probabilidad de éxito, p, se mantiene constante a lo largo de todas ellas. Definimos la variable aleatoria X como el número de veces que sucedió el suceso éxito. Bajo estas condiciones podemos definir

DEF Diremos que X es una variable aleatoria Binomial de parámetros n y p si su función de probabilidad es

æ n ö

P( X = x) = ç

÷ p x q nx

con x = 0,1,…,n

è x ø

Veamos como se ha originado esta función de probabilidad. Supongamos que el resultado de la i-ésima prueba forma una variable aleatoria unidimensional que designaremos por Xi, siendo su valor Xi=0 si el resultado es un fracaso y Xi=1 si es un éxito. Sea f(x1,x2,…,xn) la probabilidad de que la variable aleatoria Xi=xi con i:1,2,…,n.

Puesto que las n variables aleatorias, todas ellas iguales, son independientes, podemos aplicar la definición de independencia para obtener

f (x1, x2,…, xn ) =

f (x1 )· f (x2 )· · f ( xn ) =

p x1

q1- x1

p x 2

q1- x2

· ·p xn

q1- xn =

på xi

qn xi

donde 0 y 1 son los valores que toman cada una de las variables xi.

Evidentemente, para cualquier ordenación de k éxitos y n–k fracasos, la probabilidad es

pkqn–k

puesto que el sumatorio será k al haber esa cantidad de 1’s. Si ahora tenemos en cuenta el número total de formas de ordenar k 1’s en n lugares, obtenemos el número combinatorio

æ n ö

ç ÷

è k ø

siendo entonces la probabilidad de k éxitos el número

æ n ö

ç ÷ p k q nk

è k ø

La función de distribución de variable aleatoria binomial presenta otras dos variables, p y n, de carácter distinto. Su variación corresponde a distribuciones binomiales diferentes, ya que para una distribución binomial dada, p y n tienen valores fijos. Las variables de este tipo reciben el nombre de parámetros de la distribución.

La función f( x;n,p) representa una familia de distribuciones con dos parámetros, obteniéndose un miembro de esta familia al especificar los valores de p y n.

DEF El parámetro n recibe el nombre de Parámetro Discreto. El parámetro p es el Parámetro Contínuo.

El nombre de n es debido a que sólo puede tomar valores naturales. En cambio, p puede tomar valores dentro del intervalo cerrado [0,1]

En general, la distribución binomial tendrá un valor máximo, el cual pasamos a determinar.

Sea m la parte entera del número (n+1)·p y sea e la parte fraccionaria. m = [(n+1)·p] y e = (n+1)·p – [(n+1)·p]

PROP El mayor valor de f(x) se obtiene al tomar x = m, recibiendo m el nombre de valor modal o, simplemente, moda de la variable aleatoria X. Si e=0, también se alcanza en x = m–1.

Dem.

Supongamos que el número e, definido anteriormente, es distinto de cero. Tomemos la razón

f ( x +1)

clip_image009

f (x)

Vamos a comprobar que esta razón es inferior a 1 cuando x es mayor o igual a m, y superior a 1 cuando x es inferior a m.

clip_image010clip_image011clip_image012f (x + 1) = p × n x

y si x ³ m tenemos

f ( x)

q x + 1

clip_image013clip_image014clip_image015clip_image016p × n x £ p × n m

q x + 1 q m + 1

Sustituyendo m por (n+1)p–e, el segundo miembro puede escribirse como

(n +1) – é1 – e ù

p clip_image017

q

ë û

n m ê ú

clip_image018clip_image019clip_image020× =

q m + 1

é1 – e ù

(n + 1) +

clip_image021

p

ê ú

ë û

que es menor que la unidad

Si x < m–1 tenemos

clip_image022clip_image023p × n x >

clip_image024clip_image025p × n – (m -1) >

clip_image024[1]clip_image026p × (n + 1)q + e >

clip_image027n +1 + e

clip_image028q

q

que es mayor que 1.

x + 1 q m

q (n + 1) p e

n +1 – e

clip_image029p

Ahora vamos a estudiar el caso que nos hemos dejado pendiente: x = m–1, para el cual se verifica:

clip_image030f ( x + 1) =

p × n m + 1 =

(n + 1) + e

clip_image031clip_image032q

clip_image015[1]clip_image033f ( x) q m

(n + 1) – e

clip_image029[1]p

que es también superior a 1 si e¹0. Si e=0, la razón es igual a la unidad, verificándose que f(x+1) = f(x), teniendo la distribución dos valores de x en los que alcanza el máximo, x =m y x = m–1.

PROP La Media y la Varianza de una variable aleatoria que posee una distribución de probabilidades Binomial es:

1) E(X) = np

2) Var(X) = npq Dem.

Para la demostración, vamos a considerar que la variable aleatoria X con distribución binomial se puede dividir en n variables aleatorias independientes, cada una de ellas asociada a una distribución de Bernouilli de probabilidad p. Es decir

X = X1 + X2 + … + Xn

donde las Xi son variables aleatorias independientes que siguen una distribución de Bernouilli, representando si sucede o no el suceso A en la prueba i-ésima, con i:1,2,…,n. Tomando esperanzas a ambos lados de la igualdad:

E(X) = E(X1 + X2 + … + Xn) = E(X1) + E(X2) + … + E(Xn) = p + p + … + p = np

y tomando varianzas

Var(X) = Var(X1 + X2 + … + Xn) = Var(X1) + Var(X2) + … + Var(Xn) =

= pq + pq + … + pq = npq

6. DISTRIBUCIÓN DE POISSON.

DEF Diremos que la variable aleatoria X se distribuye según una distribución de Poisson si la función de distribución es de la forma

clip_image034f (x) = e

x

x!

con x=0,1,2,3,…

siendo l cualquier número positivo.

Si tenemos en cuenta que la exponencial el tiene un desarrollo en serie de potencias

deducimos que

e = 1 + +

clip_image035

2

2!

¥

x

clip_image035[1]+ + +

x!

å f ( x) =1

x= 0

Esta distribución se suele aplicar en aquellas situaciones en que un gran número de objetos se encuentran distribuidos sobre un gran recinto de considerable extensión. Consideremos un ejemplo que concrete esta situación.

Supongamos un volumen V de un fluido que contiene un gran número N de pequeños organismos. Podemos suponer que estos organismos carecen de instintos sociales y que la probabilidad de que aparezcan en cualquier parte del fluido es la misma para un determinado volumen.

Examinemos una gota de volumen D al microscopio. ¿Cuál es la probabilidad de que se hallen x organismos en la gota?. Se supone que V es mucho mayor de D. Puesto que suponemos que los organismos están distribuidos con probabilidad uniforme por todo el fluido, se deduce que la probabilidad de encontrar uno cualquiera de ellos en D

clip_image036es D . Y al suponer que no tienen instintos sociales, la presencia de uno de ellos en D

V

no influye en la de cualquiera de los otros. Por tanto, la probabilidad de que haya x

organismos en D es

æ N ö

æ D ö

æ V D ö

N x

clip_image037clip_image038

x

ç ÷ × ç ÷ × ç ÷

è x ø

è V ø è V ø

Supongamos ahora también que los organismos son tan pequeños que podemos prescindir del espacio que ocupan; los N reunidos no ocuparían parte apreciable del volumen D. La función de Poisson es una aproximación de la expresión anterior, que es

simplemente una función binomial en la que

p = D

clip_image039V

es un valor muy pequeño.

La distribución de Poisson se obtiene haciendo que V y N tiendan a infinito, de tal

modo que la densidad de organismos

d = N

clip_image040V

permanezca constante. si escribimos de

nuevo el producto anterior de la siguiente forma

x

N(N 1)(N 2) (N x + 1) × æ ND ö

× æ – ND ö

N x

clip_image041xN x

ç ÷

è V ø

ç1 ÷ =

clip_image042è NV ø

æ öæ

ö æ – ö

N x

1 Dd

æ ö

ç1 –

1

clip_image043÷ç1 –

2 x

clip_image043[1]clip_image044÷ ç1 –

÷ × (Dd )x × ç1 – ÷

clip_image045= è N øè N ø N N ø

è ø è

x!

Podemos ver que el límite de la expresión anterior cuando N tiende a infinito es

eDd (Dd ) x

clip_image046

x!

y si sustituimos Dd por l obtenemos la función de distribución de Poisson.. Esto nos demuestra que l es el valor medio de x, ya que D, volumen de la porción examinada, multiplicado por la densidad d, da el promedio esperado en el volumen D.

Hemos visto este ejemplo con cierto detalle porque a menudo se aplica de forma equivocada a datos que no verifican todas las condiciones requeridas. Por ejemplo, no se puede aplicar en el estudio de distribuciones de larvas de insectos en una gran extensión de cultivo, porque los insectos depositan sus huevos en grupos, de modo que en caso de encontrar uno en una pequeña área dada, lo probable es que se encuentren también otros.

PROP La Media y la Varianza de una distribución de Poisson son iguales al parámetro

l.

Dem.

¥

E( X ) = å x

x e

¥

clip_image047= å x

xe

¥

clip_image048= å

x -1e

clip_image049

x = 0 x!

x =1 x!

x =1 ( x

1)!

Haciendo el cambio de y = x–1 y operando, obtenemos

¥ y

E( X ) = eå = ee =

y =1 y!

En cuanto a la varianza, nos vamos a apoyar en su obtención en el cálculo de la esperanza.

¥ x ¥

x

¥ x– 2 –

E[X ( X – 1)] = å x( x – 1) e = å x(x – 1) e = 2 å e

x= 0

x! x = 2

x! x= 2 (x – 2)!

© Carlos M. Abrisqueta Valcárcel, 2002 Temario Específico – Tema 65

Haciendo el cambio de variable y = x–2 y operando, obtenemos

¥ y

E[X ( X – 1)] = 2 å e = 2

y = 0 y!

con lo cual obtenemos el valor de la varianza

Var( X ) = E( X 2 ) – [E( X )]2 = E( X 2 ) – m2 = E[X ( X -1)] + m m2 = m =

7. AJUSTE DE UNA DISTRIBUCIÓN BINOMIAL A UNA POISSON.

La distribución de Poisson también se obtiene como límite de la binomial cuando el tamaño de muestra n crece, n®¥, y la probabilidad de éxito tiende a cero, p®0, de manera que el número medio de “éxitos”, np=l, permanezca constante. Las probabilidades binomiales las podemos expresar de la forma siguiente:

x

æ n ö

æ ö æ

nx

clip_image050clip_image029[2]

ö

P( X = x) = ç

÷ × ç

÷ × ç1 – ÷

Tomando límites:

è x ø

x nx

è n ø

è n ø

é ù

ê n ú

éæ n ö

æ ö æ

ö ù x

ê n(n -1) (n x + 1) æ

ö ú

clip_image051P( X = x) = êç ÷ × ç ÷

n ®¥ n®¥ x n

× ç1 – ÷

clip_image052n

ú = x! n®¥ ê

ç1 – ÷ =

clip_image053clip_image054clip_image052[1]x n ú

Lim

Lim

êëè ø è ø è

ø úû

Lim

ê

êë

æ ö x è ø

clip_image055

ç1 ÷ n ú

è n ø úû

é ù

x ê ú n x

ê n(n -1) (n x +1) ú

clip_image056ç1 ÷

= ×

× –

clip_image057clip_image058= Lim


· Limæ –

ö 1 e

x! n®¥ ê

ê

æ

ç1-

ö n x

ú n®¥ è n ø x!

ú

clip_image059

x

÷

ê è n ø úû

En consecuencia

P( X = x) ®

x e

clip_image034[1]para x = 0, 1, 2, …

x!

llegando así a la distribución de Poisson. La aproximación se puede considerar que es bastante buena cuando se verifican las siguientes condiciones:

1) n > 25

2) p < 0’1

3) np = l £ 5

Debido a esto, se conoce a la distribución de Poisson como Ley de los Sucesos Raros ya que se presenta en aquellos fenómenos en que estudiemos la ocurrencias de sucesos con probabilidades pequeñas.

8. OTRAS DISTRIBUCIONES DISCRETAS.

8.1. Distribución Multinomial.

Supongamos que un experimento aleatorio puede conducir a k resultados excluyentes y exhaustivos E1, E2, …, Ek, con probabilidades respectivas p1, p2, …, pk, entonces la distribución de probabilidad de las variables aleatorias X1, X2, …, Xk, que representan los números de ocurrencias para E1, E2, …, Ek, en n ensayos independientes es:

æ n ö

ç ÷ x1 x2 xk

n! x1 x2 xk

f (x1 , x2 , , xk ) = ç x , x

, , x

÷ p1

p2 pk

= p

clip_image060x ! x ! x ! 1

p2 pk

donde

è 1 2 k ø

k

1 2 k

k

å xi = n

i=1

0 £ p1 £ 1

å pi =1

i =1

Si la variable aleatoria X tiene distribución Multinomial, entonces sus Medias, Varianzas y Covarianzas están dadas por las siguientes expresiones:

1) E(Xi) = mi = npi

2

2) Var(Xi) = si = npi(1–pi)

3) Cov( Xi,Xj) = sij = –npipj con i¹j

8.2. Distribución Hipergeométrica.

clip_image061Supongamos que tenemos una población con N unidades estadísticas, de las cuales NA son de la clase A y el resto, N–NA, de la clase contraria A . Sea un experimento consistente en tomar, sin reemplazamiento, n unidades de población.

DEF Bajo las condiciones anteriores, llamamos variable aleatoria Hipergeométrica a X = “número de elementos de la clase A que hay en la muestra”

A la variable aleatoria así definida le corresponde una función de probabilidad dada

por

æ N A öæ N N A ö

ç ÷ç ÷

clip_image062P( X = x) = è

x øè

n x ø

æ N ö

ç ÷

Los parámetros de la distribución son

è n ø

N Tamaño de la población

NA Nº de unidades de la clase A

n Tamaño de la muestra sin reemplazamiento

PROP Si la variable aleatoria X tiene una distribución Hipergeométrica, entonces su media y su varianza están dadas por

nN

E( X ) = m = A = np

N

Var( X ) = a 2 =

N n N -1

np(1 – p)

clip_image063donde

N

p = A .

N

Dem.

ö

ç

æ N A ÷ × æ N

N A ö

ç x ÷ ç

÷

n x N

(N – )

æ N N ö

A

n è ø è ø n 1 ! A

E( X ) = å x

æ N ö

= A å

æ N ö x

(N x) ç

÷ =

n x

x = 0 ç ÷

ç ÷ x =1 (

1)! A !è ø

N A n

è n ø

= å

(N A -1)!

è n ø

æ N N A ö

å

N A n

æ N A -1öæ N N A ö

clip_image064clip_image065æ N ö ( x -1)!(N

x) ç

n x

÷ = ç

clip_image017[1]æ N ö

֍

x -1

÷

n x

ç ÷ x =1

A

ø ç ÷

x=1 è øè ø

è n ø è n ø

y haciendo el cambio de variable de y = x–1 convertimos la expresión anterior en

n-1 æ N

-1ö

æ N N ö

A

N A åç

÷ × ç A ÷

clip_image066E( X ) =

y =0 è

y ø è n y -1ø

æ N ö

ç ÷

è n ø

clip_image067æ N ö N æ N – 1ö

y teniendo en cuenta que

ç ÷ = ç

÷ podemos dejar la expresión anterior

como

è n ø

n è n – 1 ø

æ N

ç A

÷ × æ N N A ö

è

N n ç

ç ÷

÷

-1

y n y N

E( X )

= A nå ø è

1ø = A n = np

clip_image068N y =0

æ N -1ö N

ç ÷

n – 1

è ø

ya que el sumatorio es el de todas las probabilidades en el caso de una muestra de tamaño n–1, de un lote con N–1 objetos de los que NA–1 son de la clase A.

Para el cálculo de la varianza vamos a tener en cuenta lo siguiente:

Var( X ) = E( X 2 ) – [E( X )]2 = E( X 2 ) – m2 = E[X ( X -1)] + m m2

donde

y al operar obtenemos

E[X ( X – 1)] = N A (N A -1)n(n -1)

clip_image069N( N -1)

clip_image070Var( X ) = N n np(1 – p) N -1

La diferencia más importante entre esta distribución y la binomial es que en esta última las probabilidades permanecen constantes a lo largo de las pruebas (muestreo con reemplazamiento), mientras que en la hipergeométrica varían de prueba a prueba en función de los resultados de las pruebas anteriores (muestreo sin reemplazamiento).

Cuando se verifican las condiciones siguientes: 1) N®¥

N A

2) clip_image071= p = cte N

3) n = cte.

entonces podemos aproximar la distribución hipergeométrica por una binomial, ya que puede probarse que en esas condiciones se cumple que:

æ N A ö æ N N A ö

ç ÷ × ç ÷

è x ø è

n x ø

æ n ö x nx

p q

æ N ö

® ç ÷

clip_image072x

ç ÷ è ø

n

è ø

8.3. Distribución Hipergeométrica Multivariante.

Consideremos una población con N unidades estadísticas repartidas en k clases disjuntas y exhaustivas E1, E2, …, Ek con N1, N2, …, Nk unidades en cada clase respectivamente, y verificándose que N1+N2+ …+Nk=N. Si tomamos n unidades estadísticas sin reemplazamiento y contabilizamos cuántas unidades de cada clase nos aparecen, entonces esas k variables discretas constituyen una variable hipergeométrica multivariante.

Xi = Nº de elementos de la clase Ai que hay en la muestra

Estas variables Xi son linealmente dependientes, ya que su suma es evidentemente el tamaño n de la muestra. Su función de probabilidad viene dada por

æ N1 öæ N2 ö æ Nk ö

ç ÷ç

÷ ç ÷

P( X 1

= x1 , X 2

= x2 , , X k

= xk

) = è x1 øè x2 ø

clip_image073æ N ö

è xk ø

ç ÷

y sus medias y varianzas valen

è n ø

E( X i ) = mi = npi

clip_image074Var( X ) = a2 = N n np (1- p )

i i N -1 i i

clip_image034[2]Cov( X , X

) = a

= – N n np p

i ¹ j

donde

N

p = i .

i N

i j ij

N – 1 i j

Vemos que las covarianzas son negativas, al igual que sucedía con la distribución multinomial. De manera totalmente análoga a la expuesta en el punto anterior, podemos aproximar esta distribución por una binomial, bajo las siguientes condiciones:

1) N®¥

N

2) i = p

N i

= cte.

3) n = cte.

y la aproximación de la distribución hipergeométrica multivariante por una multinomial se debe al hecho de que en esas condiciones se verifica

æ N1 öæ N2 ö æ Nk ö

ç ÷ç

÷ ç ÷

clip_image075è x1 øè x2 ø

è xk ø ®

n! p x1 p x2

p xk

clip_image076æ N ö

x ! x ! x ! 1 2 k

ç ÷ 1 2 k

n

è ø

8.4. Distribución Geométrica o de Pascal.

clip_image077Supongamos que realizamos un experimento y estamos interesados en la ocurrencia o no de un determinado suceso A. Supongamos también, al igual que hacíamos en la distribución binomial, que realizamos repeticiones del experimento de forma que estas repeticiones son independientes, y que en cada una de las repeticiones las probabilidades de A, p, y de su complementario A , 1–p, permanecen constantes. En esta situación, repetimos el experimento hasta que ocurre A por primera vez. Podemos definir la variable aleatoria

X = número de repeticiones del experimento necesarias para que tenga lugar la primera ocurrencia de A

la cual, diremos, tiene una distribución Geométrica o de Pascal de parámetro p.

Tengamos en cuenta que aquí nos separamos de las hipótesis mantenidas para la distribución binomial. Allí el número de repeticiones era predeterminado, mientras que aquí es una variable aleatoria. Tenemos que X=k siempre que en las k–1 repeticiones anteriores no haya sucedido A. Entonces, la función de probabilidad es

f (x) = pqk -1

para k =1,2,3,

PROP Si la variable aleatoria X tiene una distribución geométrica, entonces su media y su varianza vienen determinadas por

Dem.

E( X ) = 1

clip_image050[1]p

Var( X ) = q

clip_image078p 2

å

æ ö

k

d ç q k ÷

æ ö

E( X ) = å kpqk -1 = på d (q ) = p è k ø = p d ç q ÷ = p = p = 1

k k dq

dq dq è1 – q ø

(1 – q)2

p 2 p

y de forma análoga, con la derivada segunda respecto de q podemos razonar para obtener la varianza a través de la esperanza de X(X–1)

clip_image079Var( X ) = E[X ( X – 1)] + E( X ) – E( X ) 2 = q

p 2

8.5. Distribución Binomial Negativa.

Esta distribución es una generalización de la anterior. Para obtenerla, y bajo las mismas condiciones que para la distribución geométrica, supongamos que un experimento se repite hasta que un suceso particular A se repite r veces. Sea la variable aleatoria

X = número de repeticiones necesarias para que A suceda exactamente r veces.

Esta distribución recibe el nombre de Distribución Binomial Negativa de Parámetros r y p.

Es evidente que para r=1 obtenemos la distribución geométrica de parámetro p. El suceso X=K ocurre si y sólo si el suceso A ocurre en la k-ésima repetición, verificándose que A ya sucedió r-1 veces en los k-1 experimentos anteriores. Por ello, la probabilidad de este suceso es

æ k – 1ö

P( X = k ) = ç

÷ p r qk r

para k = r, r+1, …

è r -1ø

PROP La media y la varianza de una distribución binomial negativa son

Dem.

E( X ) = r

clip_image050[2]p

Var( X ) = rq

clip_image080p 2

Para comprobarlo, definamos las siguientes variables aleatorias.

Z1 = Nº de repeticiones necesarias hasta la primera ocurrencia de A

Z2 = Nº de repeticiones necesarias desde la primera ocurrencia de A hasta incluir la segunda ocurrencia de A.

…….

Zr = Nº de repeticiones necesarias desde la ocurrencia r–1 de A hasta incluir la r- ésima ocurrencia de A.

Todas las Zi son variables aleatorias independientes, teniendo cada una de ellas una distribución geométrica de parámetro p. Además, la variable aleatoria X es suma de todas ellas. Por tanto

E( X ) = E(Z + Z

+ + Z

) = E(Z

) + E(Z

) + + E(Z

) = 1 + 1 + + 1 = r

1 2 r 1 2

r p p p p

de manera análoga, tomando varianzas

rq

clip_image078[1]Var( X ) = Var(Z1 + Z 2 + + Zr ) = Var(Z1 ) + Var(Z2 ) + + Var(Zr ) =

p2

BIBLIOGRAFÍA RECOMENDADA.

Estadística Teórica. Aut. J.M.Doblado y M.C. Nieto. Edit. UNED Introducción a la Estadística Teórica. Aut.: G Arnáiz. Edit.: Lex Nova Estadística Teórica y Aplicada. Aut.: A. Nortes. Edit.: S. Rodríguez.

Introducción a la Probabilidad y la Medida (I). Aut.: P Zoroa y N. Zoroa. Edit.: Maior DM.

Introducción a la Teoría de la Estadística. Aut.: Mood, Graybill. Edit.: Aguilar.