jueves, 19 de julio de 2007

PRUEBA DE HIPOTESIS

Pruebas de Hipótesis

    1. Concepto
    2. Etapas básicas en pruebas de hipótesis.
    3. Pasos de la prueba de hipótesis
    4. Conceptos básicos para el procedimiento de pruebas de hipótesis.
    5. Utilidad de las hipótesis:
    6. Bibliografía

CONCEPTO

Afirmación acerca de los parámetros de la población.

Etapas Básicas en Pruebas de Hipótesis.

Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) en parámetro poblacional. Después de recolectar una muestra aleatoria, se compara la estadística muestral, así como la media (x), con el parámetro hipotético, se compara con una supuesta media poblacional (). Después se acepta o se rechaza el valor hipotético, según proceda. Se rechaza el valor hipotético sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.

Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor hipotético del parámetro que se compra con el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.

Etapa 2.- Especificar el nivel de significancia que se va a utilizar. El nivel de significancia del 5%, entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoria mente con una probabilidad de 1.05 o menos.

Etapa 3.- Elegir la estadística de prueba. La estadística de prueba puede ser la estadística muestral (el estimador no segado del parámetro que se prueba) o una versión transformada de esa estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se toma la media de una muestra aleatoria de esa distribución normal, entonces es común que se transforme la media en un valor z el cual, a su vez, sirve como estadística de prueba.

Consecuencias de las Decisiones en Pruebas de Hipótesis.

Decisiones Posibles

Situaciones Posibles

La hipótesis nula es verdadera

La hipótesis nula es falsa

Aceptar la Hipótesis Nula

Se acepta correctamente

Error tipo II

Rechazar la Hipótesis Nula

Error tipo I

Se rechaza correctamente

Etapa 4.- Establecer el valor o valores críticos de la estadística de prueba. Habiendo especificado la hipótesis nula, el nivel de significancia y la estadística de prueba que se van a utilizar, se produce a establecer el o los valores críticos de estadística de prueba. Puede haber uno o más de esos valores, dependiendo de si se va a realizar una prueba de uno o dos extremos.

Etapa 5.- Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor hipotético de la media poblacional, se toma una muestra aleatoria y se determina el valor de la media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la media muestral en un valor de z.

Etapa 6.- Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor (o valores) críticos de la estadística de prueba. Después se acepta o se rechaza la hipótesis nula. Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar de desempeño o cuál de dos estrategias de mercadotecnia utilizar.

La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente.

Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de rechazo.

PASOS DE LA PRUEBA DE HIPÓTESIS

  1. Expresar la hipótesis nula
  2. Expresar la hipótesis alternativa
  3. Especificar el nivel de significancía
  4. Determinar el tamaño de la muestra
  5. Establecer los valores críticos que establecen las regiones de rechazo de las de no rechazo.
  6. Determinar la prueba estadística.
  7. Coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada.
  8. Determinar si la prueba estadística ha sido en la zona de rechazo a una de no rechazo.
  9. Determinar la decisión estadística.
  10. Expresar la decisión estadística en términos del problema.

CONCEPTOS BÁSICOS PARA EL PROCEDIMIENTO DE PRUEBAS DE HIPÓTESIS.

Hipótesis Estadística:

Al intentar alcanzar una decisión, es útil hacer hipótesis (o conjeturas) sobre la población aplicada.

Tales hipótesis, que pueden ser o no ciertas, se llaman hipótesis estadísticas.

Son, en general, enunciados acerca de las distribuciones de probabilidad de las poblaciones.

Hipótesis Nula.

En muchos casos formulamos una hipótesis estadística con el único propósito de rechazarla o invalidarla. Así, si queremos decidir si una moneda está trucada, formulamos la hipótesis de que la moneda es buena (o sea p = 0,5, donde p es la probabilidad de cara).

Analógicamente, si deseamos decidir si un procedimiento es mejor que otro, formulamos la hipótesis de que no hay diferencia entre ellos (o sea. Que cualquier diferencia observada se debe simplemente a fluctuaciones en el muestreo de la misma población). Tales hipótesis se suelen llamar hipótesis nula y se denotan por Ho.

Para todo tipo de investigación en la que tenemos dos o más grupos, se establecerá una hipótesis nula.

La hipótesis nula es aquella que nos dice que no existen diferencias significativas entre los grupos.

Por ejemplo, supongamos que un investigador cree que si un grupo de jóvenes se somete a un entrenamiento intensivo de natación, éstos serán mejores nadadores que aquellos que no recibieron entrenamiento. Para demostrar su hipótesis toma al azar una muestra de jóvenes, y también al azar los distribuye en dos grupos: uno que llamaremos experimental, el cual recibirá entrenamiento, y otro que no recibirá entrenamiento alguno, al que llamaremos control. La hipótesis nula señalará que no hay diferencia en el desempeño de la natación entre el grupo de jóvenes que recibió el entrenamiento y el que no lo recibió.

Una hipótesis nula es importante por varias razones:

Es una hipótesis que se acepta o se rechaza según el resultado de la investigación.

El hecho de contar con una hipótesis nula ayuda a determinar si existe una diferencia entre los grupos, si esta diferencia es significativa, y si no se debió al azar.

No toda investigación precisa de formular hipótesis nula. Recordemos que la hipótesis nula es aquella por la cual indicamos que la información a obtener es contraria a la hipótesis de trabajo.

Al formular esta hipótesis, se pretende negar la variable independiente. Es decir, se enuncia que la causa determinada como origen del problema fluctúa, por tanto, debe rechazarse como tal.

Otro ejemplo:

Hipótesis: el aprendizaje de los niños se relaciona directamente con su edad.

Hipótesis Alternativa.

Toda hipótesis que difiere de una dada se llamará una hipótesis alternativa. Por ejemplo: Si una hipótesis es p = 0,5, hipótesis alternativa podrían ser p = 0,7, p " 0,5 ó p > 0,5.

Una hipótesis alternativa a la hipótesis nula se denotará por H1.

  • Al responder a un problema, es muy conveniente proponer otras hipótesis en que aparezcan variables independientes distintas de las primeras que formulamos. Por tanto, para no perder tiempo en búsquedas inútiles, es necesario hallar diferentes hipótesis alternativas como respuesta a un mismo problema y elegir entre ellas cuáles y en qué orden vamos a tratar su comprobación.

Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté realizando. En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser simplemente el de obtener los mínimos conocimientos que permitan formular una hipótesis. También es aceptable que, en este caso, resulten poco precisas, como cuando afirmamos que "existe algún tipo de problema social en tal grupo", o que los planetas poseen algún tipo de atmósfera, sin especificar de qué elementos está compuesto.

Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los X poseen, en alguna medida, las característica Y". Por ejemplo, podemos decir que todas las naciones poseen algún comercio internacional, y dedicarnos a describir, cuantificando, las relaciones comerciales entre ellas. También podemos hacer afirmaciones del tipo "X pertenece al tipo Y", como cuando decimos que una tecnología es capital - intensiva. En estos casos, describimos, clasificándolo, el objeto de nuestro interés, incluyéndolo en un tipo ideal complejo de orden superior.

Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde estaremos en presencia de una relación entre variables.

Errores de tipo I y de tipo II.

Si rechazamos una hipótesis cuando debiera ser aceptada, diremos que se ha cometido un error de tipo I.

Por otra parte, si aceptamos una hipótesis que debiera ser rechazada, diremos que se cometió un error de tipo II.

En ambos casos, se ha producido un juicio erróneo.

Para que las reglas de decisión (o no contraste de hipótesis) sean buenos, deben diseñarse de modo que minimicen los errores de la decisión; y no es una cuestión sencilla, porque para cualquier tamaño de la muestra, un intento de disminuir un tipo de error suele ir acompañado de un crecimiento del otro tipo. En la práctica, un tipo de error puede ser más grave que el otro, y debe alcanzarse un compromiso que disminuya el error más grave.

La única forma de disminuir ambos a la vez es aumentar el tamaño de la muestra que no siempre es posible.

Niveles de Significación.

Al contrastar una cierta hipótesis, la máxima probabilidad con la que estamos dispuesto a correr el riesgo de cometerán error de tipo I, se llama nivel de significación.

Esta probabilidad, denota a menudo por se, suele especificar antes de tomar la muestra, de manera que los resultados obtenidos no influyan en nuestra elección.

En la práctica, es frecuente un nivel de significación de 0,05 ó 0,01, si bien se une otros valores. Si por ejemplo se escoge el nivel de significación 0,05 (ó 5%) al diseñar una regla de decisión, entonces hay unas cinco (05) oportunidades entre 100 de rechazar la hipótesis cuando debiera haberse aceptado; Es decir, tenemos un 95% de confianza de que hemos adoptado la decisión correcta. En tal caso decimos que la hipótesis ha sido rechazada al nivel de significación 0,05, lo cual quiere decir que tal hipótesis tiene una probabilidad 0,05 de ser falsa.

Prueba de Uno y Dos Extremos.

Cuando estudiamos ambos valores estadísticos es decir, ambos lados de la media lo llamamos prueba de uno y dos extremos o contraste de una y dos colas.

Con frecuencia no obstante, estaremos interesados tan sólo en valores extremos a un lado de la media (o sea, en uno de los extremos de la distribución), tal como sucede cuando se contrasta la hipótesis de que un proceso es mejor que otro (lo cual no es lo mismo que contrastar si un proceso es mejor o peor que el otro) tales contrastes se llaman unilaterales, o de un extremo. En tales situaciones, la región crítica es una región situada a un lado de la distribución, con área igual al nivel de significación.

Curva Característica Operativa Y Curva De Potencia

Podemos limitar un error de tipo I eligiendo adecuadamente el nivel de significancia. Es posible evitar el riesgo de cometer el error tipo II simplemente no aceptando nunca la hipótesis, pero en muchas aplicaciones prácticas esto es inviable. En tales casos, se suele recurrir a curvas características de operación o curvas de potencia que son gráficos que muestran las probabilidades de error de tipo II bajo diversas hipótesis. Proporcionan indicaciones de hasta que punto un test dado nos permitirá evitar un error de tipo II; es decir, nos indicarán la potencia de un test a la hora de prevenir decisiones erróneas. Son útiles en el diseño de experimentos por que sugieren entre otras cosas el tamaño de muestra a manejar.

Pruebas de hipótesis para la media y proporciones

Debido a la dificultad de explicar este tema se enfocará un problema basado en un estudio en una fábrica de llantas.

En este problema la fábrica de llantas tiene dos turnos de operarios, turno de día y turno mixto. Se selecciona una muestra aleatoria de 100 llantas producidas por cada turno para ayudar al gerente a sacar conclusiones de cada una de las siguientes preguntas:

1.- ¿Es la duración promedio de las llantas producidas en el turno de día igual a 25 000 millas?

2.- ¿Es la duración promedio de las llantas producidas en el turno mixto menor de 25 000 millas?

3.- ¿Se revienta más de un 8% de las llantas producidas por el turno de día antes de las 10 000 millas?

Prueba De Hipótesis Para La Media

En la fábrica de llantas la hipótesis nula y alternativa para el problema se plantearon como sigue:

Ho: μ = 25 000

H1: μ ≠ 25 000

Si se considera la desviación estándar σ las llantas producidas en el turno de día, entonces, con base en el teorema de limite central, la distribución en el muestreo de la media seguiría la distribución normal, y la prueba estadística que esta basada en la diferencia entre la media de la muestra y la media μ hipotιtica se encontrara como sigue:

Para ver el gráfico seleccione la opción "Descargar" del menú superior

Si el tamaño de la región α de rechazo se estableciera en 5% entonces se podrían determinar los valores críticos de la distribución. Dado que la región de rechazo esta dividida en las dos colas de la distribución, el 5% se divide en dos partes iguales de 2.5%.

Dado que ya se tiene la distribución normal, los valores críticos se pueden expresar en unidades de desviación. Una región de rechazo de 0.25 en cada cola de la distribución normal, da por resultado un área de .475 entre la media hipotética y el valor crítico. Si se busca está área en la distribución normal, se encuentra que los valores críticos que dividen las regiones de rechazo y no rechazo son + 1.96 y - 1.96

Por tanto, la regla para decisión sería:

Rechazar Ho si Z > + 1.96

O si Z < - 1.96

De lo contrario, no rechazar Ho

No obstante, en la mayor parte de los casos se desconoce la desviación estándar de la población. La desviación estándar se estima al calcular S, la desviación estándar de la muestra. Si se supone que la población es normal la distribución en el muestreo de la media seguiría una distribución t con n-1 grados de libertad. En la práctica, se a encontrado que siempre y cuando el tamaño de la muestra no sea muy pequeño y la población no este muy sesgada, la distribución t da una buena aproximación a la distribución de muestra de la media. La prueba estadística para determinar la diferencia entre la media de la muestra y la media de la población cuando se utiliza la desviación estándar S de la muestra, se expresa con:

Para una muestra de 100, si se selecciona un nivel de significancía de .05, los valores críticos de la distribución t con 100-1= 99 grados de libertad se puede obtener como se indica en la siguiente tabla:

Para ver el gráfico seleccione la opción "Descargar" del menú superior

Como esta prueba de dos colas, la región de rechazo de .05 se vuelve a dividir en dos partes iguales de .025 cada una. Con el uso de las tablas para t, los valores críticos son –1.984 y +1.984. la regla para la decisión es:

Rechazar Ho si >+1.984

O si - 1.984

De lo contrario, no rechazar Ho

Los resultados de la muestra para el turno de día fueron =25 430 millas,=4 000 millas y = 100. Puesto que se esta probando si la media es diferente a 25 000 millas, se tiene con la ecuación

Para ver el gráfico seleccione la opción "Descargar" del menú superior

Dado que = 1.075, se ve que -1.984 < +1.075 < + 1.984, entonces no se rechaza Ho.

Por ello, la de cisión de no rechazar la hipótesis nula Ho. En conclusión es que la duración promedio de las llantas es 25 000 millas. A fin de tener en cuenta la posibilidad de un error de tipo II, este enunciado se puede redactar como "no hay pruebas de que la duración promedio de las llantas sea diferente a 25 000 millas en las llantas producidas en el turno de día".

Prueba De Hipótesis Para Proporciones

El concepto de prueba de hipótesis se puede utilizar para probar hipótesis en relación con datos cualitativos. Por ejemplo, en el problema anterior el gerente de la fabrica de llantas quería determinar la proporción de llantas que se reventaban antes de 10,000 millas. Este es un ejemplo de una variable cualitativa, dado que se desea llegar a conclusiones en cuanto a la proporción de los valores que tienen una característica particular.

El gerente de la fábrica de llantas quiere que la calidad de llantas producidas, sea lo bastante alta para que muy pocas se revienten antes de las 10,000 millas. Si más de un 8% de las llantas se revientan antes de las 10,000 millas, se llegaría a concluir que el proceso no funciona correctamente. La hipótesis nula y alternativa se pueden expresar como sigue:

Ho: p .08 (funciona correctamente)

H1: p > .08 (no funciona correctamente)

La prueba estadística se puede expresar en términos de la proporción de éxitos como sigue:

En donde

Para ver el gráfico seleccione la opción "Descargar" del menú superior

p = proporción de éxitos de la hipótesis nula

Ahora se determinará si el proceso funciona correctamente para las llantas producidas para el turno de día. Los resultados del turno de día índican que cinco llantas en una muestra de 100 se reventaron antes de 10,000 millas para este problema, si se selecciona un nivel de significancía de .05, las regiones de rechazo y no rechazo se establecerían como a continuación se muestra:

Para ver el gráfico seleccione la opción "Descargar" del menú superior

Y la regla de decisión sería:

Rechazar Ho si > + 1.645; de lo contrario no rechazar Ho.

Con los datos que se tienen,

= = .05

Y entonces,

= = = = -1.107

Z -1.107 < + 1.645; por tanto no rechazar Ho.

La hipótesis nula no se rechazaría por que la prueba estadística no ha caído en la región de rechazo. Se llegaría a la conclusión de que no hay pruebas de que más del 8% de las llantas producidas en el turno de día se revienten antes de 10,000 millas. El gerente no ha encontrado ninguna prueba de que ocurra un número excesivo de reventones en las llantas producidas en el turno de día.

http://cosmech.tripod.com/index.htm

Pruebas de Hipótesis

Una hipótesis estadística es una suposición hecha con respecto a la función de distribución de una variable aleatoria.

Para establecer la verdad o falsedad de una hipótesis estadística con certeza total, será necesario examinar toda la población. En la mayoría de las situaciones reales no es posible o practico efectuar este examen, y el camino mas aconsejable es tomar una muestra aleatoria de la población y en base a ella, decidir si la hipótesis es verdadera o falsa.

En la prueba de una hipótesis estadística, es costumbre declarar la hipótesis como verdadera si la probabilidad calculada excede el valor tabular llamado el nivel de significación y se declara falsa si la probabilidad calculada es menor que el valor tabular.

La prueba a realizar dependerá del tamaño de las muestras, de la homogeneidad de las varianzas y de la dependencia o no de las variables.

Si las muestras a probar involucran a más de 30 observaciones, se aplicará la prueba de Z, si las muestras a evaluar involucran un número de observaciones menor o igual que 30 se emplea la prueba de t de student. La fórmula de cálculo depende de si las varianzas son homogéneas o heterogéneas, si el número de observaciones es igual o diferente, o si son variables dependientes.

Para determinar la homogeneidad de las varianzas se toma la varianza mayor y se divide por la menor, este resultado es un estimado de la F de Fisher. Luego se busca en la tabla de F usando como numerador los grados de libertad (n-1) de la varianza mayor y como denominador (n-1) de la varianza menor para encontrar la F de Fisher tabular. Si la F estimada es menor que la F tabular se declara que las varianzas son homogéneas. Si por el contrario, se declaran las varianzas heterogéneas. Cuando son variables dependientes (el valor de una depende del valor de la otra), se emplea la técnica de pruebas pareadas.

Como en general estas pruebas se aplican a dos muestras, se denominarán a y b para referirse a ellas, así entenderemos por:

  • na al número de elementos de la muestra a
  • nb al número de elementos de la muestra b
  • xb al promedio de la muestra b
  • s2a la varianza de la muestra a
  • Y así sucesivamente

Entonces se pueden distinguir 6 casos a saber:

    1. Caso de muestras grandes (n>30)
    2. Caso de na = nb y s2a = s2b
    3. Caso de na = nb y s2a <> s2b
    4. Caso de na <> nb y s2a = s2b
    5. Caso de na <> nb y s2a <> s2b
    6. Caso de variables dependientes

1.-Cuando las muestras a probar involucran a más de 30 observaciones.

Ejemplo:

La altura promedio de 50 palmas que tomaron parte de un ensayo es de 78 cm. con una desviación estándar de 2.5 cm.; mientras que otras 50 palmas que no forman parte del ensayo tienen media y desviación estándar igual a 77.3 y 2.8 cm.

Se desea probar la hipótesis de que las palmas que participan en el ensayo son más altas que las otras.

Consultando el valor z de la tabla a 95% de probabilidad se tiene que es 1.96, por lo consiguiente, el valor z calculado no fue mayor al valor de la tabla y entonces se declara la prueba no significativa.

Conclusión: Las alturas promedio de los 2 grupos de palmas son iguales y la pequeña diferencia observada en favor al primer grupo se debe al azar.

2.-Caso de número igual de observaciones y varianzas homogéneas.

Ejemplo:

Se plantó cierto experimento en 24 parcelas para probar el efecto de la presencia o ausencia de K en el rendimiento de palma.

Peso medio del racimo (Kg.)

n

a

b

a2

b2

1

20.0

24.0

400.00

576.00

2

24.0

28.0

576.00

784.00

3

21.0

25.0

441.00

625.00

4

22.0

25.0

484.00

625.00

5

23.0

27.0

529.00

729.00

6

24.0

27.5

576.00

756.25

7

22.5

28.0

506.25

784.00

8

22.0

26.0

484.00

576.00

9

21.5

26.0

462.25

676.00

10

20.0

24.5

400.00

600.25

11

22.0

26.5

484.00

702.25

12

24.0

28.5

576.00

812.25

Suma

266

316

5918.5

8346

Promedio

22.16

26.33

s2a = 5918.5 - (266)2/12 = 2.02
11

s2b = 8346 - (316)2/12 = 2.24
11

Se busca en la tabla de t de student con 2 (n-1) grados de libertad o sea 22, y se encuentra que el valor tabular es de 2.074 al 95% de probabilidad, el cual es menor que la t calculada y por lo tanto se declara la prueba significativa.

Conclusión: La diferencia entre promedios observados es atribuible al efecto de tratamiento (K), por haberse conseguido un resultado significativo.

3.-Caso de igual número de observaciones y varianzas heterogéneas.

Ejemplo:

Se plantó cierto experimento en 24 parcelas con dos clases de semillas: semilla mezclada y semilla DxP seleccionada. Se desea saber si el rendimiento observado por la semilla seleccionada difiere a la otra.

Producción de palma: TM/ha/año

Para ver la tabla seleccione la opción "Descargar" del menú superior

s2a = 1748.61 - (144.5)2/12 = 0.78
11

s2b = 4001.14 - (216.2)2/12 = 9.63
11

Consultando la tabla de t con n-1 grados de libertad (11) se encuentra un valor de 2.201, por lo tanto, la diferencia se declara significativa.

Conclusión: El rendimiento observado por las plantas de semilla seleccionada fue significativamente superior a las otras.

4.-Caso de diferente número de observaciones y varianzas homogéneas

Ejemplo:

Se tomó una área de terreno distribuida en 22 parcelas y a 13 de ellas se les aplicó un fertilizante nitrogenado para medir el efecto del N en el crecimiento.

Área foliar de la hoja # 17 en m2

Para ver la tabla seleccione la opción "Descargar" del menú superior

s2a = 968.93 - (112.1)2/13 = 0.19
12

s2b = 390.84 - (59.2)2/9 = 0.18
8

s2c = 12(0.19) + 8(0.18) = 0.19
20

Consultando la tabla de t con n-1 grados de libertad (11) se encuentra un valor de 2.201, por lo tanto, la diferencia se declara significativa.

Conclusión: El rendimiento observado por las plantas de semilla seleccionada fue significativamente superior a las otras.

Ejemplo:

Se tomó una área de terreno distribuida en 22 parcelas y a 13 de ellas se les aplicó un fertilizante nitrogenado para medir el efecto del N en el crecimiento.

Área foliar de la hoja # 17 en m2

Para ver la tabla seleccione la opción "Descargar" del menú superior

s2a = 968.93 - (112.1)2/13 = 0.19
12

s2b = 390.84 - (59.2)2/9 = 0.18
8

s2c = 12(0.19) + 8(0.18) = 0.19
20

Consultando la tabla con (na-1) + (nb-1) o sea (20) grados de libertad, se obtiene el valor tabular de 2.086, el cual es menor que la t calculada, por lo tanto la diferencia se declara significativa.

Conclusión: La diferencia detectada en estas dos muestras es atribuible a la aplicación del fertilizante nitrogenado.

5.- Caso de diferente número de observaciones y varianzas heterogéneas.

En este caso, la tc es comparada con la tg (t generada), que a diferencia de los casos anteriores, hay que calcularla.

Donde: ta y tb son los valores de la tabla con n-1 grados de libertad para a y b respectivamente

Ejemplo:

Se tomaron 2 muestras de palma comercial de orígenes diferentes y se midió el porcentaje de almendra en el racimo en ambas muestras, el objeto es probar si las muestras son diferentes genéticamente o no.

Porcentaje de almendra

Para ver la tabla seleccione la opción "Descargar" del menú superior

s2a = 225.02 - (53)2/14 = 1.88
13

s2b = 192.26 - (43.80)2/10 = 0.05
9

En este caso la t generada (tg), reemplaza la t de la tabla y como la tc es menor que la tg, la diferencia se declara No significativa.

Conclusión: La diferencia observada entre promedios es atribuible únicamente a errores de muestreo o variabilidad natural, y no a diferencias genéticas.

6.-Caso de muestras pareadas (de variables dependientes)

En este caso, se asume que las muestras han sido distribuidas por pares.

Ejemplo: Se tomaron 12 foliolos de palma joven y a cada uno se le trató la mitad con Benlate para medir la inhibición del crecimiento de hongos.

Magnitud del dano

Sin Con

n Benlate Benlate D = X - Y D2

Para ver la tabla seleccione la opción "Descargar" del menú superior

Consultando la tabla con n-1 grados de libertad se obtiene el valor tabular de 2.201, por lo tanto, la diferencia se declara significativa.

Conclusión: De la prueba se desprende que el tratamiento con benlate redujo significativamente la incidencia de hongos.

Utilidad de las hipótesis:

El uso y formulación correcta de las hipótesis le permiten al investigador poner a prueba aspectos de la realidad, disminuyendo la distorsión que pudieran producir sus propios deseos o gustos. Pueden ser sometidas a prueba y demostrarse como probablemente correctas o incorrectas sin que interfieran los valores o creencias del individuo.

Bibliografía

las siguientes páginas contienen una presentación en power point, con ejemplos de aplicación.

www.edustatspr.com/documentos/lecciones/L3.2_Prueba_Hipotesis_95.ppt

www.edustatspr.com/documentos/lecciones/L3.3_Prueba_Hipotesis_2_pob_95.ppt

La siguiente página se obtuvo el método Kolmogorov-Smirnov

www.ilustrados.com/publicaciones/EpyAVkuZVkTBkoEjEU.php

http://Smirnov - Monografias_com.htm

De las siguientes páginas se obtuvo las pruebas de hipótesis

http://www.DosChivos_com Pruebas de Hipótesis.htm

http://jagua.cfg.sld.cu/computacion/PH.htm

www.cimat.mx/famat/nueva/cursos/probabilidad/cursos_metodos_estadisticos.html

http://sancur22ceapuntes.iespana.es/sancur22ceapuntes/Administracion/CENEVAL/OperacionesYMetodos/02MetodosCuantitativos/21PruebasHip/PruebasHip.htm

http://www.elrincondelvago.com.

Proporcionado por los siguientes buscadores:

  • Google
  • T1msn
  • Terra
  • Yahoo
  • México Web
  • Entre otros

Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac Graw - Hill.
Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed. México (1994). Ed. Trillas S.A.
Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª ed. México (1998). Ed. Limusa S.A.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen - Humanitas.

Montes de Oca Francisco RESOLUCION TOTAL DE PROBABILIDAD Y ESTADISTICA Vol. 1 y 2 1990.

Lincoln L. Chao INTRODUCCION A LA ESTADISTICA ED. CECSA.

Ronald E. Walpol PROBABILIDAD Y ESTADISTICA PARA INGENIEROS

Francisco Ramírez Talonia

chato_099[arroba]hotmail.com

Comentarios

Agregar un comentario

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo en formato DOC desde el menú superior.


SERIES DE TIEMPO

SERIES DE TIEMPO

Principales aspectos conceptuales de series de tiempo.

1.CLASIFICACIÓN DE LOS MODELOS CUANTITATIVOS

Los modelos cuantitativos se pueden clasificar, de acuerdo con la información que
utilizan en multivariantes o econométricos, y en univariantes o de series de tiempo.

1.1.Modelos Multivariantes o Econométricos

Los modelos econométricos tratan de explicar el comportamiento de una o más
variables en función de la evolución de otras variables que se consideran explicativas. Las variables explicadas por el modelo se denominan endógenas, mientras que las variables explicativas del modelo, pero no explicadas por él, se denominan predeterminadas. Entre las variables predeterminadas se distinguen dos grupos: exógenas y endógenas retardadas, estas últimas no son explicadas por el modelo en el momento t, pero han sido explicadas por él en un momento anterior, por su parte, las exógenas son variables que no son explicadas por el modelo en ningún momento1.
Los modelos multivariantes contemplan de forma explícita la información que aportan
las variables causales del fenómeno de interés de acuerdo con una determinada teoría económica. Una ventaja de este modelo consiste en que los resultados que se generan son más eficientes y poseen mayor poder explicativo que los modelos univariantes. Sin embargo, en estos modelos, cuando se desea realizar predicciones, el desconocimiento de los valores de las variables explicativas en el futuro determina la necesidad de utilizar predicciones para éstas, lo cual incrementa el nivel de incertidumbre con que se realiza la predicción econométrica. Por otro parte, cuando el futuro puede suponer una alteración de tendencias de comportamiento respecto al pasado reciente, es recomendable utilizar estos modelos causales para predecir a mediano plazo (1 a 5 años).
1
Véase, Guisán, María del Carmen. Econometría (1997).

Los modelos más sencillos se le denominan uniecuacionales, pues solo tienen una
variable endógena corriente en el lado izquierdo de la relación (variable endógena o
regresando), en el otro lado, puede haber una o varias variables explicativas exógenas y endógenas retardadas). Además de las variables mencionadas, en cada ecuación interviene generalmente una variable no observable (la perturbación aleatoria), la cual recoge los efectos de diversos factores que desvían ligeramente el valor de la variable explicada respecto al valor esperado de acuerdo al modelo.
Por ejemplo:
t t t t Y X Y e b b b + + + = -1 2 1 0

en donde; t Y es la variable endógena, t X es exógena, 1 - t Y es una variable endógena retardada y e es la perturbación aleatoria. En el caso que exista interdependencia entre la variable explicada por la ecuación y alguna de las variables explicativas, u otras variables endógenas de otras ecuaciones, se debe formular un sistema de ecuaciones en el que tenga en cuenta las diversas relaciones existentes entre esas variables, utilizando métodos de estimación diseñados especialmente para modelos multiecuacionales. Cuando el objetivo del estudio econométrico es exclusivamente la predicción no siempre es necesario que se especifique un modelo causal en el que la variable explicada se exprese en función de un conjunto de variables explicativas, ya que en muchos casos se pueden obtener predicciones satisfactorias mediante modelos de predicción univariantes.


1.2.Modelos Univariantes

En este enfoque no se necesita conocer ninguna relación de causalidad, explicativa del comportamiento de la variable endógena, ni en su defecto, ninguna información relativa al comportamiento de otras variable explicativas, ya que en este caso no existe este tipo de variables. Es suficiente con conocer una serie temporal de la variable en estudio, para estimar el modelo que se utilizará para predecir.

La predicción univariante se utiliza, en problemas económicos, principalmente con dos
objetivos:
· La predicción de algunas variables explicativas de un modelo causal, cuando se
espera que en el futuro conserven algunas de las características de su evolución en
el pasado.
· La predicción a corto plazo (de 1 a 4 trimestres), debido a su gran capacidad para
recoger la dinámica en el comportamiento de la variable estudiada. Además, en
condiciones normales, cuando no existen bruscas alteraciones respecto a la
experiencia reciente de la variable, estos métodos pueden proporcionar buenas
predicciones.
Entre las técnicas univariantes existen algunas muy sencillas, tales como el modelo
autorregresivo de primer orden, el modelo de tendencia lineal o exponencial, entre otros.
Las técnicas más rigurosas para la predicción univariante son las denominadas técnicas o modelos Box-Jenkins, o más concretamente modelos ARIMA, pues las técnicas Box-Jenkins constituyen un conjunto más amplio, dentro del cual los modelos ARIMA univariantes son sólo una parte.
Por último, se encuentran los modelos de función de transferencia que reúnen
características de los modelos univariantes y multivariantes.
CLASIFICACIÓN DE LOS MODELOS CUANTITATIVOS


2.MODELOS ARIMA

La metodología de los modelos ARIMA fue formalizada por Box y Jenkins en 1976, por eso también se les denomina modelos Box-Jenkins. Los modelos ARIMA forman parte de la rama de la Estadística que se denomina “Análisis de series de tiempo”. Se fundamentan en la teoría de los procesos estocásticos. El nombre de estos modelos ARIMA procede de las siglas en inglés de Autorregresive, integrated and moving average. Su significado es Modelos integrados (I) autorregresivos (AR) y de medias móviles (MA).
Este enfoque parte del hecho que la serie temporal que se trata de predecir es
generada por un proceso estocástico o aleatorio cuya naturaleza puede ser caracterizada mediante un modelo.

Univariantes Multivariantes
o de series o econométricos
de tiempo
Ej. ARIMA univariantes Uniecuacionales Multiecuacionales
ARIMA estacionales
ARIMA + Análisis de
intervención
Predicción Predicción Simulación
1-4 trimestres 1-5 años (Análisis causal)
Modelos de función de transferencia

Para efectuar la estimación de un modelo ARIMA se requiere de una serie temporal
mensual o trimestral de tamaño grande para la variable yt. Por ejemplo, en el paquete
TRAMO/SEATS se requieren 36 observaciones (3 años) en el caso de datos mensuales y 16 (4años) en el caso de datos trimestrales.


2.1.Notación Box-Jenkins

La notación compacta de los modelos ARIMA es la siguiente:

ARIMA (p,d,q)
donde:
p: Número de parámetros autorregresivos.
d: Número de diferenciaciones para que la serie sea estacionaria.
q: Número de parámetros de medias móviles.

La notación con operador de rezagos es (1-B) o D.
Es decir,
(1-B) zt = D zt = zt – zt-1

Por otra parte, la notación extendida de un modelo ARMA(p,q) es la siguiente:

(1- f1*B - f2*B2 - ... - fp*Bp ) zt = (1- q1*B - q2*B2 - ... - qq*Bq ) at

Entonces, la notación de un modelo MA(1) y de un modelo MA(2) es:
MA(1) à zt = at - q1* at-1
MA(2) à zt = at - q1* at-1 - q2* at-2

La notación de modelos autorregresivos de orden 1 y orden 2 es:
AR(1) à (1- f1*B) z t = at
zt - f1* zt-1 = at
zt = f1* zt-1 + at

AR(2) à zt = f1* zt-1 + f2* zt-2 + at

Por ultimo, la notación de un modelo mixto es
:
ARMA(1,1) à zt = f1* zt-1 + at - q1* at-1


2.2.Proceso Arima

Las etapas que se siguen en la elaboración de un modelo ARIMA con fines predictivos
son las siguientes: identificación, estimación, verificación y pronóstico.
Lo que se trata es de identificar el proceso estocástico que ha generado los datos,
estimar los parámetros que caracterizan dicho proceso, verificar que se cumplan las hipótesis que han permitido la estimación de dichos parámetros. Si dichos supuestos no se cumplieran, la fase de verificación sirve como retroalimentación para una nueva fase de identificación. Cuando se satisfagan las condiciones de partida, se puede utilizar el modelo para pronosticar.

2.2.1.Identificación

Como primer paso se requiere que la serie de interés sea estacionaria. Una serie
estacionaria es aquella que posee una media y una variancia constante.
El orden de integración (o grado de diferenciación), denotado por I(d), se refiere al
número de veces que una serie debe ser diferenciada para obtener una serie estacionaria. El orden de integración define el parámetro d del modelo ARIMA.
Para la mayoría de las series económicas, la experiencia muestra que la
estacionariedad se logra después:
üde una diferencia(xt – xt-1) o
üde una diferencia de logaritmos (log xt - log xt-1).
En este caso, la variable xt es I(1), esto es, tiene una raíz unitaria.
A continuación se presentan los gráficos de una serie estacionaria y una no
estacionaria:

Identificación
Estimación
Verificación
Pronóstico


Para determinar los parámetros p y q se utilizan los gráficos de la función de
autocorrelación simple y parcial (correlogramas).

La autocorrelación simple muestral en el rezago k (rk) es igual a:

rk = S (yt-y) (yt+k-y ) / S (yt-y)2

La autocorrelación parcial muestral en el rezago k (rkk) es igual a:

rkk = r1 si k = 1
rkk = (rk - S rk-1,jrk-j / (1-Srk-1,jrj)
Si k = 2, 3, ...
donde rkj = rk-1,j-rkkrk-1,k-j
para j=1, 2, ..., k-1













V A R I A B L E I ( 0 )
- 4 0
- 3 0
- 2 0
- 1 0
0
10
2 0
3 0
4 0
5 0
S E R I E
P R O M E D I O
V A R I A B L E I ( 1 )
4 2 5
4 7 5
5 2 5
5 7 5
6 2 5
6 7 5
7 2 5
S E R I E
PROMEDIO

A continuación se presenta la forma general de los correlogramas simple y parcial para diferentes modelos autorregresivos y de medias móviles:

2.2.2.Estimación

Para estimar los parámetros del modelo se utiliza un algoritmo de mínimos cuadrados
de Gauss Marquatt para minimizar la suma de cuadrados de los residuos. Este algoritmo trata de minimizar la suma de cuadrados de los residuos, comenzando con algún valor de los parámetros del modelo. El algoritmo busca si otro vector de parámetros mejora el valor de la función objetivo y se produce un proceso de iteración hasta que se alcanza la convergencia.
Los programas de computador, como TRAMO/SEATS tienen definidos por defecto el valor de los parámetros iniciales del modelo, así como los criterios de convergencia.
rk rkk
AR(1)
1 2 3 4 5 k 1 2 3 4 5 k
rk rkk
MA(1)
1 2 3 4 5 k 1 2 3 4 5 k
rk rkk
ARMA(1,1)
1 2 3 4 5 k 1 2 3 4 5 k
Simple Parcial

2.2.3.Verificación

Una vez estimado el modelo ARIMA y dado que el modelo va a ser utilizado para
predecir, se debe verificar que se cumplen las hipótesis de partida. El análisis principal se centra en los residuos, pero tampoco se debe descuidar el análisis de la bondad del ajuste del modelo estimado y el análisis de los parámetros del modelo. A continuación se citan algunos de los indicadores que se deben analizar:

1) Análisis de los parámetros

ü Valores de los parámetros
i. çqç< 1 condición de invertivilidad
ii. çfç< 1 condición de estacionariedad
ü Significancia de los parámetros (t-Student)


2) Bondad del ajuste

ü Error estándar de los residuos
ü Estadístico BIC

3) Análisis de los residuos (ruido blanco)

ü Análisis gráfico
ü Histograma
ü Correlograma de los residuos
ü Estadístico Q de Box-Pierce: Q = TSr2k

Este valor se compara con el valor tabular de la c2 con k grados de libertad. Si el
valor calculado es mayor que el valor tabular se rechaza la hipótesis de
estacionariedad.

2.2.4.Pronóstico

Una vez identificado el proceso ARIMA que genera la serie temporal de interés,
estimados los parámetros del modelo ARIMA correspondiente y haber pasado la etapa de verificación, se utiliza el modelo para realizar pronósticos, con el menor error de predicción posible.

2.3.Análisis de Intervención

Existen los modelos ARIMA con variables de intervención, en los cuales las series
económicas son afectadas por fenómenos externos, tales como cambios tecnológicos, huelgas, cambios en medidas de política o económicas, cambios en la legislación o escala de algún impuesto, cambios metodológicos en la medición de las estadísticas, etc. Estos fenómenos son llamados intervenciones ya que interfieren en el comportamiento original de la serie, por lo
tanto se debe evaluar su efecto e incorporarlo al modelo ARIMA a través de variables
artificiales binarias (análisis de intervención).
Se recurre a variables que explican la presencia de fenómenos exógenos en la serie de tiempo. Se incorporan como variables dummy en la forma de impulsos y escalones que se utilizan para representar cambios temporales o permanentes en el nivel de las series debidos a eventos especiales. La no-incorporación de variables artificiales conduce a sesgos en las
estimaciones de los parámetros, a elevar el error estándar residual y en ocasiones a errores en la especificación del modelo ARIMA.
La mayoría de veces a priori no se conoce los fenómenos exógenos que afectan la serie de tiempo y más bien se utiliza una primera aproximación del modelo ARIMA para determinar la presencia de valores anómalos que son posteriormente incorporados al modelo.
A continuación se describen las principales variables de intervención:
Variables Impulso: Recoge el efecto de fenómenos que intervienen en la serie en un
único momento T0. Esto se traduce en una variable que contiene un uno en T0 y ceros en el resto. Afecta el componente irregular de la serie.
Variable escalón: Recoge el efecto de un cambio en el nivel en la serie, es decir, que
contienen ceros hasta el momento T0 y unos en adelante. Afecta el componente
tendencia de la serie.
Variable tendencia o rampa: Estas contienen ceros en un tramo de la serie hasta un
momento T0, a partir del cual empieza a crecer en forma ascendente. Afecta la
tendencia de la serie.
Efecto calendario: Este efecto se refiere al hecho de que cabe esperar un mayor nivel
de actividad en aquellos meses con mayor número de días laborales, por lo cual hay
que tomar en cuenta no solo el número de días de cada mes, sino también su diferente composición porcentual en términos de lunes, martes, etc., en cada mes.
Efecto de la semana santa o pascua (Easter effect): Con este efecto se intenta
representar la influencia de la festividad móvil de semana santa ejerce sobre la actividad económica en los meses de marzo y abril.
Días de comercio (Trading-Days): Consiste en el ciclo semanal que se presenta cuando los días de la semana tienen un nivel de actividad distinto, unido a la distinta longitud de los meses; de tal modo que por ejemplo, un mes en particular podría tener un nivel de ventas superior a otro, debido únicamente a que posee un mayor número de días.
En el siguiente diagrama se hace una representación de las variables de intervención
más importantes:
Las intervenciones se incluyen en la parte determinística de la serie y el modelo ARIMA en la parte estocástica.

2.4.Modelos Estacionales

Hasta el momento solamente se ha analizado la parte regular del modelo ARIMA. Sin
embargo, muchas series económicas presentan un elevado componente estacional, por lo que esta parte estacional también tendrá un modelo ARIMA. En este caso también se sigue el proceso descrito antes, con la diferencia de que los rezagos que se deben analizar son el rezago 12, 24 y 36 en el caso de series mensuales y los rezagos 4, 8 y 12 para las series trimestrales.


0 1 0 0 ... 0 1 1 1 ...
0 11...1 00...
Días de comercio
Efecto Pascua
Incorporación al modelo
parte parte
determinística estocástica
Impulso Escalón
Rampa
t t t N w f y + = ) , , ( e d



La notación del modelo ARIMA con parte estacional es la siguiente:

ARIMA (p,d,q)(P,D,Q)s

donde:
p: Número de parámetros autorregresivos.
d: Número de diferenciaciones para que la serie sea estacionaria.
q: Número de parámetros de medias móviles.
P: Número de parámetros autorregresivos en la parte estacional.
D: Número de diferenciaciones para que la serie sea estacionaria, en la parte
estacional.
Q: Número de parámetros de medias móviles en la parte estacional.
s: Periodicidad de serie (s=12 serie mensual, s=4 serie trimestral)


3.COMPONENTES DE UNA SERIE DE TIEMPO

Se dice que una serie de tiempo puede descomponerse en cuatro componentes que no son directamente observables, de los cuales únicamente se pueden obtener estimaciones.
Estos cuatro componentes son:

· Tendencia (T) que representa los movimientos de larga duración, también se le
conoce como evolución subyacente de una serie.
· Ciclo (C) caracterizado por oscilaciones alrededor de la tendencia con una duración
aproximada de dos a ocho años.
· Estacionalidad (S) es un movimiento periódico que se producen dentro del año y que
se repiten de un año a otro. Este componente está determinado por factores
institucionales y climáticos.
· Irregularidad (I) son movimientos erráticos que no siguen un patrón específico y que
obedecen a causas diversas. Este componente es prácticamente impredecible.
En este punto debe hacerse la aclaración de que las herramientas de descomposición
de series de tiempo disponibles hasta este momento realizan una estimación de la tendencia y el ciclo en forma conjunta, es decir se obtiene una descomposición de las series en componente estacional, componente irregular y componente tendencia-ciclo.
Para separar la tendencia del ciclo, se recurre a otros procedimientos como por ejemplo el filtro de Baxter-King1 o bien el Filtro de Hodrick-Prescott2. Estos filtros pueden aplicarse utilizando los paquetes econométricos WINRATS y EVIEWS, respectivamente.

1 Véase, Flores, Melania (1999)
2 Véase, Kikut, A y Muñoz, E. (199?)


Gráficamente, la serie original y cada uno de estos componentes para el caso del PIB
de Estados Unidos se aprecian de la siguiente forma:

PIB E.U.: Serie desestacionalizada
160 140 120 100 80 60 40 20 0
3,800
3,600
3,400
3,200
3,000
2,800
2,600
2,400
2,200
2,000
1,800
1,600
1,400
1,200
PIB E.U.: Componente estacional
160 140 120 100 80 60 40 20 0
0.001
0.001
0.000
0.000
0.000
0.000
0
0
0.000
0.000
0.000
0.000
-0.001
-0.001
-0.001
-0.001 -0.001
-0.001
-0.001
-0.001
-0.001
-0.001
PIB E.U.: Componente irregular
160 140 120 100 80 60 40 20 0
0.005
0.004
0.003
0.002
0.001
0
-0.001
-0.002
-0.003
-0.004
-0.005
-0.006
-0.007
PIB ESTADOS UNIDOS SERIE ORIGINAL
160 140 120 100 80 60 40 20 0
3,800
3,600
3,400
3,200
3,000
2,800
2,600
2,400
2,200
2,000
1,800
1,600
1,400
1,200
13
PIB E.U: Tendencia-ciclo
160 140 120 100 80 60 40 20 0
3,800
3,600
3,400
3,200
3,000
2,800
2,600
2,400
2,200
2,000
1,800
1,600
1,400
1,200

Ahora bien, existen dos modelos básicos que muestran de manera explícita la relación
que guardan los componentes de una serie:
Modelo Aditivo: se utiliza cuando los com ponentes son independientes entre si o se
presentan valores negativos o ceros.
I C E T Yt + + + =
Modelo Multiplicativo: se utiliza cuando los componentes son dependientes entre sí, o
cuando el nivel de las series es muy cambiante.
I C E T Yt ´ ´ ´ =
Si la amplitud del componente estacional varía en forma proporcional a la tendencia
media anual, el modelo apropiado será el multiplicativo; por otro lado, si el componente
estacional permanece constante ante variaciones en la tendencia, el modelo más adecuado es
el aditivo, es decir la estacionalidad de la serie es independiente de su tendencia.

4.DESCOMPOSICIÓN DE LAS SERIES DE TIEMPO

Para efectos del análisis económico, la estimación de los componentes no observables de una serie de tiempo cobra relevancia. Por ejemplo, el conocimiento de los movimientos estacionales contribuye a explicar si los cambios que se están observando en una variable, en determinado momento, obedecen efectivamente a aumentos o disminuciones en su nivel medio o bien a fenómenos estacionales.
Adicionalmente, la posibilidad de aislar los factores estacionales permite el estudio de
su comportamiento e identificar si son o no estables a lo largo del tiempo.
Por otro lado, contar con una estimación de la tendencia de la serie permite efectuar
consideraciones acerca del crecimiento subyacente de la misma

5.MÉTODOS DE EXTRACCIÓN DE SEÑALES

El proceso de descomposición de series de tiempo en sus cuatro componentes se
conoce también como extracción de señales, para ello se cuenta con al menos dos grupos de métodos:

· Métodos empíricos
o X11-ARIMA
o Census X11

· Métodos basados en modelos
o X12-ARIMA
o TRAMO-SEATS3

Los métodos empíricos se basan en promedios móviles, si bien son capaces de extraer características comunes de una gran cantidad de series, no tienen un modelo definido y por tanto se limita la capacidad de análisis y del diagnóstico de los resultados.
Los métodos basados en modelos utilizan estimadores que son variables aleatorias con todas sus propiedades y bandas de confianza. La principal ventaja radica en que procuran adaptarse a las características estocásticas de la serie evitando el riesgo de imprimir a las estimaciones propiedades espúreas debido a uso de filtros inapropiados.
Estos métodos permiten efectuar un diagnóstico amplio de las estimaciones, esta
características es precisamente la que los hace superiores. Entre otras cosas permite
responder a las preguntas: ¿Con qué error se estima la estacionalidad y la tendencia-ciclo?; ¿cuáles son los intervalos de confianza de los factores estacionales?.
Finalmente, debe llamarse la atención en el hecho de que el paquete integrado
TRAMO/SEATS, desarrollado por el Banco de España, se clasifica dentro de los métodos basados en modelos. Este software es bastante amigable, en especial su versión para ambiente Windows, por lo cual este tipo de talleres buscan generalizar su aplicación dentro y fuera del Banco Central de Costa Rica.4

3 Las siglas TRAMO hacen referencia a los terminos:Time Series Regression with ARIMA Noise, Missing
Observations and Outliers y las de SEATS Signal Extraction in ARIMA Time Series.
4 Véase, Kikut, Muñoz y Rodríguez (2001).
C:\Documents and Settings\bogantesvk\Local Settings\Temporary Internet Files\OLKA\DIE-02-2002-NT-NOTA TÉCNICAASPECTOS
CONCEPTUALES SOBRE SERIES DE TIEMPO.doc
27/06/2002/10:18 a.m.

Estadistica inferencial


1.1 Introducción a la estadística inferencial
La estadística Inferencia, es el proceso por el cual se deducen (infieren) propiedades o características de una población a partir de una muestra significativa. Uno de los aspectos principales de la inferencia es la estimación de parámetros estadísticos. Por ejemplo, para averiguar la media, µ, de las estaturas de todos los soldados de un reemplazo, se extrae una muestra y se obtiene su media, 0. La media de la muestra (media muestral), 0, es un estimador de la media poblacional, µ. Si el proceso de muestreo está bien realizado (es decir, la muestra tiene el tamaño adecuado y ha sido seleccionada aleatoriamente), entonces el valor de µ, desconocido, puede ser inferido a partir de 0.
La inferencia siempre se realiza en términos aproximados y declarando un cierto nivel de confianza. Por ejemplo, si en una muestra de n = 500 soldados se obtiene una estatura media 0 = 172 cm, se puede llegar a una conclusión del siguiente tipo: la estatura media, µ, de todos los soldados del reemplazo está comprendida entre 171 cm y 173 cm, y esta afirmación se realiza con un nivel de confianza de un 90%. (Esto quiere decir que se acertará en el 90% de los estudios realizados en las mismas condiciones que éste y en el 10% restante se cometerá error.)
Si se quiere mejorar el nivel de confianza, se deberá aumentar el tamaño de la muestra, o bien disminuir la precisión de la estimación dando un tramo más amplio que el formado por el de extremos 171, 173. Recíprocamente, si se quiere aumentar la precisión en la estimación disminuyendo el tamaño del intervalo, entonces hay que aumentar el tamaño de la muestra o bien consentir un nivel de confianza menor. Finalmente, si se quiere mejorar tanto la precisión como el nivel de confianza, hay que tomar una muestra suficientemente grande.



EJEMPLOS :Estadística inferencial
Los dos tipos de problemas que resuelven las técnicas estadísticas son: estimación y contraste de hipótesis. En ambos casos se trata de generalizar la información obtenida en una muestra a una población. Estas técnicas exigen que la muestra sea aleatoria. En la práctica rara vez se dispone de muestras aleatorias, por la tanto la situación habitual es la que se esquematiza en la figura



Entre la muestra con la que se trabaja y la población de interés, o población diana, aparece la denominada población de muestreo: población (la mayor parte de las veces no definida con precisión) de la cual nuestra muestra es una muestra aleatoria. En consecuencia la generalización está amenazada por dos posibles tipos de errores: error aleatorio que es el que las técnicas estadísticas permiten cuantificar y críticamente dependiente del tamaño muestral, pero también de la variabilidad de la variable a estudiar y el error sistemático que tiene que ver con la diferencia entre la población de muestreo y la población diana y que sólo puede ser controlado por el diseño del estudio.
Tamaño muestral
El tamaño muestral juega el mismo papel en estadística que el aumento de la lente en microscopía: si no se ve una bacteria al microscopio, puede ocurrir que: - la preparación no la contenga- el aumento de la lente sea insuficiente.Para decidir el aumento adecuado hay que tener una idea del tamaño del objeto.
Del mismo modo, para decidir el tamaño muestral: i) en un problema de estimación hay que tener una idea de la magnitud a estimar y del error aceptable. ii) en un contraste de hipótesis hay que saber el tamaño del efecto que se quiere ver.
Estimación de parámetros
En general, de las variables experimentales u observacionales no conocemos la fpd. Podemos conocer la familia (normal, binomial,...) pero no los parámetros. Para calcularlos necesitaríamos tener todos los posibles valores de la variable, lo que no suele ser posible. La inferencia estadística trata de cómo obtener información (inferir) sobre los parámetros a partir de subconjuntos de valores (muestras) de la variable.
Estadístico: variable aleatoria que sólo depende de la muestra aleatoria elegida para calcularla. Estimación: Proceso por el que se trata de averiguar un parámetro de la población representado, en general, por q a partir del valor de un estadístico llamado estimador y representado por El problema se resuelve en base al conocimiento de la "distribución muestral" del estadístico que se use. ¿Qué es esto? Concretemos, p.e. en la media (m). Si para cada muestra posible calculamos la media muestral ( ) obtenemos un valor distinto ( es un estadístico: es una variable aleatoria y sólo depende de la muestra), habrá por tanto una fpd para , llamada distribución muestral de medias. La desviación típica de esta distribución se denomina error típico de la media. Evidentemente, habrá una distribución muestral para cada estadístico, no sólo para la media, y en consecuencia un error típico para cada estadístico. Si la distribución muestral de un estadístico estuviera relacionada con algún parámetro de interés, ese estadístico podría ser un estimador del parámetro.
Distribución muestral de medias
Si tenemos una muestra aleatoria de una población N(m,s ), se sabe (Teorema del límite central) que la fdp de la media muestral es también normal con media m y varianza s2/n. Esto es exacto para poblaciones normales y aproximado (buena aproximación con n>30) para poblaciones cualesquiera. Es decir es el error típico, o error estándar de la media.
¿Cómo usamos esto en nuestro problema de estimación? 1º problema: No hay tablas para cualquier normal, sólo para la normal m=0 y s=1 (la llamada z); pero haciendo la transformación (llamada tipificación)una normal de media m y desviación s se transforma en una z.
Llamando za al valor de una variable normal tipificada que deja a su derecha un área bajo la curva de a, es decir, que la probabilidad que la variable sea mayor que ese valor es a (estos son los valores que ofrece la tabla de la normal)

podremos construir intervalos de la forma
para los que la probabilidad es 1 - a.
Teniendo en cuenta la simetría de la normal y manipulando algebraícamente
que también se puede escribir
o, haciendo énfasis en que es el error estándar de la media,
Recuérdese que la probabilidad de que m esté en este intervalo es 1 - a. A un intervalo de este tipo se le denomina intervalo de confianza con un nivel de confianza del 100(1 - a)%, o nivel de significación de 100a%. El nivel de confianza habitual es el 95%, en cuyo caso a=0,05 y za /2=1,96. Al valor se le denomina estimación puntual y se dice que es un estimador de m.
Ejemplo: Si de una población normal con varianza 4 se extrae una muestra aleatoria de tamaño 20 en la que se calcula se puede decir que m tiene una probabilidad de 0,95 de estar comprendida en el intervalo
que sería el intervalo de confianza al 95% para m
En general esto es poco útil, en los casos en que no se conoce m tampoco suele conocerse s2; en el caso más realista de s2 desconocida los intervalos de confianza se construyen con la t de Student (otra fdp continua para la que hay tablas) en lugar de la z.
o, haciendo énfasis en que es el error estándar estimado de la media,
Este manera de construir los intervalos de confianza sólo es válido si la variable es normal. Cuando n es grande (>30) se puede sustituir t por z sin mucho error.
Otras lecturas recomendadas
Estimación de proporciones
Sea X una variable binomial de parámetros n y p (una variable binomial es el número de éxitos en n ensayos; en cada ensayo la probabilidad de éxito (p) es la misma, por ejemplo: número de diabéticos en 2000 personas).Si n es grande y p no está próximo a 0 ó 1 (np ³ 5) X es aproximadamente normal con media np y varianza npq (siendo q = 1 - p) y se puede usar el estadístico (proporción muestral), que es también aproximadamente normal, con error típico dado por en consecuencia, un IC para p al 100(1 - a)% será
es decir, la misma estructura que antes:
Obsérvese que para construirlo, ¡se necesita conocer p!. Si n es grande (>30) se pueden substituir p y q por sus estimadores sin mucho error, en cualquier caso como pq £ 0,25 si se substituye pq por 0,25 se obtiene un intervalo más conservador (más grande).
Ejemplo: En una muestra de 100 pacientes sometidos a un cierto tratamiento se obtienen 80 curaciones. Calcular el intervalo de confianza al 95% de la eficacia del tratamiento.
¿Qué significa este intervalo? La verdadera proporción de curaciones está comprendida entre, aproximadamente, 72% y 88% con un 95% de probabilidad. ¿Es suficientemente preciso? Habrá Problemas de estadística propuestos (2ª parte):
1º En una muestra aleatoria de 90 pacientes se mide el nivel de glucosa en sangre en ayunas. Se obtiene = 132 mg/dl y s2=109. Construir el IC al 95% para m ¿Qué asunción se ha hecho?
Solución
2º Para evaluar una vacuna para la gripe se selecciona un grupo de 200 individuos de riesgo. Se eligen aleatoriamente a 100 de ellos y se les suministra la vacuna; de ellos 10 pasan la gripe. Construir un IC al 95% para la probabilidad de pasar la gripe si se está vacunado. En los otros 100 pacientes sin vacunar la pasan 20. ¿Hay evidencia de que la vacuna es eficaz?




Probabilidad







Probabilidad


Experimento Aleatorio: experimento que puede ser repetido bajo "las mismas condiciones", del que puede establecerse el conjunto de sus posibles resultados, pero no predecir un resultado concreto.


Espacio muestral: conjunto de posibles resultados.
Punto muestral: elemento del espacio muestral.
Suceso: cualquier subconjunto del espacio muestral.
Si representamos el espacio muestral por W y a los sucesos por A: A Ì W. Dado que el conjunto vacío es subconjunto de cualquier conjunto (Æ Ì W) y que todo conjunto es subconjunto de sí mismo (W Ì W), tanto el conjunto vacío como el espacio muestral son sucesos.
Si lo necesita Repaso del álgebra de conjuntos
Un problema a tener en cuenta es que dado un experimento, podemos encontrar más de un espacio muestral.
Ejemplo 1: una mujer portadora de hemofilia tiene 3 hijos ¿Cuál es el espacio muestral apropiado para estudiar la posible hemofilia de estos?
Opción a: Cada hijo puede padecer hemofilia (s) o no (n), por tanto
W1={sss, ssn, sns, nss, snn, nsn, nns, nnn}
Donde, por ejemplo, 'sns' significa el primero y el tercero la padecen y el segundo no. Hay que asegurarse que no se olvida ninguno.
En este espacio muestral, el suceso "dos hijos padecen hemofilia" se representa como A1={ssn, sns, nss} y el suceso "los dos primeros no la padecen" como A2={nns, nnn}
Opción b: Pueden padecer hemofilia los tres hijos (3), dos (2), ...
W2={3, 2, 1, 0}
En este espacio muestral, el suceso "dos hijos padecen hemofilia" es A1={2} y el suceso "los dos primeros no la padecen" no se puede representar porque en el espacio muestral no está contemplado el orden.


Definición axiomática de probabilidad

Sea W: espacio muestral, P(W) conjunto de las partes de W, o conjunto de sucesos, o álgebra de sucesos. Se define probabilidad, o función de probabilidad, a cualquier función p: P(W)®Â (es decir, una regla bien definida por la que se asigna a cada suceso un, y un solo un, número real) que cumpla los axiomas siguientes:
i) p(A) ³ 0 " A Î P(W)
ii) p(A1 È A2 È A3 È ...) = p(A1) + p(A2) + p(A3) + ...
si Ai Ç Aj = Æ "i ¹ j (sucesos mutuamente excluyentes)
iii) p(W) = 1
A la estructura (W, P(W), p) se le denomina espacio de probabilidad.

Establecer claramente el espacio de probabilidad será el primer paso imprescindible para estudiar una experiencia aleatoria. Muchas de las dificultades que surgen, en la práctica, en el análisis estadístico de investigaciones clínicas tienen que ver con el establecimiento implícito y defectuoso de este espacio.
Obsérvese que es necesario asignar un número a todos los sucesos, no sólo a los sucesos elementales, pero si se ha asignado la probabilidad a los sucesos elementales, a través de la propiedad ii) se puede asignar a todos los demás.

Ejemplo 1:
Para el experimento aleatorio de tirar un dado, el espacio muestral es = {1, 2, 3, 4, 5, 6}. En este espacio el conjunto de sucesos es P(W) = {Æ, {1}, {2}, ...{1,2}, {1,3}, ...{1,2,3,4,5,6}}.Para establecer una probabilidad hay que asignar un número a todos esos sucesos.
Sin embargo si se ha asignado a los sucesos elementales p({1})= p({2})= ...= p({6})= 1/6, por la propiedad ii), p.e. la probabilidad del suceso {1, 3} es p({1,3})= p({1})+ p({3})=2/6.Nota: El suceso {1} es: "el resultado de tirar el dado es la cara 1", el suceso {1, 3} es: "el resultado de tirar el dado es la cara 1, o la 3", el suceso {1, 3, 5} es: "el resultado de tirar el dado es una cara impar".


Propiedades de la probabilidad
1) p(Ac) = 1 - p(A) Ac representa el suceso complementario de A, es decir el formado por todos los resultados que no están en A.
2) A1Ì A2 Þ p(A1) £ p(A2)
3) p(Æ) = 0
4) p(A) £ 1
5) p(A È B) = p(A) + p(B) - p(A Ç B) (Regla general de la adicción)
Ejemplo 2:Un 15% de los pacientes atendidos en un hospital son hipertensos, un 10% son obesos y un 3% son hipertensos y obesos. ¿Qué probabilidad hay de que elegido un paciente al azar sea obeso o hipertenso?
A = {obeso} B = {hipertenso}
A Ç B = {hipertenso y obeso}
A È B = {obeso o hipertenso}
p(A) = 0,10; p(B) = 0,15; p(A Ç B) = 0,03
p(A È B) = 0,10 + 0,15 - 0,03 = 0,22


Probabilidad condicionada

Como la probabilidad está ligada a nuestra ignorancia sobre los resultados de la experiencia, el hecho de que ocurra un suceso, puede cambiar la probabilidad de los demás. El proceso de realizar la historia clínica, explorar y realizar pruebas complementarias ilustra este principio.La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se denomina probabilidad condicionada y se define
Esta definición es consistente, es decir cumple los axiomas de probabilidad.Cuando ocurre un suceso cambia el espacio muestral, por eso cambia la probabilidad. A veces es más fácil calcular la probabilidad condicionada teniendo en cuenta este cambio de espacio muestral.

Ejemplo 3:
Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la probabilidad de que su próximo hijo tenga la enfermedad?
Según las leyes de Mendel, todos los posibles genotipos de un hijo de una madre portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la misma probabilidad. El espacio muestral es W = {xX, xY, XX, XY} el suceso A={hijo enfermo} corresponde al genotipo xY, por tanto, según la definición clásica de probabilidad p(A) = 1/4 = 0,25
La mujer tiene el hijo y es varón ¿qué probabilidad hay de que tenga la enfermedad?
Se define el suceso B = {ser varón} = {xY, XY} la probabilidad pedida es p(AB) y aplicando la definición anteriorp(B) = 0,5; A Ç B = {xY}; p(A ÇB) = 0,25; p(AB) = 0,25/0,5 = 0,5
Si sabemos que es varón, el espacio muestral ha cambiado, ahora es B. Por lo tanto se puede calcular p(AB) aplicando la definición clásica de probabilidad al nuevo espacio muestral p(AB) = 1/2 = 0,5

Ejemplo 4:Se sabe que el 50% de la población fuma y que el 10% fuma y es hipertensa. ¿Cuál es la probabilidad de que un fumador sea hipertenso?
A = {ser hipertenso} B = {ser fumador} A Ç B = {ser hipertenso y fumador} p(AB) = 0,10/0,50 = 0,20
Obsérvese que los coeficientes falso-positivo y falso-negativo de las pruebas diagnósticas son probabilidades condicionadas.
La fórmula anterior se puede poner p(A Ç B) = p(B) p(AB) = p(A) p(BA) llamada regla de la multiplicación, que se puede generalizar a más sucesos p(A1 Ç A2 Ç A3) = p((A1 Ç A2) Ç A3) = p(A1 Ç A2) p(A3A1 Ç A2) = p(A1) p(A2A1) p(A3A1 Ç A2)

En general p(A1 Ç A2 Ç A3 ...) = p(A1) p(A2A1) p(A3A1 Ç A2) ... llamado principio de las probabilidades compuestas y especialmente útil para aquellas situaciones en que las probabilidades condicionadas son más fáciles de obtener que las probabilidades de las intersecciones.






Ejemplo 5:
Se sabe por estudios previos que el 0,1% de la población tiene problemas vasculares. Un estudio sobre individuos con problemas vasculares revela que el 20% de ellos son placas de ateroma. Si el 10% de los individuos con placas de ateroma están expuestos a muerte súbita por desprendimiento de trombos ¿qué probabilidad tiene un individuo cualquiera de estar expuesto a muerte súbita por desprendimiento de trombos de una placa de ateroma?
A1 = {problemas vasculares}; A2 = {placas de ateroma}; A3 = {expuesto a muerte súbita por ....} p(A1) = 0,001; p(A2A1) = 0,20; p(A3A1 Ç A2) = 0,1 p(A1 Ç A2 Ç A3) = 0,001 x 0,20 x 0,1 = 0,000002

Ejemplo 6:
Una urna contiene 10 bolas, de las cuales 3 son rojas, 5 verdes y 2 azules. Se extraen al azar 3 bolas. Calcular la probabilidad de que la primera sea azul, y las otras dos verdes.
Definimos A1 = {la 1ª bola es azul}; A2 = {la 2ª bola es verde}; A3 = {la 3ª bola es verde} p(A1) = 2/10 aplicando la definición clásica de probabilidad, puesto que hay 10 bolas y 2 son verdes. p(A2A1) = 5/9; si la primera bola extraída es azul, en la urna quedan 9 bolas, 5 de ellas verdes. p(A3A1 Ç A2) = 4/8; si la primera bola extraída es azul y la segunda verde en la urna quedan 8 bolas, 4 de ellas verdes. p(A1 Ç A2 Ç A3) = 2/10 x 5/9 x 4/8 = 1/18

Sucesos independientes
Dos sucesos son independientes si y sólo si p(A Ç B) = p(A) p(B).Si dos sucesos son independientes
y del mismo modo p(BA) = p(B).Esta propiedad coincide más con la idea intuitiva de independencia y algunos textos la dan como definición. Hay que notar, sin embargo, que ambas definiciones no son estrictamente equivalentes.
Ejemplo 7:
Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad ¿son independientes?
Según vimos en el Ejemplo 3 el espacio muestral es W = {xX, xY, XX, XY} Definimos los sucesos A = {varón} = {xY, XY}; B = {enfermo} = {xY} A Ç B = {xY} por lo tanto p(A) = 0,5; p(B) = 0,25; p(A Ç B) = 0,25 ¹ p(A) p(B) NO son independientes.
Regla de la probabilidad total
Se llama partición a conjunto de sucesos Ai tales que A1 È A2 È ... È An = W y Ai Ç Aj = Æ " i ¹ j es decir un conjunto de sucesos mutuamente excluyentes y que cubren todo el espacio muestral
Regla de la probabilidad total: Si un conjunto de sucesos Ai forman una partición del espacio muestral y p(Ai) ¹ 0 " Ai, para cualquier otro suceso B se cumple
Ejemplo 8:
La prevalencia de infarto cardíaco para hipertensos es del 0,3% y para no hipertensos del 0,1%. Si la prevalencia de hipertensión en una cierta población es del 25% ¿Cuál es la prevalencia del infarto en esa población?
A1 = {ser hipertenso} A2 = {no serlo} estos sucesos constituyen una partición B = {padecer infarto} datos: p(BA1) = 0,003; p(BA2) = 0,001; p(A1) = 0,25 evidentemente p(A2) =0,75 por la propiedad 1 p(B) = 0,003x0,25 + 0,001 x 0,75 = 0,0015
Teorema de Bayes
Si los sucesos Ai son una partición y B un suceso tal que p(B) ¹ 0
Aplicaciones
Diagnóstico médico (en general clasificaciones no biunívocas): El diagnóstico consiste en establecer la enfermedad de un paciente, a partir de una serie de síntomas. Pero los síntomas y las enfermedades no están ligados de un modo biunívoco.
Llamemos Ei al conjunto de enfermedades E1: tuberculosis pulmonar; E2 :cáncer de pulmón; E3: bronquitis obstructiva; etc. y Si a los síntomas y síndromes asociados con las mismas. S1: tos; S2: estado febril; S3: hemotisis; etc. La información accesible en los libros de patología, o en un archivo de historias clínicas es del tipo.Para E1: algunos (digamos el 20%) tienen hemotisis; muchos (80%) tienen tos; etc. y lo mismo para las demás enfermedades.
En términos de probabilidad condicionada, esta información es p(S3E1) = 0,2; p(S1E1) = 0,8 etc. para diagnosticar la tuberculosis se ha de evaluar, para los síntomas que presenta el paciente p(E1Si) para lo que se puede usar el teorema de Bayes si las enfermedades forman una partición (son mutuamente excluyentes y se consideran todas las enfermedades compatibles con el síntoma) y se conocen sus prevalencias.Nótese que un mismo conjunto de síntomas podría dar lugar a un diagnóstico diferente en poblaciones en las que las prevalencias fueran diferentes.
Pruebas diagnósticas: Supóngase una prueba diagnóstica, por ejemplo nivel de glucosa en sangre, en ayunas, para diagnosticar la diabetes. Se considera que la prueba es positiva si se encuentra un nivel por encima de un cierto valor, digamos 120 mg/l.
Para evaluar la prueba, (habrá que hacerlo para distintos valores de corte) se somete a la misma a una serie de individuos diabéticos diagnosticados por otro procedimiento (el patrón de oro o "gold standar") y a una serie de individuos no diabéticos. Los resultados se pueden representar en una tabla de doble entrada


Patrón de oro



NE
E

Prueba
-
a
b
r
+
c
d
s


t
u

Si la prueba fuera perfecta b=c=0, desgraciadamente nunca ocurre. Se denomina coeficiente falso-positivo (CFP) al cociente c/t, y es una estimación de la probabilidad condicionada p(+NE), se denomina coeficiente falso-negativo (CFN) al cociente b/u, y es una estimación de la probabilidad condicionada p(-E). Estos dos coeficientes cuantifican los dos errores que la prueba puede cometer y caracterizan a la misma. Simétricamente, los coeficientes que cuantifican los aciertos son la sensibilidad, p(+E), y la especificidad p(-NE).
Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa calcular p(E+) y/o p(NE-). Como E y NE son una partición, usando el Teorema de Bayes
y
Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba diagnóstica que funciona muy bien en la clínica Mayo, puede ser inútil en el Hospital Ramón y Cajal.
Ejemplo 9:una prueba diagnóstica para la diabetes tiene un CFP de 4% y un CFN del 5%. Si la prevalencia de la diabetes en la población donde se usa es del 7% ¿cuál es la probabilidad de que sea diabético un individuo en el que la prueba dé positiva? y ¿de que no lo sea uno en el que dé negativo?
p(+NE) = 0,04 Þ p(-NE) = 0,96 p(-E) = 0,05 Þ p(+E) = 0,95 p(E) = 0,07 Þ p(NE) = 0,93
y
Pruebas en serie: Cuando se aplican pruebas en serie, para cada prueba p(E) y p(NE), serán la p(E+) y p(NE+) de la prueba anterior (si dio positiva) o p(E-) y p(NE-) si dio negativa.
Problemas de probabilidad resueltos:
1º Una mujer es hija de una portadora de la enfermedad de Duchenne. Dicha mujer tiene tres hijos varones sin la enfermedad. Calcular la probabilidad de que ella sea portadora de la enfermedad.
Solución
Si representamos por x el gen alterado y por X el gen normal, el espacio muestral para el nacimiento de la mujer W ={xX, XX}, cada suceso elemental con la misma probabilidad (1ª ley de Mendel). Por tanto, si A = {xX} = {la mujer es portadora}, según la definición clásica de probabilidad p(A) = 1/2.Si la mujer fuera portadora, los posibles genotipos para sus hijos son xX, xY, XX, XY, todos con la misma probabilidad. El espacio muestral para el nacimiento de un hijo varón es W ={xY, XY}, por tanto la probabilidad de que un hijo varón no tenga la enfermedad es 1/2 (también según la definición clásica). Cómo los genotipos de los sucesivos hijos son independientes (2ª ley de Mendel), y de acuerdo a la definición de independencia, la probabilidad de que los 3 hijos varones no tengan la enfermedad es (1/2)x(1/2)x(1/2) = 1/8. Obviamente si la mujer no fuera portadora, la probabilidad de que los 3 hijos varones no tengan la enfermedad es 1. Como el suceso A = {la mujer es portadora} y su complementario Ac = {la mujer no es portadora} forman una partición, se puede aplicar el teorema de Bayes en relación con el suceso B = {los 3 hijos varones no tienen la enfermedad}
Una prueba diagnóstica para el cáncer uterino tiene un coeficiente falso-positivo de 0,05 y falso-negativo de 0,10. Una mujer con una probabilidad pre-prueba de padecer la enfermedad de 0,15 tiene un resultado negativo con la misma. Calcular la probabilidad de que no esté enferma.
Solución
Sea NE = {la mujer no está enferma}, + = {el resultado de la prueba es positivo} y - = {el resultado de la prueba es negativo}. La pregunta pide p(NE-). Los datos que se dan son p(+NE)=0,05; p(-E)=0,10 y p(E)=0,15. Del primero se deduce que p(-NE)=0,95 y del último p(NE)=0,85, por lo tanto aplicando el teorema de Bayes

http://www.hrc.es/bioest/Probabilidad_1.html