Prueba de hipótesis

Las pruebas de hipótesis están estrechamente relacionadas al problema de estimación.

Estimación por intervalos

Supongamos que la variable aleatoria de interes sigue la función de densidad (masa) de probabilidad f(x,θ), pero desconocemos el parámetro θ.

Es importante observar que partimos de una suposición y él como se llega a esa suposición es un proceso que no está bien formalizado.

Entonces lo que queremos es tener un conjunto de valores al que θ pertenece con cierto grado certeza.

Sea X1,,Xn una muestra aleatoria. Si T=T(X1,,Xn), puede ser visto de dos maneras: T como una variable aleatoria, y T es una función de la muestra aleatoria. Además denotemos por t un valor de T.

Definición. Sean τ(θ) una función real θ, α(0,1) , X1,,Xn una muestra aleatoria de una función de densidad f(;θ), T1=T1(X1,,Xn) y T2=T2(X1,,Xn) dos estadísticas tales que T1T2 y P(T1<τ(θ)<T2)=1α. Un valor de (t1,t2) del intervalo aleatorio (T1,T2) o el intervalo aleatorio mismo (T1,T2) es llamado un intervalo de confianza para τ(θ).

Notemos que τ bien puede ser τ(θ)=θ.

A 1α se le llama grado o coeficiente de confianza y es común tomar α=0.05.

Método pivotal

Definición. Sea X1,,Xn una muestra aleatoria de f(;θ). Sea Q=Q(X1,,Xn;θ), es decir Q es una función de X1,,Xn y θ. Si Q tiene una distribución que no depende de θ, entonces Q es una cantidad pivotal .

Método pivotal. Si Q=Q(X1,,Xn;θ) es una cantidad pivotal, entonces para cualquier valor fijo 0<α<1 existe q1 y q2 que dependen de α tales que P(q1<Q<q2)=α. Ahora, si para cada posible valor de la muestra (x1,,xn), q1<Q(x1,,xn;θ)<q2T1(x1,,xn)<τ(θ)<T2(x1,,xn) para funciones T1 y T2 que no dependen de θ, entonces (T1,T2) es un intervalo de confianza para τ(θ), donde Ti=Ti(X1,,Xn), i=1,2.

Los dos pasos en este método son:

1. Encontrar una cantidad pivotal.

2. Invertirla.

Observaciones:

- Como Q es una función de X1,,Xn y θ, entonces podemos pasar de las desigualdades q1<Q<q2 a T1<τ(θ)<T2, "despejando".

- En la práctica tomamos un estimador puntual τ para θ para encontrar la cantidad pivotal. Y nos fijamos en su distribución, si esta depende de θ, debemos pensar en hacer alguna trasformación o modificar la función.

- Por ejemplo podemos usar la expresión que nos da el Teorema del límite central, para estimar un intervalo de confianza para la media o fijarnos en estimadores puntuales para los cuales se conocemos su distribución.

¿Para cualquier problema existe una cantidad pivotal?

Proposición. Si X1,,Xn es una muestra aleatoria de f(;θ), para la cual la función de distribución acumulada F(x;θ) es continua en x, entonces i=1nF(Xi;θ) o i=1nlogF(Xi;θ), es una cantidad pivotal. Es más, si F(x;θ) también monótona en θ para cada x1,,xn, entonces se puede encontrar un intervalo de confianza para θ.

Ejemplo

Sean X1,,Xn una muestra aleatoria de una distribución normal con varianza 1 y media θ desconocida.

Consideremos estimar τ(θ)=θ. Resulta que Q=Q(X1,,Xn;θ)=(Xθ)1/n tiene una distribución normal estandar, y entonces es una cantidad pivotal.

Para un α dado existen q1 y q2 tales que {q1<(xθ)1/n<q2} si y sólo si {xq21/n<θ<xq11/n}, así (Xq21/n,Xq11/n) es un intervalo de confianza para θ con coeficiente 1α.

Para minimizar la longitud del intervalo se debe tener q1=q2.

Así con una tabla de la distribución o usando programación podemos encontrar q1 y q2.

Algunas definiciones

En la investigación experimental, el objetivo es algunas veces meramente la estimación de paramétros. Por ejemplo comparar la media de una característica de un producto que se ha producido por dos procesos diferentes: un proceso A y proceso B, entonces en base a los datos queremos saber que media es mayor. Se conoce la media del proceso A digamos μ0. Tradicionalmente consideramos la hipótesis que la media del proceso B es mayor o menor que μ0, entonces en base a una muestra de la población del proceso B veremos si aceptamos o rechazamos la hipótesis.

Definición. Una hipótesis estadística es una afirmación o conjetura sobre la distribución de una o más variables aleatorias. Si la hipótesis estadística determina completamente la distribución, entonces se llama simple, sino se llama compuesta. Y la denotamos por H.

Definición. Una prueba de hipótesis estadística es una regla o procedimiento para decidir si rechazar la hipótesis. Y la denotamos por Y.

Definición. Sea Y una prueba de una hipótesis H. Y se dice no aleatoria si rechazamos H si y sólo si (x1,,xn)CY, donde CY es un subconjunto del espacio muestral, y CY es llamada la región critica de la prueba Y.

En la mayoría de problemas dos hipótesis son discutidas. Una es llamada hipótesis nula, denotada por H0. Y a la segunda hipótesis se llamada hipótesis alternativa, denotada por H1.

Se piensa que si una de ellas es falsa la otra es verdadera.

Tipos de errores H0 cierta H0 falsa
Rechazar H0 Error tipo I
No rechazar H0 Error tipo II

Tamaño de error. α=P(Error tipo I)=P(Rechazar H0|H0 es verdadera), β=P(Error tipo II)=P(No rechazar H0|H0 es falsa).

Definición. Sea Y una prueba de de la hipótesis H0. La función de potencia de la prueba Y, es denotada por πY(θ) es la probabilidad de rechazar H0 cuando la distribución de la muestra es parametrizada por θ.

Definición. Sea Y una prueba de de la hipótesis H0:θΘ0, donde Θ0Θ, es decir, Θ0 es un subconjunto del espacio parametral Θ. El tamaño de la prueba Y de H0 es definida por supθΘ0[πY(θ)]. El tamaño de prueba para una prueba no aleatorizada es también referida como el tamaño de la región crítica.

Existen dos problemas como en estimación:

1. Un método para encontrar una prueba.

2. Tener un criterio para comparar pruebas.