Capítulo 11 Pruebas de una muestra
11.1 Introducción a los contrastes de una muestra.
Este tema y el siguiente pueden ser considerados una plasmación práctica de los conceptos teóricos vistos en el capítulo anterior aplicados a los modelos probabilísticos más frecuentemente utilizados en la práctica estadística: el modelo normal y el modelo binomial. Presentamos en este capítulo algunos de los contrastes paramétricos más habituales que se utilizan para verificar si el valor poblacional supuesto a determinado parámetro de la distribución de probabilidad de una variable aleatoria es compatible con la información suministrada por una muestra aleatoria simple de dicha variable. En el siguiente capítulo trataremos el tema de la comparación de los valores de los parámetros entre dos poblaciones.
El término paramétrico aplicado a los contrastes hace referencia a la suposición previa de una distribución paramétrica de referencia para la variable aleatoria, distribución que viene caracterizada por el valor de sus parámetros, objeto de verificación a través de los contrastes propuestos.
Es evidente la relación existente entre la verificación a través de un contraste de hipótesis de la aceptación de un valor poblacional con los métodos de estimación de parámetros vistos en los capítulos 7 y 8 . Sobre todo existe una relación estrecha entre los contrastes de hipótesis paramétricos y la estimación por intervalos de confianza, tal y como se ha comentado en un apartado anterior.
11.1.1 Esquema de los contrastes presentados
El tema se distribuye en dos grandes bloques:
- Contrastes sobre los parámetros de una distribución Normal
- Contrastes sobre una proporción
11.1.2 Contrastes sobre los parámetros de una distribución Normal
En este apartado se estudian los contrastes sobre la media y la varianza de una distribución Normal.
- Premisas: en estos contrastes se supone que la variable aleatoria objeto de estudio sigue una distribución Normal. En el primer contraste presentado también se supone conocida la varianza de la distribución.
- Contrastes presentados:
- Sobre la media supuesta conocida la varianza
- Sobre la media con la varianza desconocida
- Sobre la varianza de la distribución
11.1.3 Contrastes sobre una proporción
- Premisas: se supone una distribución Binomial para la variable aleatoria. El parámetro p es desconocido y es sobre el que se efectúa la inferencia. Presentamos la resolución aproximada basada en la aproximación a la distribución Normal, por tanto se deben verificar las condiciones que hacen válida dicha aproximación:
\[ n \geq 30 \quad n p_{0} \geq 5 \quad n\left(1-p_{0}\right) \geq 5 \]
- Contraste presentado:
- Contraste para la proporción
11.1.4 Esquema general de los contrastes presentados
Para la mayoría de contrastes presentados el esquema seguido en su presentación es idéntico
- Presentación del contraste con una introducción y las premisas necesarias para el mismo.
- Resolución del contraste con las 3 etapas principales: Formulación de las hipótesis nula y alternativa, cálculo del estadístico experimental, criterio de decisión.
- Resolución del contraste a través de intervalos de confianza.
- Cálculo del tamaño muestral necesario para realizar el contraste bajo los requerimientos deseados de potencia y nivel de significación.
11.1.5 Contrastes paramétricos frente a no paramétricos
Un término importante a considerar en la metodología estadística es el de robustez. Una técnica estadística es robusta si se comporta bien cuando las suposiciones bajo las que se ha construido son vulneradas de alguna forma. Por ejemplo cuando una variable aleatoria es no Normal, pero el tamaño de la muestra es suficientemente grande, el Teorema Central del Límite garantiza que la media aritmética se distribuye aproximadamente como una Normal y el contraste sobre la media que presentamos, el T-test, es aproximadamente válido en el sentido de que el nivel de significación nominal es aproximadamente el mismo que el nivel de significación real bajo la hipótesis nula.
En caso de infringirse de modo más drástico las suposiciones del modelo, es necesario utilizar contrastes que superen dichas vulneraciones recurriendo a los contrastes no paramétricos o contrastes de libre distribución que quedan fuera del contenido del presente texto. Hay que destacar sin embargo, que la utilización de contrastes no paramétricos debe ser mesurada y restringida a casos estrictamente necesarios porque generalmente el comportamiento de dichos contrastes en términos de potencia estadística es peor que la de los contrastes paramétricos si se cumplen las condiciones requeridas por éstos.
11.2 Contraste de hipótesis para la media de una distribución Normal con varianza conocida: \(Z\)-test.
11.2.1 Introducción
Este primer contraste estadístico tiene más interés académico que práctico, ya que es poco frecuente en experimentación conocer uno de los parámetros poblacionales del modelo.
Información previa (premisas) La situación es la siguiente: se observa una variable \(X\) sobre una población de estudio y se asume que la distribución de \(X\) es
\[ X \approx N(\mu, \sigma) \]
donde \(\boldsymbol{\sigma}\) es conocida. Se desea comparar la media de la población \(\mu\) (desconocida) con cierto valor \(\mu_{0}\), fijado previamente, mediante la obtención de una muestra de tamaño \(n\).
11.2.2 Resolución del contraste para la media de una distribución Normal con varianza conocida.
Los pasos a seguir para resolver el contraste son:
- Establecer la hipótesis nula \(\left(H_{0}\right)\) y la alternativa \(\left(H_{1}\right)\), de acuerdo con una de las tres posibilidades siguientes:
- Contraste bilateral o de dos colas: corresponde a plantear en la alternativa que la media es diferente a un cierto valor prefijado \(\mu_{0}\), sin concretar si es mayor o menor.
\[ \mathrm{H}_{0}: \mu=\mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu \neq \mu_{0} \]
- Contraste unilateral izquierdo: corresponde a plantear en la alternativa que la media es inferior a un cierto valor prefijado \(\mu_{0}\).
\[ \mathrm{H}_{0}: \mu \geq \mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu<\mu_{0} \]
- Contraste unilateral derecho: corresponde a plantear en la alternativa que la media es mayor que un cierto valor prefijado \(\mu_{0}\).
\[ \mathrm{H}_{0}: \mu \leq \mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu>\mu_{0} \]
- Cálculo del estadístico experimental
En el caso que nos ocupa, no ha de sorprender que el estadístico que corresponde al test óptimo esté relacionado con la media muestral. Bajo \(\mathrm{H}_{0}\), la variable observada y su promedio siguen la distribución siguiente:
\[ \mathrm{H}_{0} \text { cierta } \Rightarrow X \approx N\left(\mu_{0}, \sigma\right) \Rightarrow \bar{X} \approx N\left(\mu_{0}, \frac{\sigma}{\sqrt{n}}\right) \]
Si es cierta la hipótesis nula, el estadístico experimental \(z_{\text {exp }}\) que debe utilizarse sigue la distribución siguiente:
\[ Z_{\exp }=\frac{\bar{X}-\mu_{0}}{\sigma / \sqrt{n}} \approx \mathrm{~N}(0,1) \]
- Criterio de decisión
- Contraste bilateral o de dos colas: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ \left|Z_{\exp }\right| \geq z_{\alpha / 2} \]
- Contraste unilateral a la izquierda: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ Z_{\exp } \leq-z_{\alpha} \]
- Contraste unilateral a la derecha: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ Z_{\exp } \geq z_{\alpha} \]
Nota: \(z_{\alpha / 2}\) y \(z_{\alpha}\) son los valores críticos asociados a la \(\operatorname{Normal}(0,1)\) tales que:
\[ \operatorname{prob}\left(Z>z_{\alpha / 2}\right)=\alpha / 2 \]
\[ \operatorname{prob}\left(Z>z_{\alpha}\right)=\alpha \]
11.2.3 Intervalo de confianza para la media de una distribución Normal con varianza conocida.
Los límites para el intervalo de confianza para la media (para más detalles, véase el tema 8) son los que ya hemos presentado anteriormente:
\[ \bar{X}-z_{\alpha / 2} \frac{\sigma}{\sqrt{n}} \leq \mu \leq \bar{X}+z_{\alpha / 2} \frac{\sigma}{\sqrt{n}} \]
donde el símbolo \(z_{\alpha / 2}\) es el valor crítico tal que:
\[ \operatorname{prob}\left(Z>z_{\alpha / 2}\right)=\alpha / 2 \]
y que corresponde a un intervalo de confianza \(1-\alpha \%\). Este intervalo puede utilizarse de manera alternativa al contraste de hipótesis con nivel de significación \(\alpha \%\). Se decide aceptar \(\mathrm{H}_{0}\) si el valor que asume la hipótesis nula queda incluido en el intervalo.
Aún realizando el contraste en primer lugar, es aconsejable obtener el intervalo de confianza, puesto que ayuda a interpretar si existe significación aplicada además de la estadística.
Si se dispone de alguna información previa que sugiera el cálculo de sólo alguno de los dos intervalos unilaterales, bastará sustituir \(\mathrm{z}_{\alpha / 2}\) por \(\mathrm{z}_{\alpha}\) y descartar el límite superior o inferior del intervalo según el caso.
La decisión tomada en relación con estos intervalos es totalmente equivalente a las decisiones tomadas en relación con el contraste \(Z\)-test en sus respectivas alternativas unilaterales.
11.2.4 Cálculo del tamaño muestral para la media de una distribución Normal con varianza conocida.
Supongamos que se desea realizar el contraste bilateral:
\[ \mathrm{H}_{0}: \mu=\mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu \neq \mu_{0} \]
Una vez el experimentador ha elegido el nivel de significación ( \(\alpha\) ) y la mínima diferencia significativa \((\Delta)\) asociada al punto de interés \(\mu_{0} \pm \Delta\), donde se desea que la potencia sea igual a \(\beta\), puede ya determinarse el tamaño de muestra adecuado que es:
\[ \mathbf{n}=\left[\frac{\mathrm{z}_{\alpha / 2}+\mathrm{z}_{1-\beta}}{\Delta}\right]^{2} \sigma^{2} \]
Las constantes \(z_{\alpha / 2}\) y \(z_{1-\beta}\) corresponden a las siguientes colas derechas de una distribución Normal \(\mathrm{N}(0\), 1):
\[ p\left(Z \geq z_{\alpha / 2}\right)=\alpha / 2 \quad p\left(Z \geq z_{1-\beta}\right)=1-\beta \]
Si el contraste es unilateral, basta cambiar en la expresión del tamaño de muestra \(z_{\alpha / 2}\) por \(z_{\alpha}\).
11.3 Contraste de hipótesis para la media de una distribución Normal con varianza desconocida: \(T\)-test.
11.3.1 Introducción
Este contraste es mucho más utilizado en experimentación que el anterior, ya que en la práctica rara vez se conoce alguno de los parámetros poblacionales del modelo.
Información previa (premisas) Ahora se observa una variable \(X\) sobre una población de estudio y se asume que la distribución de \(X\) es:
\[ X \approx N(\mu, \sigma) \]
donde \(\boldsymbol{\sigma}\) es desconocida, es decir, no se conoce ningún parámetro de la distribución. Se desea comparar la media de la población \(\mu\) (desconocida) con cierto valor \(\mu_{0}\) fijado previamente, mediante la obtención de una muestra de tamaño \(n\).
11.3.2 Resolución del contraste para la media de una distribución Normal con varianza desconocida.
Los pasos a seguir para resolver el contraste son:
- Establecer la Hipótesis nula \(\left(H_{0}\right)\) y la alternativa \(\left(H_{1}\right)\), de acuerdo a una de las tres posibilidades siguientes:
\[ \mathrm{H}_{0}: \mu=\mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu \neq \mu_{0} \]
o bien
\[ \mathrm{H}_{0}: \mu \geq \mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu<\mu_{0} \]
o bien
\[ \mathrm{H}_{0}: \mu \leq \mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu>\mu_{0} \]
- Cálculo del estadístico experimental
Bajo \(\mathrm{H}_{0}\), el estadístico de test sigue una distribución \(t\) de Student con \(n-1\) grados de libertad
\[ \mathrm{T}_{\text {exp }}=\frac{\bar{X}-\mu_{0}}{\hat{S} / \sqrt{n}} \approx t_{n-1} \]
- Criterio de decisión
- Contraste bilateral o de dos colas: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ \left|T_{\exp }\right| \geq t_{\alpha / 2} \]
- Contraste unilateral a la izquierda: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ T_{\exp } \leq-t_{\alpha} \]
- Contraste unilateral a la derecha: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ T_{\mathrm{exp}} \geq t_{\alpha} \]
Nota: \(t_{\alpha / 2}\) y \(t_{\alpha}\) son los valores críticos asociados a una variable \(T\) con distribución \(t\) de Student con \(\boldsymbol{n}-\mathbf{1}\) grados de libertad tales que:
\[ \operatorname{prob}\left(T>t_{\alpha / 2}\right)=\alpha / 2 \quad \operatorname{prob}\left(T>t_{\alpha}\right)=\alpha \]
11.3.3 Intervalo de confianza para la media de una distribución Normal con varianza desconocida.
El intervalo de confianza para la media con varianza desconocida ya ha sido presentado (véase el tema 8). Si \(t_{\alpha / 2}\) indica el valor crítico tal que prob \(\left(T>\mathrm{t}_{\alpha / 2}\right)=\alpha / 2\), donde \(T\) es una variable con distribución \(t\) de Student con \(n-1\) grados de libertad, el intervalo con coeficiente de confianza \(1-\alpha \%\) es:
\[ \bar{X}-t_{\alpha / 2} \frac{\hat{S}}{\sqrt{n}} \leq \mu \leq \bar{X}+t_{\alpha / 2} \frac{\hat{S}}{\sqrt{n}} \]
Este intervalo puede utilizarse de manera alternativa al contraste de hipótesis con nivel de significación \(\alpha \%\). Se decide aceptar \(\mathrm{H}_{0}\) si el valor que asume la hipótesis nula queda incluido en el intervalo.
Ya se ha recordado antes que es aconsejable obtener el intervalo de confianza para interpretar si existe significación aplicada.
Si se dispone de alguna información previa que sugiera el cálculo de uno de los dos intervalos unilaterales, bastará sustituir \(t_{\alpha / 2}\) por \(t_{\alpha} \mathrm{y}\) descartar el límite superior o inferior del intervalo según el caso.
La decisión tomada en relación con estos intervalos es totalmente equivalente a las decisiones tomadas con el contraste \(t\) de Student en sus alternativas unilaterales respectivas.
11.3.4 Cálculo del tamaño muestral para la media de una distribución Normal con varianza desconocida.
Supongamos que se desea hacer el contraste bilateral:
\[ \mathrm{H}_{0}: \mu=\mu_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu \neq \mu_{0} \]
Una vez el experimentador ha elegido el nivel de significación ( \(\alpha\) ), la mínima diferencia significativa \((\Delta)\) y la potencia \((\beta)\), debe obtenerse una prueba piloto donde se estima la varianza. Luego puede ya determinarse el tamaño muestral adecuado, que es:
\[ \mathbf{n}=\left[\frac{\mathbf{t}_{\alpha / 2}+\mathbf{t}_{1-\beta}}{\Delta}\right]^{2} \hat{\mathrm{~S}}^{2} \]
Las constantes \(t_{\alpha / 2}\) y \(t_{1-\beta}\) corresponden a los valores siguientes asociados con una distribución \(t\) de Student con grados de libertad igual al tamaño de la muestra piloto menos 1 :
\[ p\left(T \geq t_{\alpha / 2}\right)=\alpha / 2 \quad p\left(T \geq t_{1-\beta}\right)=1-\beta \]
Si el contraste es unilateral, basta cambiar en la expresión del tamaño de muestra \(t_{\alpha / 2}\) por \(t_{\alpha}\). Si el tamaño muestral obtenido es mayor que el de la muestra piloto, es necesario obtener una segunda muestra. Si al volver a calcular el contraste con la segunda muestra se sigue aceptando \(\mathrm{H}_{0}\), debe evaluarse nuevamente el tamaño de muestra con la varianza muestral resultante de la segunda muestra.
11.4 Contraste de hipótesis para la varianza de una distribución Normal.
11.4.1 Introducción
Este test permite contrastar hipótesis acerca de la varianza poblacional, es decir, del parámetro del modelo que mide la variabilidad en la población.
Cabe destacar que la distribución de referencia en este contraste es la distribución Ji-cuadrado ( \(\chi^{2}\) ).
11.4.2 Información previa (premisas)
Así pues, se observa una variable \(X\) sobre una población de estudio, y se asume que la distribución de \(X\) es:
\[ X \approx N(\mu, \sigma) \]
donde no se conoce ningún parámetro de la distribución. Se desea comparar \(\sigma\) con cierto valor \(\sigma_{0}\) fijado previamente.
11.4.3 Resolución del contraste para la varianza de una distribución Normal.
Los pasos a seguir para resolver el contraste son:
- Establecer la hipótesis nula ( \(H_{0}\) ) y la alternativa ( \(H_{1}\) ), de acuerdo a una de las tres posibilidades siguientes:
\[ \mathrm{H}_{0}: \sigma=\sigma_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \sigma \neq \sigma_{0} \]
o bien
\[ \mathrm{H}_{0}: \sigma \geq \sigma_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \sigma<\sigma_{0} \]
o bien
\[ \mathrm{H}_{0}: \sigma \leq \sigma_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \sigma>\sigma_{0} \]
- Calcular el estadístico experimental
El estadístico de test está basado en el estimador insesgado de la varianza. \(\mathrm{Si}_{0}\) es cierta se verifica:
\[ \mathrm{H}_{0} \text { cierta } \Rightarrow \chi_{\exp }^{2}=(\mathbf{n}-1) \frac{\hat{\mathrm{S}}^{2}}{\sigma_{0}^{2}} \approx \chi_{\mathrm{n}-1}^{2} \]
- Criterio de decisión
- Contraste bilateral o de 2 colas: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ \chi^{2} \exp \leq \chi_{1-\alpha / 2}^{2} \text { o bien } \chi_{\exp }^{2} \geq \chi_{\alpha / 2}^{2} \]
- Contraste unilateral a la izquierda: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ \chi^{2} \exp \leq \chi^{2}{ }_{1-\alpha} \]
- Contraste unilateral a la derecha: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ \chi^{2} \exp \geq \chi^{2}{ }_{\alpha} \]
Nota: \(\chi^{2}{ }_{\alpha / 2}\) y \(\chi^{2}{ }_{1-\alpha / 2}\) son los valores críticos asociados a una variable \(\chi^{2}\) con distribución Ji al cuadrado \(\operatorname{con} n-1\) grados de libertad tales que:
\[ \operatorname{prob}\left(\chi^{2}>\chi_{\alpha / 2}^{2}\right)=\alpha / 2 \]
\[ \operatorname{prob}\left(\chi^{2}<\chi^{2}{ }_{1-\alpha / 2}\right)=\alpha / 2 \]
11.4.4 Intervalo de confianza para la varianza de una distribución Normal.
Los límites para el intervalo de confianza para la varianza ya se han presentado en el tema 8 y la distribución de referencia es la distribución de Ji al cuadrado.
Si \(\chi^{2}{ }_{\alpha / 2}\) es el valor crítico correspondiente a una distribución de Ji al cuadrado con \(n-1\) grados de libertad que deja a su derecha una probabilidad igual a \(\alpha / 2, \chi^{2}{ }_{1-\alpha / 2}\) y el valor crítico para la misma distribución de Ji al cuadrado que deja a su izquierda una probabilidad \(\alpha / 2\), el intervalo es:
\[ \frac{(n-1) \hat{S}^{2}}{\chi_{\alpha / 2}^{2}} \leq \sigma^{2} \leq \frac{(n-1) \hat{S}^{2}}{\chi_{1-\alpha / 2}^{2}} \]
Este intervalo puede utilizarse de manera alternativa al contraste de hipótesis (con nivel de significación \(\alpha \%)\). Se decide aceptar \(\mathrm{H}_{0}\) si el valor que asume la hipótesis nula queda incluido en el intervalo.
Si se dispone de alguna información previa que sugiera el cálculo de sólo uno de los intervalos unilaterales, bastará sustituir \(\chi^{2}{ }_{\alpha / 2}\) o \(\chi^{2}{ }_{1-\alpha / 2}\) por \(\chi^{2}{ }_{\alpha}\) o \(\chi^{2}{ }_{1-\alpha}\) y descartar el límite superior o inferior del intervalo según el caso.
La decisión tomada en relación con estos intervalos es totalmente equivalente a las decisiones tomadas en relación con el contraste de Ji al cuadrado en las alternativas unilaterales respectivas.
11.5 Contraste de hipótesis para la proporción.
11.5.1 Introducción:
Este contraste estadístico se emplea en los estudios en los que la variable observada en cada individuo de la población es dicotómica, es decir, identifica sólo dos tipos de sucesos: éxito (motivo de estudio) y fracaso.
11.5.2 Información previa (premisas)
Supongamos que se dispone de \(n\) observaciones independientes, cada una de las cuales sigue una distribución de Bernoulli de parámetro \(p\) :
\[ \mathrm{X}_{1}, \ldots \mathrm{X}_{\mathrm{n}} \quad \mathrm{X}_{\mathrm{i}} \approx \operatorname{Bernoulli}(\mathrm{p}) \]
La variable de estudio \(X\) es la suma de las \(n\) observaciones, definida también como el número de éxitos obtenidos en una muestra de tamaño \(n\). \(X\) es una variable aleatoria de distribución Binomial:
\[ \mathrm{X}=\sum_{\mathrm{i}=1}^{\mathrm{n}} \mathrm{X}_{\mathrm{i}} \approx \mathrm{~B}(\mathrm{n}, \mathrm{p}) \]
y se quiere comparar el parámetro \(\boldsymbol{p}\) (desconocido) con valor \(p_{0}\) fijado a priori. La frecuencia relativa (estimador del verdadero parámetro \(p\) a partir de la muestra) es
\[ \hat{\mathrm{P}}=\frac{\mathrm{X}}{\mathrm{n}} \]
11.5.3 Resolución del contraste para la proporción.
La resolución del contraste sigue los pasos siguientes:
- Establecer la hipótesis nula ( \(H_{0}\) ) y la alternativa ( \(H_{1}\) ), como ya es habitual tenemos las tres posibilidades siguientes:
\[ \mathrm{H}_{0}: p=p_{0} \quad \text { contra } \quad \mathrm{H}_{1}: p \neq p_{0} \]
o bien
\[ \mathrm{H}_{0}: p \geq p_{0} \quad \text { contra } \quad \mathrm{H}_{1}: p<p_{0} \]
o bien
\[ \mathrm{H}_{0}: p \leq p_{0} \quad \text { contra } \quad \mathrm{H}_{1}: p>p_{0} \]
- Cálculo del estadístico experimental
El teorema central del límite permite aproximar una variable binomial para valores de tamaño \(n\) y para sucesos con probabilidad no extrema (menor que 0,1 o mayor que 0,9 ).
De ahí que si se supone cierta la hipótesis \(\mathrm{H}_{0}\) y se cumplen estas tres condiciones:
\[ n \geq 30 \quad n p_{0} \geq 5 \quad n\left(1-p_{0}\right) \geq 5 \]
entonces el estadístico siguiente sigue una distribución asintóticamente Normal
\[ Z_{\exp }=\frac{\hat{p}-p_{0}}{\sqrt{\frac{p_{0}\left(1-p_{0}\right)}{n}}} \approx N(0,1) \]
- Criterio de decisión
- Contraste bilateral o de dos colas: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ \left|Z_{\exp }\right| \geq z_{\alpha / 2} \]
- Contraste unilateral a la izquierda: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ Z_{\exp } \leq-z_{\alpha} \]
- Contraste unilateral a la derecha: rechazamos la hipótesis nula \(\mathbf{H}_{\mathbf{0}}\) si:
\[ Z_{\exp } \geq z_{\alpha} \]
Nota: \(z_{\alpha / 2}\) y \(z_{\alpha}\) son los valores críticos asociados con la distribución Normal \((0,1)\) tales que:
\[ \operatorname{prob}\left(Z>z_{\alpha / 2}\right)=\alpha / 2 \quad \operatorname{prob}\left(Z>z_{\alpha}\right)=\alpha \]
11.5.4 Intervalo de confianza para la proporción.
El intervalo de confianza para la proporción que hemos considerado es parecido al del capítulo 8, pero sin la corrección de continuidad.
El intervalo de confianza \(1-\alpha \%\) para \(p\) queda definido por:
\[ \hat{p} \pm z_{\alpha / 2} \sqrt{\frac{\hat{p}(1-\hat{p})}{n}} \]
y , como es habitual, \(z_{\alpha / 2}\) es el valor crítico asociado con una \(\operatorname{Normal}(0,1)\) tal que:
\[ \operatorname{prob}\left(Z>z_{\alpha / 2}\right)=\alpha / 2 \]
Este intervalo puede utilizarse de manera alternativa al contraste de hipótesis con nivel de significación \(\alpha \%\). Se decide aceptar \(\mathrm{H}_{0}\) si el valor que asume en la hipótesis nula queda incluido en el intervalo.
Si sólo se desea calcular alguno de los dos intervalos unilaterales, bastará sustituir \(z_{\alpha / 2}\) por \(z_{\alpha}\) y descartar el límite superior o inferior del intervalo según el caso.
11.5.5 Cálculo del tamaño muestral para la proporción.
Supongamos que se quiere calcular el contraste bilateral:
\[ \mathrm{H}_{0}: \mathrm{p}=\mathrm{p}_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mathrm{p} \neq \mathrm{p}_{0} \]
Una vez el experimentador ha elegido el nivel de significación ( \(\alpha\) ), la mínima diferencia significativa \((\Delta)\) y la potencia ( \(\beta\) ), puede ya determinarse el tamaño muestral adecuado, sin necesidad de obtener una prueba piloto, con la fórmula siguiente:
\[ \mathbf{n}=\left[\frac{z_{\alpha / 2} \sqrt{p_{0}\left(1-p_{0}\right)}+z_{1-\beta} \sqrt{p_{1}\left(1-p_{1}\right)}}{\Delta}\right]^{2} \]
La proporción \(p_{1}\) corresponde a
\[ \text { si } p_{0} \leq 0,5 \text { entonces } p_{1}=p_{0}+\Delta \quad \text { si } p_{0}>0,5 \text { entonces } p_{1}=p_{0}-\Delta \]
Las constantes \(z_{\alpha / 2}\) y \(z_{1-\beta}\) corresponden a las siguientes colas derechas de la variable aleatoria Normal \((0,1)\) :
\[ p\left(Z \geq z_{\alpha / 2}\right)=\alpha / 2 \quad p\left(Z \geq z_{1-\beta}\right)=1-\beta \]
Si el contraste es unilateral, basta cambiar en la expresión del tamaño de muestra \(z_{\alpha / 2}\) por \(z_{\alpha}\), y la proporción \(p_{1}\) es entonces:
\[ \text { unilateral derecho: } \mathrm{p}_{1}=\mathrm{p}_{0}+\Delta \quad \text { unilateral izquierdo: } \mathrm{p}_{1}=\mathrm{p}_{0}-\Delta \]
11.6 Tabla resumen para una muestra.
Los contrastes que hemos visto en este tema se resumen en:
| Premisas | \(\mathrm{H}_{0}\) | Estadístico | Distribución | \(\mathrm{H}_{1}\) | Rechazar \(\mathrm{H}_{0}\) si: |
|---|---|---|---|---|---|
| \(X\) Normal \(\sigma\) conocida | \(\mu=\mu 0\) | \(Z=\frac{\bar{X}-\mu_{0}}{\sigma / \sqrt{\mathbf{n}}}\) | Normal \((0,1)\) | \(\mu \neq \mu_{0}\) | \(\|Z\| \geq z_{\alpha} / 2\) |
| \(\mu>\mu_{0}\) | \(Z \geq z_{\alpha}\) | ||||
| \(\mu<\mu_{0}\) | \(Z \leq-z_{\alpha}\) | ||||
| \(X\) Normal \(\sigma\) desconocida | \(\mu=\mu_{0}\) | \(\mathrm{T}=\frac{\overline{\mathrm{X}}-\mu_{0}}{\hat{\mathrm{~S}} / \sqrt{\mathrm{n}}}\) | \(t\) de Student ( \(n-1\) ) | \(\mu \neq \mu_{0}\) | \(\|T\| \geq t_{\alpha / 2}\) |
| \(\mu>\mu_{0}\) | \(T \geq t_{\alpha}\) | ||||
| \(\mu<\mu_{0}\) | \(T \leq-t_{\alpha}\) | ||||
| \(X\) Normal \(\sigma\) desconocida | \(\sigma^{2}=\sigma_{0}{ }^{2}\) | \(\chi^{2}=(\mathbf{n}-\mathbf{1}) \frac{\hat{\mathbf{S}}^{2}}{\sigma_{0}^{2}}\) | Ji al cuadrado ( \(n-1\) ) | ||
| \(\sigma^{2} \neq \sigma_{0}^{2}\) | \(\begin{gathered} \chi^{2} \geq \chi_{\alpha / 2}^{2} \\ 0 \\ \chi^{2} \leq \chi^{2} 1-\alpha / 2 \end{gathered}\) | ||||
| \(\sigma^{2}>\sigma_{0}{ }^{2}\) | \(\chi^{2} \geq \chi^{2}{ }_{\alpha}\) | ||||
| \(\sigma^{2}<\sigma_{0}{ }^{2}\) | \(\chi^{2} \leq \chi^{2}{ }_{1-\alpha}\) | ||||
| X Bernoulli \(\begin{gathered} n \geq 30, n p_{0} \geq 5 \\ n q_{0} \geq 5 \\ \left(q_{0}=1-p_{0}\right) \end{gathered}\) | \(p=p_{0}\) | \(Z=\frac{\hat{\mathbf{p}}-\mathbf{p}_{0}}{\sqrt{\frac{\mathbf{p}_{0} \mathbf{q}_{0}}{\mathbf{n}}}}\) | Normal \((0,1)\) | \(p \neq p_{0}\) | \(\|Z\| \geq z_{\alpha / 2}\) |
| \(p>p_{0}\) | \(Z \geq z_{\alpha}\) | ||||
| \(p<p_{0}\) | \(Z \leq-z_{\alpha}\) |
Notación: \(\overline{\mathrm{X}}, \hat{\mathrm{S}}_{1}^{2}\) promedio y varianza muestral corregida \(\hat{\mathbf{p}}\) frecuencia relativa del suceso en la muestra \(\chi^{2}\) sigue la distribución de Ji al cuadrado, entonces \(\chi^{2} \alpha / 2, \chi^{2}{ }_{1-\alpha / 2}, \chi^{2} \alpha\) y \(\chi^{2}{ }_{1-\alpha}\) son:
\[ \begin{array}{cc} \operatorname{prob}\left(\chi^{2}>\chi^{2} \alpha / 2\right)=\alpha / 2 & \operatorname{prob}\left(\chi^{2}<\chi^{2} 1-\alpha / 2\right)=\alpha / 2 \\ \operatorname{prob}\left(\chi^{2}>\chi^{2} \alpha\right)=\alpha & \operatorname{prob}\left(\chi^{2}<\chi^{2} \alpha\right)=1-\alpha \end{array} \]
si \(T\) es la variable aleatoria \(t\) de Student, \(\operatorname{prob}\left(T>t_{\alpha / 2}\right)=\alpha / 2\) y \(\operatorname{prob}\left(T>t_{\alpha}\right)=\alpha\) si \(Z\) es la variable normal tipificada, \(\operatorname{prob}\left(Z>z_{\alpha / 2}\right)=\alpha / 2\) y \(\operatorname{prob}\left(Z>z_{\alpha}\right)=\alpha\)
11.7 La importancia de elegir correctamente la hipótesis nula.
En un fármaco, fabricado en serie, el contenido en \(m g\) de un producto de cierta toxicidad no debe alcanzar la cifra de 0,25 . Un aparato detector del contenido de producto mide con una desviación típica de 0,09. Para disminuir en lo posible los riesgos consiguientes a la salida al mercado del fármaco con un exceso en el contenido del referido producto, ¿de qué modo debería actuarse?
El investigador debe previamente comprobar los factores que puedan alterar la cadena de producción. De existir alteraciones debe estratificar la muestra para que sea representativa de todos los factores implicados. Si existe la posibilidad de obtener un tamaño muestral grande ha de ser aprovechada para aumentar la potencia del test. Si es preciso estratificar, pueden determinarse los estratos y dividir homogéneamente entre ellos la extracción de la muestra completa.
Es indeseable evidentemente suministrar al mercado un producto tóxico, de modo que el error que ha de estar muy bien controlado es el asociado a rechazar la hipótesis de toxicidad si esta es cierta. Cometer este error pondría en el mercado una partida de fármacos tóxica, de consecuencias graves desde el punto de vista de la salud pública.
En cambio, si se rechaza incorrectamente la hipótesis de no toxicidad y se invalida sin necesidad la partida, este segundo tipo de error es menos importante, ya que sólo tiene consecuencias económicas.
Desde este punto de vista, si se plantea el contraste siguiente con un nivel de significación \(\alpha=0,01\)
\[ \begin{aligned} & \mathrm{H}_{0}: \mu \geq \mu_{0}=0.25 \\ & \mathrm{H}_{1}: \mu<0.25 \end{aligned} \]
se tiene controlado el error de tipo I (se rechaza \(\mathrm{H}_{0}\) cuando ésta es cierta), que más arriba se ha justificado como el único con riesgo médico.
Si se rechaza la hipótesis nula, la partida de fármacos puede ser comercializada, ya que de darse esta circunstancia se encontrarían evidencias muy significativas \((\alpha=0,01)\) contra la hipótesis de que la partida sea tóxica.
Nótese que, si es cierta \(\mathrm{H}_{0}\), la probabilidad de encontrar una muestra que induzca a error sería 1/100. En resumen, al plantear las hipótesis de esta manera se acepta que la hipótesis nula está asociada a rechazar partidas por su posible toxicidad. El posible error de tipo II, más complicado de estudiar, sólo tiene consecuencias económicas, mientras que el nivel de significación controla directamente el riesgo de intoxicación.
11.8 Relación con los intervalos de confianza
Los contrastes de hipótesis están muy relacionados con la teoría de los intervalos de confianza. En muchos casos se puede resolver la misma cuestión aplicada formulándola por cualquiera de las dos vías. Por ejemplo, el contraste:
\[ \mathrm{H}_{0}: \theta=\theta_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \theta \neq \theta_{0} \]
puede resolverse planteando el intervalo de confianza para \(\theta\), con coeficiente de confianza \(1-\alpha\). Supongamos que el intervalo obtenido es \([\mathrm{a} ; \mathrm{b}]\). Entonces, si:
\[ \begin{aligned} & \operatorname{si} \theta_{0} \in[\mathrm{a} ; \mathrm{b}] \text { aceptar } \mathrm{H}_{0} \\ & \operatorname{si} \theta_{0} \notin[\mathrm{a} ; \mathrm{b}] \text { aceptar } \mathrm{H}_{1} \end{aligned} \]
Este contraste tendrá como nivel de significación \(\alpha\). Es posible proporcionar incluso el \(p\)-valor si se ajusta la anchura del intervalo para que sea lo más ancho posible y al mismo tiempo excluya \(\theta_{0}\).
Inversamente, es posible utilizar la región crítica de un contraste para proporcionar una estimación por intervalo del parámetro. Los contrastes bilaterales corresponden a intervalos también bilaterales centrados, mientras que los contrastes unilaterales derechos corresponden a estimaciones unilaterales por exceso y los unilaterales izquierdos, a estimaciones por defecto.
11.9 Relación entre el intervalo y el contraste
11.9.1 Intervalo de confianza para la varianza de una distribución Normal
Dada una variable aleatoria con distribución Normal \(\mathrm{N}(\mu ; \sigma)\), el objetivo es la construcción de un intervalo de confianza para el parámetro \(\sigma\), basado en una muestra de tamaño \(n\) de la variable.
A partir del estadístico
\[ \mathrm{X}^{2}=\frac{(n-1) \hat{S}^{2}}{\sigma^{2}} \]
la fórmula para el intervalo de confianza, con nivel de confianza \(1-\alpha\) es la siguiente
\[ \frac{(n-1) \hat{S}^{2}}{\chi_{a / 2}^{2}} \leq \sigma^{2} \leq \frac{(n-1) \hat{S}^{2}}{\chi_{1-\alpha / 2}^{2}} \]
Donde \(\chi^{2}{ }_{\alpha / 2}\) es el valor de una distribución Ji al cuadrado con \(n-1\) grados de libertad que deja a su derecha una probabilidad de \(\alpha / 2\).
Por ejemplo, dados los datos siguientes:
- Distribución poblacional: Normal
- Tamaño de muestra: 10
- Confianza deseada para el intervalo: \(95 \%\)
- Varianza muestral corregida: 38,5
Un intervalo de confianza al \(95 \%\) para la varianza de la distribución viene dado por:
\[ \frac{9 \cdot 38,5}{19,031} \leq \sigma^{2} \leq \frac{9 \cdot 38,5}{2,699} \]
que resulta, finalmente
\[ \sigma^{2} \in(18.207 ; 128,381) \]