Capítulo 12 Contrastes con dos muestras
12.1 Introducción
Un problema muy frecuente en las ciencias experimentales es la comprobación de la homogeneidad de dos grupos, esto es, la decisión de si existen diferencias entre ellos, en determinada característica.
La estadística paramétrica resuelve esta cuestión comparando los parámetros que caracterizan los dos grupos, que son considerados dos poblaciones a priori diferentes. El proceso consiste en obtener una muestra de cada grupo, y a partir de ellas contrastar la igualdad de los parámetros de la distribución de referencia. Por ejemplo, si la distribución de referencia es una normal, se contrasta si la media (poblacional) de los dos grupos es idéntica. De aquí que a veces se nombra este tema como comparaciones de dos muestras, aunque realmente las muestras sirven para inferir si hay diferencias significativas en las poblaciones de las cuales se han extraído.
Desde el punto de vista aplicado es importante distinguir los estudios experimentales y los estudios observacionales. En los primeros, el experimentador puede asignar los individuos al azar en cada grupo. Por ejemplo, al comparar la eficacia de dos fármacos en el tratamiento de una enfermedad, se puede muchas veces asignar los enfermos al azar a uno de los dos tratamientos. En cambio, si el estudio compara una variable biométrica en dos especies diferentes, los individuos están indefectiblemente asociados a su especie y no se pueden asignar al azar: el estudio es observacional.
Este tema trata de las comparaciones de dos grupos en las situaciones paramétricas más habituales y básicas: en primer lugar trata el caso en el que la variable sea normal comparando las medias y las varianzas, en segundo lugar, el caso en que la variable sea binomial, comparando entonces las proporciones.
12.2 Premisas: independencia vs datos apareados
En el desarrollo de este tema destaca la importancia que tienen las premisas (requisitos) que deben cumplir los datos para la correcta aplicación de cada una de las técnicas de comparación.
La primera premisa se refiere a la independencia de los datos. En el tema de muestreo (ver aquí) se ha estudiado la definición y obtención de muestras aleatorias simples, que exige, entre otras condiciones, la independencia de los datos. En este sentido, las comparaciones de dos grupos que abordamos aquí siempre se basan en muestra aleatorias simples dentro de cada grupo.
Ahora bien, según el tipo de estudio, pueden presentarse situaciones de dependencia entre los datos de los dos grupos. La dependencia o independencia a la que se refieren los tests de este capítulo ha de entenderse siempre referida a la de los datos entre los dos grupos, sobreentendiendo la independencia exigida dentro del grupo.
12.2.1 Ejemplo: Datos independientes vs apareados
Como primer ejemplo supongamos un experimento cuyo objetivo es comparar la eficacia de dos fármacos adelgazantes. Se toman 20 individuos y se asignan al azar 10 de ellos a cada uno de los dos tratamientos. Al cabo de dos meses se mide la diferencia de peso antes y después del tratamiento. Aquí los dos grupos (poblaciones) son respectivamente todos los participantes en el estudio, tratados con los 2 fármaco. Hay dos muestras de 10 individuos y los datos pueden considerarse con este diseño experimental independientes. Este ejemplo corresponde a una situación muy frecuente en análisis de datos conocida como comparación de 2 muestras independientes.
Supongamos en cambio que el experimento consiste en escoger a 10 individuos al azar, medir su peso, suministrarles durante dos meses el mismo tratamiento y medir finalmente de nuevo el peso. Hay también aquí 2 muestras de 10 individuos: los 10 valores antes del tratamiento y los 10 de después. Sin embargo, ahora los datos de las dos muestras presentan una probable dependencia que corresponde a este esquema:
| Antes tratamiento | posible relación con datos de | Después tratamiento |
|---|---|---|
| individuo 1 | \(==>\) | individuo 1 |
| \(\ldots\) | \(\ldots\) | \(\ldots\) |
| individuo 10 | \(==>\) | individuo 10 |
Debido a esta situación experimental tan específica los datos aparecen de forma natural emparejados si nos atenemos a su posible dependencia. Este es una segunda situación muy frecuente en experimentación: la comparación de muestras apareadas.
12.3 Premisas e hipótesis en comparaciones de medias de datos normales independientes.
Abordaremos primero cómo comparar las medias de dos grupos asociados a una variable normal cuando el muestreo se ha realizado de forma independiente entre los dos grupos.
Las premisas para aplicar el test que se describe a continuación son:
- las dos muestras son estocásticamente independientes entre sí
- las muestras de cada grupo son muestras aleatorias simples
- la variable observada en cada grupo es una variable normal
- la varianza (poblacional) es idéntica en los dos grupos pero desconocida
La comprobación de esta última premisa se realiza con un test previo sobre las varianzas. Sin embargo, por motivos pedagógicos, se exponen después sus detalles. Es importante destacar que deberá estimarse la varianza a partir de la muestra, que es la situación real de muchos experimentos. En muchos textos de estadística se menciona otra situación parecida en la que se asume la varianza común (poblacional) conocida. Aquí no trataremos sus detalles, ya que su interés es más académico que aplicado.
Muchos autores han descrito la prueba sobre las medias de dos grupos con varianza desconocida como el diseño más habitual en experimentación: el objetivo es corroborar o descartar que dos grupos son homogéneos en promedio. De acuerdo a las premisas la variable observada sigue en la primera población una \(\operatorname{Normal}\left(\mu_{1}, \sigma\right)\) y en la segunda una \(\operatorname{Normal}\left(\mu_{2}, \sigma\right)\). Contrastar la homogeneidad de medias corresponde pues a:
\[ \mathrm{H}_{0}: \mu_{1}=\mu_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{1} \neq \mu_{2} \]
La prueba que se describe a continuación resuelve hipótesis algo más generales que el de la igualdad de las medias, ya que el experimento puede consistir en comparar la diferencia de medias respecto a alguna cantidad \(\mathrm{d}_{0}\) escogida previamente:
\[ \mathrm{H}_{0}: \mu_{1}-\mu_{2}=\mathrm{d}_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{1}-\mu_{2} \neq \mathrm{d}_{0} \]
donde la hipótesis de igualdad corresponde a escoger \(\mathrm{d}_{0}=0\). Como es ya habitual, pueden plantearse otro tipo de alternativas:
\[ \mathrm{H}_{0}: \mu_{1}-\mu_{2} \leq \mathrm{d}_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{1}-\mu_{2}>\mathrm{d}_{0} \]
o bien:
\[ \mathrm{H}_{0}: \mu_{1}-\mu_{2} \geq \mathrm{d}_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{1}-\mu_{2}<\mathrm{d}_{0} \]
12.4 Comparación de medias de datos normales independientes.
12.4.1 Estadístico de test y valores críticos
En el resto de esta sección asumiremos muestras de tamaño \(n_{1}\) y \(n_{2}\) respectivamente para las dos poblaciones. Los estadísticos se indican mediante:
\[ \begin{aligned} & \bar{X}_{1}, \widetilde{S}_{1}^{2} \text { promedio y varianza muestral corregida de la } 1^{\mathrm{a}} \text { población } \\ & \bar{X}_{2}, \widetilde{S}_{2}^{2} \text { promedio y varianza muestral corregida de la } 2^{\mathrm{a}} \text { población } \end{aligned} \]
Para resolver el contraste descrito antes se dispone de un test óptimo basado en el siguiente estadístico de test:
\[ \mathrm{T}_{\exp }=\frac{\bar{X}_{1}-\bar{X}_{2}-d_{0}}{\sqrt{\frac{\left(n_{1}-1\right) \widetilde{S}_{1}^{2}+\left(n_{2}-1\right) \widetilde{S}_{2}^{2}}{n_{1}+n_{2}-2} \frac{\left(n_{1}+n_{2}\right)}{n_{1} n_{2}}}} \]
conocido como contraste T para dos muestras independientes cuya distribución es la t de Student con \(\left(\mathrm{n}_{1}+\mathrm{n}_{2}-2\right)\) grados de libertad. Según el tipo de alternativa los valores críticos son:
| \(\mathrm{H}_{1}\) | rechazar \(\mathrm{H}_{0} \mathrm{si}\) |
|---|---|
| \(\mu_{1}-\mu_{2} \neq \mathrm{d}_{0}\) | \(\left\|\mathrm{~T}_{\exp }\right\| \geq \mathrm{t}_{\alpha / 2}\) |
| \(\mu_{1}-\mu_{2}>\mathrm{d}_{0}\) | \(\mathrm{~T}_{\exp } \geq \mathrm{t}_{\alpha}\) |
| \(\mu_{1}-\mu_{2}<\mathrm{d}_{0}\) | \(\mathrm{~T}_{\exp } \leq-\mathrm{t}_{\alpha}\) |
si T es la variable aleatoria t -Student \(\left(\mathrm{n}_{1}+\mathrm{n}_{2}-2\right)\) los valores \(\mathrm{t}_{\alpha / 2}\) y \(\mathrm{t}_{\alpha}\) son:
\[ \begin{gathered} \operatorname{prob}\left(\mathrm{T}>\mathrm{t}_{\alpha / 2}\right)=\alpha / 2 \\ \operatorname{prob}\left(\mathrm{~T}>\mathrm{t}_{\alpha}\right)=\alpha \end{gathered} \]
en otras palabras, \(\mathrm{t}_{\alpha / 2}\) es el valor crítico bilateral de la T asociada a una probabilidad \(\alpha\) mientras que \(\mathrm{t}_{\alpha}\) es el valor crítico unilateral derecho de la misma v.a.
12.4.2 Intervalo de confianza para la diferencia de medias.
Los límites para el intervalo de una diferencia de medias correspondientes a dos muestras independientes son:
\[ \bar{X}_{1}-\bar{X}_{2} \pm t_{\alpha / 2} \sqrt{\frac{\left(n_{1}-1\right) \widetilde{S}_{1}^{2}+\left(n_{2}-1\right) \widetilde{S}_{2}^{2}}{n_{1}+n_{2}-2} \frac{\left(n_{1}+n_{2}\right)}{n_{1} n_{2}}} \]
el símbolo \(\mathrm{t}_{\alpha / 2}\) es el mismo valor crítico que antes: \(\operatorname{prob}\left(\mathrm{T}>\mathrm{t}_{\alpha / 2}\right)=\alpha / 2\) y corresponde a un intervalo de confianza \(1-\alpha \%\).
Este intervalo puede utilizarse de forma alternativa al contraste de hipótesis para decidir (con nivel de significación \(\alpha\) %) si hay igualdad de los dos grupos. Se decidirá por la igualdad de los grupos si el valor 0 queda incluido en cualquier posición en el intervalo, es decir, el número 0 no ha de estar forzosamente en el centro del intervalo para aceptar \(\mathrm{H}_{0}\).
Si se ha planteado el contraste más general \(\mathrm{H}_{0}: \mu_{1}-\mu_{2}=\mathrm{d}_{0}\) bastará que el valor \(\mathrm{d}_{0}\) quede incluido en el intervalo.
Aún si se realiza el contraste T de dos muestras en primer lugar, es aconsejable obtener el I.C. de la diferencia de medias si éste ha resultado significativo, puesto que ayudará a interpretar si existe significación aplicada además de la estadística.
Si se dispone de alguna información previa y quiere calcularse sólo alguno de los dos intervalos unilaterales, bastará sustituir \(\mathrm{t}_{\alpha / 2}\) por \(\mathrm{t}_{\alpha} \mathrm{y}\) descartar el límite superior o inferior del intervalo según el caso. Por ejemplo, el intervalo unilateral derecho corresponde a:
\[ \left(-\infty, \bar{X}_{1}-\bar{X}_{2}+t_{\alpha} \sqrt{\frac{\left(n_{1}-1\right) \widetilde{S}_{1}^{2}+\left(n_{2}-1\right) \widetilde{S}_{2}^{2}}{n_{1}+n_{2}-2} \frac{\left(n_{1}+n_{2}\right)}{n_{1} n_{2}}}\right) \]
La decisión tomada con este intervalo es totalmente equivalente a la decisión tomada con el contraste t Student de 2 muestras independientes con alternativa unilateral derecha.
12.4.3 Cálculo del tamaño de muestra
Supongamos que se desea realizar el contraste bilateral:
\[ \mathrm{H}_{0}: \mu_{1}-\mu_{2}=\mathrm{d}_{0} \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{1}-\mu_{2} \neq \mathrm{d}_{0} \]
Una vez el experimentador ha elegido el nivel de significación ( \(\alpha\) ) la mínima diferencia significativa \((\Delta)\) y la potencia \((\beta)\) debe obtenerse una prueba piloto, donde se estima la varianza supuesta común. Luego puede ya determinarse el tamaño de muestra adecuado (se asumen las varianzas de las 2 poblaciones homogéneas) que es:
\[ n=2\left\{\frac{t_{1-\beta}+t_{\alpha / 2}}{\Delta}\right\}^{2} \frac{\left(n_{1}-1\right) \widetilde{S}_{1}^{2}+\left(n_{2}-1\right) \widetilde{S}_{2}^{2}}{n_{1}+n_{2}-2} \frac{\left(n_{1}+n_{2}\right)}{n_{1} n_{2}} \]
Las constantes \(t_{\alpha / 2}\) y \(t_{1-\beta}\) corresponden a las siguientes colas derechas de la v.a. t-Student con \(\left(\mathrm{n}_{1}+\mathrm{n}_{2}-2\right)\) g.d.l.:
\[ p\left(T \geq t_{\alpha / 2}\right)=\alpha / 2 \quad p\left(T \geq t_{1-\beta}\right)=1-\beta \]
Si el contraste es unilateral, basta cambiar en la expresión del tamaño de muestra \(t_{\alpha / 2}\) por \(t_{\alpha}\).
12.5 Comparación de varianzas de datos normales independientes.
12.5.1 Premisas e hipótesis en
Aquí se detalla cómo comparar las varianzas de dos grupos asociados a una variable normal cuando el muestreo se ha realizado de forma independiente entre los dos grupos.
Las premisas para aplicar el test que se describe a continuación son:
- las dos muestras son estocásticamente independientes entre sí
- las muestras de cada grupo son muestras aleatorias simples
- la variable observada en cada grupo es una variable normal
Es conveniente recordar que el test que aquí se describe debe efectuarse previamente al test t -Student de 2 muestras para comprobar la última de sus premisas (ver aquí para más detalles).
De acuerdo a las premisas la variable observada sigue en la primera población una Normal \(\left(\mu_{1}, \sigma_{1}\right)\) y en la segunda una Normal \(\left(\mu_{2}, \sigma_{2}\right)\). Contrastar la homogeneidad de varianzas corresponde pues a:
\[ \mathrm{H}_{0}: \sigma_{1}=\sigma_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \sigma_{1} \neq \sigma_{2} \]
Como es ya habitual, pueden plantearse otro tipo de alternativas, aunque son menos utilizadas en experimentación:
\[ \mathrm{H}_{0}: \sigma_{1} \leq \sigma_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \sigma_{1}>\sigma_{2} \]
o bien:
\[ \mathrm{H}_{0}: \sigma_{1} \geq \sigma_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \sigma_{1}<\sigma_{2} \]
12.5.2 Estadístico de test y valores críticos
Hemos asumido antes que las muestras eran de tamaño \(n_{1}\) y \(n_{2}\) respectivamente para las dos poblaciones y que los estadísticos se indican mediante:
\[ \begin{aligned} & \bar{X}_{1}, \widetilde{S}_{1}^{2} \text { promedio y varianza muestral corregida de la } 1^{\mathrm{a}} \text { población } \\ & \bar{X}_{2}, \widetilde{S}_{2}^{2} \text { promedio y varianza muestral corregida de la } 2^{\mathrm{a}} \text { población } \end{aligned} \]
Para resolver el contraste descrito antes se dispone de un test óptimo basado en el siguiente estadístico de test:
\[ \mathrm{F}_{\exp }=\frac{\widetilde{S}_{1}^{2}}{\widetilde{S}_{2}^{2}} \]
conocido como contraste F de varianzas para dos muestras independientes. La distribución del estadístico es la F de Fisher con \(\left(\mathrm{n}_{1}-1, \mathrm{n}_{2}-1\right)\) grados de libertad. Según el tipo de alternativa los valores críticos son:
| \(\mathrm{H}_{1}\) | rechazar \(\mathrm{H}_{0} \mathrm{si}\) |
|---|---|
| \(\sigma_{1} \neq \sigma_{2}\) | \(\mathrm{~F}_{\exp } \geq \mathrm{f}_{\alpha / 2} \circ \mathrm{~F}_{\exp } \leq \mathrm{f}_{1-\alpha / 2}\) |
| \(\sigma_{1}>\sigma_{2}\) | \(\mathrm{~F}_{\exp } \geq \mathrm{f}_{\alpha}\) |
| \(\sigma_{1}<\sigma_{2}\) | \(\mathrm{~F}_{\exp } \leq \mathrm{f}_{1-\alpha}\) |
si \(F\) es la variable aleatoria con distribución F de ( \(\mathrm{n}_{1}-1, \mathrm{n}_{2}-1\) ) grados de libertad los valores \(\mathrm{f}_{\alpha / 2}, \mathrm{f}_{1-\alpha / 2}\), \(\mathrm{f}_{\alpha}\) y \(\mathrm{f}_{1-\alpha}\) son:
| \(\operatorname{prob}\left(F>\mathrm{f}_{\alpha / 2}\right)=\alpha / 2\) | \(\operatorname{prob}\left(F<\mathrm{f}_{1-\alpha / 2}\right)=\alpha / 2\) |
|---|---|
| \(\operatorname{prob}\left(F>\mathrm{f}_{\alpha}\right)=\alpha\) | \(\operatorname{prob}\left(F<\mathrm{f}_{\alpha}\right)=1-\alpha\) |
en otras palabras, \(\mathrm{f}_{\alpha / 2}\) y \(\mathrm{f}_{\alpha}\) son valores críticos unilaterales derechos de la \(F\) (asociados respectivamente a una probabilidad \(\alpha / 2\) y \(\alpha\) ) mientras que \(f_{1-\alpha / 2}\) y \(f_{1-\alpha}\) son unilaterales izquierdos de la misma variable aleatoria.
12.5.3 Intervalo de confianza para la razón de varianzas
Los límites de un intervalo de confianza \(1-\alpha \%\) para el cociente de varianzas correspondientes a dos muestras independientes son:
\[ \left(f_{1-\alpha / 2} \frac{\widetilde{S}_{1}^{2}}{\widetilde{S}_{2}^{2}}, f_{\alpha / 2} \frac{\widetilde{S}_{1}^{2}}{\widetilde{S}_{2}^{2}}\right) \]
los símbolos \(\mathrm{f}_{\alpha / 2}\) y \(\mathrm{f}_{1-\alpha / 2}\) son los mismos valores críticos que antes: prob ( \(F>\mathrm{f}_{\alpha / 2}\) ) \(=\alpha / 2\) y prob ( \(F< f_{1-\alpha / 2}=\alpha / 2\).
Este intervalo puede utilizarse de forma alternativa al contraste de hipótesis para decidir (con nivel de significación \(\alpha\) %) si hay igualdad de varianzas de los dos grupos. Se decidirá que no hay diferencias significativas si el valor 1 queda incluido en cualquier posición en el intervalo. El número 1 no ha de estar forzosamente en el centro del intervalo para aceptar \(\mathrm{H}_{0}\).
12.6 Comparaciones de medias de datos normales apareados
12.6.1 Premisas e hipótesis
Las premisas para aplicar el test que se describe a continuación son:
- las muestras corresponden a datos apareados
- la muestra (agrupada por parejas) es aleatoria simple
- la variable observada en cada grupo es una variable normal
El objetivo es muy parecido al descrito anteriormente: verificar si los dos grupos son homogéneos en promedio, sólo cambian las premisas y tipo de muestreo. La variable \(\mathrm{X}_{1}\) observada en la primera población sigue una \(\operatorname{Normal}\left(\mu_{1}, \sigma_{1}\right)\) y la variable \(\mathrm{X}_{2}\) en la segunda población una \(\operatorname{Normal}\left(\mu_{2}, \sigma_{2}\right)\). Así pues, contrastar la homogeneidad de medias corresponde igualmente a:
\[ \mathrm{H}_{0}: \mu_{1}=\mu_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{1} \neq \mu_{2} \]
Ahora bien, este contraste se resuelve ahora calculando la variable diferencia entre \(\mathrm{X}_{1}\) y \(\mathrm{X}_{2}\). Si designamos con
\[ X_{d}=X_{1}-X_{2} \]
a esta diferencia, entonces \(\mathrm{X}_{\mathrm{d}}\) es una \(\operatorname{Normal}\left(\mu_{\mathrm{d}}, \sigma_{\mathrm{d}}\right)\). La hipótesis de homogeneidad de las medias de las muestras apareadas se traduce en una prueba de una muestra normal, es decir:
\[ \mathrm{H}_{0}: \mu_{\mathrm{d}}=0 \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{\mathrm{d}} \neq 0 \]
Como es ya habitual, pueden plantearse otro tipo de alternativas:
\[ \mathrm{H}_{0}: \mu_{\mathrm{d}} \leq 0 \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{\mathrm{d}}>0 \]
o bien:
\[ \mathrm{H}_{0}: \mu_{\mathrm{d}} \geq 0 \quad \text { contra } \quad \mathrm{H}_{1}: \mu_{1}<0 \]
12.6.2 Relación entre el contraste de datos apareados y el de una media (datos normales).
Se dispone de una muestra de datos apareados de tamaño n (es decir, n parejas). Los estadísticos se indican mediante:
\[\bar{X}_{d}, \quad \widetilde{S}_{d}^{2},\] promedio y varianza muestral corregida de la resta de las 2 muestras
Para resolver el contraste descrito antes se dispone de un test óptimo basado en el siguiente estadístico de test:
\[ \mathrm{T}_{\exp }=\frac{\bar{X}_{d}}{\widetilde{S}_{d}} \sqrt{n} \]
que no es más que el contraste T para una muestra calculado con cuya distribución es la t de Student con (n-1) grados de libertad.
Según el tipo de alternativa los valores críticos son:
| \(\mathrm{H}_{1}\) | rechazar \(\mathrm{H}_{0} \mathrm{si}\) |
|---|---|
| \(\mu_{\mathrm{d}} \neq 0\) | \(\left\|\mathrm{~T}_{\exp }\right\| \geq \mathrm{t}_{\alpha / 2}\) |
| \(\mu_{\mathrm{d}}>0\) | \(\mathrm{~T}_{\exp } \geq \mathrm{t}_{\alpha}\) |
| \(\mu_{\mathrm{d}}<0\) | \(\mathrm{~T}_{\exp } \leq-\mathrm{t}_{\alpha}\) |
si T es la variable aleatoria t -Student \((\mathrm{n}-1)\) los valores \(\mathrm{t}_{\alpha / 2}\) y \(\mathrm{t}_{\alpha}\) son:
\[ \operatorname{prob}\left(\mathrm{T}>\mathrm{t}_{\alpha / 2}\right)=\alpha / 2 \quad \operatorname{prob}\left(\mathrm{~T}>\mathrm{t}_{\alpha}\right)=\alpha \]
en otras palabras, \(\mathrm{t}_{\alpha / 2}\) es el valor crítico bilateral de la T asociada a una probabilidad \(\alpha\) mientras que \(\mathrm{t}_{\alpha}\) es el valor crítico unilateral derecho de la misma v.a.
12.6.3 Intérvalos de confianza para la diferencia
El intervalo de confianza para la media de la variable diferencia es el mismo que el de la media de una muestra normal, es decir:
\[ \bar{X}_{d} \pm t_{\alpha / 2} \frac{\widetilde{S}_{d}}{\sqrt{n}} \]
12.6.4 Tamaño muestral
Finalmente, el tamaño de muestra también corresponde al mismo caso:
\[ n=\left(\frac{t_{\alpha / 2}+t_{1-\beta}}{\Delta}\right)^{2} \widetilde{S}_{d}^{2} \]
12.6.5 Ejemplo: efecto de una intervención sobre el colesterol HDL
Se estudia el efecto de una intervención destinada a aumentar el colesterol HDL en un grupo de \(n = 10\) pacientes. En cada paciente se mide el nivel de HDL (en mg/dL) antes y después de la intervención.
set.seed(123)
HDL_antes <- round(rnorm(10, mean = 35, sd = 4), 1)
HDL_despues <- round(rnorm(10, mean = 45, sd = 4), 1)
HDL_antes## [1] 32.8 34.1 41.2 35.3 35.5 41.9 36.8 29.9 32.3 33.2
## [1] 49.9 46.4 46.6 45.4 42.8 52.1 47.0 37.1 47.8 43.1
12.6.5.2 Planteamiento de las hipótesis
Las hipótesis del contraste son
\[ H_0: \mu_D = 0 \quad \text{frente a} \quad H_1: \mu_D \neq 0. \]
12.6.5.3 Cálculo del estadístico de contraste
## [1] 10.52
## [1] 3.645941
## [1] 9.124436
Bajo la hipótesis nula, este estadístico sigue una distribución \(t\) de Student con \(n-1 = 9\) grados de libertad.
12.6.5.4 Decisión mediante el p-valor
## [1] 7.629805e-06
Uso de t.test sobre la variable diferencia
##
## One Sample t-test
##
## data: D
## t = 9.1244, df = 9, p-value = 7.63e-06
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## 7.911851 13.128149
## sample estimates:
## mean of x
## 10.52
Uso de t.test con la opción paired = TRUE
##
## Paired t-test
##
## data: HDL_despues and HDL_antes
## t = 9.1244, df = 9, p-value = 7.63e-06
## alternative hypothesis: true mean difference is not equal to 0
## 95 percent confidence interval:
## 7.911851 13.128149
## sample estimates:
## mean difference
## 10.52
Ambos procedimientos producen exactamente el mismo resultado, ya que en ambos casos el contraste se basa en la variable diferencia.
La opción paired = TRUE no define un contraste distinto, sino que indica a R que debe construir
internamente la variable \(D = \text{HDL}_{\text{después}} - \text{HDL}_{\text{antes}}\)
y aplicar sobre ella un contraste de una muestra.
12.6.6 Resumen: Datos independientes frente a datos apareados
La distinción entre datos independientes y datos apareados no depende del contraste estadístico, sino del diseño del estudio y del modo en que se han obtenido los datos.
Datos independientes: Dos muestras son independientes cuando las observaciones de una muestra no guardan ninguna relación directa con las observaciones de la otra.
Datos apareados: En los datos apareados, cada observación de una muestra está emparejada con una observación concreta de la otra. El análisis no se centra en comparar dos poblaciones distintas, sino en estudiar la distribución de las diferencias.
Así pues es importante recordar que no existen contrastes específicos para datos apareados.
El apareamiento se incorpora al análisis transformando los datos originales en una muestra de diferencias, y aplicando posteriormente un contraste de una sola muestra sobre dicha variable.
12.7 Comparaciones de 2 proporciones (datos independientes)
12.7.1 Premisas e hipótesis
Otra de las pruebas estadísticas más básicas consiste en comprobar si la proporción de veces que ocurre un suceso es la misma en dos grupos diferentes. Se basa en la obtención de dos muestras donde en cada una de ellas se contabiliza el número de veces que ocurre el suceso estudiado.
Las premisas para aplicar el test que se describe a continuación son:
- las dos muestras son estocásticamente independientes entre sí
- las muestras de cada grupo son dos muestras aleatorias simples de tamaños respectivos \(\mathrm{n}_{1}\) y \(\mathrm{n}_{2}\)
- la variable observada en cada grupo corresponde a una variable binomial
El objetivo es corroborar o descartar que dos grupos son homogéneos en la proporción del suceso que se contabiliza. De acuerdo a las premisas la variable observada sigue en la primera población una Binomial \(\left(\mathrm{n}_{1}, \mathrm{p}_{1}\right)\) y en la segunda una Binomial \(\left(\mathrm{n}_{2}, \mathrm{p}_{2}\right)\). Contrastar la homogeneidad de proporciones corresponde pues a:
\[ \mathrm{H}_{0}: \mathrm{p}_{1}=\mathrm{p}_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \mathrm{p}_{1} \neq \mathrm{p}_{2} \]
Pueden plantearse otro tipo de alternativas:
\[ \mathrm{H}_{0}: \mathrm{p}_{1} \leq \mathrm{p}_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \mathrm{p}_{1}>\mathrm{p}_{2} \]
o bien:
\[ \mathrm{H}_{0}: \mathrm{p}_{1} \geq \mathrm{p}_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \mathrm{p}_{1}<\mathrm{p}_{2} \]
12.7.2 Estadístico de test y valores críticos
Los estadísticos necesarios para el test se indican mediante: \(\hat{p}_{1}\) proporción del suceso en la \(1^{\mathrm{a}}\) muestra \(\hat{p}_{2}\) proporción del suceso en la \(2^{\mathrm{a}}\) muestra
\[ \hat{p}=\frac{\mathrm{n}_{1} \hat{p}_{1}+\mathrm{n}_{2} \hat{p}_{2}}{\mathrm{n}_{1}+\mathrm{n}_{2}} \quad \hat{q}=1-\hat{p} \]
Para resolver el contraste descrito antes se dispone de un test óptimo basado en el siguiente estadístico de test:
\[ \mathrm{Z}_{\exp }=\frac{\hat{p}_{1}-\hat{p}_{2}}{\sqrt{\frac{\hat{p} \hat{q}}{n_{1}}+\frac{\hat{p} \hat{q}}{n_{2}}}} \]
cuya distribución asintótica (ver condiciones aquí) es la Normal ( 0,1 ). Según el tipo de alternativa los valores críticos son:
| \(\mathrm{H}_{1}\) | rechazar \(\mathrm{H}_{0} \mathrm{si}\) |
|---|---|
| \(\mathrm{p}_{1} \neq \mathrm{p}_{2}\) | \(\left\|\mathrm{Z}_{\exp }\right\| \geq \mathrm{z}_{\alpha / 2}\) |
| \(\mathrm{p}_{1}>\mathrm{p}_{2}\) | \(\mathrm{Z}_{\exp } \geq \mathrm{z}_{\alpha}\) |
| \(\mathrm{p}_{1}<\mathrm{p}_{2}\) | \(\mathrm{Z}_{\exp } \leq-\mathrm{z}_{\alpha}\) |
si \(Z\) es la variable aleatoria normal tipificada, los valores \(\mathrm{z}_{\alpha / 2}\) y \(\mathrm{z}_{\alpha}\) son:
\[ \begin{gathered} \operatorname{prob}\left(Z>\mathrm{z}_{\alpha / 2}\right)=\alpha / 2 \\ \operatorname{prob}\left(Z>\mathrm{z}_{\alpha}\right)=\alpha \end{gathered} \]
en otras palabras, \(z_{\alpha / 2}\) es el valor crítico bilateral de la \(\operatorname{Normal}(0,1)\) asociada a una probabilidad \(\alpha\) mientras que \(\mathrm{z}_{\alpha}\) es el valor crítico unilateral derecho de la misma variable aleatoria.
12.7.3 Condiciones de aplicación del test
Esta prueba tiene carácter asintótico, para que la aproximación a la \(\operatorname{Normal}(0,1)\) sea adecuada se requiere que:
\[ \begin{array}{cc} \mathrm{n}_{1} \geq 30 & \mathrm{n}_{2} \geq 30 \\ \mathrm{n}_{1} \hat{p}_{1} \geq 5 & \mathrm{n}_{2} \hat{p}_{2} \geq 5 \end{array} \]
12.7.4 Intervalo de confianza para la diferencia de proporciones (datos independientes).
Los límites para el intervalo de una diferencia de proporciones correspondientes a dos muestras independientes son:
\[ \hat{p}_{1}-\hat{p}_{2} \pm z_{\alpha / 2} \sqrt{\frac{\hat{p}_{1}\left(1-\hat{p}_{1}\right)}{n_{1}}+\frac{\hat{p}_{2}\left(1-\hat{p}_{2}\right)}{n_{2}}} \]
el símbolo \(\mathrm{z}_{\alpha / 2}\) es el mismo valor crítico que antes: \(\operatorname{prob}\left(Z>\mathrm{z}_{\alpha / 2}\right)=\alpha / 2\).y corresponde a un intervalo de confianza \(1-\alpha \%\).
Este intervalo puede utilizarse de forma alternativa al contraste de hipótesis para decidir (con nivel de significación \(\alpha\) %) si hay igualdad de los dos grupos. Se decidirá por la igualdad de los grupos si el valor 0 queda incluido en cualquier posición en el intervalo.
Aún si se realiza el contraste de dos proporciones en primer lugar, es aconsejable obtener el I.C. de la diferencia de medias si éste ha resultado significativo, puesto que ayudará a interpretar si existe significación aplicada además de la estadística.
Si se dispone de alguna información previa y quiere calcularse sólo alguno de los dos intervalos unilaterales, bastará sustituir \(\mathrm{z}_{\alpha / 2}\) por \(\mathrm{z}_{\alpha} \mathrm{y}\) descartar el límite superior o inferior del intervalo según el caso. Por ejemplo, el intervalo unilateral derecho corresponde a:
\[ \left(-\infty, \hat{p}_{1}-\hat{p}_{2} \pm z_{\alpha} \sqrt{\frac{\hat{p}_{1}\left(1-\hat{p}_{1}\right)}{n_{1}}+\frac{\hat{p}_{2}\left(1-\hat{p}_{2}\right)}{n_{2}}}\right) \]
12.7.5 Cálculo del tamaño de muestra en el contraste de proporciones de datos independientes.
Supongamos que se desea realizar el contraste bilateral:
\[ \mathrm{H}_{0}: \mathrm{p}_{1}=\mathrm{p}_{2} \quad \text { contra } \quad \mathrm{H}_{1}: \mathrm{p}_{1} \neq \mathrm{p}_{2} \]
Una vez el experimentador ha elegido el nivel de significación ( \(\alpha\) ) la mínima diferencia significativa \((\Delta)\) y la potencia \((\beta)\) debe obtenerse una prueba piloto donde se estiman las proporciones del suceso tanto en las 2 poblaciones por separado como en la población conjunta. Luego puede ya determinarse el tamaño de muestra adecuado:
\[ n=\left(\frac{z_{\alpha / 2} \sqrt{2 \hat{p} \hat{q}}+z_{\beta} \sqrt{\hat{p}_{1}\left(1-\hat{p}_{1}\right)+\hat{p}_{2}\left(1-\hat{p}_{2}\right)}}{\Delta}\right)^{2} \]
Las constantes \(z_{\alpha / 2}\) y \(z_{1-\beta}\) corresponden a las siguientes colas derechas de la v.a. \(\operatorname{Normal}(0,1)\)
\[ p\left(Z \geq z_{\alpha / 2}\right)=\alpha / 2 \quad p\left(Z \geq z_{1-\beta}\right)=1-\beta \]
Si el contraste es unilateral, basta cambiar en la expresión del tamaño de muestra \(z_{\alpha / 2}\) por \(z_{\alpha}\).
12.8 Comparaciones de dos muestras: Tabla resumen
Los contrastes vistos en este tema se resumen en:
| Premisas | \(\mathrm{H}_{0}\) | Estadístico | Distribución | \(\mathrm{H}_{1}\) | Rechazar \(\mathrm{H}_{0} \mathrm{si}\) : |
|---|---|---|---|---|---|
| 2 muestras normales datos independientes varianzas iguales | \(\mu_{1}-\mu_{2}=\mathrm{d}_{0}\) | \(\mathrm{T}_{\text {exp }}=\frac{\bar{X}_{1}-\bar{X}_{2}-d_{0}}{\sqrt{\frac{\left(n_{1}-1\right) \widetilde{S}_{1}^{2}+\left(n_{2}-1\right) \widetilde{S}_{2}^{2}}{n_{1}+n_{2}-2} \frac{\left(n_{1}+n_{2}\right)}{n_{1} n_{2}}}}\) | t-Student ( \(\mathrm{n}_{1}+\mathrm{n}_{2}-2\) ) | \(\mu_{1}-\mu_{2} \neq \mathrm{d}_{0}\) | \(\left\|\mathrm{T}_{\exp }\right\| \geq \mathrm{t}_{\alpha / 2}\) |
| \(\mu_{1}-\mu_{2}>\mathrm{d}_{0}\) | \(\mathrm{T}_{\text {exp }} \geq \mathrm{t}_{\alpha}\) | ||||
| \(\mu_{1}-\mu_{2}<\mathrm{d}_{0}\) | \(\mathrm{T}_{\text {exp }} \leq-\mathrm{t}_{\alpha}\) | ||||
| 2 muestras normales datos independientes | \(\sigma_{1}=\sigma_{2}\) | \(\mathrm{F}_{\text {exp }}=\frac{\widetilde{S}_{1}^{2}}{\widetilde{S}_{2}^{2}}\) | Fisher ( \(\mathrm{n}_{1}-1, \mathrm{n}_{2}-1\) ) | \(\sigma_{1} \neq \sigma_{2}\) | \(\mathrm{F}_{\text {exp }} \geq \mathrm{f}_{\alpha / 2}\) o \(\mathrm{F}_{\exp } \leq \mathrm{f}_{1-\alpha / 2}\) |
| \(\sigma_{1}>\sigma_{2}\) | \(\mathrm{F}_{\text {exp }} \geq \mathrm{f}_{\alpha}\) | ||||
| \(\sigma_{1}<\sigma_{2}\) | \(\mathrm{F}_{\text {exp }} \leq \mathrm{f}_{1-\alpha}\) | ||||
| 2 muestras normales datos apareados | \(\mu_{\mathrm{d}}=0\) | \(\mathrm{T}_{\text {exp }}=\frac{\bar{X}_{d}}{\widetilde{S}_{d}} \sqrt{n}\) | t-Student (n-1) | \(\mu_{\mathrm{d}} \neq 0\) | \(\left\|\mathrm{T}_{\text {exp }}\right\| \geq \mathrm{t}_{\alpha / 2}\) |
| \(\mu_{\mathrm{d}}>0\) | \(\mathrm{T}_{\exp } \geq \mathrm{t}_{\alpha}\) | ||||
| \(\mu_{\mathrm{d}}<0\) | \(\mathrm{T}_{\text {exp }} \leq-\mathrm{t}_{\alpha}\) | ||||
| \(\mathrm{n}_{1}\) y \(\mathrm{n}_{2} \geq 30 \mathrm{n}_{1} \overline{\mathrm{p}}_{1} \geq 5 \mathrm{n}_{2} \overline{\mathrm{p}}_{2} \geq 5\) | \(\mathrm{p}_{1}=\mathrm{p}_{2}\) | \(\mathrm{Z}_{\exp }=\frac{\hat{p}_{1}-\hat{p}_{2}}{\sqrt{\frac{\hat{p} \hat{q}}{n_{1}}+\frac{\hat{p} \hat{q}}{n_{2}}}}\) | Normal \((0,1)\) | \(\mathrm{p}_{1} \neq \mathrm{p}_{2}\) | \(\left\|\mathrm{Z}_{\text {exp }}\right\| \geq \mathrm{z}_{\alpha / 2}\) |
| \(\mathrm{p}_{1}>\mathrm{p}_{2}\) | \(\mathrm{Z}_{\text {exp }} \geq \mathrm{z}_{\alpha}\) | ||||
| \(\mathrm{p}_{1}<\mathrm{p}_{2}\) | \(\mathrm{Z}_{\text {exp }} \leq-\mathrm{z}_{\alpha}\) |
Notación.: \(\bar{X}_{1}, \widetilde{S}_{1}^{2}\) promedio y varianza muestral corregida de la \(1{ }^{\text {a }}\) población \(\bar{X}_{2}, \widetilde{S}_{2}^{2}\) promedio y varianza muestral corregida de la \(2^{\mathrm{a}}\) población \(\bar{X}_{d}, \widetilde{S}_{d}^{2}\) promedio y varianza muestral corregida de la resta de las 2 muestras \(\hat{p}_{1}\) proporción del suceso en la \(1^{\mathrm{a}}\) muestra \(\hat{p}_{2}\) proporción del suceso en la \(2^{\mathrm{a}}\) muestra \(\hat{p}=\frac{\mathbf{n}_{1} \hat{p}_{1}+\mathbf{n}_{2} \hat{p}_{2}}{\mathbf{n}_{1}+\mathbf{n}_{2}} \quad \hat{q}=\mathbf{1}-\hat{p}\) \(F\) sigue la distribución F de Fisher, entonces \(\mathrm{f}_{\alpha / 2}, \mathrm{f}_{1-\alpha / 2}, \mathrm{f}_{\alpha}\) y \(\mathrm{f}_{1-\alpha}\) son:
\[ \begin{aligned} \operatorname{prob}\left(F>\mathrm{f}_{\alpha / 2}\right) & =\alpha / 2 \\ \operatorname{prob}\left(F>\mathrm{f}_{\alpha}\right) & =\alpha \end{aligned} \]
\[ \begin{gathered} \operatorname{prob}\left(F<\mathrm{f}_{1-\alpha / 2}\right)=\alpha / 2 \\ \operatorname{prob}\left(f<\mathrm{f}_{\alpha}\right)=1-\alpha \end{gathered} \]
si \(T\) es la variable aleatoria t -Student, \(\operatorname{prob}\left(T>\mathrm{t}_{\alpha / 2}\right)=\alpha / 2\) y \(\operatorname{prob}\left(T>\mathrm{t}_{\alpha}\right)=\alpha\) si Z es la variable normal tipificada, \(\operatorname{prob}\left(Z>\mathrm{z}_{\alpha / 2}\right)=\alpha / 2\) y prob \(\left(Z>\mathrm{z}_{\alpha}\right)=\alpha\)
12.9 Complementos: efecto de las transformaciones de los datos en el test t
Para acabar de comprender el funcionamiento del test T es interesante considerar el efecto que tiene sobre dicho contrastes dos típicas operaciones sobre un conjunto de datos:
- cambio de posición: esto es, sumar una constante a todos los datos.
- cambio de escala: esto es, multiplicar por una constante todos los datos.
12.9.1 Efecto del cambi de posición
Veamos primero el efecto del primer tipo de cambio desde un punto de vista empírico, tomando dos grupos de datos independientes (para más detalles, corresponden a los datos del casol de este mismo tema). Los datos originales (en breve, diferencia de peso de unos pacientes en kilos) y el resultado del test T se detallan a continuación para poder comparar con en el cuadro más abajo donde se modificarán:
Supongamos que se ha detectado un error en la balanza que medía el peso, sistemático para todos los datos, lo cual implica sumar 2 kilos a todos los datos del estudio. Si se modifican adecuadamente los datos (sumar 2 a todos ellos): se ha de observar que:
- las medias de los dos grupos se han incrementado en dos unidades
- las desviaciones de los dos grupos se mantienen constantes
- toda la inferencia de comparación de medias se mantiene constante (Estadístico T, p-valor, intervalo, etc).
Para entender este resultado empírico, y razonando ahora en general, si a todos los datos originales ( \(\mathrm{x}_{1}\), \(\left.\mathrm{x}_{2}, \ldots \mathrm{x}_{\mathrm{n}}\right)\) se les añade la constante \(k\)
\[ \mathrm{y}_{1}=\mathrm{x}_{1}+k, \mathrm{y}_{2}=\mathrm{x}_{2}+k, \ldots, \mathrm{y}_{\mathrm{n}}=\mathrm{x}_{\mathrm{n}}+k \]
la media y la varianza de la nueva variable Y van a ser:
\[ \bar{Y}=\bar{X}+k \quad \widetilde{S}_{Y}^{2}=\widetilde{S}_{X}^{2} \]
así pues, en el caso de tener dos grupos de datos, la varianza de cada grupo -y por tanto también la ponderada- se mantienen constantes. El estadístico de test va a ser:
\[ T_{Y}=\frac{\left(\bar{X}_{1}+k\right)-\left(\bar{X}_{2}+k\right)-d_{0}}{\sqrt{\frac{\left(n_{1}-1\right) \widetilde{S}_{1}^{2}+\left(n_{2}-1\right) \widetilde{S}_{2}^{2}}{n_{1}+n_{2}-2} \frac{\left(n_{1}+n_{2}\right)}{n_{1} n_{2}}}}=T_{K} \]
La conclusión es que el test t no se ve alterado por un cambio de posición en todos los datos.
12.9.2 Efecto de un cambio de escala
Veamos ahora el efecto del segundo tipo de cambio desde un punto de vista empírico. Con los datos originales (corresponden a los datos del casol de este mismo tema), el resultado del test T es:
Supongamos que se decide cambiar de unidad, pasando a decigramos en lugar de kilogramos. Equivale a multiplicar por cien todos los datos del estudio. Modificando adecuadamente los datos siguientes: se ha de observar que:
- las medias de los dos grupos se han multiplicado por cien
- las desviaciones de los dos grupos se han multiplicado por cien
- el Estadístico T y el p-valor se mantienen constantes (el I.C. es 100 veces mayor).
Para entender este resultado, razonando de nuevo en general, si todos los datos originales ( \(\mathrm{x}_{1}, \mathrm{x}_{2}, \ldots \mathrm{x}_{\mathrm{n}}\) ) se multiplican por \(k\)
\[ \mathrm{y}_{1}=k \mathrm{x}_{1}, \mathrm{y}_{2}=k \mathrm{x}_{2}, \ldots, \mathrm{y}_{\mathrm{n}}=k \mathrm{x}_{\mathrm{n}} \]
la media y la varianza de la nueva variable Y van a ser:
\[ \bar{Y}=k \bar{X} \quad \widetilde{S}_{Y}^{2}=k^{2} \widetilde{S}_{X}^{2} \]
así pues, en el caso de tener dos grupos de datos, la varianza de cada grupo -y por tanto también la ponderada- se multiplica por \(k^{2}\). El estadístico de test va a ser:
\[ T_{Y}=\frac{k \bar{X}_{1}-k \bar{X}_{2}-k d_{0}}{\sqrt{\frac{\left(n_{1}-1\right) k^{2} \widetilde{S}_{1}^{2}+\left(n_{2}-1\right) k^{2} \widetilde{S}_{2}^{2}}{n_{1}+n_{2}-2} \frac{\left(n_{1}+n_{2}\right)}{n_{1} n_{2}}}}=T_{X} \]
y se cancelan la constante \(k\) en el numerador y el denominador. La conclusión es que el test t no se ve alterado por un cambio de escala todos los datos.
##Muestreo aleatorio simple
Los valores de la muestra son elegidos de modo que las observaciones son independientes dos a dos y todas siguen la misma distribución probabilística.
Una propiedad matemática importante es que la función de densidad de la muestra, entendida como vector aleatorio, es el producto de las funciones de densidad de sus variables. Igualmente ocurre con la función de distribución.
En poblaciones finitas, una posibilidad de asegurar la aleatoriedad de los datos consiste en la utilización de números aleatorios.
En R es muy sencillo obtener números aleatorios enteros. Por ejemplo para generar diez aleatorios entre 1 y 25 haríamos simplemente:
- Si queremos que los números se puedan repetir
## [1] 15 10 13 7 9 9 10 23 21 7
- Si queremos que sean aleatorios pero no puedan aparecer dos veces:
## [1] 21 6 2 5 8 12 13 18 1 9
12.10 Presentación del caso 1
Una empresa farmacéutica está probando un nuevo fármaco para adelgazar denominado Prim. En esta fase del ensayo clínico se pretende comparar el efecto de Prim con un fármaco de la competencia conocido como Nofat. Se considerará relevante la diferencia si es de al menos 2 kilogramos en promedio entre los dos fármacos.
En la prueba piloto se desea experimentar sobre 20 personas voluntarias sometidas a una misma dieta, pero medicadas 10 de ellas con Prim y otras 10 con Nofat. La variable observada será la diferencia de peso en kilogramos entre el inicio y el final del estudio. Los datos iniciales son:
| Individuo | Peso | Individuo | Peso |
|---|---|---|---|
| 1 | 127.5 | 11 | 117.5 |
| 2 | 101.0 | 12 | 115.0 |
| 3 | 99.5 | 13 | 139.5 |
| 4 | 110.5 | 14 | 130.5 |
| 5 | 115.5 | 15 | 125.5 |
| 6 | 95.5 | 16 | 135.5 |
| 7 | 105.5 | 17 | 115.5 |
| 8 | 110.5 | 18 | 120.5 |
| 9 | 98.5 | 19 | 118.5 |
| 10 | 106.0 | 20 | 116.0 |