Formación PDI - Universidad de Málaga
Inferencia para una muestra (media, varianza, proporciones)
Inferencia para dos muestras (diferencia de medias, diferencia de proporciones y ratio de varianzas)
Otros test de hipótesis.
ANOVA
Chi-Cuadrado
Kolgomorov-Smirnov
Otros: Máxima Verosimilitud y Bootstrap.
Sea \(X_1, \dots, X_n\) una secuencia de variables aleatorias independientes e identicamente distribuidas como una \(N(\mu, \sigma^2)\). Definimos como \(\bar{X} = 1/n\sum_{i=1}^nX_i\) y \(S^2 = 1/(n-1)\sum_{i=1}^n(X_i - \bar{X})^2\) la media y la cuasivarianza muestral.
Entonces,
\(\bar{X}\) y \(S^2\) son dos variables aleatorias independientes.
\(\sqrt{n}(\bar{X}-\mu)/\sigma\) se distribuye \(N(0, 1)\).
\((n-1)S^2/\sigma^2\) se distribuye como una \(\mathcal{X}^2\) con \(n-1\) grados de libertad.
\(\sqrt{n}(\bar{X}-\mu)/S\) se distribuye como una t-student con \(n-1\) grados de libertad.
# Distribución Chi-cuadrado
par(mfrow = c(1,2))
hist(Chi_values, breaks=40, freq=FALSE, col="lightgreen",
main="Simulación punto 3",
xlab="Valor")
curve(dchisq(x, df=n-1), add=TRUE, lwd=2, col="red")
# QQ-plot
qqplot(qchisq(ppoints(Nsim), df = n-1), Chi_values,
main = expression("QQ-plot para " * chi^2),
xlab = "Cuantiles teóricos Chi-cuadrado",
ylab = "Cuantiles simulados",
pch = 19, col = "blue")
abline(0, 1, col = "red", lwd = 2)Sea \(X_1, \dots, X_n\) una secuencia de variables aleatorias independientes e identicamente distribuidas tal que \(\mathbb{E}[X] = \mu\) y \(\mathbb{E}[X^2] < \infty\). Entonces, cuando \(n \rightarrow \infty\)
\[\frac{1}{n} \sum_{i=1}^n X_i \rightarrow \mu.\] Esta convergencia se da en el sentido fuerte (\(\bar{X} \xrightarrow{c.s.} \mu\)) y en el sentido débil (\(\bar{X} \xrightarrow{p} \mu\)).
Sea \(X_1, \dots, X_n\) una secuencia de variables aleatorias independientes e identicamente distribuidas tal que \(\mathbb{E}[X] = \mu\) y \(\mathbb{V}[X] = \sigma^2\). Entonces,
\[\frac{\bar{X_n} - \mu}{\sigma/\sqrt(n)} \xrightarrow{d} N(0,1).\]
Es decir, la media estandarizada converge en distribución a una distribución normal estándar.
Sabemos \(\bar{X} \sim N(\mu, \sigma^2/n)\) cuando la variable aleatoria \(X\) se distribuyen como una normal y son iid.
Por lo tanto,
\[\frac{\sqrt{n}(\bar{X} - \mu)}{\sigma} \sim N(0,1)\]
Esta función es un estadístico pivote
\[\mathbb{P}(-Z_{\alpha/2} < \frac{\sqrt{n}(\bar{X} - \mu)}{\sigma} < Z_{\alpha/2}) \approx 1- \alpha.\]
\[ \bar{X} \pm Z_{1 - \alpha/2} \cdot \frac{\sigma}{\sqrt{n}} \]
Test bilateral:
\[H_0: \mu = \mu_0\] \[H_1: \mu \ne \mu_0\]
Estadístico: \[Z = \frac{\bar{x} - \mu_0}{\sigma / \sqrt{n}}\]
Compruebe por simulación que el Intervalo de Confianza al \(95 \%\) continene efectivamente el parámetro poblacional \(\mu\) en esa proporción.
Cobertura empírica: 0.955
\[ \bar{x} \pm t_{n-1, 1 - \alpha/2} \cdot \frac{s}{\sqrt{n}} \]
Test:
\[H_0: \mu = \mu_0\] \[H_1: \mu \neq \mu_0\]
Estadístico:
\[T = \frac{\bar{X} - \mu_0}{S / \sqrt{n}}, \qquad T \sim t_{n-1}\]
\[ \hat{p} \pm z_{1 - \alpha/2} \cdot \sqrt{ \frac{\hat{p}(1 - \hat{p})}{n} } \]
\(X \sim \text{Binomial}(n, p)\), estimador \(\hat{p} = X/n\).
Test de hipótesis:
\[H_0: p = p_0\] \[H_1: p \ne p_0\]
Opción 1 (t.test):
x <- rbinom(1000, size = 1, prob = 0.8)
mean(x) + c(-1,1) * qnorm(0.975) * sqrt(mean(x)*(1-mean(x))/n)[1] 0.6380391 0.9539609
One Sample t-test
data: x
t = 23.217, df = 999, p-value < 2.2e-16
alternative hypothesis: true mean is not equal to 0.5
95 percent confidence interval:
0.7709814 0.8210186
sample estimates:
mean of x
0.796
Opción 2 (prop.test):
1-sample proportions test without continuity correction
data: sum(x) out of length(x), null probability 0.5
X-squared = 350.46, df = 1, p-value < 2.2e-16
alternative hypothesis: true p is not equal to 0.5
95 percent confidence interval:
0.7699136 0.8198210
sample estimates:
p
0.796
\[ \left[ \frac{(n-1)s^2}{\chi^2_{1 - \alpha/2}}, \frac{(n-1)s^2}{\chi^2_{\alpha/2}} \right] \]
Test de hipótesis:
\[H_0: \sigma^2 = \sigma_0^2\]
\[H_1: \sigma^2 \ne \sigma_0^2\]
Estadístico:
\[\chi^2 = \frac{(n-1)s^2}{\sigma_0^2}, \qquad \chi^2 \sim \chi^2_{n-1}\]
Hipótesis:
\[H_0: \mu_1 = \mu_2\], \[H_1: \mu_1 \ne \mu_2\]
x <- rnorm(30, mean = 100, sd = 10)
y <- rnorm(30, mean = 95, sd = 10)
t.test(x, y, var.equal = TRUE)
Two Sample t-test
data: x and y
t = 2.9128, df = 58, p-value = 0.005078
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
2.415902 13.031272
sample estimates:
mean of x mean of y
100.32036 92.59678
Hipótesis:
\[H_0: \mu_d = 0\] \[H_1: \mu_d \ne 0\]
donde \(d_i = x_i - y_i\).
before <- rnorm(20, mean = 100)
after <- before + rnorm(20, mean = -5)
t.test(before, after, paired = TRUE)
Paired t-test
data: before and after
t = 25.32, df = 19, p-value = 4.21e-16
alternative hypothesis: true mean difference is not equal to 0
95 percent confidence interval:
4.733021 5.586008
sample estimates:
mean difference
5.159514
Hipótesis:
\[H_0: p_1 = p_2\] \[H_1: p_1 \ne p_2\]
2-sample test for equality of proportions with continuity correction
data: x out of n
X-squared = 7.22, df = 1, p-value = 0.00721
alternative hypothesis: two.sided
95 percent confidence interval:
-0.34579029 -0.05420971
sample estimates:
prop 1 prop 2
0.4 0.6
Otro ejemplo (4 poblaciones):
4-sample test for equality of proportions without continuity correction
data: smokers out of patients
X-squared = 12.6, df = 3, p-value = 0.005585
alternative hypothesis: two.sided
sample estimates:
prop 1 prop 2 prop 3 prop 4
0.9651163 0.9677419 0.9485294 0.8536585
Hipótesis:
\[H_0: \sigma_1^2 = \sigma_2^2\] \[H_1: \sigma_1^2 \ne \sigma_2^2\]
Estadístico:
\[F = \frac{s_1^2}{s_2^2} \sim F_{n-1, m-1}\]
# Simulación de dos muestras
x <- rnorm(25, sd = 2)
y <- rnorm(30, sd = 3)
# Test F de igualdad de varianzas
var.test(x, y)
F test to compare two variances
data: x and y
F = 0.33037, num df = 24, denom df = 29, p-value = 0.007167
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
0.1533751 0.7325787
sample estimates:
ratio of variances
0.3303709
\[ Y_{ij} = \mu_i + \varepsilon_{ij}, \quad \varepsilon_{ij} \sim \mathcal{N}(0, \sigma^2) \]
Se basa en la descomposición de la variabilidad suma de cuadrados total (SCT):
\[ \text{SCT} = \sum_{i=1}^k \sum_{j=1}^{n_i} (Y_{ij} - \bar{Y})^2 \]
\[ \text{SCT} = \underbrace{\sum_{i=1}^k n_i (\bar{Y}_i - \bar{Y})^2}_{\text{SCB}} + \underbrace{\sum_{i=1}^k \sum_{j=1}^{n_i} (Y_{ij} - \bar{Y}_i)^2}_{\text{SCD}} \]
Es la suma de la Suma de Cuadrados entre (between) Grupos (SCB) y la Suma de Cuadrados dentro de los Grupos (SCD).
\[F = \frac{\text{MCE}}{\text{MCI}} \sim F_{k-1, N-k} \quad \text{(bajo $H_0$)}\]
Regla: Rechazar \(H_0\) si: \[ F_{\text{obs}} > F_{k-1, N-k}^{(1-\alpha)}\]
group <- factor(rep(1:3, each = 20))
valores <- c(rnorm(20, 5), rnorm(20, 5), rnorm(20, 6))
anova_model <- aov(valores ~ group)
summary(anova_model) Df Sum Sq Mean Sq F value Pr(>F)
group 2 12.56 6.282 5.602 0.00601 **
Residuals 57 63.92 1.121
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
\[X^2 = \sum_{i=1}^{k} \frac{(O_i - E_i)^2}{E_i}\]
\[X^2 \overset{H_0}{\sim} \chi^2_{\nu}\]
\(\nu = (r - 1)(c - 1)\) en una tabla de contingencia \(r \times c\)
\(\nu = k - 1\) (test de bondad de ajuste sin parámetros estimados)
# Ejemplo: tabla 3x2
# filas: Grupo A, Grupo B, Grupo C
# columnas: Sí, No
tabla <- matrix(c(20, 15, 30, # columna 1 (Sí) por fila
10, 25, 15), # columna 2 (No)
nrow = 3, byrow = FALSE)
rownames(tabla) <- c("Grupo1", "Grupo2", "Grupo3")
colnames(tabla) <- c("Si", "No")
tabla Si No
Grupo1 20 10
Grupo2 15 25
Grupo3 30 15
Pearson's Chi-squared test
data: tabla
X-squared = 9.0304, df = 2, p-value = 0.01094
Si No
Grupo1 16.95652 13.04348
Grupo2 22.60870 17.39130
Grupo3 25.43478 19.56522
# Datos: frecuencias observadas
observed <- c(50, 30, 20)
# Frecuencias esperadas (proporciones teóricas)
expected_prop <- c(0.5, 0.3, 0.2)
expected <- sum(observed) * expected_prop # en valores absolutos
# Test de bondad de ajuste
chisq.test(x = observed, p = expected_prop)
Chi-squared test for given probabilities
data: observed
X-squared = 0, df = 2, p-value = 1
Objetivo:
Evaluar si una muestra proviene de una distribución teórica específica (una muestra)
Evaluar si dos muestras provienen de la misma distribución (dos muestras).
\[D_n = \sup_x \left| F_n(x) - F(x) \right|\]
\[D_{n,m} = \sup_x \left| F_n(x) - G_m(x) \right|\]
\[\sqrt{n} D_n \xrightarrow{d} \sup_{t \in [0,1]} |B(t)|\]
donde \(B(t)\) es el puente browniano (Kolmogorov distribution)
\[ \sqrt{\frac{nm}{n + m}} D_{n,m} \xrightarrow{d} \sup_{t \in [0,1]} |B(t)| \]
Hipótesis:
\[H_0: F(x) = F_0(x)\]
\[ H_1$: F(x) \ne F_0(x)\]
Hipótesis:
\[H_0: F_1(x) = F_2(x)\]
\[H_1: F_1(x) \ne F_2(x)\]
| Test | Hipótesis nula | Función R |
|---|---|---|
| t de una muestra | \(H_0: \mu = \mu_0\) | t.test(x, mu = mu0) |
| Proporción (1 muestra) | \(H_0: p = p_0\) | prop.test(x, n, p = p0) |
| Kolmogorov-Smirnov (1 muestra) | \(H_0: F = F_0\) | ks.test(x, "pnorm", ...) |
| Shapiro-Wilk | \(H_0\): normalidad | shapiro.test(x) |
| Wilcoxon (1 muestra) | \(H_0\): simetría | wilcox.test(x) |
| Test | Hipótesis nula | Función R |
|---|---|---|
| t de dos muestras indep. | \(H_0: \mu_1 = \mu_2\) | t.test(x, y) |
| t pareado | \(H_0: \mu_d = 0\) | t.test(x, y, paired=TRUE) |
| Varianzas (F) | \(H_0: \sigma_1^2 = \sigma_2^2\) | var.test(x, y) |
| Proporciones (2 muestras) | \(H_0: p_1 = p_2\) | prop.test(c(x1, x2), c(n1, n2)) |
| Chi-cuadrado independencia | \(H_0\): independencia de variables | chisq.test(tabla) |
| Kolmogorov-Smirnov (2 muestras) | \(H_0: F_1 = F_2\) | ks.test(x, y, ...) |
| Mann-Whitney U (2 muestras) | \(H_0\): igualdad de distribuciones | wilcox.test(x, y) |
| Mann-Whitney U (2 muestras pareado) | \(H_0\): simetría | wilcox.test(x, y, paired = TRUE) |
| ANOVA | \(H_0: \mu_1 = \cdots = \mu_k\) | aov(y ~ grupo) |
| Kruskal-Wallis | \(H_0: \mu_1 = \cdots = \mu_k\) (no param.) | kruskal.test(y ~ grupo) |
| Friedman | \(H_0: \mu_1 = \cdots = \mu_k\) | friedman.test(y ~ grupo | bloque) |
| Spearman (\(\rho\)) | \(H_0: \rho = 0\) | cor.test(x, y, method = "spearman") |
La función de verosimilitud o likelihood de un vector aleatorio \(X_1,\dots, X_n\) cuya distribución depende de un parámetro o vector de parámetros \(\theta\) se define como la función de densidad o de probabilidad conjunta
\[L(\theta) = f_{X_1, \dots, X_n}(x_1, \dots, x_n; \theta).\] con dominio en \(\mathbb{R}^k\).
Bajo muestras aleatorias independiente e identicamente distribuídas, la función de verosimilitud se reduce a
\[L(\theta) = \prod_{i=1}^n f_X(x; \theta).\]
Los estimadores de máxima verosimilitud vienen de encontrar el valor de \(\hat{\theta}\)que maximiza la verosimilitud. Esto es
\[\hat{\theta}_{\text{MV}} = \arg\max_{\theta \in \Theta} L(\theta).\]
Dada una muestra de una Poisson:
Supongamos que desconocemos su parámetro y queremos obtener una estimación por máxima verosimilitud.
Para ello, vamos a evaluar la función de verosimilitud en diferentes valores del parámetro y nos quedaremos con aquel que la maximice.
grid_rate <- seq(1, 5, by = 0.1)
verosimilitud <- sapply(grid_rate, function(x) prod(dexp(muestra, rate = x)))
print(paste0("Estimador Máximo Verosímil: ", grid_rate[which.max(verosimilitud)]))[1] "Estimador Máximo Verosímil: 3.2"
Podemos graficar la verosimilutud para cada valor del parámetro:
El bootstrap es un enfoque computacional desarrollado por Bradley Efron (1979) que permite aproximar la distribución muestral de un estadístico a partir de la muestra observada, sin necesidad de suposiciones fuertes sobre la población.
Si la muestra representa bien a la población, ¡podemos simular nuevas muestras re-muestreando con reemplazo!
Sea \(X = (X_1, X_2, \dots, X_n)\) una muestra i.i.d. de una población desconocida con función de distribución \(F\), y sea \(T = T(X_1, \dots, X_n)\) un estadístico cualquiera.
El bootstrap clásico consiste en:
Construir una distribución empírica \(\hat{F}_n\) asignando masa \(1/n\) a cada observación de la muestra.
Generar \(B\) muestras de tamaño \(n\) con reemplazo de \(\hat{F}_n: X^{*b} = (X_1^{*b}, \dots, X_n^{*b})\), para \(b = 1, \dots, B\).
Calcular el estadístico en cada muestra: \(\hat{T^{*b}}\).
Utilizar \(\hat{\{T^{*1}}, \dots, \hat{T^{*B}\}}\) como aproximación a la distribución muestral de \(T\).
IC Bootstrap 95%:
¿Preguntas?
Antonio Elías • Curso de R para Estadística