Guía Completa de Pruebas Estadísticas: Variables, Relaciones y Supuestos
Pruebas Estadísticas: Una Visión General
1 variable → CONFORMIDAD (se comparan las frec. esperadas con las frec. observadas)
PARAMÉTRICA: media, prop, var. / NO PARAMÉTRICA: Normalidad ex: Shapiro, Ji-cuadrado
2 o más variables → RELACIÓN
Ho = 0 / H1 vaga – diferente de 0 (bilateral) / H1 concreta – cuando tienes una expectativa (unilateral)
Pruebas de Relación
2 VARIABLES CATEGÓRICAS:
Ji-cuadrado: Comparación frecu. observadas en una tabla de contingencia con las frecu. esperadas. (NO PARAMÉTRICA – DISTRIBUCIÓN)
Mcnemar: tablas 2×2 → medidas repetidas (pre – y post- tratamiento) (+ espec.) X2= b-c
(miren los que han cambiado) b+c
Fisher: tablas 2×2 → más general que Mcnemar. → f.esperadas > 5 (NO necesita X2)
Tablas de contingencia y pruebas de independencia
2 VARIABLES CUANTITATIVAS:
Pearson: (-1, 1) (1→ correlación positiva, -1→ negativa, 0→ débil) (EXIGE LINEALIDAD)
Normalidad: ¿los datos siguen una distribución normal? Ho: NO rechazar (SUPUESTOS)
Regresión: y= b0+ b1 x → b0 = intercepto / b1 = pendiente x / b2= pendiente z – predecir y a partir de x
2 VARIABLES ORDINALES:
Spearman: NO EXIGE LINEALIDAD NI NORMALIDAD (como Pearson)
Tau de Kendall
VARIABLE CATEGÓRICA + CUANTITATIVA:
ANOVA – SUPUESTOS: normalidad, homogeneidad de var y aleatoriedad
Pruebas t
VARIABLE CATEGÓRICA + ORDINAL
(por los rangos)
Si las variables son ordinales y NO se cumplen los supuestos → NO paramétricas (RANGOS → Z → p valor):
u → 2 grupos ind – DISTRIBUCIÓN Z (normal)
T – wilcoxon → 2 momentos (medidas repetidas) – DISTRIBUCIÓN Z (normal)
Kruskal Wallis (H) → 2 o + grupos ind – DISTRIBUCIÓN JI-CUADRADO
Friedman(X2f) → 2 o + momentos (medidas repetidas) – DISTRIBUCIÓN JI-CUADRADO
Supuestos de las Pruebas
Ji-cuadrado: frec. esperadas > 5 (o igual) – ex: yates, fisher (NO hace falta),…
t, ANOVA:
– Homogeneidad de varianzas → Prueba de Levene / corrección de Welch de los grados de libertad (si no se cumple)
– Normalidad o muestra grande → Kolmogorov, Shapiro (cerca de 1). QQ (gráfico)
Contraste UNI o BILATERAL → t
Contraste SÓLO BILATERAL → X2, F (ANOVA) (comparas 2 o más variables, por lo tanto no puede ser uni) – pero sólo se mira un lado
Tamaño del Efecto
Prueba t: d Cohen’s → dividiendo la diferencia de medias entre los grupos por la desviación estándar → Intervalo (0,1)
ANOVA: Eta cuadrado (η²) → (0,1) – (0.01, 0.06, 0.14) 0 → no relación
Regresión lineal: R cuadrado (R²) → (0,1) (0.10, 0.25, 0.50) 0 → modelo inútil (var ind → NO dep)
Correlación:
Pearson (r): (-1,1) (0, ±0.3 a ±0.5, ±1) → DATOS (sensible a valores anómalos)
Spearman (ρ): para VARIABLES NO LINEALES o datos ORDINALES → RANGOS
Tablas de contingencia (Ji cuadrado, Fisher,…)
V de Cramer (0, 1) (0 – NO relación, 1 – relación fuerte)
Razón de odds (0, +∞) (1-NO relación, 0-fuerte, +∞-fuerte) (para TABLAS 2X2) – MEJOR NO COLAPSAR CATEGORIAS
Grados de Libertad
En la Ji cuadrado: conformidad → k-1 (categorías) / relación → con la tabla de contingencia
En la prueba t → Grupos independientes: n1 + n2 – 2 / Muestras relacionadas: n – 1 (sólo uno de la pareja)
En el ANOVA, los grados de libertad se dividen en tres componentes:
Intergrupal (EXPLICADA): k – 1 / k = número de grupos.
Intragrupal (NO EXPLICADA): n – k
TOTAL: n – 1 (n = muestra (sólo uno de la pareja))
Intervalo de Confianza para la Decisión Estadística
Inclusión del valor nulo: Si el intervalo incluye 0 → NO rechazamos Ho (medias NO estadísticamente diferentes)
Exclusión del valor nulo: Si el intervalo de confianza NO incluye 0 → rechazamos la Ho (medias estadísticamente diferentes)
TEMA 11 – REGRESIÓN
Supuestos de Regresión
(NO rechazar Ho – con las pruebas de CONFORMACIÓN)
Normalidad: Shapiro (valores cercanos a 1), K-S
Homogeneidad de varianzas: Breusch-Pagan
Linealidad: RESET
Independencia: Durbin-Watson
Gráfico residual: NO queremos ver nada (queremos ausencia de patrón)
DIAGNÓSTICO: apalancamiento (h) (muy a la derecha o izq.), / influencia (D) (NO sigue el patrón) / datos disponibles
COLINEALIDAD – estad. significativo (a nivel global) + R2 grande (relación fuerte – se suman las dos) – ninguna variable parece sig estadística –
Se debe hacer elección (variables redundantes)
Ecuación: y= b0+ b1 x + b2 z (variables diferentes) / y= b0+ b1 x + b2 x2 (cuadrática) – le vas añadiendo, para
ver cuál encaja mejor con la forma de la distribución
Comparaciones Post-ANOVA
Turkey (más común), Bonferroni, Scheffé (más de 2 grupos) → CONTROLAR ERROR TIPO I (aumenta el p-valor)