Exploración de Pruebas Estadísticas en Econometría
Pruebas Estadísticas en Econometría
Prueba de Durbin-Watson
Esta prueba se utiliza para medir el grado de **autocorrelación** en los residuos. A partir del número de observaciones “n” y el de variables explicativas (k*=k) en el modelo, los valores “dl” y “du”, que determinan las zonas de rechazo o aceptación de la hipótesis nula H0: p=0, es decir, la no existencia de autocorrelación contra la hipótesis alternativa H1: p≠0, lo que indica presencia de autocorrelación en el modelo.
Pruebas S
Son aquellas que permiten contrastar las hipótesis de que las respuestas a dos tratamientos pertenecen a poblaciones idénticas. Para su utilización se requiere únicamente que las poblaciones subyacentes sean continuas y que las respuestas de cada par asociado estén medidas por lo menos en una escala ordinal. Su hipótesis nula es p(xi > yi) = p(xi < yi) = 0.5
Criterios de Akaike y Schwarz
Consisten en una puntuación global dada a cada modelo ARIMA estimado a partir de la consideración de las estimaciones de los estadísticos de bondad de ajuste obtenidos para el modelo y la cantidad de parámetros empleada en el mismo. Ante dos modelos igualmente adecuados, las puntuaciones de Akaike – Schwarz serán menores para aquel modelo con menor cantidad de parámetros. Desde este punto de vista, estos criterios permiten la selección de la cantidad a emplear en un modelo ARIMA, bajo el principio de **máxima parsimonia**. El método de Schwarz produce la evaluación de cualquier tipo de modelo, mientras el de Akaike es específico para modelos de tipo ARIMA.
Prueba de Pierce
Esta prueba se aplica a los residuales de un modelo de pronósticos. Si las autocorrelaciones se calculan a través de un proceso aleatorio de ruido blanco, tiene una distribución chi cuadrado y con m grados de libertad. Sin embargo, para los residuales de un modelo de pronóstico, la estadística Q de Box-Pierce tiene una distribución chi cuadrada con los grados de libertad iguales a m, menos el número de parámetros estimados en el modelo.
¿Qué es un Correlograma?
Es una herramienta gráfica que se emplea para exhibir las autocorrelaciones para varios desfases en una serie de tiempo.
¿Qué es un Periodograma?
Es el instrumento empleado por excelencia para detectar **estacionalidad** en una serie y determinar su periodo.
Correlación Múltiple
“*R*” representa el porcentaje de variabilidad de la *y* que explica el modelo de regresión. *R* es igual al coeficiente de correlación lineal simple entre el vector variable respuesta
y el vector de predicciones
El coeficiente de correlación múltiple *R* presenta el inconveniente de aumentar siempre que aumenta el número de variables regresoras (*k*), ya que al aumentar *k* disminuye la variabilidad no explicada, lo que puede ocasionar problemas de **multicolinealidad** si el número de observaciones *n* es pequeño.
¿Qué es el Test de Chow?
Esta prueba se utiliza para detectar si las estimaciones del modelo son iguales o distintas en dos periodos dados. Consiste en:
- Ajustar el modelo con todas las (n1 + n2) observaciones y obtener la suma de cuadrados residual restringida.
- Ajustar el modelo utilizando las n1 observaciones designadas como primera muestra, obteniendo la suma de cuadrados residual no restringida SCR1.
- Ajustar el modelo utilizando las n2 observaciones designadas como segunda muestra, obteniendo la suma de cuadrados residual no restringida SCR2.
- Considerar SCR = SCR1 + SCR2.
- Sustituir estos resultados en la expresión del estadístico de F. La hipótesis se rechaza si F supera un valor crítico preseleccionado.
Esta prueba exige que los términos del error de las regresiones estén normal e independientemente distribuidos, y su ecuación está dada por la siguiente fórmula:
F = (e´r er – (e´1 e1 + e´2 e2))/k / ((e´1 e1 + e´2 e2)/t-2k)
Autocorrelación
La **autocorrelación** es un problema econométrico en el que el valor corriente del término del error en una ecuación está correlacionado con sus valores pasados, normalmente indicando que se ha omitido de la ecuación alguna influencia sistémica. Lo que lleva a que el estimador por mínimos cuadrados no es estimador lineal, insesgado óptimo, ya que no produce estimaciones con varianza mínima.
Multicolinealidad
Se da cuando dos o más variables explicativas están altamente correlacionadas en el modelo de regresión, lo que impide conocer el efecto individual de cada una de estas variables explicativas sobre la variable dependiente.
Heteroscedasticidad
Se presenta cuando la varianza del error no es constante para todas las observaciones de la serie histórica a partir de la que se determinó la ecuación de regresión. En presencia de **heteroscedasticidad** se presentan las siguientes consecuencias:
- Los estimadores de mínimos cuadrados son insesgados pero no consistentes ni eficientes, es decir, no poseen varianza mínima, algunos datos tienen una varianza más grande; además, el valor del estimador no tiende al del parámetro a medida que crece el tamaño de la muestra, se dice que es inconsistente.
- Las varianzas estimadas no son insesgadas. Al ser sesgados los estimadores de las varianzas, invalidan las pruebas de significación sobre las hipótesis que se establezcan.
Cambio Estructural
Se entiende como aquella situación en la que los valores de los parámetros del modelo permanecen constantes a lo largo de todo el periodo.
Hernández Alonso (2009) indica que la presencia de **cambio estructural** puede invalidar la solución del modelo. La mezcla de relaciones estructurales distintas bajo un proceso conjunto de MCO, al obtener una media ponderada de las diversas estructuras, conduce a unas estimaciones no válidas (estimaciones sesgadas e inconsistentes). Además, tendrá consecuencias apreciables sobre la capacidad predictiva del modelo, pues no se proyectaría a futuro la estructura última que es la que tendrá vigencia en el periodo de predicción.
Colinealidad
Render, Stair, Hanna (2006) la definen como aquella condición que existe cuando una variable independiente se correlaciona con otra variable independiente, y argumentan que si en un modelo se presenta la **colinealidad**, éste mantiene su capacidad para predecir, pero la interpretación de coeficientes individuales es cuestionable.
Test para Detectar Correlación: Coeficiente de Correlación de Pearson
Estudia la asociación entre un factor de estudio y una variable de respuesta cuantitativa, mide el grado de asociación entre dos variables tomando valores entre -1 y 1. Los valores cercanos a 1 indicarán fuerte asociación lineal positiva y los cercanos a -1 fuerte asociación lineal negativa, mientras que los próximos a 0 indicarán no asociación lineal. Esta prueba establece si una distribución de frecuencia observada difiere de una distribución teórica, y se define por la siguiente ecuación:
r = coeficiente producto-momento de relación lineal.
Ejemplo de Modelo de Consumo
Consumo = 4.25123E9 + 0.146681*INGRESO – 1.15946E8*tasa de interés
Dado que el valor P en la tabla de ANOVA es menor que 0.01, existe una relación estadísticamente significativa entre las variables en el 99% de nivel de confianza.
El estadístico R-cuadrado indica que el modelo ajustado explica el 98.7002% de la variabilidad en Consumo. La ajustada R-cuadrado estadística, que es más adecuado para comparar con los modelos diferentes números de variables independientes, es 98.6482%. La norma error de la estimación se muestra la desviación estándar de los residuos a ser 8.25621E7. Este valor puede usarse para construir límites de predicción para nuevas observaciones de la selección de la opción Informes del texto menú. El error absoluto medio (MAE) de 6.41961E7 es el valor medio de los residuos. El Durbin-Watson (DW) pone a prueba los residuos para determinar si hay alguna correlación significativa basada en el orden en el que aparecen en el archivo de datos. Dado que el valor P es mayor que 0.05, no hay ninguna indicación de autocorrelación serial en los residuos.
Para determinar si el modelo se puede simplificar, observe que el P-valor más alto en las variables independientes es 0.0021, que pertenecen a INGRESO. Dado que el valor P es menor que 0.01, el término de mayor orden es estadísticamente significativa al nivel de confianza del 99%.
En consecuencia, es probable que no desee eliminar las variables del modelo.