Guía completa de Econometría: Residuos, MCO y Series Temporales

1. Residuos y el Modelo

1.1. Diferencia entre ê y e

¿Es lo mismo ê que e? Explícate.

No, no son lo mismo. ‘e’ representa la variable de error, que es la diferencia entre el valor real de la variable dependiente y el valor esperado dado el modelo. Por otro lado, ‘ê’ representa los residuos, que son la diferencia entre el valor real de la variable dependiente y el valor predicho por el modelo estimado.

1.2. Residuos y la Variable e

¿Obtener los residuos de un modelo es lo mismo que obtener la variable e?

No, obtener los residuos de un modelo no es lo mismo que obtener la variable ‘e’. Al obtener los residuos, obtenemos ‘ê’, no ‘e’. La variable ‘e’ es desconocida y no podemos observarla directamente.

1.3. Características de los Residuos

¿Qué características deben tener los residuos para validar un modelo?

Para validar un modelo, los residuos deben cumplir con ciertas características, entre ellas:

  • Tener una media de cero.
  • Ser homocedásticos, es decir, tener una varianza constante.
  • Ser independientes entre sí (no autocorrelacionados).
  • Seguir una distribución normal.

1.4. Estimación de Parámetros

Si tenemos un modelo con 3 variables explicativas, al aplicar la fórmula del β^ matricial ¿cuántos valores estimados de β se obtienen?

Se obtienen 4 betas: β1, β2, β3 y β4. El beta adicional (β0) representa el intercepto del modelo.

2. Propiedades de los Estimadores MCO

2.1. Naturaleza Aleatoria de β^

¿Son los β^ obtenidos por MCO variables aleatorias? Sí o no.

Sí, los β^ obtenidos por MCO son variables aleatorias debido a la presencia de la variable de error ‘e’ en el modelo.

2.2. Momentos de β^

¿Qué momentos de los β^ MCO hemos considerado en clase?

En clase, hemos considerado los siguientes momentos de los β^ MCO:

  • Insesgadez: E(β^) = β
  • Linealidad
  • Eficiencia (Varianza mínima)

2.3. Utilidad de las Propiedades

¿Qué es más útil en econometría, saber que un estimador insesgado o que tiene varianza mínima?

En econometría, es más útil saber que un estimador tiene varianza mínima. Si bien la insesgadez es importante, un estimador con varianza mínima nos dará estimaciones más precisas y confiables, incluso si existe un ligero sesgo.

2.4. Teorema de Gauss-Markov

¿Qué establece el Teorema de Gauss-Markov? Explícate con palabras muy claras.

El Teorema de Gauss-Markov establece que, bajo ciertos supuestos, el estimador de MCO (β^) es el mejor estimador lineal insesgado (ELIO) de los parámetros poblacionales (β). Esto significa que, entre todos los posibles estimadores lineales e insesgados, el estimador de MCO tiene la menor varianza.

3. Contraste de Hipótesis y Significancia

3.1. Contraste de Significación

¿Qué otro nombre recibe el siguiente contraste? H0: Bi=0 H1: Bi distinto 0

Este contraste recibe el nombre de contraste de significación individual o prueba t.

3.2. Fórmula del Estadístico t

Al contrastar la significación de un único coeficiente de un modelo, se utiliza la distribución t. Escribe la fórmula del estadístico t del contraste.

La fórmula del estadístico t es: t = (β^ – β) / Error Estándar(β^) ~ tn-k, donde n es el número de observaciones y k es el número de parámetros del modelo.

3.3. Interpretación del R²

Estimado un modelo, ¿Qué indica el valor de R²?

El valor de R² (R cuadrado) indica la proporción de la variación total de la variable dependiente (Y) que es explicada por el modelo de regresión. Un R² cercano a 1 indica un buen ajuste del modelo a los datos.

3.4. Contraste de Significación Conjunta

¿Pasos para contrastar la significación conjunta de un grupo de coeficientes de un modelo?

Los pasos para realizar un contraste de significación conjunta (prueba F) son:

  1. Planteamiento de las hipótesis nula (H0) y alternativa (H1).
  2. Establecimiento del nivel de significación (α), generalmente 0.05.
  3. Identificación de la distribución de probabilidad, en este caso, la distribución F.
  4. Establecimiento de la regla de decisión y las zonas de rechazo y no rechazo: F0.05; k-1; n-k.
  5. Cálculo del estadístico F y toma de la decisión.

La fórmula del estadístico F es: F = (R² / (k-1)) / ((1 – R²) / (n-k)) ~ Fk-1; n-k

3.5. Uso del R² en la Prueba F

La fórmula del estadístico F para contrastar la significación conjunta de un número de coeficientes de un modelo, se puede hacer también con ayuda del R². ¿Cuándo se puede hacer esto?

Se puede utilizar el R² para calcular el estadístico F cuando se compara un modelo restringido (sin las variables de interés) con un modelo no restringido (con las variables de interés). La fórmula en este caso sería: F = ((R²nr – R²r) / (k-1)) / (R²nr / (n-k)), donde R²nr es el R² del modelo no restringido y R²r es el R² del modelo restringido.

4. Reglas Prácticas y Variables Dummy

4.1. Reglas para la Significancia Estadística

Indica dos de las reglas nemotécnicas dichas en clase para decidir si una variable es estadísticamente significativa.

Dos reglas prácticas para determinar la significancia estadística de una variable son:

  • Si el valor absoluto del estadístico t es mayor que 2.
  • Si el valor absoluto del coeficiente es mayor que dos veces su error estándar.

4.2. Significancia con el Valor p

Si acudimos al valor p, ¿Cuál es la regla para decidir si una variable es estadísticamente significativa?

Si el valor p es menor que el nivel de significancia (α), generalmente 0.05, se rechaza la hipótesis nula y se concluye que la variable es estadísticamente significativa.

4.3. Significancia Conjunta con el Valor p

Acudiendo al valor p, ¿Cuál es la regla para decidir si un conjunto de variables es estadísticamente significativo?

De manera similar a la significancia individual, si el valor p del estadístico F es menor que el nivel de significancia (α), se rechaza la hipótesis nula y se concluye que el conjunto de variables es conjuntamente significativo.

4.4. Significancia Individual vs. Conjunta

¿Puede ocurrir que todas las variables de un modelo resulten conjuntamente significativas, aunque haya dos que no lo sean en singular? Sí o no. Razón.

Sí, puede ocurrir. Esto se debe a que la significancia conjunta evalúa el efecto combinado de todas las variables, mientras que la significancia individual evalúa el efecto de cada variable por separado. Es posible que la combinación de variables tenga un efecto significativo, aunque individualmente algunas no lo tengan.

4.5. Variables Dummy

¿Cuál es la razón para hablar de variables ficticias o variables dummy?

Las variables dummy (o ficticias) se utilizan para incluir información cualitativa en un modelo de regresión. Estas variables toman el valor de 1 si la observación pertenece a una categoría específica y 0 en caso contrario.

4.6. Número de Variables Dummy

¿Se pueden incluir en un modelo tantas variables ficticias como parecen que son posibles para el caso concreto en estudios? Sí o no, y razón.

No, no se pueden incluir tantas variables dummy como categorías tenga la variable cualitativa. Siempre se debe omitir una categoría para evitar la multicolinealidad perfecta, que ocurre cuando una variable explicativa es una combinación lineal perfecta de otras variables explicativas.

5. Heterocedasticidad

5.1. Definición de Heterocedasticidad

Hablamos de heteroscedasticidad, ¿de qué estamos hablando?

La heterocedasticidad se refiere a la situación en la que la varianza de los errores del modelo no es constante para todas las observaciones. En otras palabras, la dispersión de los residuos no es uniforme a lo largo del rango de valores de las variables explicativas.

5.2. Efectos de la Heterocedasticidad

En presencia de heteroscedasticidad, ¿qué propiedades tienen los β^ MCO?

En presencia de heterocedasticidad, los estimadores de MCO siguen siendo lineales e insesgados, pero ya no son eficientes. Esto significa que no tienen varianza mínima y, por lo tanto, no son ELIO.

5.3. Detección de Heterocedasticidad

Antes que no teníamos ordenadores para representar los residuos, ¿cómo detectar la presencia de heteroscedasticidad?

Antes de la disponibilidad de software estadístico, se utilizaban contrastes estadísticos para detectar la presencia de heterocedasticidad, como el contraste de White o el contraste de Breusch-Pagan.

5.4. Contraste de Hipótesis con Heterocedasticidad

En presencia de heteroscedasticidad, ¿se puede contrastar la siguiente hipótesis? H0: Bi = 0 H1: Bi distinto de 0

No se puede utilizar la prueba t tradicional para contrastar la significancia de los coeficientes en presencia de heterocedasticidad, ya que los errores estándar no son confiables. Se deben utilizar pruebas robustas a la heterocedasticidad.

5.5. Contraste de White

Wooldridge indica una manera fácil de utilizar una de las maneras de detectar la presencia de heteroscedasticidad. ¿De qué manera se trata? ¿Cuáles son los pasos para hacerla?

Wooldridge se refiere al contraste de White como una forma sencilla de detectar la heterocedasticidad. Los pasos para realizar este contraste son:

  1. Estimar el modelo de regresión original y guardar los residuos.
  2. Elevar al cuadrado los residuos y estimar una segunda regresión con los residuos al cuadrado como variable dependiente y las variables explicativas originales, sus cuadrados y sus productos cruzados como variables independientes.
  3. Calcular el estadístico de prueba, que sigue una distribución Chi-cuadrado con grados de libertad igual al número de variables independientes en la segunda regresión.
  4. Comparar el valor del estadístico de prueba con el valor crítico de la distribución Chi-cuadrado. Si el valor del estadístico de prueba es mayor que el valor crítico, se rechaza la hipótesis nula de homocedasticidad.

6. Autocorrelación

6.1. Definición de Autocorrelación

Si se cumplen los supuestos establecidos sobre el término de error del modelo, ¿qué propiedades tiene los coeficientes estimados β^ MCO?

Si se cumplen todos los supuestos del modelo clásico de regresión lineal, incluyendo la no autocorrelación de los errores, los coeficientes estimados por MCO (β^) son:

  • Lineales
  • Insesgados
  • Eficientes (tienen varianza mínima)
  • Óptimos (son ELIO)

6.2. Propiedades con Autocorrelación

Si no se cumplen los supuestos establecidos sobre el término de error del modelo, ¿qué propiedades tienen los coeficientes estimados β^ MCO?

Si no se cumplen los supuestos, como en el caso de autocorrelación de los errores, los coeficientes estimados por MCO siguen siendo lineales e insesgados, pero ya no son eficientes. Esto significa que no tienen varianza mínima y, por lo tanto, no son ELIO.

6.3. Contraste de Breusch-Pagan

¿Para qué sirve el contraste de Breusch-Pagan?

El contraste de Breusch-Pagan se utiliza para detectar la presencia de heterocedasticidad en los errores del modelo.

6.4. Solución a la Heterocedasticidad

¿Qué solución hemos utilizado en clase para el tema de la heteroscedasticidad?

En clase, hemos utilizado el contraste de White para detectar la presencia de heterocedasticidad y hemos corregido la heterocedasticidad utilizando errores estándar robustos a la heterocedasticidad.

6.5. Modelo AR(1)

Escribe el AR(1) que se considera apropiado, con datos económicos, para el término de error del modelo.

Un modelo autorregresivo de orden 1 (AR(1)) para el término de error del modelo se puede escribir como:

𝑒𝑡 = 𝜌1 𝑒𝑡−1 + 𝜖𝑡, t = 1, 2, …, T

Donde:

* 𝑒𝑡 es el término de error en el periodo t * 𝜌1 es el coeficiente autorregresivo de orden 1 * 𝜖𝑡 es un término de error ruido blanco

6.6. Efectos de la Autocorrelación

En presencia de correlación serial en el término de error del modelo, e, ¿qué decir respecto a los coeficientes estimados por MCO?

En presencia de autocorrelación, los estimadores MCO siguen siendo insesgados, pero ya no son eficientes. Esto significa que sus varianzas son mayores que las que se obtendrían con estimadores que sí consideran la autocorrelación.

6.7. Contraste de Durbin-Watson

Para detectar su presencia se desarrolló el contraste de Durbin-Watson: DW. Como el valor de este estadístico aparece en el summary del modelo estimado, ¿Qué valor del DW nos permite considerar que no existe el problema?

Un valor del estadístico DW cercano a 2 sugiere que no hay autocorrelación de primer orden en los residuos.

6.8. Hipótesis Nula del Contraste DW

¿Cuál es la hipótesis nula del contraste de Durbin-Watson?

La hipótesis nula del contraste de Durbin-Watson es que no hay autocorrelación de primer orden en los errores del modelo, es decir, H0: ρ1 = 0.

6.9. Representación Gráfica de la Autocorrelación

La hipótesis nula de DW ¿aparece reflejada en la representación de la acf o en la representación de la pacf?

La hipótesis nula de DW se refleja en la representación de la función de autocorrelación parcial (PACF). Si no hay autocorrelación de primer orden, el primer coeficiente de la PACF debería ser cercano a cero.

6.10. ACF y PACF

Dos funciones estadísticas representables: acf y pacf. Escribe lo que significan.

* **ACF (Autocorrelation Function):** La función de autocorrelación (ACF) mide la correlación entre una serie de tiempo y sus propios valores rezagados. * **PACF (Partial Autocorrelation Function):** La función de autocorrelación parcial (PACF) mide la correlación entre una serie de tiempo y sus propios valores rezagados, controlando por los valores intermedios.

7. Series Temporales y Regresión Espuria

7.1. Series Estacionarias en Regresión

¿Qué condición deben tener las series temporales en un modelo de regresión?

Para evitar resultados espurios en un modelo de regresión con series temporales, las series deben ser estacionarias o, al menos, débilmente estacionarias.

7.2. ACF de Series No Estacionarias

La acf series no estacionarias…

La ACF de una serie no estacionaria tiende a decaer muy lentamente hacia cero, lo que indica que existe una fuerte dependencia a largo plazo.

7.3. PACF de Series No Estacionarias

La Pacf series no estacionarias…

La PACF de una serie no estacionaria suele presentar un primer coeficiente muy cercano a 1, lo que indica que la serie tiene una raíz unitaria y no es estacionaria.

7.4. ACF y PACF de Series Débilmente Estacionarias

Las series débilmente estacionarias acf y pacf…

En una serie débilmente estacionaria, la ACF tiende a decaer rápidamente hacia cero y la PACF no presenta ningún coeficiente significativo después del primer o segundo rezago.

7.5. Series Integradas de Orden 1

¿Qué quiere decir una serie no estacionaria de orden 1?

Una serie no estacionaria de orden 1 (I(1)) es aquella que se vuelve estacionaria después de tomar la primera diferencia. Esto significa que la serie original tiene una raíz unitaria, pero la serie de las primeras diferencias no la tiene.

8. Regresión Espuria y Modelos ARIMA

8.1. Cómo Evitar la Regresión Espuria

¿Cómo evitar cometer una regresión espúrea? ¿Es lo mismo regresión espúrea que regresión falsa?

Para evitar una regresión espuria, se deben utilizar series estacionarias o aplicar técnicas que corrijan la no estacionariedad, como la diferenciación o la cointegración. Sí, regresión espuria y regresión falsa son términos equivalentes.

8.2. Autocorrelación en Residuos de Series Temporales

Vimos un ejemplo de regresión válida con series temporales, pero los residuos del modelo estimado mostraban autocorrelación. ¿Estos residuos, validan o invalidan el modelo estimado? Razón.

La presencia de autocorrelación en los residuos de un modelo con series temporales no necesariamente invalida el modelo. Si bien la autocorrelación puede afectar la eficiencia de los estimadores, no afecta su insesgadez. Sin embargo, es importante corregir la autocorrelación para obtener inferencias válidas.

8.3. Diferencia entre Modelos de Regresión y Autorregresivos

¿Cuál es la diferencia entre un modelo de regresión y un modelo autorregresivo de series temporales?

La principal diferencia radica en que un modelo de regresión tradicional utiliza variables independientes para explicar la variación en la variable dependiente, mientras que un modelo autorregresivo (AR) utiliza valores pasados de la propia variable dependiente como variables explicativas.

8.4. Modelo ARIMA(1,1,1)

¿Qué quiere decirse cuando se habla de un modelo ARIMA (1,1,1)?

Un modelo ARIMA(1,1,1) significa que la serie se modela con un componente autorregresivo de orden 1 (AR(1)), un componente de integración de orden 1 (I(1)) y un componente de media móvil de orden 1 (MA(1)). La integración de orden 1 implica que la serie se diferencia una vez para hacerla estacionaria.

8.5. Modelo ARIMA(1,0,0)

¿Qué quiere decirse cuando se habla de un modelo ARIMA (1,0,0)?

Un modelo ARIMA(1,0,0) es equivalente a un modelo AR(1), lo que significa que la serie es estacionaria y se modela utilizando únicamente un componente autorregresivo de orden 1.

8.6. Equivalencia entre AR(1), ARMA(1,0) y ARIMA(1,0,0)

¿Es lo mismo un AR(1) que un ARMA(1,0), o que un ARIMA (1,0,0)?

Sí, los modelos AR(1), ARMA(1,0) y ARIMA(1,0,0) son equivalentes. En los tres casos, la serie se modela utilizando únicamente un componente autorregresivo de orden 1.