Probabilidad matemática suceso
Covarianza
La covarianza nos da una medida de la variabilidad conjunta y por tanto de la asociación o relación entre las variables X e Y.
El signo de la covarianza indica en qué sentido varían conjuntamente las variables. Si la covarianza es positiva las dos variables se mueven, en general, en el mismo sentido, si una variable aumenta de valor la otra también aumenta, si una disminuye la otra hará lo mismo. En este caso decimos que la relación entre las variables es positiva o directa. Si la covarianza es negativa las dos variables se mueven, en general, en sentidos opuestos, si una aumenta la otra disminuye y viceversa. En este caso decimos que la relación entre las variables es negativa o inversa.
Una forma más cómoda de calcular la covarianza es: = ∑ − ̅ datos en dos columnas
= ∑ − ̅ datos en tabla de contingencia
En caso de independencia estadística, la covarianza es necesariamente nula, = 0. Sin embargo = 0, no implica necesariamente que se dé la condición de independencia estadística, como puede comprobarse con el siguiente ejemplo.
Coeficiente de correlación lineal
.
Su signo es el mismo que el de la covarianza, además este coeficiente toma valores entre -1 y 1, midiendo objetivamente el grado de variación conjunta que tienen las variables X e Y.
Cuando las variables están tipificadas el coeficiente de correlación lineal coincide con la covarianza
Mínimos cuadrados
Todas las ciencias tratan de encontrar relaciones entre los hechos que estudian. Esas relaciones normalmente se intentan traducir en expresiones matemáticas. Existe otro tipo de fenómenos en los que intervienen variables como el consumo y la renta, la oferta y la demanda,… Donde no cabe duda que hay una relación, pero donde es imposible definir sobre dichas variables una función matemática que verifiquen rigurosamente. A este tipo de relación o dependencia entre variables la denominaremos dependencia estadística frente a dependencia funcional que es el término utilizado para referirse a relaciones estrictas entre variables.
Dependencias estadísticas son habituales en Economía y, en general, en todas las Ciencias Sociales.
Si dos variables presentan una dependencia estadística, no es posible encontrar una ecuación que verifiquen los valores de dichas variables. Esto equivale gráficamente a que no es posible encontrar una función tal que su representación gráfica pase por todos los puntos del diagrama de dispersión asociado a los datos observados.
Ante la imposibilidad de encontrar una función cuya gráfica pase por todos los puntos de la nube hay que aceptar que la función más próxima a los datos observados expresará de la mejor manera posible la relación entre los mismos.
Hacer regresión es como se conoce en Estadística a obtener esa función que mejor representa la dependencia estadística entre variables.
El procedimiento analítico para obtener dicha función se basa en hacer mínima la suma de las distancias verticales al cuadrado entre los puntos de la nube , y la gráfica de la función = , es decir, trata de minimizar
COEFICIENTE DE DETERMINACIÓN
Para resolver dicho problema se define a partir de la varianza residual el coeficiente de determinación como:
Este coeficiente siempre toma valores entre 0 y 1.
Toma el valor 1 cuando la varianza residual, por tanto cada residuo, es 0. Es decir, tomará el valor 1 si el ajuste es perfecto y se acercará más a 1 cuanto mejor sea el ajuste. Cuanto mayor sea la varianza residual menor será , cuanto peor sea la calidad del ajuste más se acercará este coeficiente a 0.
R^2 = ^(rxy)^2. En el caso de la recta, el coeficiente de determinación coincide con el coeficiente de correlación lineal al cuadrado,R^2 = r^2.
• Si = 0 tenemos que la bondad del ajuste es nula. La recta de regresión de Y/X se reduce a
Al no relacionarse (linealmente) las variables, la información que aporta la variable independiente X es irrelevante para estimar la variable Y, la variable independiente X no aparece en la expresión de la recta de regresión de Y/X que se reduce a estimar los valores de la variable Y mediante , cualquiera que sea el valor de X.
En el caso de la recta, el coeficiente de determinación coincide con el coeficiente de correlación lineal al cuadrado, R^2= r^2.
- Si = 1 estamos ante un ajuste por mínimos cuadrados perfecto, la gráfica de las rectas de regresión pasa por todos los puntos de la nube. Ambas rectas de regresión coinciden.
- Para valores intermedios, 0 <>< 1=»»>, según esté más próximo a un extremo u otro nos indicará un peor o mejor ajuste. Otra interpretación de este coeficiente de determinación, , es la proporción de la varianza de Y (en otras palabras, del comportamiento de la variable Y) que puede atribuirse a su relación con X.
SERIES Cronológicas
Para el estudio de una serie cronológica, ésta se desagrega en cuatro componentes:
Tendencia secular, : Es el movimiento de la serie a largo plazo, es decir, refleja el comportamiento general de la serie. Por ejemplo, la tendencia creciente del IPC.
Variación estacional, : Representa fluctuaciones de la serie en periodos de tiempo que se repiten con una periodicidad conocida. Por ejemplo, el aumento y disminución periódicos del índice de desempleo en los distintos meses del año.
Variación cíclica, : Representa el comportamiento de la serie de carácter periódico, con periodos de duración diferente, desconocida y en general superior a un año. Por ejemplo, los ciclos económicos con etapas de crecimiento, crisis y recuperación.
Variación irregular, residual o aleatoria, : Refleja hechos impredecibles que ocurren aleatoriamente y que normalmente suponen ligeras desviaciones de los valores de la variable respecto de las componentes anteriores, aunque en ciertas ocasiones pueden suponer importantes desviaciones (catástrofes como el terremoto de Japón,…)
El primer problema a resolver es la construcción de un modelo que reuniendo las anteriores componentes explique el comportamiento de la serie cronológica. Básicamente consideramos dos modelos.
Modelo aditivo: Supone que las observaciones se generan como suma de las cuatro componentes
Y(t)=r(t) +E(t) + C(t)+
En este modelo cada componente se expresa en la misma unidad que las observaciones.
Modelo multiplicativo: Las observaciones están generadas por el producto de las componentes
Y(t)=r(t) xE(t) x C(t)
En este caso la tendencia secular se expresa en la misma unidad que las observaciones y las demás componentes son adimensionales, medidas en tantos por uno.
Existen varios procedimientos para determinar el tipo de modelo al que responde una serie cronológica. La idea en todos consiste en poner de manifiesto si las fluctuaciones de la serie son aproximadamente constantes o proporcionales al valor de la tendencia. Uno de ellos consiste en analizar la variabilidad de las diferencias y cocientes estacionales:
Para cada estación j se comparan los datos en años consecutivos, (i-1), i, mediante diferencia y cociente.
dij= yij− y(i-1)j
Se calculan los coeficientes de variación sobre las diferencias y sobre los cocientes. Si CV(d)(k)>se elegirá el modelo aditivo, en caso contrario se optará por el modelo multiplicativo.
ASIGNACIÓN DE SUCESOS
Llamaremos suceso a cada uno de los posibles resultados de un experimento o fenómeno aleatorio. Utilizaremos letras mayúsculas para referirnos a ellos. Al suceso formado por un único resultado se denomina suceso elemental.
Se llama suceso seguro al suceso que siempre ocurre, está formado por todos los sucesos elementales, se nota Ω. Al conjunto vacío, que se nota ∅, se denomina suceso imposible.
A implica B si siempre que ocurre A ocurre B. Lo notaremos
Se define la uníón de dos sucesos A y B, ∪ , como el suceso que ocurre cuando ocurre el suceso A o el suceso B. La uníón de sucesos cumple las propiedades conmutativa, asociativa e idempotente:
Se define la intersección de dos sucesos A y B, ∩ , como el suceso que ocurre cuando ocurre el suceso A y el suceso B. La intersección de sucesos cumple las propiedades conmutativa, asociativa e idempotente:
A∩B=B∩A A∩(B∩C)=(A∩B)∩C A∩A=A
El suceso contrario (o complementario) de A es el que ocurre cuando no ocurre A. Se nota como ̅A.
Los sucesos A y B son incompatibles si no pueden ocurrir ambos simultáneamente, es decir, ∩ ∅ . Un suceso y su complementario son siempre sucesos incompatibles Representaremos los resultados de un experimento aleatorio mediante el par (Ù,A) , donde Ω es el conjunto de todos los sucesos elementales del experimento aleatorio y A el conjunto de todos los sucesos (elementales y no elementales).