Formulario de Estadística: Fórmulas Clave y Distribuciones
VR m,n:
mn Vm,n:
mx(m-1)..
Pm:
m!
Combinaciones:
(mn)
Prob condicionada:
P(A∩B) / P(B)
Teorema de la prob total: ∑
P(B/Ai)P(Ai)
Teorema de bayes:
P(Ai/B)= (P(B/Ai)P(Ai)/ ∑P(B/Ai)P(Ai)
Desigualdad de Chebychev:
P(/x-μ/ >= E) <=>=>2/ E 2 P(/x-μ/ < e)=»»>= 1 – σ2/ E 2 Binomial:
x: k éxitos en n pruebas B(n,p) P(x=k) (nk) pk (1-p)n-k E(x) = np Var(x) = npq Geométrico:
x: nº pruebas necesarias hasta 1 éxito G(p) P(x=k) = (1-p) k-1 p E(x): 1/p Var (x): q/p2Hipergeometrico:
x: nº elementos de la muestra que representan la característica estudiada H(N,M,n) P(x=k) = (Mk) (N-Mn-k) / (Nn) E(x) : np Var(x): npq (N-n) / N-1)
Aprox hipergeometrica binomial p: cte, N>50 , n< 0.1n=»h(n,m,n)=» b(n,p)=»p=M/N»> Poisson:
x: nº sucesos en un intervalo de determinada amplitud P(λ) P(x=k) = e-λ λk / k! E(x): λ Var(x):λ Uniforme:
«aleatoriamente» ∫1/b-a E(x): a+ b / 2 Var(x): (b-a)2 / 12 Normal:
N(μ,G) z= x-μ / G Var(x): E((x-μ)2 = E(x)2 – μ2Aproximación binomial normal:
n>30 0.1< p=»»>< 0.9=»» n(μ=»np,» g=»» √np(1-p)=»»>.
Contrastes: media:
μ=
P(/dx/ > /d*/ = p μ>
P(/dx*)>μ P(dx>d*)=p proporción:
p= P(/dp/ > /d*p/) = P p> P(dp*)=p>.p< p(dp=»»> d*p)
Contraste sobre la varianza:
G2 P(Ds2 < d*s)=»» (sigue=»» una=»» chi=»» cuadrado=»» n-1=»»> >
Discrepancias μ:
X normal g conocido
Dx= x-μ /G / √n (sigue modelo normal 0.1)
X normal G desconocido
Dx= x-μ / G/ √n (siguen tn-1)
X desconocido n>30 G conocido
Dx= x-μ / G / √n (convergue normal 0.1)
Discrepancias p: n elevada p conocido:
d^p = p^ – p / √p(1-p) / n (convergue normal 0.1)
P desconocido n elevado:
d^p= p^-p / √p^(1-p^)/ n-1 Discrepancia G2:
dg2: (n-1) s2 (sigue chi cuadrado n)
Intervalos de confianza: μ normal g conocida: (x-kG/raizn, x+kG/raizn) x no normal, g conocida, n>30: (x-kG/raizn , x+kG/raizn) x normal g desconocida: (x-kS/raizn, x+kS/raizn)
Intervalo confianza p:
d^p= p^-p / √p^(1-p^)/ n-1 IC (p^ – k (√p^(1-p^)/ n-1) , p^ + k (√p^(1-p^)/ n-1)
IC varianza:
((n-1)S2 / K2 , (n-1)S2 / K1)
Tamaño mínimo de muestra:
E= KG / raizn Si el modelo .no fuera normal empleo chebychev:
k= 1/raizalfa Si de este modo saliese n>30 lo volveríamos a calcular del mismo modo que si fuese normal ya que n>30 y convergue a normal.
Contraste de normalidad:
djb: n/6 (g12 + 1/4 g22) chicuadrado2 P= P(djb> d*jb/Ho)
Contraste de independencia:
dind= EE (nij- ninj/n)2 / ninj / n sigue chi cuadrado (r-1)(s-1) .P= (dind> d*ind)
P complementario:
P(Ac) = 1 – P(A); P(E)=1; P(AUAc) = P(A) + P(Ac) = 1; P(AUAc)= P(E)
Prob unión:
P(AUB) = P(A) + P(B) – P(A∩B); A=(A∩Bc) U (A∩B) P(A)= P(A∩Bc) U P(A∩B) P(A)= P(A∩Bc) + P(A∩B) / B= (B∩Ac) U (A∩B); P(B) = P(A∩Bc) U P(B∩A) P(B) = P(A∩Bc) + P(.B∩A); AUB = (A∩Bc) U (A∩B) ; P(AUB) = P(A∩Bc) U P(A∩B) U P(B∩Ac) = P(A∩Bc) + P(A∩B) + P(B∩Ac)
T de la prob total: P(B) = E P(B/Ai) P(Ai)
. P(B) = P(Uni=1 (B∩Ai)) = E P(B∩Ai); P(B/Ai) = P(B∩Ai)/P(Ai) -> P(B∩Ai) = P(B/Ai) P(Ai); P(B) = E P(B/Ai)P(Ai)
T de bayes:
P(B/Ai) = P(B∩Ai)/P(Ai); P(B∩Ai) = P(B/Ai)P(B); P(Ai/B)= P(B∩Ai) / P(B) ; P(B∩Ai) = P(Ai/B)P(B) -> P(Ai/B) = P(B/Ai) / P(B) = P(B/Ai)P(Ai) / E P(B/Ai)P(Ai)
Esperanza y v
.
Arianza de los estimadores:
E(t)= E(Exi/n)= E E(xi)/n= μ; Var(t)= Var(Exi/n)= Evar(x)7n2=EG2/n2=G2/n a y b independientes:
P(A∩B)=PA*PB; PA/B= A (independiente a); PA/B=. p(a∩b)/PB Sesgo de un estimador:
ECMt (G) = E((T-G)2 ) = E( T2 + G2 -2TG) = E(T2) +E(G2) + E( -2TG) = E(T2) + G2 -2G E(T) + E(T2) – E(T2) = E(T2) – E(T)2 + E(T)2 + G2 – 2GE(T) = Var (T) + Bt (G)2Bernoulli:
E(x) : = px1 + (1-p) x 0 = p Var(x) = np + n2/p2 – np2 – n2p2 = np – np2 = np(1-p) = npq Variable aleatoria discreta:
.cambio escala: E(ax)=Ea xipi= aExipi =aE(x) Cambio de origen: E(x+a)=Ex+a*pi= Exipi+EaPi= E(x)+aEP(xi)=E(x)a Cambio escala y origen: E(ax+b)= Eax+b *pi= Eaxipi+bp(xi)=Eaxipi+Ebpi= aExipi+bEpi=a(E(x))+b.
Var(x):
E(x-μ)2= E(x2+μ2-2xμ)= Ex2+Eμ2+E(-2xμ)= Ex2+μ2-2μE(x)=E(x2)+μ2-2μ2= E(x2)-μ2
Variable aleatoria continua:
cambio de origen y escala. E(ax+C): ∫-infinito+infinito (a+x)f(x)dx= ∫-inf +inf axf(x)dx+ ∫-inf+inf cf(x)dx= a∫-inf+inf xf(x)dc+ c∫-inf+inf f(x)dx = aE(x)+C Cambio de escala y origen en la varianza: Var (ax+c)= var (y)= E((y-E(y)2)= E(ax+c-aE(x)-c)2= E(ax-aE(x))2= a2E((x-E(x)2)= a2Var(x)
Varianza covarianza 0:
VAR (X+Y) = E((X+Y)-E (X+Y))2 = E(X+Y – E(X) -E(Y) ) 2 = E((X-E(X) + (Y-E(Y))2 = E(X-E(X))2 + E(Y-E(Y))2 + E(2(X-E(X))(Y-E(X)) = E(X-E(X))2 + E(Y-E(Y))2 + 2E((X-μX)(Y-μY)) = VAR (X) + VAR (Y) + 2 COV (X,Y)
Covarianza:
cov(xy)= Ex-μx)(y-μy))= E(xy-μyx-μx+μx-μy)= E(xy)+E(-μy)+E(-μyx)+E(-μyx)+E(μxμy)= E(xy-μxE(y))-μyE(x)+μxμy= E(xy)-μxμy-μyμx+μxμy.= E(xy)-μxμy.
Cambio de escala en la varianza
Var(ax+by)=E(ax+by-E(ax+by))2= E(ax+by-E(ax)-E(by))2= E(a(x-E(x))+b(y-E(y)))2= E(a2(x-E(xi))2+b2(y-E(y))2+2ab(x-E(x))(y-E(y))= a2E(x-E(x))2+b2E(y-E(y))2=a2Var(x)+b2Var(y).
Verosimilitud:
L (x1…Xn, p) = E p (xi, p) = P(xi,p) P(x2,p)… P(xn,p) = pxi (1-p)1-xi px2 (1-p) 1-x2 … Pxn (1-p)1-xn = pExi (1-p)n-Exi Estimador max verosimilitud:
JlnL(xi,p) / Jp = Jln /Jp (Exi ln(p) + (n-Eln(1-p) =0 ; 1/p Exi – 1/ 1-p (n-Exi) = 0; p^= Exi / n