Formulario de Estadística: Fórmulas Clave y Distribuciones

VR m,n:


mn Vm,n:
mx(m-1)..

Pm:

m!

Combinaciones:

(mn)

Prob condicionada:

P(A∩B) / P(B)

Teorema de la prob total: ∑

P(B/Ai)P(Ai)

Teorema de bayes:

P(Ai/B)= (P(B/Ai)P(Ai)/ ∑P(B/Ai)P(Ai)

Desigualdad de Chebychev:

P(/x-μ/ >= E) <=>=>2/ E 2  P(/x-μ/ < e)=»»>= 1 – σ2/ E 2 Binomial:
x: k éxitos en n pruebas B(n,p) P(x=k) (nk) pk (1-p)n-k E(x) = np Var(x) = npq Geométrico:
x: nº pruebas necesarias hasta 1 éxito G(p) P(x=k) = (1-p) k-1 p E(x): 1/p Var (x): q/p2Hipergeometrico:
x: nº elementos de la muestra que representan la característica estudiada H(N,M,n) P(x=k) = (Mk) (N-Mn-k) / (Nn) E(x) : np Var(x): npq (N-n) / N-1)
Aprox hipergeometrica binomial p: cte, N>50 , n< 0.1n=»h(n,m,n)=» b(n,p)=»p=M/N»> Poisson:
x: nº sucesos en un intervalo de determinada amplitud P(λ) P(x=k) = e λk / k! E(x): λ Var(x):λ Uniforme:
«aleatoriamente» ∫1/b-a E(x): a+ b / 2 Var(x): (b-a)2 / 12 Normal:
N(μ,G) z= x-μ / G Var(x): E((x-μ)2 = E(x)2 – μ2Aproximación binomial normal:
n>30 0.1< p=»»>< 0.9=»» n(μ=»np,» g=»» √np(1-p)=»»>.

Contrastes: media:

μ=
P(/dx/ > /d*/ = p μ>
P(/dx*)>μ P(dx>d*)=p proporción:
p= P(/dp/ > /d*p/) = P p> P(dp*)=p>.p<  p(dp=»»> d*p)

Contraste sobre la varianza:

G2 P(Ds2 < d*s)=»» (sigue=»» una=»» chi=»» cuadrado=»» n-1=»»> >


Discrepancias μ:



X normal g conocido

Dx= x-μ /G / √n (sigue modelo normal 0.1)

X normal G desconocido

Dx= x-μ / G/ √n (siguen tn-1)

X desconocido n>30 G conocido

Dx= x-μ / G / √n (convergue normal 0.1)

Discrepancias p: n elevada p conocido:

d^p = p^ – p / √p(1-p) / n (convergue normal 0.1)

P desconocido n elevado:

d^p= p^-p / √p^(1-p^)/ n-1 Discrepancia G2:
dg2: (n-1) s2 (sigue chi cuadrado n)
Intervalos de confianza: μ normal g conocida: (x-kG/raizn, x+kG/raizn) x no normal, g conocida, n>30: (x-kG/raizn , x+kG/raizn) x normal g desconocida: (x-kS/raizn, x+kS/raizn)

Intervalo confianza p:

d^p= p^-p / √p^(1-p^)/ n-1 IC (p^ – k (√p^(1-p^)/ n-1) , p^ + k (√p^(1-p^)/ n-1)

IC varianza:

((n-1)S2 / K2 , (n-1)S2 / K1)

Tamaño mínimo de muestra:

E= KG / raizn Si el modelo .no fuera normal empleo chebychev:
k= 1/raizalfa Si de este modo saliese n>30 lo volveríamos a calcular del mismo modo que si fuese normal ya que n>30 y convergue a normal.

Contraste de normalidad:

djb: n/6 (g12 + 1/4 g22) chicuadrado2 P= P(djb> d*jb/Ho)

Contraste de independencia:

dind= EE (nij- ninj/n)2 / ninj / n sigue chi cuadrado (r-1)(s-1) .P= (dind> d*ind)


P complementario:


P(Ac) = 1 – P(A); P(E)=1; P(AUAc) = P(A) + P(Ac) = 1; P(AUAc)= P(E)

Prob unión:

P(AUB) = P(A) + P(B) – P(A∩B); A=(A∩Bc) U (A∩B) P(A)= P(A∩Bc) U P(A∩B) P(A)= P(A∩Bc) + P(A∩B) / B= (B∩Ac) U (A∩B); P(B) = P(A∩Bc) U P(B∩A) P(B) = P(A∩Bc) + P(.B∩A); AUB = (A∩Bc) U (A∩B) ; P(AUB) = P(A∩Bc) U P(A∩B) U P(B∩Ac) = P(A∩Bc) + P(A∩B) + P(B∩Ac)

T de la prob total: P(B) = E P(B/Ai) P(Ai)

. P(B) = P(Uni=1 (B∩Ai)) = E P(B∩Ai); P(B/Ai) = P(B∩Ai)/P(Ai) -> P(B∩Ai) = P(B/Ai) P(Ai); P(B) = E P(B/Ai)P(Ai)

T de bayes:

P(B/Ai) = P(B∩Ai)/P(Ai); P(B∩Ai) = P(B/Ai)P(B); P(Ai/B)= P(B∩Ai) / P(B) ; P(B∩Ai) = P(Ai/B)P(B) -> P(Ai/B) = P(B/Ai) / P(B) = P(B/Ai)P(Ai) / E P(B/Ai)P(Ai)

Esperanza y v

.

Arianza de los estimadores:

E(t)= E(Exi/n)= E E(xi)/n= μ; Var(t)= Var(Exi/n)= Evar(x)7n2=EG2/n2=G2/n a y b independientes:
P(A∩B)=PA*PB; PA/B= A (independiente a); PA/B=. p(a∩b)/PB Sesgo de un estimador:
ECMt (G) = E((T-G)2 ) = E( T2 + G2 -2TG) = E(T2) +E(G2) + E( -2TG) = E(T2) + G2 -2G E(T) + E(T2) – E(T2) = E(T2) – E(T)2 + E(T)2 + G2 – 2GE(T) = Var (T) + Bt (G)2Bernoulli:
E(x) : = px1 + (1-p) x 0 = p Var(x) = np + n2/p2 – np2 – n2p2 = np – np2 = np(1-p) = npq Variable aleatoria discreta:
.cambio escala: E(ax)=Ea xipi= aExipi =aE(x) Cambio de origen: E(x+a)=Ex+a*pi= Exipi+EaPi= E(x)+aEP(xi)=E(x)a Cambio escala y origen: E(ax+b)= Eax+b *pi= Eaxipi+bp(xi)=Eaxipi+Ebpi= aExipi+bEpi=a(E(x))+b.

Var(x):

E(x-μ)2= E(x2+μ2-2xμ)= Ex2+Eμ2+E(-2xμ)= Ex2+μ2-2μE(x)=E(x2)+μ2-2μ2= E(x2)-μ2

Variable aleatoria continua:


cambio de origen y escala. E(ax+C): ∫-infinito+infinito (a+x)f(x)dx= ∫-inf +inf axf(x)dx+ ∫-inf+inf cf(x)dx= a∫-inf+inf xf(x)dc+ c∫-inf+inf f(x)dx = aE(x)+C Cambio de escala y origen en la varianza: Var (ax+c)= var (y)= E((y-E(y)2)= E(ax+c-aE(x)-c)2= E(ax-aE(x))2= a2E((x-E(x)2)= a2Var(x)

Varianza covarianza 0:

VAR (X+Y) = E((X+Y)-E (X+Y))2 = E(X+Y – E(X) -E(Y) ) 2  = E((X-E(X) + (Y-E(Y))2 = E(X-E(X))2 + E(Y-E(Y))2 + E(2(X-E(X))(Y-E(X)) =  E(X-E(X))2 + E(Y-E(Y))2 + 2E((X-μX)(Y-μY)) = VAR (X) + VAR (Y) + 2 COV (X,Y)

Covarianza:

cov(xy)= Ex-μx)(y-μy))= E(xy-μyx-μx+μx-μy)= E(xy)+E(-μy)+E(-μyx)+E(-μyx)+E(μxμy)= E(xy-μxE(y))-μyE(x)+μxμy= E(xy)-μxμy-μyμx+μxμy.= E(xy)-μxμy.

Cambio de escala en la varianza

Var(ax+by)=E(ax+by-E(ax+by))2= E(ax+by-E(ax)-E(by))2= E(a(x-E(x))+b(y-E(y)))2= E(a2(x-E(xi))2+b2(y-E(y))2+2ab(x-E(x))(y-E(y))= a2E(x-E(x))2+b2E(y-E(y))2=a2Var(x)+b2Var(y).

Verosimilitud:

L (x1…Xn, p) = E p (xi, p) = P(xi,p) P(x2,p)… P(xn,p) = pxi (1-p)1-xi px2 (1-p) 1-x2 … Pxn (1-p)1-xn = pExi (1-p)n-Exi Estimador max verosimilitud:
JlnL(xi,p) / Jp = Jln /Jp (Exi ln(p) + (n-Eln(1-p) =0 ; 1/p Exi – 1/ 1-p (n-Exi) = 0; p^= Exi / n