Introducción a la Probabilidad y Variables Aleatorias

Introducción a la Probabilidad

Definición de Probabilidad

A cada evento A queremos asignarle un número P(A), su “probabilidad”.

Definición: Dado un experimento aleatorio con espacio muestral Ω, una probabilidad es una función P, que a cada evento A de Ω le asigna un número, llamado probabilidad de A, y que se denota P(A) que verifica:

  • 0 ≤ P(A) ≤ 1 para todo evento A.
  • P(Ω) = 1 (donde Ω es el espacio muestral) [Ley aditiva].
  • Si los eventos A y B son disjuntos: P(A ∪ B) = P(A) + P(B).

Regla de la multiplicación

A partir de la definición de probabilidad condicional con P(B) > 0 es P(A | B) = P(A∩B)/P(B). P(A ∩ B) = P(A | B) × P(B)

De la misma manera, si P(A) > 0, es P(B | A) = P(A∩B)/ P(A), se deduce: P(A ∩ B) = P(B | A) × P(A)

Entonces la regla de la multiplicación dice: Dados dos eventos A y B la probabilidad de la intersección, puede calcularse como:

P(A ∩ B) = P(A | B) × P(B) = P(B | A) × P(A) …cuando estén definidas las respectivas probabilidades condicionales.

Eventos Independientes

Definición: Los eventos A y B son independientes si y sólo si P(A ∩ B) = P(A) × P(B)

A partir de esta definición de independencia, se puede ver que si A y B son eventos independientes y P(B) > 0 , se cumple P(A |B) = P(A)

La demostración es elemental: P( A |B ) = P(A∩B) /P(B) = P(A)× P(B) / P(B) = P(A),

Entonces la definición de independencia coincide con la idea intuitiva de que saber que ocurrió B, no modifica la probabilidad de que ocurra A.

Teoremas Fundamentales

Teorema de la Probabilidad Total

Si A1, A2,, An son n eventos mutuamente incompatibles con P(Ai ) ≠ 0 y cumplen Ω = A1 ∪ … ∪ An entonces para cualquier evento B, se cumple:

QeVcKTLgMd77wAAAABJRU5ErkJggg==

Demostración: Observar que B = B∩Ω = B∩(A1 ∪… ∪ An)=(B∩A1)∪… ∪(B∩An) Como los eventos A1, A2, …, An son mutuamente incompatibles, entonces también lo son los eventos (B ∩ A1 ), … , (B ∩ An ). Luego, P(B) = P((B∩A1)∪… ∪(B∩An))=P(B∩A1)+⋯+P(B∩An) Usando la regla de la multiplicación, se tiene que para cada i, P (B |Ai) = P (B | Ai) P(Ai) . Por lo tanto, P(B) = P(B|A1)P(A1)+⋯+ P(B|An)P(An)

Teorema de Bayes

Si A1, A2, …, An son n eventos mutuamente incompatibles con P(Ai ) ≠ 0 y cumplen Ω = A1 ∪ … ∪ An entonces para cualquier evento B, con P(B) ≠ 0, se cumple:

FkwAuMx5Mapf4GkQvkkrhmBE0AAAAASUVORK5CYII=

Demostración: Por la definición de probabilidad condicional, se tiene P(Ai |B) =

AUInckBO75YyQAAAABJRU5ErkJggg==

Ahora aplicamos la regla de multiplicación en el numerador: P(B ∩ Ai) = P(B |Ai) × P(Ai) y en el denominador, observamos que se cumplen las hipótesis para aplicar el Teorema de Probabilidad Total, por lo cual podemos escribir P(B) = Σn i=1 P(B|Ai) × P(Ai) Reemplazando

+LjolwwsXhcGQFZxY5HI6s4ISLw+HICk64OByOrOCEi8PhyApOuDgcjiyg1P8BXH7kt424MPAAAAAASUVORK5CYII=

Variables Aleatorias

Definición de Variable Aleatoria (VA)

Una variable aleatoria es una función que a cada elemento del espacio muestral, le hace corresponder un número. Cuando el conjunto de valores que toma una VA es finito y numerable la variable se denomina discreta.

t4vx+PAAAAAASUVORK5CYII=

Función de Frecuencia

Función de frecuencia de una VA discreta X se define para todos los x ∈ vx como; f (x)= P (X=x) permite calcular probabilidades referidas a la va X

yxIkGKe21k77Ub9ItypxWI45i+WKZtkOO9qZ8NpWsac7IwdBJPNzSxhiHniRoQk3mUWZJOtsd0vRw9iCinZZrLvEkra1mlDLJ1Vnr+oGf3JwMnk0ul+3RhwZeuay6m3D4jpZ+liTcJhbUxId6n29nv90+E4EppNYT61ihytEoS+X9Kh3EFtAdVFAAAAABJRU5ErkJggg==

donde la suma es sobre los valores x que toma X.

AXuFLT72LOS6AAAAAElFTkSuQmCC

Esperanza (Valor Medio)

Esperanza (valor medio): es un promedio ponderado de los valores que toma cada valor con un peso dado por su probabilidad. Para una v.a. discreta con función de frecuencia f se define:

xY82AP8HdygaRotcQGIAAAAASUVORK5CYII=

donde x recorre todos los valores que toma X. El significado intuitivo del valor medio es el siguiente: imaginemos que el experimento se repite un gran número N de veces y se toma el promedio de los valores de X observados; entonces E(X) es el límite de esos promedios cuando N → ∞. Si X es una variable aleatoria con función de frecuencia f y h es una función cualquiera, h(X) es una variable aleatoria cuya media se calcula como:

A5ENNYQVDgmPAAAAAElFTkSuQmCC

Una consecuencia inmediata es que el valor medio tiene la propiedad de linealidad: si a, b son constantes: E(aX + b) = aE(X) + b.

Varianza y Desviación Típica

Definición: La varianza de una variable aleatoria da una idea de la dispersión de la distribución de la variable alrededor de su valor medio. Para cualquier variable aleatoria X con E(X) finita, se define la varianza de X como

Ro36plOIbfMAAAAASUVORK5CYII=

(FORMULA ABREVIADA)

8b75RAlAHrFtgFFxzBKYHY2nG44IJziPwPzIkqKIaWhdAAAAAASUVORK5CYII=

La desviación típica de X es una medida de dispersión definida como

rYNZelwO8B8WgpzaNxHKlQAAAABJRU5ErkJggg==

Teorema Central del Límite (TCL)

Enunciar el TCL: Sean X1, X2, …, Xn variables aleatorias independientes con la misma distribución, con media μ y desviación estándar σ (es decir que X1, X2, …, Xn es una muestra aleatoria de esa distribución). Entonces si n es grande:

  • Σ Xi n i=1 tiene distribución aproximadamente normal con media nμ y desviación estándar √n σ.
  • X̄ tiene distribución aproximadamente normal con media μ y desviación estándar σ/√n.

huLfopBcbw4EAsUKFWn+twsq0lTbGzVqpOFxUQiKGwjsJHjl1axZM1VW3pvjceNej2VDCJUDgRwkeNxAIAcJihsI5CBBcQOBHCQobiCQgwTFDQRykKC4gUAOEhQ3EMhBguIGAjlIUNxAIOcw5l+RKXbVC3XPbwAAAABJRU5ErkJggg==

Este teorema nos dice que cualquiera sea la distribución de las X1, X2, …, Xn podemos calcular (al menos en forma aproximada) probabilidades de eventos relacionados con ΣXin i=1 o con X̄, siempre que n sea suficientemente grande.