Clase 2 - Universidad Del Cema

   EMBED

Share

Preview only show first 6 pages with water mark for full document please download

Transcript

Estadística 2010 Clase 2 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 2 1. La distribución de Bernoulli 2. La distribución binomial 3. La distribución de Poisson 4. La distribución exponencial Estocástica 5. La distribución normal 6. La distribución chi-cuadrado 7. La distribución t de Student 8. La distribución F 1. La distribución de Bernoulli • En los denominados experimentos de Bernoulli sólo son posibles dos resultados: éxito o fracaso. Podemos definir una variable aleatoria discreta X tal que: éxito  1 fracaso  0 • Si la probabilidad de éxito es p y la de fracaso 1-p, la función de probabilidades es: f  X   p 1  p  x 1 x x  0,1 1. La distribución de Bernoulli • Una variable aleatoria X sigue una distribución de Bernoulli si su función de densidad de probabilidades (de ahora en adelante, FDP) es: p  X  0  1  p p  X  1  p • Para tal variable, la esperanza matemática y la varianza son: EX   p var  X   pq Donde q = (1-p). 2. La distribución binomial • Esta distribución es la generalización de la distribución de Bernoulli. Si X representa el número de éxitos en n intentos independientes, entonces se dice que X sigue una distribución binomial cuya FDP es: n x n x f  X     p 1  p   x Donde x es el número de éxitos y n n!     x  x ! n  x ! El interés está en determinar la probabilidad de obtener exactamente X = x éxitos durante los n ensayos. La distribución binomial consta de dos parámetros, n y p. 2. La distribución binomial La función de distribución acumulativa es: n i n i p  X  x   F  x; n, p      p 1  p  i 0  i  x Dado los momentos absolutos y centrados, definimos la esperanza, la varianza, el coeficiente de asimetría y la kurtosis: m  X   E  X   np  X   E  X   E  X   npq 3  X  q  p 1  2 p As  X   3    X  npq npq 4  X  1  6 pq KX   4 3   X  npq  2 2 2 3. La distribución de Poisson Aquí la variable aleatoria representa el número de eventos independientes que ocurren a una velocidad constante. Ofrece, además, una aproximación excelente a la función de probabilidad binomial cuando p es pequeño y n grande. Sea X una variable aleatoria que representa el número de eventos aleatorios independientes que ocurren a una rapidez constante sobre el tiempo o el espacio. Se dice entonces que X tiene una distribución de Poisson con FDP:  e   x  f  X ;     x! 0  x  0;   0 para cualquier otro valor El único parámetro de la distribución es lambda, el número promedio de ocurrencias del evento aleatorio por unidad de tiempo. 3. La distribución de Poisson La función de distribución acumulativa es: e   i p  X  x   F  x;     i! i 0 x Dado los momentos absolutos y centrados, definimos la esperanza, la varianza, el coeficiente de asimetría y la kurtosis: m X   E  X     2  X   E  X 2   E  X   2    2   2 3  X   1 As  X   3  3/ 2   X    4  X  3 2   1 KX   4 3  3 2  X    3. La distribución de Poisson La distribución de Poisson también es una forma límite de la distribución binomial cuando n tiende a infinito y p tiende a cero (de manera que no permanece constante). Sea X una v.a. con distribución binomial y función de probabilidad: n! n x p  x; n, p   p x 1  p  x  0,1, 2,..., n  n  x ! x ! Si para n=1,2,… la relación p   n es cierta para alguna constante   0 , entonces: e   x lim p  x; n, p   , x  0,1, 2,... n  x! p 0 4. La distribución exponencial Esta distribución tiene su origen en el proceso de Poisson. Como mencionamos antes, la distribución de Poisson se refiere a un espacio continuo dentro del cual se producen una cantidad discreta de eventos aleatorios cada uno de ellos con una probabilidad de ocurrencia p. Si introducimos una nueva variable T(x), a la que definimos como el intervalo de tiempo (o de espacio) entre ciertas ocurrencias de un suceso de Poisson, entonces esa variable tiene una distribución exponencial. El esquema de Poisson responde a: ¿cuál es la probabilidad que se produzcan “x” ocurrencias en cierto espacio o tiempo continuo, en el que el promedio de ocurrencias es λ? El esquema exponencial, en cambio, responde a: ¿cuál es el lapso de tiempo que hay que esperar (o el espacio a recorrer) para que se produzcan “x” ocurrencias, siendo λ el promedio de ocurrencias? 4. La distribución exponencial Definiendo, T  X   tiempo transcurrido (o espacio recorrido) entre dos sucesos t  x   tiempo que transcure hasta el primer evento Nos proponemos determinar la probabilidad de que cierto evento aleatorio no suceda en ese lapso de tiempo (o espacio), es evidente que lo que pretendemos calcular es P(X>x):  x  x  x P  X  x  e e 0! Si definimos ahora a   1  , este nuevo parámetro, al ser la inversa de λ, puede interpretarse como “el tiempo (o espacio) promedio entre ocurrencias de Poisson”. Reemplazando en la expresión anterior, P  X  x   e x  Nos indica la probabilidad de que no existan ocurrencias hasta el momento x. 4. La distribución exponencial Si ahora nos preguntamos por la variable tiempo (o espacio) entre dos eventos (a la que definimos como X), dicha probabilidad será la contraria a la expresada con anterioridad: T  X   P  X  x   1  e x  Y la FDP no será más que la derivada de la anterior, t  x  t  X   1  Sus características más importantes serán: EX     1  2 X   2 e x  5. La distribución normal La distribución normal o Gaussiana es la piedra angular en la aplicación de la inferencia estadística en el análisis de datos, dado que las distribuciones de muchas estadísticas muestrales tienden hacia dicha distribución conforme crece el tamaño de la muestra. Se dice que una variable aleatoria X está normalmente distribuida si su FDP tiene la siguiente forma: 1 fX  x  e  2  1  x   2      2        x   Donde  y   0 son parámetros reales que denotan el valor esperado y el desvío estándar de distribución, respectivamente. 5. La distribución normal Propiedades: 1. El punto medio de la curva normal es la media de la distribución. 2. La distribución es simétrica alrededor de su media. 3. La probabilidad de que el valor de la variable se encuentre dentro del rango de un desvío standard (SD) por sobre o por debajo de la media es de 68,3%. Alrededor de 95,5% del área de la distribución se encuentra entre   2 , y por último más del 99,7% del área se encuentra entre   3 , como se aprecia en la figura. 5. La distribución normal Propiedades:     4. Sean X1 N 1 ,  1 y X 2 N 2 ,  2 , y supóngase que son independientes, entonces considerando su combinación lineal de la siguiente manera: 2 2 Y  aX1  bX 2 Puede mostrarse que: Y N  a1  b2  ,  a 212  b2 22  Corolario: Una combinación lineal de variables aleatorias independientes normalmente distribuidas es normalmente distribuida. 5. Teorema central del límite. Sean X 1 ,..., X n , n variables aleatorias 2 independientes, las cuales tienen la misma FDP con  y  . Si X entonces, a medida que n aumenta indefinidamente, X n   2  N  ,  n   Y este resultado se cumple sin importar la forma de la FDP.   Xi n , 5. La distribución normal X m  Z  La distribución de probabilidades de la variable Z,  , que no depende de    los parámetros m y  : 1 Z 2 2 fZ  z   e 2    Z    Define la “forma estandarizada” de la distribución Normal. De esta manera podemos trabajar con las tablas de probabilidades, dado que la media de la nueva variable aleatoria estandarizada es cero, mientras que la varianza es la unidad. Z N  0,1 5. La distribución normal Por último, dado los momentos absolutos y centrados, definimos nuevamente la esperanza matemática, la varianza, el coeficiente de asimetría y la kurtosis: m X   E  X    2  X    2 3  X  As  X   3 0  X  4  X  3 4 KX   4 3  3  0 2 2  X    5. La distribución normal La probabilidad de que una variable aleatoria normalmente distribuida X sea menor o igual a un valor específico, x está dada por la función de distribución acumulativa 1 P  X  x   F  x;  ,     2 x e  1  t   2       2     dt  Pero la integral anterior no puede evaluarse en forma cerrada. Por lo tanto se puede tabular la función de distribución acumulativa como una función de  y  , lo que requeriría una tabla para cada par de valores. Como existe un número infinito de valor de  y  , se utiliza la ya mencionada “forma estandarizada” de la distribución normal: 1 P  X  x   P  Z   x       2 Así, para z   x     , P  X  x   P  Z  z  y FX  x;  ,    FZ  z;0,1 z e   1 2  2 z    dz 6. La distribución chi-cuadrado Sean Z1 ,..., Z k variables aleatorias estandarizadas independientes, se dice que la cantidad k Z   Zi2 Sigue la distribución i 1  con v grados de libertad. 2 Sus propiedades son: 1. Es una distribución asimétrica, donde el grado de asimetría esta dado por los grados de libertad. Cuando los g. de l. son pocos la distribución está altamente sesgada hacia la izquierda, y a medida que aumentan la distribución se hace cada vez más simétrica. De hecho, disponiendo de más de 100 variables aleatorias independientes, la variable 2  2   2k  1 puede ser tratada como una variable normal estandarizada. 2. La media de la distribución chi-cuadrado es v y la varianza es 2v. 3. Si Z1 y Z 2 son dos variables chi-cuadrado independientes con v1 y v2 grados de libertad, entonces la suma de ambas es también una variable aleatoria chicuadrado con v1  v2 grados de libertad. 7. La distribución t de Student Sean Z1 es una variable normal estandarizada, y otra variable Z 2 sigue la distribución chi-cuadrado y están distribuidas de manera independiente, entonces la variable definida como t  Z1 Z2 v Z1 v Z2 tv Sigue la distribución t de Student con v grados de libertad. Sus propiedades son: 1. Al igual que la distribución normal, es simétrica, pero más plana (platocúrtica). Sin embargo, a medida que aumentan los grados de libertad, la distribución t se aproxima a la normal. 2. La media de la distribución t es cero, mientras que la varianza es v  v  2  . 8. La distribución F Si Z1 y Z 2 son variables chi-cuadrado distribuidas en forma independiente con k1 y k2 grados de libertad, respectivamente F Z1 k1 Z 2 k2 Fk1 ,k2 Sigue la distribución F (de Fisher) con k1 y k2 grados de libertad. Se tienen las siguientes propiedades: 1. Esta distribución está sesgada a la derecha, pero a medida que aumentan k1 y k2 , la distribución F se acerca a la distribución normal. 2. El valor de la media de esta distribución es k2  k2  2  , el cual está definido para k2  2 y su varianza es 2k22  k1  k2  2  k1  k2  2   k2  4  2 definida para k2  4 . 3. El cuadrado de una variable aleatoria con distribución sigue una distribución FIN Me pueden escribir a: [email protected] Las presentaciones estarán colgadas en: www.cema.edu.ar/u/jrs06