Probabilidad Ii Tercero De Matemáticas Curso 2006

   EMBED

Share

Preview only show first 6 pages with water mark for full document please download

Transcript

Probabilidad II Tercero de Matem´ aticas Curso 2006-2007 Hoja 1 (espacios de probabilidad y variables aleatorias) 1. En un espacio de probabilidad (Ω, F , P) consideramos sucesos A y (A1 , A2 . . . ). Decimos que la sucesi´on (Aj )∞ j=1 converge a A si     ∞ ∞ ∞ ∩ A = l´ ım inf A = A = l´ ım sup A ∪ A ∪∞ = ∩ j j k=1 j=k j k=1 j=k j . j→∞ j→∞ Pru´ebese que si (Aj )∞ ımj→∞ P(Aj ) = P(A). j=1 converge a A, entonces l´ 2. Sean X e Y dos variables aleatorias en un espacio de probabilidad (Ω, F , P) y consideremos un suceso A ∈ F. Pru´ebese que si definimos  X(ω) si ω ∈ A, Z(ω) = Y (ω) si ω ∈ Ac , entonces Z es una variable aleatoria en (Ω, F , P) . 3. Sea X una variable aleatoria en (Ω, F , P) que toma u ´ nicamente los valores x1 , . . . , xn . Llamemos Bj = {ω ∈ Ω : X(ω) = xj }. Obs´ervese que los Bj forman una partici´ on de Ω. Llamemos G a la σ-´algebra generada por esa partici´ on. (a) Compru´ebese que G = σ(X). (b) Sea Y otra variable aleatoria en (Ω, F , P) . Compru´ebese que Y ∈ σ(X) si y s´olo si existe una funci´ on f : valores(X) → valores(Y ) tal que Y = f (X). (c) Pru´ebese que, en general, Y ∈ σ(X) si y solo si existe f : R → R medible tal que Y = f (X). 4. Se dice que una variable aleatoria es simple si toma u ´ nicamente un conjunto finito de valores. Es  decir, si se puede escribir como m a 1 , donde los sucesos A1 , . . . , Am son una partici´ on de Ω. j A j j=1 Sea X una variable aleatoria positiva (es decir, P(X > 0) = 1). Compru´ebese que existe una sucesi´on de variables aleatorias (simples y positivas) 0 ≤ X1 ≤ X2 ≤ · · · tales que Xn (ω) ↑ X(ω) para cada ω ∈ Ω. Sugerencia: t´ omese n2n  k−1   + n1{X>n} Xn = 1 k−1 0. Compru´ebese que X = − log(U )/λ es una exponencial de par´ ametro λ. 1 En −1 clase, denotada como “FX ”. 7. Sea Xuna variable que toma valores x1 , . . . , xn con probabilidades respectivas p1 , . . . , pn (donde n pj ≥ 0 y j=1 pj = 1) y sea U una uniforme en [0, 1]. Definimos una variable aleatoria Y = g(U ), donde g(x) es la funci´ on definida para x ∈ [0, 1] como sigue: ⎧ x1 si 0 ≤ u < p1 ; ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ x2 si p1 ≤ u < p1 + p2 ; x3 si p1 + p2 ≤ u < p1 + p2 + p3 ; g(x) = ⎪ .. .. ⎪ ⎪ . . ⎪ ⎪ ⎩ xn si p1 + · · · + pn−1 ≤ u ≤ 1. d Compru´ebese que X = Y . 8. (a) Sea X una variable aleatoria con funci´ on de densidad f (x), para la que P(a ≤ X ≤ b) = 1. Consideremos una funci´ on g(x) creciente y diferenciable en (a, b). Pru´ebese que la variable aleatoria Y = g(X) tiene funci´ on de densidad dada por f (g −1 (x)) g  (g −1 (x)) si x ∈ (g(a), g(b)) (y 0 en otro caso). (b) Si X es una normal est´andar, calcula la funci´ on de densidad de Y = eX (variable “lognormal”). 9. (a) Sea una variable aleatoria X con funci´ on de densidad f (x). Calcula la funci´ on de distribuci´ on de Y = X 2 y deduce su funci´ on de densidad. (b) Si X es una normal est´andar, ¿cu´ al es la funci´ on de densidad de Y = X 2 ? • Esperanza y c´ alculo de esperanzas 10. Consideremos una colecci´ on de sucesos A1 , . . . , An , y llamemos A = ∪nj=1 Aj . n (a) Pru´ebese que 1A = 1 − j=1 (1 − 1Ai ) (b) Ded´ uzcase el principio de inclusi´ on/exclusi´ on: n     P(Aj ) − P(Ai ∩ Aj ) + P(Ai ∩ Aj ∩ Ak ) − · · · + (−1)n−1 P(∩nj=1 Aj ) P A = j=1 (c) Mu´estrese que i 0, P(|X| ≥ a) ≤ E(X 2 ) . a2 (a) Ded´ uzcanse las dos siguientes desigualdades:   V(X) 1 y P |X − E(X)| ≥ λσ(X) ≤ 2 . P |X − E(X)| ≥ a ≤ a2 λ (b) Supongamos que E(X) = 0 y V(X) = σ 2 . Sea a > 0. Compru´ebese que P(X ≥ a) ≤ σ2 . a2 + σ 2 (c) Sea X ≥ 0 tal que E(X) > a, E(X 2 ) < ∞. Pru´ebese que P(X > a) ≥ (E(X) − a)2 E(X 2 ) (Indicaci´ on: Apl´ıquese la desigualdad de Cauchy-Schwarz a Y = X 1{X>a} ). (d) Sea X la familia de variable aleatorias X con E(X) = 0 y V(X) = 1. Sea ε > 0. Compru´ebese que   ´ınf P(|X| > ε = 0 . X∈X 13. Compru´ebese que las medias y las varianzas de las siguientes variables aleatorias son las que aparecen en la tabla al final de la p´ agina: a) X es una Ber(p), con p ∈ [0, 1]. Es decir, P(X = 1) = p, P(X = 0) = 1 − p.  b) X es una Bin(n, p), con n ≥ 1 y p ∈ [0, 1]. Es decir, P(X = j) = nj pj (1 − p)n−j para cada j = 0, 1, . . . , n. c) X es una Geom(p), con p ∈ (0, 1). Es decir, P(X = j) = p(1 − p)j−1 para cada j = 1, 2, . . . . j−1  j p (1 − p)j−n para d) X es una BinN eg(n, p), con n ≥ 1 y p ∈ (0, 1). Es decir, P(X = j) = n−1 cada j = n, n + 1, . . . . e) X es una P oisson(λ), con λ > 0. Es decir, P(X = j) = e−λ λj /j! para cada j = 0, 1, . . . . on X ∼ N (µ, σ 2 )). Es decir, su funci´ on f) X es una normal de par´ ametros µ ∈ R y σ 2 > 0 (notaci´ de densidad es 2 2 1 f (x) = √ e−(x−µ) /(2σ ) . σ 2π g) X es una exponencial de par´ ametro λ > 0. Esto es, su funci´on de densidad viene dada por f (x) = λe−λx 1x≥0 (x). h) X es una Gamma de par´ ametros α, λ > 0, cuya funci´ on de densidad es f (x) = 1 α −λx α−1 λ e x 1x≥0 (x) , Γ(α) ∞ donde Γ(α) = 0 y α−1 e−y dy es la funci´ on gamma. (Casos especiales: si α = 1, tenemos una variable exponencial. Si λ = 1/2 y α = k/2 para cierto entero positivo k, se dice que X es una “χ2 con k grados de libertad”). 1 1x∈[a,b] (x). i) X es una uniforme en [a, b], con funci´ on de densidad f (x) = b−a Variable par´ ametros media varianza Bernoulli p ∈ [0, 1] p p(1 − p) Binomial n ≥ 1, p ∈ [0, 1] np np(1 − p) Geom´etrica p ∈ (0, 1) 1/p (1 − p)/p2 Binomial negativa n ≥ 1, p ∈ (0, 1) n/p n(1 − p)/p2 Poisson λ>0 λ λ Normal 2 µ ∈ R, σ > 0 µ σ2 Exponencial λ>0 1/λ 1/λ2 Gamma α > 0, λ > 0 α/λ α/λ2 Uniforme a