A) Calcula las siguientes DISTRIBUCIONES CONJUGADAS

1.Distribución muestral: yᵢ | θ ~ Poisson(θ)

Distribución previa: θ ~ Gamma(a, b)

Calcular la distribución posterior.

Ejemplo de uso: La Poisson es adecuada para modelar conteos de eventos (llamadas) en un intervalo de tiempo, mientras que la Gamma es una elección natural para la tasa de eventos, permitiendo actualizar la creencia sobre θ conforme se recopilan más datos.

Distribución Muestral (Poisson):

Número de llamadas en 5 horas:

Distribución muestral = 17/5 = 3,4

Distribución Previa (Gamma):

Al no tener el "conocimiento experiencia" de esta casuística para construir una distribución previa razonable, se crean datos ficticios con una tasa promedio de llamadas aproximadamente 2 y una variabilidad moderada de 1.

Distribución previa = 2

Cálculo de Verosimilitud:

1. Para y₁ = 3:

P(y₁ = 3 | θ = 2) = (e⁻² · 2³) / 3! = (e⁻² × 8) / 6

P(y₁ = 3 | θ = 2) ≈ (0.1353 × 8) / 6 ≈ 1.0824 / 6 ≈ 0.1804

2. Para y₂ = 2:

P(y₂ = 2 | θ = 2) = (e⁻² · 2²) / 2! = (e⁻² × 4) / 2

P(y₂ = 2 | θ = 2) ≈ (0.1353 × 4) / 2 ≈ 0.5412 / 2 ≈ 0.2706

3. Para y₃ = 4:

P(y₃ = 4 | θ = 2) = (e⁻² · 2⁴) / 4! = (e⁻² × 16) / 24

P(y₃ = 4 | θ = 2) ≈ (0.1353 × 16) / 24 ≈ 2.1648 / 24 ≈ 0.0902

4. Para y₄ = 5:

P(y₄ = 5 | θ = 2) = (e⁻² · 2⁵) / 5! = (e⁻² × 32) / 120

P(y₄ = 5 | θ = 2) ≈ (0.1353 × 32) / 120 ≈ 4.3296 / 120 ≈ 0.0361

5. Para y₅ = 3: Es igual a y₁.

P(y₅ = 3 | θ = 2) ≈ 0.1804

Verosimilitud Conjunta

Se obtiene multiplicando las verosimilitudes individuales:

L(θ = 2) = P(y₁ = 3 | θ = 2) × P(y₂ = 2 | θ = 2) × P(y₃ = 4 | θ = 2) × P(y₄ = 5 | θ = 2) × P(y₅ = 3 | θ = 2)

Sustituyendo los valores:

L(2) ≈ 0.1804 × 0.2706 × 0.0902 × 0.0361 × 0.1804

Calculémoslo paso a paso:

Así, la verosimilitud conjunta es aproximadamente:

L(θ = 2) ≈ 2.86 × 10⁻⁵

Distribución posterior

Aplicamos el teorema de Bayes multiplicando la verosimilitud conjunta por la previa:

p(θ | y) ∝ (θ^(17)e^(–5θ)) × (θ e^(–θ))

Multiplicamos los términos de θ y los exponentes:

p(θ | y) ∝ θ^(17+1) e^(–(5+1)θ) = θ^(18) e^(–6θ)

Esta forma es la de una distribución Gamma, ya que la densidad general de una Gamma es:

p(θ) ∝ θ^(α-1)e^(–βθ)

Comparando, identificamos:

Por lo tanto, la distribución posterior es:

θ | y ~ Gamma(19, 6)

Resumen Ejercicio 1

En el caso de la distribución posterior tenemos un dato más al sumar el valor previo de 1 con el número de observaciones (5).

2.Distribución muestral: yᵢ | θ ~ Exponencial(θ)

Distribución previa: θ ~ Gamma(a, b)

Calcular la distribución posterior.

Ejemplo de uso: En una cafetería se mide los minutos entre la llegada de clientes. Los tiempos se modelan con una distribución Exponencial(θ), donde θ representa la tasa de llegada (clientes por minuto). Observando los tiempos entre llegadas, se actualiza la tasa de llegada utilizando una distribución previa Gamma.

Distribución Muestral (Exponencial):

Minutos entre llegadas:

Σ yᵢ = 4 + 3 + 5 + 2 + 6 = 20 minutos.

Distribución Previa (Gamma):

Al no tener el "conocimiento experiencia" de esta casuística para construir una distribución previa razonable, se crean datos ficticios con una tasa promedio de 2 minutos por clientes y una variabilidad moderada de 1.

Distribución previa = 2

Cálculo de la verosimilitud

Dado que yᵢ ~ Exponencial(θ) con f(yᵢ | θ) = θ exp(–θ yᵢ), tenemos:

Verosimilitud Conjunta

Se obtiene multiplicando las verosimilitudes individuales:

L(θ | y) = [θ exp(–4θ)] · [θ exp(–3θ)] · [θ exp(–5θ)] · [θ exp(–2θ)] · [θ exp(–6θ)]

Agrupando los términos:

Dado que 4 + 3 + 5 + 2 + 6 = 20, se tiene:

L(θ | y) = θ⁵ · exp(–20θ)

Distribución posterior

Aplicamos el teorema de Bayes multiplicando la verosimilitud conjunta por la previa:

p(θ | y) ∝ L(θ | y) · p(θ)

Sustituyendo las expresiones encontradas:

p(θ | y) ∝ [θ⁵ exp(–20θ)] · [θ exp(–θ)]

  ∝ θ^(5+1) · exp(–θ (20+1))

  ∝ θ⁶ exp(–21θ)

Comparando con la forma general de la densidad de una Gamma:

p(θ) ∝ θ^(α–1) exp(–βθ)

Por lo tanto, la distribución posterior es:

θ | y ~ Gamma(7, 21)

Resumen Ejercicio 2

3.Distribución muestral: yᵢ | θ ~ Geométrica(θ)

Distribución previa: θ ~ Beta(a, b)

Calcular la distribución posterior.

Ejemplo de uso:Situación: Número de llamadas que se requieren para concretar la primera venta. Suponiendo que cada llamada es independiente y que la probabilidad de éxito (venta) es θ, el número de llamadas hasta lograr una venta sigue una distribución Geométrica(θ).

Distribución Muestral (Geométrica):

Número de llamadas para concretar venta:

Entonces, el número de observaciones es n = 5 y la suma de los datos es:

∑₅ yᵢ = 3 + 1 + 4 + 2 + 3 = 13

Distribución Previa (Beta):

Al no tener el "conocimiento experiencia" de esta casuística para construir una distribución previa razonable, se crean datos ficticios, 2 llamadas para concretar una venta y una variabilidad moderada de 2.

Cálculo de la Verosimilitud

Verosimilitud Conjunta

Se obtiene multiplicando las verosimilitudes individuales:

L(θ ∣ y) = [θ(1−θ)²] × [θ] × [θ(1−θ)³] × [θ(1−θ)] × [θ(1−θ)²]

La suma de los exponentes en (1−θ) es: 2 + 0 + 3 + 1 + 2 = 8, quedando:

L(θ ∣ y) = θ⁵ (1−θ)⁸

Multiplicación por la Previa (Teorema de Bayes)

Aplicamos el teorema de Bayes multiplicando la verosimilitud conjunta por la previa:

p(θ ∣ y) ∝ L(θ ∣ y) ⋅ p(θ)

Sustituyendo:

p(θ ∣ y) ∝ θ⁵ (1−θ)⁸ ⋅ θ(1−θ)

Agrupando los exponentes:

Así:

p(θ ∣ y) ∝ θ⁶ (1−θ)⁹

Distribución Posterior

La forma general de la densidad de la Beta es:

p(θ) ∝ θ^(α−1)(1−θ)^(β−1)

Comparando con la expresión obtenida:

Por lo tanto, la distribución posterior es:

θ ∣ y ~ Beta(7,10)

Resumen Ejercicio 3