1.Distribución muestral: yᵢ | θ ~ Poisson(θ)
Distribución previa: θ ~ Gamma(a, b)
Calcular la distribución posterior.
Ejemplo de uso: La Poisson es adecuada para modelar conteos de eventos (llamadas) en un intervalo de tiempo, mientras que la Gamma es una elección natural para la tasa de eventos, permitiendo actualizar la creencia sobre θ conforme se recopilan más datos.
Número de llamadas en 5 horas:
Distribución muestral = 17/5 = 3,4
Al no tener el "conocimiento experiencia" de esta casuística para construir una distribución previa razonable, se crean datos ficticios con una tasa promedio de llamadas aproximadamente 2 y una variabilidad moderada de 1.
Distribución previa = 2
1. Para y₁ = 3:
P(y₁ = 3 | θ = 2) = (e⁻² · 2³) / 3! = (e⁻² × 8) / 6
P(y₁ = 3 | θ = 2) ≈ (0.1353 × 8) / 6 ≈ 1.0824 / 6 ≈ 0.1804
2. Para y₂ = 2:
P(y₂ = 2 | θ = 2) = (e⁻² · 2²) / 2! = (e⁻² × 4) / 2
P(y₂ = 2 | θ = 2) ≈ (0.1353 × 4) / 2 ≈ 0.5412 / 2 ≈ 0.2706
3. Para y₃ = 4:
P(y₃ = 4 | θ = 2) = (e⁻² · 2⁴) / 4! = (e⁻² × 16) / 24
P(y₃ = 4 | θ = 2) ≈ (0.1353 × 16) / 24 ≈ 2.1648 / 24 ≈ 0.0902
4. Para y₄ = 5:
P(y₄ = 5 | θ = 2) = (e⁻² · 2⁵) / 5! = (e⁻² × 32) / 120
P(y₄ = 5 | θ = 2) ≈ (0.1353 × 32) / 120 ≈ 4.3296 / 120 ≈ 0.0361
5. Para y₅ = 3: Es igual a y₁.
P(y₅ = 3 | θ = 2) ≈ 0.1804
Se obtiene multiplicando las verosimilitudes individuales:
L(θ = 2) = P(y₁ = 3 | θ = 2) × P(y₂ = 2 | θ = 2) × P(y₃ = 4 | θ = 2) × P(y₄ = 5 | θ = 2) × P(y₅ = 3 | θ = 2)
Sustituyendo los valores:
L(2) ≈ 0.1804 × 0.2706 × 0.0902 × 0.0361 × 0.1804
Calculémoslo paso a paso:
Así, la verosimilitud conjunta es aproximadamente:
L(θ = 2) ≈ 2.86 × 10⁻⁵
Aplicamos el teorema de Bayes multiplicando la verosimilitud conjunta por la previa:
p(θ | y) ∝ (θ^(17)e^(–5θ)) × (θ e^(–θ))
Multiplicamos los términos de θ y los exponentes:
p(θ | y) ∝ θ^(17+1) e^(–(5+1)θ) = θ^(18) e^(–6θ)
Esta forma es la de una distribución Gamma, ya que la densidad general de una Gamma es:
p(θ) ∝ θ^(α-1)e^(–βθ)
Comparando, identificamos:
Por lo tanto, la distribución posterior es:
θ | y ~ Gamma(19, 6)
En el caso de la distribución posterior tenemos un dato más al sumar el valor previo de 1 con el número de observaciones (5).
2.Distribución muestral: yᵢ | θ ~ Exponencial(θ)
Distribución previa: θ ~ Gamma(a, b)
Calcular la distribución posterior.
Ejemplo de uso: En una cafetería se mide los minutos entre la llegada de clientes. Los tiempos se modelan con una distribución Exponencial(θ), donde θ representa la tasa de llegada (clientes por minuto). Observando los tiempos entre llegadas, se actualiza la tasa de llegada utilizando una distribución previa Gamma.
Minutos entre llegadas:
Σ yᵢ = 4 + 3 + 5 + 2 + 6 = 20 minutos.
Al no tener el "conocimiento experiencia" de esta casuística para construir una distribución previa razonable, se crean datos ficticios con una tasa promedio de 2 minutos por clientes y una variabilidad moderada de 1.
Distribución previa = 2
Dado que yᵢ ~ Exponencial(θ) con f(yᵢ | θ) = θ exp(–θ yᵢ), tenemos:
Se obtiene multiplicando las verosimilitudes individuales:
L(θ | y) = [θ exp(–4θ)] · [θ exp(–3θ)] · [θ exp(–5θ)] · [θ exp(–2θ)] · [θ exp(–6θ)]
Agrupando los términos:
Dado que 4 + 3 + 5 + 2 + 6 = 20, se tiene:
L(θ | y) = θ⁵ · exp(–20θ)
Aplicamos el teorema de Bayes multiplicando la verosimilitud conjunta por la previa:
p(θ | y) ∝ L(θ | y) · p(θ)
Sustituyendo las expresiones encontradas:
p(θ | y) ∝ [θ⁵ exp(–20θ)] · [θ exp(–θ)]
∝ θ^(5+1) · exp(–θ (20+1))
∝ θ⁶ exp(–21θ)
Comparando con la forma general de la densidad de una Gamma:
p(θ) ∝ θ^(α–1) exp(–βθ)
Por lo tanto, la distribución posterior es:
θ | y ~ Gamma(7, 21)
3.Distribución muestral: yᵢ | θ ~ Geométrica(θ)
Distribución previa: θ ~ Beta(a, b)
Calcular la distribución posterior.
Ejemplo de uso:Situación: Número de llamadas que se requieren para concretar la primera venta. Suponiendo que cada llamada es independiente y que la probabilidad de éxito (venta) es θ, el número de llamadas hasta lograr una venta sigue una distribución Geométrica(θ).
Número de llamadas para concretar venta:
Entonces, el número de observaciones es n = 5 y la suma de los datos es:
∑₅ yᵢ = 3 + 1 + 4 + 2 + 3 = 13
Al no tener el "conocimiento experiencia" de esta casuística para construir una distribución previa razonable, se crean datos ficticios, 2 llamadas para concretar una venta y una variabilidad moderada de 2.
Se obtiene multiplicando las verosimilitudes individuales:
L(θ ∣ y) = [θ(1−θ)²] × [θ] × [θ(1−θ)³] × [θ(1−θ)] × [θ(1−θ)²]
La suma de los exponentes en (1−θ) es: 2 + 0 + 3 + 1 + 2 = 8, quedando:
L(θ ∣ y) = θ⁵ (1−θ)⁸
Aplicamos el teorema de Bayes multiplicando la verosimilitud conjunta por la previa:
p(θ ∣ y) ∝ L(θ ∣ y) ⋅ p(θ)
Sustituyendo:
p(θ ∣ y) ∝ θ⁵ (1−θ)⁸ ⋅ θ(1−θ)
Agrupando los exponentes:
Así:
p(θ ∣ y) ∝ θ⁶ (1−θ)⁹
La forma general de la densidad de la Beta es:
p(θ) ∝ θ^(α−1)(1−θ)^(β−1)
Comparando con la expresión obtenida:
Por lo tanto, la distribución posterior es:
θ ∣ y ~ Beta(7,10)