info:eu-repo/semantics/article
BAYESIAN ESTIMATION UNDER KULLBACK-LEIBLER DIVERGENCE MEASURE BASED ON EXPONENTIAL DATA
ESTIMACIÓN BAYESIANA BAJO DIVERGENCIA KULLBACK-LEIBLER MEDIDA BASADA EN DATOS EXPONENCIALES
Autor
Abufoudeh, Ghassan K
Abu Awwad, Raed R
Bdair, Omar M
Institución
Resumen
n information theory, Kullback-Leibler divergence measure is a commonly used difference measure that is used for computing the distance between two probability distributions. In this paper, we apply Kullback-Leibler divergence measure between actual and approximate distribution to drive a loss function. We then apply the derived loss function on Exponential distribution to find the Bayes estimate of the parameter θ, and compare it with the Bayes estimate obtained using square error loss function. Our comparisons between these two estimates are based on complete, type II censoring and type I censoring data En la teor ́ıa de la informaci ́on la medida de divergencia de Kullback-Leibler se usa comunmente para medir la distancia entre dos distribuciones de probabilidad. En este trabajo se aplica la medida de divergencia de Kullback-Leibler entre la distribuci ́on real y la aproximada para derivar la funci ́on de p ́erdida. Se usa esta funci ́on en la distribuci ́on exponencial para hallar el estimador bayesianodel par ́ametro θ y lo comparamos con el estimador bayesiano calculado usando la func ́on de p ́erdida usando el error cuadr ́atico. Las comparaciones que se realizan entre ambos estimadores se basan en datos censurados de tipo I y tipo II.