Tesis de maestría
Existencia y unicidad de pruebas mas potentes en modelos estadísticos parametrícos
Autor
Aguilera González, Magaly Arisbé
Resumen
"Este trabajo trata sobre dos aspectos fundamentales en la teor´ıa de prueba de
hip´otesis para modelos estad´ısticos param´etricos, a saber, (i) la posibilidad de
comenter errores al decidir sobre la validez de una hip´otesis dada o su hip´otesis
complementaria, y (ii) la noci´on de insesgamiento de una prueba. Los principales
objetivos son (i) establecer una cota inferior para las probabilidades de decidir
incorrectamente entre dos hip´otesis complementarias dadas, y (ii) demostrar que
una prueba de Neyman-Pearson es insesgada en el sentido estricto. La exposici´on
inicia con una descripci´on breve del problema de prueba de hip´otesis en modelos
param´etricos, para continuar con una discusi´on de los posibles errores en
que se puede incurrir al tratar de determinar la validez de una hip´otesis o de
su complementaria bas´andose en una observaci´on aleatoria; el resultado principal
que se obtiene es una cota inferior para la suma de los posibles errores de
decisi´on, mostrando que dicha cota es, generalmente, positiva y que, bajo condiciones
menores, es igual a uno. Adicionalmente, se discute la construcci´on de
pruebas de Neyman-Pearson para decidir entre dos hip´otesis simples y s establece
el insesgamiento estricto de dichas pruebas." "This work is concerned with two basic aspects in the theory of hypothesis testing
in the context of parametric statistical models, namely, (i) the possibility of taking
incorrect decisions when the validity of one of a pair of complementary hypothesis
is assessed, and (ii) the idea of unbiased test. The main objectives of the thesis
are (i) to establish a lower bound for the probabilities of deciding incorrectly
between to given complementary hypothesis, and (ii) to prove that a Neyman-
Pearson test is striclty unbiased. La exposition begins with a brief description of
the testing problem for parametric models, and continues discussing the potential
errors that can occur when a random observation vector is used to decide between
to complementary hypothesis; the main result established in this direction is that
the sum of the probabilities of the possible errors is bounded below by a number
that, generally, is positive and, moreover, under mild conditions it is shown that
such a bound is equal to 1. Additionally, the existence and construction of a
Neyman-Pearson test is discussed, and it is proved that such a test is strictly
unbiased."