Las medidas de divergencia en contrastes de bondad de ajuste con ponderación en las clases

  1. Landáburu Jiménez, Elena
Dirigée par:
  1. Leandro Pardo Llorente Directeur

Université de défendre: Universidad Complutense de Madrid

Fecha de defensa: 05 avril 2002

Jury:
  1. Vicente Quesada Paloma President
  2. Angel Felipe Ortega Secrétaire
  3. Pedro Ángel Gil Álvarez Rapporteur
  4. Joaquín Muñoz García Rapporteur
  5. Domingo Morales González Rapporteur
Département:
  1. Estadística e Investigación Operativa

Type: Thèses

Résumé

En las últimas dos décadas han surgido, en el análisis de datos categóricos, nuevas familias de estadísticos, basadas en medidas de divergencia, para la validación de modelos que mejoran, en algún sentido, a los estadísticos ya existentes de la ji-cuadrado de Pearson y del cociente de verosimilitudes. Estas medidas de divergencia utilizadas se han venido considerando como medidas cuantitativas de discriminación entre dos poblaciones, caracterizadas por sus respectivas distribuciones de probabilidad, pero sin tener en cuenta la importancia de los resultados asociados al experimento bajo en consideración, respecto a un fin determinado. El objetivo central de la memoria es abordar problemas de bondad de ajuste, bajo el supuesto que los datos estén bien o mal clasificados y tanto bajo hipótesis nula simple como compuesta, cuando las clases compuesta se requerirá la estimación del parámetro desconocido mediante estimadores de mínima divergencia, que tendrán en cuenta las diferentes ponderaciones