Evaluación de la estimación de la fiabilidad en condiciones de datos asimétricos, congenéricos, categóricos y en presencia de multidimensionalidad

  1. Trizano Hermosilla, Italo
Dirigida por:
  1. Jesús María Alvarado Izquierdo Director

Universidad de defensa: Universidad Autónoma de Madrid

Fecha de defensa: 21 de febrero de 2017

Tribunal:
  1. Francisco José Abad García Presidente/a
  2. M. Carme Viladrich Segués Secretario/a
  3. Juan Antonio García Martín Vocal

Tipo: Tesis

Resumen

La adecuada estimación de la fiabilidad de las medidas que se utilizan en psicología es un elemento fundamental para juzgar tanto su calidad como su potencial como instrumento diagnóstico y pronóstico. A partir de la teoría clásica de los test y su extensión factorial hacia los modelos de variables latentes, junto a la aplicación de los modelos de ecuaciones estructurales, se han desarrollado diferentes procedimientos de estimación que han dado lugar a un conjunto de coeficientes que literalmente cubren todo el alfabeto griego desde alfa hasta omega. De todos los coeficientes destaca por su amplia difusión y utilización el coeficiente de consistencia interna alfa de Cronbach, un excelente estimador de la fiabilidad cuando se cumplen los supuestos del modelo. Sin embargo, en la práctica difícilmente se cumplen algunos o varios de los supuestos (e.g., tauequivalencia, normalidad, escalamiento intervalar, unidimensionalidad o ausencia de correlación entre errores) y cuando esto ocurre tanto el coeficiente alfa como la mayoría de los coeficientes propuestos muestran problemas más o menos severos en algunos casos de subestimación (e.g., ante distribuciones asimétricas y categóricas) o más preocupante de sobreestimación (e.g., correlaciones entre errores o estructuras multidimensionales). En la presente memoria se revisan cada uno de estos problemas y se analizan mediante técnicas de simulación tres escenarios habituales en investigación aplicada: a) estimación en datos unidimensionales con incumplimiento del supuesto de normalidad y/o tau-equivalencia, b) estimación en datos unidimensionales ordinales y congenéricos con diferente número de categorías y c) estimación en datos multidimensionales o con presencia de ítems redundantes (errores positivamente correlacionados). Para evaluar estos escenarios se realizaron cuatro estudios de simulación Montecarlo y dos estudios con datos reales empíricos en los que se comparan los procedimientos alfa de Cronbach, omega total, omega jerárquico, tanto en su versión lineal como ordinal, GLB y GLB algebraico con el objetivo de identificar aquellos que muestran ser más robustos a los distintos incumplimientos de los supuestos del modelo clásico. La discusión se centra en los estimadores que presentan mejor desempeño para las condiciones evaluadas y la importancia de evaluar la distribución de los datos, sus características y la estructura interna (mediante técnicas factoriales y aplicación del modelo bifactor), como requisito para obtener evidencias adecuadas de la fiabilidad de los datos, ya que de no hacerlo se pueden obtener resultados sesgados, como concluir equivocadamente que la puntuación global del test presenta una alta fiabilidad, cuando la realidad es que solo factores grupales que lo conforman presentan altas fiabilidades, en consecuencia la medición del factor común (a veces inexistente) conlleva un alto grado de error, a pesar de lo que pudieran indicar los coeficientes de fiabilidad habituales, ya que generalmente no son sensibles al problema de la multidimensionalidad.