Tratamiento de la colinealidad en regresión múltiple

  1. López González, Emelina
Revista:
Psicothema

ISSN: 0214-9915

Año de publicación: 1998

Volumen: 10

Número: 2

Páginas: 491-507

Tipo: Artículo

Otras publicaciones en: Psicothema

Resumen

La colinealidad entre los predictores de un modelo de regresión es un problema muy frecuente, sobre todo en el ámbito de las ciencias humanas. Existen diferentes procedimientos para su diagnóstico, pero sin embargo no es una situación que tenga un fácil tratamiento, excepto cuando se haya producido por el uso de datos u observaciones erróneas, en cuyo caso se puede resolver omitiéndolas. La posibilidad de introducir nuevos datos, o de seleccionar otro subgrupo de predictores quizá sea la mejor solución, pero en la mayoría de las ocasiones no es posible, dada la situación experimental. Existen, sin embargo, algunos métodos alternativos que permiten utilizar la información original y que posibilitan seguir explicando un porcentaje similar o mayor de la variabilidad de la variable respuesta. En esta línea abordamos aquí, entre otros, el Análisis de Componentes Principales y la Regresión Ridge. Sobre ellos apuntamos las implicaciones en el tratamiento de la colinealidad derivadas de sus características matemáticas, considerando, al mismo tiempo, las ventajas e inconvenientes de su utilización.

Referencias bibliográficas

  • Batista, J. M. y Martínez, R. (1989). Análisis multivariante. Análisis de Componentes principales. Barcelona: Hispano Europea.
  • Belsley, D. A. (1991). Conditioning diagnostics. New York: Wiley.
  • Belsley, D. A.; Kuh, E. y Welsch, R. E. (1980). Regression diagnostics.New York: Wiley.
  • Cattin, P. H. (1981). The Predictive Power of Ridge Regression. Some Quasi-Simulation Results. Journal of Applied Psychology, 66, 3, 282-290.
  • Cliff, N. (1988). The eigenvalues-greater-than-one rule and the reability of components. Psychological Bulletin, 103, 2, 276-279.
  • Coniffe, D. y Stone, J. (1973). A critical view of ridge regression. The Statistician, 22, 181-187.
  • Coniffe, D. y Stone, J. (1975). A reply to Smith and Goldstein. The Statistician, 24, 67-68.
  • Chatterjje, S. y Price, B. (1991). Regression analysis by example. 2nd Ed. New York: Wiley.
  • Darlington, R. B. (1978). Reduced-Variance Regression. Psychological Bulletin, 85, 6, 1238-1255.
  • Draper y Smith, H. (1981). Applied regression analysis. New York: Ed. John Wiley.
  • Draper, N. R. y Van Nostrand, R. C. (1979). Ridge Regression and James-Stein Estimation: Review and Comments. Technometrics, 21, 451-466.
  • Green, B. F. (Jr). (1977). Parameter sensitivity in multivariate methods. Journal of Multivariate Behavioral Research, 12, 263-287.
  • Gunst, R.T. y Mason, R. L. (1980). Regression analysis and its application. New York: Marcel Dekker.
  • Harris, R. J. (1985). A primer of Multivariate Statistic. London: Academic Press.
  • Hocking, R. R. (1976). The analysis and selection of variables in linear regression. Biometrics, 32, 1-49.
  • Hocking, R. R., Speed, F.M. y Lynn, M. J. (1976). A class of biased estimators in linear regression. Technometrics, 18, 425-438.
  • Hoerl, A. E. (1959). Optimum solution of many variables equations. Chemical Engineering Progress, 55, 69-78.
  • Hoerl, A. E. (1964). Ridge Analysis. Chemical Engineering Progress, Symposium Series. 60, 67-77.
  • Hoerl, A. E. y Kennard, R. W. (1970). Ridge Regression: Biased Estimation for nonorthogonal Problems. Technometrics, 12, 1, 55-67.
  • Hoerl, R. W. (1985). Ridge Analysis 25 Years Later. American Statistician, 39. 3, 186-192.
  • López, E. (1992). La Regresión Multiple aplicada a la Investigación Educativa. Algunas consideraciones en torno a su correcta aplicación. Málaga: Universidad de Málaga.
  • López, E. (1995a). Regresión con Componentes Principales aplicada a predictores colineales. En AIDIPE (Comp.) Estudios de investigación educativa en intervención psicopedagógica (pp. 3-6). Valencia: Asociación Interuniversitaria de Investigación Pedagógica Experimetal.
  • López, E. (1995b). Regresión Ridge: un procedimiento para corregir la colinealidad entre predictores. En AIDIPE (Comp.) Estudios de investigación educativa en intervención psicopedagógica (pp. 44-50). Valencia: Asociación Interuniversitaria de Investigación Pedagógica Experimetal.
  • López, E. (En preparación). Colinealidad en Regresión Múltiple: diagnóstico.
  • Lovie, P. y Lovie, A. D. (Eds.) (1991). New Developments in Statistics for Psychology and the Social Sciences. Vol. 2. London: The British Psychological Society.
  • Marquardt, D. W (1970). Generalized inverses, ridge regression and biased linear estimation. Technometrics, 12, 591-612.
  • Marquardt, D. W. y Snee, R. D. (1975). Ridge Regression in Practice. American Statistician, 29, 1, 3-20.
  • Mauro, R. (1990). Understanding L.O.V.E. (Left Out Variables Error): A Method for Omited Variables. Psychological Bulletin,108, 2, 314-329.
  • Mayer, L. S. y Wilke, T. A. (1973). On biased estimation in linear models. Technometrics, 15, 497-508.
  • McCallum, B. T. (1970). Artificial Orthogonalization in Regression Analysis. Review of Economics and Statistics, 52, 110-113.
  • Mosteller, F. y Tukey, J. W. (1977). Data Analysis and Regression. (A second course in statistics). London: Addison-Welsley.
  • Peña, D. (1987). Estadística. Modelos y Métodos.Vol. 2: Modelos lineales y series temporales. Madrid: Alianza.
  • Riba, M. D. (1989). Una panorámica de las técnicas estadísticas multivariantes. Doc. de laboratori de Psicología Matemática. Barcelona: Univ. Autónoma.
  • Seber, G. A. F. (1977). Linear Regression Analysis. New York: Wiley.
  • Smith, G. y Campbell, F. (1980). A critique of some regression methods. Journal of the American Statistical Association, 75, 74-81.
  • Stein, C. (1960). Multiple regression. En Olkin, I. et al. (Eds.) Contribution to probability and statistics. Stanford, Calif.: Stanford University Press.
  • Stone, M. y Brooks, R. J. (1990). Continium Regression: Cross-validated sequentially constructed prediction embracing ordinary least, partial least squares y principal components regression. Journal Royal Statistical Society, Ser. B. 52, 2, 237-269.
  • Webster, J. T.; Gunst, R. F. y Mason, R. L. (1974). Latent root regression analysis. Technometrics, 16, 513-522.
  • Weisberg, S. (1985). Applied linear regression. New York: Wiley.