Análisis bibliométrico comparativo de la actividad científica del CSIC y cuatro homólogos europeosCNRS, HG, MPG Y CNR (2006-2015)

  1. Maldonado Carrillo, Jairo 1
  2. Montesi, Michela 1
  1. 1 Universidad Complutense de Madrid
    info

    Universidad Complutense de Madrid

    Madrid, España

    ROR 02p0gd045

Revista:
Revista general de información y documentación

ISSN: 1132-1873 1988-2858

Año de publicación: 2018

Volumen: 28

Número: 1

Páginas: 163-191

Tipo: Artículo

DOI: 10.5209/RGID.60807 DIALNET GOOGLE SCHOLAR lock_openAcceso abierto editor

Otras publicaciones en: Revista general de información y documentación

Objetivos de desarrollo sostenible

Resumen

Se describe la actividad investigadora del Consejo Superior de Investigaciones Científicas (CSIC) en la década 2006-1015 comparativamente con cuatro instituciones europeas similares: el Centre National de la Recherche Scientifique (CNRS), el Helmholtz-Gemeinschaft (HG), el Max-Planck-Gesellschaft (MPG), y el Consiglio Nazionale delle Ricerche (CNR). Los datos relativos a actividad, impacto y colaboración se obtuvieron de Scopus. Concretamente se estudiaron, entre los indicadores de actividad, el número de publicaciones y el índice de actividad; entre los indicadores de impacto, el número de citas y citas por publicación, el porcentaje de publicaciones no citadas, el índice h y el índice de inmediatez; y, entre los indicadores de colaboración, la frecuencia de colaboración internacional y el índice de colaboración internacional. Los resultados ponen de manifiesto diferencias entre las instituciones estudiadas en el volumen de la producción, en el impacto alcanzado, y en la especialización. EL CSIC se configura como la institución que consigue la mejor relación presupuesto-producción-impacto. Las demás instituciones destacan en aspectos diferentes, tales como el volumen de la producción realizada (CNRS), el impacto alcanzado (MPG), el grado de especialización (HG), o la escasa actividad de colaboración internacional (CNR).

Información de financiación

Ninguno de los cinco centros de investigación posee un índice de actividad especialmente señalado en las cuatro categorías principales (Tabla 8). Los mejores datos son los del HG: en tres de los cuatro grupos de disciplinas más importantes (Ciencias de la salud, Ciencias sociales y Ciencias de la vida) alcanzó un IA superior a 1, siendo el más elevado el logrado para Ciencias de la salud: 1,64.

Referencias bibliográficas

  • Aksnes, D. W.; Taxt, R. E. (2004). Peer reviews and bibliometric indicators: A comparative study at a Norwegian University. Research Evaluation, vol. 13 (1), 33-41.
  • Albert, A.; Granadino, B.; Plaza, L. M. (2007). Scientific and technological performance evaluation of the Spanish Council for Scientific Research (CSIC) in the field of Biotechnology. Scientometrics, vol. 70 (1), 41-51.
  • Andrés, A. (2009). Measuring academic research. How to undertake a bibliometric study. Chandos Publishing; Cambridge.
  • Arguimbau-Vivó, L.; Fuentes-Pujol, E.; Gallifa-Calatayud, M. (2013). A decade of documentary research on Scientometrics in Spain: Analysis of papers from the ISOC database (2000-2009). Revista Española de Documentación Científica, vol. 36 (2).
  • Ayala-Gascón, M.; Aleixandre-Benavent, R.; Gandía-Balaguer, A. (2012). Scientific activity indicators of outstanding researchers: Scientometric portrait of Eduardo Primo Yúfera, former president of CSIC. Revista Española de Documentación Científica, vol. 35 (2), 209-237.
  • Beliakov, G.; Bustince-Sola, H.; Calvo-Sánchez, T. (2016). A Practical Guide to Averaging Functions. Springer.
  • Bordons, M.; Costas, R. (2005). Bibliometric indicators at the micro-level: some results in the area of natural resources at the Spanish CSIC. Research Evaluation, vol. 14 (2), 110-120.
  • Bordons, M.; Morillo, F.; Gómez, I.; Moreno-Solano, L.; Lorenzo, P.; Aparicio, J.; Álvarez-Bornstein, B.; González-Albo, B. (2016). La actividad científica del CSIC a traves de indicadores bibliométricos (Web of Science, 2011-2015). CSIC: Consejo Superior de Investigaciones Científicas; Madrid.
  • Bornmann, L. (2013). What is societal impact of research and how can it be assessed? A literature survey. Journal of the American Society of Information Science and Technology, 64(2), pp. 217-233.
  • Bosman, J.; van Mourik, I.; Rasch, M.; Sieverts, E.; Verhoeff, H. (2006). Scopus Reviewed and Compared: The coverage and Functionality of the Citation Database Scopus, Including Comparisons with Web of Science and Google Scholar. Utrecht University Library; Utrecht.
  • CNR. (2016). Relazione sulla Performance 2015. Consiglio Nazionale delle Ricerche. . [Consulta: 12/08/2017]
  • CNR. (2017). Il CNR in numeri. Consiglio Nazionale delle Ricerche. . [Consulta: 10/08/2017]
  • CNRS. (2017a). 2016, une année avec le CNRS. Centre National de la Recherche Scientifique. . [Consulta: 04/08/2017]
  • CNRS. (2017b). Présentation. Centre National de la Recherche Scientifique. . [Consulta: 02/08/2017]
  • Cortés Vargas, D. (2007). Medir la producción científica de los investigadores universitarios: la bibliometría y sus límites. Revista de la Educación Superior, vol. XXXVI (142), 43-65.
  • Costas, R., Bordons, M. Do age and professional rank influence the order of authorship in scientific publications? Some evidence from a micro-level perspective (2011) Scientometrics, vol. 88 (1), pp. 145-161.
  • Costas, R.; van Leeuwen, T. N.; Bordons, M. (2010). A bibliometric classificatory approach for the study and assessment of research performance at the individual level: The effects of age on productivity and impact. Journal of the American Society for Information Science and Technology, vol. 61 (8), 1564-1581.
  • CSIC. (2017a). Memoria 2016. Consejo Superior de Investigaciones Científicas. . [Consulta: 10/08/2017]
  • CSIC. (2017b). Presentación. Consejo Superior de Investigaciones Científicas. . [Consulta: 02/08/2017]
  • De Filippo, D.; Morillo, F.; Fernández, M. T. (2008). Indicators of scientific collaboration between CSIC and Latin America through international databases. Revista Española de Documentación Científica, vol. 31 (1), 66-84.
  • Franceschini, F., Maisano, D., & Mastrogiacomo, L. (2016). The museum of errors/horrors in Scopus. Journal of Informetrics, 10(1), 174-182.
  • Elsevier. (2016). Scopus Content Coverage Guide. www.elsevier.com/__data/assets/ pdf_file/0007/69451/scopus_content_coverage_guide.pdf. [Consulta: 14/06/2017]
  • García, J. A.; Rodríguez-Sánchez, R.; Fernández-Valdivia, J. (2011). Ranking of the subject areas of Scopus. Journal of the Association for Information Science and Technology, vol. 62 (10), 2013-2023.
  • González-Albo, B.; Moreno, L.; Morillo, F.; Bordons, M. (2012). Indicadores bibliométricos para el análisis de la actividad de una institución multidisciplinar: el CSIC. Revista Española de Documentación Científica, vol. 35 (1), 9-38.
  • Hamilton, D. P. (1990). Publishing by-and for?-the Numbers. Science, vol. 250, 1331-1332.
  • HG. (2016). Annual report 2016. Helmholtz-Gemeinschaft. www.helmholtz.de/fileadmin/ user_upload/04_mediathek/2016_Geschaeftsbericht/161201_GB2016_ENGLISH_web_A-1b.pdf. [Consulta: 10/08/2017]
  • HG. (2017). About us. Helmholtz Association. . [Consulta: 07/08/2017]
  • Hirsch, J. E. (2005). An index to quantify an individual’s scientific research output. PNAS: Proceedings of the National Academy of Sciences of the United States of America, vol. 102 (46), 16569-16572.
  • Krauskopf, E. (2017). Call for caution in the use of bibliometric data. Journal of the Association for Information Science and Technology, vol. 68(8), 2029-2032.
  • López-Muñoz, F.; Marín, F.; Boya-Vegue, J. (1996). Evaluación bibliométrica de la producción científica española en Neurociencia. Análisis de las publicaciones de difusión internacional durante el período de 1984-1993. Revista de Neurología, vol. 24 (128), 417-426.
  • MacRoberts, B. R.; MacRoberts, M. H. (2010). Problems of citation analysis: A study of uncited and seldom-cited influences. Journal of the American Society for Information Science and Technology, vol. 61 (1), 1-13.
  • MacRoberts, M. H., & MacRoberts, B. R. (2018). The mismeasure of science: Citation analysis. Journal of the Association for Information Science and Technology, vol. 69(3), 474-482.
  • Mauleón, E.; Bordons, M.; Oppenheim, C. (2008). The effect of gender on research staff success in life sciences in the Spanish National Research Council. Research Evaluation, vol. 17 (3), 213-225.
  • Mesnard, L., de (2012). On some flaws of university rankings: the example of the SCImago report. The Journal of Socio-Economics, vol. 41(5), 495-499.
  • Mongeon, P.; Paul-Hus, A. (2016). The journal coverage of Web of Science and Scopus: a comparative analysis. Scientometrics, vol. 106 (1), 213-228.
  • MPG. (2017a). Annual Report 2016. Max-Planck-Gesellschaft. . [Consulta: 10/08/2017]
  • MPG. (2017b). A portrait of the Max Planck Society. Max-Planck-Gesellschaft. . [Consulta: 07/08/2017]
  • Orduña-Malea, E.; Martín-Martín, A.; Ayllón, J. M.; Delgado López-Cózar, E. (2016). La revolución Google Scholar: Destapando la caja de Pandora académica. Unión de Editoriales Universitarias Españolas; Granada.
  • Ortega, J. L. (2011). Collaboration patterns in patent networks and their relationship with the transfer of technology: the case study of the CSIC patents. Scientometrics, vol. 87 (3), 657-666.
  • Ortega, J. L. (2017). Toward a homogenization of academic social sites: A longitudinal study of profiles in Academia. edu, Google Scholar Citations and ResearchGate. Online Information Review, vol. 41 (6), 812-825.
  • Rivera-Hernández, M. P. (2015). Análisis de la producción científica en revistas de biblioteconomía y documentación en México (2009-2013): aplicación del método de análisis cualitativo de citas. (Tesis doctoral), Universidad Complutense de Madrid; Madrid.
  • Romo-Fernández, L. M.; Guerrero-Bote, V. P.; de Moya-Anegón, F. (2013). Analysis of the Spanish scientific production in renewable energy, Sustainability and the Environment (Scopus, 2003-2009) in the global context. Investigación Bibliotecológica, vol. 27 (60), 125-151.
  • Sánchez, M. (1999). Análisis comparativo de la producción científica de la Unión Europea, España y el Consejo Superior de Investigaciones Científicas. CSIC: Consejo Superior de Investigaciones Científicas; Madrid.
  • SCImago Lab. (2015). Western European Government Institutions Ranking. SCImago Institutions Rankings. . [Consulta: 01/03/2017]
  • Scopus. (2006). Scopus Content Coverage. . [Consulta: 19/06/2017]
  • Seglen, P. O. (1997). Why the impact factor of journals should not be used for evaluating research. BMJ: British Medical Journal, vol. 314, 498-502.
  • Spinak, E. (1998). Indicadores cienciométricos. Ciência da informação, 27(2), 141-148.
  • Thelwall, M., & Kousha, K. (2015). Web indicators for research evaluation. Part 1: Citations and links to academic articles from the web. El profesional de la Información, vol. 24(5), 587-606.
  • Torra, V.; Narukawa, Y. (2008). The h-Index and the Number of Citations. Two Fuzzy Integrals. IEEE Transactions on Fuzzy Systems, vol. 16 (3), 795-797.
  • Valderrama-Zurián, J. C., Aguilar-Moya, R., Melero-Fuentes, D., & Aleixandre-Benavent, R. (2015). A systematic analysis of duplicate records in Scopus. Journal of Informetrics, vol. 9 (3), 570-576.
  • van Raan, A. F. (2004). Measuring science. En Handbook of Quantitative Science and Technology Research. Kluwer Academic Publishers, p. 19-50; Dordrecht.
  • van Raan, A. F. (2005). “Fatal attraction: Conceptual and methodological problems in the ranking of universities by bibliometric methods”. Scientometrics, 62(1), 133-143.
  • Velasco, B.; Eiros, J. M.; Pinilla, J. M.; San Román, J. A. (2012). La utilización de indicadores bibliométricos para evaluar la actividad investigadora. Aula Abierta, vol. 40 (2), 75-84.
  • Vieira, E. S., & Gomes, J. A. (2009). A comparison of Scopus and Web of Science for a typical university. Scientometrics, vol. 81(2), 587.
  • Waltman, L. (2016). A review of the literature on citation impact indicators. Journal of Informetrics, vol. 10(2), 365-391.