Organizada por la Dirección de Investigación, la iniciativa busca apoyar y motivar a profesores e investigadores en la postulación a fondos concursables y en el proceso de generar investigación a través de publicaciones.
Con gran participación de profesores e investigadores de la Universidad Técnica Federico Santa María, se realizó la charla “Cienciometría: Publish or Perish”, iniciativa organizada por la Dirección de Investigación de la Dirección General de Investigación, Innovación y Emprendimiento (DGIIE), y que estuvo a cargo del Dr. Andrés Fuentes, académico del Departamento de Industrias y con una destacada trayectoria en investigación en energía y combustión.
La charla tuvo como objetivo explicar cómo se evalúan las publicaciones y la importancia que tienen los principales indicadores bibliométricos dentro del proceso de investigación, y la evolución de la cienciometría, con el fin de apoyar la labor dentro de la Universidad y mejorar las métricas.
Una de las primeras interrogantes a responder es qué evaluar en una publicación o paper, desde la evaluación cienciométrica por países o hasta el trabajo que realizan los investigadores. Lo interesante es que en general los indicadores cienciométricos son más usados y bien usados, en términos macro, es decir por países.
Los investigadores son evaluados por pares, no así los países. La literatura indica que tiene que existir un balance pleno entre una evaluación cuantitativa, a través de indicadores cienciométricos, pero también analizar los pros y contras de estos indicadores, por campo y por disciplina, y en consecuencia tener el juicio de expertos es absolutamente necesario.
En su presentación, el Dr. Fuentes habló sobre la evolución de la Cienciometría desde 1934, cuando nace el concepto de Bibliometría, y hasta 1971 cuando surge definitivamente. Posteriormente, en 1975, Eugene Garfield, fundador de ISI y lo que posteriormente sería Web of Science (WoS), instaló el concepto de factor de impacto, y en 1979 nace el Journal de Cienciometría. En 1995 hubo crecimiento del factor de impacto como herramienta de evaluación y nace MathScinet en 1996.
Hasta el 2000 las bases de datos llegaban por CD-ROM, y para el 2002, se creó la plataforma Thompson Reuters Integrated. Para el 2004 nacen las bases de datos Elsevier Scopus y también el Google Scholar (beta). El 2005 se crea h-index en manos del científico argentino Jorge Hirsh, físico que trabaja en EEUU, donde aparece el canon en términos de investigaciones donde se consideran los números de publicaciones, número de citaciones, factor de impacto y el h-index.
Mendeley & Researchgate aparecen como nuevos ecosistemas, una nueva forma de trabajar, que evalúa la colaboración local entre científicos, nacional e internacional, la movilidad, lo que permite analizar colaboración. Allmetrics encabeza esta forma de trabajar y que acuña el concepto de cienciometría 2.0.
También se expuso acerca de los factores de impacto de cada revista (Q1, Q2, Q3 y Q4), sin embargo, depende de la base de datos en la que esté inserta el como se evalúa la publicación, ya que hay factores de impacto por publicación y por citación. Entre estas bases se encuentran las más conocidas que son Web of Science (WoS), Scopus, Dimensions (la más grande), Google Scholar, y una de las más recientes es Microsoft Academics, aunque las principales universidades del país se miden por WoS. Las plataformas más modernas y más grandes incluyen no sólo publicaciones, sino que premios, patentes, y otros datos de interés que sirven para evaluar a un investigador.
Para la Directora de Investigación, Dra. Alejandra Urtubia, es fundamental entregar herramientas a la comunidad investigadora para aumentar su productividad científica, es decir, aumentar el número y calidad de publicaciones, lo cual trae como consecuencia mayor probabilidad de adjudicación de proyectos de investigación.
“Hubo varios aspectos relevantes que se hablaron en el taller, desde bases de datos, factores de impacto de las revistas, autoría de los papers, como también la importancia de las redes y la colaboración en el desarrollo de la investigación. Fue importante conversar de la realidad de la universidad en relación a indicadores como el número de papers que se publican por año, los cuartiles en que se publica, y su relación a los criterios de la Comisión Nacional de Acreditación para claustros de programas de magíster y doctorado” destacó la Dra. Urtubia.