VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada...

37
VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN EVALUACIÓN DE LA INVESTIGACIÓN: INDICADORES DE CALIDAD CIENTÍFICA 1

Transcript of VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada...

Page 1: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA

INVESTIGACIÓN

EVALUACIÓN DE LA INVESTIGACIÓN: INDICADORES DE

CALIDAD CIENTÍFICA

1

Page 2: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Los datos bibliométricos se obtienen a partir del cálculo de las citas que recibe un trabajo individual o, de forma agregada, un autor (su carrera) o una revista (para elaborar los rankings, como el JCR). También se utilizan para confeccionar rankings de instituciones. Actividad Investigadora en la Universidad Española

Cálculo de citas

2

Page 3: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

El índice de impacto por antonomasia es el FI. Mide la relevancia de las revistas a partir de datos

agregados resultantes del recuento de las citas registradas en los “citation index” de la WoS.

Calculado a partir del número de veces que se han citado en un año los artículos que ha publicado una revista en los 2 años inmediatamente anteriores, dividido por el número total de artículos publicados en esos años.

A partir de este índice se clasifican las revistas y se elaboran los rankings del JCR.

Dos ediciones del JCR: JCR Science Edition (8.778 títulos en 171 áreas temáticas )/ JCR Social Sciences Edition (3.212 en 55 áreas

temáticas). No existe equivalente para Arts & Humanities. Rankings distintos para cada disciplina.

La “posición” relativa dentro de las de una misma disciplina se representa por el cuartil en el que se encuentra una revista

(resultado de dividir por cuatro el conjunto de títulos de cada categoría).

El sistema de evaluación centrado en el FI se basa en el principio de que, en torno a las citas, es posible determinar un núcleo internacional central de publicaciones en una disciplina y de que su impacto se puede medir en un intervalo muy reducido de años (2 ó 5 en JCR).

Journal Citation Reports: Learn the Basics (Clarivate Analytics)

Índices de impacto de revistas. El "factor de impacto". El JCR

3

Page 4: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Aspectos a tener en cuenta a la hora de utilizar WoS y JCR:

Indudable sesgo anglosajón. La mayor parte de las revistas de los CI, de donde se extraen los datos

bibliométricos pertenecen a ese ámbito: Reflejo del predominio de ciertos países en la investigación científico-técnica.

También de la estructura del mercado de la edición científica.

Hay más representación de unas áreas de conocimiento que de otras.

Predominan (incluso en CCSS) los estudios empíricos o experimentales, reflejando así una determinada tradición intelectual.

Clasifica principalmente revistas, aun cuando en muchas áreas del conocimiento son las monografías, y no los artículos, los principales vehículos de transmisión de la investigación (laguna que se intenta cubrir con la creación de Book Citation Index, aunque comparte los mismos sesgos).

Limitaciones del FI como único valor bibliométrico (1)

4

Page 5: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Representación de las distintas áreas del Conocimiento (2017):

Las revistas de Ciencias constituían el 63% (8.889 títulos).

las de Ciencias Sociales, el 23,3% (3.258 revistas).

las de Arte y Humanidades, el 12,7% de la (1.784 revistas).

Limitaciones del FI como único valor bibliométrico (2)

5

Page 6: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Revistas españolas en la Web of Science (FECYT, 2017) 161 revistas españolas en los Citation Index

75 en el SCI.

48 en el SSCI.

59 en el AHCI

Algunas revistas en varios a la vez

531 revistas españolas en Emerging Sources Citation Index

Limitaciones del FI como único valor bibliométrico (3)

6

Page 7: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Revistas españolas en el JCR (FECYT, 2015)

119 revistas españolas

75 en el JCR – Science / 44 en JCR – Social Sciences Suman un 1% del total de las del JCR. 1,36% en el caso particular de las de Ciencias Sociales.

Limitaciones del FI como único valor bibliométrico (4)

7

Page 8: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

El sistema de evaluación centrado en el FI no tiene en cuenta que:

El FI de impacto se basa no en citas actuales sino en las pasadas (2 ó 5

años). El FI se transfiere a los artículos individuales, presumiendo, además, que el impacto de la revista repercutirá en el número de citas que recibirá.

La clasificación en quartiles no refleja adecuadamente el valor de las revistas, dado incluye en un mismo segmento a revistas con muy diferente peso relativo, con muy diferente nivel de citación. La segmentación debería basarse el número relativo de citas, no en la mera división, en partes iguales, de la lista de revistas de la categoría.

Las prácticas de citación son muy diferentes según las disciplinas.

Limitaciones del FI como único valor bibliométrico (5)

8

Page 9: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Las prácticas de citación son muy diferentes según las disciplinas.

Ejemplo de citas a otros

documentos en revistas

de Humanidades del CSIC.

Limitaciones del FI como único valor bibliométrico (6)

9

Page 10: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

El sistema de evaluación centrado en el FI l no tiene en cuenta que:

En CCSS y HH, el inglés no es tan preeminente; el valor de las investigaciones se

prolonga en el tiempo; en muchas de sus disciplinas se realizan investigaciones de carácter más local o regional; se publica en otro tipo de documentos, principalmente libros. Por lo tanto, no puede afirmarse que las investigaciones más relevantes se transmitan a través de un núcleo principal de revistas, y más concretamente, a través de las recogidas por los “citation index”.

Los autores que publican, por ejemplo, en publicaciones españolas, incluyendo las revistas, tienen pocas posibilidades de ser referenciadas o indexadas en estas fuentes, independientemente del valor o de la repercusión que (a nivel local o mayor) hayan tenido sus trabajos.

Las revistas incluidas en la WoS acaban atrayendo o “acaparando” los mejores trabajos. La propia inclusión en el grupo de revistas seleccionadas para la WoS determina o influye en el nivel de citación que tendrá una revista.

Conclusión: la evaluación de todo el conocimiento científico con un único recurso provoca que muchas publicaciones de calidad no sean consideradas, que muchas sean “invisibles”.

Limitaciones del FI como único valor bibliométrico (7)

10

Page 11: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

La competencia de otros productos (Scopus) con mayor cobertura y la negociación (FECYT)

ha propiciado la inclusión en WoS de índices de revistas “regionales” (Scielo, Corea, Rusia). Pero, aunque recogen las citas, no son tenidas en cuenta para el JCR.

La infrarrepresentación de algunas áreas del conocimiento y geográficas se intenta paliar con una nueva base de datos: ESCI (Emerging Sources Citation Index). Pero las citas del ESCI tampoco se tienen en cuenta para el JCR. Además, como ocurre con otras bases de datos de la WoS, predominan los trabajos en inglés. En 2015, los trabajos en inglés recogidos en ESCI suponían el 81% del total. 475 títulos eran españoles (sólo 6,3%, aunque bastante más que en los CI tradicionales). 459 (el 81%), en CCSS y

HH.

Las revistas de estos nuevos productos cumplen criterios de calidad formal básicos, que

tampoco son comprobados rigurosamente por los gestores de la WoS. El objetivo de estas bases de datos dentro del sistema WoS es, sobre todo, el de aumentar la cobertura.

Limitaciones del FI como único valor bibliométrico (8)

11

Page 12: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Índice H: valor que se asigna en el punto en que coinciden un número “h” de

publicaciones con el mismo número “h” o >”h” de citas. Estas publicaciones constituyen el “núcleo h”. Muy aplicado para medir la carrera profesional de los autores, pero también como

indicador agregado para medir la importancia de las revistas.

Limitaciones: tanto en el caso de las revistas como de los autores, prima a los más veteranos o a los de mayor producción / En el caso de los autores, no tiene en cuenta o desestima el impacto de algunos trabajos muy innovadores, de enorme repercusión / Tampoco toma en consideración ni diferencia los niveles de citación típicos de las distintas aportaciones de un autor (artículos o “reviews”, p. ej.).

Otros indicadores de revistas basados en citas (1)

12

Page 13: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Revistas con artículos altamente citados (HCP – Highly Cited Papers). Respecto de las revistas: elimina factores como el número de artículos que contienen, que

influye en el índice H (a mayor número de artículos, mayor la posibilidad de que sean más los citados). Revela el efecto que unos pocos artículos muy citados puede tener sobre el índice FI (un número pequeño de artículos muy citados puede traducirse en un FI muy alto).

Respecto de los trabajos: enfoque opuesto al FI, en el que es el indicador de la revista el que determina (para bien o para mal) el valor de los artículos que contiene. Aquí se tienen en cuenta los artículos publicados de forma individual, y es el número de los altamente citados el que determina el valor de la revista.

Indicador: compara la citación de artículos dentro del mismo campo y año de publicación. Los artículos se posicionan en relación al valor elegido como umbral para ser considerado un HCP (percentil, 1%, 10%, 20%). El número de HCP en relación con el número de artículos publicados en una revista muestra

su impacto y permite la comparación con las revistas del mismo campo o de otras áreas relacionadas.

También aplicable a autores o instituciones (Highly Cited Researchers - Clarivate Analytics, CitEc, Google Scholar, Essential Science Indicators).

Otros indicadores de revistas basados en citas (2)

13

Page 14: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

San Francisco Declaration on Research Assessment (DORA) (2012) Recomendaciones generales y particulares para todos los agentes implicados:

patrocinadores, instituciones académicas y de investigación, editores, investigadores

Resumidas: Necesidad de eliminar el uso de medidas e indicadores basados en revistas (“journal metrics”), de

evaluar la investigación por sus propios méritos, en lugar de hacerlo en función de la revista en la que se publica.

Considerar el valor de todos los productos de la investigación (“datasets”, “software”), no sólo de los publicados.

A la hora de evaluar el impacto, tener en cuenta un conjunto amplio de factores, incluyendo indicadores de calidad.

Aprovechar en la evaluación las oportunidades que proporciona la edición online.

Críticas a la evaluación basada en índices de impacto de revistas (FI y otros)

14

Page 15: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Manifiesto de Leiden sobre indicadores de investigación (2015) 10 principios:

La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos. El desempeño debe ser medido de acuerdo con las misiones de investigación de la

institución, grupo o investigador. La excelencia en investigación de relevancia local debe ser protegida. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples. Los datos y análisis deben estar abiertos a verificación por los evaluados. Las diferencias en las prácticas de publicación y citación entre campos científicos deben

tenerse en cuenta. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su

portafolio de investigación. Debe evitarse la concreción improcedente y la falsa precisión. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores. Los indicadores deben ser examinados y actualizados periódicamente.

Críticas a la evaluación basada en índices de impacto de revistas (FI y otros) (2)

15

Page 16: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Preeminencia casi total del FI en ciencias puras y en ciencias naturales, con progresivo reconocimiento de SCOPUS (sus indicadores) en áreas o campos de las CCSS y las HH.

La publicación en editoriales universitarias no ha tenido hasta muy recientemente reconocimiento, porque no se admitía como mérito (considerado como endogamia), independientemente del rigor de su política editorial. Reconocimiento recientemente del Sello FECYT como criterio de calidad de revistas y del

nuevo Sello de calidad CEA (UNE-ANECA-FECYT), en el caso de los libros.

Los criterios de evaluación son contraproducentes para las políticas de acceso abierto

de universidades y revistas, y contradice el marco legal que se dibuja a partir de la Ley de la Ciencia.

Criterios de las agencias evaluadoras (1)

16

Page 17: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

No obstante, en algunas disciplinas, hay un cierto reconocimiento de la insuficiencia

de las bases de datos que se toman como principal marco de referencia en otras.

Se consideran otros “indicios” del valor de las publicaciones y fuentes de datos alternativas sobre el impacto o la calidad de las revistas científicas.

Se mencionan algunas fuentes de datos concretas para obtener datos del impacto o de la calidad de las publicaciones, sin que sea posible determinar bajo qué criterio general (algunas de esas fuentes no se actualizan desde hace años).

Criterios de las agencias evaluadoras (2)

17

Page 18: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

En los distintos ámbitos del saber científico, técnico y social, existen índices internacionales… CNEAI asume que aparecer en dichos índices es garantía para que los contenidos… tengan suficiente calidad. Más complicado resulta determinar cuándo existe una garantía de calidad en un medio de difusión que no aparece en índices internacionales. La Resolución deja abierta la posibilidad para que los autores comuniquen… las citas y reconocimientos independientes que han tenido hasta ese momento las publicaciones que refrendan la actividad investigadora realizada.

… la aplicación de los requisitos ha de ser modulada en función de las circunstancias de cada disciplina…

Criterios CNEAI. Resolución 2017

18

Page 19: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

A. Criterios que hacen referencia a la calidad informativa de la revista como medio de comunicación científica

1. Identificación de los miembros de los comités editoriales y científicos. 2. Instrucciones detalladas a los autores. 3. Información sobre el proceso de evaluación y selección de manuscritos empleados por la revista…

incluyendo… los criterios, procedimiento y plan de revisión de los revisores o jueces. 4. Traducción del sumario, títulos de los artículos, palabras clave y resúmenes al inglés, en caso de revistas y actas

de congresos.

B. Criterios sobre la calidad del proceso editorial 1. Periodicidad de las revistas y regularidad y homogeneidad de la línea editorial en caso de editoriales de libros. 2. Anonimato en la revisión de los manuscritos. 3. Comunicación motivada de la decisión editorial… que incluya las razones para la aceptación, revisión o

rechazo del manuscrito, así como los dictámenes emitidos por los expertos externos. 4. Existencia de un consejo asesor, formado por profesionales e investigadores de reconocida solvencia, sin

vinculación… con la revista o editorial, y orientado a marcar la política editorial y someterla a evaluación y auditoría.

C. Criterios sobre la calidad científica de las revistas 1. Porcentaje de artículos de investigación: más del 75% de los artículos deberán ser trabajos que comuniquen

resultados de investigación originales. 2. Autoría: grado de endogamia editorial, más del 75% de los autores serán externos al comité editorial y

virtualmente ajenos a la organización editorial de la revista. Asimismo, se tendrá especialmente en cuenta la progresiva indexación de las revistas en las bases de datos internacionales especializadas

Criterios CNEAI. Resolución 2017. Apéndice

19

Page 20: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Se trata, en todos los casos, de fuentes útiles para el objetivo de medir, evaluar o acreditar el impacto o/y la calidad de trabajos y publicaciones.

No implica que todas sean mencionadas explícitamente en las convocatorias de las agencias de evaluación.

Aunque la mayoría de estos recursos alternativos se crean para intentar paliar el déficit de datos y

evidencias de calidad para las áreas de CCSS y HH, en algunos casos se centran en las áreas científico-técnicas o son fuentes de datos multidisciplinares que recogen información de todos los campos de la Ciencia.

Algunos de ellos son recursos de ámbito nacional, otros de ámbito internacional.

Unos ofrecen datos numéricos, indicadores bibliométricos (homologables o no al FI); otros señalan indicios, establecen y valoran criterios o indicios cuya mayor o menor presencia, mayor o menor o cumplimiento, permite acreditar la "calidad" de una publicación. Clasificación basada en su funcionalidad: RECURSOS BIBLIOMÉTRICOS / CRITERIOS O INDICIOS DE CALIDAD.

Recursos o fuentes “alternativas” (1)

20

Page 21: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Fuentes o recursos con dos tipos de datos: Bibliométricos: ofrecen indicadores numéricos, normalmente basados en el

recuento de citas, que miden la relevancia o el “impacto” tanto de las publicaciones (revistas y libros) como de los autores. índices de impacto de títulos de revistas. Índices de impacto de autores (citas a sus trabajos). Índices de impacto de libros.

En el caso de las revistas, miden las citas de un conjunto limitado/selecto de títulos (Ley de Bradford), en una base o sistema de bases de datos o en una muestra elegida para llevar a cabo el análisis bibliométrico. Pueden llevarse a cabo siguiendo diversas metodologías y sistemas de gestión de datos. Los robots de búsqueda que contienen datos de citas los obtienen de forma totalmente automatizada.

Recursos o fuentes “alternativas” (2)

21

Page 22: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Fuentes o recursos con dos tipos de datos: Otros indicadores, basados en el cumplimiento de una serie de requisitos que

se consideran básicos para acreditar la calidad de las publicaciones: revisión por pares, información editorial, antigüedad y estabilidad de la publicación, inclusión en bases de datos académicas (“visibilidad”), etc. Aunque directamente son instrumentos para la evaluación de la calidad de las publicaciones, también lo son, indirectamente, para evaluar la de los autores.

de editoriales de revistas de editoriales de libros

Algunos recursos ofrecen tanto unos como otros (indicadores combinados o compuestos). Algunos proporcionan al mismo tiempo datos sobre revistas y sobre autores.

Recursos o fuentes “alternativas” (3)

22

Page 23: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Multidisciplinares

Emerging Soruces Citation Index (WoS) Eigenfactor SJR (SCImago Journal Rankings) Google Scholar Metrics Índice H de las Revistas Científicas Españolas según Google Scholar Metrics (2012-2016)

/ (2011-2015)

Especializados Journal Scholar Metrics: Arts, Humanities and Social Sciences Índice H de revistas españolas en CCSS y Jurídicas según Google Scholar (2002-2011) CitEc (Citations in Economics) Cuiden Citation (Índice de Revistas sobre Cuidados de Salud con Repercusión en Iberoamérica) In-RecJ (Indice de Impacto de revistas españolas de Ciencias Jurídicas) In-RecS (Indice de Impacto de revistas españolas de Ciencias Sociales) In-RecH (Indice de Impacto de revistas españolas de Ciencias Humanas) RESH (Revistas Españolas de Ciencias Sociales y Humanidades) Scielo. Indicadores bibliométricos y citas / Scielo Citation Index Otras bases de datos especializadas: MathScinet, bbdd de Proquest, etc.

Recursos bibliométricos “alternativos”. Revistas (1)

23 Recurso expresamente mencionado en criterios

CNEAI 2017

Page 24: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Google Scholar Metrics

Recursos bibliométricos “alternativos”. Revistas (2)

24 Martín-Martín, A.; Ayllón, J.M.; Orduña-Malea, E.; Delgado López-Cózar, E. (2014). Google Scholar Metrics 2014: una herramienta bibliométrica de bajo coste. EC3 Working Papers, 17: 30 de junio de 2014.

Page 25: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Google Scholar Metrics

Recursos bibliométricos “alternativos”. Revistas (3)

25 Martín-Martín, A.; Ayllón, J.M.; Orduña-Malea, E.; Delgado López-Cózar, E. (2014). Google Scholar Metrics 2014: una herramienta bibliométrica de bajo coste. EC3 Working Papers, 17: 30 de junio de 2014.

Page 27: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

En 2011 se crea el Book Citation Index, primero independientemente, ahora integrado en la colección

principal de la WoS: >1,3 millones de referencias y de 15,5 mill. de citas, procedentes de >60.000 libros, publicados desde 2003. Mayor peso de las CCSS y HH: 61%.

Pero mantiene algunos sesgos comunes a todos los índices de la WoS:

Libros de sólo unas 550 editoriales, que publican especialmente en lengua inglesa. 96% de las editoriales analizadas, tienen su sede en RU, EEUU, GER o NL. Cerca de 60.000 provienen

de 3 grupos editoriales (Taylor & Francis, Springer-Nature y Wiley-Blackwell)- 2003-2018 en español: 4 libros, 1.792 capítulos.

Recursos “alternativos”

Google Scholar Bipublishers: Bibliometric Indicators for Publishers

Publishers Scholar Metrics (HH y CCSS) Book Publishers Library Metrics (HH y CCSS)

Recursos bibliométricos “alternativos”. Libros

27

Page 28: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Dos índices dentro de la WoS

Conference Proceedings Citation Index – Science Conference Proceedings Citation Index - Social Sciences & Humanities

Recurso “alternativo” especializado

Proceedings Scholar Metrics (2012-2016) / (2009-2013)

Recursos bibliométricos “alternativos”. Congresos

28

Page 29: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

obtener un sello de calidad no debería ser más sencillo en un área

que en otra, simplemente porque la competencia sea menor.

si se valora la presencia en bases de datos especializadas, debe tenerse en cuenta que no siempre hay productos equivalentes en todas las disciplinas. Además, los criterios de inclusión en bases de datos varían de unas a otras.

Deberían establecerse parámetros más objetivos para medir ciertos criterios de calidad. Por ejemplo, para discernir a partir de qué umbral la apertura o internacionalidad de una revista es suficiente o significativa.

Consideraciones respecto de los indicadores o “indicios” de calidad (1)

Rodríguez Yunta, L., Evaluación de las revistas españolas: pasos hacia un sistema que mida la apertura. En: Anuario ThinkEPI, vol. 9 (2015)

29

Page 30: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

limitaciones observables (ej. Latindex):

La información que se maneja es la que aparece en la revista, la del propio editor.

Se evalúa positivamente si una revista declara un sistema de arbitraje por evaluadores

externos, pero no se verifica a qué secciones o artículos afecta, o cuál es su cumplimiento real.

Se establece la apertura de la revista en el consejo editorial, exigiendo que dos terceras partes del mismo sean ajenas a la entidad editora, pero no se certifica su funcionamiento efectivo.

Se fija un baremo muy poco exigente respecto a la apertura en la autoría (>50%). Las revistas de muchas entidades privadas y asociaciones pasan fácilmente el filtro

La presencia en el catálogo de Latindex, (o la inclusión en una base de datos) sólo puede interpretarse como un requisito de mínimos. Muchos criterios son puramente formales. >7.000 títulos cumplen los criterios.

Consideraciones respecto de los indicadores o “indicios” de calidad (2)

Rodríguez Yunta, L., Evaluación de las revistas españolas: pasos hacia un sistema que mida la apertura. En: Anuario ThinkEPI, vol. 9 (2015)

30

Page 31: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Limitaciones observables (ej. Sello Calidad FECYT): exige documentar el proceso de arbitraje y el funcionamiento de los órganos de dirección.

Pero para medir la internacionalidad hay una escasa exigencia: 10% del

consejo asesor o de los autores deben vincularse con instituciones extranjeras.

La apertura en la autoría también es relativamente fácil de cumplir: 80% de trabajos por autores externos al consejo de redacción y a la entidad editora.

Consideraciones respecto de los indicadores o “indicios” de calidad (2)

Rodríguez Yunta, L., Evaluación de las revistas españolas: pasos hacia un sistema que mida la apertura. En: Anuario ThinkEPI, vol. 9 (2015)

31

Page 32: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Multidisciplinares

Master Journal List (WoS – Proceso de evaluación) Scopus. Content Policy and Selection Catálogo Latindex (criterios, adenda) Revistas evaluadas por la FECYT Ranking de revistas con sello de calidad (FECYT) MIAR (Matriu d'Informació per a l'Avaluació de Revistes) Ulrichsweb. Global Serials Directory

Especializados

Bases de datos del CSIC Revistas de CC. Sociales y Humanidades Carhus Plus +2014 (CCSS y HH) CIRC (Clasificación Integrada de Revistas Científicas) (CCSS y HH) DICE (Difusión y calidad editorial de las revistas españolas de humanidades y ciencias sociales y

jurídicas) ERIH Plus (HH y CCSS) RESH (Revistas españolas de ciencias sociales y humanas. Valoración integrada e índice de citas)

Recurso expresamente mencionado en criterios CNEAI 2017

Criterios y evidencias de calidad. Revistas

32

Page 33: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

FECYT. Ranking de revistas con sello de calidad

Aleixandre-Benavent, R. Políticas nacionales de evaluación de la actividad científica y su impacto sobre la edición de revistas (España). 8ª Conferencia internacional sobre revistas científicas. Barranquilla, 2-4 mayo 2018

Criterios y evidencias de calidad. Revistas

33

Page 34: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Sello de Calidad UNE-ANECA-FECYT

Master Book List (WoS-BCI). Publishers (selection process)

Clarivate Analytics Conference Proceedings Selection Process. Conference

Proceedings Published in Books.

Scopus. Content Policy and Selection

SPI: (Scholarly Publishers’ Indicators. Books in Humanities and Social Science).

SPI. Scholarly Publishers’ Indicators Expanded

Recurso expresamente mencionado en criterios CNEAI 2017

Criterios y evidencias de calidad. Libros

34

Page 35: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Miden cualquier consulta, cita o descarga en redes sociales generales (blogs, foros, Twitter,

Facebook) o científicas (ResearchGate, Academia.edu…); en gestores sociales de información bibliográfica (Mendeley, Citeulike); en repositorios institucionales (OpenAire) y temáticos; o en medios de comunicación.

Diversos editores, como BioMed Central o Nature Publishing Group, Springer o Wiley han ofrecen también esta información. Las grandes bases de datos de información científica (WoS, Scopus, Science Direct, PLoS) recogen ya estadísticas de consulta o de comentarios en redes sociales.

Muestran la repercusión de un trabajo académico antes de que se registre ninguna cita. Pueden también medir la repercusión de “data-set”, posts, etc.

Especialmente útiles en áreas como la práctica clínica (la investigación tiene muchas veces

un carácter eminentemente práctico, dirigida a los profesionales de la medicina) o de las humanidades (cuyo nivel de citación es relativamente bajo, en comparación con otras áreas del conocimiento.

Almetrics (1)

35

Page 36: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Almetrics (2)

36

Scopus. Plum Analytics Conteo de uso (WoS)

Page 37: VISIBILIDAD, DIFUSIÓN Y EVALUACIÓN DE LA INVESTIGACIÓN · Rankings distintos para cada disciplina. La “posición” relativa dentro de las de una misma disciplina se representa

Dudas sobre su valor o su exactitud como indicadores bibliométricos:

Falta de normalización. Algunas iniciativas tratan de establecer estándares para los

indicadores de impacto: “Alternative Assessment Metrics” (de la NISO).

El número de menciones o comentarios no es indicativo de la valía de un trabajo. Los indicadores alternativos miden la influencia social pero no la calidad de la información. El impacto social puede diferir mucho respecto del impacto académico.

Los trabajos publicados hasta el momento reflejan la ausencia de correlación entre los datos procedentes de medios sociales y las citas

Almetrics (3)

37