Hasta ahora el sistema de evaluación y acreditación de la carrera profesional del profesorado universitario la realiza la ANECA (Agencia Nacional de Evaluación de la Calidad y la Acreditación) premiando la acumulación de publicaciones cuantificables y comercializables.
Este sistema ha consolidado un modelo de universidad y de ciencia que se caracteriza por basarse en el factor de impacto y por la utilización de los rankings de revistas como criterio principal de evaluación de la investigación. En otras palabras, el éxito científico consiste en publicar artículos (papers) en revistas “internacionales” indexadas en los primeros cuartiles de los rankings bibliométricos derivados de la Web of Science (JCR) o Scopus (SJR), establecidos por dos multinacionales extranjeras, Clarivate y Elsevier.
Este sistema no profundiza en el valor de los artículos en sí, ni en su relevancia científica o social. Además, ha fomentado una extraordinaria competitividad en el seno de las universidades para aumentar la cantidad de papers en las clasificaciones y ha propiciado prácticas faltas de ética que han sido noticia: investigadores que reciben dinero por figurar en el plantel de instituciones universitarias de Arabia Saudí para que éstas asciendan en los rankings o que publican un artículo “científico” cada 37 horas.
Se ha generado así un innegable proceso de capitalismo académico, caracterizado por el oligopolio de las grandes editoriales y distribuidoras de la producción científica, el incremento de los costes por publicación —los autores o sus instituciones pagan por publicar sus artículos— y las conductas oportunistas de buena parte de las multinacionales de las revistas científicas.
Por otra parte, esta espiral de inflación de papers que casi nadie lee, pero que es el “patrón oro” de nuestro sistema de evaluación, ha llevado a convertir la función docente, esencial en la universidad, en un obstáculo para la promoción académica, una “carga docente”. Lo cual devalúa una finalidad clave de la universidad que es proporcionar una formación de calidad a su alumnado.
Además, este modelo incumple los acuerdos internacionales que en materia de ciencia han sido suscritos por los organismos oficiales españoles, desde la Declaración de San Francisco sobre la evaluación científica (DORA), hasta el Manifiesto de Leiden sobre indicadores de investigación, pasando por la Iniciativa Helsinki sobre multilingüísmo en la comunidad científica, así como los principios de CoARA.
Frente a este enfoque productivista y mercantil, necesitamos un modelo de universidad pública al servicio del bien común y comprometida socialmente, así como un sistema de evaluación y acreditación del profesorado universitario que responda a un modelo de ciencia abierta para el bien común.
Por eso el colectivo de profesorado universitario, Uni-Digna, en reunión con la nueva directora de la ANECA, le ha trasladado la urgencia de dar pasos decididos, de una forma negociada y consensuada con los representantes de la comunidad académica universitaria, para establecer un sistema de evaluación de la docencia y de la investigación más justo, que responda a este modelo de ciencia para el bien común, concretados en cuatro propuestas:
- Que la acreditación del profesorado descarte el uso de métricas basadas en revistas, en especial el denominado factor de impacto.
- Que colabore en la configuración de una Ciencia Abierta Pública, que elimine los acuerdos transformativos que están suscribiendo las universidades públicas con las editoras transnacionales para financiar con dinero público la publicación de papers (APC: cargos por procesamiento de artículos) que exigen las revistas privadas.
- Evaluar, desde una visión global, la investigación, concediendo un peso fundamental a su impacto social, para que contribuya a una ciencia para una sociedad sostenible e inclusiva y comprometida con los derechos de los colectivos más vulnerables.
- Potenciar la investigación de relevancia local y democratizar la evaluación, poniendo en marcha, entre otras medidas, un proceso independiente, democrático y participativo para evaluar “el sistema de evaluación”.
* Colectivo Uni-Digna: Luis Torrego (catedrático de la Universidad de Valladolid); María Verdeja (profesora contratada doctora de la Universidad de Oviedo); Ana de Castro (profesora de la Universidad La Florida – Valencia) y Enrique-Javier Díez-Gutiérrez (profesor titular de la Universidad de León). Forman parte del Colectivo Uni-Digna, colectivo compuesto por profesorado de diversas ramas de conocimiento de las universidades públicas españolas que se han unido para reivindicar un sistema de evaluación y acreditación del profesorado universitario comprensivo, razonable y justo. Su web: https://unidigna.wordpress.com/
8 comentarios
interesante artículo pero el autor no sugiere más que que los evaluadores lean los artículos. propone cómo evitar la red de endogamia?
Interesante teniendo en cuenta que somos muchos los que abogamos por un cambio de tuerca pero criticar el sistema sin proponer alternativas al proceso actual de evaluación es fácil. Además, lo que leo va en la línea de la agenda 2030, mucho ruido y pocas nueces, sin lugar para la.ciencia básica y cemtrándose en colectivos vulnerables como si el incremento de conocimiento viniese exclusivamente del estudio de estas poblaciones ( no se me vaya a entender mal pues todos queremos que cada vez haya menos gente en la pobreza y la marginación).
La reflexión sobre la preponderancia de las métricas en la acreditación del profesorado tiene una parte criticable, pero se nos olvida de donde partimos. Este sistema empezó para objetivar el proceso y evitar dejar en cuatro manos que se entiende por «calidad». Al menos es algo objetivo y no discutible. Miedo da los supuestos criterios de «calidad» que harán 4 seguramente con criterios propios y curiosamente que favorecerán a gente cercana. Solo por casualidad, eh?
Antes de implementar algo nuevo, hay que asegurarse que es mejor que lo ya establecido. El autor mezcla churras con merinas. Una cosa es cantidad de papers y otra es factor de impacto. Invito a cualquier investigador, profesor, o catedrático a que intente publicar en los journals médicos con mayor factor de impacto (New England Journal of Medicine, JAMA, Lancet) y editores profesionales. El 99% de los artículos publicados en esos journals son más rigurosos y tienen más calidad e impacto mediático que todos los demás. Además, son más transparentes y detallan más la metodología. Intentar implantar DORA solo va a fomentar la subjetividad y la endogamia en los procesos selectivos.
Es evidente que el sistema está pervertido. La intención podría haber sido buena pero se ha derivado a una incoherencia total. Si lo que se gastan las Universidades en pagos a revistas que cobran miles de euros para publicar cuando los procesos de revisión se hacen gratis, se invirtiera en personal y recursos para investigar las cosas cambiarían. Pero si la métrica principal es el número de publicaciones pues eso es lo que se intentará a cualquier coste. En general la política científica requiere revisión. No es coherente que las posibilidades de progreso de un docente esté marcado por publicaciones principalmente, donde también existe la endogamia a la hora de las autorías.
Considero que este artículo tiene 3 errores importantes:
por un lado, CoARA no está en contra de las métricas, dice expresamente: «responsible use of metrics»;
por otro lado, muchos artículos científicos se leen mucho más que los de cualquier periódico;
por último, la evaluación del impacto social necesita métricas además de valoración cualitativa.
Si no usamos los factores de impacto ¿ cómo podemos evaluar el interés real de un artículo ? ¿ Quién va a evaluarlo y con qué criterio ? Si eliminamos las revistas open access con APC ¿ Volvemos al sistema de revistas por suscripción con los gastos que eso supone para las bibliotecas y Universidades ?
¿ Cómo se puede evaluar, desde una visión global, la investigación, concediendo un peso fundamental a su impacto social ? ¿ cómo se mide el impacto social de un artículo ? ¿ cómo se mide la contribución de un artículo a una ciencia para una sociedad sostenible e inclusiva y comprometida con los derechos de los colectivos más vulnerables ? ¿ Estamos hablando de ciencia o de filosofía ? ¿ Hay ciencia inclusiva y no inclusiva ? ¿ Cómo se mide la «inclusividad» de un artículo científico ? ¿ Cómo se puede medir la relevancia social de la investigación ? y ¿ cómo se puede democratizar la evaluación, poniendo en marcha, entre otras medidas, un proceso independiente, democrático y participativo para evaluar “el sistema de evaluación” ? ¿ quién decide lo que es buena y mala evaluación y con qué criterios ?
Este artículo solo plantea un montón de buenas intenciones pero ni usa sola solución con sentido y objetiva. Si somos científicos, no podemos dejar que la importancia de la producción científica dependa de factores subjetivos no definidos. Eso está en contra del método científico.
– Tiranía de las métricas: Si te premian por detener un criminal ¿qué haces?. Capturas al jefe (1),..o capturas repetidamente al pobre distribuidor (N).
– Factor de impacto: ¿se trata de un concurso de Gran Hermano? A ver quién es más popular. Hay artículos que de momento pueden no tener importancia y luego resultar en un avance, etc…
– Endogamia: Es un problema difícil de resolver. Al final hay que hablar y ver al candidato para «rascar» y saber lo que hay.
– Igualdad: que exijan paridad en hombre y mujeres para solicitar un proyecto de I+D o que eso dé más puntos, no tiene razón de ser. Se debe ayudar a ambos sexos con sus peculiaridades e incluso circunstancias personales.
– Cuando la I+D es pública los resultados también deben serlo,..y punto. Actualmente hay I+D pública y explotación privada. ¿ cual es el objetivo de la I+D de un país?, no nos hagamos trampas al solitario.
– Docencia: debe formar parte de la carrera universitaria «no como una condición necesaria» , debe formar parte por igual con la I+D o al menos pensar en cómo ambas deben integrarse en la trayectoria de un profesor. (Aquí habría mucho que discutir también).