Somos una Fundación que ejercemos el periodismo en abierto, sin muros de pago. Pero no podemos hacerlo solos, como explicamos en este editorial.
¡Clica aquí y ayúdanos!
Introducción. De la crítica aceptada a lo irrenunciable de las pruebas
Las pruebas estandarizadas se popularizaron en nuestro país gracias al desembarco de PISA hace la friolera de 24 años, y su finalidad y sentido quedan recogidos en el INEE (2024) así:
El Programa para la Evaluación Internacional de los Estudiantes (PISA, Programme for International Student Assessment, en inglés) contribuye a evaluar de forma sistemática lo que los jóvenes saben y son capaces de hacer al finalizar su Educación Secundaria Obligatoria (ESO) en más de 80 países del mundo. España ha participado, desde su primera edición en 2000, en todos los ciclos trienales (2003, 2006, 2009, 2012, 2015 y 2018), así como en la edición de 2022 (prevista inicialmente para 2021, pero aplazada debido al COVID-19) y en la de 2025 (también aplazada de 2024 a 2025), en la que ya se está trabajando. Este estudio muestral de evaluación educativa se centra en tres competencias consideradas troncales: ciencias, lectura y matemáticas. Además, en cada ciclo se explora una competencia innovadora, como la resolución colaborativa de problemas, en 2015; la competencia global, en 2018; el pensamiento creativo, en 2022; o la de aprender en un mundo digital, en PISA 2025. Asimismo, se viene evaluando la competencia financiera desde 2012.
Si bien, como digo, aterrizaron en nuestro país en el año 2000, fue aproximadamente en 2006 cuando se popularizaron a raíz de que dieran el salto a los medios de comunicación. Fue entonces, al trasladarse el debate a la prensa, cuando surgieron multitud de voces desde diferentes ámbitos para alertar sobre el enorme riesgo que suponían este tipo de pruebas para la educación.
Recuerdo, por ejemplo, cómo Gimeno Sacristán (2011) avisaba sobre los efectos colaterales de estas “evaluaciones”, ya que tienden a reducir la educación a una carrera de comparaciones y clasificaciones, y dejan en un segundo plano el verdadero propósito de cualquier evaluación: mejorar la calidad de la educación. Con todo lo que esto implica sobre el aprendizaje de los estudiantes -pero no solo-, y con respecto a asuntos éticos, políticos y sociales como la igualdad de oportunidades o la emancipación de los sujetos.
En la misma línea, Carabaña (2007) -quien años después escribiría un libro cuyo título es ya una declaración de intenciones: La inutilidad de PISA para las escuelas (Catarata. 2015)- cuestionaba la fiabilidad de sus resultados y la supuesta objetividad de sus informes. Su tesis era que estos estudios no solo refuerzan discursos políticos interesados, sino que, además, evitan profundizar en los problemas estructurales de la educación. Y como ellos, fueron muchos y muchas quienes criticaron a este tipo de pruebas.
En general, en aquella época existía una crítica generalizada y muy aceptada: PISA (y las pruebas estandarizadas, en general) promueven una visión mercantilista de la educación, alineada con los intereses económicos de la OCDE, que favorecen la competencia entre sistemas educativos en lugar de atender a las necesidades reales de la educación (lo cual, lejos de ser una cuestión técnica, es ya una perspectiva muy concreta de la educación). Además, al centrarse en los resultados, se convierte en una herramienta de clasificación y rendición de cuentas que genera dinámicas perversas en los sistemas educativos, como la estandarización de la enseñanza o la presión sobre docentes, alumnado y familias para mejorar las puntuaciones. Podríamos decir que en educación, cuando entra el rendimiento académico por la puerta, el aprendizaje y la igualdad de oportunidades salen por la ventana y estas pruebas son idóneas para que esto ocurra.
En aquel entonces iniciaba mi carrera investigadora en la universidad y tuve la fortuna de participar, en el seno de mi grupo de investigación, en un proyecto I+D+i del Ministerio de Educación para estudiar y analizar estas pruebas ítem a ítem, allá por 2010.
Por ello que no deja de asombrarme cómo ha evolucionado la percepción sobre estas pruebas a lo largo del tiempo. Sin duda, representa uno de los ejemplos más claros de cómo funciona la famosa ventana de Overton en el ámbito educativo. Hemos pasado de la crítica aceptada y el recelo generalizado de antaño, a la situación actual en la que cada vez que salen sus resultados asistimos a la tormenta de titulares y de acusaciones políticas que, visto en perspectiva, hacen innegables -casi premonitorias- las críticas iniciales a estas pruebas. Toda la comunidad académica, el profesorado y la sociedad en general han asumido no solo la normalidad de la presencia de este tipo de pruebas, sino que son irrenunciables por la “supuesta utilidad de los datos que arrojan”. Y esto ocurre pese a que, como siempre señala el compañero Carlos Magro (Rives y Alf, 2023) –y anunciaba el título del libro de Carabaña–, no se conozcan mejoras claras en los sistemas educativos fruto de la aplicación de conclusiones derivadas de PISA.
Las pruebas estandarizadas, per se, representan la visión más neoliberal de la educación
El grado actual de incuestionabilidad de estas pruebas es tal que, cuando en alguna discusión con colegas consigo que se acepten sus efectos perversos, siempre se llega a un enunciado final con el que acaba la discusión y que suele ser algo parecido a esto: “Aunque generan muchos efectos perversos: batalla cultural en los medios, sus datos son cuestionables (pues no ofrecen causalidad) y la utilidad para las escuelas no es directa,… alguna información aporta”.
Cosa que me deja mal sabor de boca. La sensación de que la perspectiva desde la que se analizan y la utilidad -cuestionable- de esa información parecen ser aspectos secundarios frente a la obsesión irrenunciable por recopilar datos.
Para ser claro, a mí me parece que este marco mental que representa a la mayor parte de la comunidad académica y los profesionales de la educación de nuestro país no solo no es inocuo, sino que es tremendamente nocivo. Las pruebas estandarizadas, per se, representan la visión más neoliberal de la educación y, por lo tanto, lo que deberíamos hacer es rechazar el marco y volver a empujar la ventana de Overton en sentido contrario.
Todo esto, descontando del análisis algo que siempre me recuerda el compañero Indomitus y que debería zanjar este debate para siempre: la famosa ley de Campbell, cuya definición es:
Cuanto más utilizado sea un determinado indicador social cuantitativo para la toma de decisiones, mayor será la presión a la que estará sujeto y más probable será que corrompa y distorsione los procesos sociales que, se supone, debería monitorear. (Wikipedia)
La receta neoliberal para la educación: obsesión por los datos y el auge de las pruebas estandarizadas
La educación, como todo, ha cambiado de rumbo bajo la influencia del neoliberalismo. Antes, cuando los estados eran del bienestar, se entendía que su labor pasaba por garantizar la educación como un derecho. Ahora, la gestión educativa está dominada por los números, las evaluaciones y los rankings (Lingard, 2014). Algunos autores (Power, 1997; Neave, 1998) llaman a esto la sociedad de la auditoría o el estado evaluativo, en la que todo se mide, compara y clasifica. En esta lógica, la educación debe ser un sistema basado en datos. Esto es así porque estos parecen ser objetivos e imparciales, lo que los hace atractivos para la política, ya que legitiman la toma de decisiones bajo el lema de la política basada en evidencia (Head, 2008; Wiseman, 2010; Fernández Navas y Postigo-Fuentes, 2023).
Las pruebas estandarizadas, como PISA, no son herramientas neutras, inocuas ni objetivas de obtención de datos
El sueño dorado de la educación neoliberal es conseguir reformas educativas que hagan el sistema “más eficiente” (que la palabra que describa a un sistema educativo de calidad sea “eficiente” ya debería dar pistas sobre la lógica que hay detrás).
Paradójicamente, muchos docentes aplauden y justifican las pruebas estandarizadas, a la vez que esgrimen sus datos para la batalla cultural educativa. Pese a que, bajo este modelo, Hursh (2013) explica que el profesorado queda fuera del debate educativo. Son vistos como actores poco confiables, mientras que los defensores de las pruebas se presentan como los únicos realmente preocupados por la educación. Se trata de un despotismo ilustrado educativo: se decide sobre la educación, pero sin la opinión del profesorado y, mucho menos, del alumnado y las familias.
Las pruebas estandarizadas, como PISA, no son herramientas neutras, inocuas ni objetivas de obtención de datos; son pruebas diseñadas desde una determinada concepción de lo que es la política, la sociedad, la educación, el aprendizaje, las competencias…, y, por lo tanto, reflejan y refuerzan estas visiones “educativas”.
Cuando digo que forman parte de una visión neoliberal de la educación me refiero a que, si una definición sencilla de la ideología neoliberal pudiera ser “aquella que promueve la reducción de la regulación de las diferentes esferas de la vida por parte del Estado en favor de la supuesta regulación que ejercería el mercado si se le deja libre de intervención”, no es difícil ver que el uso de pruebas estandarizadas -y externas- para hacer clasificaciones y rankings pone en el centro la rendición de cuentas en función de sus resultados, potenciando la competitividad entre escuelas y convirtiendo la transformación educativa en un bien regulado por mecanismos externos de “evaluación”.
El éxito educativo queda reducido a un conjunto de resultados numéricos (ni siquiera es fácil explicar las puntuaciones de PISA sin recurrir a complejos cálculos estadísticos), como si el aprendizaje pudiera equipararse a un balance financiero, pero que hacen las delicias de ciertos economistas de la educación y parte de la sociología, transformándolos en expertos y expertas en el centro del debate.
La lógica subyacente es muy similar, como puede verse, a la del mercado: así como las empresas miden su éxito en función de ingresos y beneficios, las instituciones educativas son clasificadas partir del rendimiento de sus estudiantes en pruebas estandarizadas. Y como en el mercado, el paradigma siempre es que cada año hay que obtener un porcentaje mayor de beneficios o si no se entiende que hay pérdidas. Solo así se puede explicar que en este texto se entienda “estancamiento”:
está sucediendo algo que no estaba en el guion a principios de siglo: “Se invierte más por estudiante. Hay un mayor acceso a la cultura. Los progenitores están más formados. Hay más gente que ha ido a la educación infantil. Hace 20 años estábamos absolutamente convencidos de que habría una mejora importante para estas fechas, pero la realidad nos contradice, porque en general hay más bien estancamiento” (Zafra, 2025).
Esta música puede sonar pegadiza; sin embargo, esta mercantilización de la educación ignora un aspecto fundamental. Si incluso en la economía los números pueden ocultar más de lo que revelan, en educación esta dificultad se multiplica exponencialmente. Aquí trabajamos con conceptos abstractos que varían según el paradigma desde el que se analicen.
Por ejemplo, rara vez verás a un experto en PISA enfatizar que la noción de educación, aprendizaje o competencias no es universal. Un conductista, un constructivista y un cognitivista, por ejemplo, ofrecerían definiciones con matices muy distintos sobre qué significa aprender. Sin embargo, todos coincidirían en que el aprendizaje no puede medirse directamente y que inferirlo únicamente a partir del rendimiento académico es, como mínimo, problemático. Pero esta reducción de los conceptos es imprescindible para que cualquier prueba estandarizada pueda sostener su utilidad como herramienta de medición.
Todo esto sin siquiera entrar en la dimensión ética, filosófica y política de la educación, que resulta ineludible si realmente queremos comprender el funcionamiento de un sistema educativo y proponer mejoras reales. Una compañera me pasaba el otro día esta cita de Cilliers (2010):
“El reconocimiento de la complejidad conduce al reconocimiento del papel inevitable que desempeñan los valores (véase Cilliers, 2005). Las palabras ‘valor’, ‘ética’, ‘normatividad’, ‘poder’ y ‘política’ deberían ser más importantes en nuestras reflexiones sobre fenómenos complejos de lo que lo son actualmente […]. No hay casi ningún campo en el que este reconocimiento sea más urgente que en la educación. Ocultar la inevitable política implicada en todas las formas de educación tras una apariencia de neutralidad y objetividad es una forma inaceptable de violencia, una violencia en parte responsable del estado en que se encuentra el mundo.”
Si cambiamos el marco de análisis, tal vez podamos ver mejor el enorme riesgo y la conexión con ideas profundamente neoliberales. Pensemos en una escuela inclusiva, con estudiantes de diversos orígenes y capacidades, trabajando juntos y haciéndolo bien. Desde un punto de vista educativo, político y ético, podríamos decir que en ella hay éxito, pero sus puntuaciones en pruebas estandarizadas probablemente no serían tan altas como en un colegio privado elitista basado en la instrucción más férrea (aquí es necesario pensar en la trayectoria educativa que está siguiendo el Reino Unido gracias a las políticas basadas en la evidencia). ¿Qué modelo es más educativo de los dos?
Es imprescindible que entendamos que las pruebas estandarizadas son herramientas de una visión política, concretamente de política neoliberal. La pátina de objetividad y neutralidad que se les otorga oculta las estructuras de poder que determinan qué visión educativa tienen, qué conocimientos consideran valiosos, qué competencias priorizan, qué visiones del aprendizaje legitiman y a qué alumnado y escuelas -privadas o públicas- benefician sistemáticamente.
Así, la importancia que se da a estas pruebas genera una peligrosa distorsión en las políticas educativas: la educación se concibe como un mercado y los resultados de estas pruebas se convierten en el principal criterio de éxito. Las escuelas y los sistemas educativos terminan moldeando su enseñanza para ajustarse a ellos (teaching to the test). Lo que se mide determina la realidad, y no al revés.
En palabras de Gimeno (2008, p. 24):
“La pretensión encomiable de evaluar con más rigor convierte a lo que puede ser evaluado en referencia y guía para decidir lo que puede y debe ser aprendido, para estructurar el currículum y, en definitiva, orientar la educación. Mejorar la evaluación puede mejorar la educación, pero, en nuestro caso, los esquemas que rigen la evolución y comparación de sistemas escolares no pueden ser la referencia principal de la innovación ni de los planteamientos educativos.”
Por lo tanto, más que preguntarnos cómo mejorar los resultados en las pruebas estandarizadas, deberíamos cuestionarnos por qué seguimos participando en ellas. La idea de que no es posible una realidad educativa sin pruebas estandarizadas nos la han inoculado gracias al continuo bombardeo de los medios de comunicación y los intereses de las visiones educativas neoliberales. Hasta tal punto está grabado en nuestro sentido común que, cuando algunas voces parecen haberse caído -por fin- del guindo con PISA, la propuesta que surge inmediatamente es hacer un PISA español. Otra idea para añadir a la ya larga y triste lista de las ideas peregrinas en educación (con la que algunos se están frotando las manos), pero a la que nadie, insisto, está dispuesto a renunciar ya.
Conclusión
Ya hemos visto cómo estas pruebas representan la concreción perfecta para neoliberalizar y mercantilizar -aún más- los sistemas educativos, con todo lo que ello implica.
Sabemos también la cantidad de efectos perversos que generan en las prácticas educativas y cómo estas pruebas se han convertido en la herramienta estrella en la batalla cultural educativa (solo hay que ver el tratamiento que les da, por ejemplo, El Mundo). Gracias a este tratamiento mediático, sabemos que la mayor parte de los datos que ofrecen estas pruebas tienen que ver con correlaciones, no con causalidad. La diferencia entre ambas, tal como explicaba en otro texto, es clave:
El ejemplo más claro de esto es el asunto tan repetido en investigación de que «correlación no es causalidad», y que, para que me entienda cualquier lector o lectora, significa que una cosa es que haya una relación y otra que una de ellas sea la «causa» de la otra. Así, mi profesor de metodología lo explicaba diciendo: si yo pego un zapatazo en el suelo y alguien muere en China, eso es correlación, pero no causalidad. O el ejemplo clásico de los paraguas y la lluvia: cuando llueve, la gente lleva más paraguas, pero que la gente lleve más paraguas no causa la lluvia. (Fernández Navas, 2024)
Por lo tanto, su capacidad para orientar la toma de decisiones a partir de los datos que nos ofrece es más que limitada.
Y esta, para mí, es la clave: si realmente estuviéramos preocupados por realizar evaluaciones que nos ofrecieran información relevante para comprender los entresijos de nuestros sistemas educativos y nos permitieran establecer políticas que, de verdad, mejoraran la realidad de las aulas, el despliegue de investigación que debería realizarse sería enorme, compaginando metodologías diferentes, en planos diferentes, con información mucho más diversa, … su coste sería elevadísimo.
Las pruebas estandarizadas, pese al enorme dineral que cuestan, representan una evaluación de saldo, tremendamente sesgada, y su existencia solo se justifica desde una visión de lo que es educar que resulta, como hemos visto, tremendamente peligrosa.
Si esto ya se decía cuando aparecieron, allá por el 2000, solo existe una explicación para que se hayan convertido en irrenunciables: su enorme versatilidad para la batalla cultural en educación.
Como siempre dice Sola (1999), cuando habla de la función política de las reformas educativas, cuando no podemos o no queremos hacer cambios en otras esferas de la vida -economía, trabajo…-, lo más fácil es hacer reformas educativas que solo cambian lenguajes y rara vez prácticas.
Hursh (2013) nos cuenta cómo el informe A Nation at Risk, ya en 1983, publicado en EE.UU. bajo el gobierno de Reagan, culpaba a la educación de la crisis económica, ignorando otros factores como la desindustrialización o las políticas económicas. Mientras lo leía, no podía dejar de acordarme del Gobierno de Rajoy durante la crisis de 2008 y de cómo se impulsó la LOMCE como solución a todos los males del país, con el argumento de que era necesario alcanzar la excelencia educativa para mejorar los problemas económicos y laborales.
Las pruebas estandarizadas se han convertido en la herramienta perfecta para legitimar estas decisiones. Y este es el plano en el que ofrecen cambios. Nunca en el plano del cambio educativo urgente a pie de aula.
Así que no, el zumo no compensa, ni de lejos, exprimir la fruta.
Referencias
Carabaña, J. (2007). Avisos para no quedar en evidencia comentando PISA. El País. Recuperado de: https://elpais.com/diario/2007/12/03/educacion/1196636405_850215.html
Cilliers, P. (2010). Acknowledging complexity. En D. Osberg & G. Biesta (Eds.), Complexity theory and the politics of education (pp. vii-viii). Brill. https://doi.org/10.1163/9789460912405
Fernández Navas, M., & Postigo-Fuentes, A. Y. (2023). Educación basada en la evidencia. Peligros científicos y ventajas políticas. Revista De Educación, 400, 43–68. https://doi.org/10.4438/1988-592X-RE-2023-400-570
Fernández Navas, M. (2024). Más allá del pánico moral: Lo que oculta el tema recurrente y trillado de las pantallas. Diario Red. Recuperado de: https://www.diario.red/opinion/manuel-fernandez-navas/mas-alla-del-panico-moral-lo-que-oculta-el-tema-recurrente-y-trillado-de-las-pantallas/20240224060000021954.html
Gimeno Sacristán, J. (2011). Lo que descubren y encubren los informes: PISA como ejemplo. Cuadernos de Pedagogía, 413, 75-79.
Gimeno Sacristán, J. (2008). Educar por competencias ¿Qué hay de nuevo? Morata.
Head, B. W. (2008). Three lenses of evidence- based policy. Australian Journal of Public Administration, 67 (1), 1 – 11 .
Hursh, D. (2013). Raising the stakes: high-stakes testing and the attack on public education in New York. Journal of Education Policy, 28(5), 574–588. https://doi.org/10.1080/02680939.2012.758829
INEE (2024). PISA. Recuperado de: https://www.educacionfpydeportes.gob.es/inee/evaluaciones-internacionales/pisa.html
Lingard, B. (2014). Politics, Policies and Pedagogies in Education. Routledge.
Neave, G. ( 1998 ). The evaluative state reconsidered. European Journal of Education, 33 (3), 265 – 284.
Power, M. (1997). The audit society: Rituals of verification. Oxford University Press.
Rives, M., y Alf. (Presentadores). (2023). La torre del informe PISA, charla con Carlos Magro y Manuel Fernández Navas [Episodio de pódcast]. En El recurso. Recuperado de: https://elrecurso.podbean.com/e/la-torre-del-informe-pisa-charla-con-carlos-magro-y-manuel-fernandez-navas/
Sola, M. (1999). El análisis de las creencias del profesorado como requisito de desarrollo profesional. En A. Pérez, J. Barquín y F. Angulo (Eds.), Desarrollo profesional del docente. Política, investigación y práctica (pp. 661-683). Akal
Wiseman, A. (2010). The uses of evidence for educational policy- making: Global contexts and international trends. En A. Luke, J. Green, y G. Kelly (Eds.), What counts as evidence and equity? Review of research in education. AERA.
Zafra, I. (2025). El declive del rendimiento de los estudiantes en España: qué frena su mejora según el creador de PISA y otros expertos. El País. https://elpais.com/educacion/2025-03-16/el-declive-del-rendimiento-de-los-estudiantes-en-espana-que-frena-su-mejora-segun-el-creador-de-pisa-y-otros-expertos.html