Evaluaciones externas del desempeño estudiantil: Usos y abusos; funciones y disfunciones - Ruta Maestra
Edición 2Experiencias nacionales

Evaluaciones externas del desempeño estudiantil: Usos y abusos; funciones y disfunciones

del desempeño estudiantil: Usos y abusos; funciones y disfunciones

Escrito por Juan Manuel Moreno Olmedilla, especialista de educación del Banco Mundial. El artículo se centra en que constantemente se escucha que la calidad de la enseñanza es cada vez peor y que los estudiantes cada vez aprenden menos. En algunos casos, somos nosotros mismos quienes pensamos que la educación de antaño era sin duda mejor y que los alumnos tenían mejor actitud y aprendían más.

Con el paso del tiempo ¿la educación está mejorando o empeorando? Cada vez son más los países que implementan sistemas de evaluación que permiten medir la calidad de su educación y compararse internacionalmente.

Quienes trabajamos en educación estamos acostumbrados a escuchar con frecuencia que la calidad de la enseñanza es cada vez peor y que los estudiantes cada vez aprenden menos. En algunos casos, somos nosotros mismos quienes pensamos que la educación de antaño era sin duda mejor y que los alumnos tenían mejor actitud y aprendían más. Al mismo tiempo, paradójicamente, la abrumadora mayoría de los padres y madres de alumnos de cualquier país manifiestan estar muy satisfechos con las escuelas y los maestros de sus hijos. Y hasta hace no mucho tiempo, todo responsable ministerial de educación de cualquier país que uno visitara empezaba diciendo a quien quisiera escucharle que “aquí tenemos la mejor educación del mundo”. ¿Quién tiene razón y cuál es entonces la verdad? ¿Es cierto que la calidad decae y que la educación cada vez funciona peor? ¿O más bien lo que ocurre es justamente lo contrario, que la educación no deja de mejorar y con ello las expectativas de los ciudadanos son cada vez más exigentes? ¿dónde puede encontrarse evidencia sólida para responder a estas preguntas con rigor y no basándonos en percepciones subjetivas o en anécdotas particulares y aisladas? ¿Cómo saber si los alumnos de una escuela, de una región o de todo un país aprenden más o menos, mejor o peor, si sus escuelas están verdaderamente a la altura de las expectativas de su comunidad y de los recursos que invierten los contribuyentes?

La respuesta a estas preguntas pasa necesariamente por las evaluaciones rigurosas del rendimiento estudiantil, “externas” a la escuela. Si bien es cierto que tienen sus limitaciones, y de ellas hablaremos más adelante, disponer de sistemas de evaluación que permitan monitorizar el rendimiento estudiantil a lo largo del tiempo, hacer comparaciones entre regiones, distritos o incluso entre países, e identificar áreas en las que es posible mejorar, resulta de una extraordinaria utilidad para todos los actores de la comunidad educativa. No es extraño por tanto que cada vez sean más lo países que han puesto en marcha un sistema nacional de evaluación (distinto a los exámenes públicos con los que se regula la graduación en secundaria y el acceso a la universidad) o que estén decidiendo participar en estudios internacionales de rendimiento tales como piSA, timSS o piRLS.

Cambio de juego

Desde que la OCdE comenzó a publicar en el año 2000/1 los informes piSA evaluando las competencias de los estudiantes en Lectura, matemáticas y Ciencia, el debate público sobre educación ha cambiado de un modo notable tanto en el ámbito nacional como en el internacional. de entrada, ya no es tan fácil decir aquello de que “tenemos la mejor educación del mundo” y, de hecho, son muchos los países con sistemas educativos de gran tradición que se llevaron una sorpresa desagradable con la publicación de aquellos primeros resultados. Cada vez más, la opinión pública sobre la calidad de la educación se configura a partir de los resultados del sistema educativo –la calidad del aprendizaje de los alumnos– y no tanto o no solo a partir de los insumos al sistema. por otra parte, quienes insisten en la idea de que la calidad de la educación decae, se ven forzados a matizar sus planteamientos a la vista de la evidencia no solo de los resultados de los alumnos sino también de otras variables relacionadas, empezando por el porcentaje de los que hoy están escolarizados a esa edad (15 anos en el caso de piSA) en comparación con los que lo estaban en los supuestamente “buenos tiempos” pasados.

En todo caso, además de ese progresivo cambio de mentalidad pública sobre la educación, el efecto más visible, el cambio de juego más evidente que se ha seguido de las pruebas piSA y de los demás estudios internacionales es el puramente mediático: Las noticias sobre qué saben y qué aprenden nuestros estudiantes han llegado por fin a las primeras páginas de los periódicos y a los sumarios de los noticieros televisivos. Esto nunca había pasado antes. Que la educación suba enteros en la agenda pública es sin duda una gran cosa, literalmente una buena noticia. Que exista transparencia y publicidad sobre lo que consiguen nuestras escuelas en términos de aprendizaje estudiantil ayuda a crear una opinión pública mejor informada y más exigente. pero claro, salir en portada, estar en el centro del debate y por tanto en el ojo del huracán, también entraña sus riesgos.

Casi doce anos después de la publicación del primer informe piSA y solo unas semanas después de que se hicieran públicos los resultados de timSS y piRLS 2011, es posible hacer algunas reflexiones sobre los usos y funciones que dichos estudios parecen cumplir en el debate nacional e internacional sobre la educación. En mi opinión, son al menos cuatro las funciones en cuestión, dos de ellas irrelevantes o incluso perniciosas, y otras dos potencialmente muy valiosas. Empecemos por las dos valiosas y dejemos para el final las dos “disfunciones”:

Dos funciones valiosas

La función de “llamada de despertar”.

Disponer de datos confiables y comparables sobre qué saben y qué aprenden los estudiantes en relación con competencias básicas en Lectura, matemáticas y Ciencias ha caído en muchos países no sólo como un jarro de agua fría – Alemania en el 2000 sería el mejor ejemplo – sino como una ruidosa “llamada despertador” que ha sacado a los establishments educativos tanto de su complacencia como de sus discusiones bizantinas y puramente ideológicas. Así, por ejemplo, descubrir en un país determinado que los estudiantes tienen lagunas importantes en su comprensión lectora, o que hay diferencias injustificables de rendimiento entre chicos y chicas, o que el tipo de centro educativo tiene una influencia sobre el rendimiento mayor incluso que la procedencia socioeconómica de los alumnos, supone abrir los ojos a la realidad de lo que está ocurriendo en el sistema educativo y, con ello, darnos la oportunidad de hacer algo al respecto. Esta llamada de atención puede por tanto resultar tremendamente útil si los responsables educativos saben leer y analizar bien los resultados y, en consecuencia, tomar las decisiones adecuadas apoyándose en esa evidencia; sobre todo, si tienen ideas y recursos para implicar y movilizar al profesorado y a los directores escolares para que puedan usar los datos para mejorar.

Que exista transparencia y publicidad sobre lo que consiguen nuestras escuelas en términos de aprendizaje estudiantil ayuda a crear una opinión pública mejor informada y más exigente

Este es quizás el gran reto y la agenda pendiente de estas políticas de evaluación externa de la educación: cómo construir la capacidad de los distintos actores educativos, empezando por el profesorado y los equipos directivos de los centros, para usar la evidencia de los datos de cara a una mejora sistemática de lo que ocurre en los centros y en las aulas.

La función “qué es lo que marca la diferencia”. Los resultados de piSA, timSS y piRLS han permitido obtener evidencia contrastable sobre cuáles son los factores que de verdad marcan la diferencia en el aprendizaje de nuestros jóvenes. por ejemplo, han mostrado que la calidad (la excelencia) no sólo no está reñida con la equidad sino que ambas van de la mano; que la calidad de un sistema educativo no puede ir más allá de la calidad de su profesorado; o que la selección y especialización tempranas de los estudiantes de secundaria no producen buenos resultados para el conjunto de los estudiantes y del sistema educativo. Hasta que llegaron piSA o timSS, todas estas cuestiones eran objeto de un tratamiento exclusivamente ideológico en el debate público (en los pocos países donde podía decirse que tal debate de verdad existía). Ahora lo siguen siendo, por supuesto, pero para quien quiera usarla, también hay evidencia empírica al respecto y esa evidencia, como ya se ha sugerido, está cambiando el juego en ese debate. Como suele decir Andreas Schleicher, director de la división de indicadores educativos de la OCdE y también conocido como mr. piSA, “sin datos, usted es sólo una persona más con una opinión más”.

Esta llamada de atención puede por tanto resultar tremendamente útil si los responsables educativos saben leer y analizar bien los resultados

El enorme potencial de esta evidencia empírica sobre las decisiones acerca de qué es lo que verdaderamente importa en educación ha llevado a muchos países a crear los citados sistemas nacionales de evaluación, en muchos casos con la idea de completar, confirmar, matizar o incluso desmentir los resultados de piSA o timSS. Con ello, la capacidad de análisis y de investigación educativa se ha ido creando y consolidando en países donde nunca había existido antes. El resultado es que el debate público y político sobre educación puede ganar en riqueza y en calidad, centrándose más en la evidencia de los resultados y dependiendo menos de posiciones puramente ideológicas. Y todo eso, claramente, son muy buenas noticias.

Y dos disfunciones de alto riesgo

La función “qué ocurre ahí fuera”, a la que también podríamos denominar “otros lo hacen mejor”. Los resultados obtenidos en piSA, timSS o piRLS son comparables entre países y se presentan a la opinión pública en forma de ránking. En cualquier lugar del mundo, lo primero que se mira es el lugar que ocupan los países vecinos y todos aquellos con los que se compite más directamente. En muchos casos y ocasiones, se viene a confirmar lo que nos temíamos: Otros lo hacen mejor, y por si esto fuera poco, les cuesta menos financiarlo. Con la excepción de Finlandia –la habitual medalla de oro, junto con Corea y, más recientemente, también Singapur y Shanghái–, en todos los países es posible sacar una conclusión parecida cada vez que se publica uno de estos informes. Es lo malo de los ránkings, que sólo resultan divertidos para quienes ocupan los primeros lugares. Y, desde luego, son un instrumento de lo más útil para hacer demagogia dada la facilidad con que se pueden manipular tanto desde los intereses políticos partidistas como en general por la tendencia sensacionalista de muchos medios de comunicación: La clave está en asumir, sea por interés manipulador o por pura pereza intelectual, que sólo la posición que se ocupa en el ránking es lo que importa obviándose por completo las diferencias concretas en puntuación entre unos países y otros, que en muchos casos son tan pequeñas como para incluso resultar estadísticamente no significativas. titulares como “volvemos a estar a la cola de la OCdE en Ciencias y matemáticas” o “En Lectura nuestro país sólo esta por encima de…”, son ejemplos de ese abuso demagógico y tremendamente eficaz política y mediáticamente que se hace a partir de la simpleza de los ránkings. tristemente, son muchos los países donde no es nada fácil encontrar a nadie interesado en hacer un uso más completo, complejo y sofisticado de los datos que se obtienen con estas evaluaciones internacionales.

La función “quién tiene la culpa” de los malos resultados, es decir, la de abusar de los datos para señalar con el dedo a quienes supuestamente son causa del desastre. Es habitual en muchos países ver cómo los informes piSA se convierten en arma arrojadiza en las campañas electorales y desde luego en el cotidiano debate partidista. Esta es la utilización política de las evaluaciones externas y sin duda la de menor utilidad para los profesionales del sector de la educación y no digamos para los estudiantes. Leer los periódicos italianos, mexicanos, estadounidenses, búlgaros o españoles (por citar solo algunos casos nacionales muy evidentes) al día siguiente de la presentación de los resultados de piSA o de timSS puede dar una buena idea de hasta dónde puede llegar ese juego del reparto de culpas. Se habla enseguida de profundas crisis educativas y hasta de decadencia nacional y se culpa a los gobiernos en el poder, como si la comprensión lectora o las competencias en matemáticas de los estudiantes de 15 años dependieran de las políticas puestas en marcha en la legislatura en curso. Algunos invocan los efectos de la inmigración o de las políticas lingüísticas sobre los resultados. En otros casos, no es extraño ver a padres de familia que culpan a los profesores, a profesores que culpan a los padres, y a muchos analistas que se aplican con denuedo a hacer elogio de la Educación y desprecio de los educadores.

Conclusión

En definitiva, como se ha dicho tantas veces, disponer de evidencia no gana batallas sobre políticas públicas, pero la falta de evidencia a veces las pierde. En el caso de la educación, los procesos necesarios para aprovechar esa evidencia ahora disponible son lentos e inciertos, y los riesgos de abuso muy considerables. pero aun así, los estudios rigurosos de evaluación externa del desempeño estudiantil son la principal vía que tenemos para mejorar sostenida, estratégica y sistemáticamente la educación, sobre todo desde la perspectiva de los sectores sociales más vulnerables y desfavorecidos para quienes la educación pública es a su vez la única esperanza de futuro.

Artículos relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Podría interesarte
Close
Back to top button