¿Qué diríamos si estamos en el quirófano realizando unas operaciones exitosas del corazón y llaman a la puerta unos individuos que nunca han mejorado el corazón de nadie y nos proponen evaluar lo que estamos haciendo, diciéndonos lo que hacemos mal y cómo tenemos que corregirlo? Eso es lo que hacen la mayoría de “evaluadores” que vienen a nuestras escuelas a aplicar “escalas validadas”. No es educativo, ni ético, ni científico poner en sus manos a menores de edad sobre quienes tenemos responsabilidad, ni tampoco avalar a esos impostores ante las familias para que den consentimiento.

No nos dejemos engañar porque se autodenominen evaluadores o denominen a su cuestionario escala validada o llamen a lo que hacen evaluación. Es significativo que profesionales que critican evaluaciones institucionales como las pruebas de competencias o PISA, que son criticables pero transparentes, crean que esas “escalas validadas” y “evaluadores” que no conocemos bien tengan una especie de magia científica. En una reciente publicación, en una revista que se financia con recursos públicos, los “evaluadores” ocultaban todo lo que refutaba su afirmación. Por ejemplo, midiendo (a su manera) la evolución en solo un curso, afirmaron que un proyecto en un colegio no mostraba mejoras en la prosocialidad, sin tener en cuenta que dicho proyecto había estado implementándose en el centro durante varios años y que, incluso según su escala (muy deficientemente aplicada), ya había logrado unos resultados muy elevados de prosocialidad.

Con “escalas validadas” se hacen preguntas que se comportan como lentes opacas en los centros que logran las mayores mejoras educativas. Por ejemplo: “en un trabajo práctico, ¿incluyo a quienes no están en ningún grupo?” Esta pregunta puede o no ser importante cuando en esa aula quedan niños o niñas fuera del grupo, pero no en aulas realmente inclusivas donde eso no ocurre. En realidad, las cuestiones que incluyen en sus “escalas validadas” quienes las hacen (casi siempre con un nivel científico bajísimo o nulo) reflejan sus propias ocurrencias y no el conocimiento científico sobre el tema.

Las respuestas negativas a esas preguntas se interpretan frecuentemente como falta de prosocialidad, cuando en realidad significan que no hay nadie fuera del grupo. La ignorancia de estadística que así demuestran los “evaluadores” “expertos” en estadística llega todavía mucho más lejos cuando los resultados que sus mediciones obtienen en un solo centro los infieren a miles de centros que siguen ese mismo proyecto, sin darse cuenta de que así el error muestral de su estudio es muy superior al permitido. Y todavía es peor el atrevimiento cuando dictaminan cómo se tiene que mejorar ese proyecto sin que ellos hayan logrado nunca ninguna mejora (no son pocos los casos en que estas personas se aventuran a realizar propuestas “innovadoras” que aseguran que sí pueden tener resultados, desde que la transferencia se valora en los procesos académicos de acreditación).

Puesto que luego presentan sus arbitrarias ocurrencias sobre nuestra escuela como generalizables a otras que siguen los mismos proyectos, no solo perjudican a nuestro alumnado sino al alumnado de todas esas escuelas. Para que alguien que se presenta como “evaluador” realmente sea evaluador, tiene que cumplir 4 requisitos y, si no cumple los cuatro, no es ético ni científico poner en sus manos un alumnado menor de edad:

  1. Capacidad: deben decirnos en qué escuela o escuelas han mejorado resultados y darnos evidencias que nos permitan comprobarlo. Si no saben darnos ninguna, lo mejor para nuestro alumnado es que respondamos que primero aprendan a mejorar la educación y solo luego podrán dedicarse a evaluar lo que estamos haciendo en nuestra escuela. La verdad es que casi ninguno de los “evaluadores” tiene ni capacidad ni motivación para mejorar la educación y esa es una de las razones que les llevan a atribuirse la función de evaluar a quienes sí lo están haciendo.
  1. Impacto social: un clarísimo criterio científico actual es el impacto social. La “escala validada” que traen es simplemente pseudociencia si no nos dicen qué escuelas han mejorado resultados pasando esa escala ni nos dan evidencias que nos permitan comprobarlo.
  1. Cocreación: es otro criterio mínimo de la investigación científica actual. No es científica la escala si no se ha elaborado en cocreación, en diálogo entre todas las voces. No es científico el paso de su escala si no se acuerdan todos los detalles entre todas las voces, como el profesorado que está llevando adelante el proyecto y también quienes lo crearon.
  1. Rigurosidad científica: es lamentable cómo lo hace la mayoría. Frecuentemente tienen errores tan elementales como considerar “validada” estadísticamente una evaluación con una muestra que da un error muy superior a un 5%. Sus equivocaciones son similares a creer que el corazón lo tenemos en la derecha y, al no saber o no querer encontrarlo, afirmar que ese paciente no tiene corazón.

Por Ramón Flecha

Catedrático Emérito de la Universidad de Barcelona. Investigador número 1 del ranking científico internacional Google Scholar en las categorías de "gender violence" y "social impact" (violencia de género e impacto social, respectivamente).