(Por Alfredo Dillon. Clarín, Ciudad Autónoma de Buenos Aires, jueves 2 de abril de 2015)-Cuando el ministro Axel Kicillof dijo no saber el número de pobres en la Argentina se desató una gran polémica. La inverosimilitud de las cifras de inflación del INDEC también ha recibido un cuestionamiento casi unánime. Pero las estadísticas de educación no suelen despertar el mismo interés: pocos se indignan si los resultados de una evaluación se publican con demora o si las cifras de repitencia están desactualizadas hace cuatro años. Según algunos especialistas, tal vez sea hora de empezar a preocuparse.
Es la opinión, entre otros, de Alejandro Ganimian, especialista en estadística educativa y estudiante de doctorado en Harvard. Para él, los datos de la Dirección Nacional de Información y Evaluación de la Calidad Educativa (DiNIECE), el organismo responsable de las estadísticas educativas nacionales, “son cada vez menos transparentes”. Sobre el Operativo Nacional de Evaluación (ONE), la prueba que mide el desempeño de los alumnos, Ganimian aporta un ejemplo: “En el pasado se registraron cambios en el tiempo poco creíbles. En ciencia de 3° grado, el porcentaje de alumnos en el nivel bajo se duplicó del 2005 al 2007 y luego casi se redujo a la mitad del 2007 al 2010. En otras materias se dan mejoras igual de dudosas”.
Aunque el ONE se toma desde 1993, Ganimian critica que en 2005 se hicieron cambios en el diseño de la prueba que impiden comparar si la calidad educativa mejoró o empeoró en los últimos 20 años. En otras palabras, los resultados del ONE 2013 pueden compararse con los del 2010, 2007 y 2005, pero no con los anteriores: “Lo lamentable no es que la DiNIECE haya cambiado los aspectos técnicos, sino que lo haya hecho sin reanalizar los datos del 2005 en adelante para no perder la serie de tiempo”.
Desde el Gobierno señalan que el cambio se hizo para que los resultados permitan una lectura “más amplia” sobre el desempeño de los alumnos. “El diseño actual del ONE ofrece mayor profundidad pedagógica; la información antes era más recortada. El cambio de método no impide comparar tendencias con respecto a las pruebas anteriores”, dice Marisa Díaz, subsecretaria de Planeamiento Educativo.
Otra crítica tiene que ver con la disminución de la frecuencia de las evaluaciones: en 1993 los ONE eran anuales, en 2003 se volvieron bianuales y en 2010 se decidió que se tomen cada 3 años. En países como Brasil, Chile y Colombia hay pruebas todos los años. Desde el oficialismo señalan que “la periodicidad es materia opinable” y que “medir todos los años no implica lograr cambios en los resultados”. Ejemplifican con las pruebas PISA (que se toman cada 3 años) y el TERCE de Unesco, que se tomó 7 años después de la evaluación latinoamericana anterior, el SERCE.
Algunos expertos apuntan a los tiempos y formas de publicación de los datos. Un ejemplo son los resultados del ONE 2013, que debían difundirse en 2014, pero que el Ministerio aún no publicó, sí se revelaron algunos datos la semana pasada. Manuel Álvarez Tronge, presidente de Educar 2050, evalúa: “Al mes de marzo de 2015 la última información nacional que tenemos es de 2010, es decir 5 años atrás, con lo cual se está incumpliendo normas legales (la Resolución 116/10) que exigen que los informes deben publicarse el año posterior a su aplicación”.
Desde la óptica oficial, Díaz argumenta que sí se cumplió con los plazos legales: “En diciembre de 2014 se entregaron los resultados a los ministros provinciales y a las escuelas. Nuestra prioridad es que la información educativa se difunda a los protagonistas de la educación; que los datos no estén en la Web no quiere decir que no existan”.
El modo de presentación de los resultados también genera objeciones: por ejemplo, ya no se presentan los datos por provincias sino por regiones para “no estigmatizar” a las que rinden peor. Alieto Guadagni, miembro de la Academia Nacional de Educación, lamenta que desde 2010 no se distinguen los resultados de las escuelas públicas y las privadas, lo que oculta el impacto de las desigualdades socioeconómicas: “La desigualdad educativa es un hecho preocupante y notorio en nuestro país, y está muy influenciada por las grandes desigualdades socioeconómicas entre las familias cuyos hijos asisten a escuelas privadas y aquellas cuyos hijos van a escuelas estatales”.
Para Guadagni, “esta forma de presentar datos que le pertenecen a toda la sociedad no ayuda a mejorar la educación. La gripe no se cura rompiendo el termómetro. Una información deliberadamente incompleta sobre nuestra realidad educativa no ayuda a mejorar nuestra escuela”.
Ganimian también señala que no se aprovecha la participación –muy costosa– en las pruebas internacionales como PISA o TERCE para utilizar los resultados en el diseño de políticas que permitan mejorar los aprendizajes, porque no se elaboran informes nacionales a partir de estas pruebas. Desde el Ministerio responden que “los países no están obligados a hacer informes nacionales” y que en abril la Argentina será sede de un debate regional sobre la elaboración de informes nacionales sobre la prueba TERCE.
Mariano Narodowski, profesor de Di Tella y ex ministro de Educación de la Ciudad, también denuncia que falta información actualizada, entre otras cosas, sobre salarios docentes, gasto educativo por provincia, subsidios a la educación privada, matrícula universitaria, jardín de infantes y nivel socioeconómico de los alumnos.
“A partir de 2009 la calidad y cantidad de la información comienza a deteriorarse. Se suspenden algunas series que se venían presentando, se omiten años completos y se brinda información cada vez más agregada que limita el análisis de situaciones específicas. Las omisiones responden a datos que las autoridades efectivamente poseen, que no son confidenciales y cuya omisión responde a una decisión política”, plantea Narodowski. Y sigue: “No llama la atención que la dirigencia política, incluso opositora, no denuncie estas situaciones, dado que el interés que vienen demostrando por la educación es muy modesto”.
La consecuencia: estas lagunas llevan a que las políticas se deban elaborar “a ciegas”. “Estos indicadores son la base para el diseño de políticas educativas. El próximo gobierno va a estar casi a ciegas, o deberá recurrir a fuentes menos confiables”, afirma el ex ministro Juan José Llach. “Corremos el riesgo de que la DiNIECE sea como un INDEC. No se puede hacer política educativa si no se hace seguimiento sistemático, año tras año”, agrega. Además, la falta de transparencia implica que los datos estén al servicio de los políticos y no de los ciudadanos.
Cecilia Veleda, investigadora de CIPPEC, señala que “hay un consenso de que la evaluación y el fortalecimiento de la información educativa deben ser prioridades del próximo gobierno”. Para Veleda, “es necesario generar una cultura de la evaluación en todo el sistema educativo” y “la estadística educativa debería estar en manos de un ente autonómo, para garantizar la calidad de los datos”.
Cinco decisiones oficiales cuestionadas
1. En 2005 se cambió el diseño del Operativo Nacional de Evaluación (ONE), lo que dificulta comparar en el tiempo para medir si la calidad educativa mejoró o no en los últimos 20 años.
2. Ya no se distinguen los resultados de las escuelas públicas y las privadas, ni se presentan los desempeños por provincias.
3. Desde 2010 disminuyó la frecuencia de las evaluaciones nacionales: en 1993 eran anuales y ahora se toman cada 3 años.
4. Los datos de las evaluaciones se publican con demora y falta información actualizada, entre otras cosas, sobre salarios docentes, gasto educativo por provincia, subsidios a la educación privada, matrícula universitaria, jardín de infantes y nivel socioeconómico de los alumnos.
5. No se aprovecha la participación en las pruebas internacionales como PISA o TERCE para utilizar los resultados en el diseño de políticas que permitan mejorar los aprendizajes.
No hay comentarios:
Publicar un comentario