24 feb 2011

Nota de ADIMAD sobre la publicación de los resultados de las pruebas CDI

La Junta Directiva de la Asociación de Directores de Instituto de la Comunidad de Madrid quiere mostrar su perplejidad e indignación por la publicación, en forma de ranking, con el singular título de “Equidad en los Institutos de Educación Secundaria de la Comunidad de Madrid”, de los resultados de las pruebas CDI realizadas por el alumnado de 3º de Secundaria los cursos pasados.




Dejando claro, en primer lugar, que no nos oponemos a la realización de pruebas externas, nuestro frontal rechazo a la publicación de esta lista viene motivado por:



1º.- La cuestionable capacidad estadística de la Consejería de Educación de la Comunidad de Madrid, que es capaz de sacar conclusiones sobre equidad sin datos de partida, ya que las pruebas CDI no toman ningún parámetro de contexto de los alumnos, ni de las familias, ni de los centros. Sin datos no es posible sacar conclusiones y menos hacer una clasificación sin considerar el “valor añadido” que aportan los Centros.



Desde un punto de vista técnico no se puede decir, bajo ningún concepto, que se esté midiendo la equidad. Ni dentro de los centros (se dan medias pero ninguna medida de dispersión como desviación típica, diferencia entre percentiles, etc…; ni tampoco entre los centros (habría que ponderar teniendo en cuenta la población examinada en cada centro, estudiar la varianza atribuible a las diferencias socioeconómicas, etc …).





2º.- Resulta sonrojante leer que “se ha utilizado la metodología de PISA”.

Mas acertado hubiese sido decir que se ha utilizado una escala similar a la de PISA. Basta citar sólo algunas diferencias:





La finalidad de la prueba es distinta: no es lo mismo medir competencias, capacidad para utilizar lo aprendido en la resolución de situaciones de la vida, que la adquisición de conocimientos curriculares. Por eso las pruebas son diferentes. En PISA, las preguntas no son individuales, inconexas, sino que aparecen agrupadas en unidades. Cada unidad consiste en la descripción de una situación problemática, lo que llaman estímulo, y unas cuantas preguntas relacionadas con este estímulo, nada que ver con la estructura de las pruebas CDI. Por no hablar de la falta de cuidado al elaborar y realizar la prueba que pudimos observar en las de 2010.

La prueba CDI es censal, mientras PISA es muestral

Las pruebas PISA dan una gran importancia al contexto socioeconómico del alumnado.
La Pruebas CDI no lo recogen.

La pruebas PISA no dan datos sobre centros concretos, estas si.

Además, no se indica cuál ha sido el procedimiento utilizado para realizar el trasvase de las calificaciones, que a los centros se nos entregan en una escala de 0 a 10, a la clasificación que se presenta.
Así, si fuese como en PISA, que asigna el valor 500 a la media, habría 237 centros por encima de la media y 75 por debajo.



Llama la atención que se pretenda medir la tendencia de cada centro dando la puntuación de los dos últimos años. PISA mide tendencias pero para ello se asegura de que las pruebas y por tanto las puntuaciones sean comparables. Para conseguirlo hay un buen número de unidades que se mantienen en las pruebas a lo largo del tiempo (unidades de anclaje, que se guardan celosamente evitando su difusión) que garantizan la correcta comparación de los resultados



3º.- Resulta llamativo que se hable de equidad, justo cuando los resultados indican todo lo contrario:



En PISA 2009 el valor máximo de los tres aspectos estudiados es 600. En esta clasificación alcanza 693

En PISA 2009 el valor mínimo de los tres aspectos estudiados es 314. En esta clasificación alcanza 414.

En PISA 2009 el máximo rango de puntuaciones es de 269 (en la prueba de Matemáticas). En esta clasificación alcanza los 279, que es 10 puntos superior a la diferencia de PISA que, recordemos, está comparando países.



Las conclusiones hechas por la Consejería poco tienen que ver con la realidad. Se transmite una satisfacción y autocomplacencia con el estado de la educación madrileña que no compartimos.



Además del poco rigor señalado, son muchas las posibles consecuencias perversas de este tipo de clasificaciones, algunas señaladas en multitud de informes internacionales:



a) Tanto el profesorado como los centros se sienten engañados, ya que cuando se iniciaron estas pruebas, se nos aseguró que no iban a ser utilizadas para la elaboración de ranking.



b) Pueden incentivar el fraude de los centros, que pueden verse animados a dar datos falseados.



c) Contribuyen a crear un ambiente de rechazo hostil a los alumn@s con dificultades de aprendizaje, lo que supone una forma de segregación solapada.



d) Dificultan la cooperación entre centros escolares de una zona y el trabajo en equipo de profesores y otros agentes sociales, en una insolidaria y mal entendida búsqueda de reconocimientos personales. La educación es básicamente una acción comunitaria e integral y la competencia no es la mejor de las estrategias para el éxito del sistema.
Necesitamos “centros competentes”, no “competencia entre los centros”. De esta forma garantizaremos el derecho de los ciudadan@s a elegir uno u otro centro en condiciones de igualdad



e) Pueden inducir a que la actividad de los Institutos se centre especialmente en la preparación de pruebas, en detrimento de otros aspectos con fuerte sentido educativo que no se contemplan en los estándares de resultados.



f) Atribuyen implícitamente a los centros toda la responsabilidad de los resultados de su alumnado, manteniéndose al margen la Administración .
 Es notorio que los procesos de admisión de alumnos, la concesión o no de Programas, las dotaciones de profesorado, etc..., competencias exclusivas de ésta, influyen en gran medida en dichos resultados.



Es obvio que todos los centros quieren mejorar los resultados de su alumnado, y para ello se están llevando a cabo Planes de Mejora, que en múltiples ocasiones no es posible implementar con los recursos que se facilitan. Cabría entonces preguntar
¿cuál es el compromiso que adquiere la Administración en la mejora de la educación?.
 El objetivo de cualquier evaluación, especialmente en las etapas obligatorias, debe ser mejorar los procesos y los resultados “de todo el alumnado”.



Un ejemplo lamentable, y no aislado, lo constituye el Plan de Centros Prioritarios, promovido por la Consejería, que movilizó a un buen número de centros y profesores, que consiguió mejoras muy relevantes, y que se ha dejado languidecer hasta prácticamente morir. La Administración educativa, una vez más promueve actuaciones para, dependiendo del responsable de turno, dejar en la estacada a quienes han puesto ilusión, trabajo y horas de su tiempo en el proyecto.



Además, y finalmente, todo esto parece ignorar, al menos, el espíritu del artículo 144.3 de la Ley Orgánica de Educación, que literalmente señala:






“Corresponde a las Administraciones educativas regular la forma en que los resultados de estas evaluaciones de diagnóstico que realizan los centros, así como los planes de actuación que se deriven de las mismas, deban ser puestos en conocimiento de la comunidad educativa. En ningún caso, los resultados de estas evaluaciones podrán ser utilizados para el establecimiento de clasificaciones de los centros.”

EDUCACIÓN EN ORCASUR"MÁS VALE COOPERAR QUE COMPETIR."





http://educacion-orcasur.blogspot.com/

Seguidores