martes, 3 de diciembre de 2013

Tonto el que lo diga

En un ratito se publicarán los resultados de PISA 2012. Pasará lo de siempre: manos a la cabeza, llanto y burla, oleadas de declaraciones, ríos de tinta… Nihil novum sub sole. Como los resultados: sólo de tontos o locos pueden esperar distintos resultados tras hacer lo mismo una y otra vez. De lo que nos vamos a hartar es de la inundación de estulticia en que nos van a sumergir los periódicos, haciéndose eco de declaraciones. Esto es una pequeña guía para detectar, sin gran esfuerzo intelectual, a los tontos. Uno pensaría que después de las dosis masivas de tontos que hemos sufrido, a los actores públicos les daría algo de vergüenza mostrarse como tales, pero si hay algo a lo que los tontos son inmunes es a la realidad y al sentido del ridículo. En fin, si oyen o leen cosas como estas, pueden decir, conmigo, tonto el que lo diga:

La gestión del partido X es responsable de los malos resultados.
En España, en los diez últimos años (los alumnos examinados en PISA a los 15 años en 2012 llevan 10 años estudiando la enseñanza obligatoria), y en ese tiempo España ha habido zonas donde ha habido gestión única de uno u otro partido, y zonas de gestión mixta. Si en ninguna de esas zonas ha habido cambios, o si en zonas gobernadas por el mismo partido hay cambios en distintas direcciones, pues ya me dirán ustedes. La gestión está transferida, y de momento es más importante el equipo de gestión que el partido al que pertenece.

Los recortes son culpables de los malos resultados.
Los recortes, según y como se hagan, pueden tener efectos a medio y largo plazo, pero rara vez en el corto. Además, si hacemos balance de los últimos diez años, la inversión ha crecido muchísimo. Y la falta de dinero rara vez tiene efectos generales, sino que afecta a unos colectivos u otros, y habrá que ver (y no es fácil, porque los efectos son pequeños) quién es el perjudicado. Pero, en general, esa declaración es una estupidez oportunista. Por cierto, recuerden que los alumnos se examinaron en mayo de 2012.

La política (tangencial) X tiene la culpa.
Los resultados de PISA son principalmente fruto del sistema, la gestión y el contexto. Políticas tangenciales como cuestiones de personal y otras medidas de alcance limitado tienen un efecto muy pequeño en los resultados. Cambios generales en el sistema sí tienen una influencia grande, pero en España no se han hecho en este tiempo.

España es equitativa (o España es menos equitativa que antes)
Los resultados de España no son equitativos. Si han oído otra cosa, les han engañado, lo siento. Decirlo hace años podría tener justificación, pero no a estas alturas. Si aceptamos que la equidad es la dispersión de los resultados (que ya es aceptar), en España la dispersión por la izquierda (es decir, entre los alumnos peores) es igual que la del resto de Europa o de la OCDE, pero la dispersión por la derecha (la de los alumnos mejores) es la segunda más baja del mundo. Cuando haces la media de ambas, pues te puede salir una dispersión baja en su conjunto, pero tienes que ser consciente de que toda tu equidad se basa exclusivamente en no dejar mejorar a los alumnos con mejores posibilidades. De igual manera, una disminución de la dispersión debida a un aumento de excelencia debe ser recibida como una buena noticia, no como una mala. La equidad se ha de conseguir mejorando los resultados de los alumnos con más dificultades, no impidiendo mejorar a los alumnos que pueden mejorar.

jueves, 7 de noviembre de 2013

El chino cudeiro

PISA es una evaluación internacional de una complejidad enorme, pero que tiene la ventaja de ser extremadamente transparente, ya que publica prácticamente todo: buena parte de las preguntas, estudios muy extensos y detallados, los métodos utilizados y las bases de datos completas que utilizan. Todo ello se puede encontrar aquí. La evaluación se pasa cada tres años desde su primera edición en 2000, y estamos a la espera de que se publiquen los datos de su cuarta entrega, la correspondiente a 2012 (saldrá a principios de diciembre de 2013).
Desde hace unos cuantos años, trabajo con los datos de PISA. La primera edición de la cual descargué las bases de datos fue la de 2003, y desde entonces he ido manejando los datos tanto de la anterior (2000) como de las siguientes, según han ido saliendo. Como algunas tablas son bastante grandes, las suelo cargar en una base de datos (habitualmente MySQL) para comenzar a utilizarlas. Cuando estuvieron disponibles las bases de datos de 2009, ya tenía creadas todas las anteriores, e intenté aprovechar el diseño previo para la nueva base de datos de 2009, ya que los campos no varían mucho.
La tabla grande de 2009 (la que tiene los datos principales de los alumnos) tiene casi medio millón de registros y más de 400 campos, unas dimensiones considerables, y tarda bastante en migrar. Pueden imaginar mi cabreo cuando, pasados cerca del 80% de los datos, el programa da un error: un valor es demasiado alto para el rango reservado en la base de datos. Después de investigar un rato, el error venía de que un alumno había obtenido en la escala de matemáticas más de 1000 puntos PISA, mientras que en mi base de datos tenía reservado sólo espacio para números de tres cifras (entre 0 y 999). Eso me obligó a modificar el tamaño de más de treinta campos en la base de datos y otras modificaciones menores en el programa de migración, y comenzar de nuevo el proceso. Y, como el alumno en cuestión vivía en Shanghai, pues se quedó con el mote de chino cudeiro.
Además de su rendimiento en Matemáticas, podemos saber por los datos de PISA que el chino cudeiro es un chaval que va a una escuela de Secundaria básica en Shanghai, China, que cursa noveno grado (el equivalente a nuestro 3º de ESO: sí, va un curso retrasado, probablemente porque en China ingresen en el curso por la edad que tienen al comenzarlo, y no por el año natural, como en España), que nació en octubre de 1993, que cursó más de un año de educación infantil, comenzó la Primaria con seis años, que vive en casa con sus padres y, al menos, un abuelo, pero que -muy probablemente- no tiene hermanos. Su madre estudió hasta el Bachillerato y trabaja a tiempo completo en una oficina, mientras que el padre obtuvo una licenciatura y tiene un alto cargo en una gran empresa. Ambos nacieron en China (en la propia Shanghai), y hablan chino en casa. En su hogar dispone de los recursos educativos y los electrodomésticos típicos de cualquier hogar de clase media occidental (libros de literatura, poesía, de referencia técnica, diccionario, y algunas obras de arte; también un ordenador, habitación propia,lavaplatos, DVD, aspiradora, cámara digital y exprimidora) salvo internet. Además, en casa hay dos móviles, un televisor, un coche, y sólo tienen un baño. No hay demasiados libros (entre 25 y 100), pero el chino cudeiro lee al menos dos horas diarias, pues es uno de sus pasatiempos favoritos. Lee sobre todo libros de no ficción, literatura, poesía y periódicos, pero casi nunca cómics o revistas. No se concecta a internet, ni en casa (que no tiene) ni fuera de casa, por lo que no chatea ni usa el correo electrónico: sólo lo utiliza en la biblioteca del colegio para cuestiones relacionadas con el estudio. Tiene estrategias de estudio razonables, pero no especialmente buenas y, como cualquier chaval, a veces no entiende las cosas y se atasca en el estudio. Tiene seis clases semanales de matemáticas en el colegio, con una duración de 40 minutos cada una. En una semana tiene en total 38 clases (unas 25 horas semanales), y no tiene clases de refuerzo ni dentro ni fuera de la escuela. Se pasa, eso sí, todos los días por la biblioteca, para estudiar y hacer los deberes, y alguna vez simplemente para leer. Para estudiar, suele hacer resúmenes y leerlos varias veces, pero no copia, ni subraya, ni lee en voz alta. Estudia matemáticas cuatro horas a la semana, pero no sabemos cuánto dedica al resto de asignaturas. Sus resultados son excepcionales en Matemáticas, pero distan mucho de ser brillantes en Lectura. Aparentemente, un chaval como otro buen estudiante cualquiera.
Las escalas de rendimiento en PISA tienen una media de 500 y una desviación típica de 100, por lo que para que un alumno obtuviese más de 1000 puntos en PISA tendría que obtener un rendimiento cinco desviaciones típicas por encima de la media. Asumiendo que los resultados de PISA se distribuyen normalmente, la probabilidad de encontrar un alumno por encima de los 1000 puntos es de 2,87e-07 (0,000000287). Para que me entienda todo el mundo, uno de cada 3,5 millones de alumnos. Tenía cierta razón en suponer que ningún alumno pasaría de los 1000 puntos. Para que os hagáis una idea de la distancia que media entre el chino cudeiro y la media de los países desarrollados, aquí os dejo el siguiente gráfico:
Las barras azules representan la distribución real de los alumnos de países de la OCDE en Matemáticas (PV1MATH) en 2009, la línea en forma de campana de Gauss es la distribución teórica que utiliza PISA (media 500 y desviación típica 100, asumiendo normalidad), y la línea amarilla de la derecha es la puntuación del chino cudeiro en la escala. En realidad, PISA no obtiene las puntuaciones reales de los alumnos -no es un examen-, sino las "puntuaciones poblacionales", es decir, no está hecha para valorar la capacidad del individuo sino para conocer los resultados de una población, por lo que no sabemos la puntuación real de nuestro chino cudeiro, sino que es una aproximación algo inexacta. Pero, para este blog y para el juego que nos traemos entre manos, podemos darla por válida. El resto de distribuciones y datos empleados en esta anotación sí que son válidos incluso siguiendo criterios académicos, salvo que, por simplificar, se usa sólo la primera escala de Matemáticas (PV1MATH), y no las cinco que usa PISA.
Por tanto, tendríamos una posibilidad entre 3,5 millones de encontrar un estudiante de este nivel de excelencia en los países de la OCDE. Pero es que nuestro chino cudeiro no estudia en un país de la OCDE, sino que estudia en Shanghai, que tiene un sistema educativo algo particular y donde se hace especial hincapié en el aprendizaje de las Matemáticas. En el siguiente gráfico, que mantiene la misma escala que el anterior, podemos ver la distribución real de los alumnos españoles (barras azules) y de los chinos (barras amarillas) en Matemáticas en PISA 2009, además de la distribución teórica media de PISA y la situación del chino cudeiro (las frecuencias de los gráficos han sido calculadas simulando poblaciones iguales para poder establecer comparaciones).
El rendimiento del chino cudeiro sigue siendo excepcional, pero ya parece más probable encontrar un alumno así. De hecho, para los parámetros teóricos de la distribución de Shanghai, la probabilidad de encontrar un alumno por encima de los 1000 puntos en Matemáticas es de 4.95e-05 (0,0000495), que puede parecer todavía muy pequeña, pero ya es razonable: más o menos, uno de cada 20.000 alumnos. Para que se hagan una idea, la probabilidad de encontrar un alumno que estudie en el sistema educativo español por encima de los 1000 puntos en Matemáticas es de 2,36e-08 (0,0000000236), uno de cada 42 millones. Creo que no existe tanto español como para tener una sola posibilidad de que eso ocurra.
Pero no acaba aqui la cosa. El chino cudeiro no estudia sólo en un sistema educativo, sino en un centro concreto. Uno bastante bueno, pero ni siquiera es el que mejores resultados obtiene en Shanghai, donde hay un puñado de escuelas con niveles similares. En el siguiente gráfico se pueden ver las distribuciones teóricas -las reales, al haber muy pocos alumnos, están bastante dispersas- del centro típico de la OCDE, del mejor centro que tenemos en España y del centro donde estudia el chino cudeiro.
En el gráfico se ve que el chino cudeiro sigue siendo excepcional, pero se entiende mejor que en un centro con una media en Matemáticas por encima de 700 puntos exista la posibilidad de encontrar a un alumno así. De hecho, la probabilidad de encontrar un alumno por encima de los 1000 puntos en un centro con la distribución teórica del suyo es ya de sólo 0,00123, poco más o menos de uno cada 800 alumnos. Si además tenemos en cuenta que nada menos que 14 de los 152 centros (un 9%) evaluados en Shanghai tenían una media por encima de los 700 puntos, es fácil colegir que esta ciudad china tenía bastantes posibilidades de tener un alumno así. Los que no tenemos ninguna oportunidad somos nosotros: la probabilidad de que aparezca un alumno de ese nivel en el centro español con mejores resultados es de 6.23e-07 (0,000000623), una entre 1,6 millones de alumnos.
Hay quien todavía piensa que las grandes cabezas nacen, y que por tanto es una cuestión de suerte. Sin embargo, hoy sabemos que las grandes cabezas nacen en muchos sitios, pero que sólo en algunos se les da la oportunidad de aprovechar de verdad su potencial.

miércoles, 18 de septiembre de 2013

A quien pueda interesar (II)



Más información aquí.
Y, cuando se presente y puedan leer el estudio, hablaremos de la formación de los maestros.
ADDENDA:
Me dicen que se puede ver en directo.

martes, 10 de septiembre de 2013

Sobre el inicio de curso

Me publican en Alfa y Omega un breve artículo donde explico, muy sucintamente, cuales son los mecanismos por los cuales anulamos el talento de nuestros mejores alumnos.
La trituradora de talento

sábado, 8 de junio de 2013

Otra correlación insostenible

Lc 15:32
No es la primera vez que me ocupo de este tema (aquí y aquí), pero como se insiste, pues cabalgamos.
El caso es que Manuel Bagüés, en el blog de FEDEA, ha escrito una entrada en la que se sorprende de "lo poco que ha cambiado el mapa educativo en siglo y medio", presentando un gráfico de dispersión, en apariencia, apabullante. ¡Nada menos que el 72% del nivel educativo actual, a nivel regional, sería explicable por las tasas de analfabetismo existentes antes de la puesta en marcha de la primera ley educativa de España! Eso le da pie a hablar de la asombrosa "persistencia de los fenómenos sociales, culturales o económicos" y otras zarandajas, por no hablar de la, por momentos delirante, discusión posterior (ni Bagüés -que a veces tiene anotaciones espléndidas- ni los otros colaboradores del blog suelen publicar cosas tan flojas, aunque es habitual que no acabe de estar de acuerdo con ellos en materia educativa).
El problema es que el gráfico apenas se sostiene. Veamos por qué.
En el primer gráfico reproduzco el gráfico de Bagüés, con la recta de regresión lineal, otra curva polinómica y la de Loess. La primera tiene un ajuste medio para el número de puntos, la segunda ajusta un poco mejor, pero no mucho, y la tercera la he puesto porque me gusta, me parece muy indicativa. Yo hubiera dado la vuelta al gráfico (la variable explicativa sería la alfabetización del s.XIX: es difícil que el nivel de lectura actual explique lo que ocurrió hace 150 años), pero es un detalle menor que no cambia lo esencial. Otro error es lo del 72%: en el mejor de los casos, la R2 apenas pasa de 0,5. Probablemente se deba a que ha cogido R en vez de R2, un despiste como otro cualquiera. Aún así, que un factor explique un 50% no es desdeñable, aunque sería deseable que se profundizase algo más en el componente explicativo y causal, porque si no sólo alimentamos prejuicios.
En el segundo gráfico, muy similar al anterior, señalo en rojo las comunidades del sur y en azul las del norte, con sus rectas de regresión consiguientes: en el sur el efecto de las tasas de analfabetismo desaparece, mientras que en el norte la correlación es muy pequeña (y, de hecho, no llega a ser significativa). Como ya comenté en uno de los post citados anteriormente, si cuando divides España en norte y sur el efecto desaparece, pues tienes el efecto norte-sur, y puedes tirar tu factor explicativo "por um cano abaixo". La verdad es que si tienes a diez (más de la mitad) de las CCAA alrededor de un 20% de tasa de alfabetización con diferencias en lectura de más de 50 puntos, ya era para sospechar que el factor explicativo no daba para mucho, pero muy a menudo, cuando tenemos datos agrupados (a mí también me pasa), lo elevado de la correlación no nos deja ver la debilidad de la misma.
[Nota técnica: ya sé que esto último se hace metiendo una dicotómica norte-sur e introduciéndola en la regresión, pero así queda más claro para los legos. Si se hace, el coeficiente del efecto de la alfabetización se reduce a la sexta parte y deja de ser significativo, mientras que la R2 pasa de 0,5 a 0,78. Por tanto, tenemos dos grupos diferenciados, y utilizar la regresión sin utilizar esto en cuenta conduce a errores de interpretación, como el presente.]
Nos queda, entonces, el efecto norte-sur: ¿se ha mantenido estos 150 años?
Hay una evaluación realizada en España en 1997 en la que se publicaron resultados por comunidades autónomas (que yo sepa, por primera vez), aunque ya nadie se acuerde de ella. Es una evaluación muy interesante que encierra buena parte de las claves y problemas de nuestra educación. Que yo sepa, no hay manera de conseguirla entera en internet, aunque en Google Books es posible ver parte de alguno de los siete tomos que se publicaron. Hay, además, un resumen de la misma bastante amplio en inglés y menos amplio en español, pero que hay que bajarse en sendos zip (aquí y aquí). La evaluación medía la competencia en bastantes áreas (Comprensión lectora, Gramática y Literatura, Matemáticas, Ciencias de la Naturaleza y Geografía e Historia) de los alumnos de 14 y 16 años (8º de EGB y 2º de BUP/FP I en el sistema anterior, 2º y 4º de la ESO en el actual), pero dos de las comunidades que esperaban peores resultados (Canarias y Andalucía) se negaron a presentarse (si quieren un ejemplo de pervivencia histórica, ahí está Taifistán). En fin, no me voy a extender más sobre las bondades de esta evaluación, pero si quieren un ejemplo de su actualidad, lean el capítulo de las conclusiones titulado "La mediocridad no debe constituir un objetivo común" (sólo en la versión inglesa).
Bueno, el caso es que tenemos una medición de la competencia lectora a los 14 años en 1996, otra a los 16 en 1996 (pero en esta ya faltaban alumnos que habían dejado la escuela, al menos un 5%), y otra en 2009, todas ellas por CCAA. Si la permanencia de los factores socioculturales de las regiones españolas durase siglo y medio, es evidente que tendrían que notarse en la evaluación de 1996. Y esto es lo que pasa.
En este tercer gráfico (arriba) el ajuste lineal (en rojo) es, esta vez, ridículo, mientras que el ajuste cuadrático (en azul), pese a ser bastante alto, carece sencillamente de sentido. Eso sí, de nuevo ninguna CCAA del sur está por delante de ninguna del norte.
Si pasamos (cuarto gráfico, arriba) a los 16 años (ya hay cerca de un 5% de alumnos no escolarizados) hay algunas variaciones, pero la correlación lineal sigue siendo baja y no significativa.
Por fin (quinto gráfico, arriba), esto es lo que ocurre cuando correlacionamos la evaluación de 1996 (a los 14 años) con la de PISA 2009 (a los 15): una correlación débil causada por el consabido norte-sur, inexistente entre las CCAA del norte y bastante fuerte (y negativa) entre las del sur. No es que signifique demasiado, pero es un ejemplo de cómo factores que correlacionan en cada grupo negativamente, pueden dar lugar a una correlación positiva si no tomamos en cuenta la grupalidad.
Quizás este último gráfico sea el más interesante: se han normalizado las puntuaciones de ambas evaluaciones para poder compararlas (utilizando la media y desviación típica de los alumnos, no la de las CCAA). Esta normalización permite comparar grupos de datos distintos que se distribuyen más o menos normalmente, pero tiene sus limitaciones: no es posible comparar la evolución de España, sino la variación de cada una de sus regiones asumiendo que la media de España es la misma en 1997 que en 2009. Es decir, no podemos decir que la región x haya empeorado o mejorado en términos absolutos, sino con respecto al grupo: podría suceder que toda España hubiera mejorado (o empeorado) mucho en poco más de una década, y por tanto que la región x se hubiera quedado simplemente estancada.
Las tres comunidades que más empeoran, sobre todo en el segundo gráfico, son del sur (y no tenemos datos de Canarias ni de Andalucía), mientras que las del norte tienden a experimentar variaciones más pequeñas. El caso de Cataluña tiene sus dificultades: en 1997 fue la última vez que se midió la competencia lectora en castellano comparándola con el resto de España, y la de 2009 mide la competencia lectora en catalán. No aparecen en el gráfico los datos de Ceuta y Melilla, porque no hay información sobre su tasa de alfabetización, pero en 1996 se situaba al lado de la C. Valenciana (z=-0,22) para los 14 años, mientras que en 2009 se saldría del gráfico, con un valor estandarizado z=-0,91, una diferencia de -0,69 desviaciones típicas (y eso que no tiene la educación transferida, todavía depende del Ministerio). De todas formas, el peso del dato histórico sigue sin ser fuerte en este caso (si correlacionamos diferencias con tasa de alfabetización, la R2 es de 0,134 a los 14, y algo menos a los 16).
No dudo de la pervivencia de la Historia en nuestra sociedad (tengo algunas teorías al respecto), y de algunos factores sociológicos, pero si perviven lo han hecho a través de las familias, y estas se han movido mucho en 150 años (no pocas veces, expulsadas de su solar por esos factores). PISA, que tiene el lugar de nacimiento de los padres, puede dar pistas sobre el tema, quizás. Pero la tasa de alfabetización, tal y como se ha planteado, no parece explicar demasiado a nivel macro.
Como idea general, un sistema educativo fuerte reduce el peso de los factores sociales indeseados en los resultados, mientras que uno débil hace que éstos resurjan. El problema está en que, en la última década, los factores de origen están ganando peso si atendemos no tanto a lo que saben los alumnos, sino a sus oportunidades de titulación. Pero eso lo dejamos para otro día.

miércoles, 6 de junio de 2012

Una noticia que se me ha pasado

Como no estoy al día, se me pasan estas cosas.
La noticia original, aquí.
Y la cosa sigue.
Desde hace años, les digo a todos mis clientes que para mejorar tienen que ser capaces de escapar de los mínimos. Pero no encuentran ningún incentivo para ello. No me extraña, viendo cosas así.

miércoles, 16 de mayo de 2012

Fracaso escolar 2010 (I). Evolución, CCAA y sexo

Antes de empezar, aclarar un par de cuestiones, ya que este tipo de entradas atraen a mucha gente que sólo lee esta y nada más de aquí -lo cual me parece estupendo: en su derecho están y no hay tiempo para todo-, pero que otros aprovechan para confundir: el fracaso escolar se calcula a través de la tasa bruta de graduados, y es una medición que encierra algunos problemas menores, pero entre ellos no está el de los repetidores. Como muestro aquí, el sistema de cálculo controla ese problema, y el número obtenido es el del fracaso total, y no sirve eso de que "los repetidores aún podrían obtener el título y disminuir el fracaso". Siento empezar así, pero año tras año algún troll anónimo pone cosas de estas en los foros donde tiene repercusión mi trabajo, y uno no puede perseguirlo todo.
En fin, vamos con los datos. El fracaso escolar en 2010 ha vuelto a estancarse, tras dos años de caída, en le 25,9%. No es algo que se pueda entender si uno piensa que el fracaso ha caído gracias a la crisis económica -que yo sepa aún andamos en ella-, pero sí si uno examina las medidas legislativas que luchan contra el fracaso y el alcance que tienen. Basado en este análisis escribí, hace un par de años, esto:
"El problema es si no es un cambio de tendencia, sino un escalón: ahora que se han aplicado algunas medidas y que el fracaso parece ser preocupación política de nuevo, se produce una bajada repentina del fracaso, que puede durar un par de años. Pero sin un cambio de sistema, nos podemos quedar de nuevo estancados alrededor de un 25% y, por tanto, avanzar muy poca cosa. Demasiadas veces, el triunfalismo va unido a la falta de ambición, al conformismo."
Ya sé que un dato no hace granero, y tendremos que ver cómo continúa la serie: ya les diré cuando mire mi bola de cristal. Este año, además, entra en funcionamiento otra de las medidas conducentes a disminuir el fracaso, pero por otra vía, los PCPI. Los PCPI son un pequeño itinerario explícito(*) pensado para alumnos que, cerca de abandonar la ESO sin título, accedan a la posibilidad de obtener un certificado profesional de nivel 1 del Catálogo Nacional de Cualificaciones Profesionales (similar al de nuestra antigua FP I) e, incluso, al título de ESO gracias a unos módulos voluntarios. El certificado profesional no basta para continuar estudios de FP de Grado Medio, necesitas esos módulos voluntarios, que realizan dos tercios de los alumnos de PCPI (los datos son algo inconsistentes, pero es la mejor estimación que hay con los datos disponibles). Es decir, tenemos una nueva forma de obtener el título incluida en el Régimen General, y que por tanto debería incluirse en el cálculo general del fracaso. En este gráfico están los datos:


Como pueden ver, el mecanismo que bajó el fracaso casi cinco puntos en dos años -los PROA- se ha detenido, pero entra en funcionamiento otro mecanismo que tiene un rendimiento similar -los PCPI- pero que tiene también fecha de caducidad (y en breve). Por cierto que los PCPI de la LOE socialista eran muy similares a los PIP de la LOCE popular, pero fueron detenidos en el segundo Consejo de Ministros de Zapatero, hace ahora ocho años. Los que se han quedado por el camino estos años porque el sistema fue inflexible con ellos, por si alguien los busca, son fáciles de encontrar: pregunte en la cola del paro.
Podrán decirme, con razón, que lo que muestro no demuestra nada, y tendrán razón. Lo único que digo es que mi hipótesis -el fracaso baja cuando se toman medidas tecnico-políticas para bajarlo, y no porque hay crisis- sigue siendo consistente con los datos, y otras no. Supongo que para finales de junio podré plantear una demostración seria de este asunto, basada en un estudio de las cohortes: si la responsable es la crisis, el efecto será igual a los 20 que a los 22 o a los 24 años, pero si el responsable es un cambio legislativo, el efecto será escalonado dependiendo de la cohorte a la que afecte la medida.
Volviendo a los datos que nos ocupan, esta es la evolución del fracaso por CCAA y sexo desde 2000 hasta 2010, ordenados por este último año. Sólo incluye a los alumnos que obtuvieron el título de ESO por la vía habitual, no por los PCPI (y en la columna "Dif." positivo significa mejora, negativo empeoramiento).

Evolución del fracaso escolar, por CCAA. Todos.
99-00 00-01 01-02 02-03 03-04 04-05 05-06 06-07 07-08 08-09 09-10^ Dif.
Cantabria23,819,123,321,122,823,022,419,218,413,512,39,8
Asturias17,015,916,714,019,814,816,516,512,910,613,53,0
País Vasco18,017,817,418,513,616,617,016,413,112,214,63,1
Navarra19,618,420,920,317,118,322,320,520,217,916,92,7
Castilla y León23,122,622,423,920,221,022,524,022,519,620,32,4
Cataluña24,524,624,525,425,027,828,427,223,722,823,01,5
Extremadura34,634,036,232,832,432,832,432,927,823,723,411,5
Galicia26,924,124,723,723,523,925,126,324,221,823,41,8
Madrid25,724,125,425,725,926,129,229,925,523,824,01,1
Aragón24,624,624,824,527,425,829,126,425,925,725,1-0,4
La Rioja26,525,732,930,228,228,428,631,134,028,225,82,6
ESPAÑA26,626,628,928,728,529,630,830,728,525,925,91,5
Andalucía26,727,133,833,533,634,834,034,233,127,327,02,2
Canarias32,332,535,333,533,435,135,935,330,426,328,45,0
Castilla-La Mancha34,733,435,233,032,330,333,733,530,931,230,34,1
Murcia35,634,934,733,834,033,332,534,333,030,030,54,6
Baleares35,135,533,536,837,238,038,040,540,339,035,0-0,3
Melilla47,745,143,449,447,242,337,536,536,736,635,89,6
C. Valenciana25,330,832,832,232,735,839,737,838,336,936,0-6,4
Ceuta47,547,047,353,442,650,152,048,247,738,238,88,5
Evolución del fracaso escolar, por CCAA. Hombres.
99-00 00-01 01-02 02-03 03-04 04-05 05-06 06-07 07-08 08-09 09-10^ Dif.
Cantabria31,927,430,427,129,829,829,523,720,918,214,915,0
Asturias25,022,020,419,225,018,922,720,415,713,119,03,5
País Vasco22,122,922,923,018,420,822,020,816,215,319,23,4
Navarra24,524,125,723,724,022,428,024,424,720,820,04,8
Castilla y León31,429,929,732,126,529,728,929,928,425,925,44,9
Cataluña31,530,530,830,530,332,933,432,328,627,927,53,4
Madrid32,229,531,331,531,130,334,135,029,927,927,73,3
Galicia35,931,933,330,931,332,232,732,531,929,429,54,2
Extremadura43,844,145,441,141,542,440,940,737,333,130,813,6
ESPAÑA34,133,836,235,835,836,337,637,234,731,831,23,5
Aragón31,030,932,332,333,932,933,833,432,631,931,5-0,1
Andalucía34,233,841,641,643,342,341,841,440,033,932,63,9
Canarias39,839,942,441,841,542,443,941,936,832,733,07,7
Murcia43,443,742,742,140,740,340,242,339,636,435,57,8
La Rioja35,033,936,734,037,635,335,940,340,133,335,8-0,6
Castilla-La Mancha43,943,143,142,541,639,742,343,340,439,537,95,5
Baleares42,742,140,843,444,343,944,848,345,846,639,12,8
C. Valenciana34,340,742,240,841,343,948,145,545,843,642,7-3,6
Ceuta48,550,551,158,943,857,751,850,553,344,445,05,0
Melilla44,051,250,453,550,245,741,141,439,538,446,71,8
Evolución del fracaso escolar, por CCAA. Mujeres.
99-00 00-01 01-02 02-03 03-04 04-05 05-06 06-07 07-08 08-09 09-10^ Dif.
Asturias8,59,312,78,414,410,69,912,59,98,17,82,4
Cantabria15,210,415,914,815,415,914,914,415,78,39,64,2
País Vasco13,712,311,613,88,612,211,811,810,08,99,62,9
Navarra14,312,115,616,69,713,916,216,215,314,813,60,4
Castilla y León14,314,814,615,213,611,815,617,716,212,914,8-0,2
La Rioja17,617,028,926,118,321,121,021,327,623,015,45,8
Extremadura24,723,026,324,022,622,623,324,717,713,815,88,9
Galicia17,616,015,616,215,315,217,119,816,013,716,9-0,5
Cataluña17,318,317,920,119,322,323,021,818,517,418,2-0,4
Aragón17,717,816,816,220,518,224,219,018,919,118,3-0,9
Madrid19,018,319,119,520,421,624,024,621,019,620,2-1,4
ESPAÑA18,719,121,221,220,722,423,623,922,019,620,3-0,6
Andalucía18,820,125,525,023,326,725,826,625,820,321,00,5
Castilla-La Mancha24,923,026,823,122,520,224,623,120,622,322,22,7
Melilla51,838,235,645,044,138,733,731,133,734,623,418,5
Canarias24,524,828,124,925,127,627,528,323,619,523,72,1
Murcia27,325,626,325,026,825,924,325,825,923,225,11,3
C. Valenciana15,720,222,923,023,727,430,829,530,229,828,8-9,2
Baleares27,028,625,729,829,831,730,732,234,431,130,8-3,7
Ceuta46,543,443,447,741,342,152,145,841,831,632,412,0
Fuente: Ministerio de Educación. Alumnado que terminó los estudios por enseñanza/titulación. Series por Comunidad Autónoma.
NOTA: La columna Dif. indica la diferencia entre el fracaso 2010 y la media de fracaso 2000-2002 para evitar las grandes variaciones del primer año.
Positivo significa mejora.

Las diferencias de partida por sexo y territorios son enormes, y las evoluciones seguidas también. Si  utilizamos como referencia la media de los tres primeros años de fracaso, el conjunto de España sólo ha mejorado 1,5 puntos, pero mientras que hay comunidades con alrededor de diez puntos de mejora (Extremadura, Cantabria), son pocas las que empeoran: Aragón y Baleares levemente, la Comunidad Valenciana espectacularmente. En fin, ahí tienen los datos para mirarlos con cuidado.
Como en El honor de Israel Gow, de estos datos pueden salir múltiples historias: mismas leyes, distintos contextos, diferentes resultados. Mi tesis es que las principales diferencias se deben a errores de gestión y a decisiones políticas muy concretas, principalmente. Ahora, quien piense que los conocimientos de extremeños y cántabros han aumentado sus conocimientos en la misma medida que han disminuido su fracaso, ya puede dejar la bebida. Es más, no sería la primera vez que para lograr una disminución del fracaso escolar se haya conseguido, por la vía de bajar el nivel de exigencia, que disminuya también el nivel de los alumnos. Ya nos lo aclararán las evaluaciones. Y volveremos sobre el tema en el siguiente capítulo de esta serie.
Como decía antes, en este fracaso hemos de incluir la nueva forma de obtención del título, aunque, como he dicho antes, los datos no son consistentes y hay comunidades de las que aún no disponemos de cifras. Contándolo todo, la tabla final nos quedaría así:

Fracaso escolar total y tasa bruta de graduados en PCPI en 2010, por CCAA y sexo
PCPI (tasa bruta) Fracaso total
Todos Hombres Mujeres Todos Hombres Mujeres
Cantabria2,23,50,810,111,48,8
Asturias0,00,00,013,519,07,8
País Vasco0,00,00,014,619,29,6
Navarra0,30,60,016,619,413,6
Castilla y León2,22,71,618,122,713,2
La Rioja6,58,74,119,327,111,3
Extremadura3,04,11,820,426,714,0
Madrid1,61,81,322,425,918,9
Cataluña0,00,00,023,027,518,2
Galicia0,00,00,023,429,516,9
Aragón1,52,00,923,629,517,4
Andalucía2,94,01,824,128,619,2
ESPAÑA1,82,41,224,128,819,1
Canarias3,65,12,124,827,921,6
Castilla-La Mancha3,03,42,527,334,519,7
Murcia2,53,31,628,032,223,5
Melilla6,17,15,029,739,618,4
Baleares3,03,82,332,035,328,5
Ceuta6,56,26,932,338,825,5
C. Valenciana1,72,31,134,340,427,7
Fuente: Ministerio de Educación. Alumnado que terminó los estudios por enseñanza/titulación. Series por CCAA.

Las cifras de fracaso de las comunidades del tercio inferior, especialmente las valencianas, son mareantes aún. Muchos de los equipos que se tienen que enfrentar a estas cifras son recién llegados. Ójala vean esta situación como un reto y una oportunidad de lucirse, y no se paralicen o, lo que es peor, elijan el camino más fácil.
En resumen, tras una década de fracaso Logse que afectó al menos a un cuarto de la población, y que tuvo picos que afectaron a más del 30%, por fin dos medidas legislativas menores han bajado el fracaso por primera vez en muchos años por debajo del 25%, aunque aún no han conseguido reducir las diferencias por sexo y territorio significativamente. El día que hagan reformas en serio, a lo mejor vemos un fracaso medio en España inferior al 10% y, de paso, no tenemos que esperar con resignación las cifras de PISA.

Notas:
(*) Digo "itinerario explícito" porque la Logse funcionó siempre con itinerarios encubiertos, mucho más segregadores que los explícitos (el 30% de fracaso fue su consecuencia directa). Algún día les contaré esta historia, pero mientras pueden ir pensando por qué razón las brutales tasas de fracaso no eran segregadoras, pero todo intento de arreglarlas explicitando los itinerarios sí lo eran. Debe ser que los muertos de la cuerda de uno siempre "gozan de buena salud".

viernes, 11 de mayo de 2012

Esos análisis que carga el diablo

La ratio alumnos/profesor ha sido una de las batallas sindicales más importantes durante décadas, mantenida con el argumento de que tal medida era esencial para la calidad del sistema educativo. Lo cierto es que eso es verdad cuando los cambios son muy importantes o cuando las ratios son muy elevadas, pero es una medida que se va haciendo cada vez más cara y cuyos rendimientos son acusadamente decrecientes. Por ejemplo, para pasar de una ratio de 20 a una de 18 hay que aumentar los profesores un 11% (*), pero para pasarla de 12 a 10 es necesario un aumento del 20% (manteniendo constante el número de alumnos, naturalmente).
Una vez más, hay que tener cuidado con los automatismos: depende de cómo se emplee el profesorado, de su calidad, de la adecuación de sus especializaciones a las diversas necesidades del alumnado, de la capacidad del sistema para aprovechar los recursos... La evidencia internacional encuentra efectos cuando hay reducciones importantes, aunque hay quienes apuntan que concentrar los recursos en contratar mejores profesores en vez de contratar más tiene efectos más importantes. Lo mejor que he leído fue un trabajo de Meuret y Grisay (no tengo la referencia a mano, creo que era de 1997) que concluía que era más eficaz tener clases de 30 alumnos con profesores de apoyo que desdoblasen regularmente a los grupos en dos de 15 que reducir las clases a 25 alumnos, siendo la primera medida más barata que la segunda.
Argumentos del tipo “hay países con elevadas ratios y buenos resultados” no me parecen muy válidos, ya que el efecto sistema o cultura o cualquier otro factor pueden ser también influyentes. Incluso el que en PISA y en España los centros con mayor ratio –más alumnos por profesor– tienden a tener mejores resultados (un efecto leve, repetido en datos de otras evaluaciones controlando diversos factores ) no me parece definitivo, ya que en España los buenos centros suelen tener tanto mejores resultados como mayor demanda, y el número de profesores depende del número de grupos, no del número de alumnos.
Más indicativo me parece el dato de que en 2000 nuestra ratio estaba en 13,4 y en 2009 en 11,1, pero no se ha visto mejora relacionada por lado alguno. Por ejemplo, entre 2000 y 2006 la ratio bajó en 1,7 alumnos por profesor y el fracaso escolar subió cuatro puntos; pero entre 2006 y 2009 la ratio bajó siete décimas y el fracaso cayó cinco puntos. Esto, hablando de fracaso, porque en PISA no nos hemos movido en una década.
Todo esto viene porque un amigo me envió este enlace. Lo primero que me llamó la atención fue que una fundación del PSOE tuviera un blog en un diario (pensaba que era del PSOE, pero algunos me dicen que sólo está vinculada), pero desde que pasó de ser el diario independiente de la mañana a un periódico aerodinámico para una época aerodinámica(**) ya poco puede sorprenderme. Luego, la magra utilización de los gráficos de SPSS, ya que con nada te pone una línea de regresión y te indican la R2, por lo menos. Y, por último, la ausencia de números.
El autor de la anotación es José S. Martínez, un profesor de Sociología de La Laguna que conozco, entre otras cosas, por un trabajo (pp. 56-85) que ha circulado bastante, y que defendía que uno de los problemas de la educación española es que la ESO era demasiado difícil. A mí ese artículo me pareció algo flojo técnica y argumentativamente, pero otra gente a la que admiro le ha parecido bueno.
La anotación empieza con un gráfico sin más referencia. Al menos, una recta de regresión y algún coeficiente de correlación debería haber aparecido por algún sitio, ya que aunque la distribución de los puntos no parece demasiado lineal, los gráficos pueden engañarnos, y los números no, o no tanto. Como son datos fáciles de encontrar en las estadísticas del Ministerio de Educación, he replicado los cálculos, y la R2 obtenida es bastante birriosa para tan pocos puntos: 0,30 (0,26 la corregida) para 19 casos, 0,23 (0,18 corregida) si quitamos Ceuta y Melilla. Lo del segundo gráfico es de nota: manteniendo Ceuta y Melilla R2 está en 0,23 (0,18 corregida), pero quitando ambas ciudades (el 0,47% de los alumnos) pasa a 0,06 y no es significativo estadísticamente según los estándares habituales. Ya he hablado del problema de incluir a las ciudades autónomas en ciertas regresiones aquí.
El segundo gráfico, por tanto, ya lo podemos descartar, puesto que no podemos decir que la relación entre ambas variables no existe (es decir, que no podemos afirmar que la disminución de la ratio influya en el aumento de fracaso). Centrándonos en el primer gráfico, vemos que hay una clásica concentración de CCAA del tercio noroeste peninsular en un grupo. También he hablado de esto, y cuando ocurre es para sospechar que hay en juego más variables que influyen en las dos del modelo, y hay que investigar más.
Otra crítica al gráfico es que las ratios no influyen sólo en el curso en que el alumno acaba la enseñanza obligatoria (donde medimos el fracaso), sino a lo largo de su escolarización, por lo que quizás habría que utilizar una media de los últimos años como independiente, y no la del año en curso. Aunque se podría aceptar la variable del último año como representativa del esfuerzo de la Administración autonómica en este tema. El autor debería haber puesto al menos alguna línea explicando el modelo, pero no lo hace. Tampoco explica el autor por qué no destacamos por nuestra elevada ratio en Europa, pero sí por las consecuencias de nuestro enorme fracaso.
Una vez cargados los datos, me puse a mirar un poco más, y calculé cómo ha cambiado la relación entre ambas variables en los años disponibles. Si la correlación permanece estable la variable ratio podía ser un buen candidato explicativo, pero si varía en función del valor de la dependiente, quiere decir que no es buena predictora, y que habrá que buscar otra variable explicativa mejor. Pues bien, lejos de mantenerse constante, la correlación aumenta cuando lo hace el fracaso, pero disminuye cuando este cae. Descartando Ceuta y Melilla y utilizando los datos del mismo año, los valores para el año 2000 de R2 son de 0,39, 0,47 en 2001, 0,57 en 2002 y 2003, para, a partir de entonces ir cayendo hasta el 0,23 de 2009. No parece haber una asociación demasiado clara, pero explica por qué el segundo gráfico no lleva a ningún sitio.
Este sería el gráfico con su recta de regresión y su R2. La ecuación de la recta (y=a+bx) sería y=-20+4,3x. Por cierto, ninguno de los coeficientes es significativo (no podemos decir, con los datos disponibles y en el rango de confianza habitual, que sean distintos de cero).


Cuando uno dice que una variable influye en otra lo que habitualmente se está proponiendo es un modelo de regresión, cuyo coeficiente b tiene un significado concreto: cuánto cambio de una variable dependiente (fracaso) está asociado a un cambio de una unidad en la variable independiente (ratio). El caso es que el modelo planteado tiene una b de 4,3, es decir, que sería necesario bajar la ratio una unidad para bajar 4,3 puntos el fracaso escolar. El problema es que, si el modelo fuera cierto, la solución sería extremadamente cara: en los niveles actuales (ratio de 11,3 alumnos por profesor) bajar la ratio una unidad significaría aumentar los docentes en casi un 10%, para conseguir que el fracaso caiga cuatro puntos. Si el objetivo es dejar el fracaso en un 10% habría que bajarlo 16 puntos nada menos, lo que en nuestro modelo equivaldría a aumentar los docentes ¡más de un 50%! Unos 333.000 profesores más. Más nos valdría aceptar que entonces el sistema es un pozo sin fondo, y que por este camino no vamos a ninguna parte (entre 2000 y 2011 las plantillas docentes han crecido un 31%, y todavía estamos esperando resultados).(***)
Si vamos por el camino inverso, y si Wonka tiene razón al calcular un recorte del 7%, y aceptáramos que todo fuera a recortar profesores de no universitaria (que es mucho aceptar), la ratio no llegaría a crecer una unidad, y por tanto su incidencia en el fracaso estaría cercana a los cuatro puntos (por cierto, siendo ya una exageración, un recorte semejante se llevaría por delante a menos de 50.000 docentes, que siendo mucho, se aleja un pelín de los 100.000 –y la estimación era sólo para la pública– de los que hablaban algunos: por favor, comprueben lo que fuman).
El artículo comentado tiene muchas afirmaciones -en mi opinión erróneas- más que se apoyan en un marco general que dista mucho de haber demostrado su validez: “fracaso escolar administrativo”, “no es casual que la tasa de abandono educativa más baja de toda nuestra historia (26% en 2011), se haya alcanzado tras el pinchazo del ladrillo”, “España no es comparable a Japón, debido a que el nivel educativo y cultural de las familias españolas, resultado de la política educativa elitista de la Dictadura, es mucho más bajo”... Algún día me tendré que meter con eso.
Por cierto, más aquí.

Notas:
(*) El cálculo es sencillo, pero no evidente. Si x es el número de alumnos e y,z son el número de profesores antes y después de la variación de la ratio, me interesa en qué proporción debe crecer z con respecto a y para disminuir la ratio, por ejemplo, de 12 a 10 alumnos por aula. Entonces: x/y=12; x/z=10; z=1,2y, por lo que el aumento es del 20%.
(**) Un chiste para enterados, lo siento. Tiene relación con el magnífico comienzo de la grandiosa película Juan Nadie (Meet John Doe, Frank Capra, 1941). Pueden verlo, tras los créditos, aquí (1’15”).
(***) A partir de este párrafo la anotación ha sido modificada por un error de interpretación en un coeficiente. Estuvo unos minutos colgada y, viendo el error, decidí suspenderla, pues hasta ahora no he tenido tiempo de modificarla. Siento que estos dos días hayan venido al blog para nada.