viernes, 13 de mayo de 2022

A raíz de una breve intervención sobre el nuevo currículo de la ESO en la COPE

En memoria de mi tía Romy (1945-2022). La última vez que hablamos fue porque me escuchó en este programa.
Hace unas semanas intervine, junto a Josep Otón (Ancaba) en el programa La tarde de la COPE, hablando sobre el nuevo currículo de la ESO con Fernando de Haro. Pueden escuchar lo que dijimos (poco más de 12 minutos) aquí aquí (archivo mp3).
No tuvimos mucho tiempo (para educación nunca lo hay), pero en los pocos minutos que hablé intenté alejarme de las críticas más superficiales para centrarme en el fondo del asunto: es una norma, como la misma Lomloe, que parece diseñada para otro país, puesto que apenas aborda los problemas fundamentales que podemos detectar en las escasas evaluaciones a que se somete muestro sistema educativo, y continúa una tendencia al facilismo, defendida por un sector del PSOE desde hace décadas, y que ha demostrado no servir para lo que dicen que sirve (sí sirve para otras cosas, pero no es lo que dicen defender).
Ante un sistema que determina un periodo de enseñanza obligatoria con unos objetivos mínimos comunes, existen básicamente tres políticas para abordar el problema de los alumnos que no llegan a los mínimos establecidos: facilismo, diversificación y otra que vamos a llamar responsabilismo, ya que va de asumir responsabilidades. Faltaría una cuarta, que no sé si se puede denominar política, pero que es demasiado habitual, y que podemos denominar estatismo: no hacer nada.
El facilismo intenta rebajar esos mínimos comunes para que estén al alcance de todos, pero tiene como consecuencia evidente que establece el nivel en donde puedan llegar casi todos, dejando sin atender a la inmensa mayoría que puede llegar a más. No suele ocuparse de esos alumnos, y muy rara vez establece planes para que los que van peor lleguen más fácilmente a los mínimos y poder elevar éstos. Desde el punto de vista del currículo, el facilismo aboga por enseñar menos a todos (y lo mismo). Ese debilitamiento curricular conduce a menudo (en España, desde luego) a que los alumnos de origen social más bajo se vean frenados en su ascenso social.
La diversificación opta por establecer diversos itinerarios para que cada uno llegue a donde pueda o elija, atendiendo así a más alumnos que pueden alcanzar mayor nivel, pero rara vez se ocupa de que más alumnos alcancen mejores niveles ni intentan mejorar los mínimos de cada grupo, salvo el superior. Su consecuencia más obvia es que separa a los alumnos en un momento en el que su origen socioeconómico pesa mucho, por lo que no separa sólo en función del mérito, sino del origen social. Desde el punto de vista del currículo, la diversificación opta por mantener los mínimos del itinerario superior elevados y enseñar menos al resto.
El responsabilismo aboga por intentar que el máximo número de alumnos llegue a lo máximo que pueda, pero asumiendo parte de la responsabilidad de que lleguen a ese máximo. Si se adopta en un sistema con un currículo común, opta por establecer un mínimo elevado y establece las medidas necesarias para que todos los alumnos lleguen a ese mínimo (Finlandia en sus buenos tiempos). Si se adopta en un sistema con itinerarios, opta por establecer medidas de refuerzo o compensatorias para que, a la hora de diversificar, el mérito tenga el mayor peso posible, y el condicionante socioeconómico el menor (Singapur). Frente al resto, opta por enseñar más a los que más lo necesitan, y establecer mínimos más elevados.
Tal y como yo lo veo, el facilismo estaba detrás de la Logse (aprobada en 1990 por el PSOE), que gracias a la incompetencia técnica de los responsables consiguió disminuir los objetivos del currículo mientras disparaba el fracaso escolar (porcentaje de alumnos que salían del sistema educativo sin el título básico, en este caso el de la ESO) en España por encima del 30%. La LOCE (o Ley de Calidad, aprobada por el PP en 2002) intentaba abordar el problema, pero en mi opinión se quedaba corta y estaba más cerca de la diversificación que del responsabilismo, aunque nunca lo sabremos, pues fue paralizada por Zapatero en su segundo Consejo de Ministros. La LOE (aprobada por el PSOE en 2006) vuelve sobre el facilismo, pero con unas medidas técnicas mejores que las de la Logse y algo de diversificación, lo que les permitió ir bajando el fracaso paulatinamente sin empeorar los resultados del sistema (ni mejorarlos tampoco, salvo un leve repunte en Lectura), pero con el efecto secundario, poco estudiado, de la avería del ascensor social. La Lomce (aprobada por el PP en 2013, sin derogar la LOE) es un engendro sobre el que tendríamos que hablar más detenidamente, pero que en líneas generales consiguió detener algo la caída del fracaso a la vez que empeoraba nuestros resultados generales en PISA. Se podrá discutir si esa ley obtuvo tan malos resultados por sí misma o por la errática gestión posterior, pero acabó con las pretensiones del PP de ofrecer un modelo alternativo a la Logse a la vez que conseguía borrar los tradicionales buenos resultados de algunas comunidades gobernadas por los populares en PISA. [1]
La evolución del fracaso puede verse en el siguiente gráfico (fuente), donde ya se vislumbran los efectos del "aprobado Covid" del que hablábamos en una entrada anterior. Y, a continuación, un gráfico con nuestros resultados históricos en PISA (fuente) [2].
El gráfico superior representa la evolución del fracaso escolar en España desde que se pudo medir, cuando todos los alumnos de 16 años habían sido escolarizados en el sistema Logse. Hoy ya nadie lo recuerda, pero el fracaso final de la Ley General de Educación (LGE, 1970), a principios de los 90, fue del 18% (aunque es más realista hablar de un fracaso entre el 20 y el 23% durante el último lustro de esa ley). Es cierto que ese fracaso se medía a los 14 y no a los 16, pero también lo es que la Logse sólo incorporó a la escolarización a un 5% de la población hasta los 16 años (el resto ya estaba escolarizado a esa edad cuando se aplicó esta última ley) y, más importante, que la LGE permitía seguir estudiando a los que no obtenían el título, y la Logse no. [3] La Logse arrancó con un 27% de fracaso y lo dejó en un 31%, pues creció a medida que iban llegando los alumnos que también estudiaron la Primaria Logse (es decir, dejaba fuera del sistema reglado a más de un cuarto --casi un tercio-- de la población). La LOE introdujo algunas novedades importantes que, aunque insuficientes, mejoraron algo el panorama: planes de lectura, refuerzos (muy tardíos) y diversificación. Esto supuso que el fracaso se redujera cinco puntos de forma prácticamente inmediata y, al final, cinco puntos más. La Lomce se estrenó con una subida del fracaso de cuatro puntos (no soy capaz de averiguar la razón técnica), pero pronto se quedó en niveles similares a la LOE hasta que el "aprobado Covid" lo dejó en un 16%.
En PISA, los resultados de la Logse se mantuvieron sin apenas cambios en la LOE (salvo un ligero repunte en Lectura en 2015), pero los de Ciencias y Lectura tuvieron una caída significativa con la Lomce en 2018 (si es que esa bajada no se debe al famoso error técnico, pero no lo creo: tengo por ahí escritos los argumentos en los que me baso, y algún día de estos me decidiré a publicarlos).
Como hemos visto, el fracaso escolar se redujo de forma sustantiva entre 2008 y 2016, pero los resultados de PISA se mantuvieron estables hasta 2015. Como sabemos bien, el fracaso escolar es en principio un indicador que depende de las decisiones de los docentes, pero que se ha intentado manipular por los políticos por medios extraeducativos. Sin embargo, la única forma de mejorar en una evaluación externa como PISA es enseñando más y mejor a los alumnos. Una parte de la mejora en el fracaso escolar puede deberse a la diversificación, pero es razonable pensar que una reducción del fracaso que se deba a una mejora de la enseñanza debe reflejarse en PISA, mientras que si la mejora del fracaso se debe a un abaratamiento del aprobado los resultados de PISA no subirán (bajarán, incluso).
Sin embargo, basarse sólo en las medias de PISA para saber si el descenso del fracaso se debe a una causa u otra es bastante aventurado. Creo que un acercamiento algo más razonable (aunque aún incompleto) se puede basar en el cálculo de la frontera del fracaso en las puntuaciones de PISA. Si tenemos un 25% de fracaso escolar, es sencillo calcular qué puntuación en PISA el percentil 25, y si otro año el fracaso está en un 20% se calcula el valor del percentil 20, y luego se comparan ambos niveles. La idea es que dicho dato indica la frontera entre el aprobado y el suspenso ese año, el límite entre fracasar o no. Es, por supuesto, una aproximación teórica, porque habrá alumnos que aprueben con menos y otros que fracasen con más (de hecho, para desgracia de nuestro sistema educativo, en 2015 el peso del nivel sociocultural de la familia del alumno a la hora de fracasar o no era el más elevado del mundo). También hay que tener en cuenta que PISA examina a alumnos repetidores y otras cuestiones pero, en general, creo que es un cálculo razonable.
Los resultados del método descrito pueden verse en el siguiente gráfico, donde se han calculado los percentiles del fracaso de cada año para las tres escalas de PISA. Al final de esta anotación pueden también ver los resultados completos con sus errores típicos en una tabla [4]:
Lo que el gráfico muestra es que en el tránsito de la Logse a la LOE (entre 2006 y 2009) no hubo cambios significativos en la frontera del fracaso a pesar de que este descendió, pero entre 2009 y 2015, el periodo de desarrollo de la LOE, hubo un descenso significativo en Ciencias y Matemáticas, pero no en Lectura. Estos datos hacen sospechar que parte de ese éxito no se debió tanto a una mejora de los conocimientos de los alumnos como a una bajada en la exigencia, es decir, un maquillaje de los datos. En cualquier caso, siempre hablando en general y para toda España, dicho descenso de nivel no puede calificarse sino de leve. Ahora bien, en el salto de la LOE a la Lomce (de 2015 a 2018) el descenso de la frontera es significativo en las tres escalas de PISA, y sustantivo en Lectura, pues la caída es de 26 puntos. Es decir, los cambios curriculares de la Lomce (especialmente la introducción exhaustiva de las competencias) habría traído una bajada del nivel de exigencia del sistema educativo, precisamente una de las cuestiones que se vanagloriaba de combatir.
Una vez más se demuestra que en educación (como en tantos otros sitios) las políticas basadas en las supuestas "buenas intenciones" pero técnicamente incompetentes consiguen efectos contrarios a los deseados. No les resultará extraño que a menudo me refiera a la Lomce como "la Logse de derechas".
Ahora bien, la Lomloe, a pesar de declarar que quiere revertir la Lomce, precisamente lo que parece hacer es potenciar algunos de los errores de dicha ley, especialmente en la insistencia en las competencias y en las rebajas curriculares, aparte de los esperpénticos sesgos ideológicos. El resultado previsible es que la tendencia al maquillaje y la caída general del nivel de exigencia continúe su tendencia. No es de extrañar que algunos intelectuales hayan denunciado que esta ley puede perjudicar a los alumnos "condenándoles al sometimiento moral y a la incompetencia intelectual".
NOTAS:
[1] Siempre es complicado relacionar leyes con resultados educativos, al menos han de tenerse en consideración los tiempos: desde que una ley es aprobada hasta que se manifiesta su influencia en los resultados educativos han de pasar entre tres y cinco años, y no lo hace totalmente hasta seis u ocho años después. En el caso de la Logse, con cambios de mayor calado y aplicación a cámara lenta, los tiempos fueron aún mayores. Dado el ritmo de aprobación de leyes educativas en España en los últimos tiempos, comprenderán que es difícil separar las influencias de una u otra. [Volver]
[2] Algunas precisiones sobre los gráficos. Sobre el primero, el fracaso escolar está calculado sobre la tasa bruta de graduación, el porcentaje de población de la edad teórica de graduación (16 años) que se gradúa ese año efectivamente. Es cierto que los alumnos de 16 años (o que a lo largo de ese año cumplen los dieciséis, para ser más precisos) pueden graduarse al año siguiente, pero se supone que se compensan con los que se han graduado este año pero ya han cumplido 17 o más. Es la medida más exacta de la que disponemos. Si restamos a 100 la tasa brita de graduación, tenemos el fracaso escolar.
Sobre el segundo, me gusta poner siempre en los gráficos el cero para evitar sobredimensionar los cambios en las líneas (o barras), pero en los resultados de PISA el cero no tiene sentido (no significa que un alumno no sepa nada: en PISA cuentan las desviaciones sobre la media). Tampoco es conveniente poner barras sobre las desviaciones de la media (usualmente, pongamos por caso, 500 puntos) porque visualmente tendemos a interpretar negativamente ligeras variaciones por debajo de la media, y tendemos a considerar mayores distancias pequeñas alrededor de la media. Creo que lo más acertado es poner el eje en 400 puntos (para los países europeos), ya que interpretamos como poco significativas pequeñas variaciones y tendemos a darle más peso (o notar más) diferencias importantes (por encima de los 15 puntos).
Además, a algunos les extrañará que no ponga los resultados de dos escalas para las ediciones de 2000 y 2003. Eso se debe a que PISA toma como referencia el primer valor cuya escala ha sido la principal en una edición (es decir, el año en que la materia ha tenido una mayor presencia en los test: Lectura en 2000, Matemáticas en 2003 y Ciencias en 2006), y considera que el error de comparación ediciones anteriores es demasiado grande como para sostener una continuidad. Aún así, pueden cometerse errores que persisten: por ejemplo, el dato de Lectura de 2006 para España es anómalo debido a algúnos errores técnicos, y es probable que se subestimara en alrededor de 15 puntos. [Volver]
[3] Por supuesto, no van a encontrar rastros de estas sombras en los preámbulos de la LOE y la Lomloe, donde se destacan los logros de la Logse sin citar los infinitamente superiores de la LGE, mientras se justifica la Lomloe por la polémica suscitada por la Lomce, como si la Logse o la LOE no hubieran suscitado polémica alguna. Todo con la típica vaguedad ayuna de datos. Pero ya sabemos que la educación es monopolio de la izquierda, y sus leyes son siempre objeto de una inmensa hagiografía. [Volver]
[4] Por si alguno tiene curiosidad por ver los datos exactos o comprobar la significatividad de alguna diferencia, dejo la tabla con los errores típicos. [Volver]
Percentil del fracaso aplicado a las escalas de PISA (2000-2018). España
PISA 2000
EscalaPerc.Res.ET
READ26,64404,8
MATH26,64194,4
PISA 2003
EscalaPerc.Res.ET
READ28,14303,7
MATH28,14352,8
SCIE28,14313,3
PISA 2006
EscalaPerc.Res.ET
READ30,84222,7
MATH30,84372,6
SCIE30,84442,9
PISA 2009
EscalaPerc.Res.ET
READ27,04322,9
MATH27,04302,6
SCIE27,04372,8
PISA 2012
EscalaPerc.Res.ET
READ24,94292,6
MATH24,94242,5
SCIE24,94392,4
PISA 2015
EscalaPerc.Res.ET
READ22,44303,5
MATH22,44213,0
SCIE22,44242,9
PISA 2018
EscalaPerc.Res.ET
READ22,24042,3
MATH22,24132,0
SCIE22,24122,0
Fuente: Elaboración propia sobre microdatos de PISA, varias ediciones, a partir de la tasa bruta de fracaso escolar.
[Volver]

jueves, 2 de diciembre de 2021

Debate sobre la utilidad de la repetición, en el Consejo Escolar de la Región de Murcia

He mantenido un agradable debate, en el marco de una iniciativa del CERM denominada "Los debates del Consejo Escolar", bajo el título de "¿Es útil la repetición?". Ambos ponentes (Juan Manuel Moreno Olmedilla, profesor de la UNED, aunque ha trabajado durante muchos años en el Banco Mundial, era mi colega) coincidimos en que la repetición era una institución cara y poco eficiente en la actualidad, aunque estuvimos menos de acuerdo en cómo acabar con ella.
En mi opinión, la repetición comenzó a perder sentido con la implantación de la Logse, pues a partir de dicha ley se transformó en el principal elemento de discriminación del sistema. Sin embargo, a partir de entonces se convirtió en el testigo de que algo no estábamos haciendo bien con el sistema educativo: la repetición se había vuelto disfuncional, pero porque encarnaba las disfuncionalidades de la gestión del sistema. Por ello, me parece que intentar reducirla como lo está planteando el Ministerio es un error, pues sólo maquillará la disfuncionalidad del sistema al eliminar a un testigo, pero no corregirá lo que está mal, que es mucho. Me inclino, más bien, por actualizar el currículo de Primaria y establecer refuerzos durante esa etapa, en vez de facilitar el tránsito sin que los alumnos estén preparados para afrontar con garantías la ESO.
Aquí les dejo el vídeo del debate, que dura más de dos horas, pero lo cierto es que con un formato muy ágil y con muchas preguntas del público. El debate propiamente dicho comienza en 29'24" y acaba 1:23'40", dando lugar a las intervenciones del público.


En el curso de la preparación del debate me topé con unos datos interesantes que no puedo por menos que mostrar aquí. El primer gráfico lo empleé en el debate, mientras que el segundo no, ya que me parecía que era un tema tangencial a lo que allí se discutía. El primero, que pueden ver a continuación (click para ampliar) muestra la evolución del porcentaje de alumnos que promocionan en 6º de Primaria y 1º y 4º de la ESO (estos dos último muestran también los que promocionan sin asignaturas pendientes). Lo que se ve es que nuestro sistema educativo ha mejorado las tasas de promoción en 6º de Primaria (en realidad, en todos los cursos de Primaria, pero no cabían) y en los tres primeros cursos de ESO (aquí represento sólo 1º), mientras que en 4º la evolución es algo más errática. Por supuesto, toda esta mejora en la promoción no ha venido avalada por una mejora de la calidad, como muestra nuestro estancamiento en PISA. La fuente de los datos es la estadística del Ministerio de Educación. Enseñanzas no universitarias. Alumnado. Resultados académicos. Series. Porcentaje de alumnado que promociona de curso por enseñanza.
Uno de los aspectos más importantes de este gráfico es la diferencia de porcentajes de promoción entre 6º de Primaria y 1º de ESO. Tal y como yo lo veo, un sistema eficiente no puede tener unos saltos tan importantes en el nivel de exigencia, y que eso ocurra indica que los alumnos que propocionan en 6º de Primaria no están preparados para enfrentarse a la ESO con garantías. Como indico en el debate, esa es la principal fuente de desigualdad y fracaso en el sistema educativo español, aunque rara vez se aborde.
Pero lo que más me interesa hoy es lo ocurrido el último año en todos los cursos, mejoras de dos o tres puntos en Primaria y de cinco o seis en la ESO, una aceleración asombrosa si pensamos que no ha sido el resultado de ninguna norma de carácter nacional (que aún no se ha publicado) ni, que yo sepa, de otras instrucciones oficiales, aunque sí de las instrucciones de la pandemia. Aún no tenemos forma de comprobarlo, pues PISA sale a finales de 2023 y no tenemos otra evaluación pública para verificarlo, pero mucho me extrañaría que dicha mejora en los porcentajes fuera resultado de una mejora real en el conocimiento de los alumnos. Como se puede ver en el gráfico siguiente, esa mejora ha existido en prácticamente todas las comunidades.
Salvo el caso de Melilla (y sólo en los que promocionan sin pendientes), todas las comunidades han mejorado sustancialmente los porcentajes de promoción en 1º de la ESO (que es el ejemplo que traigo, aunque es similar en otros cursos, como pueden comprobar en el enlace a las estadísticas del Ministerio) sin ninguna razón aparente. En la promoción (en verde), se han mejorado desde los dos puntos del País Vasco a los quince de Ceuta. En la promoción sin pendientes (naranja), la mejora es de casi el doble (ocho puntos de media) que van desde los 3,5 puntos de la comunidad Valenciana a los 12,7 de Cantabria. El fracaso escolar en 4º de la ESO, aunque deje el análisis para otro momento, ha descendido de forma paralela en ese curso. De estos datos, me preocupa por un lado haber tomado un camino en el descenso de la exigencia que no tiene fin, y por otro que se están desincentivando a los centros que habían optado por mantener estándares de calidad algo superiores a la media. Ya veremos si, cuando pase la situación de excepcionalidad, se continúa con esta tendencia, y sufriremos las consecuencias en posteriores evaluaciones.

jueves, 18 de noviembre de 2021

Me entrevistan en A la Ventura

Han tenido a bien entrevistarme en el programa "A la Ventura", en À punt, la televisión autonómica valenciana. No he sido capaz de colgar el vídeo como Dios manda, y por tanto sólo puedo poneros el enlace al programa completo, que dura dos horas. Aparezco entre el 1:22:26 y el 1:26:00, en diferido, porque tenía una reunión a la hora del programa.
Justo después ha intervenido Miguel Soler, secretario autonómico de Educación, que ha despachado mi intervención con dos lugares comunes y ha pasado a otra cosa. Lo conozco desde hace bastantes años, y entonces parecía que sabía algo más. Pero bueno, el mismo se califica al pretender que, cuando uno critica al sistema educativo y a los políticos que lo gestionan, se está metiendo nada menos que con los alumnos, los padres y los profesores. Es una táctica que he visto en otros políticos inútiles, pero de este esperaba algo más. En fin, llegó a su cargo actual en 2015, donde se encontró con una tasa de fracaso escolar en la Comunidad Valenciana del 30,7% y unos resultados en PISA de 499 puntos en Lectura, 485 en Matemáticas y 494 en Ciencias; en 2019 se había reducido el fracaso escolar al 24,3%, pero en PISA 2018 había perdido 26 puntos en Lectura, 12 en Matemáticas (no significativos) y 16 en Ciencias. Quizás en su cabeza no vea mayor contradicción, pero es un ejemplo vivo de la modernidad paleolítica de la que hablo en la entrevista. Estos datos no le impiden presentarse como "coautor del nuevo sietema de aprendizaje" impulsado por el Ministerio.
También mentó la memez esa de que es un lugar común que se piense que las generaciones anteriores eran mejores, basada en tres citas (hay miles de ellas que dicen lo contrario), pero nunca preguntándose si tenían razón. Y, al menos en uno, la crítica de Sócrates (si es que la dijo), sabemos que tenía bastante base: la generación criticada perdió el imperio, destruyó la democracia y casi consiguió que arrasaran su ciudad. Las tres citas (podéis encontrarlas en centenares de páginas de internet) lo único que muestran es que, igual que es posible progresar, también es posible empeorar, y que hay que estar vigilantes porque dicho empeoramiento trae consecuencias graves.
La tertulia comienza en el 1:33:43, y están presentes Glòria Marcos, exdiputada autonómica de IU (EU-PV) y perteneciente a CCOO, Vicent Franch, ex-magistrado y profesor de Constitucional en la UV, y Marta Martín, ex-diputada nacional con Ciudadanos, antigua portavoz de Educación de ese partido y actualmente catedrática en la UA. A Marcos no le gustó nada mi entrevista, y contrargumentó soltando los tópicos nunca oídos de la educación elitista y la lista de los reyes godos. También dejó caer que la Logse incorporó a un 30% de alumnos, cuando la realidad es que incorporó a un 5%. Franch fue capaz de nadar entre dos aguas sin mojarse, mientras que Marta Martín defendió el sentido común acertadamente y con bastante gracia, mostrando las contradicciones de su cotertuliana.
Para acabar, os dejo la entrevista en bruto que me hicieron, sin ningún tipo de edición. No porque esté disconforme con el tratamiento que me dieron, más bien al contrario, no tengo queja alguna. Pero hay alguna pregunta que no cupo al final, y puede resultar interesante. Tiene peor sonido y empezamos hablando de cosas técnicas, pero es lo que tengo. Son tan solo siete minutos, espero que os guste.

martes, 2 de noviembre de 2021

Presentación: ¿afecta la enseñanza bilingüe al rendimiento?

En el último PISA 2018 la Comunidad de Madrid identificó a sus centros bilingües, y hemos realizado un estudio donde tratamos de dilucidar, con esos datos, si la enseñanza bilingüe tine algún efecto en el rendimiento de los alumnos en las materias impartidas en inglés o en lectura en español. El miércoles 17 de noviembre presentamos el informe en el Colegio de Doctores y Licenciados de la Comunidad de Madrid, en la calle Fuencarral, 101, a las seis de la tarde. Aquí os dejo la invitación, por si alguno quiere acompañarme.
En cuanto el informe esté disponible para el público, os dejaré un resumen y colgaré la versión electrónica para que podáis leerlo.

viernes, 18 de junio de 2021

Entrevista sobre la equidad de nuestro sistema educativo

El periodista radiofónico Paco Prian me vuelve a hacer una entrevista sobre la equidad del sistema educativo español para su canal de youtube, La bitácora d Paco. Aquí la comparto con ustedes:



El documento al que hacemos referencia en la entrevista es Diversidad y libertad: Reducir la segregación escolar respetando la capacidad de elección de centro, de Álvaro Ferrer y Lucas Gortázar. La "pega" principal que le pongo a este estudio es que deja sin tratar las dos principales fuentes de inequidad del sistema: la de sistema y la de gestión. Creo que, sin abordar ambas, se ponen parches sin atacar el problema de fondo.
En la charla hay algunas cosas no suficientemente explicadas, porque pueden dar lugar a confusión. Cuando hablo de "padres sin estudios" debería decir "sin estudios de Secundaria superior", es decir, sin título de FP o Bachillerato, que es la categoría educativa resumida más baja que utilizamos los investigadores. En PISA 2018, uno de cada cinco alumnos vienen de una familia donde el nivel de estudios más alto de ambos progenitores es precisamente ese.
Otra cuestión es la de los barrenderos de México, demasiado coloquial. Lo que quiero decir es que el sistema educativo mejicano consigue que los alumnos de 15 años tengan un nivel escolar muy parecido (muy equitativo, dirían algunos, equivocadamente según mi opinión), pero que dicho nivel en España sólo les habilitaría para trabajar en puestos de cualificación baja, y por tanto dicho sistema es un obstáculo para el desarrollo futuro del país.
Seguro que hay más cosas que explicar, pero con esto, de momento, basta. Si hay alguna cuestión más la pondré como post scriptum o en los comentarios.

miércoles, 24 de marzo de 2021

Breve intervención en una charla con Inger Enkvist

El 25 de marzo, a las siete de la tarde, tendremos un encuentro virtual con Inger Enkvist, a través de La Bitácora XXI, con el título "La educación hoy: entre la desazón y la esperanza". Pueden ver el vídeo en directo en youtube. Y está previsto que se puedan hacer preguntas a la ponente.
Para los que no podáis verlo en directo, pondré el enlace al video en cuanto disponga de él.

######################

Esto ha sido más rápido de lo que esperaba. Pueden ver la charla completa aquí.

viernes, 30 de octubre de 2020

Entrevista sobre PISA 2018

El periodista radiofónico Paco Prian me hace una entrevista sobre PISA 2018 y otras cuestiones del sistema educativo español para su canal de youtube, La bitácora d Paco. Aquí la comparto con ustedes:



A veces me alargo mucho en las respuestas, por un lado porque uno es así, y por otro porque es difícil trasladar lo que dicen los datos en una charla sin poder mostrarlos. Aún así, creo que se dicen cosas interesantes. Voy aprendiendo para el canal de vídeo que estoy montando y que verán próximamente.

miércoles, 16 de octubre de 2019

Segundo error grave de PISA en España: ISEC 2015

En una evaluación tan enorme como PISA es muy fácil cometer involuntariamente algún error técnico en un país o dato importante. En el ámbito científico, tan natural como cometerlos debería ser el reconocerlos y rectificarlos, pero muy a menudo los egos y los prestigios de las instituciones se interponen, y los fallos se tienden a tapar. En mi opinión, no es cometer fallos lo que te hace poco fiable, sino cómo reaccionas cuando eres consciente del error. El caso es que, en las seis ediciones que llevamos de PISA, la OCDE ha cometido por lo menos dos errores técnicos importantes en nuestro país. El primero fue en los resultados de Lectura en 2006, y el segundo en el Índice Socioeconómico y Cultural (ISEC, ESCS en inglés) de 2015. No ha rectificado ninguno, y sólo los han reconocido a nivel político y con la boca chica.
El error de 2006 tuvo como resultado una caída de 20 puntos en la prueba de Lectura con respecto a 2003, y que se saldó con un aumento de 20 puntos en 2009. Afectó a la media española y, de las comunidades que habían tenido muestra ampliada en 2003, perjudicó sobre todo a Castilla y León (21 puntos), menos al País Vasco (10 puntos) y apenas a Cataluña (diferencia no significativa). Políticamente apenas tuvo efecto alguno, salvo en Castilla y León, donde hubo cierto escándalo y se tomaron algunas medidas técnicas encaminadas hacia el fomento de la lectura en Primaria. En el conjunto nacional el dato aparecía por primera vez en el texto de la página 69 del informe, mientras que la tabla (pág. 71) aparecía sin comparar con 2003 –la especialidad de Roca, entonces director del Instituto de Evaluación y hoy presidente del Consejo Escolar del Estado, era sumergir los datos "inconvenientes" en el fondo de la hojarasca. El texto ya aludía a un posible error técnico (aunque por causas equivocadas) y aprovechaba para justificar alguna de las medidas de la recientemente aprobada LOE:
"El descenso relativo producido entre 2000 y 2006 y la comparación internacional justifican la propuesta realizada en la LOE de dedicar un tiempo específico a la lectura en todas las etapas y en las diferentes áreas y materias."
Cuando aparecieron los datos de PISA 2009, España creció 20 puntos, mientras que todas las comunidades con muestra ampliada en 2006 mejoraron sus resultados en Lectura (en ese año era, además, la competencia estrella[1]), encabezados por los 25 puntos de Castilla y León. Todo el mundo sacó pecho entonces y el asunto se olvidó. Si hoy vemos los datos, queda como una anomalía en la serie (gráfico 2.b, más abajo) y poco más (aunque en algún informe nacional de otros países he visto que ponen a España como ejemplo a seguir por su evolución en Lectura entre 2006 y 2015: aviados van). Mi hipótesis entonces fue que había un fallo en algún ítem de anclaje, pero entonces no tenía la competencia técnica necesaria para averiguarlo. En algún sitio me dijeron que la OCDE había reconocido el error en alguna reunión técnica, pero no me contaron cual era el problema concreto.

Qué es el ISEC y por qué es importante

Como ya se ha dicho, el segundo error tiene que ver con el ISEC, o Índice Socioeconómico y Cultural, que es un índice complejo y, probablemente, la segunda variable más importante de PISA tras las escalas de rendimiento (Lectura, Matemáticas, Ciencias). Pero para entender el error antes hay que saber qué es esta variable, por qué es importante y cómo se obtiene (si ya la conoce bien puede saltarse este epígrafe, aunque los problemas que esconde el ISEC, detallados al final, probablemente le resulten menos familiares).

El ISEC es un índice compuesto que intenta recoger en un solo número el contexto socioeconómico y cultural de la familia del alumno, y que consta de tres elementos básicos: el nivel de estudios más alto de ambos padres, expresado en años de escolarización mínimos para la obtención de ese título en cada país (PARED); el estatus laboral más alto de ambos padres (HISEI), expresado en la escala internacional ISCO (International Standard Classification of Occupations en inglés, en español CIUO, Clasificación Internacional Uniforme de Ocupaciones); y otro índice denominado HOMEPOS (de "home possessions", bienes en el hogar en inglés), compuesto de 25 variables sobre lo que el alumno tiene en su casa, desde un diccionario al nº de coches o libros (la mayoría de las variables pueden verse en la carta enlazada un poco más abajo). Un cuadro detallado, obtenido de la página 340 del PISA 2015 Technical Report, es el que se reproduce a continuación: 

Gráfico 1

La formación de un índice es un proceso matemático complejo que se puede realizar por varias vías (análisis de componentes principales, como es el caso del ISEC, análisis factorial o por medio de los modelos de la Teoría de Respuesta al Item, como es el caso de HOMEPOS), pero que básicamente tiene una serie de pasos comunes: se parte de una serie de datos numéricos directos, obtenidos generalmente de un test; estos se introducen en una función de cálculo compleja para obtener una serie de parámetros generales; con estos parámetros generales y los valores en el test de cada individuo se obtiene una puntuación particular para cada sujeto; en el caso de PISA, estas puntuaciones sufren una transformación adicional para que el conjunto tenga una media de cero y una desviación típica de uno. El objetivo de estos cálculos y transformaciones es averiguar qué importancia tiene cada variable inicial en la variable final, y emplear tal información en el cálculo del índice para cada individuo.
Entiendo que esta explicación puede ser un lío para aquellos poco familiarizados con estas técnicas, y muy básica para aquellos que ya las conocen, pero eso es algo difícilmente evitable. Para intentar desliar a los primeros, dejo una explicación más práctica en la segunda nota ([2]),pero creo que esto basta para comprender el proceso y entender dónde puede estar el error.
El ISEC tenía la particularidad de tener media cero y desviación típica uno en cada una de las ediciones de PISA, pero esta característica significaba que ese índice no era comparable de una edición a otra, y no se podía utilizar como variable de tendencia como las de rendimiento (es decir, se podía comparar el resultado de Matemáticas de una edición a otra, pero no el ISEC). Para solucionar este problema, la OCDE recalculó para la edición de 2015, el denominado "ISEC de tendencia" (ESCS trend, que puede encontrarse aquí, en el apartado Rescaled Indices for Trend Analyses). Para ello tomó como base los datos de 2015 y utilizó esos parámetros para recalcular los índices de todos los alumnos de las ediciones anteriores (el proceso es algo más complejo: quien quiera puede consultar los detalles en el capítulo 16 del PISA 2015 Technical Report, especialmente las págs. 339-342). El resultado de este sistema es que el ISEC es comparable no sólo entre países (o alumnos) dentro del mismo año, sino que se puede seguir la tendencia de un país a lo largo de las ediciones, o equiparar los datos de un país en un año determinado con los de otro país en otra edición de PISA.
Pero el cálculo del ISEC tiene algunos problemas:
1. Definición y elección de variables. Aunque el nivel de estudios y el estatus laboral aseguran buena parte del estatus socioeconómico y cultural, las variables pequeñas que forman la otra pata del ISEC afinan el cálculo, ordenan dentro de las mismas categorías. Sin embargo, aunque todas las variables contribuyen al índice (si no, no estarían ahí), pueden existir otras variables que contribuyan al índice en mayor medida, mejorándolo. Hay que tener en cuenta que estas variables se eligieron a finales del siglo pasado, y que entonces no parece que hubiera un proceso serio de selección de variables con criterios técnicos, como mucho ha habido un cierto filtrado con el tiempo.
2. Significación de las variables. Algunas variables no significan lo mismo no sólo entre países, sino dentro del propio país. Por ejemplo, en el cuestionario se pregunta por el número de baños en casa, pero es bastante cuestionable que sea lo mismo tener tres baños en una casa en el centro de una gran ciudad que en una vivienda situada en un poblachón manchego. De hecho, sólo los tienen el 11,8% de los alumnos vascos o el 11,3% de los catalanes, por un 26,8% de los castellano-manchegos, por poner los extremos, cuando es evidente que el nivel de vida en las dos primeras es sin duda superior al de la tercera. Es una variable que funciona a escala municipal (es probable que si hay dos viviendas familiares en un mismo municipio o barrio, una con tres baños y otra con uno, la diferencia se deba al poder adquisitivo), pero no tiene por qué a escala regional ni tengo claro que a escala nacional (probablemente sí si comparamos España con Túnez, pero no si comparamos nuestro país con Alemania o Gran Bretaña).
3. Caducidad de las variables (tendencia). Ya he dicho anteriormente que las variables que sirven para calcular el ISEC se decidieron a finales del siglo pasado, y lo que entonces podían ser artículos más o menos exclusivos, hoy no tiene por qué ser así. Quizás el caso de los móviles sea el más evidente: en 2000 sólo el 16% de los alumnos españoles de 15 años tenía tres o más móviles en casa, mientras que en 2015 eran el 86%: ¿de verdad tal aumento corresponde a una elevación del nivel de vida o a los procesos propios de una saturación del mercado?
4. Capta mal las coyunturas. Quizás esta parte puede sorprender, aunque tiene cierta lógica. El ISEC no es sensible a las crisis coyunturales, como la que ha pasado nuestro país, entre otras cosas porque intenta capturar el entorno socioeconómico del estudiante a lo largo de su escolarización, pues se supone que es el que más pesa en el rendimiento. Por ejemplo, si uno de los progenitores se ha quedado en el paro a PISA le da lo mismo, pues pregunta por las características de su último trabajo, aunque ya no lo tenga. Por supuesto, el nivel educativo de los padres no cambia con la crisis (por tanto, dos tercios del índice apenas se mueven). Las variables que más tienen que ver con el nivel económico apenas se verán afectadas a corto plazo: las familias en crisis a lo mejor no tienen menos móviles o coches, sino que los tienen más viejos, etc.
Lucas Gortazar sugire en su The PISA "shock" in the Basque Country: Contingent factors or structural change? (pág. 11) que PISA debería ser más sensible a los cambios coyunturales, y que no hacerlo perjudica (o afecta) especialmente a los países del sur de Europa, y creo que tiene razón en que los cambios laborales de esa magnitud en una familia pueden afectar negativamente al rendimiento del alumno. Pero también pienso que PISA no está para eso. Es cierto que preguntar si algún progenitor se ha quedado en paro y desde cuando no vendría mal, pero nos olvidamos de que PISA es un complemento a los deberes que tendríamos que hacer en casa y que, evidentemente, no hacemos. Los deberes son, claro, tener un sistema decente y transparente de evaluación nacional del sistema educativo, adaptado a lo que necesitamos para entender nuestros problemas.

El segundo error técnico

Este Índice Socioeconómico y Cultural no es uno de tantos datos que se recogen en la evaluación, sino la variable que más influencia tiene como predictor del rendimiento de todas las que PISA mide (y así será hasta que se atrevan a incluir, por ejemplo, la inteligencia). De hecho, es muy habitual "corregir" los resultados cognitivos de PISA con esta variable de contexto (a menudo, de forma abusiva) para comparar los resultados entre países, regiones o alumnos en "igualdad de condiciones" socioeconómicas. Por ejemplo, mi amigo Juan Carlos Rodríguez sostiene desde hace tiempo la tesis de que, dado que España está estancada en los resultados de Lectura, Matemáticas y Ciencias de todas las ediciones, y puesto que el contexto socioeconómico y cultural no ha hecho sino mejorar, en realidad ese estancamiento es un empeoramiento de los resultados. Es una tesis plausible, pero hasta que no se creó el ISEC de tendencia era difícil de comprobar fehacientemente.
Precisamente estaba trabajando en comprobar esta tesis, y si era cierta, de cuánto estábamos hablando, y estos son los resultados para las tres escalas cognitivas (las barras verticales en cada punto corresponden al error de cada estadístico para un intervalo de confianza del 95%; no está de más recordar que tal error sólo sirve para comparar puntos en la misma serie, no entre serie distintas) [como siempre, click para ampliar]:

Gráfico 2.a

Gráfico 2.b

Gráfico 2.c

Como se puede ver, el punto ponderado de 2015 está mucho más arriba de lo que la serie permite prever en todas las escalas. Entre 2000 y 2012, los resultados ponderados por el ISEC (línea rojiza en los tres gráficos) habían caído 19 puntos en Lectura (un cambio sustantivo), 8 en Matemáticas (no significativo) y 10 en Ciencias, pero entre 2012 y 2015 habíamos recuperado más de lo perdido de forma sorprendente. Y digo sorprendente porque, primero, nada había cambiado de forma sustantiva en el sistema educativo como para producir tal resultado (el axioma de que ningún resultado cambia si no has tomado medidas antes es raramente creído por nuestros administradores educativos; el que sólo cambia –a mejor, claro– tomando ciertas medidas muy concretas les parece de ciencia ficción), y segundo, porque los resultados sin ponderar (línea azul en los tres gráficos) tampoco lo explicaban. Antes de meterme con el ISEC hice algunas comprobaciones adicionales: eliminar a los inmigrantes empujaba la serie hacia arriba, pero la tendencia continuaba igual; al comprobar el archivo de los datos regionales de España (en esta edición están separados), el salto de 2015 se mantenía incluso región a región. El sospechoso se mantenía y, efectivamente, se comportaba de forma extraña, como puede verse en el siguiente gráfico (línea azul para el ISEC de tendencia):
Gráfico 3

Ese cambio es una auténtica enormidad, no creo que tenga parangón en tan sólo tres años. Nada menos que una caída de 0,64 puntos (para una desviación típica de 1 de este índice para toda la OCDE). Para que se hagan una idea menos técnica, habíamos pasado de estar al nivel de Francia en 2012 al de Jordania en 2015. Y es cierto que hemos pasado una dura crisis, pero ni de tal magnitud, ni ha afectado sobre todo a la franja de edad que puede tener hijos de 15 años, ni el ISEC está planteado para capturar situaciones coyunturales (como ya hemos visto). Sencillamente, no podía ser. El caso es que, el mismo mes en que salieron los datos de PISA 2015 (diciembre de 2016) hice unos cálculos de urgencia y envié una carta a la OCDE de cinco páginas (aunque más de tres corresponden a tablas y gráficos) en la que explicaba por qué el dato español no era verosímil. Una traducción de la carta puede leerse aquí (el texto estaba en inglés, sólo se ha cambiado el nombre de la persona a la que iba dirigida). No recibí respuesta y me olvidé de ello: instituciones e investigadores tiene la Iglesia, ya se ocuparán.
Mientras he sabido, aunque no oficialmente, que el Instituto de Evaluación[3] (INEE), el interlocutor español con la OCDE en estos temas, ha hecho gestiones en el mismo sentido y, aunque en ese caso la macroorganización ha tenido a bien contestar, la respuesta ha sido, por decirlo castizamente, lentejas. Por otro lado, en los casi tres años transcurridos, y aunque he leído no pocos informes y artículos científicos donde han utilizado esta variable, todo el mundo parece actuar como si el error no existiera.

Profundizando en el error

Por razones que no vienen al caso he tenido que retomar el tema del error en el ISEC español, y podía elegir entre dos opciones: o reconstruir el proceso para encontrar el error, o buscar una vía alternativa que mostrase claramente el fallo. Dado que el proceso está descrito algo someramente en los documentos de la OCDE, que no tengo tiempo de ponerme a ello, y que mi ordenador actual (el año que viene me toca comprar uno nuevo) no creo que tenga la capacidad de proceso necesaria, me decanté por la segunda opción, bastante más sencilla (al final, una función de poco más de 20 líneas de código, no muy eficiente, pero que trabajaba en segundo plano): comparar los alumnos con los mismos parámetros que sirven para calcular el ISEC en nuestro país y en el resto de la base de datos de PISA.
La idea es que los alumnos con los mismos datos iniciales (los obtenidos de los test) tienen que obtener el mismo ISEC. Por complejo que sea, el cálculo de un índice es un proceso matemático, lo que significa que si partes de los mismos parámetros llegas a los mismos resultados. Por tanto, fui comparando el ISEC de los alumnos españoles con el del resto de la OCDE con los mismos parámetros iniciales –nivel de estudios de los padres, estatus laboral de los mismos y el índice HOMEPOS (los dos primeros exactos, el tercero en intervalos de una décima de índice)– y luego comparé el ISEC de ambos grupos. Ya puestos, hice el mismo proceso con los otros datos de España (en 2015 España tiene dos grupos de datos: uno que representa a España como país y otro con los datos de la muestra ampliada de todas las CCAA) y con otros países de nuestro entorno.
Estaba en este proceso cuando reparé en la nota 10 al final del capítulo del PISA 2015 Technical Report (pág. 343), donde puede leerse lo siguiente:
10. In October 2016, it turned out that the PARED variable was coded incorrectly for Spain, Lebanon and Latvia. As a consequence, the ESCS calculation was based on incorrect variables in some of the countries. To avoid changing the values of ESCS for all countries, at a time where most reports were already completed, ESCS was recalculated only for the samples with mistakes in the original PARED values, using the results from the international ESCS calculation (i.e., constants for standardizing input variables, factor loadings, eigenvalue, and constants for standardising the ESCS). As a consequence of this partial recalculation, the ESCS mean across OECD countries is no longer exactly zero and the standard deviation is no longer exactly one. Instead, the respective descriptives are -0.0259 and 1.00001.
Vamos, supongo que lo clásico que los españoles pensamos que sólo ocurre en nuestro país, pero que por lo que parece ocurre también en el resto: en octubre de 2016 (a poco más de un mes de que se publiquen los resultados de PISA, se compartan las bases de datos y se publiquen los primeros tomos de análisis) alguien se da cuenta de que hay un error en una variable fundamental (PARED, que indica el nivel educativo más alto de los padres expresado en años de estudio) para el cálculo del ISEC en España, Letonia y el Líbano; los de arriba entran en pánico y el marrón va resbalando hasta los curritos de turno con el clásico "lo quiero para ayer"; con las prisas, las variables escogidas para el cálculo no son exactamente las mismas que las que se han utilizado con el resto, se tira para delante, nadie comprueba nada y el resultado es el que tenemos en el gráfico siguiente:

Gráfico 4

Es un gráfico difícil de entender a primera vista, pero no es complicado. Se ha calculado el ISEC de los alumnos de cada país (rojo) con el ISEC de los alumnos de la OCDE que tienen los mismos parámetros (azul). Así, si la puntuación fuera igual en el país que en el resto de la OCDE, los puntos rojos estarían en la diagonal del cuadrado, pero no es al caso. Lo que vemos es que hay una desviación de las puntuaciones, y que esta no es lineal, sino que va aumentando según disminuye el ISEC (de hecho, es nula cuando el ISEC es superior a 1,5, pero alcanza el medio punto cuando el ISEC se acerca a -2,5. La desviación total para España es de alrededor de tres décimas de punto.
En el resto de países (aquí les pongo cuatro de ejemplo, pero lo he comprobado en la cincuentena restante) no existe tal variación al aplicar el mismo método, y todos los puntos están en la misma diagonal:
Gráfico 5

Es un error importante, pero no explica toda la desviación, sólo una parte. Sospecho, basado en el artículo de Gortázar antes citado, que también hay un error en el cálculo del índice HOMEPOS (la tercera pata del ISEC), ya que no parece haber variaciones importantes en este índice tampoco, al menos en el País Vasco. Y puede haber más fuentes de error, mi apreciación personal es que es muy difícil que el ISEC español en 2015 esté por debajo de cero, pero eso sólo puede confirmarlo un recálculo del índice completo.
Nos queda por dilucidar otra cuestión: si todos los índices se han calculado basándose en los datos de 2015, ¿se podría haber arrastrado el error a los otros años? Pues puede que algún fallo menor se haya cometido, pero el error grueso antes descrito no parece que se haya trasladado a otras ediciones de PISA. Sólo he hecho alguna comprobación menor, pero como se muestra en el gráfico 6, al menos para la edición de 2009 en los países afectados (muestro sólo España y Letonia, pero tampoco en el Líbano hay desviación) no parece haber problemas.

Gráfico 6

No se me entienda mal: no estoy, ni mucho menos, con los que piensan que PISA carece de rigor ni ha de ser tomado en cuenta. Estos errores técnicos no invalidan en absoluto ni su trabajo ni sus resultados. Mi queja con la OCDE es otra: tiene que ver con lo que tiene de "ciencia áulica", uno de los mayores peligros (en mi opinión, claro) que tiene la ciencia hoy día; y con las libertades que se toman para ir más allá de lo que sus datos les permiten ir.

Notas:
[1] Cada edición de PISA tiene una competencia que se evalúa más en profundidad y pasa a ser la más importante. La Lectura lo fue en 2000 y 2009, y lo volverá a ser en 2018. Se van turnando, con Matemáticas y Ciencias, cada nueve años, o cada tres ediciones. [subir^]
[2] Intentaré poner como ejemplo un proceso más práctico para el cálculo de HOMEPOS, una de las tres partes del ISEC. La OCDE quiere una variable o índice que resuma los bienes que existen en el hogar donde vive el alumno, que son a su vez reflejo del nivel económico y cultural de su hogar, pero no existe un termómetro que mida tal cosa. Por ello elige una serie de rasgos observables y que pueden ser contestados por el alumno. Por ejemplo, si tiene o no un diccionario en casa (entre otras muchas cosas), el número de móviles o cuartos de baños en su hogar, o el número de libros. A cada variable observable le da un número: 0/1 si carece o tiene diccionario; de 1 a 4 entre no tener móvil en casa y tener tres o más; de 1 a 5 dependiendo del número de libros que haya en la vivienda (por ejemplo, el 1 significa entre 0 y 25, y el 5 más de 500), etc. La idea es que el número de libros es un indicador de nivel cultural, y el número de móviles puede mostrar el nivel económico, pero ¿cuánto debe contribuir cada variable al cómputo del índice? Lo que hace el primer proceso de cálculo es asignar pesos (es decir, conceder importancia) a cada variable dependiendo de lo que contribuya al índice final, y esos pesos son los parámetros generales de los que hemos hablado antes. El segundo proceso de cálculo usa esos parámetros para pasar de los datos observables obtenidos del test de cada alumno (por ejemplo, el estudiante tiene: 0,1,1,1,1,0,0,0,2,3,1...) a un número (por ejemplo, 1,4771) perteneciente a una variable continua que, supone PISA, es un reflejo fiel de la variable que pretendíamos medir. El último paso es convertir la variable a otra que tenga media cero y desviación típica uno, con lo que nuestro número aparece en la base de datos como -0,2317. Este número ya nos dice que el alumno tiene un ISEC algo inferior al de la media de la OCDE, y que si la media de su país es -0,8, en realidad tiene un estatus medio-alto con respecto a sus connacionales. El sistema es aún más complejo (en realidad en el sistema actual se manejan probabilidades y no solo pesos para calcular HOMEPOS), pero basta para hacerse una idea.[subir^]
[3] He estado haciendo recuento y, en los casi diez años que mantengo este blog, he citado al Instituto de Evaluación con varios nombres distintos (de hecho, ya lo llamo Instituto de Evaluación siempre, tenga el nombre que tenga) y lo he referenciado a cuatro direcciones web, sea por cambio de nombre del Instituto, sea por el cambio de nombre del Ministerio. Además, con cada cambio de web desaparecen cosas, o al menos he sido incapaz de reencontrarlas. Esto significa que no tardando mucho, este enlace se habrá roto de nuevo. En fin.[subir^]

martes, 4 de abril de 2017

Inger Enkvist en el Congreso

Esta mañana, Inger Enkvist ha hablado en el Congreso de los Diputados para asesorar sobre el pacto educativo. Su discurso inicial dura apenas 20 minutos, desde los 4'47" a los 24'00". Después un turno de preguntas, donde está el que se escucha a sí mismo, y el que intenta contradecir a la ponente agarrándose a lo anecdótico en vez enterarse de lo sustancial, Inger vuelve a hablar de los 56'15" (sí, se tiran media hora "preguntando") hasta 1h09'50". Sin más comentarios ni comparaciones, pueden verlo aquí.

jueves, 9 de marzo de 2017

Conferencia sobre la desigualdad educativa

Ayer, miércoles 8 de marzo, impartí una conferencia en el salón de actos de la Caja Rural del Sur, en Sevilla, sobre "El origen de la desigualdad educativa en España", invitado por CESUR Empresarios del Sur de España. Además de contar conmigo (después de ser recomendado, nada menos, que por Inger Enkvist y Gregorio Luri: uno no sabe que hacer para agradecer tal honor), me trataron estupendamente. No se puede pedir más.
Antes de la conferencia grabaron en vídeo algunas preguntas y las han colgado en su canal de YouTube, y retransmitieron el acto en twitter. Les dejo ambos aquí. Creo que digo algunas cosas que no se oyen demasiado y aporto algunas ideas. Los vídeos son muy breves (el más largo apenas sobrepasa los dos minutos). Un resumen de la conferencia lo recogió Diego Genís, del Diario de Sevilla, por lo que también les dejo un enlace.
Pero primero vamos con los vídeos, cada uno contesta a la pregunta que lo antecede:
¿Qué opina de que los empresarios promuevan y defiendan la enseñanza de calidad?

¿Qué soluciones prácticas podrían llevarse a cabo para mejorar nuestro sistema educativo?

¿Qué relación hay entre empleo y modelo educativo?

¿Por qué Andalucía está a la cola de España en abandono escolar? ¿También en calidad educativa?


El artículo de Diego Genís recoge parte de lo que dije en la conferencia, y además apuntó en el titular la idea, en mi opinión, más interesante: La falta de exigencia como origen del fracaso educativo.
CESUR, además, recogió en twitter algunas de las ideas que expresé en la conferencia, y puso unas cuantas fotos. La primera es de Fernando Seco, presidente de CESUR, mientras me presentaba. En la última salgo junto a María Albendea durante el coloquio posterior. El autor de las fotos es Juan Carlos Muñoz. No sé quién retuiteó la conferencia, pero gracias. Aquí reproduzco los mensajes, extraídos del twitter de CESUR:
Se me olvidaba decir que a la conferencia asistieron el presidente de la Comisión de Educación del Parlamento de Andalucía, José Antonio Funes (Ciudadanos), y la portavoz de Educación de Ciudadanos en dicha asamblea, Marta Escrivá. Muchas gracias, no suelen hacerme tal honor.
Como veis, la idea de que una mayor exigencia en la escuela no lleva a un mayor, sino a un menor número de suspensos, se repitió varias veces. Es algo que a veces choca con la idea que tenemos, pero es que la mayor exigencia no es sólo para el alumno, también es para el profesor y el centro. Debería desarrollar más esta idea, pero lo dejaré, de momento, para otra anotación.
Actualización:
He visto que la Agencia EFE se ha hecho eco también de mi intervención en Sevilla.