La inteligencia artificial no está aún lo suficientemente fina como para sustituirnos

La ausencia de exámenes presenciales por la COVID-19 obligó a las autoridades de Reino Unido a utilizar un algoritmo para calificar a los alumnos que optaban para pasar del instituto a la universidad.

Que le pregunten sobre inteligencia artificial a los miles de estudiantes de Reino Unido que ven que no pueden entrar en la universidad que quieren, por las notas que un algoritmo les ha puesto.

Como nuestra antigua Selectividad, ahora denominada EBAU, los exámenes A Level, son unas pruebas que los estudiantes de Inglaterra, Gales e Irlanda del Norte realizan al superar con éxito su bachiller. Los resultados de esta prueba académica determina qué estudios universitarios pueden cursar. Pero el confinamiento ha hecho imposible que se celebre dicha evaluación, así que alguien pensó en el gobierno inglés que eso lo solucionaba un algoritmo, y punto.

Pero el problema de los algoritmos, que es en de lo que se nutre la Inteligencia Artificial básicamente, siempre es el mismo, alguien tiene que programarlo con unas directrices, y según esas guías humanas, dependerá el frío resultado final. En este caso el algoritmo se programó para que tuviera en cuenta factores que ahora, vistos los resultados, se ven discutibles, y que han propiciado que los alumnos estén en su derecho de recurrir esas calificaciones.

En Escocia, el gobierno se vio obligado a cambiar completamente de táctica después de que decenas de miles de estudiantes fueran degradados por el algoritmo que cambiaba las calificaciones en función del rendimiento anterior de una escuela y otros factores. Anticipándose a que se repitiera la situación en Inglaterra, el gobierno inglés introdujo un «triple bloqueo», por el que, a través de apelaciones, los estudiantes podrían elegir su calificación a partir de una evaluación del profesor, de los resultados de su examen simulado o de una repetición que se realizará en otoño.

El lío ha tenido un efecto desproporcionado en los estudiantes de entornos desfavorecidos, con repercusiones en sus solicitudes de ingreso a la universidad y en sus carreras.

Y es que los estudiantes de minorías étnicas de orígenes más pobres han recibido una evaluación hacia la baja por cómo se ha diseñado el algoritmo, que tenía en cuenta, en primer lugar, las evaluaciones de los profesores que pueden ser más bajas que las de los estudiantes blancos debido a un sesgo inconsciente, según algunos estudios. Pero no todo el mundo está de acuerdo en este punto. La investigación de Kaili Rimfeld en el King’s College de Londres, basada en los datos de más de 10.000 alumnos, ha encontrado que las evaluaciones de los profesores son generalmente buenos predictores del rendimiento futuro en los exámenes, aunque el mejor predictor del éxito en los exámenes es el éxito previo en los mismos.

Pero, por miedo a estas evaluaciones, potencialmente sesgadas de los profesores, el algoritmo tuvo en cuenta el rendimiento histórico de la escuela y otros factores que podían tener poco que ver con el esfuerzo individual del estudiante.

De hecho, según TES, el 60% de las notas del A-Level de este año se han determinado a través de modelos estadísticos, no de la evaluación de los profesores.

Esto significa que un alumno brillante en una escuela de bajo rendimiento puede haber visto su nota rebajada por el mal resultado medio de los alumnos del año pasado de su escuela. Esto es lo que parece que ocurrió en Escocia, donde los chicos de entornos más pobres han tenido el doble de probabilidades de que sus resultados fueran rebajados con respectos a los de las zonas más ricas.

Para completar el rizo, el proceso de apelación en Inglaterra depende de la escuela, no del alumno, por lo que los alumnos no puedan apelar por sí mismos. Esto significa que los centros de enseñanzas con más medios podrán dedicarse a apelar en nombre de sus alumnos, mientras que aquellos centros más desfavorecidos y con menos personal, que suelen ser los situados en zonas pobres, verán que no pueden materialmente luchar por mejorar la nota de sus alumnos.

Los profesores están horrorizados por el desastre que se ha permitido que ocurra. Argumentan que los exámenes deberían haberse aplazado. Ahora, dicen, están en una situación en la que los resultados se han convertido en un asunto político y mantienen que los estudiantes de hoy son los votantes del mañana.

Las universidades también están mirando la situación con nerviosismo. Sospechan que muchos alumnos, al menos los de las escuelas que pueden permitirse las apelaciones, terminarán recibiendo la calificación que quieran. Esto tendrá un impacto en las plazas universitarias disponibles y si quienes van a poder acceder a ellas realmente se las merecen.

En definitiva, volvemos al principio. Los algoritmos sólo generan un resultado que previamente ha sido diseñado por el hombre. En este caso, el regulador de exámenes inglés Ofqual utilizó los datos sobre el rendimiento escolar para evitar la inflación de las calificaciones, cuando en cambio, debería haber utilizado los datos sobre el sesgo oculto para contrarrestar la injusticia social.

Resultado: un caos en el Reino Unido, que se une a la crisis económica provocada por la pandemia, a la aún existente alerta sanitaria por COVID-19… y al Brexit. Cóctel explosivo para las Islas.

Información elaborada a partir de un artículo en Wired UK de Amit Katwala @amitkatwala
Imagen de portada de Christian Erfurt