Lo que se entiende como grave riesgo de abandono por un modelo algorítmico lo será según lo que se estableció, en un pasado, como tal en la creación de dicho modelo.
Daniel Amo
Aunque las herramientas digitales que se usan en el aula arrojan resultados descriptivos de hechos pasados, estos pueden utilizarse para proyectar situaciones futuras. De hecho, los algoritmos predictivos dependen de datos pasados para formular sus pronósticos. No es de extrañar entonces que los docentes puedan hacer los suyos.
Sin embargo, un resultado predictivo puede sonar alarmista y derivar a acciones indebidas. Es por este motivo que me surgió la idea del doble factor de comprobación en la predicción de datos. Es importante aprender a racionalizar las predicciones y las acciones recomendadas de los algoritmos.
Los algoritmos se sostienen en unas características que los hacen de especial atención y no tomarlos a la ligera. Quién está detrás de los algoritmos, cuáles son sus intereses o qué factores han tenido en cuenta para generar el modelo son algunas razones por las cuales mirar a los algoritmos de predicción con cierta relativización, puesto que:
- Esconden opiniones, prejuicios y maneras de pensar. Los visualizadores pueden simpatizar con los resultados por cuestiones de sesgo cognitivo sin cuestionar lo que están visualizando.
- Son beneficiosos para unos y perniciosos para otros. Los algoritmos son opacos y poco objetivos en cuanto a factores que construyen el modelo. Debemos preguntarnos qué intereses hay detrás de cada modelo y sobre que indicadores se construyó.
- Los patrones embebidos en los datos pasados se repiten una y otra vez. Que a todos se les mida igual no es una ventaja sino un inconveniente. Un algoritmo repite situaciones pasadas puesto que el modelo subyacente replica los factores de éxito en el momento de su creación.
Teniendo en cuenta que los modelos detrás de los algoritmos predictivos parten de datos pasados, los resultados están sujetos a normativas, contextos, coyunturas, prejuicios, presunciones y marcos procedimentales del pasado. Esto significa que los resultados se repiten predicción tras predicción, imposibilitando la entrada de nuevos datos si no hay nuevas revisiones del modelo.
La afirmación que abre el capítulo conlleva comportamientos adaptados a los resultados de los modelos y que los afectados terminen actuando de una forma u otra. O lo que es lo mismo, se replican comportamientos de éxito del pasado y se penalizan los fracasos.
Una comprobación de doble factor en la predicción de datos educativos significa tomar una cierta perspectiva de lo que se está visualizando. Las alarmas, avisos y puntos de atención en resultados de predicción pueden tener distintos significados, desde un simple comportamiento inadecuado hasta un grave riesgo de abandono. En cualquiera de los casos debería racionalizarse el grado de alarma. Es decir, se debe eliminar el riesgo de caer en el equívoco instantáneo alarmista sin antes analizar y meditar bien tanto resultados como posibles acciones desencadenadas -propias o propuestas por el dashboard-.
Para evitar caer en una alarma y acción solamente justificada por los resultados de un modelo algorítmico de predicción deben incorporarse dos factores más en el modelo utilizado:
- Factor humano
- Factor acontecimientos futuros
En resumidas cuentas, una predicción analítica no contrastada carece de valor y decanta la balanza hacia –quizás- el lado menos adecuado. Una comprobación de doble factor mejora las acciones derivadas de los resultados de una predicción analítica. El primer factor consiste en contrastar con la realidad. El segundo factor consiste en verificar la predicción analítica contrastando los datos presentados con datos futuros.
El segundo factor de comprobación genera una paradoja, puesto que no es posible contrastar con datos futuros. Esta carencia de datos obliga a que se deba esperar hasta la siguiente predicción para extraer conclusiones contrastadas y fundamentadas en la tendencia del patrón descubierto en primera instancia. Esta espera permite romper con la repetición de modelos de éxito enmarcados en el pasado y actualizarlos a base de la inclusión del factor humano con nuevos datos a contrastar.
Esto llevado al aula implica que antes de extraer predicciones hay que esperar a nuevos datos para contrastarlas, constatarlas o desmentirlas.