La palabra algoritmo designa un conjunto de acciones ordenadas para resolver un problema mediante pasos sucesivos, como por ejemplo un seguido de instrucciones en un lenguaje de programación. De hecho, mucho antes que las máquinas usaran algoritmos ya nosotros lo hacíamos, e incluso antes de concebir dicha palabra, por ejemplo en el uso de operaciones matemáticas para resolver un cálculo —ya desde los Babilonios se utilizaron algoritmos para realizar cálculos aritméticos como las divisiones—. Quizás este sea el motivo por el cual algunos marcan su origen en el matemático padre del álgebra «al-Kwārizmī» y otros del latín algobarismus que significaría «cálculo mediante cifras arábigas». Sin duda alguna su origen es de matiz matemático.
Más allá de las matemáticas y ordenadores, un algoritmo es algo que utilizamos todos los días y muchas veces inconscientemente y de forma automatizada. Lo hacemos cuando preparamos el desayuno, cocinamos, nos vestimos, buscamos vivienda e incluso estudiamos. Seguimos una serie de patrones y comportamientos que interiorizamos, automatizamos y «olvidamos» en segundo plano, ¿o a caso te paras a pensar cómo atarte los zapatos? Sencillamente los atas y listos. En cambio, si quisiéramos enseñar cómo atar los zapatos seguramente escribiríamos unos pasos a seguir bien detallados con dibujos incluidos. En definitiva, usamos un sinfín de algoritmos cotidianos, arraigados en nuestras culturas y sociedades, que integramos e incluso readaptamos para conseguir mejores resultados—un claro ejemplo son las recetas de cocina y su evolución generación tras generación—. Podemos dar por hecho que son un conjunto de acciones beneficiosas, que nos ayudan a ahorrar tiempo y además a automatizar para conseguir ciertos resultados.
Algoritmos en educación: predicción y decisión
A pesar de todos sus aparentes beneficios para la humanidad, últimamente estoy muy susceptible con los algoritmos educativos, sobretodo aquellos usados para predecir o automatizar decisiones. Unir algoritmo, educación, predicción y decisión genera un cóctel de fácil desequilibrio que puede terminar muy bien para unos pero muy mal para otros.
Quizás se deba al hecho de que últimamente salen noticias sobre los chinos y sus mezclas de learning analytics, con drones y algoritmos de machine learning para detectar emociones, posibles copias y alumnos distraídos. Estoy muy en contra de ciertos usos de este tipo de algoritmos, sobretodo si se les ha otorgado la capacidad de tomar decisiones. No obstante, usos de estas tecnologías pueden detectar e incluso evitar peleas, casos de bullying, comportamientos inadecuados o usarse en casos de autismo para ayudarles de reconocer expresiones faciales.
En cualquier caso, se siembra la duda sobre qué efecto tendrá el hecho de que los alumnos sepan que están siempre controlados —lo que llamo el efecto Big Teacher—. Dudas sobre si intentarán hacer trampas, si se comportarán con normalidad, si se sentirán constantemente vigilados, si tendrán sensaciones opresivas, si se opondrán a compartir datos relevantes o si sencillamente aceptarán la realidad y actuarán como si no hubiera nadie analizando su comportamiento o máquinas tomando decisiones por profesores o incluso por ellos mismos.
Decisiones algorítmicas
En relación a la toma de decisiones cabe destacar que un algoritmo en sí no tiene capacidad decisional, en todo caso se le es otorgada. Debe ser una persona, con un interés concreto, que dictamine qué algoritmo va a tomar qué decisiones y qué se va a ejecutar a continuación para cada una de las decisiones. Vuelvo otra vez a remarcar el matiz de sesgo en este tipo de algoritmos—sociales, raciales, culturales, políticos, económicos…—. Donde unos ganan en el uso de un algoritmo, habrá otros que pierden. Esto es algo en lo que pensar detenidamente antes de incorporarlos en educación —un claro ejemplo es la asignación de becas—.
Suponer que un algoritmo puede tomar una decisión significa que lo va a hacer igual o mejor que una persona, o sea, razonar en el proceso, ordenar, conectar puntos y llegar a una conclusión. Más allá de esto, y entrando tangencialmente en temas éticos, legales o de derechos, se supone que también debería tener capacidad de comprender el contexto, conocer la moral y normas de convivencia de la sociedad en la que está actuando, conocer las leyes aplicables y derechos de los analizados… Aunque fuera así, existe una línea fina entre racionalizar los datos introducidos en el algoritmo y razonarlos para llegar a una conclusión. Pero primero estos algoritmos de predicción deben subsanar algunos problemas graves, entre ellos, el nivel de precisión causado por problemas de sesgos raciales. Un solo falso positivo en una situación comprometida puede conllevar serios problemas con la justicia, hecho que se está moldeando a los jueces en base a los resultados algorítmicos.
Este tipo de debate decisional no es nuevo y ha estado abierto desde los inicios de la inteligencia artificial. En educación pueden no parecer tan dramáticos pero existen contextos en el que la toma de decisiones por algoritmos pueden traer consecuencias trágicas. Es el caso de los automóviles automáticos, en los que ya se pone en duda el concepto de accidente. Existe una paradoja moral, donde los accidentes pueden dejar de serlo y convertirse en acciones premeditadas. Esto significa que las muertes donde se vean involucrados coches autónomos pueden ser consecuencia de una decisión algorítmica. En consecuencia, el resultado mortal pasaría de ser un accidente a asesinato o suicidio. Esto significa que el fabricante habrá instalado un algoritmo en el coche que decida si matarte a ti antes que a una mayoría de transeúntes o matar a los transeúntes y salvar a la familia que está dentro del coche.
Razonar o racionalizar: hacer conexiones o usar el pasado inconexo
Por suerte (máquinas) no pueden aprender por los alumnos. Por desgracia la enseñanza puede automatizarse. Y aquí es donde empiezan a perder valor las personas.
Los algoritmos racionalizan situaciones. Un algoritmo es un conjunto de reglas, de directivas, de procedimientos y de instrucciones que se ejecutan en serie tras una entrada de datos para generar una respuesta única. Así actúan un tipo concreto de algoritmos de predicción, los de machine learning, los que detectan facciones, los que detectan emociones, los que detectan si los alumnos se aburren, los que predicen si un alumno suspenderá o tendrá éxito en los estudios, los que ofrecen contenido según resultados de progreso, los que adaptan el aprendizaje según comportamiento del alumno… todos estos usan datos del pasado como fuente de datos, construyen un modelo tras analizar las variables que proyectan un mejor éxito y descartan sin escrúpulos. Por lo tanto, los algoritmos justifican y buscan aquellos datos que soportan el modelo a la vez que descartan los que no encajan con las reglas.
Estas reglas están impuestas con datos del pasado, con lo que este se extiende y se ancla uso tras uso de las reglas junto a todos los prejuicios en el momento de su encapsulado. Además, estas reglas son asociativas y nada causales. Esto significa que convierten el pasado a uno de inconexo. Los datos analizados se desconectan entre ellos, se convierten a variables independientes y las elegidas se asocian matemáticamente para crear el modelo que ajuste mejor los datos. Ajustar significa que existe una línea intermedia entre todas las interacciones que guía al modelo para indicar si el comportamiento de un alumno es el esperado. Cualquiera fuera de la línea de ajuste no cuadrará con el modelo, y esto es bueno en el caso de un modelo que prediga abandonos pero no tanto en modelos que asignen becas.
RGPD y algoritmos decisivos
Creo que queda suficientemente clara la ley de la proporcionalidad directa entre peligrosidad algorítmica y capacidad decisional:
La peligrosidad de estos algoritmos racionales [usufructos de datos del pasado inconexo] aumenta cuando se les otorga una capacidad decisiva sin necesidad de la intervención de una persona.
Cuánto de peligroso puede ser esto queda reflejado en el Reglamento General de Protección de Datos. Exactamente queda reflejado en el artículo 22 «Decisiones individuales automatizadas, incluida la elaboración de perfiles». Ya abriré un hilo al respecto en el que profundizaré en estos aspectos de privacidad algorítmica, categorías de perfiles y riesgos automatizados. Ahora quiero señalar cómo las autoridades son conscientes de cómo los algoritmos están tan integrados en nuestra sociedad que se están creando mecanismos para interceder en caso de «irregularidades algorítmicas«.
El punto 1 del artículo 22 lee así «Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.». Este solo punto denota cómo de peligroso puede ser que una automatización, como lo es un algoritmo, tome una decisión que pueda afectar a la creación, extinción y modificación de un derecho. Cabe destacar la expresión «incluida la elaboración de perfiles», hecho que denota que estamos siendo encajados en alguna categoría algorítmica.
…
Por suerte, los humanos somos aún conscientes de cómo de impreciso es un algoritmo decisivo y nos aseguramos que podamos interceder en caso de desacuerdo. Puede que conceptualmente exista una línea muy fina entra racionalizar y razonar, pero, y sin ánimos de ser alarmista-catastrofista, los efectos reales pueden ser indeseados… no así cuando los algoritmos se usan como soporte decisional.
Hay que hacer especial hincapié en educación, sobretodo cuando se mezclan conceptos como startups tecnológicas, machine learning y adaptación… pero de startups tecnológico-educativas ya hablaré en otro momento.