By | septiembre 14, 2017

El concepto de entropía en la ciencia de datos es interesante en cuanto define el caos o desorden en los datos disponibles. Cuanto más alta sea la entropía (valores próximos a 1) más valores distintos tienen las variables de los datos. Cuanto más baja sea la entropía (valores próxmos a 0) más homogénea será la muestra de datos en cuanto a valores de las variables.

En los árboles de decisión calcular la entropía es muy útil en cuanto ayuda a discernir qué variables generan una menor entropía si se parte la muestra inicial a partir de estas -qué variable parte en submuestras más homogéneas-. La ganancia de información, derivada del cálculo de la entropía, permite conocer la homogeneidad de estas submuestras y terminar así mejorando las posibles predicciones.

El vídeo es interesante en cuanto explica muy visualmente todo lo anterior.

 

2 Replies to “Vídeo «Introduction to Entropy for Data Science»”

  1. Jeniree Ramirez

    Buenas tardes prof. considera que la analítica del aprendizaje se puede aplicar en otros ámbitos diferentes que el de educación, y como cuales ámbitos seria?

    Reply
    1. Daniel Amo Filvà Post author

      Hola Jeniree,

      La analítica del aprendizaje es un derivado del uso de herramientas creadas para contextos no de aprendizaje (estadística, machine learning, deep learning…). Más que aplicar la analítica del aprendizaje en otros contextos, son las herramientas subyacentes a la analítica del aprendizaje las que se usan en otros contextos, que ya de por sí han venido utilizándose desde hace mucho tiempo atrás, como herramientas de business intelligence o de analítica web.

      Reply

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *