¡Esta es una revisión vieja del documento!


03 - Descenso de gradiente

Cuando tenemos un número elevado de características o demasiadas instancias de entrenamiento para caber en la memoria, las funciones de coste anteriores pueden no ser adecuadas. Para estos casos, podemos utilizar una manera muy diferente para minimizar la función de coste: descenso de gradiente.

Para encontrar el mínimo en una función de coste, el descenso de gradiente empieza en un punto aleatorio. En sucesivas iteraciones, va calculando las derivadas parciales (pendiente de la función) para ir aproximándose al mínimo cada vez más.

  • clase/ia/saa/3_regresion_lineal/dg.1629368138.txt.gz
  • Última modificación: 2021/08/19 12:15
  • por cesguiro