Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anterior Revisión previa Próxima revisión | Revisión previa | ||
|
clase:ia:saa:3_regresion_lineal:dg [2021/08/19 12:32] cesguiro |
— (actual) | ||
|---|---|---|---|
| Línea 1: | Línea 1: | ||
| - | ====== 03 - Descenso de gradiente ====== | ||
| - | Cuando tenemos un número elevado de características o demasiadas instancias de entrenamiento para caber en la memoria, las funciones de coste anteriores pueden no ser adecuadas. Para estos casos, podemos utilizar una manera muy diferente para minimizar la función de coste: **descenso de gradiente**. | ||
| - | |||
| - | Para encontrar el mínimo en una función de coste, el descenso de gradiente empieza en un punto aleatorio. En sucesivas iteraciones, | ||
| - | |||
| - | {{ : | ||
| - | |||
| - | Un parámetro importante en el descenso de gradiente es el tamaño de los pasos, determinado por el hiperparámetro **tasa de aprendizaje**. Si la tasa de aprendizaje es demasiado pequeña, el algoritmo tendrá que pasar por muchos pasos para converger (si llega a hacerlo antes de terminar las iteraciones), | ||
| - | |||
| - | {{ : | ||