Clases
adadelta | Optimizador que implementa el algoritmo Adadelta. |
adagrad | Optimizador que implementa el algoritmo Adagrad. |
AdaGradDA | Optimizador que implementa el algoritmo Adagrad Dual-Averaging. |
Adán | Optimizador que implementa el algoritmo Adam. |
Adamax | Optimizador que implementa el algoritmo Adamax. |
Ftrl | Optimizador que implementa el algoritmo FTRL. |
Descenso de gradiente | Optimizador básico de descenso de gradiente estocástico. |
Impulso | Descenso de gradiente estocástico más impulso, ya sea nesterov o tradicional. |
nadam | Nadam Optimizer que implementa el algoritmo NAdam. |
Optimizador | Clase base para optimizadores de gradiente. |
Optimizer.GradAndVar <T extiende TType > | Una clase que contiene un gradiente y una variable emparejados. |
Optimizador.Opciones | Atributos opcionales para Optimizer |
RMSProp | Optimizador que implementa el algoritmo RMSProp. |
Enumeraciones
Optimizadores | Enumerador utilizado para crear un nuevo Optimizador con parámetros predeterminados. |