Aulas
AdaDelta | Otimizador que implementa o algoritmo Adadelta. |
AdaGrad | Otimizador que implementa o algoritmo Adagrad. |
AdaGradDA | Otimizador que implementa o algoritmo Adagrad Dual-Averaging. |
Adão | Otimizador que implementa o algoritmo Adam. |
Adamax | Otimizador que implementa o algoritmo Adamax. |
Ftrl | Otimizador que implementa o algoritmo FTRL. |
Gradiente descendente | Otimizador de descida gradiente estocástico básico. |
Momento | Descida gradiente estocástica mais impulso, nesterov ou tradicional. |
Nadam | Nadam Optimizer que implementa o algoritmo NAdam. |
Otimizador | Classe base para otimizadores de gradiente. |
Optimizer.GradAndVar <T estende TType > | Uma classe que contém um gradiente e uma variável emparelhados. |
Otimizador.Opções | Atributos opcionais para Optimizer |
RMSProp | Otimizador que implementa o algoritmo RMSProp. |
Enums
Otimizadores | Enumerador usado para criar um novo Otimizador com parâmetros padrão. |