Classi
AdaDelta | Ottimizzatore che implementa l'algoritmo Adadelta. |
AdaGrad | Ottimizzatore che implementa l'algoritmo Adagrad. |
AdaGradDA | Ottimizzatore che implementa l'algoritmo Adagrad Dual-Averaging. |
Adamo | Ottimizzatore che implementa l'algoritmo di Adam. |
Adamax | Ottimizzatore che implementa l'algoritmo Adamax. |
Ftrl | Ottimizzatore che implementa l'algoritmo FTRL. |
GradienteDiscesa | Ottimizzatore di discesa del gradiente stocastico di base. |
Quantità di moto | Discesa stocastica del gradiente più quantità di moto, nesterov o tradizionale. |
Nadam | Nadam Optimizer che implementa l'algoritmo NAdam. |
Ottimizzatore | Classe base per ottimizzatori di gradiente. |
Optimizer.GradAndVar <T estende TType > | Una classe che contiene un gradiente e una variabile accoppiati. |
Ottimizzatore.Opzioni | Attributi facoltativi per Optimizer |
RMSProp | Ottimizzatore che implementa l'algoritmo RMSProp. |
Enumerazioni
Ottimizzatori | Enumeratore utilizzato per creare un nuovo ottimizzatore con parametri predefiniti. |