org.tensorflow.framework.optimizers

Des classes

AdaDelta Optimiseur qui implémente l'algorithme Adadelta.
AdaGrad Optimiseur qui implémente l'algorithme d'Adagrad.
AdaGradDA Optimiseur qui implémente l'algorithme Adagrad Dual-Averaging.
Adam Optimiseur qui implémente l'algorithme d'Adam.
Adamax Optimiseur qui implémente l'algorithme Adamax.
Ftrl Optimiseur qui implémente l'algorithme FTRL.
Descente graduelle Optimiseur de base de descente de gradient stochastique.
Élan Descente de gradient stochastique plus élan, soit nesterov, soit traditionnel.
Nadam Nadam Optimizer qui implémente l'algorithme NAdam.
Optimiseur Classe de base pour les optimiseurs de dégradé.
Optimizer.GradAndVar <T étend TType > Une classe qui contient une paire de dégradés et de variables.
Optimiseur.Options Attributs facultatifs pour Optimizer
RMSProp Optimiseur qui implémente l'algorithme RMSProp.

Énumérations

Optimiseurs Énumérateur utilisé pour créer un nouvel optimiseur avec les paramètres par défaut.