Opérations de formation
Résumé
Des classes | |
---|---|
tensorflow :: ops :: ApplyAdadelta | Mettez à jour '*var' selon le schéma adadelta. |
tensorflow :: ops :: ApplyAdagrad | Mettez à jour '*var' selon le schéma adagrad. |
tensorflow :: ops :: ApplyAdagradDA | Mettez à jour '*var' selon le schéma adagrad proximal. |
tensorflow :: ops :: ApplyAdam | Mettez à jour '*var' selon l'algorithme d'Adam. |
tensorflow :: ops :: ApplyAddSign | Mettez à jour '*var' selon la mise à jour AddSign. |
tensorflow :: ops :: ApplyCenteredRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp centré. |
tensorflow :: ops :: ApplyFtrl | Mettez à jour '*var' selon le schéma Ftrl-proximal. |
tensorflow :: ops :: ApplyFtrlV2 | Mettez à jour '*var' selon le schéma Ftrl-proximal. |
tensorflow :: ops :: ApplyGradientDescent | Mettez à jour '*var' en soustrayant 'alpha' * 'delta'. |
tensorflow :: ops :: ApplyMomentum | Mettez à jour '*var' selon le schéma momentum. |
tensorflow :: ops :: ApplyPowerSign | Mettez à jour '*var' selon la mise à jour AddSign. |
tensorflow :: ops :: ApplyProximalAdagrad | Mettez à jour '*var' et '*accum' selon FOBOS avec le taux d'apprentissage d'Adagrad. |
tensorflow :: ops :: ApplyProximalGradientDescent | Mettez à jour '*var' en tant qu'algorithme FOBOS avec un taux d'apprentissage fixe. |
tensorflow :: ops :: ApplyRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp. |
tensorflow : ops : ResourceApplyAdadelta | Mettez à jour '*var' selon le schéma adadelta. |
tensorflow :: ops :: ResourceApplyAdagrad | Mettez à jour '*var' selon le schéma adagrad. |
tensorflow : ops : ResourceApplyAdagradDA | Mettez à jour '*var' selon le schéma adagrad proximal. |
tensorflow : ops : ResourceApplyAdam | Mettez à jour '*var' selon l'algorithme d'Adam. |
tensorflow :: ops :: ResourceApplyAdamWithAmsgrad | Mettez à jour '*var' selon l'algorithme d'Adam. |
tensorflow : ops : ResourceApplyAddSign | Mettez à jour '*var' selon la mise à jour AddSign. |
tensorflow : ops : ResourceApplyCenteredRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp centré. |
tensorflow : ops : ResourceApplyFtrl | Mettez à jour '*var' selon le schéma Ftrl-proximal. |
tensorflow : ops : ResourceApplyFtrlV2 | Mettez à jour '*var' selon le schéma Ftrl-proximal. |
tensorflow : ops : ResourceApplyGradientDescent | Mettez à jour '*var' en soustrayant 'alpha' * 'delta'. |
tensorflow : ops : ResourceApplyKerasMomentum | Mettez à jour '*var' selon le schéma momentum. |
tensorflow : ops : ResourceApplyMomentum | Mettez à jour '*var' selon le schéma momentum. |
tensorflow : ops : ResourceApplyPowerSign | Mettez à jour '*var' selon la mise à jour AddSign. |
tensorflow :: ops :: ResourceApplyProximalAdagrad | Mettez à jour '*var' et '*accum' selon FOBOS avec le taux d'apprentissage d'Adagrad. |
tensorflow : ops : ResourceApplyProximalGradientDescent | Mettez à jour '*var' en tant qu'algorithme FOBOS avec un taux d'apprentissage fixe. |
tensorflow : ops : ResourceApplyRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp. |
tensorflow : ops : ResourceSparseApplyAdadelta | var : doit provenir d'une variable (). |
tensorflow : ops : ResourceSparseApplyAdagrad | Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma adagrad. |
tensorflow : ops : ResourceSparseApplyAdagradDA | Mettez à jour les entrées dans « *var » et « *accum » selon le schéma adagrad proximal. |
tensorflow : ops : ResourceSparseApplyCenteredRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp centré. |
tensorflow : ops : ResourceSparseApplyFtrl | Mettez à jour les entrées pertinentes dans '*var' selon le schéma Ftrl-proximal. |
tensorflow : ops : ResourceSparseApplyFtrlV2 | Mettez à jour les entrées pertinentes dans '*var' selon le schéma Ftrl-proximal. |
tensorflow : ops : ResourceSparseApplyKerasMomentum | Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma momentum. |
tensorflow : ops : ResourceSparseApplyMomentum | Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma momentum. |
tensorflow : ops : ResourceSparseApplyProximalAdagrad | Entrées de mise à jour éparses dans '*var' et '*accum' selon l'algorithme FOBOS. |
tensorflow : ops : ResourceSparseApplyProximalGradientDescent | Mise à jour éparse '*var' en tant qu'algorithme FOBOS avec taux d'apprentissage fixe. |
tensorflow : ops : ResourceSparseApplyRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp. |
tensorflow : ops : SparseApplyAdadelta | var : doit provenir d'une variable (). |
tensorflow :: ops :: SparseApplyAdagrad | Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma adagrad. |
tensorflow : ops : SparseApplyAdagradDA | Mettez à jour les entrées dans « *var » et « *accum » selon le schéma adagrad proximal. |
tensorflow : ops : SparseApplyCenteredRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp centré. |
tensorflow : ops : SparseApplyFtrl | Mettez à jour les entrées pertinentes dans '*var' selon le schéma Ftrl-proximal. |
tensorflow : ops : SparseApplyFtrlV2 | Mettez à jour les entrées pertinentes dans '*var' selon le schéma Ftrl-proximal. |
tensorflow : ops : SparseApplyMomentum | Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma momentum. |
tensorflow :: ops :: SparseApplyProximalAdagrad | Entrées de mise à jour éparses dans '*var' et '*accum' selon l'algorithme FOBOS. |
tensorflow : ops : SparseApplyProximalGradientDescent | Mise à jour éparse '*var' en tant qu'algorithme FOBOS avec taux d'apprentissage fixe. |
tensorflow : ops : SparseApplyRMSProp | Mettez à jour '*var' selon l'algorithme RMSProp. |