Training Ops
Zusammenfassung
Klassen | |
---|---|
tensorflow :: ops :: ApplyAdadelta | Aktualisieren Sie '* var' gemäß dem Adadelta-Schema. |
tensorflow :: ops :: ApplyAdagrad | Aktualisieren Sie '* var' gemäß dem Adagrad-Schema. |
tensorflow :: ops :: ApplyAdagradDA | Aktualisieren Sie '* var' gemäß dem proximalen Adagrad-Schema. |
tensorflow :: ops :: ApplyAdam | Aktualisieren Sie '* var' gemäß dem Adam-Algorithmus. |
tensorflow :: ops :: ApplyAddSign | Aktualisieren Sie '* var' gemäß dem AddSign-Update. |
tensorflow :: ops :: ApplyCenteredRMSProp | Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus. |
tensorflow :: ops :: ApplyFtrl | Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: ApplyFtrlV2 | Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: ApplyGradientDescent | Aktualisieren Sie '* var', indem Sie 'alpha' * 'delta' davon abziehen. |
tensorflow :: ops :: ApplyMomentum | Aktualisieren Sie '* var' gemäß dem Momentum-Schema. |
tensorflow :: ops :: ApplyPowerSign | Aktualisieren Sie '* var' gemäß dem AddSign-Update. |
tensorflow :: ops :: ApplyProximalAdagrad | Aktualisieren Sie '* var' und '* accum' gemäß FOBOS mit der Adagrad-Lernrate. |
tensorflow :: ops :: ApplyProximalGradientDescent | Aktualisieren Sie '* var' als FOBOS-Algorithmus mit fester Lernrate. |
tensorflow :: ops :: ApplyRMSProp | Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus. |
tensorflow :: ops :: ResourceApplyAdadelta | Aktualisieren Sie '* var' gemäß dem Adadelta-Schema. |
tensorflow :: ops :: ResourceApplyAdagrad | Aktualisieren Sie '* var' gemäß dem Adagrad-Schema. |
tensorflow :: ops :: ResourceApplyAdagradDA | Aktualisieren Sie '* var' gemäß dem proximalen Adagrad-Schema. |
tensorflow :: ops :: ResourceApplyAdam | Aktualisieren Sie '* var' gemäß dem Adam-Algorithmus. |
tensorflow :: ops :: ResourceApplyAdamWithAmsgrad | Aktualisieren Sie '* var' gemäß dem Adam-Algorithmus. |
tensorflow :: ops :: ResourceApplyAddSign | Aktualisieren Sie '* var' gemäß dem AddSign-Update. |
tensorflow :: ops :: ResourceApplyCenteredRMSProp | Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus. |
tensorflow :: ops :: ResourceApplyFtrl | Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: ResourceApplyFtrlV2 | Aktualisieren Sie '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: ResourceApplyGradientDescent | Aktualisieren Sie '* var', indem Sie 'alpha' * 'delta' davon abziehen. |
tensorflow :: ops :: ResourceApplyKerasMomentum | Aktualisieren Sie '* var' gemäß dem Momentum-Schema. |
tensorflow :: ops :: ResourceApplyMomentum | Aktualisieren Sie '* var' gemäß dem Momentum-Schema. |
tensorflow :: ops :: ResourceApplyPowerSign | Aktualisieren Sie '* var' gemäß dem AddSign-Update. |
tensorflow :: ops :: ResourceApplyProximalAdagrad | Aktualisieren Sie '* var' und '* accum' gemäß FOBOS mit der Adagrad-Lernrate. |
tensorflow :: ops :: ResourceApplyProximalGradientDescent | Aktualisieren Sie '* var' als FOBOS-Algorithmus mit fester Lernrate. |
tensorflow :: ops :: ResourceApplyRMSProp | Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus. |
tensorflow :: ops :: ResourceSparseApplyAdadelta | var: Sollte von einer Variablen stammen (). |
tensorflow :: ops :: ResourceSparseApplyAdagrad | Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Adagrad-Schema. |
tensorflow :: ops :: ResourceSparseApplyAdagradDA | Aktualisieren Sie die Einträge in '* var' und '* accum' gemäß dem proximalen Adagrad-Schema. |
tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp | Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus. |
tensorflow :: ops :: ResourceSparseApplyFtrl | Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: ResourceSparseApplyFtrlV2 | Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: ResourceSparseApplyKerasMomentum | Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Momentum-Schema. |
tensorflow :: ops :: ResourceSparseApplyMomentum | Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Momentum-Schema. |
tensorflow :: ops :: ResourceSparseApplyProximalAdagrad | Sparse Update-Einträge in '* var' und '* accum' gemäß FOBOS-Algorithmus. |
tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent | Sparsames Update '* var' als FOBOS-Algorithmus mit fester Lernrate. |
tensorflow :: ops :: ResourceSparseApplyRMSProp | Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus. |
tensorflow :: ops :: SparseApplyAdadelta | var: Sollte von einer Variablen stammen (). |
tensorflow :: ops :: SparseApplyAdagrad | Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Adagrad-Schema. |
tensorflow :: ops :: SparseApplyAdagradDA | Aktualisieren Sie die Einträge in '* var' und '* accum' gemäß dem proximalen Adagrad-Schema. |
tensorflow :: ops :: SparseApplyCenteredRMSProp | Aktualisieren Sie '* var' gemäß dem zentrierten RMSProp-Algorithmus. |
tensorflow :: ops :: SparseApplyFtrl | Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: SparseApplyFtrlV2 | Aktualisieren Sie relevante Einträge in '* var' gemäß dem Ftrl-proximalen Schema. |
tensorflow :: ops :: SparseApplyMomentum | Aktualisieren Sie relevante Einträge in '* var' und '* accum' gemäß dem Momentum-Schema. |
tensorflow :: ops :: SparseApplyProximalAdagrad | Sparse Update-Einträge in '* var' und '* accum' gemäß FOBOS-Algorithmus. |
tensorflow :: ops :: SparseApplyProximalGradientDescent | Sparsames Update '* var' als FOBOS-Algorithmus mit fester Lernrate. |
tensorflow :: ops :: SparseApplyRMSProp | Aktualisieren Sie '* var' gemäß dem RMSProp-Algorithmus. |