Operações de treinamento
Resumo
Aulas | |
---|---|
tensorflow:: ops:: ApplyAdadelta | Atualize '*var' de acordo com o esquema adadelta. |
tensorflow:: ops:: ApplyAdagrad | Atualize '*var' de acordo com o esquema adagrad. |
tensorflow:: ops:: ApplyAdagradDA | Atualize '*var' de acordo com o esquema proximal do adagrad. |
tensorflow:: ops:: ApplyAdam | Atualize '*var' de acordo com o algoritmo Adam. |
tensorflow:: ops:: ApplyAddSign | Atualize '*var' de acordo com a atualização do AddSign. |
tensorflow:: ops:: ApplyCenteredRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow:: ops:: ApplyFtrl | Atualize '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow:: ops:: ApplyFtrlV2 | Atualize '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow:: ops:: ApplyGradientDescent | Atualize '*var' subtraindo 'alpha' * 'delta' dele. |
tensorflow::ops::ApplyMomentum | Atualize '*var' de acordo com o esquema de momentum. |
tensorflow:: ops:: ApplyPowerSign | Atualize '*var' de acordo com a atualização do AddSign. |
tensorflow:: ops:: ApplyProximalAdagrad | Atualize '*var' e '*accum' de acordo com FOBOS com taxa de aprendizagem Adagrad. |
tensorflow:: ops:: ApplyProximalGradientDescent | Atualize '*var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow:: ops:: ApplyRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp. |
tensorflow:: ops:: ResourceApplyAdadelta | Atualize '*var' de acordo com o esquema adadelta. |
tensorflow:: ops:: ResourceApplyAdagrad | Atualize '*var' de acordo com o esquema adagrad. |
tensorflow:: ops:: ResourceApplyAdagradDA | Atualize '*var' de acordo com o esquema proximal do adagrad. |
tensorflow:: ops:: ResourceApplyAdam | Atualize '*var' de acordo com o algoritmo Adam. |
tensorflow:: ops:: ResourceApplyAdamWithAmsgrad | Atualize '*var' de acordo com o algoritmo Adam. |
tensorflow:: ops:: ResourceApplyAddSign | Atualize '*var' de acordo com a atualização do AddSign. |
tensorflow:: ops:: ResourceApplyCenteredRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow:: ops:: ResourceApplyFtrl | Atualize '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow:: ops:: ResourceApplyFtrlV2 | Atualize '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow:: ops:: ResourceApplyGradientDescent | Atualize '*var' subtraindo 'alpha' * 'delta' dele. |
tensorflow:: ops:: ResourceApplyKerasMomentum | Atualize '*var' de acordo com o esquema de momentum. |
tensorflow:: ops:: ResourceApplyMomentum | Atualize '*var' de acordo com o esquema de momentum. |
tensorflow:: ops:: ResourceApplyPowerSign | Atualize '*var' de acordo com a atualização do AddSign. |
tensorflow:: ops:: ResourceApplyProximalAdagrad | Atualize '*var' e '*accum' de acordo com FOBOS com taxa de aprendizagem Adagrad. |
tensorflow:: ops:: ResourceApplyProximalGradientDescent | Atualize '*var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow:: ops:: ResourceApplyRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp. |
tensorflow:: ops:: ResourceSparseApplyAdadelta | var: Deve ser de uma variável(). |
tensorflow:: ops:: ResourceSparseApplyAdagrad | Atualize as entradas relevantes em '*var' e '*accum' de acordo com o esquema adagrad. |
tensorflow:: ops:: ResourceSparseApplyAdagradDA | Atualize as entradas em '*var' e '*accum' de acordo com o esquema proximal do adagrad. |
tensorflow:: ops:: ResourceSparseApplyCenteredRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow:: ops:: ResourceSparseApplyFtrl | Atualize as entradas relevantes em '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow:: ops:: ResourceSparseApplyFtrlV2 | Atualize as entradas relevantes em '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow:: ops:: ResourceSparseApplyKerasMomentum | Atualize as entradas relevantes em '*var' e '*accum' de acordo com o esquema de impulso. |
tensorflow:: ops:: ResourceSparseApplyMomentum | Atualize as entradas relevantes em '*var' e '*accum' de acordo com o esquema de impulso. |
tensorflow:: ops:: ResourceSparseApplyProximalAdagrad | Entradas de atualização esparsas em '*var' e '*accum' de acordo com o algoritmo FOBOS. |
tensorflow:: ops:: ResourceSparseApplyProximalGradientDescent | Atualização esparsa '*var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow:: ops:: ResourceSparseApplyRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp. |
tensorflow::ops::SparseApplyAdadelta | var: Deve ser de uma variável(). |
tensorflow::ops::SparseApplyAdagrad | Atualize as entradas relevantes em '*var' e '*accum' de acordo com o esquema adagrad. |
tensorflow::ops::SparseApplyAdagradDA | Atualize as entradas em '*var' e '*accum' de acordo com o esquema proximal do adagrad. |
tensorflow::ops::SparseApplyCenteredRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow::ops::SparseApplyFtrl | Atualize as entradas relevantes em '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow::ops::SparseApplyFtrlV2 | Atualize as entradas relevantes em '*var' de acordo com o esquema Ftrl-proximal. |
tensorflow::ops::SparseApplyMomentum | Atualize as entradas relevantes em '*var' e '*accum' de acordo com o esquema de impulso. |
tensorflow::ops::SparseApplyProximalAdagrad | Entradas de atualização esparsas em '*var' e '*accum' de acordo com o algoritmo FOBOS. |
tensorflow::ops::SparseApplyProximalGradientDescent | Atualização esparsa '*var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow::ops::SparseApplyRMSProp | Atualize '*var' de acordo com o algoritmo RMSProp. |