Operações de treinamento

Resumo

Aulas

tensorflow :: ops :: ApplyAdadelta

Atualize '* var' de acordo com o esquema adadelta.

tensorflow :: ops :: ApplyAdagrad

Atualize '* var' de acordo com o esquema adagrad.

tensorflow :: ops :: ApplyAdagradDA

Atualize '* var' de acordo com o esquema adagrad proximal.

tensorflow :: ops :: ApplyAdam

Atualize '* var' de acordo com o algoritmo de Adam.

tensorflow :: ops :: ApplyAddSign

Atualize '* var' de acordo com a atualização do AddSign.

tensorflow :: ops :: ApplyCenteredRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp centralizado.

tensorflow :: ops :: ApplyFtrl

Atualize '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: ApplyFtrlV2

Atualize '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: ApplyGradientDescent

Atualize '* var' subtraindo 'alpha' * 'delta' dele.

tensorflow :: ops :: ApplyMomentum

Atualize '* var' de acordo com o esquema de momentum.

tensorflow :: ops :: ApplyPowerSign

Atualize '* var' de acordo com a atualização do AddSign.

tensorflow :: ops :: ApplyProximalAdagrad

Atualize '* var' e '* acum' de acordo com FOBOS com taxa de aprendizagem Adagrad.

tensorflow :: ops :: ApplyProximalGradientDescent

Atualize '* var' como algoritmo FOBOS com taxa de aprendizagem fixa.

tensorflow :: ops :: ApplyRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp.

tensorflow :: ops :: ResourceApplyAdadelta

Atualize '* var' de acordo com o esquema adadelta.

tensorflow :: ops :: ResourceApplyAdagrad

Atualize '* var' de acordo com o esquema adagrad.

tensorflow :: ops :: ResourceApplyAdagradDA

Atualize '* var' de acordo com o esquema adagrad proximal.

tensorflow :: ops :: ResourceApplyAdam

Atualize '* var' de acordo com o algoritmo de Adam.

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

Atualize '* var' de acordo com o algoritmo de Adam.

tensorflow :: ops :: ResourceApplyAddSign

Atualize '* var' de acordo com a atualização do AddSign.

tensorflow :: ops :: ResourceApplyCenteredRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp centralizado.

tensorflow :: ops :: ResourceApplyFtrl

Atualize '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: ResourceApplyFtrlV2

Atualize '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: ResourceApplyGradientDescent

Atualize '* var' subtraindo 'alpha' * 'delta' dele.

tensorflow :: ops :: ResourceApplyKerasMomentum

Atualize '* var' de acordo com o esquema de momentum.

tensorflow :: ops :: ResourceApplyMomentum

Atualize '* var' de acordo com o esquema de momentum.

tensorflow :: ops :: ResourceApplyPowerSign

Atualize '* var' de acordo com a atualização do AddSign.

tensorflow :: ops :: ResourceApplyProximalAdagrad

Atualize '* var' e '* acum' de acordo com FOBOS com taxa de aprendizagem Adagrad.

tensorflow :: ops :: ResourceApplyProximalGradientDescent

Atualize '* var' como algoritmo FOBOS com taxa de aprendizagem fixa.

tensorflow :: ops :: ResourceApplyRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp.

tensorflow :: ops :: ResourceSparseApplyAdadelta

var: deve ser de uma variável ().

tensorflow :: ops :: ResourceSparseApplyAdagrad

Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema adagrad.

tensorflow :: ops :: ResourceSparseApplyAdagradDA

Atualize as entradas em '* var' e '* acum' de acordo com o esquema adagrad proximal.

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp centralizado.

tensorflow :: ops :: ResourceSparseApplyFtrl

Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: ResourceSparseApplyFtrlV2

Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema de momentum.

tensorflow :: ops :: ResourceSparseApplyMomentum

Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema de momento.

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

Entradas de atualização esparsas em '* var' e '* acum' de acordo com o algoritmo FOBOS.

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

Atualização esparsa '* var' como algoritmo FOBOS com taxa de aprendizagem fixa.

tensorflow :: ops :: ResourceSparseApplyRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp.

tensorflow :: ops :: SparseApplyAdadelta

var: deve ser de uma variável ().

tensorflow :: ops :: SparseApplyAdagrad

Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema adagrad.

tensorflow :: ops :: SparseApplyAdagradDA

Atualize as entradas em '* var' e '* acum' de acordo com o esquema adagrad proximal.

tensorflow :: ops :: SparseApplyCenteredRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp centralizado.

tensorflow :: ops :: SparseApplyFtrl

Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: SparseApplyFtrlV2

Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal.

tensorflow :: ops :: SparseApplyMomentum

Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema de momentum.

tensorflow :: ops :: SparseApplyProximalAdagrad

Entradas de atualização esparsas em '* var' e '* acum' de acordo com o algoritmo FOBOS.

tensorflow :: ops :: SparseApplyProximalGradientDescent

Atualização esparsa '* var' como algoritmo FOBOS com taxa de aprendizagem fixa.

tensorflow :: ops :: SparseApplyRMSProp

Atualize '* var' de acordo com o algoritmo RMSProp.