fluxo tensor:: ops:: ResourceApplyProximalGradientDescent

#include <training_ops.h>

Atualize '*var' como algoritmo FOBOS com taxa de aprendizagem fixa.

Resumo

prox_v = var - alfa * delta var = sinal(prox_v)/(1+alfa*l2) * max{|prox_v|-alfa*l1,0}

Argumentos:

  • escopo: um objeto Escopo
  • var: Deve ser de uma variável().
  • alfa: fator de escala. Deve ser um escalar.
  • l1: regularização L1. Deve ser um escalar.
  • l2: regularização L2. Deve ser um escalar.
  • delta: A mudança.

Atributos opcionais (veja Attrs ):

  • use_locking: Se True, a subtração será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.

Retorna:

Atributos públicos

operation

Funções públicas

operator::tensorflow::Operation () const

Funções estáticas públicas

UseLocking (bool x)

Atributos públicos

operação

Operation operation

Funções públicas

ResourceApplyProximalGradientDescent

 ResourceApplyProximalGradientDescent(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input alpha,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input delta
)

ResourceApplyProximalGradientDescent

 ResourceApplyProximalGradientDescent(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input alpha,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input delta,
  const ResourceApplyProximalGradientDescent::Attrs & attrs
)

operador::tensorflow::Operação

 operator::tensorflow::Operation() const 

Funções estáticas públicas

UseLocking

Attrs UseLocking(
  bool x
)