ResourceApplyProximalGradientDescent

classe final pública ResourceApplyProximalGradientDescent

Atualize '*var' como algoritmo FOBOS com taxa de aprendizagem fixa.

prox_v = var - alfa delta var = sinal(prox_v)/(1+alfa l2) max{|prox_v|-alfa l1,0}

Classes aninhadas

aula ResourceApplyProximalGradientDescent.Options Atributos opcionais para ResourceApplyProximalGradientDescent

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estático <T estende TType > ResourceApplyProximalGradientDescent
create ( Escopo , Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> delta, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação ResourceApplyProximalGradientDescent.
ResourceApplyProximalGradientDescent.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor Constante: "ResourceApplyProximalGradientDescent"

Métodos Públicos

public static ResourceApplyProximalGradientDescent create ( Escopo do escopo , Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> delta, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação ResourceApplyProximalGradientDescent.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
alfa Fator de escala. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
l2 Regularização L2. Deve ser um escalar.
delta O troco.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceApplyProximalGradientDescent

public static ResourceApplyProximalGradientDescent.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se for True, a subtração será protegida por um cadeado; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.