ResourceSparseApplyProximalGradientDescent

ResourceSparseApplyProximalGradientDescent classe final pública

Atualização esparsa '* var' como algoritmo FOBOS com taxa de aprendizagem fixa.

Isso é para as linhas que temos grad, nós atualizar var da seguinte forma: prox_v = var - alfa grad var sinal = (prox_v) / (1 + alpha l2) max {| prox_v | alfa l1,0}

Classes aninhadas

classe ResourceSparseApplyProximalGradientDescent.Options Atributos opcionais para ResourceSparseApplyProximalGradientDescent

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estática <T estende TType > ResourceSparseApplyProximalGradientDescent
criar ( Scope escopo, Operando <?> var, Operando <T> alfa, Operando <T> L1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação ResourceSparseApplyProximalGradientDescent.
estáticos ResourceSparseApplyProximalGradientDescent.Options
useLocking (booleano useLocking)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "ResourceSparseApplyProximalGradientDescent"

Métodos Públicos

public static ResourceSparseApplyProximalGradientDescent criar ( Scope escopo, Operando <?> var, Operando <T> alfa, Operando <T> L1, Operando <T> l2, Operando <T> grad, Operando <? estende TNumber > índices, opções ... opções)

Método de fábrica para criar uma classe que envolve uma nova operação ResourceSparseApplyProximalGradientDescent.

Parâmetros
alcance escopo atual
var Deve ser de uma variável ().
alfa Fator de escala. Deve ser um escalar.
l1 Regularização L1. Deve ser um escalar.
12 Regularização L2. Deve ser um escalar.
grad O gradiente.
índices Um vetor de índices na primeira dimensão de var e acum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ResourceSparseApplyProximalGradientDescent

public static ResourceSparseApplyProximalGradientDescent.Options useLocking (Boolean useLocking)

Parâmetros
useLocking Se for True, a subtração será protegida por um cadeado; caso contrário, o comportamento é indefinido, mas pode exibir menos contenção.