tensor akışı:: işlem:: SparseApplyProximalGradientDescent

#include <training_ops.h>

Sabit öğrenme oranına sahip FOBOS algoritması olarak seyrek güncelleme '*var'.

Özet

Yani, derecelendirdiğimiz satırlar için var'ı şu şekilde güncelleriz:

proxv=varalphagrad
var=sign(proxv)/(1+alphal2)max|proxv|alphal1,0

Argümanlar:

  • kapsam: Bir Kapsam nesnesi
  • var: Bir Variable()'dan olmalıdır.
  • alfa: Ölçeklendirme faktörü. Bir skaler olmalı.
  • l1: L1 düzenlemesi. Bir skaler olmalı.
  • l2: L2 düzenlemesi. Bir skaler olmalı.
  • grad: Gradyan.
  • indeksler: var ve accum'un ilk boyutuna ait indekslerin bir vektörü.

İsteğe bağlı özellikler (bkz. Attrs ):

  • use_locking: True ise çıkarma işlemi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.

İade:

Genel özellikler

operation
out

Kamu işlevleri

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

Genel statik işlevler

UseLocking (bool x)

Genel özellikler

operasyon

Operation operation

dışarı

::tensorflow::Output out

Kamu işlevleri

SparseApplyProximalGradientDescent

 SparseApplyProximalGradientDescent(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input alpha,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices
)

SparseApplyProximalGradientDescent

 SparseApplyProximalGradientDescent(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input alpha,
  ::tensorflow::Input l1,
  ::tensorflow::Input l2,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices,
  const SparseApplyProximalGradientDescent::Attrs & attrs
)

düğüm

::tensorflow::Node * node() const 

operatör::tensorflow::Giriş

 operator::tensorflow::Input() const 

operatör::tensorflow::Çıktı

 operator::tensorflow::Output() const 

Genel statik işlevler

KullanımKilitleme

Attrs UseLocking(
  bool x
)