パブリック最終クラスResourceSparseApplyProximalAdagrad
FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。
つまり、grad がある行については、var と accum を次のように更新します。 accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var =sign(prox_v)/(1+lr l2) ) max{|prox_v|-lr l1,0}
ネストされたクラス
| クラス | ResourceSparseApplyProximalAdagrad.Options | ResourceSparseApplyProximalAdagradのオプションの属性 | |
定数
| 弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
| static <T extends TType > ResourceSparseApplyProximalAdagrad | |
| 静的ResourceSparseApplyProximalAdagrad.Options | useLocking (ブール型 useLocking) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "ResourceSparseApplyProximalAdagrad"
パブリックメソッド
public static ResourceSparseApplyProximalAdagrad create (スコープscope,オペランド<?> var,オペランド<?> accum,オペランド<T> lr,オペランド<T> l1,オペランド<T> l2,オペランド<T> grad,オペランド<? extends TNumber >インデックス、オプション...オプション)
新しい ResourceSparseApplyProximalAdagrad 操作をラップするクラスを作成するためのファクトリ メソッド。
パラメーター
| 範囲 | 現在のスコープ |
|---|---|
| 変数 | Variable() から取得する必要があります。 |
| 蓄積 | Variable() から取得する必要があります。 |
| lr | 学習率。スカラーでなければなりません。 |
| l1 | L1 正則化。スカラーでなければなりません。 |
| l2 | L2 正則化。スカラーでなければなりません。 |
| 卒業生 | グラデーション。 |
| インデックス | var と accum の最初の次元へのインデックスのベクトル。 |
| オプション | オプションの属性値を持ちます |
戻り値
- ResourceSparseApplyProximalAdagrad の新しいインスタンス
public static ResourceSparseApplyProximalAdagrad.Options useLocking (Boolean useLocking)
パラメーター
| 使用ロック | True の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 |
|---|