パブリック最終クラスResourceApplyProximalAdagrad
Adagrad 学習率の FOBOS に従って「*var」と「*accum」を更新します。
accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var =sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}
ネストされたクラス
クラス | ResourceApplyProximalAdagrad.Options | ResourceApplyProximalAdagrad のオプションの属性 |
定数
弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
static <T extends TType > ResourceApplyProximalAdagrad | |
静的ResourceApplyProximalAdagrad.Options | useLocking (ブール型 useLocking) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "ResourceApplyProximalAdagrad"
パブリックメソッド
public static ResourceApplyProximalAdagrad create (スコープscope、オペランド<?> var、オペランド<?> accum、オペランド<T> lr、オペランド<T> l1、オペランド<T> l2、オペランド<T> grad、オプション... options)
新しい ResourceApplyProximalAdagrad 操作をラップするクラスを作成するためのファクトリ メソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
変数 | Variable() から取得する必要があります。 |
蓄積 | Variable() から取得する必要があります。 |
lr | スケーリング係数。スカラーでなければなりません。 |
l1 | L1 正則化。スカラーでなければなりません。 |
l2 | L2 正則化。スカラーでなければなりません。 |
卒業生 | グラデーション。 |
オプション | オプションの属性値を持ちます |
戻り値
- ResourceApplyProximalAdagrad の新しいインスタンス
public static ResourceApplyProximalAdagrad.Options useLocking (Boolean useLocking)
パラメーター
使用ロック | True の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 |
---|