パブリック最終クラスResourceSparseApplyAdagradV2
adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。
つまり、grad がある行については、var と accum を次のように更新します: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
ネストされたクラス
クラス | ResourceSparseApplyAdagradV2.Options | ResourceSparseApplyAdagradV2 のオプションの属性 |
定数
弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
static <T extends TType > ResourceSparseApplyAdagradV2 | |
静的ResourceSparseApplyAdagradV2.Options | updateSlots (ブール値の updateSlots) |
静的ResourceSparseApplyAdagradV2.Options | useLocking (ブール型 useLocking) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "ResourceSparseApplyAdagradV2"
パブリックメソッド
public static ResourceSparseApplyAdagradV2 create (スコープscope,オペランド<?> var,オペランド<?> accum,オペランド<T> lr,オペランド<T> epsilon,オペランド<T> grad,オペランド<? extends TNumber > インデックス,オプション...オプション)
新しい ResourceSparseApplyAdagradV2 オペレーションをラップするクラスを作成するためのファクトリ メソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
変数 | Variable() から取得する必要があります。 |
蓄積 | Variable() から取得する必要があります。 |
lr | 学習率。スカラーでなければなりません。 |
イプシロン | 定数係数。スカラーでなければなりません。 |
卒業生 | グラデーション。 |
インデックス | var と accum の最初の次元へのインデックスのベクトル。 |
オプション | オプションの属性値を持ちます |
戻り値
- ResourceSparseApplyAdagradV2 の新しいインスタンス
public static ResourceSparseApplyAdagradV2.Options useLocking (Boolean useLocking)
パラメーター
使用ロック | 「True」の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 |
---|