ResourceSparseApplyAdagrad

パブリック最終クラス

adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。

つまり、grad がある行については、var と accum を次のように更新します: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

ネストされたクラス

クラスResourceSparseApplyAdagrad.Options ResourceSparseApplyAdagradのオプションの属性

定数

OP_NAME TensorFlow コア エンジンによって認識される、この演算の名前

パブリックメソッド

static <T extends TType > ResourceSparseApplyAdagrad
create (スコープscope、オペランド<?> var、オペランド<?> accum、オペランド<T> lr、オペランド<T> grad、オペランド<? extends TNumber > インデックス、オプション... options)
新しい ResourceSparseApplyAdagrad オペレーションをラップするクラスを作成するためのファクトリ メソッド。
静的ResourceSparseApplyAdagrad.Options
updateSlots (ブール値の updateSlots)
静的ResourceSparseApplyAdagrad.Options
useLocking (ブール型 useLocking)

継承されたメソッド

定数

パブリック静的最終文字列OP_NAME

TensorFlow コア エンジンによって認識される、この演算の名前

定数値: "ResourceSparseApplyAdagrad"

パブリックメソッド

public static ResourceSparseApplyAdagrad create (スコープscope、オペランド<?> var、オペランド<?> accum、オペランド<T> lr、オペランド<T> grad、オペランド<? extends TNumber > インデックス、オプション...オプション)

新しい ResourceSparseApplyAdagrad オペレーションをラップするクラスを作成するためのファクトリ メソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
蓄積Variable() から取得する必要があります。
lr学習率。スカラーでなければなりません。
卒業生グラデーション。
インデックスvar と accum の最初の次元へのインデックスのベクトル。
オプションオプションの属性値を持ちます
戻り値
  • ResourceSparseApplyAdagrad の新しいインスタンス

public static ResourceSparseApplyAdagrad.Options updateSlots (ブール値 updateSlots)

public static ResourceSparseApplyAdagrad.Options useLocking (Boolean useLocking)

パラメーター
使用ロック「True」の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。