ResourceApplyAdagradDa

パブリック最終クラスResourceApplyAdagradDa

近位の adagrad スキームに従って「*var」を更新します。

ネストされたクラス

クラスリソースApplyAdagradDa.Options ResourceApplyAdagradDaのオプションの属性

定数

OP_NAME TensorFlow コア エンジンによって認識される、この演算の名前

パブリックメソッド

static <T extends TType > ResourceApplyAdagradDa
create (スコープscope,オペランド<?> var,オペランド<?> gradientAccumulator,オペランド<?> gradientSquaredAccumulator,オペランド<T> grad,オペランド<T> lr,オペランド<T> l1,オペランド<T> l2,オペランド< TInt64 > globalStep、オプション...オプション)
新しい ResourceApplyAdagradDa オペレーションをラップするクラスを作成するファクトリ メソッド。
静的ResourceApplyAdagradDa.Options
useLocking (ブール型 useLocking)

継承されたメソッド

定数

パブリック静的最終文字列OP_NAME

TensorFlow コア エンジンによって認識される、この演算の名前

定数値: "ResourceApplyAdagradDA"

パブリックメソッド

public static ResourceApplyAdagradDa create (スコープscope,オペランド<?> var,オペランド<?> gradientAccumulator,オペランド<?> gradientSquaredAccumulator,オペランド<T> grad, オペランド <T> lr,オペランド<T> l1,オペランド<T> l2,オペランド< TInt64 > globalStep、オプション...オプション)

新しい ResourceApplyAdagradDa オペレーションをラップするクラスを作成するファクトリ メソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
勾配アキュムレータVariable() から取得する必要があります。
勾配二乗アキュムレータVariable() から取得する必要があります。
卒業生グラデーション。
lrスケーリング係数。スカラーでなければなりません。
l1 L1 正則化。スカラーでなければなりません。
l2 L2 正則化。スカラーでなければなりません。
グローバルステップトレーニングステップ番号。スカラーでなければなりません。
オプションオプションの属性値を持ちます
戻り値
  • ResourceApplyAdagradDa の新しいインスタンス

public static ResourceApplyAdagradDa.Options useLocking (Boolean useLocking)

パラメーター
使用ロックTrue の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。