SparseApplyAdagradDa

パブリック最終クラスSparseApplyAdagradDa

近位の adagrad スキームに従って、「*var」と「*accum」のエントリを更新します。

ネストされたクラス

クラスSparseApplyAdagradDa.Options SparseApplyAdagradDaのオプションの属性

定数

OP_NAME TensorFlow コア エンジンによって認識される、この演算の名前

パブリックメソッド

出力<T>
asOutput ()
テンソルのシンボリック ハンドルを返します。
static <T extends TType > SparseApplyAdagradDa <T>
create (スコープscope,オペランド<T> var,オペランド<T> gradientAccumulator,オペランド<T> gradientSquaredAccumulator,オペランド<T> grad,オペランド<? extends TNumber > indices,オペランド<T> lr,オペランド<T> l1, Operand <T> l2、オペランド< TInt64 > globalStep、オプション...オプション)
新しい SparseApplyAdagradDa オペレーションをラップするクラスを作成するためのファクトリ メソッド。
出力<T>
()
「var」と同じです。
静的SparseApplyAdagradDa.Options
useLocking (ブール型 useLocking)

継承されたメソッド

定数

パブリック静的最終文字列OP_NAME

TensorFlow コア エンジンによって認識される、この演算の名前

定数値: "SparseApplyAdagradDA"

パブリックメソッド

public Output <T> asOutput ()

テンソルのシンボリック ハンドルを返します。

TensorFlow オペレーションへの入力は、別の TensorFlow オペレーションの出力です。このメソッドは、入力の計算を表すシンボリック ハンドルを取得するために使用されます。

public static SparseApplyAdagradDa <T> create ( Scopescope , Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <? extends TNumber > indices, Operand <T> lr, Operand <T> l1、オペランド<T> l2、オペランド< TInt64 > globalStep、オプション...オプション)

新しい SparseApplyAdagradDa オペレーションをラップするクラスを作成するためのファクトリ メソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
勾配アキュムレータVariable() から取得する必要があります。
勾配二乗アキュムレータVariable() から取得する必要があります。
卒業生グラデーション。
インデックスvar と accum の最初の次元へのインデックスのベクトル。
lr学習率。スカラーでなければなりません。
l1 L1 正則化。スカラーでなければなりません。
l2 L2 正則化。スカラーでなければなりません。
グローバルステップトレーニングステップ番号。スカラーでなければなりません。
オプションオプションの属性値を持ちます
戻り値
  • SparseApplyAdagradDa の新しいインスタンス

public出力<T> out ()

「var」と同じです。

public static SparseApplyAdagradDa.Options useLocking (Boolean useLocking)

パラメーター
使用ロックTrue の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。