パブリック最終クラスSparseApplyAdagrad
adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。
つまり、grad がある行については、次のように var と accum を更新します。 $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
ネストされたクラス
| クラス | SparseApplyAdagrad.Options | SparseApplyAdagradのオプションの属性 | |
定数
| 弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 | 
パブリックメソッド
| 出力<T> |  asOutput () テンソルのシンボリック ハンドルを返します。 | 
| static <T extends TType > SparseApplyAdagrad <T> | |
| 出力<T> | 外()  「var」と同じです。 | 
| 静的SparseApplyAdagrad.Options |  updateSlots (ブール値の updateSlots) | 
| 静的SparseApplyAdagrad.Options |  useLocking (ブール型 useLocking)  | 
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "SparseApplyAdagradV2" 
パブリックメソッド
public Output <T> asOutput ()
テンソルのシンボリック ハンドルを返します。
TensorFlow オペレーションへの入力は、別の TensorFlow オペレーションの出力です。このメソッドは、入力の計算を表すシンボリック ハンドルを取得するために使用されます。
public static SparseApplyAdagrad <T> create ( Scopescope , Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <? extends TNumber > indices, Options ...オプション)
新しい SparseApplyAdagrad オペレーションをラップするクラスを作成するためのファクトリ メソッド。
パラメータ
| 範囲 | 現在のスコープ | 
|---|---|
| 変数 | Variable() から取得する必要があります。 | 
| 蓄積 | Variable() から取得する必要があります。 | 
| lr | 学習率。スカラーでなければなりません。 | 
| イプシロン | 定数係数。スカラーでなければなりません。 | 
| 卒業生 | グラデーション。 | 
| インデックス | var と accum の最初の次元へのインデックスのベクトル。 | 
| オプション | オプションの属性値を持ちます | 
返品
- SparseApplyAdagrad の新しいインスタンス
public static SparseApplyAdagrad.Options useLocking (Boolean useLocking)
パラメータ
| 使用ロック | 「True」の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 | 
|---|