AdaGrad

パブリック クラスAdaGrad

Adagrad アルゴリズムを実装するオプティマイザー。

Adagrad は、トレーニング中にパラメーターが更新される頻度に応じて調整される、パラメーター固有の学習率を備えたオプティマイザーです。パラメータが受け取る更新が多くなるほど、更新の量は小さくなります。

定数

継承された定数

org.tensorflow.framework.optimizers.Optimizerから

パブリックコンストラクター

AdaGradグラフグラフ)
AdaGrad オプティマイザーを作成します
AdaGrad ( Graphグラフ、float learningRate)
AdaGrad オプティマイザーを作成します
AdaGrad ( Graphグラフ、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
AdaGrad (グラフグラフ、文字列名、float learningRate)
AdaGrad オプティマイザーを作成します
AdaGrad (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します

パブリックメソッド

getOptimizerName ()
オプティマイザーの名前を取得します。

継承されたメソッド

org.tensorflow.framework.optimizers.Optimizerから
オペ
applyGradients (List< GradAndVar <? extends TType >> gradsAndVars、文字列名)
変数にグラデーションを適用します
<T extends TType > List< GradAndVar <?>>
computeGradients (オペランド<?> 損失)
損失オペランドに基づいて勾配を計算します。
静的文字列
createName (出力<? extends TType > 変数、文字列スロット名)
変数名とスロット名を組み合わせて名前を作成します
抽象文字列
getOptimizerName ()
オプティマイザーの名前を取得します。
<T extends TType > オプション<変数<T>>
getSlot (出力<T> 変数、文字列スロット名)
指定された変数とスロット名に関連付けられたスロットを取得します。
最終作戦
getTF ()
オプティマイザーの Ops インスタンスを取得します
オペ
最小化(オペランド<?> の損失)
変数を更新することで損失を最小限に抑えます
オペ
minimum (オペランド<?> の損失、文字列名)
変数を更新することで損失を最小限に抑えます
ブール値
等しい(オブジェクト arg0)
最終クラス<?>
getクラス()
整数
ハッシュコード()
最後の空白
通知する()
最後の空白
すべて通知()
toString ()
最後の空白
wait (long arg0, int arg1)
最後の空白
待機(長い引数0)
最後の空白
待って()

定数

public static Final String ACCUMULATOR

定数値: 「アキュムレータ」

パブリック静的最終フロートINITIAL_ACCUMULATOR_DEFAULT

定数値: 0.01

パブリック静的最終フロートLEARNING_RATE_DEFAULT

定数値: 0.001

パブリックコンストラクター

パブリックAdaGrad (グラフグラフ)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ

public AdaGrad ( Graphグラフ、float learningRate)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率

public AdaGrad ( Graphグラフ、float learningRate、floatInitialAccumulatorValue)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率
初期アキュムレータ値アキュムレータの開始値は負でない必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue が負の場合

public AdaGrad (グラフグラフ、文字列名、float learningRate)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前 (デフォルトは「Adagrad」)
学習率学習率

public AdaGrad (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前 (デフォルトは「Adagrad」)
学習率学習率
初期アキュムレータ値アキュムレータの開始値は負でない必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue が負の場合

パブリックメソッド

public String getOptimizerName ()

オプティマイザーの名前を取得します。

戻り値
  • オプティマイザーの名前。

public String toString ()