AdaGrad

パブリック クラスAdaGrad

Adagrad アルゴリズムを実装するオプティマイザー。

Adagrad は、トレーニング中にパラメーターが更新される頻度に応じて調整される、パラメーター固有の学習率を備えたオプティマイザーです。パラメータが受け取る更新が多くなるほど、更新の量は小さくなります。

定数

アキュムレータ
浮くINITIAL_ACCUMULATOR_DEFAULT
浮く学習_レート_デフォルト

継承された定数

パブリックコンストラクター

AdaGradグラフグラフ)
AdaGrad オプティマイザーを作成します
AdaGrad ( Graphグラフ、float learningRate)
AdaGrad オプティマイザーを作成します
AdaGrad ( Graphグラフ、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
AdaGrad (グラフグラフ、文字列名、float learningRate)
AdaGrad オプティマイザーを作成します
AdaGrad (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します

パブリックメソッド

getOptimizerName ()
オプティマイザーの名前を取得します。

継承されたメソッド

定数

public static Final String ACCUMULATOR

定数値: 「アキュムレータ」

パブリック静的最終フロートINITIAL_ACCUMULATOR_DEFAULT

定数値: 0.01

パブリック静的最終フロートLEARNING_RATE_DEFAULT

定数値: 0.001

パブリックコンストラクター

パブリックAdaGrad (グラフグラフ)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ

public AdaGrad ( Graphグラフ、float learningRate)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率

public AdaGrad ( Graphグラフ、float learningRate、floatInitialAccumulatorValue)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率
初期アキュムレータ値アキュムレータの開始値は負でない必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue が負の場合

public AdaGrad (グラフグラフ、文字列名、float learningRate)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前 (デフォルトは「Adagrad」)
学習率学習率

public AdaGrad (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue)

AdaGrad オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前 (デフォルトは「Adagrad」)
学習率学習率
初期アキュムレータ値アキュムレータの開始値は負でない必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue が負の場合

パブリックメソッド

public String getOptimizerName ()

オプティマイザーの名前を取得します。

戻り値
  • オプティマイザーの名前。

public String toString ()