パブリック クラスAdaGrad
Adagrad アルゴリズムを実装するオプティマイザー。
Adagrad は、トレーニング中にパラメーターが更新される頻度に応じて調整される、パラメーター固有の学習率を備えたオプティマイザーです。パラメータが受け取る更新が多くなるほど、更新の量は小さくなります。
定数
| 弦 | アキュムレータ | |
| 浮く | INITIAL_ACCUMULATOR_DEFAULT | |
| 浮く | 学習_レート_デフォルト |
継承された定数
パブリックコンストラクター
パブリックメソッド
| 弦 | getOptimizerName () オプティマイザーの名前を取得します。 |
| 弦 | toString () |
継承されたメソッド
定数
public static Final String ACCUMULATOR
定数値: 「アキュムレータ」
パブリック静的最終フロートINITIAL_ACCUMULATOR_DEFAULT
定数値: 0.01
パブリック静的最終フロートLEARNING_RATE_DEFAULT
定数値: 0.001
パブリックコンストラクター
public AdaGrad ( Graphグラフ、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
パラメーター
| グラフ | TensorFlow グラフ |
|---|---|
| 学習率 | 学習率 |
| 初期アキュムレータ値 | アキュムレータの開始値は負でない必要があります。 |
投げる
| IllegalArgumentException | InitialAccumulatorValue が負の場合 |
|---|
public AdaGrad (グラフグラフ、文字列名、float learningRate)
AdaGrad オプティマイザーを作成します
パラメーター
| グラフ | TensorFlow グラフ |
|---|---|
| 名前 | このオプティマイザーの名前 (デフォルトは「Adagrad」) |
| 学習率 | 学習率 |
public AdaGrad (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
パラメーター
| グラフ | TensorFlow グラフ |
|---|---|
| 名前 | このオプティマイザーの名前 (デフォルトは「Adagrad」) |
| 学習率 | 学習率 |
| 初期アキュムレータ値 | アキュムレータの開始値は負でない必要があります。 |
投げる
| IllegalArgumentException | InitialAccumulatorValue が負の場合 |
|---|
パブリックメソッド
public String getOptimizerName ()
オプティマイザーの名前を取得します。
戻り値
- オプティマイザーの名前。