パブリック クラスAdaGrad
Adagrad アルゴリズムを実装するオプティマイザー。
Adagrad は、トレーニング中にパラメーターが更新される頻度に応じて調整される、パラメーター固有の学習率を備えたオプティマイザーです。パラメータが受け取る更新が多くなるほど、更新の量は小さくなります。
定数
継承された定数
パブリックコンストラクター
パブリックメソッド
弦 | getOptimizerName () オプティマイザーの名前を取得します。 |
弦 | toString () |
継承されたメソッド
オペ | |
<T extends TType > List< GradAndVar <?>> | |
静的文字列 | |
抽象文字列 | getOptimizerName () オプティマイザーの名前を取得します。 |
<T extends TType > オプション<変数<T>> | |
最終作戦 | getTF () オプティマイザーの Ops インスタンスを取得します |
オペ | |
オペ |
ブール値 | 等しい(オブジェクト arg0) |
最終クラス<?> | getクラス() |
整数 | ハッシュコード() |
最後の空白 | 通知する() |
最後の空白 | すべて通知() |
弦 | toString () |
最後の空白 | wait (long arg0, int arg1) |
最後の空白 | 待機(長い引数0) |
最後の空白 | 待って() |
定数
public static Final String ACCUMULATOR
定数値: 「アキュムレータ」
パブリック静的最終フロートINITIAL_ACCUMULATOR_DEFAULT
定数値: 0.01
パブリック静的最終フロートLEARNING_RATE_DEFAULT
定数値: 0.001
パブリックコンストラクター
public AdaGrad ( Graphグラフ、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
学習率 | 学習率 |
初期アキュムレータ値 | アキュムレータの開始値は負でない必要があります。 |
投げる
IllegalArgumentException | InitialAccumulatorValue が負の場合 |
---|
public AdaGrad (グラフグラフ、文字列名、float learningRate)
AdaGrad オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
名前 | このオプティマイザーの名前 (デフォルトは「Adagrad」) |
学習率 | 学習率 |
public AdaGrad (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue)
AdaGrad オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
名前 | このオプティマイザーの名前 (デフォルトは「Adagrad」) |
学習率 | 学習率 |
初期アキュムレータ値 | アキュムレータの開始値は負でない必要があります。 |
投げる
IllegalArgumentException | InitialAccumulatorValue が負の場合 |
---|
パブリックメソッド
public String getOptimizerName ()
オプティマイザーの名前を取得します。
戻り値
- オプティマイザーの名前。