パブリック最終クラス
Adam アルゴリズムに従って「*var」を更新します。
$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{v_t} + \epsilon)$$
ネストされたクラス
| クラス | リソースApplyAdam.Options | ResourceApplyAdamのオプションの属性 | |
定数
| 弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 | 
パブリックメソッド
| static <T extends TType > ResourceApplyAdam | |
| 静的ResourceApplyAdam.Options |  useLocking (ブール型 useLocking) | 
| 静的ResourceApplyAdam.Options |  useNesterov (ブール型 useNesterov)  | 
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "ResourceApplyAdam" 
パブリックメソッド
public static ResourceApplyAdam create (スコープscope,オペランド<?> var,オペランド<?> m,オペランド<?> v,オペランド<T> beta1Power,オペランド<T> beta2Power,オペランド<T> lr,オペランド<T> beta1,オペランド<T> beta2、オペランド<T> epsilon、オペランド<T> grad、オプション...オプション)
新しい ResourceApplyAdam オペレーションをラップするクラスを作成するためのファクトリ メソッド。
パラメータ
| 範囲 | 現在のスコープ | 
|---|---|
| 変数 | Variable() から取得する必要があります。 | 
| メートル | Variable() から取得する必要があります。 | 
| v | Variable() から取得する必要があります。 | 
| beta1パワー | スカラーでなければなりません。 | 
| ベータ2パワー | スカラーでなければなりません。 | 
| lr | スケーリング係数。スカラーでなければなりません。 | 
| ベータ1 | 勢い要因。スカラーでなければなりません。 | 
| ベータ2 | 勢い要因。スカラーでなければなりません。 | 
| イプシロン | リッジ用語。スカラーでなければなりません。 | 
| 卒業生 | グラデーション。 | 
| オプション | オプションの属性値を持ちます | 
返品
- ResourceApplyAdam の新しいインスタンス
public static ResourceApplyAdam.Options useLocking (ブール型 useLocking)
パラメータ
| 使用ロック | 「True」の場合、var、m、および v テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 | 
|---|
public static ResourceApplyAdam.Options useNesterov (ブール型 useNesterov)
パラメータ
| 使用ネステロフ | 「True」の場合、nesterov アップデートを使用します。 | 
|---|