public Final class RetrieveTPUEmbeddingADAMParametersGradAccumDebug
デバッグ サポートを使用して ADAM 埋め込みパラメータを取得します。
ホストメモリへの埋め込みから最適化パラメータを取得する演算。正しい埋め込みテーブル構成を設定する ConfigureTPUEmbeddingHost オペレーションを前に置く必要があります。たとえば、この操作はチェックポイントを保存する前に更新されたパラメータを取得するために使用されます。
ネストされたクラス
| クラス | RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | RetrieveTPUEmbeddingADAMParametersGradAccumDebugのオプション属性 | |
定数
| 弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 | 
パブリックメソッド
| static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options |  config (文字列構成) | 
| static RetrieveTPUEmbeddingADAMParametersGradAccumDebug | |
| 出力< TFloat32 > | 勾配アキュムレータ() パラメータ gradient_accumulators は、ADAM 最適化アルゴリズムによって更新されます。 | 
| 出力< TFloat32 > | 勢い()  ADAM 最適化アルゴリズムによって更新されるパラメーターの運動量。 | 
| 出力< TFloat32 > | パラメーター() パラメータ ADAM 最適化アルゴリズムによって更新されるパラメータ。 | 
| static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options |  tableId (長いテーブル ID) | 
| static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | テーブル名(文字列テーブル名) | 
| 出力< TFloat32 > | 速度()  ADAM 最適化アルゴリズムによって更新されたパラメーター速度。  | 
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "RetrieveTPUEmbeddingADAMParametersGradAccumDebug" 
パブリックメソッド
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create (スコープscope、Long numShards、Long shardId、 Options...オプション)
新しい RetrieveTPUEmbeddingADAMParametersGradAccumDebug 操作をラップするクラスを作成するファクトリ メソッド。
パラメーター
| 範囲 | 現在のスコープ | 
|---|---|
| オプション | オプションの属性値を持ちます | 
戻り値
- RetrieveTPUEmbeddingADAMParametersGradAccumDebug の新しいインスタンス
public Output < TFloat32 > gradientAccumulators ()
パラメータ gradient_accumulators は、ADAM 最適化アルゴリズムによって更新されます。