public Final class RetrieveTPUEmbeddingFTRLParametersGradAccumDebug
デバッグサポートを使用して FTRL 埋め込みパラメータを取得します。
ホストメモリへの埋め込みから最適化パラメータを取得する演算。正しい埋め込みテーブル構成を設定する ConfigureTPUEmbeddingHost オペレーションを前に置く必要があります。たとえば、この操作はチェックポイントを保存する前に更新されたパラメータを取得するために使用されます。
ネストされたクラス
クラス | RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.Options | RetrieveTPUEmbeddingFTRLParametersGradAccumDebug のオプション属性 |
定数
弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
出力< TFloat32 > | アキュムレータ() FTRL 最適化アルゴリズムによって更新されるパラメーター アキュムレーター。 |
static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.Options | config (文字列構成) |
static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug | |
出力< TFloat32 > | 勾配アキュムレータ() パラメータ gradient_accumulators は FTRL 最適化アルゴリズムによって更新されます。 |
出力< TFloat32 > | 線形() FTRL 最適化アルゴリズムによって更新されるパラメーター線形。 |
出力< TFloat32 > | パラメーター() パラメータ FTRL 最適化アルゴリズムによって更新されるパラメータ。 |
static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.Options | tableId (長いテーブル ID) |
static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug.Options | テーブル名(文字列テーブル名) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "RetrieveTPUEmbeddingFTRLParametersGradAccumDebug"
パブリックメソッド
public static RetrieveTPUEmbeddingFTRLParametersGradAccumDebug create (スコープscope、Long numShards、Long shardId、 Options...オプション)
新しい RetrieveTPUEmbeddingFTRLParametersGradAccumDebug オペレーションをラップするクラスを作成するファクトリ メソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
オプション | オプションの属性値を持ちます |
戻り値
- RetrieveTPUEmbeddingFTRLParametersGradAccumDebug の新しいインスタンス
public Output < TFloat32 > gradientAccumulators ()
パラメータ gradient_accumulators は FTRL 最適化アルゴリズムによって更新されます。