RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

classe finale pubblica RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Recupera i parametri di incorporamento di Adagrad con il supporto per il debug.

Un'operazione che recupera i parametri di ottimizzazione dall'incorporamento nella memoria dell'host. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per recuperare parametri aggiornati prima di salvare un checkpoint.

Classi nidificate

classe RecuperaTPUEmbeddingAdagradParametersGradAccumDebug.Options Attributi facoltativi per RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

Uscita < TFloat32 >
accumulatori ()
Accumulatori di parametri aggiornati dall'algoritmo di ottimizzazione di Adagrad.
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
configurazione (configurazione stringa)
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug
crea (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.
Uscita < TFloat32 >
gradientAccumulatori ()
Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione di Adagrad.
Uscita < TFloat32 >
parametri ()
Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione di Adagrad.
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
tableId (Tabella lunga)
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
tableName (Stringa tableName)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "RetrieveTPUEmbeddingAdagradParametersGradAccumDebug"

Metodi pubblici

uscita pubblica < TFloat32 > accumulatori ()

Accumulatori di parametri aggiornati dall'algoritmo di ottimizzazione di Adagrad.

configurazione public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options (configurazione stringa)

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug create (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.

Parametri
scopo ambito attuale
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Output pubblico < TFloat32 > gradientAccumulatori ()

Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione di Adagrad.

parametri di output pubblico < TFloat32 > ()

Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione di Adagrad.

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options tableName (String tableName)