RetrieveTPUEmbeddingADAMParametersGradAccumDebug

classe finale pubblica RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Recupera i parametri di incorporamento di ADAM con il supporto per il debug.

Un'operazione che recupera i parametri di ottimizzazione dall'incorporamento nella memoria dell'host. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per recuperare parametri aggiornati prima di salvare un checkpoint.

Classi nidificate

classe RecuperaTPUEmbeddingADAMParametersGradAccumDebug.Options Attributi facoltativi per RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
configurazione (configurazione stringa)
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug
crea (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Uscita < TFloat32 >
gradientAccumulatori ()
Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione ADAM.
Uscita < TFloat32 >
momento ()
Momento dei parametri aggiornato dall'algoritmo di ottimizzazione ADAM.
Uscita < TFloat32 >
parametri ()
Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione ADAM.
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (Tabella lunga)
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
tableName (Stringa tableName)
Uscita < TFloat32 >
velocità ()
Velocità dei parametri aggiornate dall'algoritmo di ottimizzazione ADAM.

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "RetrieveTPUEmbeddingADAMParametersGradAccumDebug"

Metodi pubblici

configurazione public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options (configurazione stringa)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingADAMParametersGradAccumDebug.

Parametri
scopo ambito attuale
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Output pubblico < TFloat32 > gradientAccumulatori ()

Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione ADAM.

uscita pubblica < TFloat32 > momenta ()

Momento dei parametri aggiornato dall'algoritmo di ottimizzazione ADAM.

parametri di output pubblico < TFloat32 > ()

Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione ADAM.

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)

uscita pubblica < TFloat32 > velocità ()

Velocità dei parametri aggiornate dall'algoritmo di ottimizzazione ADAM.