Recupera i parametri di incorporamento SGD con il supporto per il debug.
Un'operazione che recupera i parametri di ottimizzazione dall'incorporamento nella memoria dell'host. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per recuperare parametri aggiornati prima di salvare un checkpoint.
Classi nidificate
classe | RecuperaTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Attributi facoltativi per RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | configurazione (configurazione stringa) |
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | crea (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni) Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug. |
Uscita < TFloat32 > | gradientAccumulatori () Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione Adadelta. |
Uscita < TFloat32 > | parametri () Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione della discesa del gradiente stocastico. |
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Tabella lunga) |
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (Stringa tableName) |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options configurazione (configurazione stringa)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)
Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametri
scopo | ambito attuale |
---|---|
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
Output pubblico < TFloat32 > gradientAccumulatori ()
Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione Adadelta.
parametri di output pubblico < TFloat32 > ()
Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione della discesa del gradiente stocastico.