Recupera i parametri di incorporamento SGD con il supporto per il debug.
Un'operazione che recupera i parametri di ottimizzazione dall'incorporamento nella memoria dell'host. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per recuperare parametri aggiornati prima di salvare un checkpoint.
Classi nidificate
classe | RecuperaTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Attributi facoltativi per RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Metodi pubblici
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | configurazione (configurazione stringa) |
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | crea (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni) Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug. |
Uscita <Mobile> | gradientAccumulatori () Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione Adadelta. |
Uscita <Mobile> | parametri () Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione della discesa del gradiente stocastico. |
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Tabella lunga) |
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (Stringa tableName) |
Metodi ereditati
Metodi pubblici
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options configurazione (configurazione stringa)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)
Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametri
scopo | ambito attuale |
---|---|
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
output pubblico <Float> gradientAccumulators ()
Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione Adadelta.
Parametri <Float> di output pubblico ()
Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione della discesa del gradiente stocastico.