Carica i parametri di incorporamento SGD.
Un'operazione che carica i parametri di ottimizzazione in HBM per l'incorporamento. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per installare i parametri caricati da un checkpoint prima che venga eseguito un ciclo di addestramento.
Classi annidate
classe | LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Attributi facoltativi per LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Metodi pubblici
static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | config (String config) |
static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | create ( Scope scope, Operando <Float> parameters, Operand <Float> gradientAccumulators, Long numShards, Long shardId, Options ... options) Metodo factory per creare una classe che avvolge una nuova operazione LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug. |
static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Long tableId) |
static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (stringa tableName) |
Metodi ereditati
Metodi pubblici
public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (String config)
public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Scope scope, Operand <Float> parameters, Operand <Float> gradientAccumulators, Long numShards, Long shardId, Options ... options)
Metodo factory per creare una classe che avvolge una nuova operazione LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametri
scopo | ambito attuale |
---|---|
parametri | Valore dei parametri utilizzati nell'algoritmo di ottimizzazione della discesa del gradiente stocastico. |
gradiente Accumulatori | Valore di gradiente_accumulatori utilizzati nell'algoritmo di ottimizzazione di Adadelta. |
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug