Carica i parametri di incorporamento di ADAM con il supporto per il debug.
Un'operazione che carica i parametri di ottimizzazione in HBM per l'incorporamento. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per installare i parametri caricati da un checkpoint prima dell'esecuzione di un ciclo di training.
Classi nidificate
classe | LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | Attributi facoltativi per LoadTPUEmbeddingADAMParametersGradAccumDebug |
Metodi pubblici
static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | configurazione (configurazione stringa) |
static LoadTPUEmbeddingADAMParametersGradAccumDebug | create (ambito dell'ambito , parametri dell'operando <Float>, momento dell'operando <Float>, velocità dell'operando <Float>, gradientAccumulatori dell'operando <Float>, numShards lunghi, shardId lungo, Opzioni... opzioni) Metodo factory per creare una classe che racchiude una nuova operazione LoadTPUEmbeddingADAMParametersGradAccumDebug. |
static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (Tabella lunga) |
static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (Stringa tableName) |
Metodi ereditati
Metodi pubblici
configurazione LoadTPUEmbeddingADAMParametersGradAccumDebug.Options pubblica (configurazione stringa)
public static LoadTPUEmbeddingADAMParametersGradAccumDebug create ( ambito ambito , parametri operando <Float>, momenta operando <Float>, velocità operando <Float>, gradientAccumulatori operando <Float>, Long numShards, Long shardId, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione LoadTPUEmbeddingADAMParametersGradAccumDebug.
Parametri
scopo | ambito attuale |
---|---|
parametri | Valore dei parametri utilizzati nell'algoritmo di ottimizzazione ADAM. |
momento | Valore della quantità di moto utilizzato nell'algoritmo di ottimizzazione ADAM. |
velocità | Valore delle velocità utilizzato nell'algoritmo di ottimizzazione ADAM. |
gradientAccumulatori | Valore di gradient_accumulators utilizzato nell'algoritmo di ottimizzazione ADAM. |
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di LoadTPUEmbeddingADAMParametersGradAccumDebug