Cargue los parámetros de incrustación de SGD.
Una operación que carga parámetros de optimización en HBM para incrustarlos. Debe ir precedido de una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de inserción. Por ejemplo, esta operación se usa para instalar parámetros que se cargan desde un punto de control antes de que se ejecute un ciclo de entrenamiento.
Clases anidadas
clase | LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Atributos opcionales para LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Métodos públicos
static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | config ( configuración de cadena) |
Carga estáticaTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | crear ( Alcance alcance, operando <> Float parámetros, operando <> Float gradientAccumulators, numShards mucho, mucho shardId, Opciones ... Opciones) Método de fábrica para crear una clase que envuelva una nueva operación LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug. |
static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Long tableId) |
static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (cadena tableName) |
Métodos heredados
Métodos públicos
Public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (String config)
public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Scope scope, Operand <Float> parámetros, Operand <Float> gradientAccumulators, Long numShards, Long shardId, Opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parámetros
alcance | alcance actual |
---|---|
parámetros | Valor de los parámetros utilizados en el algoritmo de optimización del descenso de gradiente estocástico. |
gradiente Acumuladores | Valor de los gradientes_acumuladores utilizados en el algoritmo de optimización de Adadelta. |
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug