Recupere parâmetros de incorporação SGD com suporte a depuração.
Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
classe | RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Constantes
Fragmento | OP_NAME | O nome desta operação, conforme conhecido pelo motor principal TensorFlow |
Métodos Públicos
estáticos RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | configuração (String config) |
estática RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções) Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug. |
Output < TFloat32 > | gradientAccumulators () Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta. |
Output < TFloat32 > | parâmetros () Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico. |
estáticos RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Long tableId) |
estáticos RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (String tableName) |
Métodos herdados
Constantes
nome_op final String public static
O nome desta operação, conforme conhecido pelo motor principal TensorFlow
Métodos Públicos
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options de configuração (config String)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parâmetros
alcance | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
pública Output < TFloat32 > gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta.
pública Output < TFloat32 > parâmetros ()
Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico.