Recuperar parâmetros de incorporação SGD com suporte para depuração.
Uma operação que recupera parâmetros de otimização da incorporação na memória do host. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
aula | RecuperarTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Constantes
Corda | OP_NAME | O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow |
Métodos Públicos
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | config (configuração de string) |
Recuperação estáticaTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | |
Saída < TFloat32 > | gradienteAcumuladores () Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização Adadelta. |
Saída < TFloat32 > | parâmetros () Parâmetros atualizados pelo algoritmo estocástico de otimização de descida de gradiente. |
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (tableId longo) |
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | nometabela (String nometabela) |
Métodos herdados
Constantes
String final estática pública OP_NAME
O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow
Métodos Públicos
configuração pública estática RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configuração de string)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Escopo de escopo , Long numShards, Long shardId, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parâmetros
escopo | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
Saída pública < TFloat32 > gradienteAccumulators ()
Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização Adadelta.
Saída pública < TFloat32 > parâmetros ()
Parâmetros atualizados pelo algoritmo estocástico de otimização de descida de gradiente.