Recupere os parâmetros de incorporação do ADAM com suporte para depuração.
Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
classe | RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Constantes
Fragmento | OP_NAME | O nome desta operação, conforme conhecido pelo motor principal TensorFlow |
Métodos Públicos
estáticos RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | configuração (String config) |
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug | criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções) Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug. |
Output < TFloat32 > | gradientAccumulators () Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização ADAM. |
Output < TFloat32 > | momentos () Parâmetro momentum atualizado pelo algoritmo de otimização ADAM. |
Output < TFloat32 > | parâmetros () Parâmetros de parâmetro atualizados pelo algoritmo de otimização ADAM. |
estáticos RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (Long tableId) |
estáticos RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (String tableName) |
Output < TFloat32 > | velocidades () Velocidades de parâmetro atualizadas pelo algoritmo de otimização ADAM. |
Métodos herdados
Constantes
nome_op final String public static
O nome desta operação, conforme conhecido pelo motor principal TensorFlow
Métodos Públicos
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options de configuração (config String)
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Parâmetros
alcance | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingADAMParametersGradAccumDebug
pública Output < TFloat32 > gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização ADAM.
pública Output < TFloat32 > momentos ()
Parâmetro momentum atualizado pelo algoritmo de otimização ADAM.
pública Output < TFloat32 > parâmetros ()
Parâmetros de parâmetro atualizados pelo algoritmo de otimização ADAM.