Recupere parâmetros de incorporação Adagrad com suporte a depuração.
Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
aula | RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingAdagradParametersGradAccumDebug |
Métodos Públicos
Resultado <Float> | acumuladores () Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad. |
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options | config ( configuração de string) |
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug | criar ( escopo de escopo, longo numShards, longo shardId, opções ... opções) Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingAdagradParametersGradAccumDebug. |
Resultado <Float> | gradiente Acumuladores () Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adagrad. |
Resultado <Float> | parâmetros () Parâmetros de parâmetros atualizados pelo algoritmo de otimização Adagrad. |
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableId (Long tableId) |
static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableName (String tableName) |
Métodos herdados
Métodos Públicos
Acumuladores public Output <Float> ()
Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.
public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug create ( Escopo de escopo, Long numShards, Long shardId, Options ... options)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.
Parâmetros
alcance | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingAdagradParametersGradAccumDebug
public Output <Float> gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adagrad.
Parâmetros public Output <Float> ()
Parâmetros de parâmetros atualizados pelo algoritmo de otimização Adagrad.