RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

classe final pública RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Recuperar parâmetros de incorporação do Adagrad com suporte para depuração.

Uma operação que recupera parâmetros de otimização da incorporação na memória do host. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.

Classes aninhadas

aula RecuperarTPUEmbeddingAdagradParametersGradAccumDebug.Options Atributos opcionais para RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

Saída < TFloat32 >
acumuladores ()
Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
configuração (configuração de string)
Recuperação estáticaTPUEmbeddingAdagradParametersGradAccumDebug
criar (escopo do escopo , NumShards longos, shardId longo, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.
Saída < TFloat32 >
gradienteAcumuladores ()
Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização Adagrad.
Saída < TFloat32 >
parâmetros ()
Parâmetros atualizados pelo algoritmo de otimização Adagrad.
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
tableId (tableId longo)
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
nometabela (String nometabela)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "RetrieveTPUEmbeddingAdagradParametersGradAccumDebug"

Métodos Públicos

Saída pública < TFloat32 > acumuladores ()

Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.

configuração pública estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options (configuração de string)

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug create ( Escopo de escopo , Long numShards, Long shardId, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.

Parâmetros
escopo escopo atual
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Saída pública < TFloat32 > gradienteAccumulators ()

Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização Adagrad.

Saída pública < TFloat32 > parâmetros ()

Parâmetros atualizados pelo algoritmo de otimização Adagrad.

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options tableId (tableId longo)

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options tableName (String tableName)