Recuperar parâmetros de incorporação do Adagrad.
Uma operação que recupera parâmetros de otimização da incorporação na memória do host. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
aula | RecuperarTPUEmbeddingAdagradParameters.Options | Atributos opcionais para RetrieveTPUEmbeddingAdagradParameters |
Constantes
Corda | OP_NAME | O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow |
Métodos Públicos
Saída < TFloat32 > | acumuladores () Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad. |
RetrieveTPUEmbeddingAdagradParameters.Options estático | configuração (configuração de string) |
estática RetrieveTPUEmbeddingAdagradParameters | |
Saída < TFloat32 > | parâmetros () Parâmetros atualizados pelo algoritmo de otimização Adagrad. |
RetrieveTPUEmbeddingAdagradParameters.Options estático | tableId (tableId longo) |
RetrieveTPUEmbeddingAdagradParameters.Options estático | nometabela (String nometabela) |
Métodos herdados
Constantes
String final estática pública OP_NAME
O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow
Métodos Públicos
Saída pública < TFloat32 > acumuladores ()
Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.
configuração pública estática RetrieveTPUEmbeddingAdagradParameters.Options (configuração de string)
public static RetrieveTPUEmbeddingAdagradParameters create ( Escopo de escopo , Long numShards, Long shardId, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingAdagradParameters.
Parâmetros
escopo | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingAdagradParameters
Saída pública < TFloat32 > parâmetros ()
Parâmetros atualizados pelo algoritmo de otimização Adagrad.