Recuperar parâmetros de incorporação do Adagrad.
Uma operação que recupera parâmetros de otimização da incorporação na memória do host. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
| aula | RecuperarTPUEmbeddingAdagradParameters.Options | Atributos opcionais para RetrieveTPUEmbeddingAdagradParameters | |
Constantes
| Corda | OP_NAME | O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow |
Métodos Públicos
| Saída < TFloat32 > | acumuladores () Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad. |
| RetrieveTPUEmbeddingAdagradParameters.Options estático | configuração (configuração de string) |
| estática RetrieveTPUEmbeddingAdagradParameters | |
| Saída < TFloat32 > | parâmetros () Parâmetros atualizados pelo algoritmo de otimização Adagrad. |
| RetrieveTPUEmbeddingAdagradParameters.Options estático | tableId (tableId longo) |
| RetrieveTPUEmbeddingAdagradParameters.Options estático | nometabela (String nometabela) |
Métodos herdados
Constantes
String final estática pública OP_NAME
O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow
Métodos Públicos
Saída pública < TFloat32 > acumuladores ()
Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.
configuração pública estática RetrieveTPUEmbeddingAdagradParameters.Options (configuração de string)
public static RetrieveTPUEmbeddingAdagradParameters create ( Escopo de escopo , Long numShards, Long shardId, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingAdagradParameters.
Parâmetros
| escopo | escopo atual |
|---|---|
| opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingAdagradParameters
Saída pública < TFloat32 > parâmetros ()
Parâmetros atualizados pelo algoritmo de otimização Adagrad.