LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

classe final pública LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Carregar parâmetros de incorporação SGD.

Uma operação que carrega parâmetros de otimização no HBM para incorporação. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para instalar parâmetros que são carregados de um ponto de verificação antes que um loop de treinamento seja executado.

Classes aninhadas

aula LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Atributos opcionais para LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Métodos Públicos

LoadTPUEmbedding estáticoStochasticGradientDescentParametersGradAccumDebug.Options
configuração (configuração de string)
LoadTPUEmbedding estáticoStochasticGradientDescentParametersGradAccumDebug
create (Escopo do escopo , parâmetros Operando <Float>, Operando <Float> gradienteAccumulators, Long numShards, Long shardId, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
LoadTPUEmbedding estáticoStochasticGradientDescentParametersGradAccumDebug.Options
tableId (tableId longo)
LoadTPUEmbedding estáticoStochasticGradientDescentParametersGradAccumDebug.Options
nometabela (String nometabela)

Métodos herdados

Métodos Públicos

configuração pública estática LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configuração de string)

public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Escopo do escopo , parâmetros Operando <Float>, Operando <Float> gradienteAccumulators, Long numShards, Long shardId, Opções... opções)

Método de fábrica para criar uma classe que envolve uma nova operação LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Parâmetros
escopo escopo atual
parâmetros Valor dos parâmetros usados ​​no algoritmo estocástico de otimização de descida gradiente.
gradienteAcumuladores Valor de gradiente_accumulators usado no algoritmo de otimização Adadelta.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug