RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug

clase final pública RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug

Recupere los parámetros de incorporación de Adadelta con soporte de depuración.

Una operación que recupera parámetros de optimización al incrustarlos en la memoria del host. Debe estar precedido por una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de incrustación. Por ejemplo, esta operación se utiliza para recuperar parámetros actualizados antes de guardar un punto de control.

Clases anidadas

clase RecuperarTPUEmbeddingAdadeltaParametersGradAccumDebug.Options Atributos opcionales para RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

Salida <TFloat32>
acumuladores ()
Acumuladores de parámetros actualizados por el algoritmo de optimización Adadelta.
Recuperación estáticaTPUEmbeddingAdadeltaParametersGradAccumDebug.Options
config (configuración de cadena)
Recuperación estáticaTPUEmbeddingAdadeltaParametersGradAccumDebug
crear (alcance alcance , Long numShards, Long shardId, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.
Salida <TFloat32>
gradientacumuladores ()
Parámetro gradient_accumulators actualizado por el algoritmo de optimización Adadelta.
Salida <TFloat32>
parámetros ()
Parámetros de parámetros actualizados por el algoritmo de optimización Adadelta.
Recuperación estáticaTPUEmbeddingAdadeltaParametersGradAccumDebug.Options
tableId (Id de tabla larga)
Recuperación estáticaTPUEmbeddingAdadeltaParametersGradAccumDebug.Options
nombre de tabla (nombre de tabla de cadena)
Salida <TFloat32>
actualizaciones ()
Actualizaciones de parámetros actualizadas por el algoritmo de optimización Adadelta.

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug"

Métodos públicos

Salida pública <TFloat32> acumuladores ()

Acumuladores de parámetros actualizados por el algoritmo de optimización Adadelta.

configuración pública estática RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.Options (configuración de cadena)

public static RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug create (alcance alcance , Long numShards, Long shardId, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.

Parámetros
alcance alcance actual
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug

Salida pública <TFloat32> gradientAccumuladores ()

Parámetro gradient_accumulators actualizado por el algoritmo de optimización Adadelta.

Parámetros de salida pública <TFloat32> ()

Parámetros de parámetros actualizados por el algoritmo de optimización Adadelta.

público estático RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.Options tableId (Long tableId)

público estático RetrieveTPUEmbeddingAdadeltaParametersGradAccumDebug.Options tableName (String tableName)

Salida pública <TFloat32> actualizaciones ()

Actualizaciones de parámetros actualizadas por el algoritmo de optimización Adadelta.