RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

RetrieveTPUEmbeddingAdagradParametersGradAccumDebug public final class

Recupere los parámetros de incrustación de Adagrad con soporte de depuración.

Una operación que recupera los parámetros de optimización de la incrustación en la memoria del host. Debe ir precedido de una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de inserción. Por ejemplo, esta operación se utiliza para recuperar parámetros actualizados antes de guardar un punto de control.

Clases anidadas

clase RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options Los atributos opcionales para RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Constantes

Cuerda OP_NAME El nombre de esta operación, como lo conoce el motor central de TensorFlow

Métodos públicos

Salida < TFloat32 >
acumuladores ()
Acumuladores de parámetros actualizados por el algoritmo de optimización Adagrad.
estáticas RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
config (String config)
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug
crear ( Alcance alcance, numShards mucho, mucho shardId, Opciones ... Opciones)
Método de fábrica para crear una clase que envuelva una nueva operación RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.
Salida < TFloat32 >
gradientAccumulators ()
Parámetro gradiente_acumuladores actualizado por el algoritmo de optimización de Adagrad.
Salida < TFloat32 >
parámetros ()
Parámetros de parámetros actualizados por el algoritmo de optimización de Adagrad.
estáticas RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
tableId no (Long tableId no)
estáticas RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
nombreTabla (String nombreTabla)

Métodos heredados

Constantes

OP_NAME pública final static String

El nombre de esta operación, como lo conoce el motor central de TensorFlow

Valor constante: "RetrieveTPUEmbeddingAdagradParametersGradAccumDebug"

Métodos públicos

pública de salida < TFloat32 > acumuladores ()

Acumuladores de parámetros actualizados por el algoritmo de optimización Adagrad.

estáticas pública RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options de configuración (config String)

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug crear ( Alcance alcance, numShards mucho, mucho shardId, Opciones ... Opciones)

Método de fábrica para crear una clase que envuelva una nueva operación RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.

Parámetros
alcance alcance actual
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

pública de salida < TFloat32 > gradientAccumulators ()

Parámetro gradiente_acumuladores actualizado por el algoritmo de optimización de Adagrad.

pública de salida < TFloat32 > parámetros ()

Parámetros de parámetros actualizados por el algoritmo de optimización de Adagrad.

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options tableId no (Long tableId no)

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options nombreTabla (String nombreTabla)