Recupere los parámetros de incrustación de ADAM con soporte de depuración.
Una operación que recupera los parámetros de optimización de la incrustación en la memoria del host. Debe ir precedido de una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de inserción. Por ejemplo, esta operación se utiliza para recuperar parámetros actualizados antes de guardar un punto de control.
Clases anidadas
clase | RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | Los atributos opcionales para RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Constantes
Cuerda | OP_NAME | El nombre de esta operación, como lo conoce el motor central de TensorFlow |
Métodos públicos
estáticas RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | config (String config) |
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug | crear ( Alcance alcance, numShards mucho, mucho shardId, Opciones ... Opciones) Método de fábrica para crear una clase que envuelva una nueva operación RetrieveTPUEmbeddingADAMParametersGradAccumDebug. |
Salida < TFloat32 > | gradientAccumulators () Parámetro gradiente_acumuladores actualizado por el algoritmo de optimización de ADAM. |
Salida < TFloat32 > | momentos () Momentos de parámetros actualizados por el algoritmo de optimización de ADAM. |
Salida < TFloat32 > | parámetros () Parámetros de parámetros actualizados por el algoritmo de optimización de ADAM. |
estáticas RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId no (Long tableId no) |
estáticas RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | nombreTabla (String nombreTabla) |
Salida < TFloat32 > | velocidades () Velocidades de parámetros actualizadas por el algoritmo de optimización de ADAM. |
Métodos heredados
Constantes
OP_NAME pública final static String
El nombre de esta operación, como lo conoce el motor central de TensorFlow
Métodos públicos
estáticas pública RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options de configuración (config String)
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug crear ( Alcance alcance, numShards mucho, mucho shardId, Opciones ... Opciones)
Método de fábrica para crear una clase que envuelva una nueva operación RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Parámetros
alcance | alcance actual |
---|---|
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de RetrieveTPUEmbeddingADAMParametersGradAccumDebug
pública de salida < TFloat32 > gradientAccumulators ()
Parámetro gradiente_acumuladores actualizado por el algoritmo de optimización de ADAM.
pública de salida < TFloat32 > cantidades de movimiento ()
Momentos de parámetros actualizados por el algoritmo de optimización de ADAM.
pública de salida < TFloat32 > parámetros ()
Parámetros de parámetros actualizados por el algoritmo de optimización de ADAM.