Cargue los parámetros de incrustación de Adagrad con soporte de depuración.
Una operación que carga parámetros de optimización en HBM para su integración. Debe estar precedido por una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de incrustación. Por ejemplo, esta operación se utiliza para instalar parámetros que se cargan desde un punto de control antes de que se ejecute un ciclo de entrenamiento.
Clases anidadas
clase | LoadTPUEmbeddingAdagradParametersGradAccumDebug.Options | Atributos opcionales para LoadTPUEmbeddingAdagradParametersGradAccumDebug |
Constantes
Cadena | OP_NOMBRE | El nombre de esta operación, como lo conoce el motor central de TensorFlow. |
Métodos públicos
Carga estáticaTPUEmbeddingAdagradParametersGradAccumDebug.Options | config (configuración de cadena) |
Carga estáticaTPUEmbeddingAdagradParametersGradAccumDebug | crear ( alcance alcance , parámetros de operando <TFloat32> , acumuladores de operando <TFloat32> , acumuladores de gradiente de operando <TFloat32> , Long numShards, Long shardId, Opciones... opciones) Método de fábrica para crear una clase que envuelve una nueva operación LoadTPUEmbeddingAdagradParametersGradAccumDebug. |
Carga estáticaTPUEmbeddingAdagradParametersGradAccumDebug.Options | tableId (Id de tabla larga) |
Carga estáticaTPUEmbeddingAdagradParametersGradAccumDebug.Options | nombre de tabla (nombre de tabla de cadena) |
Métodos heredados
Constantes
Cadena final estática pública OP_NAME
El nombre de esta operación, como lo conoce el motor central de TensorFlow.
Métodos públicos
Configuración pública estática LoadTPUEmbeddingAdagradParametersGradAccumDebug.Options (configuración de cadena)
creación estática pública LoadTPUEmbeddingAdagradParametersGradAccumDebug (alcance del alcance , parámetros del operando <TFloat32> , acumuladores del operando <TFloat32> , acumuladores de gradiente del operando <TFloat32> , numShards largos, shardId largo, opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación LoadTPUEmbeddingAdagradParametersGradAccumDebug.
Parámetros
alcance | alcance actual |
---|---|
parámetros | Valor de los parámetros utilizados en el algoritmo de optimización de Adagrad. |
acumuladores | Valor de los acumuladores utilizados en el algoritmo de optimización de Adagrad. |
gradienteAcumuladores | Valor de gradient_accumuladores utilizados en el algoritmo de optimización de Adagrad. |
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de LoadTPUEmbeddingAdagradParametersGradAccumDebug