clase final pública ResourceSparseApplyAdagradDa
Actualice las entradas en '*var' y '*accum' según el esquema adagrad proximal.
Clases anidadas
| clase | ResourceSparseApplyAdagradDa.Options | Atributos opcionales para ResourceSparseApplyAdagradDa | |
Constantes
| Cadena | OP_NOMBRE | El nombre de esta operación, como lo conoce el motor central de TensorFlow. | 
Métodos públicos
| estático <T extiende TType > ResourceSparseApplyAdagradDa |  crear ( Alcance alcance, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? extiende TNumber > índices, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opciones... opciones)  Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyAdagradDa. | 
| estático ResourceSparseApplyAdagradDa.Options |  useLocking (uso booleano Locking)  | 
Métodos heredados
Constantes
Cadena final estática pública OP_NAME
El nombre de esta operación, como lo conoce el motor central de TensorFlow.
 Valor constante: "ResourceSparseApplyAdagradDA" 
Métodos públicos
public static ResourceSparseApplyAdagradDa create ( Alcance alcance, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? extiende TNumber > índices, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyAdagradDa.
Parámetros
| alcance | alcance actual | 
|---|---|
| var | Debe ser de una Variable(). | 
| gradienteacumulador | Debe ser de una Variable(). | 
| gradienteCuadradoAcumulador | Debe ser de una Variable(). | 
| graduado | El gradiente. | 
| índices | Un vector de índices en la primera dimensión de var y accum. | 
| lr | Tasa de aprendizaje. Debe ser un escalar. | 
| l1 | Regularización L1. Debe ser un escalar. | 
| l2 | Regularización L2. Debe ser un escalar. | 
| paso global | Número de paso de entrenamiento. Debe ser un escalar. | 
| opciones | lleva valores de atributos opcionales | 
Devoluciones
- una nueva instancia de ResourceSparseApplyAdagradDa
ResourceSparseApplyAdagradDa.Options estático público useLocking (useLocking booleano)
Parámetros
| utilizarBloqueo | Si es Verdadero, la actualización de los tensores var y accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención. | 
|---|