ResourceSparseApplyAdagradDa

classe finale pubblica ResourceSparseApplyAdagradDa

Aggiorna le voci in '*var' e '*accum' secondo lo schema adagrad prossimale.

Classi nidificate

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

statico <T estende TType > ResourceSparseApplyAdagradDa
create ( Scope scope, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? extends TNumber > indici, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceSparseApplyAdagradDa.
static ResourceSparseApplyAdagradDa.Options
useLocking (useLocking booleano)

Metodi ereditati

org.tensorflow.op.RawOp
booleano finale
è uguale a (Oggetto oggetto)
finale int
Operazione
operazione ()
Restituisce questa unità di calcolo come una singola Operation .
stringa finale
booleano
è uguale a (Oggetto arg0)
Classe finale<?>
getClass ()
int
codice hash ()
vuoto finale
notificare ()
vuoto finale
notificaTutti ()
Corda
accordare ()
vuoto finale
attendere (lungo arg0, int arg1)
vuoto finale
aspetta (lungo arg0)
vuoto finale
Aspettare ()
org.tensorflow.op.Op
ambiente di esecuzione astratto
ambiente ()
Restituisce l'ambiente di esecuzione in cui è stata creata questa operazione.
Operazione astratta
operazione ()
Restituisce questa unità di calcolo come una singola Operation .

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "ResourceSparseApplyAdagradDA"

Metodi pubblici

public static ResourceSparseApplyAdagradDa create ( Scope scope, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <? extends TNumber > indici, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione ResourceSparseApplyAdagradDa.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
gradientAccumulatore Dovrebbe provenire da una variabile().
gradientSquaredAccumulatore Dovrebbe provenire da una variabile().
grado Il gradiente.
indici Un vettore di indici nella prima dimensione di var e accum.
lr Tasso di apprendimento. Deve essere uno scalare.
l1 Regolarizzazione L1. Deve essere uno scalare.
l2 Regolarizzazione L2. Deve essere uno scalare.
globalStep Numero della fase di allenamento. Deve essere uno scalare.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di ResourceSparseApplyAdagradDa

public static ResourceSparseApplyAdagradDa.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se True, l'aggiornamento dei tensori var e accum sarà protetto da un lock; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.