Aggiorna '* var' secondo lo schema adagrad.
accum + = grad * grad var - = lr * grad * (1 / sqrt (accum))
Classi annidate
classe | ApplyAdagradV2.Options | Attributi facoltativi per ApplyAdagradV2 |
Metodi pubblici
Uscita <T> | asOutput () Restituisce la maniglia simbolica di un tensore. |
statico <T> ApplyAdagradV2 <T> | |
Uscita <T> | fuori () Uguale a "var". |
statico ApplyAdagradV2.Options | updateSlots (booleano updateSlots) |
statico ApplyAdagradV2.Options | useLocking (booleano useLocking) |
Metodi ereditati
Metodi pubblici
output pubblico <T> asOutput ()
Restituisce la maniglia simbolica di un tensore.
Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.
public static ApplyAdagradV2 <T> create ( ambito ambito, operando <T> var, operando <T> accum, operando <T> lr, operando <T> epsilon, operando <T> grad, opzioni ... opzioni)
Metodo Factory per creare una classe che avvolge una nuova operazione ApplyAdagradV2.
Parametri
scopo | ambito attuale |
---|---|
var | Dovrebbe provenire da una variabile (). |
accum | Dovrebbe provenire da una variabile (). |
lr | Fattore di scala. Deve essere uno scalare. |
epsilon | Fattore costante. Deve essere uno scalare. |
grad | Il gradiente. |
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di ApplyAdagradV2
public static ApplyAdagradV2.Options useLocking (Boolean useLocking)
Parametri
useLocking | Se "True", l'aggiornamento dei tensori var e accum sarà protetto da un lock; in caso contrario, il comportamento è indefinito, ma potrebbe presentare meno contese. |
---|