SparseApplyAdagradV2

public final class SparseApplyAdagradV2

Aggiorna le voci pertinenti in "* var" e "* accum" secondo lo schema adagrad.

Cioè per le righe per cui abbiamo grad, aggiorniamo var e accum come segue:

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

Classi annidate

classe SparseApplyAdagradV2.Options Attributi facoltativi per SparseApplyAdagradV2

Metodi pubblici

Uscita <T>
asOutput ()
Restituisce la maniglia simbolica di un tensore.
static <T, U estende Number> SparseApplyAdagradV2 <T>
create ( ambito ambito, operando <T> var, operando <T> accum, operando <T> lr, operando <T> epsilon, operando <T> grad, operando <U> indici, opzioni ... opzioni)
Metodo Factory per creare una classe che esegue il wrapping di una nuova operazione SparseApplyAdagradV2.
Uscita <T>
fuori ()
Uguale a "var".
static SparseApplyAdagradV2.Options
updateSlots (booleano updateSlots)
static SparseApplyAdagradV2.Options
useLocking (booleano useLocking)

Metodi ereditati

Metodi pubblici

output pubblico <T> asOutput ()

Restituisce la maniglia simbolica di un tensore.

Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.

public static SparseApplyAdagradV2 <T> create ( ambito ambito, operando <T> var, operando <T> accum, operando <T> lr, operando <T> epsilon, operando <T> grad, operando <U> indici, opzioni .. . opzioni)

Metodo Factory per creare una classe che esegue il wrapping di una nuova operazione SparseApplyAdagradV2.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile ().
accum Dovrebbe provenire da una variabile ().
lr Tasso di apprendimento. Deve essere uno scalare.
epsilon Fattore costante. Deve essere uno scalare.
grad Il gradiente.
indici Un vettore di indici nella prima dimensione di var e accum.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di SparseApplyAdagradV2

output pubblico <T> out ()

Uguale a "var".

public static SparseApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static SparseApplyAdagradV2.Options useLocking (Boolean useLocking)

Parametri
useLocking Se "True", l'aggiornamento dei tensori var e accum sarà protetto da un lock; in caso contrario, il comportamento è indefinito, ma potrebbe presentare meno contese.