ResourceApplyAdagradDa

publiczna klasa końcowa ResourceApplyAdagradDa

Zaktualizuj „*var” zgodnie ze schematem bliższego adagradu.

Klasy zagnieżdżone

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

statyczny <T rozszerza TType > ResourceApplyAdagradDa
utwórz (Zakres zasięgu , Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdagradDa.
statyczne ResourceApplyAdagradDa.Options
useLocking (boolowski useLocking)

Metody dziedziczone

org.tensorflow.op.RawOp
końcowa wartość logiczna
równa się (obiekt obiektu)
końcowy wew
Operacja
op ()
Zwróć tę jednostkę obliczeniową jako pojedynczą Operation .
ostatni ciąg
wartość logiczna
równa się (Obiekt arg0)
ostatnia klasa<?>
pobierzKlasę ()
wew
hashCode ()
ostateczna pustka
powiadomić ()
ostateczna pustka
powiadom wszystkich ()
Strunowy
doString ()
ostateczna pustka
czekaj (długi arg0, int arg1)
ostateczna pustka
czekaj (długi arg0)
ostateczna pustka
Czekać ()
org.tensorflow.op.Op
abstrakcyjne środowisko wykonania
środowisko ()
Zwróć środowisko wykonawcze, w którym utworzono tę operację.
abstrakcyjna operacja
op ()
Zwróć tę jednostkę obliczeniową jako pojedynczą Operation .

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ResourceApplyAdagradDA”

Metody publiczne

public static ResourceApplyAdagradDa create (Zakres zasięgu , Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Argument <T> l2, Operand < TInt64 > globalStep, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdagradDa.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
akumulator gradientu Powinno pochodzić ze zmiennej ().
akumulator gradientSquared Powinno pochodzić ze zmiennej ().
absolwent Gradient.
lr Współczynnik skalowania. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
globalny krok Numer kroku szkolenia. Musi być skalarem.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja ResourceApplyAdagradDa

publiczny statyczny ResourceApplyAdagradDa.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.