ResourceSparseApplyAdagradV2

publiczna klasa końcowa ResourceSparseApplyAdagradV2

Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem adagrad.

Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

Klasy zagnieżdżone

klasa ResourceSparseApplyAdagradV2.Opcje Opcjonalne atrybuty dla ResourceSparseApplyAdagradV2

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

statyczny <T rozszerza TType > ResourceSparseApplyAdagradV2
utwórz (Zakres zasięgu , Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyAdagradV2.
statyczne ResourceSparseApplyAdagradV2.Options
updateSlots (Boolean updateSlots)
statyczne ResourceSparseApplyAdagradV2.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ResourceSparseApplyAdagradV2”

Metody publiczne

public static ResourceSparseApplyAdagradV2 create ( Zakres zakresu, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyAdagradV2.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
gromadzić Powinno pochodzić ze zmiennej ().
lr Szybkość uczenia się. Musi być skalarem.
epsilon Stały czynnik. Musi być skalarem.
absolwent Gradient.
indeksy Wektor indeksów do pierwszego wymiaru var i accum.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja ResourceSparseApplyAdagradV2

public static ResourceSparseApplyAdagradV2.Options updateSlots (Boolean updateSlots)

publiczny statyczny ResourceSparseApplyAdagradV2.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli `True`, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.