publiczna klasa końcowa ResourceSparseApplyAdagradDa
Zaktualizuj wpisy w „*var” i „*accum” zgodnie ze schematem bliższego adagradu.
Klasy zagnieżdżone
klasa | ResourceSparseApplyAdagradDa.Options | Opcjonalne atrybuty dla ResourceSparseApplyAdagradDa |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
statyczny <T rozszerza TType > ResourceSparseApplyAdagradDa | utwórz (Zakres zasięgu , Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? Extends TNumber > indeksy, Operand <T> lr, Operand <T> l1, Argument <T> l2, Operand < TInt64 > globalStep, Opcje... opcje) Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyAdagradDa. |
statyczny ResourceSparseApplyAdagradDa.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Wartość stała: „ResourceSparseApplyAdagradDA”
Metody publiczne
public static ResourceSparseApplyAdagradDa create ( Zakres zasięgu , Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Operand <T> lr, Operand <T> l1, Argument <T> l2, Argument < TInt64 > globalStep, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyAdagradDa.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
akumulator gradientu | Powinno pochodzić ze zmiennej (). |
akumulator gradientSquared | Powinno pochodzić ze zmiennej (). |
absolwent | Gradient. |
indeksy | Wektor indeksów do pierwszego wymiaru var i accum. |
lr | Szybkość uczenia się. Musi być skalarem. |
l1 | Regularyzacja L1. Musi być skalarem. |
l2 | Regularyzacja L2. Musi być skalarem. |
globalny krok | Numer kroku szkolenia. Musi być skalarem. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja ResourceSparseApplyAdagradDa
publiczny statyczny ResourceSparseApplyAdagradDa.Options useLocking (boolean useLocking)
Parametry
użyjBlokowanie | Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|