Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem adagrad.
Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Klasy zagnieżdżone
| klasa | ResourceSparseApplyAdagrad.Opcje | Opcjonalne atrybuty dla ResourceSparseApplyAdagrad | |
Stałe
| Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow | 
Metody publiczne
| statyczny <T rozszerza TType > ResourceSparseApplyAdagrad | |
| statyczny ResourceSparseApplyAdagrad.Options |  updateSlots (Boolean updateSlots) | 
| statyczny ResourceSparseApplyAdagrad.Options |  useLocking (boolowski useLocking)  | 
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static ResourceSparseApplyAdagrad create ( Zakres zasięgu , Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyAdagrad.
Parametry
| zakres | aktualny zakres | 
|---|---|
| odm | Powinno pochodzić ze zmiennej (). | 
| gromadzić | Powinno pochodzić ze zmiennej (). | 
| lr | Szybkość uczenia się. Musi być skalarem. | 
| absolwent | Gradient. | 
| indeksy | Wektor indeksów do pierwszego wymiaru var i accum. | 
| opcje | przenosi opcjonalne wartości atrybutów | 
Zwroty
- nowa instancja ResourceSparseApplyAdagrad
publiczny statyczny ResourceSparseApplyAdagrad.Options useLocking (boolean useLocking)
Parametry
| użyjBlokowanie | Jeśli `True`, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. | 
|---|