Rzadkie wpisy aktualizacji w '*var' i '*accum' zgodnie z algorytmem FOBOS.
Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
Klasy zagnieżdżone
| klasa | SparseApplyProximalAdagrad.Opcje | Opcjonalne atrybuty dla SparseApplyProximalAdagrad | |
Stałe
| Smyczkowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
| Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
| statyczny <T rozszerza TType > SparseApplyProximalAdagrad <T> | |
| Wyjście <T> | na zewnątrz () To samo co „var”. |
| statyczne SparseApplyProximalAdagrad.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static SparseApplyProximalAdagrad <T> create (Zakres zakresu , Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Argument <? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyProximalAdagrad.
Parametry
| zakres | aktualny zakres |
|---|---|
| odm | Powinno pochodzić ze zmiennej (). |
| gromadzić | Powinno pochodzić ze zmiennej (). |
| lr | Szybkość uczenia się. Musi być skalarem. |
| l1 | Regularyzacja L1. Musi być skalarem. |
| l2 | Regularyzacja L2. Musi być skalarem. |
| absolwent | Gradient. |
| indeksy | Wektor indeksów do pierwszego wymiaru var i accum. |
| opcje | przenosi opcjonalne wartości atrybutów |
Powroty
- nowa instancja SparseApplyProximalAdagrad
public static SparseApplyProximalAdagrad.Options useLocking (boolean useLocking)
Parametry
| użyjBlokowanie | Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
|---|
Rzadkie wpisy aktualizacji w '*var' i '*accum' zgodnie z algorytmem FOBOS.
Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
Klasy zagnieżdżone
| klasa | SparseApplyProximalAdagrad.Opcje | Opcjonalne atrybuty dla SparseApplyProximalAdagrad | |
Stałe
| Smyczkowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
| Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
| statyczny <T rozszerza TType > SparseApplyProximalAdagrad <T> | |
| Wyjście <T> | na zewnątrz () To samo co „var”. |
| statyczne SparseApplyProximalAdagrad.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static SparseApplyProximalAdagrad <T> create (Zakres zakresu , Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Argument <? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyProximalAdagrad.
Parametry
| zakres | aktualny zakres |
|---|---|
| odm | Powinno pochodzić ze zmiennej (). |
| gromadzić | Powinno pochodzić ze zmiennej (). |
| lr | Szybkość uczenia się. Musi być skalarem. |
| l1 | Regularyzacja L1. Musi być skalarem. |
| l2 | Regularyzacja L2. Musi być skalarem. |
| absolwent | Gradient. |
| indeksy | Wektor indeksów do pierwszego wymiaru var i accum. |
| opcje | przenosi opcjonalne wartości atrybutów |
Powroty
- nowa instancja SparseApplyProximalAdagrad
public static SparseApplyProximalAdagrad.Options useLocking (boolean useLocking)
Parametry
| użyjBlokowanie | Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
|---|