Rzadka aktualizacja „*var” jako algorytmu FOBOS ze stałą szybkością uczenia się.
To znaczy dla wierszy, dla których mamy grad, aktualizujemy var w następujący sposób: prox_v = var - alfa grad var = znak(prox_v)/(1+alfa l2) max{|prox_v|-alpha l1,0}
Klasy zagnieżdżone
| klasa | ResourceSparseApplyProximalGradientDescent.Opcje | Opcjonalne atrybuty ResourceSparseApplyProximalGradientDescent | |
Stałe
| Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
| static <T rozszerza TType > ResourceSparseApplyProximalGradientDescent | |
| statyczny ResourceSparseApplyProximalGradientDescent.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static ResourceSparseApplyProximalGradientDescent create ( Zakres zakresu, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyProximalGradientDescent.
Parametry
| zakres | aktualny zakres |
|---|---|
| odm | Powinno pochodzić ze zmiennej (). |
| alfa | Współczynnik skalowania. Musi być skalarem. |
| l1 | Regularyzacja L1. Musi być skalarem. |
| l2 | Regularyzacja L2. Musi być skalarem. |
| absolwent | Gradient. |
| indeksy | Wektor indeksów do pierwszego wymiaru var i accum. |
| opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowe wystąpienie ResourceSparseApplyProximalGradientDescent
publiczny statyczny ResourceSparseApplyProximalGradientDescent.Options useLocking (boolean useLocking)
Parametry
| użyjBlokowanie | Jeśli True, odejmowanie będzie chronione blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
|---|
Rzadka aktualizacja „*var” jako algorytmu FOBOS ze stałą szybkością uczenia się.
To znaczy dla wierszy, dla których mamy grad, aktualizujemy var w następujący sposób: prox_v = var - alfa grad var = znak(prox_v)/(1+alfa l2) max{|prox_v|-alpha l1,0}
Klasy zagnieżdżone
| klasa | ResourceSparseApplyProximalGradientDescent.Opcje | Opcjonalne atrybuty ResourceSparseApplyProximalGradientDescent | |
Stałe
| Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
| static <T rozszerza TType > ResourceSparseApplyProximalGradientDescent | |
| statyczny ResourceSparseApplyProximalGradientDescent.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static ResourceSparseApplyProximalGradientDescent create ( Zakres zakresu, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyProximalGradientDescent.
Parametry
| zakres | aktualny zakres |
|---|---|
| odm | Powinno pochodzić ze zmiennej (). |
| alfa | Współczynnik skalowania. Musi być skalarem. |
| l1 | Regularyzacja L1. Musi być skalarem. |
| l2 | Regularyzacja L2. Musi być skalarem. |
| absolwent | Gradient. |
| indeksy | Wektor indeksów do pierwszego wymiaru var i accum. |
| opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowe wystąpienie ResourceSparseApplyProximalGradientDescent
publiczny statyczny ResourceSparseApplyProximalGradientDescent.Options useLocking (boolean useLocking)
Parametry
| użyjBlokowanie | Jeśli True, odejmowanie będzie chronione blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
|---|