Zaktualizuj „*var” jako algorytm FOBOS ze stałą szybkością uczenia się.
prox_v = var - alfa delta var = znak(prox_v)/(1+alfa l2) max{|prox_v|-alfa l1,0}
Klasy zagnieżdżone
klasa | ZastosujProximalGradientDescent.Opcje | Opcjonalne atrybuty ApplyProximalGradientDescent |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
statyczny <T rozszerza TType > ApplyProximalGradientDescent <T> | |
Wyjście <T> | na zewnątrz () To samo co „var”. |
statyczny ApplyProximalGradientDescent.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
wartość logiczna | równa się (Obiekt arg0) |
ostatnia klasa<?> | pobierzKlasę () |
wew | hashCode () |
ostateczna pustka | powiadomić () |
ostateczna pustka | powiadom wszystkich () |
Strunowy | doString () |
ostateczna pustka | czekaj (długi arg0, int arg1) |
ostateczna pustka | czekaj (długi arg0) |
ostateczna pustka | Czekać () |
abstrakcyjne środowisko wykonania | środowisko () Zwróć środowisko wykonawcze, w którym utworzono tę operację. |
abstrakcyjna operacja |
streszczenie Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
streszczenie T | asTensor () Zwraca tensor tego operandu. |
abstrakcyjny kształt | |
Klasa abstrakcyjna<T> | typ () Zwraca typ tensora tego operandu |
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static ApplyProximalGradientDescent <T> create ( zakres zakresu , argument <T> var, argument <T> alfa, argument <T> l1, argument <T> l2, argument <T> delta, opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyProximalGradientDescent.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
alfa | Współczynnik skalowania. Musi być skalarem. |
l1 | Regularyzacja L1. Musi być skalarem. |
l2 | Regularyzacja L2. Musi być skalarem. |
delta | Zmiana. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nową instancję ApplyProximalGradientDescent
public static ApplyProximalGradientDescent.Options useLocking (boolean useLocking)
Parametry
użyjBlokowanie | Jeśli True, odejmowanie będzie chronione blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|