ApplyAdaMax

publiczna klasa końcowa ApplyAdaMax

Zaktualizuj „*var” zgodnie z algorytmem AdaMax.

m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) zmienna <- zmienna - współczynnik_uczenia się / (1 - beta1^ t) * m_t / (v_t + epsilon)

Klasy zagnieżdżone

klasa ZastosujAdaMax.Opcje Opcjonalne atrybuty ApplyAdaMax

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

Wyjście <T>
jako wyjście ()
Zwraca symboliczny uchwyt tensora.
statyczny <T rozszerza TType > ApplyAdaMax <T>
utwórz (Zakres zasięgu , Operand <T> var, Operand <T> m, Argument <T> v, Operand <T> beta1Power, Argument <T> lr, Argument <T> beta1, Argument <T> beta2, Argument <T > epsilon, Operand <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdaMax.
Wyjście <T>
na zewnątrz ()
To samo co „var”.
statyczne ApplyAdaMax.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ApplyAdaMax”

Metody publiczne

publiczne wyjście <T> asOutput ()

Zwraca symboliczny uchwyt tensora.

Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.

public static ApplyAdaMax <T> create ( Zakres zakresu, Operand <T> var, Operand <T> m, Operand <T> v, Operand <T> beta1Power, Operand <T> lr, Operand <T> beta1, Argument <T > beta2, Operand <T> epsilon, Operand <T> grad, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdaMax.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
M Powinno pochodzić ze zmiennej ().
w Powinno pochodzić ze zmiennej ().
beta1Moc Musi być skalarem.
lr Współczynnik skalowania. Musi być skalarem.
beta1 Czynnik pędu. Musi być skalarem.
beta2 Czynnik pędu. Musi być skalarem.
epsilon Termin grzbietowy. Musi być skalarem.
absolwent Gradient.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja ApplyAdaMax

publiczne wyjście <T> out ()

To samo co „var”.

public static ApplyAdaMax.Options useLocking (Boolean useLocking)

Parametry
użyjBlokowanie Jeśli `True`, aktualizacja tensorów var, m i v będzie chroniona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.