ELU

klasa publiczna ELU

Wykładnicza jednostka liniowa.

Wykładnicza jednostka liniowa (ELU) z alpha > 0 to:

x jeśli x > 0 i alpha * (exp(x) - 1) jeśli x < 0 .

Hiperparametr ELU alpha kontroluje wartość, do której nasyca się ELU dla ujemnych wejść netto. ELU zmniejszają efekt zanikającego gradientu.

Jednostki ELU mają wartości ujemne, co przybliża średnią aktywacji do zera. Aktywacje średnie bliższe zera umożliwiają szybsze uczenie się, ponieważ przybliżają gradient do gradientu naturalnego. Jednostki ELU nasycają się do wartości ujemnej, gdy argument staje się mniejszy. Nasycenie oznacza małą pochodną, ​​która zmniejsza zmienność i informacja jest propagowana do następnej warstwy.

Przykładowe użycie:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

Konstruktorzy publiczni

ELU (Ops tf)
Tworzy nowy ELU z alpha= ERROR(/#ALPHA_DEFAULT) .
ELU (Ops tf, podwójna alfa)
Tworzy nowy ELU

Metody publiczne

Argument <T>
wywołanie (wejście argumentu <T>)
Pobiera operację obliczeniową dla aktywacji.

Metody dziedziczone

Konstruktorzy publiczni

publiczny ELU (Ops tf)

Tworzy nowy ELU z alpha= ERROR(/#ALPHA_DEFAULT) .

Parametry
tf operacji TensorFlow

publiczny ELU (Ops tf, podwójna alfa)

Tworzy nowy ELU

Parametry
tf operacji TensorFlow
alfa Skalar, nachylenie przekroju ujemnego. Kontroluje wartość, do której nasyca się ELU dla ujemnych wejść netto.

Metody publiczne

publiczne wywołanie argumentu <T> (wejście argumentu <T>)

Pobiera operację obliczeniową dla aktywacji.

Parametry
wejście tensor wejściowy
Zwroty
  • Operand aktywacji