@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint
Warstwa odpadająca Alpha.
Porzucenie alfa to Dropout
, które utrzymuje średnią i wariancję danych wejściowych na ich oryginalnych wartościach, aby zapewnić właściwość samonormalizacji nawet po tym porzuceniu. Alpha Dropout dobrze pasuje do skalowanych wykładniczych jednostek liniowych, losowo ustawiając aktywacje na ujemną wartość nasycenia.
Źródło: Samonormalizujące się sieci neuronowe: https://arxiv.org/abs/1706.02515
Deklaracja
public typealias TangentVector = EmptyTangentVector
Deklaracja
@noDerivative public let probability: Double
Inicjuje warstwę
AlphaDropout
z konfigurowalnymprobability
.Warunek wstępny
prawdopodobieństwo musi mieć wartość z zakresu od 0 do 1 (włącznie).Deklaracja
public init(probability: Double)
Parametry
probability
Prawdopodobieństwo wypadnięcia węzła.