@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint
Uma camada de eliminação Alpha.
Alpha Dropout é um Dropout
que mantém a média e a variância das entradas em seus valores originais, de forma a garantir a propriedade de autonormalização mesmo após esse dropout. Alpha Dropout se adapta bem às unidades lineares exponenciais em escala, definindo aleatoriamente as ativações para o valor de saturação negativo.
Fonte: Redes Neurais Auto-Normalizantes: https://arxiv.org/abs/1706.02515
Declaração
public typealias TangentVector = EmptyTangentVector
Declaração
@noDerivative public let probability: Double
Inicializa uma camada
AlphaDropout
com umaprobability
configurável.Condição prévia
a probabilidade deve ser um valor entre 0 e 1 (inclusive).Declaração
public init(probability: Double)
Parâmetros
probability
A probabilidade de um nó cair.