@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint
Una capa de abandono Alfa.
Alpha Dropout es un Dropout
que mantiene la media y la varianza de las entradas en sus valores originales, para garantizar la propiedad de autonormalización incluso después de este abandono. La caída alfa se adapta bien a las unidades lineales exponenciales escaladas al establecer activaciones aleatoriamente en el valor de saturación negativo.
Fuente: Redes neuronales autonormalizadas: https://arxiv.org/abs/1706.02515
Declaración
public typealias TangentVector = EmptyTangentVector
Declaración
@noDerivative public let probability: Double
Inicializa una capa
AlphaDropout
con unaprobability
configurable.Condición previa
la probabilidad debe ser un valor entre 0 y 1 (inclusive).Declaración
public init(probability: Double)
Parámetros
probability
La probabilidad de que un nodo se caiga.