@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint
Một lớp bỏ học Alpha.
Alpha Dropout là Dropout
giữ giá trị trung bình và phương sai của đầu vào về giá trị ban đầu của chúng, để đảm bảo thuộc tính tự chuẩn hóa ngay cả sau lần bỏ học này. Alpha Dropout rất phù hợp với Đơn vị tuyến tính hàm mũ theo tỷ lệ bằng cách đặt ngẫu nhiên các kích hoạt thành giá trị bão hòa âm.
Nguồn: Mạng thần kinh tự chuẩn hóa: https://arxiv.org/abs/1706.02515
Tuyên ngôn
public typealias TangentVector = EmptyTangentVector
Tuyên ngôn
@noDerivative public let probability: Double
Khởi tạo lớp
AlphaDropout
vớiprobability
có thể định cấu hình.Điều kiện tiên quyết
xác suất phải là giá trị từ 0 đến 1 (bao gồm).Tuyên ngôn
public init(probability: Double)
Thông số
probability
Xác suất của một nút bị loại bỏ.