@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint
เลเยอร์การออกกลางคันของอัลฟ่า
Alpha Dropout คือ Dropout
ที่จะเก็บค่าเฉลี่ยและความแปรปรวนของอินพุตให้เป็นค่าดั้งเดิม เพื่อให้แน่ใจว่าคุณสมบัติการทำให้เป็นมาตรฐานในตัวเองแม้หลังจากการออกกลางคันนี้ Alpha Dropout เข้ากันได้ดีกับ Scaled Exponential Linear Units โดยการสุ่มตั้งค่าการเปิดใช้งานให้เป็นค่าความอิ่มตัวที่เป็นลบ
ที่มา: โครงข่ายประสาทเทียมที่ทำให้เป็นมาตรฐานด้วยตนเอง: https://arxiv.org/abs/1706.02515
คำประกาศ
public typealias TangentVector = EmptyTangentVector
คำประกาศ
@noDerivative public let probability: Double
เริ่มต้นเลเยอร์
AlphaDropout
ด้วยprobability
ที่กำหนดค่าได้เงื่อนไขเบื้องต้น
ความน่าจะเป็นต้องเป็นค่าระหว่าง 0 ถึง 1 (รวม)คำประกาศ
public init(probability: Double)
พารามิเตอร์
probability
ความน่าจะเป็นที่โหนดจะหลุดออก