ราดัม

public class RAdam<Model: Differentiable>: Optimizer
where
  Model.TangentVector: VectorProtocol & PointwiseMultiplicative & ElementaryFunctions
    & KeyPathIterable,
  Model.TangentVector.VectorSpaceScalar == Float

โปรแกรมเพิ่มประสิทธิภาพ RAdam

Rectified Adam ซึ่งเป็นอีกรูปแบบหนึ่งของ Adam ที่แนะนำคำศัพท์เพื่อแก้ไขความแปรปรวนของอัตราการเรียนรู้แบบปรับตัว

อ้างอิง: “ความแปรปรวนของอัตราการเรียนรู้แบบปรับตัวและอื่นๆ”

  • คำประกาศ

    public typealias Model = Model
  • อัตราการเรียนรู้

    คำประกาศ

    public var learningRate: Float
  • ค่าสัมประสิทธิ์ที่ใช้ในการคำนวณโมเมนต์แรกและวินาทีของการไล่ระดับสี

    คำประกาศ

    public var beta1: Float
  • ค่าสัมประสิทธิ์ที่ใช้ในการคำนวณโมเมนต์แรกและวินาทีของการไล่ระดับสี

    คำประกาศ

    public var beta2: Float
  • สเกลาร์ขนาดเล็กถูกเพิ่มเข้าไปในตัวส่วนเพื่อปรับปรุงความเสถียรของตัวเลข

    คำประกาศ

    public var epsilon: Float
  • อัตราการเรียนรู้ลดลง

    คำประกาศ

    public var decay: Float
  • ขั้นตอนปัจจุบัน

    คำประกาศ

    public var step: Int
  • ช่วงแรกของการยกน้ำหนัก

    คำประกาศ

    public var firstMoments: Model.TangentVector
  • ช่วงเวลาที่สองของการตุ้มน้ำหนัก

    คำประกาศ

    public var secondMoments: Model.TangentVector
  • คำประกาศ

    public init(
      for model: __shared Model,
      learningRate: Float = 1e-3,
      beta1: Float = 0.9,
      beta2: Float = 0.999,
      epsilon: Float = 1e-8,
      decay: Float = 0
    )
  • คำประกาศ

    public func update(_ model: inout Model, along direction: Model.TangentVector)
  • คำประกาศ

    public required init(copying other: RAdam, to device: Device)