public class RAdam<Model: Differentiable>: Optimizer
where
Model.TangentVector: VectorProtocol & PointwiseMultiplicative & ElementaryFunctions
& KeyPathIterable,
Model.TangentVector.VectorSpaceScalar == Float
Optymalizator RAdam.
Rectified Adam, odmiana Adama, która wprowadza termin korygujący wariancję adaptacyjnego tempa uczenia się.
Odniesienie: „O wariancjach adaptacyjnego tempa uczenia się i nie tylko”
Deklaracja
public typealias Model = Model
Szybkość uczenia się.
Deklaracja
public var learningRate: Float
Współczynnik używany do obliczania pierwszego i drugiego momentu gradientów.
Deklaracja
public var beta1: Float
Współczynnik używany do obliczania pierwszego i drugiego momentu gradientów.
Deklaracja
public var beta2: Float
Mały skalar dodany do mianownika w celu poprawy stabilności liczbowej.
Deklaracja
public var epsilon: Float
Spadek szybkości uczenia się.
Deklaracja
public var decay: Float
Bieżący krok.
Deklaracja
public var step: Int
Pierwsze chwile z ciężarami.
Deklaracja
public var firstMoments: Model.TangentVector
Drugi moment ciężarów.
Deklaracja
public var secondMoments: Model.TangentVector
Deklaracja
public init( for model: __shared Model, learningRate: Float = 1e-3, beta1: Float = 0.9, beta2: Float = 0.999, epsilon: Float = 1e-8, decay: Float = 0 )
Deklaracja
public required init(copying other: RAdam, to device: Device)