public class RAdam<Model: Differentiable>: Optimizer
where
Model.TangentVector: VectorProtocol & PointwiseMultiplicative & ElementaryFunctions
& KeyPathIterable,
Model.TangentVector.VectorSpaceScalar == Float
Оптимизатор РАдам.
Исправленный Адам, вариант Адама, который вводит термин для исправления отклонения скорости адаптивного обучения.
Ссылка: «О дисперсии скорости адаптивного обучения и не только»
Декларация
public typealias Model = Model
Скорость обучения.
Декларация
public var learningRate: Float
Коэффициент, используемый для расчета первого и второго моментов градиентов.
Декларация
public var beta1: Float
Коэффициент, используемый для расчета первого и второго моментов градиентов.
Декларация
public var beta2: Float
К знаменателю добавлен небольшой скаляр для улучшения числовой стабильности.
Декларация
public var epsilon: Float
Скорость обучения снижается.
Декларация
public var decay: Float
Текущий шаг.
Декларация
public var step: Int
Первые мгновения весов.
Декларация
public var firstMoments: Model.TangentVector
Вторые моменты весов.
Декларация
public var secondMoments: Model.TangentVector
Декларация
public init( for model: __shared Model, learningRate: Float = 1e-3, beta1: Float = 0.9, beta2: Float = 0.999, epsilon: Float = 1e-8, decay: Float = 0 )
Декларация
public required init(copying other: RAdam, to device: Device)