public class RAdam<Model: Differentiable>: Optimizer
where
Model.TangentVector: VectorProtocol & PointwiseMultiplicative & ElementaryFunctions
& KeyPathIterable,
Model.TangentVector.VectorSpaceScalar == Float
RAdam オプティマイザー。
Rectified Adam。適応学習率の分散を修正するための項を導入した Adam のバリアントです。
宣言
public typealias Model = Model
学習率。
宣言
public var learningRate: Float
勾配の 1 次モーメントと 2 次モーメントを計算するために使用される係数。
宣言
public var beta1: Float
勾配の 1 次モーメントと 2 次モーメントを計算するために使用される係数。
宣言
public var beta2: Float
数値の安定性を向上させるために、分母に小さなスカラーが追加されました。
宣言
public var epsilon: Float
学習率が低下します。
宣言
public var decay: Float
現在のステップ。
宣言
public var step: Int
重みの最初の瞬間。
宣言
public var firstMoments: Model.TangentVector
重みの第二の瞬間。
宣言
public var secondMoments: Model.TangentVector
宣言
public init( for model: __shared Model, learningRate: Float = 1e-3, beta1: Float = 0.9, beta2: Float = 0.999, epsilon: Float = 1e-8, decay: Float = 0 )
宣言
public required init(copying other: RAdam, to device: Device)