public class AdaMax<Model: Differentiable & KeyPathIterable>: Optimizer
where
Model.TangentVector: VectorProtocol & PointwiseMultiplicative & ElementaryFunctions
& KeyPathIterable,
Model.TangentVector.VectorSpaceScalar == Float
AdaMax optimize edici.
Adem'in sonsuzluk normuna dayalı bir çeşidi.
Referans: “Adam - Stokastik Optimizasyon İçin Bir Yöntem” Bölüm 7
beyan
public typealias Model = Model
Öğrenme oranı.
beyan
public var learningRate: Float
Degradelerin ilk momentini (ortalamasını) tahmin etmek için kullanılan bozunma oranı.
beyan
public var beta1: Float
Üstel ağırlıklı sonsuzluk normunu tahmin etmek için kullanılan bozunma oranı.
beyan
public var beta2: Float
Sayısal kararlılığı artırmak için paydaya küçük bir skaler eklenir.
beyan
public var epsilon: Float
Öğrenme hızının azalması.
beyan
public var decay: Float
Adım sayısı.
beyan
public var step: Int
Ağırlıkların ilk anları.
beyan
public var firstMoments: Model.TangentVector
Ağırlıkların üstel ağırlıklı sonsuzluk normu.
beyan
public var infinityNorm: Model.TangentVector
Not: Varsayılan parametreler makalede sağlananlara uygundur.
beyan
public init( for model: __shared Model, learningRate: Float = 0.002, beta1: Float = 0.9, beta2: Float = 0.999, epsilon: Float = 1e-8, decay: Float = 0 )
beyan
public required init(copying other: AdaMax, to device: Device)