public protocol Layer : Module where Self.Input : Differentiable
طبقة شبكة عصبية.
الأنواع التي تتوافق مع Layer
تمثل الوظائف التي المدخلات الخريطة لالنواتج. قد يكون لديهم حالة داخلية ممثلة بالمعلمات ، مثل موتر الوزن.
Layer
الحالات تحديد تفاضل callAsFunction(_:)
طريقة للمدخلات التعيين لالنواتج.
تُرجع المخرجات التي تم الحصول عليها من تطبيق الطبقة على الإدخال المحدد.
إعلان
@differentiable func callAsFunction(_ input: Input) -> Output
العوامل
input
الإدخال إلى الطبقة.
قيمة الإرجاع
الإخراج.
التنفيذ الافتراضي
إعلان
@differentiable func forward(_ input: Input) -> Output
تُرجع ناتج الاستنتاج الذي تم الحصول عليه من تطبيق الطبقة على الإدخال المحدد.
إعلان
public func inferring(from input: Input) -> Output
العوامل
input
الإدخال إلى الطبقة.
قيمة الإرجاع
ناتج الاستدلال.
إعلان
public typealias Backpropagator = (_ direction: Output.TangentVector) -> (layerGradient: TangentVector, inputGradient: Input.TangentVector)
تُرجع ناتج الاستنتاج ووظيفة الانتشار العكسي التي تم الحصول عليها من تطبيق الطبقة على الإدخال المحدد.
إعلان
public func appliedForBackpropagation(to input: Input) -> (output: Output, backpropagator: Backpropagator)
العوامل
input
الإدخال إلى الطبقة.
قيمة الإرجاع
مجموعة تحتوي على المخرجات ووظيفة الانتشار العكسي. تأخذ وظيفة backpropagation (المعروف أيضًا باسم backpropagator) متجه اتجاه وترجع التدرجات في الطبقة وعند الإدخال ، على التوالي.
التنفيذ الافتراضي
إعلان
@differentiable(wrt: self) @differentiable public func callAsFunction(_ input: Input) -> Output