@frozen
public struct BatchNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint
Uma camada de normalização em lote.
Normaliza as activações da camada anterior, em cada lote, isto é, aplica-se uma transformação que mantém a activação perto significativo a 0
e o desvio padrão de activação perto de 1
.
Referência: Lote Normalização: Acelerar Rede de Formação profundo por Redução de covariáveis Interna de Deslocamento .
A dimensão do recurso.
Declaração
@noDerivative public let axis: Int
O momento para a média e a variância em execução.
Declaração
@noDerivative public let momentum: Scalar
O valor de deslocamento, também conhecido como beta.
Declaração
public var offset: Tensor<Scalar>
O valor da escala, também conhecido como gama.
Declaração
public var scale: Tensor<Scalar>
O valor épsilon da variação.
Declaração
@noDerivative public let epsilon: Scalar
A média corrente.
Declaração
@noDerivative public var runningMean: Parameter<Scalar>
A variação em execução.
Declaração
@noDerivative public var runningVariance: Parameter<Scalar>
Cria uma camada de normalização em lote.
Declaração
Parâmetros
axis
O eixo que não deve ser normalizado (normalmente o eixo do recurso).
momentum
O momentum para a média móvel.
offset
O deslocamento a ser adicionado ao tensor normalizado.
scale
A escala pela qual multiplicar o tensor normalizado.
epsilon
Um pequeno escalar adicionado ao denominador para melhorar a estabilidade numérica.
runningMean
A média corrente.
runningVariance
A variação em execução.
Cria uma camada de normalização em lote.
Declaração
public init( featureCount: Int, axis: Int = -1, momentum: Scalar = 0.99, epsilon: Scalar = 0.001 )
Parâmetros
featureCount
O número de recursos.
axis
O eixo que deve ser normalizado (normalmente o eixo dos recursos).
momentum
O momentum para a média móvel.
epsilon
Um pequeno escalar adicionado ao denominador para melhorar a estabilidade numérica.