ELU

classe pública ELU

Unidade linear exponencial.

A unidade linear exponencial (ELU) com alpha > 0 é:

x se x > 0 e alpha * (exp(x) - 1) se x < 0 .

O hiperparâmetro ELU alpha controla o valor para o qual uma ELU satura para entradas líquidas negativas. ELUs diminuem o efeito do gradiente de desaparecimento.

As ELUs possuem valores negativos, o que aproxima a média das ativações de zero. As ativações médias mais próximas de zero permitem um aprendizado mais rápido, pois aproximam o gradiente do gradiente natural. ELUs saturam para um valor negativo quando o argumento fica menor. Saturação significa uma pequena derivada que diminui a variação e a informação que é propagada para a próxima camada.

Exemplo de uso:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

Construtores Públicos

ELU (operações tf)
Cria uma nova ELU com alpha= ERROR(/#ALPHA_DEFAULT) .
ELU (Ops tf, alfa duplo)
Cria uma nova ELU

Métodos Públicos

Operando <T>
chamada (entrada operando <T>)
Obtém a operação de cálculo para a ativação.

Métodos herdados

Construtores Públicos

ELU pública (Ops tf)

Cria uma nova ELU com alpha= ERROR(/#ALPHA_DEFAULT) .

Parâmetros
TF as operações do TensorFlow

ELU público (Ops tf, alfa duplo)

Cria uma nova ELU

Parâmetros
TF as operações do TensorFlow
alfa Um escalar, inclinação de seção negativa. Ele controla o valor para o qual uma ELU satura para entradas líquidas negativas.

Métodos Públicos

chamada de operando público <T> (entrada de operando <T>)

Obtém a operação de cálculo para a ativação.

Parâmetros
entrada o tensor de entrada
Devoluções
  • O operando para a ativação