Selu

aula final pública Selu

Calcula linear exponencial em escala: `escala * alfa * (exp(recursos) - 1)`

se <0, `escala * recursos` caso contrário.

Para ser usado junto com `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`. Para um abandono correto, use `tf.contrib.nn.alpha_dropout`.

Consulte [Redes Neurais Autonormalizadas](https://arxiv.org/abs/1706.02515)

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

Saída <T>
Saída <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estático <T estende TNumber > Selu <T>
create (escopo do escopo , recursos do operando <T>)
Método de fábrica para criar uma classe que envolve uma nova operação Selu.

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "Selu"

Métodos Públicos

ativações de saída pública <T> ()

Saída pública <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static Selu <T> create (escopo do escopo , recursos do operando <T>)

Método de fábrica para criar uma classe que envolve uma nova operação Selu.

Parâmetros
escopo escopo atual
Devoluções
  • uma nova instância de Selu