fluxo tensor:: ops:: Selu
#include <nn_ops.h> Calcula linear exponencial em escala: scale * alpha * (exp(features) - 1)
Resumo
se <0, scale * features caso contrário.
Para ser usado junto com `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') . For correct dropout, use tf.contrib.nn.alpha_dropout`.
Consulte Redes Neurais Autonormalizadas
Argumentos:
- escopo: um objeto Escopo
Retorna:
-
Output: O tensor de ativações.
Construtores e Destruidores | |
|---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Atributos públicos | |
|---|---|
activations | |
operation | |
Funções públicas | |
|---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const | |
Atributos públicos
ativações
::tensorflow::Output activations
operação
Operation operation
Funções públicas
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
nó
::tensorflow::Node * node() const
operador::tensorflow::Input
operator::tensorflow::Input() const
operador::tensorflow::Saída
operator::tensorflow::Output() const