tensorflow :: operaciones :: Relu
#include <nn_ops.h> Calcula rectificado lineal: max(features, 0) .
Resumen
Ver: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) Ejemplo de uso: tf.nn.relu ([- 2., 0., -0., 3.]). Numpy () array ([ 0., 0., -0., 3.], dtype = float32)
Argumentos:
- alcance: un objeto de alcance
Devoluciones:
-
Output: El tensor de activaciones.
Constructores y Destructores | |
|---|---|
Relu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Atributos públicos | |
|---|---|
activations | |
operation | |
Funciones publicas | |
|---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const | |
Atributos públicos
activaciones
::tensorflow::Output activations
operación
Operation operation
Funciones publicas
Relu
Relu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
nodo
::tensorflow::Node * node() const
operador :: tensorflow :: Entrada
operator::tensorflow::Input() const
operador :: tensorflow :: Salida
operator::tensorflow::Output() const