Softmax convierte un vector real en un vector de probabilidades categóricas.
Los elementos del vector de salida están en el rango (0, 1) y suman 1.
Cada vector se maneja de forma independiente. El argumento del axis
establece en qué eje de la entrada se aplica la función.
Softmax se utiliza a menudo como activación para la última capa de una red de clasificación porque el resultado podría interpretarse como una distribución de probabilidad.
El softmax de cada vector x se calcula como: exp(x) / tf.sum(exp(x))
.
Los valores de entrada en son las probabilidades logarítmicas de la probabilidad resultante.
Constructores públicos
Softmax (Ops tf) Crea una activación softmax donde el eje predeterminado es ERROR(/#AXIS_DEFAULT) que indica la última dimensión. | |
Softmax (Ops tf, eje int) Crea una activación Softmax |
Métodos públicos
Operando <T> |
Métodos heredados
Constructores públicos
Softmax público (Ops tf)
Crea una activación softmax donde el eje predeterminado es ERROR(/#AXIS_DEFAULT)
que indica la última dimensión.
Parámetros
tf | las operaciones de TensorFlow |
---|
public Softmax (Ops tf, eje int)
Crea una activación Softmax
Parámetros
tf | las operaciones de TensorFlow |
---|---|
eje | La dimensión en la que se realizaría softmax. |