tensorflow :: ops :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcola il costo di entropia incrociata softmax e i gradienti da propagare.

Sommario

Gli input sono i logit, non le probabilità.

Argomenti:

  • scope: un oggetto Scope
  • caratteristiche: batch_size x num_classes matrice
  • etichette: batch_size x num_classes matrice Il chiamante deve assicurarsi che ogni batch di etichette rappresenti una distribuzione di probabilità valida.

Ritorna:

  • Perdita di Output : perdita per esempio (batch_size vettore).
  • Output backprop: gradienti backpropagated (matrice batch_size x num_classes).

Costruttori e distruttori

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributi pubblici

backprop
loss
operation

Attributi pubblici

backprop

::tensorflow::Output backprop

perdita

::tensorflow::Output loss

operazione

Operation operation

Funzioni pubbliche

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)