tensoreflusso:: ops:: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcola il costo dell'entropia incrociata softmax e i gradienti per la propagazione all'indietro.

Riepilogo

A differenza di SoftmaxCrossEntropyWithLogits , questa operazione non accetta una matrice di probabilità di etichette, ma piuttosto una singola etichetta per riga di caratteristiche. Si ritiene che questa etichetta abbia probabilità 1,0 per la riga specificata.

Gli input sono i logit, non le probabilità.

Argomenti:

  • scope: un oggetto Scope
  • caratteristiche: matrice batch_size x num_classes
  • etichette: vettore batch_size con valori in [0, num_classes). Questa è l'etichetta per la voce minibatch specificata.

Ritorna:

  • Perdita Output : perdita per esempio (vettore batch_size).
  • Backprop Output : gradienti propagati all'indietro (matrice batch_size x num_classes).

Costruttori e distruttori

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributi pubblici

backprop
loss
operation

Attributi pubblici

backprop

::tensorflow::Output backprop

perdita

::tensorflow::Output loss

operazione

Operation operation

Funzioni pubbliche

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)