flusso tensoriale:: operazioni:: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcola il costo dell'entropia incrociata softmax e i gradienti per la retropropagazione.

Riepilogo

A differenza SoftmaxCrossEntropyWithLogits , questa operazione non accetta una matrice di probabilità di etichetta, ma piuttosto una singola etichetta per riga di funzionalità. Si ritiene che questa etichetta abbia probabilità 1,0 per la riga data.

Gli input sono i logit, non le probabilità.

Argomenti:

  • ambito: un oggetto ambito
  • caratteristiche: matrice batch_size x num_classes
  • etichette: vettore batch_size con valori in [0, num_classes). Questa è l'etichetta per la voce minibatch specificata.

Ritorna:

  • Perdita di Output : Perdita di esempio (vettore batch_size).
  • Output backprop: gradienti retropropagati (matrice batch_size x num_classes).

Costruttori e Distruttori

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributi pubblici

backprop
loss
operation

Attributi pubblici

backprop

::tensorflow::Output backprop

perdita

::tensorflow::Output loss

operazione

Operation operation

Funzioni pubbliche

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)