tensorflow :: ops :: SoftmaxCrossEntropyWithLogits
#include <nn_ops.h>
Menghitung biaya entropi silang softmax dan gradien ke propagasi mundur.
Ringkasan
Inputnya adalah logits, bukan probabilitas.
Argumen:
- scope: Objek Scope
- fitur: matriks batch_size x num_classes
- label: matriks batch_size x num_classes Pemanggil harus memastikan bahwa setiap batch label mewakili distribusi probabilitas yang valid.
Pengembalian:
- Kehilangan
Output
: Per contoh kerugian (vektor ukuran_batch). -
Output
backprop: gradien backpropagated (batch_size x num_classes matrix).
Pembuat dan Penghancur | |
---|---|
SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels) |
Atribut publik | |
---|---|
backprop | |
loss | |
operation |
Atribut publik
backprop
::tensorflow::Output backprop
kerugian
::tensorflow::Output loss
operasi
Operation operation
Fungsi publik
SoftmaxCrossEntropyWithLogits
SoftmaxCrossEntropyWithLogits( const ::tensorflow::Scope & scope, ::tensorflow::Input features, ::tensorflow::Input labels )