Menghitung biaya entropi silang softmax dan gradien ke propagasi mundur.
Berbeda dengan `SoftmaxCrossEntropyWithLogits`, operasi ini tidak menerima matriks probabilitas label, melainkan satu label per baris fitur. Label ini dianggap memiliki probabilitas 1,0 untuk baris tertentu.
Inputnya adalah logit, bukan probabilitas.
Konstanta
| Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow | 
Metode Publik
| Keluaran <T> |  penyangga punggung ()  gradien yang dipropagasi mundur (matriks batch_size x num_classes). | 
| statis <T meluas TNumber > SparseSoftmaxCrossEntropyWithLogits <T> |  buat ( Lingkup cakupan , fitur Operan <T>, label Operan <? extends TNumber >)  Metode pabrik untuk membuat kelas yang membungkus operasi SparseSoftmaxCrossEntropyWithLogits baru. | 
| Keluaran <T> |  kehilangan ()  Per contoh kerugian (vektor batch_size).  | 
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
public static SparseSoftmaxCrossEntropyWithLogits <T> buat ( Cakupan cakupan , fitur Operan <T>, label Operan <? extends TNumber >)
Metode pabrik untuk membuat kelas yang membungkus operasi SparseSoftmaxCrossEntropyWithLogits baru.
Parameter
| cakupan | ruang lingkup saat ini | 
|---|---|
| fitur | matriks ukuran_batch x jumlah_kelas | 
| label | vektor batch_size dengan nilai dalam [0, num_classes). Ini adalah label untuk entri minibatch yang diberikan. | 
Kembali
- contoh baru dari SparseSoftmaxCrossEntropyWithLogits