เทนเซอร์โฟลว์:: ปฏิบัติการ:: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

คำนวณต้นทุนเอนโทรปีแบบไขว้ของ softmax และการไล่ระดับเพื่อย้อนกลับ

สรุป

ไม่เหมือนกับ SoftmaxCrossEntropyWithLogits การดำเนินการนี้ไม่ยอมรับเมทริกซ์ของความน่าจะเป็นของป้ายกำกับ แต่เป็นป้ายกำกับเดียวต่อแถวของฟีเจอร์ ป้ายกำกับนี้ถือว่ามีความน่าจะเป็น 1.0 สำหรับแถวที่ระบุ

อินพุตคือบันทึก ไม่ใช่ความน่าจะเป็น

อาร์กิวเมนต์:

  • ขอบเขต: วัตถุ ขอบเขต
  • คุณสมบัติ: batch_size x num_classes matrix
  • ป้ายกำกับ: batch_size vector พร้อมค่าใน [0, num_classes) นี่คือป้ายกำกับสำหรับรายการ minibatch ที่กำหนด

ผลตอบแทน:

  • การสูญเสีย Output : การสูญเสียต่อตัวอย่าง (batch_size vector)
  • backprop Output : backpropagated gradients (batch_size x num_classes matrix)

ตัวสร้างและตัวทำลาย

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

คุณลักษณะสาธารณะ

backprop
loss
operation

คุณลักษณะสาธารณะ

backprop

::tensorflow::Output backprop

การสูญเสีย

::tensorflow::Output loss

การดำเนินการ

Operation operation

งานสาธารณะ

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)