คำนวณต้นทุนเอนโทรปีข้าม softmax และการไล่ระดับสีเพื่อเผยแพร่กลับ
ต่างจาก `SoftmaxCrossEntropyWithLogits` ตรงที่การดำเนินการนี้ไม่ยอมรับเมทริกซ์ความน่าจะเป็นของป้ายกำกับ แต่จะยอมรับป้ายกำกับเดียวต่อแถวของคุณลักษณะ ป้ายกำกับนี้ถือว่ามีความน่าจะเป็น 1.0 สำหรับแถวที่กำหนด
อินพุตคือบันทึก ไม่ใช่ความน่าจะเป็น
ค่าคงที่
สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
เอาท์พุต <T> | ฉากหลัง () การไล่ระดับสีแบบย้อนกลับ (batch_size x num_classes matrix) |
คง <T ขยาย TNumber > SparseSoftmaxCrossEntropyWithLogits <T> | |
เอาท์พุต <T> | การสูญเสีย () ตามตัวอย่างการสูญเสีย (เวกเตอร์ขนาดชุด) |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
วิธีการสาธารณะ
สาธารณะ SparseSoftmaxCrossEntropyWithLogits <T> สร้าง แบบคงที่ (ขอบเขต ขอบเขต , คุณสมบัติ Operand <T>, Operand <? ขยาย TNumber > ป้ายกำกับ)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseSoftmaxCrossEntropyWithLogits ใหม่
พารามิเตอร์
ขอบเขต | ขอบเขตปัจจุบัน |
---|---|
คุณสมบัติ | เมทริกซ์ชุดขนาด x num_classes |
ฉลาก | เวกเตอร์ขนาดแบตช์ที่มีค่าเป็น [0, num_classes) นี่คือป้ายกำกับสำหรับรายการมินิแบทช์ที่กำหนด |
การส่งคืน
- อินสแตนซ์ใหม่ของ SparseSoftmaxCrossEntropyWithLogits