Losses

การสูญเสีย ในชั้นเรียนสาธารณะ

ฟังก์ชั่นการสูญเสียในตัว

ค่าคงที่

ภายใน CHANNELS_FIRST
ภายใน ช่อง_LAST
ลอย เอปไซลอน ปัจจัย Fuzz เริ่มต้น

คอนสตรัคชั่นสาธารณะ

วิธีการสาธารณะ

คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
binaryCrossentropy (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, บูลีนจาก Logits, ป้ายกำกับลอยให้เรียบ)
คำนวณการสูญเสีย crossentropy แบบไบนารีระหว่างป้ายกำกับและการทำนาย
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
categoricalCrossentropy (Ops tf, Operand <? ขยาย TNumber > ป้ายกำกับ, Operand <T> การคาดการณ์, บูลีนจาก Logits, float label Smoothing, แกน int)
คำนวณการสูญเสียข้ามเอนโทรปีอย่างเด็ดขาดระหว่างป้ายกำกับและการทำนาย
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
categoricalHinge (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณการสูญเสียบานพับตามหมวดหมู่ระหว่างป้ายกำกับและการคาดคะเน
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
cosineSimilarity (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, แกน int[])
คำนวณการสูญเสียความคล้ายคลึงของโคไซน์ระหว่างป้ายกำกับและการทำนาย
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
บานพับ (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณการสูญเสียบานพับระหว่างป้ายกำกับและการคาดคะเน

loss = reduceMean(maximum(1 - labels * predictions, 0))

คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
huber (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, เดลต้าแบบลอย)
คำนวณการสูญเสียของ Huber ระหว่างป้ายกำกับและการทำนาย
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
kullbackLeiblerDivergence (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณการสูญเสียความแตกต่างระหว่าง Kullback-Leibler ระหว่างป้ายกำกับและการคาดคะเน
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
l2ทำให้เป็นมาตรฐาน (Ops tf, ตัวดำเนินการ <T> x, แกน int[])
ทำให้เป็นมาตรฐานตามแกนมิติโดยใช้บรรทัดฐาน L2
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
logCosh (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณการสูญเสียโคไซน์ไฮเปอร์โบลิกระหว่างป้ายกำกับและการคาดคะเน
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
MeanAbsoluteError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณค่าความคลาดเคลื่อนสัมบูรณ์เฉลี่ยระหว่างป้ายกำกับและการคาดคะเน
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
MeanAbsolutePercentageError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณเปอร์เซ็นต์ข้อผิดพลาดเฉลี่ยสัมบูรณ์ระหว่างป้ายกำกับและการคาดคะเน
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
meanSquaredError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณค่าคลาดเคลื่อนกำลังสองเฉลี่ยระหว่างป้ายกำกับและการคาดคะเน
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
MeanSquaredLogarithmicError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณค่าคลาดเคลื่อนลอการิทึมกำลังสองเฉลี่ยระหว่างป้ายกำกับและการคาดคะเน
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
ปัวซอง (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณการสูญเสียปัวซองระหว่างป้ายกำกับและการทำนาย
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
sparseCategoricalCrossentropy (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, บูลีนจาก Logits, แกน int)
คำนวณการสูญเสียข้ามเอนโทรปีแบบกระจัดกระจายระหว่างป้ายกำกับและการทำนาย
คงที่ <T ขยาย TNumber > ตัวถูกดำเนินการ <T>
squaredHinge (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)
คำนวณการสูญเสียบานพับกำลังสองระหว่างป้ายกำกับและการคาดคะเน

วิธีการสืบทอด

ค่าคงที่

สาธารณะคงสุดท้าย int CHANNELS_FIRST

ค่าคงที่: 1

สาธารณะคงสุดท้าย int CHANNELS_LAST

ค่าคงที่: -1

EPSILON โฟลตสุดท้ายแบบคงที่สาธารณะ

ปัจจัย Fuzz เริ่มต้น

ค่าคงที่: 1.0E-7

คอนสตรัคชั่นสาธารณะ

ความสูญเสีย สาธารณะ ()

วิธีการสาธารณะ

ตัวดำเนินการ คงที่สาธารณะ <T> ไบนารี Crossentropy (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, บูลีนจาก Logits, ป้ายกำกับลอยเรียบ)

คำนวณการสูญเสีย crossentropy แบบไบนารีระหว่างป้ายกำกับและการทำนาย

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
จากLogits ไม่ว่าจะตีความการทำนายเป็นเทนเซอร์ของค่า logit หรือไม่
ฉลากปรับให้เรียบ ตัวเลขในช่วง [0, 1] เมื่อ 0 จะไม่มีการทำให้เรียบเกิดขึ้น เมื่อ > 0 ให้คำนวณการสูญเสียระหว่างป้ายกำกับที่คาดการณ์ไว้และเวอร์ชันที่ปรับให้เรียบของป้ายกำกับที่แท้จริง โดยที่การปรับให้เรียบจะบีบฉลากไปที่ 0.5 ค่าฉลากการปรับให้เรียบที่มากขึ้นจะสอดคล้องกับการปรับให้เรียบมากขึ้น
การส่งคืน
  • การสูญเสีย crossentropy แบบไบนารี

ตัวดำเนินการ คงที่สาธารณะ <T> categoricalCrossentropy (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, บูลีนจาก Logits, ฉลากลอยเรียบ, แกน int)

คำนวณการสูญเสียข้ามเอนโทรปีอย่างเด็ดขาดระหว่างป้ายกำกับและการทำนาย

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
จากLogits ไม่ว่าจะตีความการทำนายเป็นเทนเซอร์ของค่า logit หรือไม่
ฉลากปรับให้เรียบ ลอยใน [0, 1] เมื่อ > 0 ค่าป้ายกำกับจะปรับให้เรียบ ซึ่งหมายความว่าความเชื่อมั่นในค่าป้ายกำกับจะผ่อนคลายลง เช่น labelSmoothing=0.2 หมายความว่าเราจะใช้ค่า 0.1 สำหรับป้ายกำกับ 0 และ 0.9 สำหรับป้ายกำกับ 1
แกน ที่
การส่งคืน
  • การสูญเสีย crossentropy อย่างเด็ดขาด

ตัวดำเนินการ แบบคงที่สาธารณะ <T> categoricalHinge (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณการสูญเสียบานพับตามหมวดหมู่ระหว่างป้ายกำกับและการคาดคะเน

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง ค่าควรเป็น 0 หรือ 1
การคาดการณ์ การคาดการณ์
การส่งคืน
  • การสูญเสียบานพับอย่างเด็ดขาด

ตัวดำเนินการ คงที่สาธารณะ <T> cosineSimilarity (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, แกน int [])

คำนวณการสูญเสียความคล้ายคลึงของโคไซน์ระหว่างป้ายกำกับและการทำนาย

โปรดทราบว่ามันเป็นตัวเลขระหว่าง -1 ถึง 1 ซึ่งแตกต่างจากคำจำกัดความทางคณิตศาสตร์ของความคล้ายคลึงโคไซน์ โดยที่ 1 แทนเวกเตอร์ที่คล้ายกัน และ 0 แทนเวกเตอร์ที่แตกต่างกัน ในฟังก์ชันนี้ ตัวเลขจะกลับด้านในช่วง -1 ถึง 1 เมื่อเป็นจำนวนลบระหว่าง -1 ถึง 0 0 จะบ่งบอกถึงความตั้งฉาก และค่าที่ใกล้กับ -1 จะบ่งบอกถึงความคล้ายคลึงกันมากขึ้น ค่าที่ใกล้กับ 1 แสดงถึงความแตกต่างที่มากขึ้น ซึ่งทำให้สามารถใช้เป็นฟังก์ชันการสูญเสียในการตั้งค่าที่คุณพยายามเพิ่มความใกล้เคียงระหว่างการคาดการณ์และเป้าหมายให้สูงสุด หากป้ายกำกับหรือการทำนายเป็นเวกเตอร์เป็นศูนย์ ความคล้ายคลึงของโคไซน์จะเป็น 0 โดยไม่คำนึงถึงระยะห่างระหว่างการทำนายและเป้าหมาย

loss = -sum(l2Norm(labels) * l2Norm(predictions))

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
แกน แกนที่ใช้กำหนดความคล้ายคลึงกัน
การส่งคืน
  • การสูญเสียความคล้ายคลึงโคไซน์

ตัวดำเนินการ สาธารณะ <T> บานพับ แบบคงที่ (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณการสูญเสียบานพับระหว่างป้ายกำกับและการคาดคะเน

loss = reduceMean(maximum(1 - labels * predictions, 0))

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง ค่าควรเป็น -1 หรือ 1 หากมีการระบุป้ายกำกับไบนารี (0 หรือ 1) ป้ายกำกับเหล่านั้นจะถูกแปลงเป็น -1 หรือ 1
การคาดการณ์ การคาดการณ์
การส่งคืน
  • การสูญเสียบานพับ

ตัวดำเนินการ คงที่สาธารณะ <T> huber (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, เดลต้าลอยตัว)

คำนวณการสูญเสียของ Huber ระหว่างป้ายกำกับและการทำนาย

สำหรับแต่ละค่า x ในข้อผิดพลาด = ป้ายกำกับ - การคาดคะเน:

     loss = 0.5 * x^2                  if |x| <= d
     loss = 0.5 * d^2 + d * (|x| - d)  if |x| > d
 

โดยที่ d คือเดลต้า

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
เดลต้า จุดที่ฟังก์ชันการสูญเสียของฮูเบอร์เปลี่ยนจากกำลังสองเป็นเชิงเส้น
การส่งคืน
  • การสูญเสียฮูเบอร์

ตัวดำเนินการ คงที่สาธารณะ <T> kullbackLeiblerDivergence (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณการสูญเสียความแตกต่างระหว่าง Kullback-Leibler ระหว่างป้ายกำกับและการคาดคะเน

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
การส่งคืน
  • การสูญเสียความแตกต่างของ Kullback-Leibler
ดูสิ่งนี้ด้วย

ตัวดำเนินการ คงที่สาธารณะ <T> l2Normalize (Ops tf, ตัวดำเนินการ <T> x, แกน int[])

ทำให้เป็นมาตรฐานตามแกนมิติโดยใช้บรรทัดฐาน L2

พารามิเตอร์
ไม่ ปฏิบัติการ TensorFlow
x อินพุต
แกน มิติข้อมูลที่จะทำให้เป็นมาตรฐาน
การส่งคืน
  • ค่าที่ทำให้เป็นมาตรฐานตามมาตรฐาน L2

ตัวดำเนินการ คงที่สาธารณะ <T> logCosh (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณการสูญเสียโคไซน์ไฮเปอร์โบลิกระหว่างป้ายกำกับและการคาดคะเน

log(cosh(x)) มีค่าประมาณเท่ากับ (x ** 2) / 2 สำหรับ x ขนาดเล็ก และถึง abs(x) - log(2) สำหรับ large x ซึ่งหมายความว่า 'logCosh' ทำงานเหมือนกับข้อผิดพลาดกำลังสองเฉลี่ยเป็นส่วนใหญ่ แต่จะไม่ได้รับผลกระทบอย่างรุนแรงจากการทำนายที่ไม่ถูกต้องอย่างมากในบางครั้ง

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
การส่งคืน
  • การสูญเสียไดเวอร์เจนต์โคไซน์ไฮเปอร์โบลิก

ตัวดำเนินการ คงที่สาธารณะ <T> หมายถึงAbsoluteError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณค่าความคลาดเคลื่อนสัมบูรณ์เฉลี่ยระหว่างป้ายกำกับและการคาดคะเน

loss = reduceMean(abs(labels - predictions))

พารามิเตอร์
ไม่ ปฏิบัติการ TensorFlow
ฉลาก ป้ายกำกับ
การคาดการณ์ การคาดการณ์
การส่งคืน
  • ข้อผิดพลาดสัมบูรณ์เฉลี่ย

ตัวดำเนินการ คงที่สาธารณะ <T> หมายถึงAbsolutePercentageError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณเปอร์เซ็นต์ข้อผิดพลาดเฉลี่ยสัมบูรณ์ระหว่างป้ายกำกับและการคาดคะเน

loss = 100 * reduceMean(abs((labels - predictions) / labels))

พารามิเตอร์
ไม่ ปฏิบัติการ TensorFlow
ฉลาก ป้ายกำกับ
การคาดการณ์ การคาดการณ์
การส่งคืน
  • ค่าเฉลี่ยความคลาดเคลื่อนเปอร์เซ็นต์สัมบูรณ์

ตัวดำเนินการ คงที่สาธารณะ <T> หมายถึง SquaredError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณค่าคลาดเคลื่อนกำลังสองเฉลี่ยระหว่างป้ายกำกับและการคาดคะเน

loss = reduceMean(square(labels - predictions))

พารามิเตอร์
ไม่ ปฏิบัติการ TensorFlow
ฉลาก ป้ายกำกับ
การคาดการณ์ การคาดการณ์
การส่งคืน
  • ค่าคลาดเคลื่อนกำลังสองเฉลี่ย

ตัวดำเนินการ คงที่สาธารณะ <T> หมายถึง SquaredLogarithmicError (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณค่าคลาดเคลื่อนลอการิทึมกำลังสองเฉลี่ยระหว่างป้ายกำกับและการคาดคะเน

loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))

พารามิเตอร์
ไม่ ปฏิบัติการ TensorFlow
ฉลาก ป้ายกำกับ
การคาดการณ์ การคาดการณ์
การส่งคืน
  • ค่าคลาดเคลื่อนเปอร์เซ็นต์ลอการิทึมกำลังสองเฉลี่ย

ตัวดำเนินการ คงที่สาธารณะ <T> ปัวซอง (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณการสูญเสียปัวซองระหว่างป้ายกำกับและการทำนาย

การสูญเสียปัวซองเป็นค่าเฉลี่ยขององค์ประกอบของ predictions - labels * log(predictions)

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
การส่งคืน
  • การสูญเสียปัวซอง

ตัวดำเนินการ คงที่สาธารณะ <T> sparseCategoricalCrossentropy (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์, บูลีนจาก Logits, แกน int)

คำนวณการสูญเสียข้ามเอนโทรปีแบบกระจัดกระจายระหว่างป้ายกำกับและการทำนาย

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง
การคาดการณ์ การคาดการณ์
จากLogits การคาดการณ์คาดว่าจะเป็นบันทึกหรือไม่ ตามค่าเริ่มต้น จะถือว่าการคาดการณ์เข้ารหัสการแจกแจงความน่าจะเป็น
แกน มิติที่ใช้คำนวณเอนโทรปี
การส่งคืน
  • การสูญเสีย crossentropy อย่างกระจัดกระจาย

ตัวดำเนินการ คงที่สาธารณะ <T> squaredHinge (Ops tf, ตัวดำเนินการ <? ขยาย TNumber > ป้ายกำกับ, ตัวดำเนินการ <T> การคาดการณ์)

คำนวณการสูญเสียบานพับกำลังสองระหว่างป้ายกำกับและการคาดคะเน

loss = reduceMean(square(maximum(1 - labels * predictions, 0)))

พารามิเตอร์
ไม่ Ops ของ TensorFlow
ฉลาก เป้าหมายที่แท้จริง ค่าควรจะเป็น -1 หรือ 1 หากมี * ป้ายกำกับไบนารี่ (0 หรือ 1) ไว้ ป้ายกำกับเหล่านั้นจะถูกแปลงเป็น -1 หรือ 1
การคาดการณ์ การคาดการณ์
การส่งคืน
  • การสูญเสียบานพับกำลังสอง