SoftmaxCrossEntropyWithLogits

genel sınıf SoftmaxCrossEntropyWithLogits

Kamu İnşaatçıları

Genel Yöntemler

static <T TNumber'ı genişletir, U TNumber'ı genişletir > İşlenen <T>
softmaxCrossEntropyWithLogits ( Kapsam kapsamı, İşlenen <U> etiketleri, İşlenen <T> logitleri, int ekseni)
logits ve labels arasındaki softmax çapraz entropiyi hesaplar.

Kalıtsal Yöntemler

Kamu İnşaatçıları

herkese açık SoftmaxCrossEntropyWithLogits ()

Genel Yöntemler

public static İşlenen <T> softmaxCrossEntropyWithLogits ( Kapsam kapsamı, İşlenen <U> etiketleri, İşlenen <T> logitleri, int ekseni)

logits ve labels arasındaki softmax çapraz entropiyi hesaplar.

Sınıfların birbirini dışladığı (her giriş tam olarak bir sınıftadır) ayrık sınıflandırma görevlerindeki olasılık hatasını ölçer. Örneğin, her CIFAR-10 görüntüsü tek ve tek bir etiketle etiketlenir: bir görüntü bir köpek veya bir kamyon olabilir, ancak her ikisi birden olamaz.

NOT:

Sınıflar birbirini dışlayan olsa da olasılıklarının öyle olması gerekmez. Gerekli olan tek şey, her labels satırının geçerli bir olasılık dağılımı olmasıdır. Aksi takdirde eğimin hesaplanması yanlış olacaktır.

Özel labels kullanıyorsanız (aynı anda yalnızca bir sınıfın doğru olduğu durumda), bkz. ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits)

Kullanımı:

   Operand<TFloat32> logits =
       tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } );
   Operand<TFloat32> labels =
       tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } );
   Operand<TFloat32> output =
       tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1);
   // output Shape = [2]
   // dataType = FLOAT (1)
   // values { 0.169846, 0.824745 }
 

Geri yayılım hem logits hem de labels gerçekleşecektir. labels geri yayılmaya izin vermemek için, etiket tensörlerini bu işleve beslemeden önce tf.stopGradient aracılığıyla geçirin.

Parametreler
kapsam mevcut kapsam
etiketler Sınıf boyutu boyunca her vektör geçerli bir olasılık dağılımına sahip olmalıdır; örneğin, etiketlerin [batch_size, num_classes] şeklinde olduğu durumda, her labels[i] geçerli bir olasılık dağılımı olmalıdır.
logitler Etiket başına etkinleştirmeler, genellikle doğrusal bir çıktı. Bu aktivasyon enerjileri normalleştirilmemiş log olasılıkları olarak yorumlanır.
eksen Sınıf boyutu. -1 son boyuttur.
İade
  • softmax çapraz entropi kaybı. Türü logits aynı olup, şekli labels aynıdır ancak labels son boyutuna sahip değildir.