SoftmaxCrossEntropyWithLogits

کلاس عمومی SoftmaxCrossEntropyWithLogits

سازندگان عمومی

روش های عمومی

static <T توسعه TNumber ، U گسترش TNumber > عملوند <T>
softmaxCrossEntropyWithLogits ( scope scope، برچسب های Operand <U>، Operand <T> logits، int axis)
آنتروپی متقاطع softmax بین logits و labels را محاسبه می کند.

روش های ارثی

سازندگان عمومی

عمومی SoftmaxCrossEntropyWithLogits ()

روش های عمومی

عملوند ایستا عمومی <T> softmaxCrossEntropyWithLogits ( دامنه دامنه ، برچسب های عملوند <U>، لاجیت های عملوند <T>، محور int)

آنتروپی متقاطع softmax بین logits و labels را محاسبه می کند.

خطای احتمال را در وظایف طبقه بندی گسسته که در آن کلاس ها متقابلاً منحصر به فرد هستند (هر ورودی دقیقاً در یک کلاس است) اندازه گیری می کند. به عنوان مثال، هر تصویر CIFAR-10 با یک و تنها یک برچسب برچسب گذاری شده است: یک تصویر می تواند یک سگ یا یک کامیون باشد، اما نه هر دو.

توجه داشته باشید:

در حالی که کلاس ها متقابلاً منحصر به فرد هستند، احتمالات آنها لازم نیست. تنها چیزی که لازم است این است که هر ردیف از labels یک توزیع احتمال معتبر باشد. اگر آنها نباشند، محاسبه گرادیان نادرست خواهد بود.

اگر از labels انحصاری استفاده می‌کنید (که در آن یک کلاس درست است)، به ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits) مراجعه کنید.

استفاده:

   Operand<TFloat32> logits =
       tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } );
   Operand<TFloat32> labels =
       tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } );
   Operand<TFloat32> output =
       tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1);
   // output Shape = [2]
   // dataType = FLOAT (1)
   // values { 0.169846, 0.824745 }
 

پس انتشار هم در logits و هم در labels اتفاق می افتد. برای ممنوع کردن انتشار پس‌از در labels ، قبل از وارد کردن آن به این تابع، تانسورهای برچسب را از tf.stopGradient عبور دهید.

مولفه های
محدوده محدوده فعلی
برچسب ها هر بردار در امتداد بعد کلاس باید یک توزیع احتمال معتبر داشته باشد، به عنوان مثال برای موردی که برچسب‌ها شکل [batch_size, num_classes] هستند، هر ردیف از labels[i] باید یک توزیع احتمال معتبر باشد.
لاجیت ها فعال‌سازی‌های هر برچسب، معمولاً یک خروجی خطی. این انرژی‌های فعال‌سازی به‌عنوان احتمالات لاگ غیر عادی تفسیر می‌شوند.
محور بعد طبقاتی -1 آخرین بعد است.
برمی گرداند
  • افت آنتروپی متقاطع softmax نوع آن مانند logits و شکل آن مانند labels است با این تفاوت که آخرین بعد labels را ندارد.