dòng chảy :: hoạt động :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Tính toán chi phí entropy chéo softmax và độ dốc để sao chép.

Bản tóm tắt

Không giống như SoftmaxCrossEntropyWithLogits , hoạt động này không chấp nhận ma trận xác suất nhãn, mà là một nhãn duy nhất trên mỗi hàng tính năng. Nhãn này được coi là có xác suất 1,0 cho hàng đã cho.

Đầu vào là nhật ký, không phải xác suất.

Tranh luận:

  • phạm vi: Một đối tượng Phạm vi
  • các tính năng: batch_size x num_classes matrix
  • label: vectơ batch_size với các giá trị trong [0, num_classes). Đây là nhãn cho mục nhập minibatch đã cho.

Lợi nhuận:

  • Suy hao Output : Theo mất mát ví dụ (vectơ kích thước hàng loạt).
  • Backprop Output : các gradient được đánh dấu backpropagated (ma trận batch_size x num_classes).

Người xây dựng và Người phá hủy

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Thuộc tính công cộng

backprop
loss
operation

Thuộc tính công cộng

backprop

::tensorflow::Output backprop

sự mất mát

::tensorflow::Output loss

hoạt động

Operation operation

Chức năng công cộng

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)