dòng chảy :: hoạt động :: SoftmaxCrossEntropyWithLogits
#include <nn_ops.h>
Tính toán chi phí entropy chéo softmax và gradient để sao chép ngược.
Tóm lược
Đầu vào là nhật ký, không phải xác suất.
Tranh luận:
- phạm vi: Một đối tượng Phạm vi
- các tính năng: batch_size x num_classes matrix
- label: batch_size x num_classes matrix Người gọi phải đảm bảo rằng mỗi lô nhãn đại diện cho một phân phối xác suất hợp lệ.
Lợi nhuận:
- Suy hao
Output
: Theo mất mát ví dụ (vectơ kích thước hàng loạt). - Backprop
Output
: gradient được đánh dấu backpropagated (kích thước hàng loạt x số lượng lớp ma trận).
Người xây dựng và Người phá hủy | |
---|---|
SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels) |
Thuộc tính công cộng | |
---|---|
backprop | |
loss | |
operation |
Thuộc tính công cộng
backprop
::tensorflow::Output backprop
thua
::tensorflow::Output loss
hoạt động
Operation operation
Chức năng công cộng
SoftmaxCrossEntropyWithLogits
SoftmaxCrossEntropyWithLogits( const ::tensorflow::Scope & scope, ::tensorflow::Input features, ::tensorflow::Input labels )