सार्वजनिक निर्माता
सार्वजनिक तरीके
| स्थिर <T TNumber बढ़ाता है, U TNumber > ऑपरेंड बढ़ाता है | sparseSoftmaxCrossEntropyWithLogits ( स्कोप स्कोप, ऑपरेंड <T> लेबल, ऑपरेंड <U> लॉगिट्स) logits और labels के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रापी की गणना करता है। |
विरासत में मिली विधियाँ
सार्वजनिक निर्माता
सार्वजनिक SparseSoftmaxCrossEntropyWithLogits ()
सार्वजनिक तरीके
सार्वजनिक स्थैतिक ऑपरेंड स्पार्ससॉफ्टमैक्सक्रॉसएंट्रॉपीविथलॉगिट्स ( स्कोप स्कोप, ऑपरेंड <टी> लेबल, ऑपरेंड <यू> लॉगिट्स)
logits और labels के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रापी की गणना करता है।
असतत वर्गीकरण कार्यों में संभाव्यता त्रुटि को मापता है जिसमें वर्ग परस्पर अनन्य होते हैं (प्रत्येक प्रविष्टि बिल्कुल एक वर्ग में होती है)। उदाहरण के लिए, प्रत्येक CIFAR-10 छवि को एक और केवल एक लेबल के साथ लेबल किया गया है: एक छवि एक कुत्ता या ट्रक हो सकती है, लेकिन दोनों नहीं।
टिप्पणी:
इस ऑपरेशन के लिए, किसी दिए गए लेबल की संभावना को विशिष्ट माना जाता है। अर्थात्, सॉफ्ट क्लास की अनुमति नहीं है, और labels वेक्टर को logits की प्रत्येक पंक्ति (प्रत्येक मिनीबैच प्रविष्टि) के लिए वास्तविक क्लास के लिए एक एकल विशिष्ट सूचकांक प्रदान करना होगा। प्रत्येक प्रविष्टि के लिए संभाव्यता वितरण के साथ सॉफ्ट सॉफ्टमैक्स वर्गीकरण के लिए, ERROR(/org.tensorflow.op.NnOps#softmaxCrossEntropyWithLogits) ।
चेतावनी:
यह ऑप अनस्केल्ड लॉग की अपेक्षा करता है, क्योंकि यह दक्षता के लिए आंतरिक रूप से logits पर softmax निष्पादित करता है। इस ऑप को softmax के आउटपुट के साथ कॉल न करें, क्योंकि यह गलत परिणाम देगा।
एक सामान्य उपयोग के मामले में आकार के लॉगिट होते हैं [batchSize, numClasses] और आकार के लेबल होते हैं [batchSize] , लेकिन उच्च आयाम समर्थित हैं, जिस स्थिति में dim -वें आयाम को numClasses आकार का माना जाता है। logits पास होना चाहिएTFloat16 , TFloat32 , या TFloat64 , और labels TInt32 या TInt64 का dtype होना चाहिए।
पैरामीटर
| दायरा | वर्तमान दायरा |
|---|---|
| लेबल | आकार का Tensor [d_0, d_1, ..., d_{r-1}] (जहाँ r labels और परिणाम की रैंक है) और डेटा प्रकार TInt32 या TInt64 है। labels में प्रत्येक प्रविष्टि [0, numClasses) में एक अनुक्रमणिका होनी चाहिए। जब यह ऑप सीपीयू पर चलाया जाता है तो अन्य मान एक अपवाद उठाएंगे, और जीपीयू पर संबंधित हानि और ग्रेडिएंट पंक्तियों के लिए NaN लौटाएंगे। |
| logits | आकार के प्रति-लेबल सक्रियण (आमतौर पर एक रैखिक आउटपुट) [d_0, d_1, ..., d_{r-1}, numClasses] और TFloat16 , TFloat32 , या TFloat64 का डेटा प्रकार। इन सक्रियण ऊर्जाओं की व्याख्या असामान्य लॉग संभावनाओं के रूप में की जाती है। |
रिटर्न
-
labelsके समान आकार का और सॉफ्टमैक्स क्रॉस एन्ट्रॉपी हानि के साथlogitsके समान प्रकार का एकTensor।
फेंकता
| अवैध तर्क अपवाद | यदि लॉग स्केलर हैं (रैंक> = 1 की आवश्यकता है) या यदि लेबल की रैंक लॉग की रैंक शून्य से एक के बराबर नहीं है। |
|---|