Google I/O एक लपेट है! TensorFlow सत्रों पर पकड़ बनाएं सत्र देखें

टेंसरफ्लो लाइट

TensorFlow Lite टूल का एक सेट है जो डेवलपर्स को मोबाइल, एम्बेडेड और एज डिवाइस पर अपने मॉडल चलाने में मदद करके ऑन-डिवाइस मशीन लर्निंग को सक्षम बनाता है।

प्रमुख विशेषताऐं

  • ऑन-डिवाइस मशीन लर्निंग के लिए अनुकूलित , 5 प्रमुख बाधाओं को संबोधित करके: विलंबता (सर्वर के लिए कोई राउंड-ट्रिप नहीं है), गोपनीयता (कोई व्यक्तिगत डेटा डिवाइस नहीं छोड़ता है), कनेक्टिविटी (इंटरनेट कनेक्टिविटी की आवश्यकता नहीं है), आकार (कम मॉडल और बाइनरी आकार) और बिजली की खपत (कुशल अनुमान और नेटवर्क कनेक्शन की कमी)।
  • एंड्रॉइड और आईओएस डिवाइस, एम्बेडेड लिनक्स और माइक्रोकंट्रोलर को कवर करते हुए मल्टीपल प्लेटफॉर्म सपोर्ट
  • विविध भाषा समर्थन , जिसमें जावा, स्विफ्ट, ऑब्जेक्टिव-सी, सी++ और पायथन शामिल हैं।
  • हार्डवेयर त्वरण और मॉडल अनुकूलन के साथ उच्च प्रदर्शन
  • कई प्लेटफार्मों पर छवि वर्गीकरण, वस्तु का पता लगाने, मुद्रा अनुमान, प्रश्न उत्तर, पाठ वर्गीकरण आदि जैसे सामान्य मशीन सीखने के कार्यों के लिए एंड-टू-एंड उदाहरण

विकास कार्यप्रवाह

निम्नलिखित मार्गदर्शिका वर्कफ़्लो के प्रत्येक चरण पर चलती है और आगे के निर्देशों के लिए लिंक प्रदान करती है:

1. एक TensorFlow Lite मॉडल जेनरेट करें

एक TensorFlow Lite मॉडल को एक विशेष कुशल पोर्टेबल प्रारूप में दर्शाया जाता है जिसे FlatBuffers ( .tflite फ़ाइल एक्सटेंशन द्वारा पहचाना जाता है) के रूप में जाना जाता है। यह TensorFlow के प्रोटोकॉल बफर मॉडल प्रारूप पर कई लाभ प्रदान करता है जैसे कम आकार (छोटा कोड पदचिह्न) और तेज़ अनुमान (डेटा को बिना अतिरिक्त पार्सिंग/अनपैकिंग चरण के सीधे एक्सेस किया जाता है) जो TensorFlow Lite को सीमित गणना और मेमोरी संसाधनों वाले उपकरणों पर कुशलता से निष्पादित करने में सक्षम बनाता है। .

एक TensorFlow लाइट मॉडल में वैकल्पिक रूप से मेटाडेटा शामिल हो सकता है जिसमें मानव-पठनीय मॉडल विवरण और मशीन-पठनीय डेटा ऑन-डिवाइस अनुमान के दौरान प्री- और पोस्ट-प्रोसेसिंग पाइपलाइनों की स्वचालित पीढ़ी के लिए होता है। अधिक विवरण के लिए मेटाडेटा जोड़ें देखें।

आप निम्न तरीकों से एक TensorFlow लाइट मॉडल उत्पन्न कर सकते हैं:

  • मौजूदा TensorFlow Lite मॉडल का उपयोग करें: किसी मौजूदा मॉडल को चुनने के लिए TensorFlow Lite उदाहरण देखें। मॉडल में मेटाडेटा हो भी सकता है और नहीं भी।

  • एक TensorFlow Lite मॉडल बनाएँ: अपने स्वयं के कस्टम डेटासेट के साथ एक मॉडल बनाने के लिए TensorFlow Lite Model Maker का उपयोग करें। डिफ़ॉल्ट रूप से, सभी मॉडलों में मेटाडेटा होता है।

  • TensorFlow मॉडल को TensorFlow लाइट मॉडल में बदलें: TensorFlow मॉडल को TensorFlow लाइट मॉडल में बदलने के लिए TensorFlow लाइट कन्वर्टर का उपयोग करें। रूपांतरण के दौरान, आप सटीकता में न्यूनतम या बिना किसी नुकसान के मॉडल आकार और विलंबता को कम करने के लिए परिमाणीकरण जैसे अनुकूलन लागू कर सकते हैं। डिफ़ॉल्ट रूप से, सभी मॉडलों में मेटाडेटा नहीं होता है।

2. रन अनुमान

अनुमान इनपुट डेटा के आधार पर भविष्यवाणियां करने के लिए डिवाइस पर एक TensorFlow लाइट मॉडल को निष्पादित करने की प्रक्रिया को संदर्भित करता है। आप मॉडल प्रकार के आधार पर निम्नलिखित तरीकों से अनुमान चला सकते हैं:

Android और iOS उपकरणों पर, आप हार्डवेयर त्वरण का उपयोग करके प्रदर्शन में सुधार कर सकते हैं। किसी भी प्लेटफ़ॉर्म पर आप GPU प्रतिनिधि का उपयोग कर सकते हैं, Android पर आप या तो NNAPI प्रतिनिधि (नए उपकरणों के लिए) या हेक्सागोन प्रतिनिधि (पुराने उपकरणों पर) का उपयोग कर सकते हैं और iOS पर आप Core ML प्रतिनिधि का उपयोग कर सकते हैं। नए हार्डवेयर त्वरक के लिए समर्थन जोड़ने के लिए, आप अपने स्वयं के प्रतिनिधि को परिभाषित कर सकते हैं।

शुरू हो जाओ

आप अपने लक्षित उपकरण के आधार पर निम्नलिखित मार्गदर्शिकाओं का उल्लेख कर सकते हैं:

तकनीकी बाधाएं

  • सभी TensorFlow मॉडल को TensorFlow लाइट मॉडल में परिवर्तित नहीं किया जा सकता है, ऑपरेटर संगतता देखें।

  • असमर्थित ऑन-डिवाइस प्रशिक्षण , हालांकि यह हमारे रोडमैप पर है।