Google I/O में ट्यूनिंग के लिए धन्यवाद। मांग पर सभी सत्र देखें मांग पर देखें

पायथन के साथ लिनक्स-आधारित उपकरणों के लिए क्विकस्टार्ट

पायथन के साथ TensorFlow Lite का उपयोग लिनक्स पर आधारित एम्बेडेड उपकरणों के लिए बहुत अच्छा है, जैसे कि रास्पबेरी पाई और एज टीपीयू के साथ कोरल डिवाइस , कई अन्य के बीच।

यह पृष्ठ दिखाता है कि आप कुछ ही मिनटों में पायथन के साथ TensorFlow Lite मॉडल कैसे चलाना शुरू कर सकते हैं। आपको बस एक TensorFlow मॉडल चाहिए जो TensorFlow Lite में परिवर्तित हो जाए । (यदि आपने अभी तक कोई मॉडल परिवर्तित नहीं किया है, तो आप नीचे दिए गए उदाहरण के साथ दिए गए मॉडल का उपयोग करके प्रयोग कर सकते हैं।)

TensorFlow Lite रनटाइम पैकेज के बारे में

पायथन के साथ TensorFlow Lite मॉडल को जल्दी से निष्पादित करना शुरू करने के लिए, आप सभी TensorFlow पैकेजों के बजाय केवल TensorFlow Lite दुभाषिया स्थापित कर सकते हैं। हम इस सरलीकृत पायथन पैकेज tflite_runtime

tflite_runtime पैकेज पूर्ण tensorflow पैकेज के आकार का एक अंश है और इसमें TensorFlow Lite-मुख्य रूप से Interpreter पायथन वर्ग के साथ अनुमानों को चलाने के लिए आवश्यक न्यूनतम कोड शामिल है। यह छोटा पैकेज तब आदर्श होता है जब आप केवल .tflite मॉडल निष्पादित करना चाहते हैं और बड़ी TensorFlow लाइब्रेरी के साथ डिस्क स्थान बर्बाद करने से बचना चाहते हैं।

पायथन के लिए TensorFlow लाइट स्थापित करें

आप लिनक्स पर पाइप के साथ स्थापित कर सकते हैं:

python3 -m pip install tflite-runtime

समर्थित प्लेटफॉर्म

tflite-runtime Python पहिए पूर्व-निर्मित हैं और इन प्लेटफार्मों के लिए प्रदान किए गए हैं:

  • Linux armv7l (जैसे रास्पबेरी पाई 2, 3, 4 और ज़ीरो 2 रास्पबेरी पाई ओएस 32-बिट चल रहा है)
  • Linux aarch64 (जैसे रास्पबेरी पाई 3, 4 डेबियन ARM64 चल रहा है)
  • लिनक्स x86_64

यदि आप अन्य प्लेटफॉर्म पर TensorFlow Lite मॉडल चलाना चाहते हैं, तो आपको या तो पूर्ण TensorFlow पैकेज का उपयोग करना चाहिए, या स्रोत से tflite-runtime पैकेज बनाना चाहिए

यदि आप कोरल एज टीपीयू के साथ TensorFlow का उपयोग कर रहे हैं, तो आपको इसके बजाय उपयुक्त कोरल सेटअप दस्तावेज़ का पालन करना चाहिए।

Tflite_runtime . का उपयोग करके एक अनुमान चलाएँ

tensorflow मॉड्यूल से Interpreter आयात करने के बजाय, अब आपको इसे tflite_runtime से आयात करने की आवश्यकता है।

उदाहरण के लिए, ऊपर दिए गए पैकेज को स्थापित करने के बाद, label_image.py .py फ़ाइल की प्रतिलिपि बनाएँ और चलाएँ। यह (शायद) विफल हो जाएगा क्योंकि आपके पास tensorflow लाइब्रेरी स्थापित नहीं है। इसे ठीक करने के लिए, फ़ाइल की इस पंक्ति को संपादित करें:

import tensorflow as tf

तो यह इसके बजाय पढ़ता है:

import tflite_runtime.interpreter as tflite

और फिर इस लाइन को बदलें:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

तो यह पढ़ता है:

interpreter = tflite.Interpreter(model_path=args.model_file)

अब label_image.py .py फिर से चलाएँ। इतना ही! अब आप TensorFlow Lite मॉडल निष्पादित कर रहे हैं।

और अधिक जानें

,

पायथन के साथ TensorFlow Lite का उपयोग लिनक्स पर आधारित एम्बेडेड उपकरणों के लिए बहुत अच्छा है, जैसे कि रास्पबेरी पाई और एज टीपीयू के साथ कोरल डिवाइस , कई अन्य के बीच।

यह पृष्ठ दिखाता है कि आप कुछ ही मिनटों में पायथन के साथ TensorFlow Lite मॉडल कैसे चलाना शुरू कर सकते हैं। आपको बस एक TensorFlow मॉडल चाहिए जो TensorFlow Lite में परिवर्तित हो जाए । (यदि आपने अभी तक कोई मॉडल परिवर्तित नहीं किया है, तो आप नीचे दिए गए उदाहरण के साथ दिए गए मॉडल का उपयोग करके प्रयोग कर सकते हैं।)

TensorFlow Lite रनटाइम पैकेज के बारे में

पायथन के साथ TensorFlow Lite मॉडल को जल्दी से निष्पादित करना शुरू करने के लिए, आप सभी TensorFlow पैकेजों के बजाय केवल TensorFlow Lite दुभाषिया स्थापित कर सकते हैं। हम इस सरलीकृत पायथन पैकेज tflite_runtime

tflite_runtime पैकेज पूर्ण tensorflow पैकेज के आकार का एक अंश है और इसमें TensorFlow Lite-मुख्य रूप से Interpreter पायथन वर्ग के साथ अनुमानों को चलाने के लिए आवश्यक न्यूनतम कोड शामिल है। यह छोटा पैकेज तब आदर्श होता है जब आप केवल .tflite मॉडल निष्पादित करना चाहते हैं और बड़ी TensorFlow लाइब्रेरी के साथ डिस्क स्थान बर्बाद करने से बचना चाहते हैं।

पायथन के लिए TensorFlow लाइट स्थापित करें

आप लिनक्स पर पाइप के साथ स्थापित कर सकते हैं:

python3 -m pip install tflite-runtime

समर्थित प्लेटफॉर्म

tflite-runtime Python पहिए पूर्व-निर्मित हैं और इन प्लेटफार्मों के लिए प्रदान किए गए हैं:

  • Linux armv7l (जैसे रास्पबेरी पाई 2, 3, 4 और ज़ीरो 2 रास्पबेरी पाई ओएस 32-बिट चल रहा है)
  • Linux aarch64 (जैसे रास्पबेरी पाई 3, 4 डेबियन ARM64 चल रहा है)
  • लिनक्स x86_64

यदि आप अन्य प्लेटफॉर्म पर TensorFlow Lite मॉडल चलाना चाहते हैं, तो आपको या तो पूर्ण TensorFlow पैकेज का उपयोग करना चाहिए, या स्रोत से tflite-runtime पैकेज बनाना चाहिए

यदि आप कोरल एज टीपीयू के साथ TensorFlow का उपयोग कर रहे हैं, तो आपको इसके बजाय उपयुक्त कोरल सेटअप दस्तावेज़ का पालन करना चाहिए।

Tflite_runtime . का उपयोग करके एक अनुमान चलाएँ

tensorflow मॉड्यूल से Interpreter आयात करने के बजाय, अब आपको इसे tflite_runtime से आयात करने की आवश्यकता है।

उदाहरण के लिए, ऊपर दिए गए पैकेज को स्थापित करने के बाद, label_image.py .py फ़ाइल की प्रतिलिपि बनाएँ और चलाएँ। यह (शायद) विफल हो जाएगा क्योंकि आपके पास tensorflow लाइब्रेरी स्थापित नहीं है। इसे ठीक करने के लिए, फ़ाइल की इस पंक्ति को संपादित करें:

import tensorflow as tf

तो यह इसके बजाय पढ़ता है:

import tflite_runtime.interpreter as tflite

और फिर इस लाइन को बदलें:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

तो यह पढ़ता है:

interpreter = tflite.Interpreter(model_path=args.model_file)

अब label_image.py .py फिर से चलाएँ। इतना ही! अब आप TensorFlow Lite मॉडल निष्पादित कर रहे हैं।

और अधिक जानें