การใช้ TensorFlow Lite กับ Python เหมาะอย่างยิ่งสำหรับอุปกรณ์แบบฝังที่ใช้ Linux เช่น Raspberry Pi และ อุปกรณ์ Coral ที่มี Edge TPU และอื่นๆ อีกมากมาย
หน้านี้แสดงวิธีที่คุณสามารถเริ่มต้นใช้งานโมเดล TensorFlow Lite ด้วย Python ได้ในเวลาเพียงไม่กี่นาที สิ่งที่คุณต้องมีคือโมเดล TensorFlow ที่แปลงเป็น TensorFlow Lite (หากคุณยังไม่มีการแปลงโมเดล คุณสามารถทดลองโดยใช้โมเดลที่ให้มาพร้อมกับตัวอย่างที่ลิงก์ด้านล่าง)
เกี่ยวกับแพ็คเกจรันไทม์ TensorFlow Lite
หากต้องการเริ่มดำเนินการโมเดล TensorFlow Lite ด้วย Python อย่างรวดเร็ว คุณสามารถติดตั้งเฉพาะล่าม TensorFlow Lite แทนแพ็คเกจ TensorFlow ทั้งหมด เราเรียกแพ็คเกจ Python แบบง่ายนี้ tflite_runtime
แพ็คเกจ tflite_runtime
มีขนาดเศษส่วนของแพ็คเกจ tensorflow
แบบเต็ม และรวมโค้ดขั้นต่ำเปล่าที่จำเป็นสำหรับการเรียกใช้การอนุมานด้วย TensorFlow Lite ซึ่งส่วนใหญ่เป็นคลาส Interpreter
Python แพ็คเกจขนาดเล็กนี้เหมาะอย่างยิ่งเมื่อสิ่งที่คุณต้องการทำคือรันโมเดล .tflite
และหลีกเลี่ยงการเปลืองพื้นที่ดิสก์ด้วยไลบรารี TensorFlow ขนาดใหญ่
ติดตั้ง TensorFlow Lite สำหรับ Python
คุณสามารถติดตั้งบน Linux ด้วย pip:
python3 -m pip install tflite-runtime
แพลตฟอร์มที่รองรับ
Python wheel tflite-runtime
ได้รับการสร้างไว้ล่วงหน้าและจัดเตรียมไว้สำหรับแพลตฟอร์มเหล่านี้:
- Linux armv7l (เช่น Raspberry Pi 2, 3, 4 และ Zero 2 ที่ใช้ Raspberry Pi OS 32 บิต)
- Linux aarch64 (เช่น Raspberry Pi 3, 4 ที่ใช้ Debian ARM64)
- ลินุกซ์ x86_64
หากคุณต้องการเรียกใช้โมเดล TensorFlow Lite บนแพลตฟอร์มอื่น คุณควรใช้ แพ็คเกจ TensorFlow แบบเต็ม หรือ สร้างแพ็คเกจ tflite-runtime จากแหล่งที่มา
หากคุณใช้ TensorFlow กับ Coral Edge TPU คุณควรปฏิบัติตาม เอกสารการตั้งค่า Coral ที่เหมาะสมแทน
เรียกใช้การอนุมานโดยใช้ tflite_runtime
แทนที่จะนำเข้า Interpreter
จากโมดูล tensorflow
ตอนนี้คุณต้องนำเข้าจาก tflite_runtime
ตัวอย่างเช่น หลังจากที่คุณติดตั้งแพ็คเกจด้านบนแล้ว ให้คัดลอกและเรียกใช้ไฟล์ label_image.py
มันจะ (อาจ) ล้มเหลวเนื่องจากคุณไม่ได้ติดตั้งไลบรารี tensorflow
โฟลว์ หากต้องการแก้ไข ให้แก้ไขบรรทัดของไฟล์นี้:
import tensorflow as tf
ดังนั้นจึงอ่านแทนว่า:
import tflite_runtime.interpreter as tflite
แล้วเปลี่ยนบรรทัดนี้:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
ดังนั้นจึงอ่านว่า:
interpreter = tflite.Interpreter(model_path=args.model_file)
ตอนนี้ให้รัน label_image.py
อีกครั้ง แค่นั้นแหละ! คุณกำลังเรียกใช้โมเดล TensorFlow Lite
เรียนรู้เพิ่มเติม
สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับ
Interpreter
API โปรดอ่าน โหลดและรันโมเดลใน Pythonหากคุณมี Raspberry Pi โปรดดู ชุดวิดีโอ เกี่ยวกับวิธีการเรียกใช้การตรวจจับวัตถุบน Raspberry Pi โดยใช้ TensorFlow Lite
หากคุณใช้ตัวเร่งความเร็ว Coral ML โปรดดู ตัวอย่าง Coral บน GitHub
หากต้องการแปลง TensorFlow รุ่นอื่นๆ เป็น TensorFlow Lite โปรดอ่านเกี่ยวกับ TensorFlow Lite Converter
หากคุณต้องการสร้าง
tflite_runtime
wheel โปรดอ่าน Build TensorFlow Lite Python Wheel Package