การใช้ TensorFlow Lite กับ Python นั้นยอดเยี่ยมสำหรับอุปกรณ์ฝังตัวที่ใช้ Linux เช่น Raspberry Pi และ อุปกรณ์ Coral ที่มี Edge TPU เป็นต้น
หน้านี้แสดงวิธีเริ่มใช้งานโมเดล TensorFlow Lite ด้วย Python ในเวลาเพียงไม่กี่นาที สิ่งที่คุณต้องมีคือโมเดล TensorFlow ที่แปลงเป็น TensorFlow Lite (หากคุณยังไม่ได้แปลงแบบจำลอง คุณสามารถทดลองโดยใช้แบบจำลองที่ให้มากับตัวอย่างที่ลิงก์ด้านล่าง)
เกี่ยวกับแพ็คเกจรันไทม์ TensorFlow Lite
หากต้องการเริ่มต้นใช้งานโมเดล TensorFlow Lite ด้วย Python อย่างรวดเร็ว คุณสามารถติดตั้งเฉพาะล่าม TensorFlow Lite แทนแพ็คเกจ TensorFlow ทั้งหมดได้ เราเรียกแพ็คเกจ Python แบบง่ายนี้ว่า tflite_runtime
แพ็คเกจ tflite_runtime
เป็นเพียงเศษเสี้ยวของขนาดแพ็คเกจ tensorflow
แบบเต็ม และรวมโค้ดขั้นต่ำที่จำเป็นในการรันการอนุมานด้วย TensorFlow Lite ซึ่งส่วนใหญ่เป็นคลาส Interpreter
Python แพ็คเกจขนาดเล็กนี้เหมาะอย่างยิ่งเมื่อคุณต้องการดำเนินการกับโมเดล .tflite
และหลีกเลี่ยงการเปลืองพื้นที่ดิสก์ด้วยไลบรารี TensorFlow ขนาดใหญ่
ติดตั้ง TensorFlow Lite สำหรับ Python
คุณสามารถติดตั้งบน Linux ด้วย pip:
python3 -m pip install tflite-runtime
แพลตฟอร์มที่รองรับ
วงล้อ Python ของ tflite-runtime
ถูกสร้างไว้ล่วงหน้าและจัดเตรียมไว้สำหรับแพลตฟอร์มเหล่านี้:
- Linux armv7l (เช่น Raspberry Pi 2, 3, 4 และ Zero 2 ที่ใช้ Raspberry Pi OS 32 บิต)
- Linux aarch64 (เช่น Raspberry Pi 3, 4 รัน Debian ARM64)
- ลินุกซ์ x86_64
หากคุณต้องการเรียกใช้รุ่น TensorFlow Lite บนแพลตฟอร์มอื่น คุณควรใช้ แพ็คเกจ TensorFlow แบบเต็ม หรือ สร้างแพ็คเกจ tflite-runtime จากแหล่งที่มา
หากคุณกำลังใช้ TensorFlow กับ Coral Edge TPU คุณควรทำตาม เอกสารการตั้งค่า Coral ที่เหมาะสมแทน
เรียกใช้การอนุมานโดยใช้ tflite_runtime
แทนที่จะนำเข้า Interpreter
จากโมดูลเทนเซอร์ tflite_runtime
ลว์ ตอนนี้คุณต้องนำเข้าจาก tensorflow
ตัวอย่างเช่น หลังจากที่คุณติดตั้งแพ็คเกจด้านบนแล้ว ให้คัดลอกและเรียกใช้ไฟล์ label_image.py
มันจะ (อาจ) ล้มเหลวเพราะคุณไม่ได้ติดตั้งไลบรารี tensorflow
ลว์ หากต้องการแก้ไข ให้แก้ไขบรรทัดนี้ของไฟล์:
import tensorflow as tf
เลยเขียนแทนว่า
import tflite_runtime.interpreter as tflite
แล้วเปลี่ยนบรรทัดนี้:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
มันอ่านว่า:
interpreter = tflite.Interpreter(model_path=args.model_file)
ตอนนี้เรียกใช้ label_image.py
อีกครั้ง แค่นั้นแหละ! คุณกำลังดำเนินการรุ่น TensorFlow Lite
เรียนรู้เพิ่มเติม
สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับ
Interpreter
API โปรดอ่าน Load และเรียกใช้โมเดลใน Pythonหากคุณมี Raspberry Pi ให้ลองดู ชุดวิดีโอ เกี่ยวกับวิธีเรียกใช้การตรวจจับวัตถุบน Raspberry Pi โดยใช้ TensorFlow Lite
หากคุณกำลังใช้ตัวเร่ง Coral ML ให้ดู ตัวอย่าง Coral บน GitHub
หากต้องการแปลงโมเดล TensorFlow อื่นๆ เป็น TensorFlow Lite โปรดอ่านเกี่ยวกับตัว แปลง TensorFlow Lite
หากคุณต้องการสร้าง
tflite_runtime
wheel ให้อ่าน Build TensorFlow Lite Python Wheel Package
การใช้ TensorFlow Lite กับ Python นั้นยอดเยี่ยมสำหรับอุปกรณ์ฝังตัวที่ใช้ Linux เช่น Raspberry Pi และ อุปกรณ์ Coral ที่มี Edge TPU เป็นต้น
หน้านี้แสดงวิธีเริ่มใช้งานโมเดล TensorFlow Lite ด้วย Python ในเวลาเพียงไม่กี่นาที สิ่งที่คุณต้องมีคือโมเดล TensorFlow ที่แปลงเป็น TensorFlow Lite (หากคุณยังไม่ได้แปลงแบบจำลอง คุณสามารถทดลองโดยใช้แบบจำลองที่ให้มากับตัวอย่างที่ลิงก์ด้านล่าง)
เกี่ยวกับแพ็คเกจรันไทม์ TensorFlow Lite
หากต้องการเริ่มต้นใช้งานโมเดล TensorFlow Lite ด้วย Python อย่างรวดเร็ว คุณสามารถติดตั้งเฉพาะล่าม TensorFlow Lite แทนแพ็คเกจ TensorFlow ทั้งหมดได้ เราเรียกแพ็คเกจ Python แบบง่ายนี้ว่า tflite_runtime
แพ็คเกจ tflite_runtime
เป็นเพียงเศษเสี้ยวของขนาดแพ็คเกจ tensorflow
แบบเต็ม และรวมโค้ดขั้นต่ำที่จำเป็นในการรันการอนุมานด้วย TensorFlow Lite ซึ่งส่วนใหญ่เป็นคลาส Interpreter
Python แพ็คเกจขนาดเล็กนี้เหมาะอย่างยิ่งเมื่อคุณต้องการดำเนินการกับโมเดล .tflite
และหลีกเลี่ยงการเปลืองพื้นที่ดิสก์ด้วยไลบรารี TensorFlow ขนาดใหญ่
ติดตั้ง TensorFlow Lite สำหรับ Python
คุณสามารถติดตั้งบน Linux ด้วย pip:
python3 -m pip install tflite-runtime
แพลตฟอร์มที่รองรับ
วงล้อ Python ของ tflite-runtime
ถูกสร้างไว้ล่วงหน้าและจัดเตรียมไว้สำหรับแพลตฟอร์มเหล่านี้:
- Linux armv7l (เช่น Raspberry Pi 2, 3, 4 และ Zero 2 ที่ใช้ Raspberry Pi OS 32 บิต)
- Linux aarch64 (เช่น Raspberry Pi 3, 4 รัน Debian ARM64)
- ลินุกซ์ x86_64
หากคุณต้องการเรียกใช้รุ่น TensorFlow Lite บนแพลตฟอร์มอื่น คุณควรใช้ แพ็คเกจ TensorFlow แบบเต็ม หรือ สร้างแพ็คเกจ tflite-runtime จากแหล่งที่มา
หากคุณกำลังใช้ TensorFlow กับ Coral Edge TPU คุณควรทำตาม เอกสารการตั้งค่า Coral ที่เหมาะสมแทน
เรียกใช้การอนุมานโดยใช้ tflite_runtime
แทนที่จะนำเข้า Interpreter
จากโมดูลเทนเซอร์ tflite_runtime
ลว์ ตอนนี้คุณต้องนำเข้าจาก tensorflow
ตัวอย่างเช่น หลังจากที่คุณติดตั้งแพ็คเกจด้านบนแล้ว ให้คัดลอกและเรียกใช้ไฟล์ label_image.py
มันจะ (อาจ) ล้มเหลวเพราะคุณไม่ได้ติดตั้งไลบรารี tensorflow
ลว์ หากต้องการแก้ไข ให้แก้ไขบรรทัดนี้ของไฟล์:
import tensorflow as tf
เลยเขียนแทนว่า
import tflite_runtime.interpreter as tflite
แล้วเปลี่ยนบรรทัดนี้:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
มันอ่านว่า:
interpreter = tflite.Interpreter(model_path=args.model_file)
ตอนนี้เรียกใช้ label_image.py
อีกครั้ง แค่นั้นแหละ! คุณกำลังดำเนินการรุ่น TensorFlow Lite
เรียนรู้เพิ่มเติม
สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับ
Interpreter
API โปรดอ่าน Load และเรียกใช้โมเดลใน Pythonหากคุณมี Raspberry Pi ให้ลองดู ชุดวิดีโอ เกี่ยวกับวิธีเรียกใช้การตรวจจับวัตถุบน Raspberry Pi โดยใช้ TensorFlow Lite
หากคุณกำลังใช้ตัวเร่ง Coral ML ให้ดู ตัวอย่าง Coral บน GitHub
หากต้องการแปลงโมเดล TensorFlow อื่นๆ เป็น TensorFlow Lite โปรดอ่านเกี่ยวกับตัว แปลง TensorFlow Lite
หากคุณต้องการสร้าง
tflite_runtime
wheel ให้อ่าน Build TensorFlow Lite Python Wheel Package