השימוש ב-TensorFlow Lite עם Python נהדר עבור מכשירים משובצים המבוססים על לינוקס, כגון Raspberry Pi ומכשירי Coral עם Edge TPU , בין רבים אחרים.
דף זה מראה כיצד תוכל להתחיל להפעיל דגמי TensorFlow Lite עם Python תוך דקות ספורות. כל מה שאתה צריך הוא דגם TensorFlow שהומר ל-TensorFlow Lite . (אם עדיין אין לך מודל המרה, תוכל להתנסות באמצעות המודל שסופק עם הדוגמה המקושרת למטה).
על חבילת זמן הריצה של TensorFlow Lite
כדי להתחיל במהירות להפעיל דגמי TensorFlow Lite עם Python, אתה יכול להתקין רק את המתורגמן TensorFlow Lite, במקום את כל חבילות TensorFlow. אנו קוראים לחבילת Python הפשוטה הזו tflite_runtime
.
חבילת tflite_runtime
היא חלק מגודלה של חבילת tensorflow
המלאה וכוללת את הקוד המינימלי הדרוש להפעלת מסקנות עם TensorFlow Lite - בעיקר מחלקת Interpreter
Python. החבילה הקטנה הזו אידיאלית כאשר כל מה שאתה רוצה לעשות הוא להפעיל דגמי .tflite
ולהימנע מבזבוז שטח דיסק עם ספריית TensorFlow הגדולה.
התקן את TensorFlow Lite עבור Python
אתה יכול להתקין על לינוקס עם pip:
python3 -m pip install tflite-runtime
פלטפורמות נתמכות
גלגלי Python tflite-runtime
בנויים מראש ומסופקים עבור הפלטפורמות האלה:
- Linux armv7l (למשל Raspberry Pi 2, 3, 4 ו-Zero 2 עם Raspberry Pi OS 32 סיביות)
- Linux aarch64 (למשל Raspberry Pi 3, 4 עם דביאן ARM64)
- Linux x86_64
אם ברצונך להפעיל דגמי TensorFlow Lite בפלטפורמות אחרות, עליך להשתמש בחבילת TensorFlow המלאה , או לבנות את חבילת tflite-runtime מהמקור .
אם אתה משתמש ב-TensorFlow עם Coral Edge TPU, עליך לעקוב במקום זאת אחר התיעוד המתאים להגדרת Coral .
הפעל מסקנות באמצעות tflite_runtime
במקום לייבא את Interpreter
ממודול tensorflow
, כעת עליך לייבא אותו מ- tflite_runtime
.
לדוגמה, לאחר התקנת החבילה למעלה, העתק והפעל את הקובץ label_image.py
. זה (כנראה) ייכשל כי אין לך את ספריית tensorflow
מותקנת. כדי לתקן את זה, ערוך את השורה הזו של הקובץ:
import tensorflow as tf
אז במקום זה כתוב:
import tflite_runtime.interpreter as tflite
ואז שנה את השורה הזו:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
אז זה כתוב:
interpreter = tflite.Interpreter(model_path=args.model_file)
כעת הפעל שוב label_image.py
. זהו זה! אתה מפעיל כעת דגמי TensorFlow Lite.
למד עוד
לפרטים נוספים על ממשק ה-API של
Interpreter
, קרא טען והרץ מודל ב-Python .אם יש לך Raspberry Pi, בדוק סדרת סרטונים על איך להפעיל זיהוי אובייקטים על Raspberry Pi באמצעות TensorFlow Lite.
אם אתה משתמש במאיץ Coral ML, בדוק את הדוגמאות של Coral ב-GitHub .
כדי להמיר דגמי TensorFlow אחרים ל-TensorFlow Lite, קרא על ממיר TensorFlow Lite .
אם אתה רוצה לבנות גלגל
tflite_runtime
, קרא Build TensorFlow Lite Python Wheel Package
השימוש ב-TensorFlow Lite עם Python נהדר עבור מכשירים משובצים המבוססים על לינוקס, כגון Raspberry Pi ומכשירי Coral עם Edge TPU , בין רבים אחרים.
דף זה מראה כיצד תוכל להתחיל להפעיל דגמי TensorFlow Lite עם Python תוך דקות ספורות. כל מה שאתה צריך הוא דגם TensorFlow שהומר ל-TensorFlow Lite . (אם עדיין אין לך מודל המרה, תוכל להתנסות באמצעות המודל שסופק עם הדוגמה המקושרת למטה).
על חבילת זמן הריצה של TensorFlow Lite
כדי להתחיל במהירות להפעיל דגמי TensorFlow Lite עם Python, אתה יכול להתקין רק את המתורגמן TensorFlow Lite, במקום את כל חבילות TensorFlow. אנו קוראים לחבילת Python הפשוטה הזו tflite_runtime
.
חבילת tflite_runtime
היא חלק מגודלה של חבילת tensorflow
המלאה וכוללת את הקוד המינימלי הדרוש להפעלת מסקנות עם TensorFlow Lite - בעיקר מחלקת Interpreter
Python. החבילה הקטנה הזו אידיאלית כאשר כל מה שאתה רוצה לעשות הוא להפעיל דגמי .tflite
ולהימנע מבזבוז שטח דיסק עם ספריית TensorFlow הגדולה.
התקן את TensorFlow Lite עבור Python
אתה יכול להתקין על לינוקס עם pip:
python3 -m pip install tflite-runtime
פלטפורמות נתמכות
גלגלי Python tflite-runtime
בנויים מראש ומסופקים עבור הפלטפורמות האלה:
- Linux armv7l (למשל Raspberry Pi 2, 3, 4 ו-Zero 2 עם Raspberry Pi OS 32 סיביות)
- Linux aarch64 (למשל Raspberry Pi 3, 4 עם דביאן ARM64)
- Linux x86_64
אם ברצונך להפעיל דגמי TensorFlow Lite בפלטפורמות אחרות, עליך להשתמש בחבילת TensorFlow המלאה , או לבנות את חבילת tflite-runtime מהמקור .
אם אתה משתמש ב-TensorFlow עם Coral Edge TPU, עליך לעקוב במקום זאת אחר התיעוד המתאים להגדרת Coral .
הפעל מסקנות באמצעות tflite_runtime
במקום לייבא את Interpreter
ממודול tensorflow
, כעת עליך לייבא אותו מ- tflite_runtime
.
לדוגמה, לאחר התקנת החבילה למעלה, העתק והפעל את הקובץ label_image.py
. זה (כנראה) ייכשל כי אין לך את ספריית tensorflow
מותקנת. כדי לתקן את זה, ערוך את השורה הזו של הקובץ:
import tensorflow as tf
אז במקום זה כתוב:
import tflite_runtime.interpreter as tflite
ואז שנה את השורה הזו:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
אז זה כתוב:
interpreter = tflite.Interpreter(model_path=args.model_file)
כעת הפעל שוב label_image.py
. זהו זה! אתה מפעיל כעת דגמי TensorFlow Lite.
למד עוד
לפרטים נוספים על ממשק ה-API של
Interpreter
, קרא טען והרץ מודל ב-Python .אם יש לך Raspberry Pi, בדוק סדרת סרטונים על איך להפעיל זיהוי אובייקטים על Raspberry Pi באמצעות TensorFlow Lite.
אם אתה משתמש במאיץ Coral ML, בדוק את הדוגמאות של Coral ב-GitHub .
כדי להמיר דגמי TensorFlow אחרים ל-TensorFlow Lite, קרא על ממיר TensorFlow Lite .
אם אתה רוצה לבנות גלגל
tflite_runtime
, קרא Build TensorFlow Lite Python Wheel Package