راه اندازی سریع برای دستگاه های مبتنی بر لینوکس با پایتون

استفاده از TensorFlow Lite با پایتون برای دستگاه‌های تعبیه‌شده مبتنی بر لینوکس، مانند دستگاه‌های Raspberry Pi و Coral با Edge TPU و بسیاری دیگر، عالی است.

این صفحه نشان می دهد که چگونه می توانید تنها در چند دقیقه مدل های TensorFlow Lite را با پایتون شروع کنید. تنها چیزی که نیاز دارید یک مدل TensorFlow است که به TensorFlow Lite تبدیل شده است . (اگر هنوز مدلی تبدیل نکرده اید، می توانید با استفاده از مدل ارائه شده با مثال پیوند زیر آزمایش کنید.)

درباره بسته زمان اجرا TensorFlow Lite

برای شروع سریع اجرای مدل های TensorFlow Lite با پایتون، می توانید فقط مفسر TensorFlow Lite را به جای همه بسته های TensorFlow نصب کنید. ما این بسته پایتون ساده شده را tflite_runtime می نامیم.

بسته tflite_runtime کسری به اندازه بسته tensorflow کامل است و شامل حداقل کد مورد نیاز برای اجرای استنتاج‌ها با TensorFlow Lite است – در درجه اول کلاس Interpreter Python. این بسته کوچک زمانی ایده آل است که تنها کاری که می خواهید انجام دهید اجرای مدل های .tflite و جلوگیری از هدر رفتن فضای دیسک با کتابخانه بزرگ TensorFlow است.

TensorFlow Lite را برای پایتون نصب کنید

می توانید با pip روی لینوکس نصب کنید:

python3 -m pip install tflite-runtime

پلتفرم های پشتیبانی شده

چرخ‌های پایتون tflite-runtime برای این پلتفرم‌ها از پیش ساخته و ارائه شده‌اند:

  • Linux armv7l (به عنوان مثال Raspberry Pi 2، 3، 4 و Zero 2 با سیستم عامل Raspberry Pi 32 بیتی)
  • Linux aarch64 (به عنوان مثال Raspberry Pi 3, 4 در حال اجرا Debian ARM64)
  • لینوکس x86_64

اگر می‌خواهید مدل‌های TensorFlow Lite را روی پلتفرم‌های دیگر اجرا کنید، یا باید از بسته کامل TensorFlow استفاده کنید یا بسته tflite-runtime را از منبع بسازید .

اگر از TensorFlow با Coral Edge TPU استفاده می‌کنید، در عوض باید از مستندات راه‌اندازی Coral مناسب پیروی کنید.

یک استنتاج را با استفاده از tflite_runtime اجرا کنید

به جای وارد کردن Interpreter از ماژول tensorflow ، اکنون باید آن را از tflite_runtime وارد کنید.

به عنوان مثال، پس از نصب بسته بالا، فایل label_image.py را کپی و اجرا کنید. (احتمالا) به دلیل اینکه کتابخانه tensorflow را نصب نکرده اید، شکست خواهد خورد. برای رفع آن، این خط فایل را ویرایش کنید:

import tensorflow as tf

بنابراین در عوض می‌خواند:

import tflite_runtime.interpreter as tflite

و سپس این خط را تغییر دهید:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

پس میخواند:

interpreter = tflite.Interpreter(model_path=args.model_file)

حالا دوباره label_image.py اجرا کنید. خودشه! اکنون در حال اجرای مدل‌های TensorFlow Lite هستید.

بیشتر بدانید