TensorFlow Lite'ı Python ile kullanmak, Raspberry Pi ve Edge TPU'lu Coral cihazları gibi Linux tabanlı gömülü cihazlar ve diğerleri için mükemmeldir.
Bu sayfa, TensorFlow Lite modellerini Python ile birkaç dakika içinde nasıl çalıştırmaya başlayabileceğinizi gösterir. İhtiyacınız olan tek şey TensorFlow Lite'a dönüştürülmüş bir TensorFlow modelidir. (Henüz dönüştürülmüş bir modeliniz yoksa, aşağıda bağlantısı verilen örnekle sağlanan modeli kullanarak denemeler yapabilirsiniz.)
TensorFlow Lite çalışma zamanı paketi hakkında
TensorFlow Lite modellerini Python ile hızlı bir şekilde çalıştırmaya başlamak için tüm TensorFlow paketleri yerine yalnızca TensorFlow Lite yorumlayıcısını kurabilirsiniz. Bu basitleştirilmiş Python paketine tflite_runtime
adını veriyoruz.
tflite_runtime
paketi, tam tensorflow
paketinin çok küçük bir boyutudur ve TensorFlow Lite ile (öncelikle Interpreter
Python sınıfı) çıkarımları çalıştırmak için gereken minimum kodu içerir. Bu küçük paket, tek yapmak istediğiniz .tflite
modellerini çalıştırmak ve büyük TensorFlow kitaplığıyla disk alanını boşa harcamaktan kaçınmak olduğunda idealdir.
Python için TensorFlow Lite'ı yükleyin
Linux'a pip ile kurulum yapabilirsiniz:
python3 -m pip install tflite-runtime
Desteklenen platformlar
tflite-runtime
Python tekerlekleri önceden oluşturulmuştur ve şu platformlar için sağlanmıştır:
- Linux armv7l (örneğin Raspberry Pi OS 32-bit çalıştıran Raspberry Pi 2, 3, 4 ve Zero 2)
- Linux aarch64 (örneğin Debian ARM64 çalıştıran Raspberry Pi 3, 4)
- Linuxx86_64
TensorFlow Lite modellerini diğer platformlarda çalıştırmak istiyorsanız ya TensorFlow paketinin tamamını kullanmalı ya da tflite-runtime paketini source adresinden oluşturmalısınız .
TensorFlow'u Coral Edge TPU ile kullanıyorsanız bunun yerine uygun Coral kurulum belgelerini izlemelisiniz.
Tflite_runtime kullanarak bir çıkarım çalıştırın
Interpreter
tensorflow
modülünden içe aktarmak yerine artık onu tflite_runtime
içe aktarmanız gerekiyor.
Örneğin yukarıdaki paketi yükledikten sonra label_image.py
dosyasını kopyalayıp çalıştırın. tensorflow
kütüphanesinin kurulu olmaması nedeniyle (muhtemelen) başarısız olacaktır. Düzeltmek için dosyanın şu satırını düzenleyin:
import tensorflow as tf
Yani bunun yerine şunu okur:
import tflite_runtime.interpreter as tflite
Ve sonra bu satırı değiştirin:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Yani şöyle yazıyor:
interpreter = tflite.Interpreter(model_path=args.model_file)
Şimdi label_image.py
tekrar çalıştırın. Bu kadar! Artık TensorFlow Lite modellerini yürütüyorsunuz.
Daha fazla bilgi edin
Interpreter
API hakkında daha fazla ayrıntı için Python'da bir model yükleme ve çalıştırma konusunu okuyun.Raspberry Pi'niz varsa TensorFlow Lite kullanarak Raspberry Pi'de nesne algılamanın nasıl çalıştırılacağıyla ilgili bir video serisine göz atın.
Coral ML hızlandırıcı kullanıyorsanız GitHub'daki Coral örneklerine göz atın.
Diğer TensorFlow modellerini TensorFlow Lite'a dönüştürmek için TensorFlow Lite Converter hakkında bilgi edinin.
tflite_runtime
tekerleği oluşturmak istiyorsanız Build TensorFlow Lite Python Wheel Paketini okuyun