Zacznij od optymalizacji modelu TensorFlow

1. Wybierz najlepszy model do zadania

W zależności od zadania konieczne będzie dokonanie kompromisu pomiędzy złożonością modelu a jego rozmiarem. Jeśli Twoje zadanie wymaga dużej dokładności, możesz potrzebować dużego i złożonego modelu. W przypadku zadań wymagających mniejszej precyzji lepiej jest zastosować mniejszy model, ponieważ nie tylko zużywają mniej miejsca na dysku i pamięci, ale są też generalnie szybsze i bardziej energooszczędne.

2. Wstępnie zoptymalizowane modele

Sprawdź, czy istniejące , wstępnie zoptymalizowane modele TensorFlow Lite zapewniają wydajność wymaganą przez Twoją aplikację.

3. Narzędzia poszkoleniowe

Jeśli nie możesz użyć wstępnie wytrenowanego modelu w swojej aplikacji, spróbuj użyć narzędzi kwantyzacji po treningu TensorFlow Lite podczas konwersji TensorFlow Lite , co może zoptymalizować już wytrenowany model TensorFlow.

Aby dowiedzieć się więcej, zobacz samouczek dotyczący kwantyzacji po szkoleniu .

Kolejne kroki: Oprzyrządowanie w czasie szkolenia

Jeśli powyższe proste rozwiązania nie spełniają Twoich potrzeb, być może będziesz musiał zastosować techniki optymalizacji czasu szkolenia. Optymalizuj dalej dzięki naszym narzędziom szkoleniowym i kop głębiej.