Pomoc chronić Wielkiej Rafy Koralowej z TensorFlow na Kaggle Dołącz Wyzwanie

Zacznij od optymalizacji modelu TensorFlow

1. Wybierz najlepszy model do zadania

W zależności od zadania będziesz musiał dokonać kompromisu między złożonością modelu a rozmiarem. Jeśli Twoje zadanie wymaga dużej dokładności, możesz potrzebować dużego i złożonego modelu. W przypadku zadań, które wymagają mniejszej precyzji, lepiej jest użyć mniejszego modelu, ponieważ nie tylko zajmują one mniej miejsca na dysku i pamięci, ale są również generalnie szybsze i bardziej energooszczędne.

2. Modele wstępnie zoptymalizowane

Sprawdź, czy jakiekolwiek istniejące wstępnie zoptymalizowane modele TensorFlow Lite zapewniają wydajność wymaganą przez Twoją aplikację.

3. Oprzyrządowanie po treningu

Jeśli nie możesz użyć wstępnie wytrenowanego modelu dla swojej aplikacji, spróbuj użyć narzędzi do kwantyzacji po treningu TensorFlow Lite podczas konwersji TensorFlow Lite , które mogą zoptymalizować już wyuczony model TensorFlow.

Zobacz samouczek dotyczący kwantyzacji po szkoleniu, aby dowiedzieć się więcej.

Kolejne kroki: Oprzyrządowanie w czasie szkolenia

Jeśli powyższe proste rozwiązania nie spełniają Twoich potrzeb, może być konieczne zastosowanie technik optymalizacji czasu szkolenia. Optymalizuj dalej dzięki naszym narzędziom do szkolenia i kop głębiej.