1. Escolha o melhor modelo para a tarefa
Dependendo da tarefa, você precisará fazer uma compensação entre a complexidade e o tamanho do modelo. Se sua tarefa exigir alta precisão, você poderá precisar de um modelo grande e complexo. Para tarefas que exigem menos precisão, é melhor usar um modelo menor porque eles não apenas usam menos espaço em disco e memória, mas também são geralmente mais rápidos e mais eficientes em termos de energia.
2. Modelos pré-otimizados
Veja se algum modelo pré-otimizado existente do TensorFlow Lite fornece a eficiência exigida pelo seu aplicativo.
3. Ferramentas pós-treinamento
Se você não puder usar um modelo pré-treinado para seu aplicativo, tente usar as ferramentas de quantização pós-treinamento do TensorFlow Lite durante a conversão do TensorFlow Lite , que podem otimizar seu modelo do TensorFlow já treinado.
Consulte o tutorial de quantização pós-treinamento para saber mais.
Próximas etapas: ferramentas de tempo de treinamento
Se as soluções simples acima não satisfizerem suas necessidades, talvez seja necessário envolver técnicas de otimização do tempo de treinamento. Otimize ainda mais com nossas ferramentas de tempo de treinamento e vá mais fundo.