Ta strona została przetłumaczona przez Cloud Translation API.
Switch to English

Przewodnik TensorFlow Lite

TensorFlow Lite to zestaw narzędzi ułatwiających programistom uruchamianie modeli TensorFlow na urządzeniach mobilnych, wbudowanych i IoT. Umożliwia wnioskowanie z uczenia maszynowego na urządzeniu z małym opóźnieniem i niewielkim rozmiarem binarnym.

TensorFlow Lite składa się z dwóch głównych komponentów:

  • Interpreter TensorFlow Lite , który obsługuje specjalnie zoptymalizowane modele na wielu różnych typach sprzętu, w tym na telefonach komórkowych, urządzeniach z wbudowanym systemem Linux i mikrokontrolerach.
  • Konwerter TensorFlow Lite , który przekształca modele TensorFlow w wydajną formę do użytku przez interpreter i może wprowadzać optymalizacje w celu poprawy rozmiaru binarnego i wydajności.

Uczenie maszynowe na krawędzi

TensorFlow Lite został zaprojektowany w taki sposób, aby ułatwić przeprowadzanie uczenia maszynowego na urządzeniach „na brzegu” sieci, zamiast przesyłania danych z serwera do iz powrotem. W przypadku programistów uczenie maszynowe na urządzeniu może pomóc ulepszyć:

  • Opóźnienie: nie ma powrotu do serwera
  • Prywatność: żadne dane nie muszą opuszczać urządzenia
  • Łączność: połączenie internetowe nie jest wymagane
  • Pobór mocy: połączenia sieciowe są energochłonne

TensorFlow Lite współpracuje z szeroką gamą urządzeń, od małych mikrokontrolerów po potężne telefony komórkowe.

Zaczynaj

Aby rozpocząć pracę z TensorFlow Lite na urządzeniach przenośnych, wizyta Pierwsze kroki . Jeśli chcesz wdrożyć modele TensorFlow Lite w mikrokontrolerach, odwiedź stronę Mikrokontrolery .

Kluczowe cechy

  • Interpreter dostrojony do ML na urządzeniu , obsługujący zestaw podstawowych operatorów zoptymalizowanych pod kątem aplikacji na urządzeniu io małym rozmiarze binarnym.
  • Obsługa różnorodnych platform , obejmująca urządzenia z Androidem i iOS , wbudowany system Linux i mikrokontrolery, wykorzystująca interfejsy API platformy do przyspieszonego wnioskowania.
  • Interfejsy API dla wielu języków, w tym Java, Swift, Objective-C, C ++ i Python.
  • Wysoka wydajność z przyspieszeniem sprzętowym na obsługiwanych urządzeniach, jądrem zoptymalizowanym pod kątem urządzeń oraz wstępnie połączonymi aktywacjami i odchyleniami .
  • Narzędzia do optymalizacji modeli , w tym kwantyzacja , które mogą zmniejszać rozmiar i zwiększać wydajność modeli bez poświęcania dokładności.
  • Efektywny format modelu z wykorzystaniem FlatBuffer zoptymalizowanego pod kątem niewielkich rozmiarów i przenośności.
  • Wstępnie wytrenowane modele typowych zadań uczenia maszynowego, które można dostosować do aplikacji.
  • Przykłady i samouczki, które pokazują, jak wdrażać modele uczenia maszynowego na obsługiwanych platformach.

Programowanie pracy

Przebieg pracy dotyczący korzystania z TensorFlow Lite obejmuje następujące kroki:

  1. Wybierz model

    Przynieś swój własny model TensorFlow, znajdź model online lub wybierz model z naszych wstępnie przeszkolonych modeli, aby wpaść lub przekwalifikować się.

  2. Przekształć model

    Jeśli używasz modelu niestandardowego, użyj konwertera TensorFlow Lite i kilku wierszy języka Python, aby przekonwertować go do formatu TensorFlow Lite.

  3. Wdróż na swoim urządzeniu

    Uruchom model na urządzeniu za pomocą interpretera TensorFlow Lite z interfejsami API w wielu językach.

  4. Zoptymalizuj swój model

    Skorzystaj z naszego zestawu narzędzi do optymalizacji modelu, aby zmniejszyć rozmiar modelu i zwiększyć jego wydajność przy minimalnym wpływie na dokładność.

Aby dowiedzieć się więcej na temat korzystania TensorFlow Lite w projekcie, patrz Wprowadzenie .

Ograniczenia techniczne

TensorFlow Lite planuje zapewnić wysoką wydajność wnioskowania na urządzeniu dla dowolnego modelu TensorFlow. Jednak interpreter TensorFlow Lite obsługuje obecnie ograniczony podzbiór operatorów TensorFlow, które zostały zoptymalizowane do użytku na urządzeniu. Oznacza to, że niektóre modele wymagają dodatkowych czynności do pracy z TensorFlow Lite.

Aby dowiedzieć się, które operatory są dostępne, zobacz Zgodność operatorów .

Jeśli model korzysta z operatorów, które nie są jeszcze obsługiwane przez interpreter TensorFlow Lite, możesz użyć TensorFlow Select, aby uwzględnić operacje TensorFlow w swojej kompilacji TensorFlow Lite. Doprowadzi to jednak do zwiększenia rozmiaru binarnego.

TensorFlow Lite obecnie nie obsługuje szkolenia na urządzeniu, ale znajduje się ono w naszej mapie drogowej wraz z innymi planowanymi ulepszeniami.

Następne kroki

Chcesz dowiedzieć się więcej o TensorFlow Lite? Oto kilka kolejnych kroków: