Ta strona została przetłumaczona przez Cloud Translation API.
Switch to English

Mapa drogowa TensorFlow Lite

Aktualizacja: 18 kwietnia 2020 r

Poniżej przedstawiono ogólny przegląd naszego planu 2020. Należy pamiętać, że ten harmonogram może się zmienić w dowolnym momencie, a poniższa kolejność nie odzwierciedla żadnego rodzaju priorytetów. Zasadniczo priorytetyzujemy problemy na podstawie liczby użytkowników, których one dotyczą.

Nasz plan działania dzielimy na cztery kluczowe segmenty: użyteczność, wydajność, optymalizacja i przenośność. Gorąco zachęcamy do komentowania naszej mapy drogowej i przekazywania nam opinii w grupie dyskusyjnej TF Lite .

Użyteczność

  • Rozszerzony zakres operacji
    • Priorytetyzowane dodatki opcji na podstawie opinii użytkowników
  • Ulepszenia w korzystaniu z operacji TensorFlow w TensorFlow Lite
    • Gotowe biblioteki dostępne przez Bintray (Android) i Cocoapods (iOS)
    • Mniejszy rozmiar binarny podczas korzystania z wybranych operacji TF poprzez op stripping
  • Obsługa LSTM / RNN
    • Pełna obsługa konwersji LSTM i RNN, w tym obsługa w Keras
  • Biblioteki obsługujące przetwarzanie wstępne i końcowe oraz narzędzie do kodowania
    • Gotowe do użycia bloki konstrukcyjne API do typowych zadań ML
    • Obsługa większej liczby modeli (np. NLP) i większej liczby platform (np. IOS)
  • Integracja Android Studio
    • Przeciągnij i upuść modele TFLite do Android Studio, aby wygenerować klasy powiązań modelu
  • Kontroluj przepływ i szkolenia na urządzeniu
    • Wsparcie dla szkoleń na urządzeniu, nastawionych na personalizację i transfer uczenia się
  • Narzędzia do wizualizacji z TensorBoard
    • Zapewnij ulepszone narzędzia dzięki TensorBoard
  • Modelarz
    • Obsługa większej liczby zadań, w tym wykrywania obiektów i zadań NLP opartych na BERT
  • Więcej modeli i przykładów
    • Więcej przykładów pokazujących użycie modelu, a także nowe funkcje i interfejsy API, obejmujące różne platformy.
  • Biblioteka zadań
    • Popraw użyteczność biblioteki zadań C ++, na przykład zapewniając gotowe pliki binarne i tworząc przyjazne dla użytkownika przepływy pracy dla użytkowników, którzy chcą tworzyć z kodu źródłowego.
    • Przykłady referencyjne wydania dotyczące korzystania z biblioteki zadań.
    • Włącz więcej typów zadań.
    • Popraw obsługę wielu platform i włącz więcej zadań dla iOS.

Występ

  • Lepsze oprzyrządowanie
    • Publiczny pulpit nawigacyjny do śledzenia wzrostu wydajności z każdą wersją
  • Poprawiona wydajność procesora
    • Nowa, wysoce zoptymalizowana biblioteka jądra zmiennoprzecinkowego dla modeli konwolucyjnych
    • Pierwszorzędna obsługa x86
  • Zaktualizowana obsługa interfejsu API NN
    • Pełna obsługa nowych funkcji, operacji i typów interfejsu API systemu Android R NN
  • Optymalizacje zaplecza GPU
    • Obsługa Vulkan na Androidzie
    • Obsługa modeli kwantowanych w liczbach całkowitych
  • Backend Hexagon DSP
    • Obsługa kwantyzacji na kanał dla wszystkich modeli utworzonych poprzez kwantyzację potreningową
    • Obsługa dynamicznego rozmiaru wsadu wejściowego
    • Lepsze pokrycie operacji, w tym LSTM
  • Backend Core ML
    • Optymalizacja czasu rozruchu
    • Obsługa dynamicznych modeli kwantowych
    • Obsługa modeli kwantowanych Float16
    • Lepsze pokrycie operacyjne

Optymalizacja

  • Kwantyzacja

    • Kwantyzacja potreningowa dla (8b) stałych punktów RNN
    • Kwantyzacja podczas szkolenia dla (8b) stałych punktów sieci RNN
    • Poprawa jakości i wydajności dla kwantyzacji zakresu dynamicznego po treningu
  • Przycinanie / rzadkość

    • Obsługa rzadkich modeli w TensorFlow Lite - WIP

    • Interfejs API do grupowania wag

Ruchliwość

  • Obsługa mikrokontrolera
    • Dodaj obsługę szeregu przypadków użycia 32-bitowej architektury MCU do klasyfikacji mowy i obrazów
    • Przykładowy kod i modele danych wizyjnych i dźwiękowych
    • Pełna obsługa TF Lite na mikrokontrolerach
    • Obsługa większej liczby platform, w tym obsługi CircuitPython