Znane podklasy bezpośrednie |
Deleguj opcje.
Klasy zagnieżdżone
wyliczenie | GpuDelegateFactory.Options.GpuBackend | Który backend GPU wybrać. |
Stałe
wew | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | Delegat zostanie użyty tylko raz, dlatego należy wziąć pod uwagę czas ładowania/inicjacji. |
wew | INFERENCE_PREFERENCE_SUSTAINED_SPEED | Wolę maksymalizować przepustowość. |
Konstruktorzy publiczni
Opcje () |
Metody publiczne
wartość logiczna | |
GpuDelegateFactory.Options.GpuBackend | |
wew | |
Strunowy | |
Strunowy | |
wartość logiczna | |
Opcje GpuDelegateFactory | |
Opcje GpuDelegateFactory | setInferencePreference (preferencja int) Ustawia preferencje wnioskowania dla kompromisów w zakresie precyzji/kompilacji/środowiska wykonawczego. |
Opcje GpuDelegateFactory | setPrecisionLossAllowed (precyzja logicznaLossAllowed) Ustawia, czy dozwolona jest utrata precyzji. |
Opcje GpuDelegateFactory | setQuantizedModelsAllowed (boolean quantizedModelsAllowed) Umożliwia uruchamianie modeli skwantowanych z delegatem. |
Opcje GpuDelegateFactory | setSerializationParams ( String serializationDir, String modelToken) Włącza serializację na delegacie. |
Metody dziedziczone
Stałe
publiczny statyczny końcowy int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
Delegat zostanie użyty tylko raz, dlatego należy wziąć pod uwagę czas ładowania/inicjacji.
publiczny statyczny końcowy int INFERENCE_PREFERENCE_SUSTAINED_SPEED
Wolę maksymalizować przepustowość. Ten sam delegat będzie używany wielokrotnie na wielu wejściach.
Konstruktorzy publiczni
Opcje publiczne ()
Metody publiczne
publiczna wartość logiczna areQuantizedModelsAllowed ()
public int getInferencePreference ()
publiczna wartość logiczna isPrecisionLossAllowed ()
public GpuDelegateFactory.Options setForceBackend ( GpuDelegateFactory.Options.GpuBackend forceBackend)
Ustawia backend GPU.
Parametry
wymusić backend |
---|
public GpuDelegateFactory.Options setInferencePreference (preferencja int)
Ustawia preferencje wnioskowania dla kompromisów w zakresie precyzji/kompilacji/środowiska wykonawczego.
Parametry
pierwszeństwo | Jeden z „INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER” (domyślnie), „INFERENCE_PREFERENCE_SUSTAINED_SPEED”. |
---|
public GpuDelegateFactory.Options setPrecisionLossAllowed (boolowska precyzjaLossAllowed)
Ustawia, czy dozwolona jest utrata precyzji.
Parametry
precyzjaStrataDozwolona | Gdy „true” (domyślnie), procesor graficzny może określić ilościowo tensory, wartości downcast i przetwarzać w FP16. Jeśli „false”, obliczenia są przeprowadzane w 32-bitowej liczbie zmiennoprzecinkowej. |
---|
public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
Umożliwia uruchamianie modeli skwantowanych z delegatem.
OSTRZEŻENIE: To jest eksperymentalny interfejs API i może ulec zmianom.
Parametry
kwantyzowaneModeleDozwolone | Jeśli ma wartość true (domyślnie), procesor graficzny może uruchamiać modele skwantowane. |
---|
public GpuDelegateFactory.Options setSerializationParams ( String serializationDir, String modelToken)
Włącza serializację na delegacie. Uwaga Do serializacji wymagane są serializationDir
i modelToken
o wartości innej niż null.
OSTRZEŻENIE: To jest eksperymentalny interfejs API i może ulec zmianom.
Parametry
serializacjaReż | Katalog używany do przechowywania danych. Osoba wywołująca jest odpowiedzialna za upewnienie się, że model nie jest przechowywany w publicznym katalogu. Zalecane jest użycie Context.getCodeCacheDir() w celu zapewnienia prywatnej lokalizacji dla aplikacji na Androidzie. |
---|---|
modelToken | Token, który ma być używany do identyfikacji modelu. Osoba wywołująca jest odpowiedzialna za upewnienie się, że token jest unikalny dla wykresu i danych modelu. |