TensorFlowLiteの事前トレーニング済みモデル

TensorFlow Liteですぐに使用して、多くの機械学習タスクを実行できる、すでにトレーニング済みのさまざまなオープンソースモデルがあります。事前にトレーニングされたTensorFlowLiteモデルを使用すると、モデルを構築してトレーニングすることなく、モバイルおよびエッジデバイスアプリケーションに機械学習機能をすばやく追加できます。このガイドは、TensorFlowLiteで使用するトレーニング済みモデルを見つけて決定するのに役立ちます。

TensorFlow Liteの例セクションの一般的なユースケースに基づいて、TensorFlow Liteモデルの閲覧をすぐに開始するか、 TensorFlowHubでより多くのモデルのセットを閲覧することができます。

アプリケーションのモデルを見つける

ユースケースに適した既存のTensorFlowLiteモデルを見つけることは、達成しようとしていることによっては難しい場合があります。 TensorFlowLiteで使用するモデルを見つけるための推奨される方法を次に示します。

例: TensorFlow Liteでモデルを見つけて使用を開始する最も速い方法は、 TensorFlow Liteの例のセクションを参照して、ユースケースに類似したタスクを実行するモデルを見つけることです。この短い例のカタログは、一般的なユースケースのモデルと、モデルの説明とサンプルコードを提供して、モデルの実行と使用を開始します。

データ入力タイプ別:ユースケースに類似した例を見る以外に、自分で使用するモデルを見つける別の方法は、オーディオ、テキスト、画像、ビデオデータなど、処理するデータのタイプを検討することです。機械学習モデルは、これらのタイプのデータのいずれかで使用するように設計されていることが多いため、使用するデータタイプを処理するモデルを探すと、検討するモデルを絞り込むのに役立ちます。 TensorFlow Hubでは、 Problemドメインフィルターを使用してモデルのデータ型を表示し、リストを絞り込むことができます。

以下に、一般的なユースケースのTensorFlowHub上のTensorFlowLiteモデルへのリンクを示します。

類似モデルから選択

アプリケーションが画像分類やオブ​​ジェクト検出などの一般的なユースケースに従っている場合、バイナリサイズ、データ入力サイズ、推論速度、予測精度の評価を変えて、複数のTensorFlowLiteモデルから選択することに気付くかもしれません。多数のモデルを決定するときは、最初に最も制限の厳しい制約(モデルのサイズ、データのサイズ、推論速度、または精度)に基づいてオプションを絞り込む必要があります。

最も制限的な制約が何かわからない場合は、それがモデルのサイズであると想定し、利用可能な最小のモデルを選択します。小さなモデルを選択すると、モデルを正常に展開して実行できるデバイスに関して最も柔軟性があります。モデルが小さいほど、通常、推論が速くなり、予測が速くなると、通常、エンドユーザーエクスペリエンスが向上します。通常、小さいモデルは精度が低いため、予測精度が主な関心事である場合は、大きいモデルを選択する必要があります。

モデルのソース

TensorFlow Liteで使用するモデルを検索および選択するための最初の宛先として、TensorFlowLiteの例セクションとTensorFlowハブを使用します。これらのソースには通常、TensorFlow Liteで使用するための最新のキュレートされたモデルがあり、開発プロセスを加速するためのサンプルコードが含まれていることがよくあります。

TensorFlowモデル

通常のTensorFlowモデルをTensorFlowLite形式に変換することができます。モデルの変換の詳細については、 TensorFlowLiteConverterのドキュメントをご覧ください。 TensorFlowモデルは、 TensorFlowHubとTensorFlowModelGardenにあります。