このドキュメントは、マイクロコントローラを使用してモデルをトレーニングし、推論を実行する方法について説明します。
Hello World の例
Hello World の例は、マイクロコントローラ向け TensorFlow Lite を使用するための基本を説明するためのものです。サイン関数を複製するモデルをトレーニングして実行します。つまり、単一の数値を入力として受け取り、その数値のサイン値を出力します。マイクロコントローラにデプロイされると、その予測は LED を点滅させるか、アニメーションを制御するために使用されます。
エンドツーエンドのワークフローには、次の手順が含まれます。
- モデルをトレーニングする(Python): オンデバイスで使用するためのモデルをトレーニング、変換、および最適化する Python ファイル。
- 推論を実行する(C++ 17): C++ライブラリを使用してモデルで推論を実行するエンドツーエンドの単体テスト。
サポートされているデバイスを入手する
使用するサンプルアプリケーションは、次のデバイスでテストされています。
- Arduino Nano 33 BLE Sense (Arduino IDE を使用する)
- SparkFun Edge (ソースから直接構築する)
- STM32F746 Discovery kit (Mbed を使用する)
- Adafruit EdgeBadge (Arduino IDE を使用する)
- Adafruit TensorFlow Lite for Microcontrollers Kit (Arduino IDE を使用する)
- Adafruit Circuit Playground Bluefruit (Arduino IDE を使用する)
- Espressif ESP32-DevKitC (ESP IDF を使用する)
- Espressif ESP-EYE (ESP IDF を使用する)
サポートされているプラットフォームの詳細については、マイクロコントローラ向け TensorFlow Lite をご覧ください。
モデルをトレーニングする
注:このセクションをスキップして、サンプルコードに含まれているトレーニング済みモデルを使用することもできます。
Hello World モデルトレーニング用の train.py を使って正弦波の認識を行います。
実行: bazel build tensorflow/lite/micro/examples/hello_world:train
bazel-bin/tensorflow/lite/micro/examples/hello_world/train --save_tf_model --save_dir=/tmp/model_created/
推論を実行する
デバイスでモデルを実行するために、README.md
の手順を説明します。
以下のセクションではサンプルの micro_mutable_ops_resolver.h
を説明します。これはマイクロコントローラ向け TensorFlow Lite を使って推論を実行する方法を実演する単体テストで、モデルを読み込み、推論を数回実行します。
1. ライブラリをインクルードする
この例では、モデルは正弦波関数を再現するようにトレーニングされています。1つの数を入力として、正弦波の数値を出力します。マイクロコントローラにデプロイされると、その予測は、LED を点滅させたりアニメーションを制御したりすることに使用されます。
#include "tensorflow/lite/micro/micro_mutable_op_resolver.h"
#include "tensorflow/lite/micro/micro_error_reporter.h"
#include "tensorflow/lite/micro/micro_interpreter.h"
#include "tensorflow/lite/schema/schema_generated.h"
#include "tensorflow/lite/version.h"
micro_mutable_op_resolver.h
は、モデルを実行するためにインタープリタが使用する演算を提供します。micro_error_reporter.h
はデバッグ情報を出力します。micro_interpreter.h
にはモデルをロードして実行するためのコードが含まれています。schema_generated.h
には、TensorFlow LiteFlatBuffer
デルファイル形式のスキーマが含まれています。version.h
は TensorFlow Lite スキーマのバージョン情報を提供します。
2. モデルヘッダーをインクルードする
マイクロコントローラ向け TensorFlow Lite インタープリタは、モデルがC++配列で提供されることを期待しています。Hellow World サンプルでは、モデルは sine_model_data.h
とsine_model_data.cc
で定義されています。ヘッダーは以下の行で含まれます。
#include "tensorflow/lite/micro/examples/hello_world/sine_model_data.h"
3. 単体テストフレームワークヘッダーをインクルードする
見ていくコードは単体テストで、それはマイクロコントローラ向け TensorFlow Lite フレームワークの単体テストフレームワークを使います。フレームワークを読み込むため、以下のファイルをインクルードします。
#include "tensorflow/lite/micro/testing/micro_test.h"
テストは以下のマクロを使って定義されます。
TF_LITE_MICRO_TESTS_BEGIN
TF_LITE_MICRO_TEST(LoadModelAndPerformInference) {
. // add code here
.
}
TF_LITE_MICRO_TESTS_END
コードの残り部分は、モデルの読み込みと推論を実演します。
4. ログ取得を準備する
ログ取得の準備をするために、tflite::MicroErrorReporter
インスタンスへのポインタを持つ、tflite::ErrorReporter
ポインタが作成されます。
tflite::MicroErrorReporter micro_error_reporter;
tflite::ErrorReporter* error_reporter = µ_error_reporter;
この変数はインタープリタに渡され、ログに書くことを許可します。マイクロコントローラはしばしばログ取得のさまざまな機構をもつので、tflite::MicroErrorReporter
の実装は、 デバイス固有にカスタマイズされるように設計されています。
5. モデルを読み込む
以下のコードでは、モデルはchar
配列、つまりsine_model_data.h
で宣言されたg_sine_model_data
からのデータを使って実体化されます。モデルを検査し、そのスキーマ・バージョンが我々が使用しているバージョンと互換性があることを確認します。
const tflite::Model* model = ::tflite::GetModel(g_model);
if (model->version() != TFLITE_SCHEMA_VERSION) {
TF_LITE_REPORT_ERROR(error_reporter,
"Model provided is schema version %d not equal "
"to supported version %d.\n",
model->version(), TFLITE_SCHEMA_VERSION);
}
6. 演算子リゾルバを実体化する
MicroMutableOpResolver
インスタンスが宣言されています。これは、モデルで使用されている演算を登録してそれにアクセスするためにインタープリタが使用します。
using HelloWorldOpResolver = tflite::MicroMutableOpResolver<1>;
TfLiteStatus RegisterOps(HelloWorldOpResolver& op_resolver) {
TF_LITE_ENSURE_STATUS(op_resolver.AddFullyConnected());
return kTfLiteOk;
MicroMutableOpResolver
には、登録される演算数を指定するテンプレートパラメーターが必要です。RegisterOps
関数はリゾルバを使用して演算を登録します。
HelloWorldOpResolver op_resolver;
TF_LITE_ENSURE_STATUS(RegisterOps(op_resolver));
7.メモリを割り当てる
適当な量のメモリを入力、出力、そして中間配列に事前に割り当てる必要があります。これは、tensor_arena_size
の大きさの uint8_t
配列として提供されます。
const int tensor_arena_size = 2 * 1024;
uint8_t tensor_arena[tensor_arena_size];
必要なサイズは使用しているモデルによって異なり、実験しながら決定する必要がある場合もあります。
8. インタプリタをインスタンス化する
tflite::MicroInterpreter
インスタンスを作成し、前に作成した変数を渡します。
tflite::MicroInterpreter interpreter(model, resolver, tensor_arena,
tensor_arena_size, error_reporter);
9. テンソルを割り当てる
インタープリタに対し、tensor_arena
からモデルのテンソルにメモリを割り当てるように指示します。
interpreter.AllocateTensors();
10. 入力の形状を検証する
MicroInterpreter
インスタンスは、.input(0)
を呼ぶことで、モデルの入力テンソルへのポインタを提供します。0
は最初の(そして唯一の)入力テンソルであることを表します。
// Obtain a pointer to the model's input tensor
TfLiteTensor* input = interpreter.input(0);
このテンソルを検証し、形状と型が期待したものであることを確認します。
// Make sure the input has the properties we expect
TF_LITE_MICRO_EXPECT_NE(nullptr, input);
// The property "dims" tells us the tensor's shape. It has one element for
// each dimension. Our input is a 2D tensor containing 1 element, so "dims"
// should have size 2.
TF_LITE_MICRO_EXPECT_EQ(2, input->dims->size);
// The value of each element gives the length of the corresponding tensor.
// We should expect two single element tensors (one is contained within the
// other).
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[0]);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[1]);
// The input is a 32 bit floating point value
TF_LITE_MICRO_EXPECT_EQ(kTfLiteFloat32, input->type);
enum値kTfLiteFloat32
は、TensorFlow Lite のデータ型のうちの一つへの参照であり、 common.h
で定義されています。
11. 入力値を提供する
モデルに入力を提供するには、入力テンソルの内容を次のように設定します。
input->data.f[0] = 0.;
この場合、0
を表す浮動小数点数を入力しています。
12. モデルを実行する
モデルを実行するために、tflite::MicroInterpreter
インスタンス上で Invoke()
を呼び出します。
TfLiteStatus invoke_status = interpreter.Invoke();
if (invoke_status != kTfLiteOk) {
TF_LITE_REPORT_ERROR(error_reporter, "Invoke failed\n");
}
戻り値 TfLiteStatus
を確認すると、実行が成功したかどうか判断することができます。TfLiteStatus
の可能値は、common.h
で定義されており、kTfLiteOk
と kTfLiteError
です。
次のコードは値が kTfLiteOk
であることをアサートしており、推論がうまく実行したことを示しています。
TF_LITE_MICRO_EXPECT_EQ(kTfLiteOk, invoke_status);
13. 出力を取得する
モデルの出力テンソルは、tflite::MicroIntepreter
上で output(0)
を呼ぶことで取得できます。0
は最初の(そして唯一の)出力テンソルであることを表します。
例のモデルの出力は、2D テンソルに格納された単一の浮動小数点の値です。
TfLiteTensor* output = interpreter.output(0);
TF_LITE_MICRO_EXPECT_EQ(2, output->dims->size);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[0]);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[1]);
TF_LITE_MICRO_EXPECT_EQ(kTfLiteFloat32, output->type);
値を出力テンソルから直接読み取って、期待されているものをアサートできます。
// Obtain the output value from the tensor
float value = output->data.f[0];
// Check that the output value is within 0.05 of the expected value
TF_LITE_MICRO_EXPECT_NEAR(0., value, 0.05);
14. 推論を再度実行する
コードの残りの部分は、推論をさらに何回も実行します。インスタンスごとに、入力テンソルに値を割り当て、インタープリタを呼び、そして出力テンソルから結果を読み取ります。
input->data.f[0] = 1.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(0.841, value, 0.05);
input->data.f[0] = 3.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(0.141, value, 0.05);
input->data.f[0] = 5.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(-0.959, value, 0.05);