开始使用 TensorFlow Lite

TensorFlow Lite 提供了转换 TensorFlow 模型,并在移动端(mobile)、嵌入式(embeded)和物联网(IoT)设备上运行 TensorFlow 模型所需的所有工具。以下指南介绍了开发人员工作流程的每个步骤,并提供了进一步说明的链接。

1. 选择一个模型

TensorFlow Lite 允许您在多种设备上运行 TensorFlow 模型。TensorFlow 模型是一种数据结构,这种数据结构包含了在解决一个特定问题时,训练得到的机器学习网络的逻辑和知识。

有多种方式可以获得 TensorFlow 模型,从使用预训练模型(pre-trained models)到训练自己的模型。为了在 TensorFlow Lite 中使用模型,模型必须转换成一种特殊格式。这将在第二节转换模型中解释。

使用预训练模型

TensorFlow Lite 团队提供了一系列预训练模型(pre-trained models),用于解决各种机器学习问题。这些模型已经转换为能与 TensorFlow Lite 一起使用,且可以在您的应用程序中使用的模型。

这些预训练模型包括:

模型列表(Models)中查看预训练模型的完整列表。

来自其他来源的模型

您还可以在许多其他地方得到预训练的 TensorFlow 模型,包括 TensorFlow Hub。在大多数情况下,这些模型不会以 TensorFlow Lite 格式提供,您必须在使用前转换(convert)这些模型。

重新训练模型(迁移学习)

迁移学习(transfer learning)允许您采用训练好的模型并重新(re-train)训练,以执行其他任务。例如,一个图像分类模型可以重新训练以识别新的图像类别。与从头开始训练模型相比,重新训练花费的时间更少,所需的数据更少。

您可以使用迁移学习,根据您的应用程序定制预训练模型。在用 TensorFlow 识别花朵的 codelab 中,您可以学习如何进行迁移学习。

训练自定义模型

如果您设计并训练了您自己的 TensorFlow 模型,或者您训练了从其他来源得到的模型,在使用前,您需要将此模型转换成 TensorFlow Lite 的格式。

TensorFlow Lite 解释器(interpreter)是一个库(library),它接收一个模型文件(model file),执行模型文件在输入数据(input data)上定义的运算符(operations),并提供对输出(output)的访问。

2. 转换模型

TensorFlow Lite 的设计旨在在各种设备上高效执行模型。这种高效部分源于在存储模型时,采用了一种特殊的格式。TensorFlow 模型在能被 TensorFlow Lite 使用前,必须转换成这种格式。

转换模型减小了模型文件大小,并引入了不影响准确性(accuracy)的优化措施(optimizations)。开发人员可以在进行一些取舍的情况下,选择进一步减小模型文件大小,并提高执行速度。您可以使用 TensorFlow Lite 转换器(converter)选择要执行的优化措施。

因为 TensorFlow Lite 支持部分 TensorFlow 运算符(operations),所以并非所有模型都能转换。参看 Ops 兼容性获得更多信息。

TensorFlow Lite 转换器

TensorFlow Lite 转换器(converter)是一个将训练好的 TensorFlow 模型转换成 TensorFlow Lite 格式的工具。它还能引入优化措施(optimizations),这将在第四节优化您的模型中介绍。

转换器以 Python API 的形式提供。下面的例子说明了将一个 TensorFlow SavedModel 转换成 TensorFlow Lite 格式的过程:

import tensorflow as tf

converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir)
tflite_model = converter.convert()
open("converted_model.tflite", "wb").write(tflite_model)

您可以用类似的方法转换 TensorFlow 2.0 模型

虽然也能从命令行使用转换器,但是推荐用 Python API 进行转换。

选项

转换器可以从各种输入类型转换模型。

当转换 TensorFlow 1.x 模型时,这些输入类型有:

当转换 TensorFlow 2.x 模型时,这些输入类型有:

转换器可以配置为应用各种优化措施(optimizations),这些优化措施可以提高性能,减少文件大小。这将在第四节优化您的模型中介绍。

Ops 兼容性

TensorFlow Lite 当前支持一部分(limited subset) TensorFlow 运算符(operations)。长期目标是将来能支持全部的 TensorFlow 运算符。

如果您期望转换的模型中含有不受支持的运算符,您可以使用 TensorFlow Select 包含来自 TensorFlow 的运算符。这会使得部署到设备上的二进制文件更大。

3. 使用模型进行推理

推理(Inference) 是通过模型(model)运行数据(data)以获得预测(predictions)的过程。这个过程需要模型(model)、解释器(interpreter)和输入数据(input data)。

TensorFlow Lite 解释器

TensorFlow Lite 解释器是一个库,该库会接收模型文件,执行它对输入数据定义的运算,并提供对输出的访问。

该解释器(interpreter)适用于多个平台,提供了一个简单的 API,用于从 Java、Swift、Objective-C、C++ 和 Python 运行 TensorFlow Lite 模型。

以下代码展示了从 Java 调用的解释器:

try (Interpreter interpreter = new Interpreter(tensorflow_lite_model_file)) {
  interpreter.run(input, output);
}

GPU 加速和委托

有些设备为机器学习运算提供了硬件加速。例如,大多数手机都有 GPU,它们能够比 CPU 更快地执行浮点矩阵运算。

这种速度提升可能会非常可观。例如,当使用 GPU 加速时,MobileNet v1 图像分类模型在 Pixel 3 手机上的运行速度能够提高 5.5 倍。

TensorFlow Lite 解释器可以配置委托,以利用不同设备上的硬件加速。GPU 委托允许解释器在设备的 GPU 上运行适当的运算。

以下代码显示从 Java 使用的 GPU 委托:

GpuDelegate delegate = new GpuDelegate();
Interpreter.Options options = (new Interpreter.Options()).addDelegate(delegate);
Interpreter interpreter = new Interpreter(tensorflow_lite_model_file, options);
try {
  interpreter.run(input, output);
}

要添加对新硬件加速器的支持,您可以定义自己的委托

Android 和 iOS

TensorFlow Lite 解释器在两个主要的移动端平台上都很易于使用。要开始使用,请查看 Android 快速入门iOS 快速入门指南。这两个平台都提供了示例应用

要获得所需的库(libraries),Android 开发人员应该使用 TensorFlow Lite AAR。iOS 开发人员应该使用 CocoaPods for Swift or Objective-C

Linux

嵌入式 Linux 是部署机器学习的重要平台。要开始使用 Python 对您的 TensorFlow Lite 模型进行推断,请按照 Python 快速入门进行操作。

如需安装 C++ 库,请参阅 Raspberry Pi基于 Arm64 的开发板(Odroid C2、Pine64 和 NanoPi 等开发板)的构建说明。

微控制器

用于微控制器的 TensorFlow Lite 是 TensorFlow Lite 的实验性端口,主要针对只有千字节内存的微控制器和其他设备。

运算符

如果您的模型需要尚未在 TensorFlow Lite 中实现的 TensorFlow 运算,则可以使用 TensorFlow 选择在模型中使用它们。您需要构建一个包括该 TensorFlow 运算的自定义版本的解释器。

您可以用自定义运算符(Custom operators)编写您自己的运算符(operations),或将新运算符移植(port)到 TensorFlow Lite 中。

运算符版本(Operator versions)让您能为已有的运算符添加新的功能和参数。

4. 优化您的模型

TensorFlow Lite 提供了优化模型大小(size)和性能(performance)的工具,通常对准确性(accuracy)影响甚微。优化模型可能需要稍微复杂的训练(training),转换(conversion)或集成(integration)。

机器学习优化是一个不断发展的领域,TensorFlow Lite 的模型优化工具包(Model Optimization Toolkit)随着新技术的发展而不断发展。

性能

模型优化的目标是在给定设备上达到性能、模型大小和准确率的理想平衡。性能最佳做法可以帮助指导您完成此过程。

量化

通过降低模型中数值(values)和运算符(operations)的精度(precision),量化(quantization)可以减小模型的大小和推理所需的时间。对很多模型,只有极小的准确性(accuracy)损失。

TensorFlow Lite 转换器让量化 TensorFlow 模型变得简单。下面的 Python 代码量化了一个 SavedModel 并将其保存在硬盘中:

import tensorflow as tf

converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir)
converter.optimizations = [tf.lite.Optimize.DEFAULT]
tflite_quant_model = converter.convert()
open("converted_model.tflite", "wb").write(tflite_quantized_model)

TensorFlow Lite 支持将值的精度从全浮点降低到半精度浮点 (float16) 或 8 位整数。每种选择都要在模型大小和准确度上进行权衡取舍,而且有些运算有针对这些降低了精度的类型的优化实现。

要了解有关量化的更多信息,请参阅训练后量化(Post-training quantization)

模型优化工具包

模型优化工具包(Model Optimization Toolkit)是一套工具和技术,旨在使开发人员可以轻松优化它们的模型。虽然其中的许多技术可以应用于所有 TensorFlow 模型,并非特定于 TensorFlow Lite,但在资源有限的设备上进行推理(inference)时,它们特别有价值。

下一步

既然您已经熟悉了 TensorFlow Lite,请探索以下一些资源: