本页面提供了在 TensorFlow 2.x 中对 tf.lite.TFLiteConverter Python API 进行的更新的信息。
注:如果您对任何更改有疑问,请提交 GitHub 议题。
TensorFlow 2.3
- 对于使用新的
inference_input_type和inference_output_type特性的整数量化模型,支持整数(之前仅支持浮点数)输入/输出类型。请参阅此示例用法。 - 支持使用动态维度转换和调整模型大小。
- 添加了具有 16 位激活和 8 位权重的新实验性量化模式。
- 对于使用新的
TensorFlow 2.2
- 默认情况下,利用基于 MLIR 的转换(Google 最前沿的机器学习编译技术)。它可以转换新模型类,包括 Mask R-CNN、MobileBERT 等,同时也支持使用函数式控制流的模型。
TensorFlow 2.0 与 TensorFlow 1.x
- 将
target_ops特性重命名为target_spec.supported_ops - 移除了以下特性:
- 量化:
inference_type、quantized_input_stats、post_training_quantize、default_ranges_stats、reorder_across_fake_quant、change_concat_input_ranges、get_input_arrays()。现在,通过tf.kerasAPI 为量化感知训练提供支持,并且训练后量化使用更少的特性。 - 可视化:
output_format、dump_graphviz_dir、dump_graphviz_video。现在,可视化 TensorFlow Lite 模型的推荐方式是使用 visualize.py。 - 冻结计算图:
drop_control_dependency,因为 TensorFlow 2.x 不支持冻结计算图。
- 量化:
- 移除了其他转换器 API,如
tf.lite.toco_convert和tf.lite.TocoConverter - 移除了其他相关 API,如
tf.lite.OpHint和tf.lite.constants(为了减少重复,tf.lite.constants.*类型已映射到tf.*TensorFlow 数据类型)
- 将