在移动设备和 IoT 设备上部署机器学习模型
TensorFlow Lite 是一种用于设备端推断的开源深度学习框架。
我们的一些 TensorFlow Lite 用户
News & announcements
See updates to help you with your work, and subscribe to our monthly TensorFlow newsletter to get the latest announcements sent directly to your inbox.



2019 年 Google I/O 大会上的 TensorFlow Lite
在本视频中,您将了解如何使用 TensorFlow Lite 在任何设备中运用 AI 技术,并了解设备端机器学习的未来和我们的路线图。您还将发现一个预训练模型库,您可以在自己的应用中使用这些模型或根据需要自定义这些模型。

开发者预览版 — 基于 Mobile GPU 的 TensorFlow Lite 处理性能大幅提升
由于设备的处理和能力有限,在移动设备上基于以计算密集型为主的机器学习模型运行推理,对资源的要求很高。虽然转换为定点模型是加速的一种途径,但用户已经要求我们提供 GPU 支持,并作为加速原始浮点模型推理的一种选项,且不要产生额外的复杂性和潜在的量化精度损失。