获取我们在 Firebase 峰会上发布的所有信息,了解 Firebase 可如何帮助您加快应用开发速度并满怀信心地运行应用。了解详情
使用集合让一切井井有条 根据您的偏好保存内容并对其进行分类。

定制模型

如果您是一位经验丰富的 ML 开发人员并且 ML Kit 的预构建模型不能满足您的需求,您可以将自定义TensorFlow Lite模型与 ML Kit 结合使用。

使用 Firebase 托管您的 TensorFlow Lite 模型或将它们打包到您的应用中。然后,使用 ML Kit SDK 使用自定义模型的最佳可用版本执行推理。如果您使用 Firebase 托管模型,ML Kit 会自动使用最新版本更新您的用户。

iOS安卓

关键能力

TensorFlow Lite 模型托管使用 Firebase 托管您的模型以减少应用的二进制大小并确保您的应用始终使用模型的最新可用版本
设备端机器学习推理使用 ML Kit SDK 在 iOS 或 Android 应用程序中执行推理,以运行您的自定义 TensorFlow Lite 模型。该模型可以与应用程序捆绑、托管在云中,或两者兼而有之。
自动模型回退指定多个模型源;当云托管模型不可用时,使用本地存储的模型
自动模型更新配置应用自动下载模型新版本的条件:当用户的设备空闲、正在充电或有 Wi-Fi 连接时

实施路径

训练您的 TensorFlow 模型使用 TensorFlow 构建和训练自定义模型。或者,重新训练现有模型以解决与您想要实现的目标类似的问题。请参阅 TensorFlow Lite开发人员指南
将模型转换为 TensorFlow Lite通过冻结图形,然后使用 TensorFlow Optimizing Converter (TOCO),将您的模型从标准 TensorFlow 格式转换为 TensorFlow Lite。请参阅 TensorFlow Lite开发人员指南
使用 Firebase 托管您的 TensorFlow Lite 模型可选:当您使用 Firebase 托管 TensorFlow Lite 模型并在您的应用中包含 ML Kit SDK 时,ML Kit 会让您的用户了解最新版本的模型。您可以将 ML Kit 配置为在用户设备空闲或充电或有 Wi-Fi 连接时自动下载模型更新。
使用 TensorFlow Lite 模型进行推理在您的 iOS 或 Android 应用中使用 ML Kit 的自定义模型 API 来对您的 Firebase 托管或应用捆绑模型执行推理。