客製化型號

如果您是經驗豐富的 ML 開發人員,且 ML Kit 的預先建置模型無法滿足您的需求,您可以將自訂TensorFlow Lite模型與 ML Kit 結合使用。

使用 Firebase 託管 TensorFlow Lite 模型或將其打包到您的應用程式中。然後,使用 ML Kit SDK 使用自訂模型的最佳可用版本執行推理。如果您使用 Firebase 託管模型,ML Kit 會自動為您的使用者更新最新版本。

安卓系統

關鍵能力

TensorFlow Lite 模型託管使用 Firebase 託管您的模型,以減少應用程式的二進位大小並確保您的應用程式始終使用模型的最新可用版本
設備上的機器學習推理使用 ML Kit SDK 運行自訂 TensorFlow Lite 模型,在 iOS 或 Android 應用程式中執行推理。該模型可以與應用程式捆綁在一起,託管在雲端中,或兩者兼而有之。
自動模型回退指定多個模型來源;當雲端託管模型不可用時,使用本地儲存的模型
自動模型更新設定您的應用程式自動下載模型新版本的條件:當使用者的裝置空閒、正在充電或具有 Wi-Fi 連線時

實施路徑

訓練您的 TensorFlow 模型使用 TensorFlow 建置和訓練自訂模型。或者,重新訓練現有模型來解決與您想要實現的目標類似的問題。請參閱 TensorFlow Lite開發人員指南
將模型轉換為 TensorFlow Lite透過凍結圖形,然後使用 TensorFlow 最佳化轉換器 (TOCO),將模型從標準 TensorFlow 格式轉換為 TensorFlow Lite。請參閱 TensorFlow Lite開發人員指南
使用 Firebase 託管您的 TensorFlow Lite 模型可選:當您使用 Firebase 託管 TensorFlow Lite 模型並將 ML Kit SDK 新增至您的應用程式時,ML Kit 可讓您的使用者隨時了解最新版本的模型。您可以將 ML Kit 設定為在使用者裝置空閒或充電或具有 Wi-Fi 連線時自動下載模型更新。
使用 TensorFlow Lite 模型進行推理在您的 iOS 或 Android 應用程式中使用 ML Kit 的自訂模型 API,透過 Firebase 託管或應用程式捆綁的模型執行推理。