カスタムモデル

カスタム TensorFlow Lite モデルを使用する場合、Firebase ML はユーザーが常に最適なバージョンのカスタムモデルを使用できるようにします。Firebase でモデルをデプロイすると、Firebase ML は必要なときにのみモデルをダウンロードし、自動的に最新バージョンに更新します。


Google Cloud のプラットフォームを選択します。

iOS+ Android


主な機能

TensorFlow Lite モデルのデプロイ Firebase を使用してモデルをデプロイします。アプリのバイナリサイズが減り、アプリが常に使用可能な最新バージョンのモデルを使用します。
デバイス上での ML 推論 TensorFlow Lite インタープリタをモデルで使用して、Apple アプリまたは Android アプリで推論を行います。
自動モデル更新 アプリが新しいバージョンのモデルを自動的にダウンロードする条件(ユーザーの端末がアイドル状態のとき、充電中のとき、または Wi-Fi 接続があるとき)を構成します。

実装パス

TensorFlow モデルをトレーニングする TensorFlow を使用してカスタムモデルを構築し、トレーニングします。または、同様の問題を解決する既存のモデルを再トレーニングします。
モデルを TensorFlow Lite に変換する TensorFlow Lite コンバータを使用して、モデルを HDF5 またはフリーズしたグラフ形式から TensorFlow Lite に変換します。
TensorFlow Lite モデルを Firebase にデプロイする 省略可: TensorFlow Lite モデルを Firebase にデプロイし、Firebase ML SDK をアプリに組み込むと、Firebase ML がユーザーのモデルを最新バージョンに保ちます。ユーザーのデバイスがアイドル状態、充電中、または Wi-Fi 接続がある場合にモデルの更新を自動的にダウンロードするように ML Kit を構成できます。
推論に TensorFlow Lite モデルを使用する Apple アプリまたは Android アプリで TensorFlow Lite インタープリタを使用して、Firebase でデプロイされたモデルで推論を行います。

Codelabs

いくつかの codelabs をお試しいただくと、TensorFlow Lite モデルをより簡単かつ効果的に使用するのに Firebase がどう役立つかを実践的に学ぶことできます。

Firebase 向け ML Kit では、すぐに使用可能な ML ソリューションをアプリ デベロッパー向けに提供していました。新しいアプリでは、オンデバイス ML にはスタンドアロン ML Kit ライブラリを、クラウドベースの ML には Firebase ML を使用する必要があります。

更新日時: Feb 28, 2025