カスタムモデル

ML Kit の事前構築済みモデルではニーズを満たせない場合、ML デベロッパーとしての経験が豊富であれば、ML Kit で TensorFlow Lite のカスタムモデルを使用できます。

TensorFlow Lite モデルは、Firebase でホストするか、アプリとともにパッケージ化します。その後、ML Kit SDK を使用して、利用できる最適なバージョンのカスタムモデルで推論を行います。Firebase でモデルをホストする場合、ML Kit がユーザーを最新バージョンで自動更新します。

iOS Android

主な機能

TensorFlow Lite モデル ホスティング Firebase を使用してモデルをホストします。アプリのバイナリサイズが減り、アプリが常に使用可能な最新バージョンのモデルを使用します。
端末上での ML 推論 ML Kit SDK を使用して TensorFlow Lite のカスタムモデルを実行することで、iOS アプリまたは Android アプリで推論を行います。このモデルは、アプリにバンドルするか、クラウドでホストするか、あるいはその両方が可能です。
自動モデル フォールバック 複数のモデルソースを指定します。クラウドにホストされているモデルを使用できない場合は、ローカルに保存されているモデルが使用されます。
自動モデル更新 アプリが新しいバージョンのモデルを自動的にダウンロードする条件(ユーザーの端末がアイドル状態のとき、充電中のとき、または Wi-Fi 接続があるとき)を構成します。

実装パス

TensorFlow モデルをトレーニングする TensorFlow を使用してカスタムモデルを構築し、トレーニングします。または、同様の問題を解決する既存のモデルを再トレーニングします。詳しくは、TensorFlow Lite のデベロッパー ガイドを参照してください。
モデルを TensorFlow Lite に変換する モデルを標準の TensorFlow 形式から TensorFlow Lite 形式に変換します。変換するには、グラフをフリーズし、TensorFlow 最適化コンバーター(TOCO)を使用します。詳しくは、TensorFlow Lite のデベロッパー ガイドを参照してください。
Firebase で TensorFlow Lite モデルをホストする オプション: Firebase を使用して TensorFlow Lite モデルをホストし、ML Kit SDK をアプリに組み込むと、ML Kit がユーザーのモデルを最新バージョンに保ちます。ユーザーのデバイスがアイドル状態、充電中、または Wi-Fi 接続がある場合にモデルの更新を自動的にダウンロードするよう ML Kit を構成できます。
推論に TensorFlow Lite モデルを使用する iOS アプリまたは Android アプリで ML Kit のカスタムモデル API を使用し、Firebase でホストされているモデルか、アプリにバンドルされているモデルで推論を行います。

Firebase 向け ML Kit では、すぐに使用可能な ML ソリューションをアプリ デベロッパー向けに提供していました。新しいアプリでは、オンデバイス ML にはスタンドアロン ML Kit ライブラリを、クラウドベースの ML には Firebase ML を使用する必要があります。

更新日時: Feb 28, 2025

Firebase 向け ML Kit では、すぐに使用可能な ML ソリューションをアプリ デベロッパー向けに提供していました。新しいアプリでは、オンデバイス ML にはスタンドアロン ML Kit ライブラリを、クラウドベースの ML には Firebase ML を使用する必要があります。

更新日時: Feb 28, 2025

Firebase ML では、すぐに使用できる API に加えてカスタムモデルのデプロイがサポートされており、強力な機械学習機能をアプリに追加できます。

更新日時: Feb 28, 2025