カスタムモデルplat_iosplat_android

ML Kit の事前構築済みモデルではニーズを満たせない場合、ML デベロッパーとしての経験が豊富であれば、ML Kit で TensorFlow Lite のカスタムモデルを使用できます。

TensorFlow Lite モデルは、Firebase でホストするか、アプリとともにパッケージ化します。その後、ML Kit SDK を使用して、利用できる最適なバージョンのカスタムモデルで推論を行います。Firebase でモデルをホストする場合、ML Kit がユーザーを最新バージョンで自動更新します。

iOS Android

主な機能

TensorFlow Lite モデル ホスティング Firebase を使用してモデルをホストします。アプリのバイナリサイズが減り、アプリが常に使用可能な最新バージョンのモデルを使用します。
端末上での ML 推論 ML Kit SDK を使用して TensorFlow Lite のカスタムモデルを実行することで、iOS アプリまたは Android アプリで推論を行います。このモデルは、アプリにバンドルするか、クラウドでホストするか、あるいはその両方が可能です。
自動モデル フォールバック 複数のモデルソースを指定します。クラウドにホストされているモデルを使用できない場合は、ローカルに保存されているモデルが使用されます。
自動モデル更新 アプリが新しいバージョンのモデルを自動的にダウンロードする条件(ユーザーの端末がアイドル状態のとき、充電中のとき、または Wi-Fi 接続があるとき)を構成します。

実装パス

TensorFlow モデルをトレーニングする TensorFlow を使用してカスタムモデルを構築し、トレーニングします。または、同様の問題を解決する既存のモデルを再トレーニングします。詳しくは、TensorFlow Lite のデベロッパー ガイドを参照してください。
モデルを TensorFlow Lite に変換する モデルを標準の TensorFlow 形式から TensorFlow Lite 形式に変換します。変換するには、グラフをフリーズし、TensorFlow 最適化コンバーター(TOCO)を使用します。詳しくは、TensorFlow Lite のデベロッパー ガイドを参照してください。
Firebase で TensorFlow Lite モデルをホストする オプション: Firebase を使用して TensorFlow Lite モデルをホストし、ML Kit SDK をアプリに組み込むと、ML Kit がユーザーのモデルを最新バージョンに保ちます。ユーザーの端末がアイドル状態、充電中、または Wi-Fi 接続がある場合にモデルの更新を自動的にダウンロードするよう ML Kit を構成できます。
推論に TensorFlow Lite モデルを使用する iOS アプリまたは Android アプリで ML Kit のカスタムモデル API を使用し、Firebase でホストされているモデルか、アプリにバンドルされているモデルで推論を行います。

フィードバックを送信...

ご不明な点がありましたら、Google のサポートページをご覧ください。