カスタムモデル
カスタム TensorFlow Lite モデルを使用する場合、Firebase ML はユーザーが常に最適なバージョンのカスタムモデルを使用できるようにします。Firebase でモデルをデプロイすると、Firebase ML は必要なときにのみモデルをダウンロードし、自動的に最新バージョンに更新します。
主な機能
TensorFlow Lite モデルのデプロイ | Firebase を使用してモデルをデプロイします。アプリのバイナリサイズが減り、アプリが常に使用可能な最新バージョンのモデルを使用します。 |
デバイス上での ML 推論 | TensorFlow Lite インタープリタをモデルで使用して、Apple アプリまたは Android アプリで推論を行います。 |
自動モデル更新 | アプリが新しいバージョンのモデルを自動的にダウンロードする条件(ユーザーの端末がアイドル状態のとき、充電中のとき、または Wi-Fi 接続があるとき)を構成します。 |
実装パス
TensorFlow モデルをトレーニングする | TensorFlow を使用してカスタムモデルを構築し、トレーニングします。または、同様の問題を解決する既存のモデルを再トレーニングします。 | |
モデルを TensorFlow Lite に変換する | TensorFlow Lite コンバータを使用して、モデルを HDF5 またはフリーズしたグラフ形式から TensorFlow Lite に変換します。 | |
TensorFlow Lite モデルを Firebase にデプロイする | 省略可: TensorFlow Lite モデルを Firebase にデプロイし、Firebase ML SDK をアプリに組み込むと、ML Kit がユーザーのモデルを最新バージョンに保ちます。ユーザーのデバイスがアイドル状態、充電中、または Wi-Fi 接続がある場合にモデルの更新を自動的にダウンロードするように ML Kit を構成できます。 | |
推論に TensorFlow Lite モデルを使用する | Apple アプリまたは Android アプリで TensorFlow Lite インタープリタを使用して、Firebase でデプロイされたモデルで推論を行います。 |
Codelabs
いくつかの Codelab をお試しいただくと、TensorFlow Lite モデルをより簡単かつ効果的に使用するのに Firebase がどう役立つかを実践的に学ぶことできます。