Google は、黒人コミュニティのための人種的公平の促進に取り組んでいます。詳細をご覧ください。

カスタムモデル

カスタム使用する場合TensorFlowライトモデルを、Firebase MLはあなたのユーザーは、常にあなたのカスタムモデルの最高の可能なバージョンを使用していることを確認することができます。モデルをFirebaseでデプロイすると、Firebase MLは必要な場合にのみモデルをダウンロードし、ユーザーを最新バージョンに自動的に更新します。

iOSのアンドロイド

主な機能

TensorFlowLiteモデルのデプロイFirebaseを使用してモデルをデプロイし、アプリのバイナリサイズを縮小し、アプリが常にモデルの利用可能な最新バージョンを使用していることを確認します
デバイス上のML推論モデルでTensorFlowLiteインタープリターを使用して、iOSまたはAndroidアプリで推論を実行します。
モデルの自動更新アプリがモデルの新しいバージョンを自動的にダウンロードする条件を構成します:ユーザーのデバイスがアイドル状態、充電中、またはWi-Fi接続がある場合

実装パス

TensorFlowモデルをトレーニングするTensorFlowを使用してカスタムモデルを構築およびトレーニングします。または、達成したいものと同様の問題を解決する既存のモデルを再トレーニングします。
モデルをTensorFlowLiteに変換しますあなたのモデルは、使用してTensorFlowライトにHDF5または冷凍グラフ形式から変換TensorFlow Liteのコンバータを
TensorFlowLiteモデルをFirebaseにデプロイしますオプション:TensorFlow LiteモデルをFirebaseにデプロイし、アプリにFirebase ML SDKを含めると、FirebaseMLはユーザーにモデルの最新バージョンを最新の状態に保ちます。ユーザーのデバイスがアイドル状態または充電中の場合、またはWi-Fi接続がある場合に、モデルの更新を自動的にダウンロードするように構成できます。
推論にTensorFlowLiteモデルを使用するiOSまたはAndroidアプリでTensorFlowLiteインタープリターを使用して、Firebaseを使用してデプロイされたモデルで推論を実行します。

Codelabs

いくつか試してみてくださいcodelabsをハンズオンFirebaseは、あなたがより簡単かつ効果的TensorFlow Liteのモデルを使用して助けることができる方法を学ぶために。