Firebase Summit で発表されたすべての情報をご覧ください。Firebase を使用してアプリ開発を加速し、自信を持ってアプリを実行する方法を紹介しています。詳細
コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。

カスタムモデル

経験豊富なML開発者であり、ML Kitのビルド済みモデルがニーズを満たしていない場合は、 MLKitでカスタムTensorFlowLiteモデルを使用できます。

Firebaseを使用してTensorFlowLiteモデルをホストするか、アプリと一緒にパッケージ化します。次に、ML Kit SDKを使用して、利用可能な最良のバージョンのカスタムモデルを使用して推論を実行します。モデルをFirebaseでホストしている場合、MLKitはユーザーを最新バージョンに自動的に更新します。

iOS Android

主な機能

TensorFlowLiteモデルホスティングFirebaseを使用してモデルをホストし、アプリのバイナリサイズを減らし、アプリが常にモデルの利用可能な最新バージョンを使用していることを確認します
デバイス上のML推論ML Kit SDKを使用してカスタムTensorFlowLiteモデルを実行することにより、iOSまたはAndroidアプリで推論を実行します。モデルは、アプリにバンドルするか、クラウドでホストするか、またはその両方を行うことができます。
自動モデルフォールバック複数のモデルソースを指定します。クラウドでホストされているモデルが利用できない場合は、ローカルに保存されているモデルを使用します
モデルの自動更新アプリがモデルの新しいバージョンを自動的にダウンロードする条件を構成します:ユーザーのデバイスがアイドル状態、充電中、またはWi-Fi接続がある場合

実装パス

TensorFlowモデルをトレーニングするTensorFlowを使用してカスタムモデルを構築およびトレーニングします。または、達成したい問題と同様の問題を解決する既存のモデルを再トレーニングします。 TensorFlowLite開発者ガイドをご覧ください。
モデルをTensorFlowLiteに変換しますグラフをフリーズし、TensorFlow Optimizing Converter(TOCO)を使用して、モデルを標準のTensorFlow形式からTensorFlowLiteに変換します。 TensorFlowLite開発者ガイドをご覧ください。
TensorFlowLiteモデルをFirebaseでホストするオプション:Firebaseを使用してTensorFlow Liteモデルをホストし、アプリにML Kit SDKを含めると、MLKitはユーザーにモデルの最新バージョンを最新の状態に保ちます。ユーザーのデバイスがアイドル状態または充電中の場合、またはWi-Fi接続がある場合に、モデルの更新を自動的にダウンロードするようにMLキットを構成できます。
推論にTensorFlowLiteモデルを使用するiOSまたはAndroidアプリでMLKitのカスタムモデルAPIを使用して、Firebaseでホストされているモデルまたはアプリにバンドルされているモデルで推論を実行します。