Firebase Machine Learning
現実世界の問題を解決するために、アプリで機械学習を利用しましょう。
Firebase Machine Learning は、Google の機械学習の機能を Android アプリや Apple アプリとして提供するモバイル SDK です。その強力で使いやすいパッケージは、機械学習の経験の有無を問わず、わずか数行のコードで実装できます。ニューラル ネットワークやモデルの最適化に関する詳しい知識は必要ありません。経験豊富な ML のデベロッパーの方は、Firebase ML の便利な API を利用することで、モバイルアプリにおいてカスタム TensorFlow Lite モデルを簡単に採用できます。
主な機能
カスタムモデルをホストしてデプロイする |
デバイス上での推論には、独自の TensorFlow Lite モデルを使用します。モデルを Firebase にデプロイするだけで、Google によってモデルがホスティングされ、アプリにサービスが提供されるようになります。Firebase では最新バージョンのモデルがユーザーに動的に配信されるので、アプリの新しいバージョンをユーザーに push することなく、定期的に更新できます。 Remote Config で Firebase ML を使用すると、ユーザー セグメントごとに異なるモデルを配信できます。また、A/B Testing では、最適なモデルを見つけるためのテストを実行できます(Apple と Android のガイドをご覧ください)。 |
一般的なユースケースの本番環境に対応 |
Firebase ML には、一般的なモバイル ユースケース(テキストの認識、画像のラベル付け、ランドマークの識別)ですぐに使える API セットが備わっています。Firebase ML ライブラリにデータを渡すだけで、必要な情報が得られます。これらの API は、Google Cloud の機械学習テクノロジーを利用して、最高レベルの精度を実現します。 |
クラウドとデバイスの比較
Firebase ML には、クラウドまたはデバイス上で動作する API があります。ML API をクラウド用 API またはデバイス用 API として記述する場合、推論を実行するマシン、つまり、ML モデルを使用して、提供するデータに関する分析情報の取得を行うマシンを記述します。Firebase ML では、これは Google Cloud またはユーザーのモバイル デバイスで行われます。
テキスト認識、画像のラベル付け、ランドマークの認識の API では、クラウドで推論を行います。こうしたモデルには、同等のデバイスモデルよりも計算能力とメモリの使用量が多く、結果として、デバイス上のモデルよりも高い確度と精度で推論を行えます。一方、こうした API へのすべてのリクエストにはネットワーク ラウンド トリップが必要であり、動画処理などのリアルタイムで低レイテンシのアプリケーションには適していません。
カスタムモデル API は、デバイス上で実行する ML モデルを処理します。これらの機能で使用され、生成されるモデルは TensorFlow Lite モデルであり、モバイル デバイスで実行するように最適化されています。このモデルの大きな利点は、ネットワーク接続を必要とせず、動画のフレームをリアルタイムで処理できるほどに非常に高速で実行できることです。
Firebase ML では、カスタムモデルをサーバーにアップロードして、ユーザーのデバイスにデプロイできます。Firebase 対応アプリでは、オンデマンドでモデルがデバイスにダウンロードされます。これにより、アプリの初期インストール サイズを小さくして、アプリを再公開することなく ML モデルを入れ替えることが可能です。
ML Kit: すぐに使用できるデバイスモデル
デバイス上で実行する事前トレーニング済みモデルをお探しの場合は、ML Kit をご覧ください。ML Kit は iOS と Android で利用でき、さまざまなユースケースに対応した API が用意されています。
- テキスト認識
- 画像のラベル付け
- オブジェクトの検出とトラッキング
- 顔検出と輪郭トレース
- バーコード スキャン
- 言語識別
- 翻訳
- スマート リプライ