Firebase AI Logic を使用する Gemini API
Firebase AI Logic を使用して Gemini モデルで AI を活用したモバイルアプリ、ウェブアプリ、機能を構築する
Firebase AI Logic を使用すると、Google の最新の生成 AI モデルである Gemini モデルにアクセスできます。
サーバーサイドではなく、モバイルアプリやウェブアプリから Gemini API を直接呼び出す必要がある場合は、Firebase AI Logic クライアント SDK を使用できます。これらのクライアント SDK は、モバイルアプリとウェブアプリでの使用を想定して構築されており、不正なクライアントに対するセキュリティ オプションや、他の Firebase サービスとの統合を提供します。
これらのクライアント SDK は、Apple プラットフォーム用の Swift、Android 用の Kotlin と Java、ウェブ用の JavaScript、Flutter 用の Dart、Unity で利用できます。
これらのクライアント SDK を使用すると、アプリに AI パーソナライズ機能を追加したり、AI チャット エクスペリエンスを構築したり、AI による最適化と自動化を作成したりできます。
主な機能
| マルチモーダル入力と自然言語入力 |
Gemini モデルはマルチモーダルであるため、Gemini API に送信されるプロンプトには、テキスト、画像、PDF、動画、音声を含めることができます。一部の Gemini モデルは、マルチモーダル出力を生成することもできます。 Gemini モデルは、自然言語入力でプロンプトできます。 |
| 機能の拡充 |
SDK を使用すると、モバイルアプリやウェブアプリから Gemini API を直接呼び出して、AI チャット エクスペリエンスを構築したり、画像を生成したり、ツール(関数呼び出しや |
| 本番環境アプリのセキュリティと不正使用の防止 |
Firebase App Check を使用して、承認されていないクライアントによる不正使用から Gemini モデルにアクセスする API を保護します。 Firebase AI Logic には、デフォルトでユーザーごとのレート制限もあります。これらのユーザーごとのレート制限は完全に構成可能です。 |
| 堅牢なインフラストラクチャ | Cloud Storage for Firebase でのファイルの管理、Firebase データベース サービス(Cloud Firestore など)での構造化データの管理、Firebase Remote Config での実行時構成の動的な設定など、モバイルアプリやウェブアプリでの使用を想定して構築されたスケーラブルなインフラストラクチャを活用します。 |
仕組み
Firebase AI Logic は、クライアント SDK、プロキシ サービス、その他の機能を提供します。これにより、Google の生成 AI モデルにアクセスして、モバイルアプリやウェブアプリで AI 機能を構築できます。
Google モデルと「Gemini API」プロバイダのサポート
Google は最新の Gemini モデルをすべてサポートしています。これらのモデルにアクセスするには、お好みの「Gemini API」プロバイダを選択します。Gemini Developer API と Vertex AI Gemini API の両方をサポートしています。2 つの API プロバイダの使用の違いについて学習する。
Gemini Developer API を使用する場合は、その「無料枠」を利用して、迅速に運用を開始できます。
モバイル クライアント SDK とウェブ クライアント SDK
Firebase AI Logic クライアント SDK(Apple プラットフォーム用の Swift、Android 用の Kotlin と Java、ウェブ用の JavaScript、Flutter 用の Dart、Unity で利用可能)を使用して、モバイルアプリまたはウェブアプリからモデルに直接リクエストを送信します。
Firebase プロジェクトで両方の Gemini API プロバイダを設定している場合は、もう一方の API を有効にして初期化コードを数行変更するだけで、API プロバイダを切り替えることができます。
また、いくつかのクライアント SDK では、ハイブリッド推論とオンデバイス推論にアクセスできます。この構成により、アプリはオンデバイス モデルが使用可能な場合はそれを使用し、必要に応じてクラウドホスト型モデルにシームレスにフォールバックできます(逆も同様)。
プロキシ サービス
プロキシ サービスは、クライアントと選択した Gemini API プロバイダ(および Google のモデル)間のゲートウェイとして機能します。モバイルアプリやウェブアプリにとって重要なサービスと統合を提供します。たとえば、Firebase App Check を設定すると、選択した API プロバイダとバックエンド リソースを、承認されていないクライアントによる不正使用から保護できます。
Gemini Developer API を使用する場合は、特に重要です。これは、プロキシ サービスとこの App Check 統合により、Gemini API キーがサーバーに残り、アプリのコードベースに埋め込まれないようにするためです。
実装パス
| Firebase プロジェクトを設定し、アプリを Firebase に接続する | Firebase コンソールの Firebase AI Logic ページのガイド付きワークフローを使用して、プロジェクトを設定し(選択した Gemini API プロバイダに必要な API を有効にするなど)、Firebase プロジェクトにアプリを登録してから、Firebase 構成をアプリに追加します。 | |
| SDK をインストールして初期化する | アプリのプラットフォームに固有の Firebase AI Logic SDK をインストールし、アプリでサービスを初期化してモデル インスタンスを作成します。 | |
| Gemini モデルにプロンプト リクエストを送信する | SDK を使用して、テキストのみのプロンプトまたはマルチモーダル プロンプトを Gemini モデルに送信し、テキストとコード、構造化された出力(JSON など)、画像を生成します。 マルチターン チャット、双方向ストリーミング(音声を含む)、関数呼び出しを使用して、より豊かなエクスペリエンスを構築します。 |
|
| 本番環境の準備 | Firebase App Check を使用して API を不正使用から保護する、Firebase Remote Config を使用してコード内のパラメータ(特にモデル名)をリモートで更新するなど、モバイルアプリとウェブアプリの重要な統合を実装します。 |
次のステップ
モバイルアプリまたはウェブアプリからモデルにアクセスする