Gemini API を使用すると、さまざまな場所で自由形式の会話を構築できます。
あります。Vertex AI in Firebase SDK は、Google Cloud SDK の
保持します。つまり、generateContentStream()
や
generateContent()
様、会話履歴をご自身で保存する必要はありません。
始める前に
まだ実施していない場合は、 Vertex AI in Firebase SDK のスタートガイド 以下のことをすべて完了していることを確認してください。
新規または既存の Firebase プロジェクトを設定します。これには、 Blaze の料金プランと必要な API の有効化。
アプリの登録や Firebase 構成をアプリに追加します。
SDK を追加して Vertex AI サービスと生成モデルを初期化する 説明します
アプリを Firebase に接続して SDK を追加し、 Vertex AI サービスと生成モデル Gemini API を呼び出す準備が整いました。
チャット プロンプト リクエストを送信する
マルチターンの会話(チャットなど)を構築するには、まず
startChat()
を呼び出してチャットします。次に、
sendMessageStream()
(または sendMessage()
): 新しいユーザー メッセージを送信します。
また、メッセージと返信がチャット履歴に追加されます。
コンテンツに関連付けられた role
には、次の 2 つのオプションがあります。
あります。
user
: プロンプトを提供するロール。この値は Kubernetes のsendMessageStream()
(またはsendMessage()
)を呼び出し、関数は 別のロールが渡された場合は例外です。model
: レスポンスを提供するロール。このロールは、 既存のhistory
でstartChat()
を呼び出す。
レスポンスをストリーミングするか(sendMessageStream
)、待つかを選択します
(sendMessage
)。
ストリーミング
やり取りを迅速化するために、 代わりにストリーミングを使用して部分的な結果を処理します
ストリーミングなし
ストリーミングではなく、結果全体を待つこともできます。 モデルが生成全体を完了した後にのみ結果が返される プロセスです
Gemini モデルの選択方法を学習する 必要に応じてロケーション 適切なストレージクラスを選択できます
Google アシスタントの機能
- トークンをカウントする方法を学習する モデルに長いプロンプトを送信します
- Cloud Storage for Firebase を設定する 使用してマルチモーダル リクエストにサイズの大きなファイルを含められます。 Cloud Storage 件の URL。ファイルには画像、PDF、動画、音声を含めることができます。
- 本番環境に向けた準備として、 Firebase App Check の設定 権限のないクライアントによる不正使用から Gemini API を保護します。
Gemini API のその他の機能を試す
- テキストの生成元 テキストのみのプロンプト:
- テキストの生成元 マルチモーダル プロンプト (テキスト、画像、PDF、動画、音声を含む)。
- 関数呼び出しを使用して接続する 生成モデルを外部のシステムや情報にエクスポートできます。
コンテンツの生成を制御する方法
- 以下を含むプロンプト設計について理解する ベスト プラクティス、戦略、プロンプトの例。
- 次のようなモデル パラメータを構成する temperature と max output トークンです。
- 安全性設定を使用して、 害を及ぼすおそれのある回答が返される可能性が高まります。
Gemini モデルの詳細
詳しくは、 さまざまなユースケースで利用可能な および 割り当てと料金をご確認ください。フィードバックを送信 Vertex AI in Firebase の感想をお聞かせください。