Gemini Live API を使用すると、音声と動画によるやり取りを低レイテンシかつリアルタイムで Gemini モデルと 双方向で行うことができます。
Live API とその特別なモデル ファミリーは、音声、動画、テキストの連続ストリーム を処理して、人間のような音声による応答を即座に提供し、 ユーザーに自然な会話エクスペリエンスを提供します。
このページでは、最も一般的な機能である 音声入力と音声出力のストリーミングを開始する方法について説明しますが、Live APIはさまざまな 機能と 構成オプションをサポートしています。
Gemini Live API_テキスト レスポンスの基本的なストリーミング_ (
generateContentStream または sendMessageStream を使用)が必要な場合は、
テキスト レスポンスをストリーミングする方法の概要をご覧ください。
Live API は、WebSocket 接続を作成して セッションを確立するステートフル API です。クライアントと Gemini サーバー間の 詳細については、Live API リファレンス ドキュメント (Gemini Developer API | Vertex AI Gemini API)をご覧ください。
役立つリソースを確認する
Swift - クイックスタート アプリ | Android - クイックスタート アプリ | ウェブ - クイックスタート アプリ | Flutter - クイックスタート アプリ | Unity - 近日公開予定
実際にデプロイされたアプリで Gemini Live API を試す - Flutter AI Playground アプリ は Firebase コンソールからアクセスできます。
始める前に
まだ行っていない場合は、
スタートガイドに沿って、記載されている手順(Firebase プロジェクトの設定、アプリと Firebase の連携、SDK の追加、選択した Gemini API プロバイダのバックエンド サービスの初期化、LiveModel インスタンスの作成)を完了します。
プロンプトと Live API を使用して、 Google AI Studio または Vertex AI Studio でプロトタイプを作成できます。
この機能をサポートするモデル
Gemini 2.5 Flash Live モデルは、ネイティブ音声モデルで、 Gemini Live API をサポートしています。モデル名は Gemini API プロバイダによって異なりますが、モデルの動作と機能は同じです。
Gemini Developer API
gemini-2.5-flash-native-audio-preview-12-2025gemini-2.5-flash-native-audio-preview-09-2025
これらはプレビュー モデルですが、 の Gemini Developer APIの無料枠で利用できます。
Vertex AI Gemini API
gemini-live-2.5-flash-native-audio(2025 年 12 月リリース)gemini-live-2.5-flash-preview-native-audio-09-2025
Vertex AI Gemini API を使用する場合、Live API モデルは サポートされていません
globalロケーションでは。
音声の入出力をストリーミングする
|
Gemini API プロバイダをクリックして、このページでプロバイダ固有のコンテンツとコードを表示します。 |
次の例は、ストリーミングされた音声入力 を送信し、ストリーミングされた音声出力 を受信する基本的な実装 を示しています。
Live API の追加のオプションと機能については、このページの後半の "Google アシスタントの機能" セクションをご覧ください。
Swift
Live API を使用するには、
LiveModel
インスタンスを作成し、
レスポンス モダリティ
を audio に設定します。
import FirebaseAILogic
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
let liveModel = FirebaseAI.firebaseAI(backend: .googleAI()).liveModel(
modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
generationConfig: LiveGenerationConfig(
responseModalities: [.audio]
)
)
do {
let session = try await liveModel.connect()
// Load the audio file, or tap a microphone
guard let audioFile = NSDataAsset(name: "audio.pcm") else {
fatalError("Failed to load audio file")
}
// Provide the audio data
await session.sendAudioRealtime(audioFile.data)
var outputText = ""
for try await message in session.responses {
if case let .content(content) = message.payload {
content.modelTurn?.parts.forEach { part in
if let part = part as? InlineDataPart, part.mimeType.starts(with: "audio/pcm") {
// Handle 16bit pcm audio data at 24khz
playAudio(part.data)
}
}
// Optional: if you don't require to send more requests.
if content.isTurnComplete {
await session.close()
}
}
}
} catch {
fatalError(error.localizedDescription)
}
Kotlin
Live API を使用するには、
LiveModel
インスタンスを作成し、
レスポンス モダリティ
を AUDIO に設定します。
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
val liveModel = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel(
modelName = "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
generationConfig = liveGenerationConfig {
responseModality = ResponseModality.AUDIO
}
)
val session = liveModel.connect()
// This is the recommended approach.
// However, you can create your own recorder and handle the stream.
session.startAudioConversation()
Java
Live API を使用するには、
LiveModel
インスタンスを作成し、
レスポンス モダリティ
を AUDIO に設定します。
ExecutorService executor = Executors.newFixedThreadPool(1);
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
LiveGenerativeModel lm = FirebaseAI.getInstance(GenerativeBackend.googleAI()).liveModel(
"gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
new LiveGenerationConfig.Builder()
.setResponseModality(ResponseModality.AUDIO)
.build()
);
LiveModelFutures liveModel = LiveModelFutures.from(lm);
ListenableFuture<LiveSession> sessionFuture = liveModel.connect();
Futures.addCallback(sessionFuture, new FutureCallback<LiveSession>() {
@Override
public void onSuccess(LiveSession ses) {
LiveSessionFutures session = LiveSessionFutures.from(ses);
session.startAudioConversation();
}
@Override
public void onFailure(Throwable t) {
// Handle exceptions
}
}, executor);
Web
Live API を使用するには、
LiveGenerativeModel
インスタンスを作成し、
レスポンス モダリティ
を AUDIO に設定します。
import { initializeApp } from "firebase/app";
import { getAI, getLiveGenerativeModel, GoogleAIBackend, ResponseModality } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `LiveGenerativeModel` instance with a model that supports the Live API
const liveModel = getLiveGenerativeModel(ai, {
model: "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
generationConfig: {
responseModalities: [ResponseModality.AUDIO],
},
});
const session = await liveModel.connect();
// Start the audio conversation
const audioConversationController = await startAudioConversation(session);
// ... Later, to stop the audio conversation
// await audioConversationController.stop()
Dart
Live API を使用するには、
LiveGenerativeModel
インスタンスを作成し、
レスポンス モダリティ
を audio に設定します。
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
import 'package:your_audio_recorder_package/your_audio_recorder_package.dart';
late LiveModelSession _session;
final _audioRecorder = YourAudioRecorder();
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `liveGenerativeModel` instance with a model that supports the Live API
final liveModel = FirebaseAI.googleAI().liveGenerativeModel(
model: 'gemini-2.5-flash-native-audio-preview-12-2025',
// Configure the model to respond with audio
liveGenerationConfig: LiveGenerationConfig(
responseModalities: [ResponseModalities.audio],
),
);
_session = await liveModel.connect();
final audioRecordStream = _audioRecorder.startRecordingStream();
// Map the Uint8List stream to InlineDataPart stream
final mediaChunkStream = audioRecordStream.map((data) {
return InlineDataPart('audio/pcm', data);
});
await _session.startMediaStream(mediaChunkStream);
// In a separate thread, receive the audio response from the model
await for (final message in _session.receive()) {
// Process the received message
}
Unity
Live API を使用するには、
LiveModel
インスタンスを作成し、
レスポンス モダリティ
を Audio に設定します。
using Firebase;
using Firebase.AI;
async Task SendTextReceiveAudio() {
// Initialize the Gemini Developer API backend service
// Create a `LiveModel` instance with a model that supports the Live API
var liveModel = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetLiveModel(
modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
liveGenerationConfig: new LiveGenerationConfig(
responseModalities: new[] { ResponseModality.Audio })
);
LiveSession session = await liveModel.ConnectAsync();
// Start a coroutine to send audio from the Microphone
var recordingCoroutine = StartCoroutine(SendAudio(session));
// Start receiving the response
await ReceiveAudio(session);
}
IEnumerator SendAudio(LiveSession liveSession) {
string microphoneDeviceName = null;
int recordingFrequency = 16000;
int recordingBufferSeconds = 2;
var recordingClip = Microphone.Start(microphoneDeviceName, true,
recordingBufferSeconds, recordingFrequency);
int lastSamplePosition = 0;
while (true) {
if (!Microphone.IsRecording(microphoneDeviceName)) {
yield break;
}
int currentSamplePosition = Microphone.GetPosition(microphoneDeviceName);
if (currentSamplePosition != lastSamplePosition) {
// The Microphone uses a circular buffer, so we need to check if the
// current position wrapped around to the beginning, and handle it
// accordingly.
int sampleCount;
if (currentSamplePosition > lastSamplePosition) {
sampleCount = currentSamplePosition - lastSamplePosition;
} else {
sampleCount = recordingClip.samples - lastSamplePosition + currentSamplePosition;
}
if (sampleCount > 0) {
// Get the audio chunk
float[] samples = new float[sampleCount];
recordingClip.GetData(samples, lastSamplePosition);
// Send the data, discarding the resulting Task to avoid the warning
_ = liveSession.SendAudioAsync(samples);
lastSamplePosition = currentSamplePosition;
}
}
// Wait for a short delay before reading the next sample from the Microphone
const float MicrophoneReadDelay = 0.5f;
yield return new WaitForSeconds(MicrophoneReadDelay);
}
}
Queue audioBuffer = new();
async Task ReceiveAudio(LiveSession liveSession) {
int sampleRate = 24000;
int channelCount = 1;
// Create a looping AudioClip to fill with the received audio data
int bufferSamples = (int)(sampleRate * channelCount);
AudioClip clip = AudioClip.Create("StreamingPCM", bufferSamples, channelCount,
sampleRate, true, OnAudioRead);
// Attach the clip to an AudioSource and start playing it
AudioSource audioSource = GetComponent();
audioSource.clip = clip;
audioSource.loop = true;
audioSource.Play();
// Start receiving the response
await foreach (var message in liveSession.ReceiveAsync()) {
// Process the received message
foreach (float[] pcmData in message.AudioAsFloat) {
lock (audioBuffer) {
foreach (float sample in pcmData) {
audioBuffer.Enqueue(sample);
}
}
}
}
}
// This method is called by the AudioClip to load audio data.
private void OnAudioRead(float[] data) {
int samplesToProvide = data.Length;
int samplesProvided = 0;
lock(audioBuffer) {
while (samplesProvided < samplesToProvide && audioBuffer.Count > 0) {
data[samplesProvided] = audioBuffer.Dequeue();
samplesProvided++;
}
}
while (samplesProvided < samplesToProvide) {
data[samplesProvided] = 0.0f;
samplesProvided++;
}
}
料金とトークンのカウント
Live API モデルの料金については、選択した Gemini API プロバイダのドキュメント(Gemini Developer API | Vertex AI Gemini API)をご覧ください。
Gemini API プロバイダに関係なく、Live API は サポートしていません Count Tokens API を。
Google アシスタントの機能
フルパッケージのLive APIでご確認ください。さまざまな入力モダリティ(音声、テキスト、動画 + 音声)のストリーミングなど。
さまざまな 構成オプション( 文字起こしの追加やレスポンス音声の設定など)を使用して実装をカスタマイズします。
関数呼び出しや Google 検索によるグラウンディングなど、ツールへのアクセスをモデルに許可することで、実装を強化します。Live API でツールを使用するための公式 ドキュメントは近日公開予定です。Live API
制限事項と仕様、 Live APIの使用に関する セッションの長さ、レート制限、サポートされている言語などについて学習します。