Gemini Live APIช่วยให้มีการโต้ตอบด้วยเสียงและวิดีโอแบบเรียลไทม์ที่มีเวลาในการตอบสนองต่ำ กับโมเดล Gemini ที่สื่อสารได้ทั้ง 2 ทาง
Live API และโมเดลในตระกูลพิเศษของโมเดลนี้สามารถประมวลผลสตรีมเสียง วิดีโอ หรือข้อความอย่างต่อเนื่องเพื่อส่งคำตอบที่พูดออกมาทันทีและเป็นธรรมชาติเหมือนมนุษย์ จึงสร้างประสบการณ์การสนทนาที่เป็นธรรมชาติสำหรับผู้ใช้
หน้านี้อธิบายวิธีเริ่มต้นใช้งานความสามารถที่พบบ่อยที่สุด นั่นคือ การสตรีมอินพุตและเอาต์พุตเสียง แต่ Live API รองรับความสามารถและตัวเลือกการกำหนดค่าที่แตกต่างกันมากมาย
Live API เป็น API แบบมีสถานะที่สร้างการเชื่อมต่อ WebSocket เพื่อ สร้างเซสชันระหว่างไคลเอ็นต์กับเซิร์ฟเวอร์ Gemini ดูรายละเอียดได้ที่Live APIเอกสารอ้างอิง (Gemini Developer API | Vertex AI Gemini API)
ดูแหล่งข้อมูลที่เป็นประโยชน์
Swift - เร็วๆ นี้ | Android - แอปเริ่มต้นอย่างรวดเร็ว | เว็บ - แอปเริ่มต้นอย่างรวดเร็ว | Flutter - แอปเริ่มต้นอย่างรวดเร็ว | Unity - เร็วๆ นี้
สัมผัสประสบการณ์ Gemini Live API ในแอปที่ใช้งานจริง - ดูแอป Flutter AI Playground ที่เข้าถึงได้ผ่านคอนโซล Firebase
ก่อนเริ่มต้น
หากยังไม่ได้ดำเนินการ ให้ทำตามคู่มือเริ่มต้นใช้งาน
ซึ่งอธิบายวิธีตั้งค่าโปรเจ็กต์ Firebase
เชื่อมต่อแอปกับ Firebase
เพิ่ม SDK
เริ่มต้นบริการแบ็กเอนด์สำหรับผู้ให้บริการ Gemini API ที่คุณเลือก และ
สร้างอินสแตนซ์ LiveModel
คุณสามารถสร้างต้นแบบด้วยพรอมต์และ Live API ใน Google AI Studio หรือ Vertex AI Studio
รุ่นที่รองรับความสามารถนี้
Gemini 2.5 Flash Live เป็นโมเดลเสียงเนทีฟที่รองรับ Gemini Live API แม้ว่าโมเดลจะมีชื่อรุ่นที่แตกต่างกันไปตามGeminiผู้ให้บริการ API แต่ลักษณะการทำงานและฟีเจอร์ของโมเดลจะเหมือนกัน
Gemini Developer API
gemini-2.5-flash-native-audio-preview-12-2025gemini-2.5-flash-native-audio-preview-09-2025
แม้ว่าจะเป็นโมเดลเวอร์ชันตัวอย่าง แต่ก็พร้อมใช้งานใน "ระดับฟรี" ของ Gemini Developer API
Vertex AI Gemini API
gemini-live-2.5-flash-native-audio(เปิดตัวในเดือนธันวาคม 2025)gemini-live-2.5-flash-preview-native-audio-09-2025
เมื่อใช้ Vertex AI Gemini API โมเดล Live API จะไม่ รองรับในสถานที่ตั้ง
global
สตรีมอินพุตและเอาต์พุตเสียง
|
คลิกผู้ให้บริการ Gemini API เพื่อดูเนื้อหาและโค้ดเฉพาะของผู้ให้บริการ ในหน้านี้ |
ตัวอย่างต่อไปนี้แสดงการใช้งานพื้นฐานเพื่อ ส่งอินพุตเสียงที่สตรีมและรับเอาต์พุตเสียงที่สตรีม
ดูตัวเลือกและความสามารถเพิ่มเติมสำหรับ Live API ได้ในส่วน "คุณทำอะไรได้อีกบ้าง" ในหน้านี้
Swift
หากต้องการใช้ Live API ให้สร้างอินสแตนซ์
LiveModel
และตั้งค่ารูปแบบการตอบกลับ
เป็น audio
import FirebaseAILogic
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
let liveModel = FirebaseAI.firebaseAI(backend: .googleAI()).liveModel(
modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
generationConfig: LiveGenerationConfig(
responseModalities: [.audio]
)
)
do {
let session = try await liveModel.connect()
// Load the audio file, or tap a microphone
guard let audioFile = NSDataAsset(name: "audio.pcm") else {
fatalError("Failed to load audio file")
}
// Provide the audio data
await session.sendAudioRealtime(audioFile.data)
var outputText = ""
for try await message in session.responses {
if case let .content(content) = message.payload {
content.modelTurn?.parts.forEach { part in
if let part = part as? InlineDataPart, part.mimeType.starts(with: "audio/pcm") {
// Handle 16bit pcm audio data at 24khz
playAudio(part.data)
}
}
// Optional: if you don't require to send more requests.
if content.isTurnComplete {
await session.close()
}
}
}
} catch {
fatalError(error.localizedDescription)
}
Kotlin
หากต้องการใช้ Live API ให้สร้างอินสแตนซ์
LiveModel
และตั้งค่ารูปแบบการตอบกลับ
เป็น AUDIO
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
val liveModel = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel(
modelName = "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
generationConfig = liveGenerationConfig {
responseModality = ResponseModality.AUDIO
}
)
val session = liveModel.connect()
// This is the recommended approach.
// However, you can create your own recorder and handle the stream.
session.startAudioConversation()
Java
หากต้องการใช้ Live API ให้สร้างอินสแตนซ์
LiveModel
และตั้งค่ารูปแบบการตอบกลับ
เป็น AUDIO
ExecutorService executor = Executors.newFixedThreadPool(1);
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
LiveGenerativeModel lm = FirebaseAI.getInstance(GenerativeBackend.googleAI()).liveModel(
"gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
new LiveGenerationConfig.Builder()
.setResponseModality(ResponseModality.AUDIO)
.build()
);
LiveModelFutures liveModel = LiveModelFutures.from(lm);
ListenableFuture<LiveSession> sessionFuture = liveModel.connect();
Futures.addCallback(sessionFuture, new FutureCallback<LiveSession>() {
@Override
public void onSuccess(LiveSession ses) {
LiveSessionFutures session = LiveSessionFutures.from(ses);
session.startAudioConversation();
}
@Override
public void onFailure(Throwable t) {
// Handle exceptions
}
}, executor);
Web
หากต้องการใช้ Live API ให้สร้างอินสแตนซ์
LiveGenerativeModel
และตั้งค่ารูปแบบการตอบกลับ
เป็น AUDIO
import { initializeApp } from "firebase/app";
import { getAI, getLiveGenerativeModel, GoogleAIBackend, ResponseModality } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `LiveGenerativeModel` instance with a model that supports the Live API
const liveModel = getLiveGenerativeModel(ai, {
model: "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
generationConfig: {
responseModalities: [ResponseModality.AUDIO],
},
});
const session = await liveModel.connect();
// Start the audio conversation
const audioConversationController = await startAudioConversation(session);
// ... Later, to stop the audio conversation
// await audioConversationController.stop()
Dart
หากต้องการใช้ Live API ให้สร้างอินสแตนซ์
LiveGenerativeModel
และตั้งค่ารูปแบบการตอบกลับ
เป็น audio
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
import 'package:your_audio_recorder_package/your_audio_recorder_package.dart';
late LiveModelSession _session;
final _audioRecorder = YourAudioRecorder();
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `liveGenerativeModel` instance with a model that supports the Live API
final liveModel = FirebaseAI.googleAI().liveGenerativeModel(
model: 'gemini-2.5-flash-native-audio-preview-12-2025',
// Configure the model to respond with audio
liveGenerationConfig: LiveGenerationConfig(
responseModalities: [ResponseModalities.audio],
),
);
_session = await liveModel.connect();
final audioRecordStream = _audioRecorder.startRecordingStream();
// Map the Uint8List stream to InlineDataPart stream
final mediaChunkStream = audioRecordStream.map((data) {
return InlineDataPart('audio/pcm', data);
});
await _session.startMediaStream(mediaChunkStream);
// In a separate thread, receive the audio response from the model
await for (final message in _session.receive()) {
// Process the received message
}
Unity
หากต้องการใช้ Live API ให้สร้างอินสแตนซ์
LiveModel
และตั้งค่ารูปแบบการตอบกลับ
เป็น Audio
using Firebase;
using Firebase.AI;
async Task SendTextReceiveAudio() {
// Initialize the Gemini Developer API backend service
// Create a `LiveModel` instance with a model that supports the Live API
var liveModel = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetLiveModel(
modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
// Configure the model to respond with audio
liveGenerationConfig: new LiveGenerationConfig(
responseModalities: new[] { ResponseModality.Audio })
);
LiveSession session = await liveModel.ConnectAsync();
// Start a coroutine to send audio from the Microphone
var recordingCoroutine = StartCoroutine(SendAudio(session));
// Start receiving the response
await ReceiveAudio(session);
}
IEnumerator SendAudio(LiveSession liveSession) {
string microphoneDeviceName = null;
int recordingFrequency = 16000;
int recordingBufferSeconds = 2;
var recordingClip = Microphone.Start(microphoneDeviceName, true,
recordingBufferSeconds, recordingFrequency);
int lastSamplePosition = 0;
while (true) {
if (!Microphone.IsRecording(microphoneDeviceName)) {
yield break;
}
int currentSamplePosition = Microphone.GetPosition(microphoneDeviceName);
if (currentSamplePosition != lastSamplePosition) {
// The Microphone uses a circular buffer, so we need to check if the
// current position wrapped around to the beginning, and handle it
// accordingly.
int sampleCount;
if (currentSamplePosition > lastSamplePosition) {
sampleCount = currentSamplePosition - lastSamplePosition;
} else {
sampleCount = recordingClip.samples - lastSamplePosition + currentSamplePosition;
}
if (sampleCount > 0) {
// Get the audio chunk
float[] samples = new float[sampleCount];
recordingClip.GetData(samples, lastSamplePosition);
// Send the data, discarding the resulting Task to avoid the warning
_ = liveSession.SendAudioAsync(samples);
lastSamplePosition = currentSamplePosition;
}
}
// Wait for a short delay before reading the next sample from the Microphone
const float MicrophoneReadDelay = 0.5f;
yield return new WaitForSeconds(MicrophoneReadDelay);
}
}
Queue audioBuffer = new();
async Task ReceiveAudio(LiveSession liveSession) {
int sampleRate = 24000;
int channelCount = 1;
// Create a looping AudioClip to fill with the received audio data
int bufferSamples = (int)(sampleRate * channelCount);
AudioClip clip = AudioClip.Create("StreamingPCM", bufferSamples, channelCount,
sampleRate, true, OnAudioRead);
// Attach the clip to an AudioSource and start playing it
AudioSource audioSource = GetComponent();
audioSource.clip = clip;
audioSource.loop = true;
audioSource.Play();
// Start receiving the response
await foreach (var message in liveSession.ReceiveAsync()) {
// Process the received message
foreach (float[] pcmData in message.AudioAsFloat) {
lock (audioBuffer) {
foreach (float sample in pcmData) {
audioBuffer.Enqueue(sample);
}
}
}
}
}
// This method is called by the AudioClip to load audio data.
private void OnAudioRead(float[] data) {
int samplesToProvide = data.Length;
int samplesProvided = 0;
lock(audioBuffer) {
while (samplesProvided < samplesToProvide && audioBuffer.Count > 0) {
data[samplesProvided] = audioBuffer.Dequeue();
samplesProvided++;
}
}
while (samplesProvided < samplesToProvide) {
data[samplesProvided] = 0.0f;
samplesProvided++;
}
}
การกำหนดราคาและการนับโทเค็น
คุณดูข้อมูลราคาของโมเดล Live API ได้ใน เอกสารประกอบสำหรับผู้ให้บริการ Gemini API ที่คุณเลือก Gemini Developer API | Vertex AI Gemini API
ไม่ว่าคุณจะใช้Gemini APIผู้ให้บริการรายใด Live APIก็ไม่รองรับ Count Tokens API
คุณทำอะไรได้อีกบ้าง
ดูชุดความสามารถทั้งหมดของ Live API เช่น การสตรีมอินพุตในรูปแบบต่างๆ (เสียง ข้อความ หรือวิดีโอ + เสียง)
ปรับแต่งการติดตั้งใช้งานโดยใช้ตัวเลือกการกำหนดค่าต่างๆ เช่น การเพิ่มการถอดเสียงหรือการตั้งค่าเสียงตอบกลับ
เพิ่มประสิทธิภาพการใช้งานด้วยการให้สิทธิ์เข้าถึงเครื่องมือแก่โมเดล เช่น การเรียกใช้ฟังก์ชันและการอ้างอิงจาก Google Search เอกสารประกอบอย่างเป็นทางการเกี่ยวกับการใช้เครื่องมือกับ Live API จะพร้อมให้บริการในเร็วๆ นี้
ดูข้อมูลเกี่ยวกับขีดจำกัดและข้อกำหนด สำหรับการใช้ Live API เช่น ระยะเวลาเซสชัน ขีดจำกัดอัตราคำขอ ภาษาที่รองรับ ฯลฯ