เริ่มต้นใช้งาน Gemini Live API โดยใช้ตรรกะ AI ของ Firebase


Gemini Live API ช่วยให้การโต้ตอบด้วยเสียงและวิดีโอแบบเรียลไทม์ กับโมเดล Gemini เป็นไปได้ด้วยเวลาในการตอบสนองที่ต่ำและเป็นแบบ สองทาง

Live API และโมเดลพิเศษในตระกูลนี้สามารถประมวลผลสตรีม เสียง วิดีโอ หรือข้อความอย่างต่อเนื่องเพื่อส่งคำตอบที่พูดออกมาทันทีและเป็นธรรมชาติเหมือนมนุษย์ ทำให้ผู้ใช้ได้รับประสบการณ์การสนทนาที่เป็นธรรมชาติ

หน้านี้จะอธิบายวิธีเริ่มต้นใช้งานความสามารถที่ใช้กันมากที่สุด นั่นคือ การสตรีมอินพุตและเอาต์พุตเสียง แต่ Live API รองรับความสามารถ และ ตัวเลือกการกำหนดค่าที่หลากหลาย

Live API เป็น API แบบเก็บสถานะที่สร้างการเชื่อมต่อ WebSocket เพื่อสร้าง เซสชัน ระหว่างไคลเอ็นต์กับเซิร์ฟเวอร์ Gemini ดูรายละเอียดได้ในเอกสารอ้างอิง (Gemini Developer API | Vertex AI Gemini API)Live API

ไปที่ตัวอย่างโค้ด

ดูแหล่งข้อมูลที่เป็นประโยชน์

ก่อนเริ่มต้น

หากยังไม่ได้ดำเนินการ โปรดทำตาม คู่มือเริ่มต้นใช้งาน, ซึ่งอธิบายวิธีตั้งค่าโปรเจ็กต์ Firebase, เชื่อมต่อแอปกับ Firebase, เพิ่ม SDK, เริ่มต้นบริการแบ็กเอนด์สำหรับผู้ให้บริการ Gemini API ที่คุณเลือก และ สร้างอินสแตนซ์ LiveModel

คุณสามารถสร้างต้นแบบด้วยพรอมต์และ Live API ใน Google AI Studio หรือ Vertex AI Studio

โมเดลที่รองรับความสามารถนี้

โมเดล Gemini 2.5 Flash Live เป็นโมเดล เสียงแบบเนทีฟ ที่รองรับ Gemini Live API แม้ว่าโมเดลจะมีชื่อโมเดลที่แตกต่างกันไปตาม ผู้ให้บริการ Gemini API แต่ลักษณะการทำงานและฟีเจอร์ของโมเดลจะ เหมือนกัน

  • Gemini Developer API

    • gemini-2.5-flash-native-audio-preview-12-2025
    • gemini-2.5-flash-native-audio-preview-09-2025

    แม้ว่าจะเป็นโมเดลเวอร์ชันตัวอย่าง แต่โมเดลเหล่านี้ก็พร้อมใช้งานใน "ระดับฟรี" ของ Gemini Developer API

  • Vertex AI Gemini API

    • gemini-live-2.5-flash-native-audio (เปิดตัวในเดือนธันวาคม 2025)
    • gemini-live-2.5-flash-preview-native-audio-09-2025

    เมื่อใช้ Vertex AI Gemini API ระบบจะไม่รองรับโมเดล Live API ในตำแหน่ง global

สตรีมอินพุตและเอาต์พุตเสียง

คลิกผู้ให้บริการ Gemini API เพื่อดูเนื้อหาเฉพาะของผู้ให้บริการ และโค้ดในหน้านี้

ตัวอย่างต่อไปนี้แสดงการใช้งานพื้นฐาน เพื่อส่งอินพุต เสียง ที่สตรีมและรับเอาต์พุต เสียง ที่สตรีม

ดูตัวเลือกและความสามารถเพิ่มเติมสำหรับ Live API ได้ใน "คุณทำอะไรได้อีกบ้าง" ในส่วนท้ายของหน้านี้

Swift

หากต้องการใช้ Live API ให้สร้าง LiveModel อินสแตนซ์และตั้งค่า โหมดการตอบกลับ เป็น audio


import FirebaseAILogic

// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
let liveModel = FirebaseAI.firebaseAI(backend: .googleAI()).liveModel(
  modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
  // Configure the model to respond with audio
  generationConfig: LiveGenerationConfig(
    responseModalities: [.audio]
  )
)

do {
  let session = try await liveModel.connect()

  // Load the audio file, or tap a microphone
  guard let audioFile = NSDataAsset(name: "audio.pcm") else {
    fatalError("Failed to load audio file")
  }

  // Provide the audio data
  await session.sendAudioRealtime(audioFile.data)

  var outputText = ""
  for try await message in session.responses {
    if case let .content(content) = message.payload {
      content.modelTurn?.parts.forEach { part in
        if let part = part as? InlineDataPart, part.mimeType.starts(with: "audio/pcm") {
          // Handle 16bit pcm audio data at 24khz
          playAudio(part.data)
        }
      }
      // Optional: if you don't require to send more requests.
      if content.isTurnComplete {
        await session.close()
      }
    }
  }
} catch {
  fatalError(error.localizedDescription)
}

Kotlin

หากต้องการใช้ Live API ให้สร้าง LiveModel อินสแตนซ์ และตั้งค่า โหมดการตอบกลับ เป็น AUDIO


// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
val liveModel = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel(
    modelName = "gemini-2.5-flash-native-audio-preview-12-2025",
    // Configure the model to respond with audio
    generationConfig = liveGenerationConfig {
        responseModality = ResponseModality.AUDIO
   }
)

val session = liveModel.connect()

// This is the recommended approach.
// However, you can create your own recorder and handle the stream.
session.startAudioConversation()

Java

หากต้องการใช้ Live API ให้สร้าง LiveModel อินสแตนซ์ และตั้งค่า โหมดการตอบกลับ เป็น AUDIO


ExecutorService executor = Executors.newFixedThreadPool(1);
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
LiveGenerativeModel lm = FirebaseAI.getInstance(GenerativeBackend.googleAI()).liveModel(
        "gemini-2.5-flash-native-audio-preview-12-2025",
        // Configure the model to respond with audio
        new LiveGenerationConfig.Builder()
                .setResponseModality(ResponseModality.AUDIO)
                .build()
);
LiveModelFutures liveModel = LiveModelFutures.from(lm);

ListenableFuture<LiveSession> sessionFuture =  liveModel.connect();

Futures.addCallback(sessionFuture, new FutureCallback<LiveSession>() {
    @Override
    public void onSuccess(LiveSession ses) {
	 LiveSessionFutures session = LiveSessionFutures.from(ses);
        session.startAudioConversation();
    }
    @Override
    public void onFailure(Throwable t) {
        // Handle exceptions
    }
}, executor);

Web

หากต้องการใช้ Live API ให้สร้าง LiveGenerativeModel อินสแตนซ์และตั้งค่า โหมดการตอบกลับ เป็น AUDIO


import { initializeApp } from "firebase/app";
import { getAI, getLiveGenerativeModel, GoogleAIBackend, ResponseModality } from "firebase/ai";

// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
  // ...
};

// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Create a `LiveGenerativeModel` instance with a model that supports the Live API
const liveModel = getLiveGenerativeModel(ai, {
  model: "gemini-2.5-flash-native-audio-preview-12-2025",
  // Configure the model to respond with audio
  generationConfig: {
    responseModalities: [ResponseModality.AUDIO],
  },
});

const session = await liveModel.connect();

// Start the audio conversation
const audioConversationController = await startAudioConversation(session);

// ... Later, to stop the audio conversation
// await audioConversationController.stop()

Dart

หากต้องการใช้ Live API ให้สร้าง LiveGenerativeModel อินสแตนซ์ และตั้งค่า โหมดการตอบกลับ เป็น audio


import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
import 'package:your_audio_recorder_package/your_audio_recorder_package.dart';

late LiveModelSession _session;
final _audioRecorder = YourAudioRecorder();

await Firebase.initializeApp(
  options: DefaultFirebaseOptions.currentPlatform,
);

// Initialize the Gemini Developer API backend service
// Create a `liveGenerativeModel` instance with a model that supports the Live API
final liveModel = FirebaseAI.googleAI().liveGenerativeModel(
  model: 'gemini-2.5-flash-native-audio-preview-12-2025',
  // Configure the model to respond with audio
  liveGenerationConfig: LiveGenerationConfig(
    responseModalities: [ResponseModalities.audio],
  ),
);

_session = await liveModel.connect();

final audioRecordStream = _audioRecorder.startRecordingStream();
// Map the Uint8List stream to InlineDataPart stream
final mediaChunkStream = audioRecordStream.map((data) {
  return InlineDataPart('audio/pcm', data);
});
await _session.startMediaStream(mediaChunkStream);

// In a separate thread, receive the audio response from the model
await for (final message in _session.receive()) {
   // Process the received message
}

Unity

หากต้องการใช้ Live API ให้สร้าง LiveModel อินสแตนซ์ และตั้งค่า โหมดการตอบกลับ เป็น Audio


using Firebase;
using Firebase.AI;

async Task SendTextReceiveAudio() {
  // Initialize the Gemini Developer API backend service
  // Create a `LiveModel` instance with a model that supports the Live API
  var liveModel = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetLiveModel(
      modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
      // Configure the model to respond with audio
      liveGenerationConfig: new LiveGenerationConfig(
          responseModalities: new[] { ResponseModality.Audio })
    );

  LiveSession session = await liveModel.ConnectAsync();

  // Start a coroutine to send audio from the Microphone
  var recordingCoroutine = StartCoroutine(SendAudio(session));

  // Start receiving the response
  await ReceiveAudio(session);
}

IEnumerator SendAudio(LiveSession liveSession) {
  string microphoneDeviceName = null;
  int recordingFrequency = 16000;
  int recordingBufferSeconds = 2;

  var recordingClip = Microphone.Start(microphoneDeviceName, true,
                                       recordingBufferSeconds, recordingFrequency);

  int lastSamplePosition = 0;
  while (true) {
    if (!Microphone.IsRecording(microphoneDeviceName)) {
      yield break;
    }

    int currentSamplePosition = Microphone.GetPosition(microphoneDeviceName);

    if (currentSamplePosition != lastSamplePosition) {
      // The Microphone uses a circular buffer, so we need to check if the
      // current position wrapped around to the beginning, and handle it
      // accordingly.
      int sampleCount;
      if (currentSamplePosition > lastSamplePosition) {
        sampleCount = currentSamplePosition - lastSamplePosition;
      } else {
        sampleCount = recordingClip.samples - lastSamplePosition + currentSamplePosition;
      }

      if (sampleCount > 0) {
        // Get the audio chunk
        float[] samples = new float[sampleCount];
        recordingClip.GetData(samples, lastSamplePosition);

        // Send the data, discarding the resulting Task to avoid the warning
        _ = liveSession.SendAudioAsync(samples);

        lastSamplePosition = currentSamplePosition;
      }
    }

    // Wait for a short delay before reading the next sample from the Microphone
    const float MicrophoneReadDelay = 0.5f;
    yield return new WaitForSeconds(MicrophoneReadDelay);
  }
}

Queue audioBuffer = new();

async Task ReceiveAudio(LiveSession liveSession) {
  int sampleRate = 24000;
  int channelCount = 1;

  // Create a looping AudioClip to fill with the received audio data
  int bufferSamples = (int)(sampleRate * channelCount);
  AudioClip clip = AudioClip.Create("StreamingPCM", bufferSamples, channelCount,
                                    sampleRate, true, OnAudioRead);

  // Attach the clip to an AudioSource and start playing it
  AudioSource audioSource = GetComponent();
  audioSource.clip = clip;
  audioSource.loop = true;
  audioSource.Play();

  // Start receiving the response
  await foreach (var message in liveSession.ReceiveAsync()) {
    // Process the received message
    foreach (float[] pcmData in message.AudioAsFloat) {
      lock (audioBuffer) {
        foreach (float sample in pcmData) {
          audioBuffer.Enqueue(sample);
        }
      }
    }
  }
}

// This method is called by the AudioClip to load audio data.
private void OnAudioRead(float[] data) {
  int samplesToProvide = data.Length;
  int samplesProvided = 0;

  lock(audioBuffer) {
    while (samplesProvided < samplesToProvide && audioBuffer.Count > 0) {
      data[samplesProvided] = audioBuffer.Dequeue();
      samplesProvided++;
    }
  }

  while (samplesProvided < samplesToProvide) {
    data[samplesProvided] = 0.0f;
    samplesProvided++;
  }
}



การกำหนดราคาและการนับโทเค็น

คุณดูข้อมูลการกำหนดราคาสำหรับโมเดล Live API ได้ใน เอกสารประกอบสำหรับผู้ให้บริการ Gemini API ที่คุณเลือก: Gemini Developer API | Vertex AI Gemini API

ไม่ว่าผู้ให้บริการ Gemini API ของคุณจะเป็นใคร Live API ก็ ไม่ รองรับ Count Tokens API



คุณทำอะไรได้อีกบ้าง

  • ดูชุดความสามารถทั้งหมดสำหรับ สำหรับ Live API เช่น การสตรีมโหมดอินพุตต่างๆ (เสียง ข้อความ หรือวิดีโอ + เสียง)

  • ปรับแต่งการใช้งานโดยใช้ ตัวเลือกการกำหนดค่าต่างๆ, เช่น การเพิ่มการถอดเสียงหรือการตั้งค่าเสียงตอบกลับ

  • ดูข้อมูลเกี่ยวกับ การจัดการเซสชัน ซึ่งรวมถึงการอัปเดต เนื้อหาในระหว่างเซสชันและการตรวจหาเมื่อเซสชันกำลังจะสิ้นสุด

  • เพิ่มประสิทธิภาพการใช้งานโดยให้สิทธิ์โมเดลเข้าถึง เครื่องมือต่างๆ เช่น การเรียกใช้ฟังก์ชันและการอ้างอิงข้อมูลจาก Google Search เอกสารประกอบอย่างเป็นทางการสำหรับการใช้เครื่องมือกับ Live API จะพร้อมให้บริการในเร็วๆ นี้

  • ดูข้อมูลเกี่ยวกับ ข้อจำกัดและข้อกำหนด, สำหรับการใช้ Live API, เช่น ความยาวเซสชัน ขีดจำกัดอัตรา ภาษาที่รองรับ เป็นต้น