Erste Schritte mit der Gemini Live API mit Firebase AI Logic


Die Gemini Live API ermöglicht latenzarme Sprach- und Videointeraktionen in Echtzeit mit einem Gemini-Modell, das bidirektional ist.

Das Live API und seine spezielle Modellfamilie können kontinuierliche Streams von Audio, Video oder Text verarbeiten, um sofortige, menschenähnliche gesprochene Antworten zu liefern und so eine natürliche Konversationserfahrung für Ihre Nutzer zu schaffen.

Auf dieser Seite wird beschrieben, wie Sie mit der häufigsten Funktion beginnen – Streaming von Audioeingabe und ‑ausgabe. Das Live API unterstützt jedoch viele verschiedene Funktionen und Konfigurationsoptionen.

Die Live API ist eine zustandsbehaftete API, die eine WebSocket-Verbindung herstellt, um eine Sitzung zwischen dem Client und dem Gemini-Server herzustellen. Weitere Informationen finden Sie in der Live API-Referenzdokumentation (Gemini Developer API | Vertex AI Gemini API).

 Zu Codebeispielen springen

Hilfreiche Ressourcen ansehen

Hinweis

Falls noch nicht geschehen, folgen Sie dem Startleitfaden. Darin wird beschrieben, wie Sie Ihr Firebase-Projekt einrichten, Ihre App mit Firebase verbinden, das SDK hinzufügen, den Backend-Dienst für den ausgewählten Gemini API-Anbieter initialisieren und eine LiveModel-Instanz erstellen.

Sie können Prototypen mit Prompts und dem Live API in Google AI Studio oder Vertex AI Studio erstellen.

Modelle, die diese Funktion unterstützen

Gemini 2.5 Flash Live-Modelle sind die nativen Audiomodelle, die Gemini Live API unterstützen. Das Modell hat zwar je nach Gemini-API-Anbieter unterschiedliche Modellnamen, das Verhalten und die Funktionen des Modells sind jedoch gleich.

  • Gemini Developer API

    • gemini-2.5-flash-native-audio-preview-12-2025
    • gemini-2.5-flash-native-audio-preview-09-2025

    Obwohl es sich um Vorschau-Modelle handelt, sind sie im kostenlosen Kontingent von Gemini Developer API verfügbar.

  • Vertex AI Gemini API

    • gemini-live-2.5-flash-native-audio (veröffentlicht im Dezember 2025)
    • gemini-live-2.5-flash-preview-native-audio-09-2025

    Bei Verwendung von Vertex AI Gemini API werden die Live API-Modelle am Standort global nicht unterstützt.

Audioeingabe und ‑ausgabe streamen

Klicken Sie auf Ihren Gemini API-Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen.

Das folgende Beispiel zeigt die einfache Implementierung zum Senden von gestreamten Audioeingaben und Empfangen von gestreamten Audioausgaben.

Weitere Optionen und Funktionen für Live API finden Sie weiter unten auf dieser Seite im Abschnitt Was kann ich noch tun?.

Swift

Wenn Sie Live API verwenden möchten, erstellen Sie eine LiveModel-Instanz und legen Sie die Antwortmodalität auf audio fest.


import FirebaseAILogic

// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
let liveModel = FirebaseAI.firebaseAI(backend: .googleAI()).liveModel(
  modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
  // Configure the model to respond with audio
  generationConfig: LiveGenerationConfig(
    responseModalities: [.audio]
  )
)

do {
  let session = try await liveModel.connect()

  // Load the audio file, or tap a microphone
  guard let audioFile = NSDataAsset(name: "audio.pcm") else {
    fatalError("Failed to load audio file")
  }

  // Provide the audio data
  await session.sendAudioRealtime(audioFile.data)

  var outputText = ""
  for try await message in session.responses {
    if case let .content(content) = message.payload {
      content.modelTurn?.parts.forEach { part in
        if let part = part as? InlineDataPart, part.mimeType.starts(with: "audio/pcm") {
          // Handle 16bit pcm audio data at 24khz
          playAudio(part.data)
        }
      }
      // Optional: if you don't require to send more requests.
      if content.isTurnComplete {
        await session.close()
      }
    }
  }
} catch {
  fatalError(error.localizedDescription)
}

Kotlin

Wenn Sie Live API verwenden möchten, erstellen Sie eine LiveModel-Instanz und legen Sie die Antwortmodalität auf AUDIO fest.


// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
val liveModel = Firebase.ai(backend = GenerativeBackend.googleAI()).liveModel(
    modelName = "gemini-2.5-flash-native-audio-preview-12-2025",
    // Configure the model to respond with audio
    generationConfig = liveGenerationConfig {
        responseModality = ResponseModality.AUDIO
   }
)

val session = liveModel.connect()

// This is the recommended approach.
// However, you can create your own recorder and handle the stream.
session.startAudioConversation()

Java

Wenn Sie Live API verwenden möchten, erstellen Sie eine LiveModel-Instanz und legen Sie die Antwortmodalität auf AUDIO fest.


ExecutorService executor = Executors.newFixedThreadPool(1);
// Initialize the Gemini Developer API backend service
// Create a `liveModel` instance with a model that supports the Live API
LiveGenerativeModel lm = FirebaseAI.getInstance(GenerativeBackend.googleAI()).liveModel(
        "gemini-2.5-flash-native-audio-preview-12-2025",
        // Configure the model to respond with audio
        new LiveGenerationConfig.Builder()
                .setResponseModality(ResponseModality.AUDIO)
                .build()
);
LiveModelFutures liveModel = LiveModelFutures.from(lm);

ListenableFuture<LiveSession> sessionFuture =  liveModel.connect();

Futures.addCallback(sessionFuture, new FutureCallback<LiveSession>() {
    @Override
    public void onSuccess(LiveSession ses) {
	 LiveSessionFutures session = LiveSessionFutures.from(ses);
        session.startAudioConversation();
    }
    @Override
    public void onFailure(Throwable t) {
        // Handle exceptions
    }
}, executor);

Web

Wenn Sie Live API verwenden möchten, erstellen Sie eine LiveGenerativeModel-Instanz und legen Sie die Antwortmodalität auf AUDIO fest.


import { initializeApp } from "firebase/app";
import { getAI, getLiveGenerativeModel, GoogleAIBackend, ResponseModality } from "firebase/ai";

// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
  // ...
};

// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Create a `LiveGenerativeModel` instance with a model that supports the Live API
const liveModel = getLiveGenerativeModel(ai, {
  model: "gemini-2.5-flash-native-audio-preview-12-2025",
  // Configure the model to respond with audio
  generationConfig: {
    responseModalities: [ResponseModality.AUDIO],
  },
});

const session = await liveModel.connect();

// Start the audio conversation
const audioConversationController = await startAudioConversation(session);

// ... Later, to stop the audio conversation
// await audioConversationController.stop()

Dart

Wenn Sie Live API verwenden möchten, erstellen Sie eine LiveGenerativeModel-Instanz und legen Sie die Antwortmodalität auf audio fest.


import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
import 'package:your_audio_recorder_package/your_audio_recorder_package.dart';

late LiveModelSession _session;
final _audioRecorder = YourAudioRecorder();

await Firebase.initializeApp(
  options: DefaultFirebaseOptions.currentPlatform,
);

// Initialize the Gemini Developer API backend service
// Create a `liveGenerativeModel` instance with a model that supports the Live API
final liveModel = FirebaseAI.googleAI().liveGenerativeModel(
  model: 'gemini-2.5-flash-native-audio-preview-12-2025',
  // Configure the model to respond with audio
  liveGenerationConfig: LiveGenerationConfig(
    responseModalities: [ResponseModalities.audio],
  ),
);

_session = await liveModel.connect();

final audioRecordStream = _audioRecorder.startRecordingStream();
// Map the Uint8List stream to InlineDataPart stream
final mediaChunkStream = audioRecordStream.map((data) {
  return InlineDataPart('audio/pcm', data);
});
await _session.startMediaStream(mediaChunkStream);

// In a separate thread, receive the audio response from the model
await for (final message in _session.receive()) {
   // Process the received message
}

Einheit

Wenn Sie Live API verwenden möchten, erstellen Sie eine LiveModel-Instanz und legen Sie die Antwortmodalität auf Audio fest.


using Firebase;
using Firebase.AI;

async Task SendTextReceiveAudio() {
  // Initialize the Gemini Developer API backend service
  // Create a `LiveModel` instance with a model that supports the Live API
  var liveModel = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI()).GetLiveModel(
      modelName: "gemini-2.5-flash-native-audio-preview-12-2025",
      // Configure the model to respond with audio
      liveGenerationConfig: new LiveGenerationConfig(
          responseModalities: new[] { ResponseModality.Audio })
    );

  LiveSession session = await liveModel.ConnectAsync();

  // Start a coroutine to send audio from the Microphone
  var recordingCoroutine = StartCoroutine(SendAudio(session));

  // Start receiving the response
  await ReceiveAudio(session);
}

IEnumerator SendAudio(LiveSession liveSession) {
  string microphoneDeviceName = null;
  int recordingFrequency = 16000;
  int recordingBufferSeconds = 2;

  var recordingClip = Microphone.Start(microphoneDeviceName, true,
                                       recordingBufferSeconds, recordingFrequency);

  int lastSamplePosition = 0;
  while (true) {
    if (!Microphone.IsRecording(microphoneDeviceName)) {
      yield break;
    }

    int currentSamplePosition = Microphone.GetPosition(microphoneDeviceName);

    if (currentSamplePosition != lastSamplePosition) {
      // The Microphone uses a circular buffer, so we need to check if the
      // current position wrapped around to the beginning, and handle it
      // accordingly.
      int sampleCount;
      if (currentSamplePosition > lastSamplePosition) {
        sampleCount = currentSamplePosition - lastSamplePosition;
      } else {
        sampleCount = recordingClip.samples - lastSamplePosition + currentSamplePosition;
      }

      if (sampleCount > 0) {
        // Get the audio chunk
        float[] samples = new float[sampleCount];
        recordingClip.GetData(samples, lastSamplePosition);

        // Send the data, discarding the resulting Task to avoid the warning
        _ = liveSession.SendAudioAsync(samples);

        lastSamplePosition = currentSamplePosition;
      }
    }

    // Wait for a short delay before reading the next sample from the Microphone
    const float MicrophoneReadDelay = 0.5f;
    yield return new WaitForSeconds(MicrophoneReadDelay);
  }
}

Queue audioBuffer = new();

async Task ReceiveAudio(LiveSession liveSession) {
  int sampleRate = 24000;
  int channelCount = 1;

  // Create a looping AudioClip to fill with the received audio data
  int bufferSamples = (int)(sampleRate * channelCount);
  AudioClip clip = AudioClip.Create("StreamingPCM", bufferSamples, channelCount,
                                    sampleRate, true, OnAudioRead);

  // Attach the clip to an AudioSource and start playing it
  AudioSource audioSource = GetComponent();
  audioSource.clip = clip;
  audioSource.loop = true;
  audioSource.Play();

  // Start receiving the response
  await foreach (var message in liveSession.ReceiveAsync()) {
    // Process the received message
    foreach (float[] pcmData in message.AudioAsFloat) {
      lock (audioBuffer) {
        foreach (float sample in pcmData) {
          audioBuffer.Enqueue(sample);
        }
      }
    }
  }
}

// This method is called by the AudioClip to load audio data.
private void OnAudioRead(float[] data) {
  int samplesToProvide = data.Length;
  int samplesProvided = 0;

  lock(audioBuffer) {
    while (samplesProvided < samplesToProvide && audioBuffer.Count > 0) {
      data[samplesProvided] = audioBuffer.Dequeue();
      samplesProvided++;
    }
  }

  while (samplesProvided < samplesToProvide) {
    data[samplesProvided] = 0.0f;
    samplesProvided++;
  }
}



Preise und Token-Zählung

Preisinformationen für die Live API-Modelle finden Sie in der Dokumentation des von Ihnen ausgewählten Gemini API-Anbieters: Gemini Developer API | Vertex AI Gemini API.

Unabhängig von Ihrem Gemini API-Anbieter wird die Count Tokens API von Live API nicht unterstützt.



Was kannst du sonst noch tun?

  • Hier finden Sie alle Funktionen für Live API, z. B. das Streamen verschiedener Eingabemodalitäten (Audio, Text oder Video + Audio).

  • Sie können Ihre Implementierung mithilfe verschiedener Konfigurationsoptionen anpassen, z. B. durch Hinzufügen einer Transkription oder Festlegen der Antwortstimme.

  • Sie können Ihre Implementierung optimieren, indem Sie dem Modell Zugriff auf Tools wie Funktionsaufrufe und Fundierung mit der Google Suche gewähren. Die offizielle Dokumentation zur Verwendung von Tools mit Live API ist bald verfügbar.

  • Limits und Spezifikationen für die Verwendung von Live API, z. B. Sitzungslänge, Ratenlimits und unterstützte Sprachen.