All Gemini 1.0 and Gemini 1.5 models are now retired. To avoid service disruption, update to a newer model (for example, gemini-2.5-flash-lite). Learn more.
Generierte Textantworten mit der Gemini API streamen
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Firebase AI Logic unterstützt das einfache Streaming von Textantworten mit generateContentStream oder sendMessageStream (für Chat).
Sie können schnellere Interaktionen erzielen, indem Sie nicht auf das gesamte Ergebnis der Modellgenerierung warten, sondern stattdessen Streaming verwenden, um Teilergebnisse zu verarbeiten.
In der Dokumentation finden Sie Informationen zum Streamen generierter Textantworten für Folgendes:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-10-03 (UTC)."],[],[]]