All Gemini 1.0 and Gemini 1.5 models are now retired. To avoid service disruption, update to a newer model (for example, gemini-2.5-flash-lite). Learn more.
Przesyłanie strumieniowe wygenerowanych odpowiedzi tekstowych za pomocą interfejsu Gemini API
Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Firebase AI Logic obsługuje podstawowe przesyłanie strumieniowe odpowiedzi tekstowych za pomocą generateContentStream lub sendMessageStream (w przypadku czatu);
Możesz uzyskać szybsze interakcje, nie czekając na cały wynik generowania modelu, i zamiast tego używać przesyłania strumieniowego do obsługi częściowych wyników.
Zapoznaj się z dokumentacją, aby dowiedzieć się, jak przesyłać strumieniowo wygenerowane odpowiedzi tekstowe w przypadku tych usług:
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-10-03 UTC."],[],[]]