Gemini 3 Pro & Flash, Gemini 3 Pro Image (nano banana pro), and the latest Gemini Live API native audio models are now available to use with Firebase AI Logic on all platforms!
Przesyłanie strumieniowe wygenerowanych odpowiedzi tekstowych za pomocą interfejsu Gemini API
Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Firebase AI Logic obsługuje podstawowe przesyłanie strumieniowe odpowiedzi tekstowych za pomocą generateContentStream lub sendMessageStream (w przypadku czatu);
Możesz uzyskać szybsze interakcje, nie czekając na cały wynik generowania modelu, i zamiast tego używać przesyłania strumieniowego do obsługi częściowych wyników.
Zapoznaj się z dokumentacją, aby dowiedzieć się, jak przesyłać strumieniowo wygenerowane odpowiedzi tekstowe w przypadku tych usług:
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-12-18 UTC."],[],[]]