Za pomocą Gemini API możesz prowadzić swobodne rozmowy na różnych platformach
wiele rund. Pakiet SDK Vertex AI in Firebase upraszcza ten proces, zarządzając
stan rozmowy, więc w odróżnieniu od generateContentStream()
lub
generateContent()
, nie musisz samodzielnie zapisywać historii rozmów.
Zanim zaczniesz
Jeśli jeszcze tego nie zrobisz, zapoznaj się z przewodnikiem po pakietach SDK Vertex AI in Firebase. Upewnij się, że masz wykonane wszystkie te czynności:
Skonfiguruj nowy lub istniejący projekt Firebase, w tym Abonament Blaze i włączanie wymaganych interfejsów API.
połączyć aplikację z Firebase, w tym zarejestrować ją i dodać do konfigurację Firebase w aplikacji.
Dodaj pakiet SDK i zainicjuj usługę Vertex AI oraz model generatywny w swojej aplikacji.
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i inicjalizacji usługi Vertex AI oraz modelu generatywnego możesz wywołać funkcję Gemini API.
Wysyłanie prośby o rozmowę na czacie
Aby utworzyć rozmowę wieloetapową (np. czat), zacznij od
czatuj, dzwoniąc pod numer startChat()
. Następnie kliknij sendMessageStream()
(lub sendMessage()
), aby wysłać nową wiadomość do użytkownika. Spowoduje to również dodanie wiadomości i odpowiedzi do historii czatu.
W przypadku role
powiązanego z treściami w rozmowie dostępne są 2 opcje:
user
: rola, która dostarcza promptów. Jest to wartość domyślna dla opcji funkcjęsendMessageStream()
(lubsendMessage()
), a funkcja zwraca w przypadku przekazania innej roli.model
: rola, która dostarcza odpowiedzi. Tej roli można używać podczas wywoływania funkcjistartChat()
z dotychczasową funkcjąhistory
.
Wybierz, czy chcesz przesyłać odpowiedź strumieniowo (sendMessageStream
) czy zaczekać
dla odpowiedzi aż do wygenerowania całego wyniku (sendMessage
).
Streaming
Możesz przyspieszyć interakcje, nie czekając na cały wynik do generowania modelu i używać strumieniowania do obsługi wyników częściowych.
Bez strumieniowania
Możesz też zaczekać na cały wynik, zamiast przesyłać go strumieniowo. wynik jest zwracany dopiero po zakończeniu generowania przez model proces tworzenia konta.
Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizację odpowiednio do konkretnego przypadku użycia i aplikacji.
Co jeszcze możesz zrobić?
- Dowiedz się, jak policzyć tokeny przed wysłaniem długich promptów do modelu.
- Skonfiguruj Cloud Storage for Firebase do uwzględniania dużych plików w żądaniach multimodalnych za pomocą funkcji Adresy URL: Cloud Storage. Pliki mogą zawierać obrazy, pliki PDF, filmy i dźwięk.
- Zacznij myśleć o przygotowaniu do produkcji, w tym: konfigurowanie aplikacji Firebase App Check w celu ochrony Gemini API przed nadużyciami ze strony nieautoryzowanych klientów.
Wypróbuj inne funkcje usługi Gemini API
- Generuj tekst z prompty tekstowe.
- generować tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio);
- Aby połączyć modele generatywne z zewnętrznymi systemami i informacjami, użyj wywołania funkcji.
Dowiedz się, jak kontrolować generowanie treści
- Poznaj projektowanie promptów, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak oraz maksymalną liczbę tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uważane za szkodliwe.
Więcej informacji o modelach Gemini
Dowiedz się więcej o dostępne modele do różnych zastosowań oraz ich poniższych limitów i cen.Prześlij opinię o tym, jak oceniasz korzystanie z usługi Vertex AI in Firebase