Gdy wywołujesz funkcję Gemini API z aplikacji za pomocą pakietu SDK Vertex AI in Firebase, możesz poprosić model Gemini o wygenerowanie tekstu na podstawie danych wejściowych w postaci tekstu.
Zanim zaczniesz
Jeśli jeszcze tego nie zrobisz, zapoznaj się z przewodnikiem po pakietach SDK Vertex AI in Firebase. Upewnij się, że wykonałeś/wykonałaś te czynności:
Skonfiguruj nowy lub istniejący projekt Firebase, w tym użyj abonamentu Blaze i włącz wymagane interfejsy API.
Połącz aplikację z Firebase, w tym zarejestruj ją i dodaj do niej konfigurację Firebase.
Dodaj pakiet SDK i zainicjuj w aplikacji usługę Vertex AI oraz model generatywny.
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i inicjalizacji usługi Vertex AI oraz modelu generatywnego możesz wywołać funkcję Gemini API.
Generuj tekst na podstawie samego tekstu
Możesz wywołać funkcję Gemini API, podając jako dane wejściowe tylko tekst. W takich przypadkach musisz użyć modelu, który obsługuje prompty tekstowe (np. Gemini 1.5 Pro).
Wybierz, czy chcesz wyświetlić odpowiedź w czasie (generateContentStream
), czy poczekać na odpowiedź, aż zostanie wygenerowany cały wynik (generateContent
).
Streaming
Aby uzyskać szybsze interakcje, nie czekaj na pełny wynik wygenerowany przez model, ale zamiast tego użyj strumieniowego przetwarzania wyników częściowych.
Bez przesyłania strumieniowego
Możesz też poczekać na cały wynik zamiast strumieniowego przesyłania. Wynik zostanie zwrócony dopiero po zakończeniu całego procesu generowania.
Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizacjęodpowiednią do Twojego przypadku użycia i aplikacji.
Co jeszcze potrafisz?
- Dowiedz się, jak policzyć tokeny przed wysłaniem długich promptów do modelu.
- Zacznij zastanawiać się nad przygotowaniem do wdrożenia wersji produkcyjnej, między innymi przez skonfigurowanie Firebase App Check w celu ochrony Gemini API przed nadużyciami ze strony nieautoryzowanych klientów.
Wypróbuj inne funkcje usługi Gemini API
- tworzyć rozmowy wieloetapowe (czat),
- generować tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio);
- generować dane wyjściowe w uporządkowanym formacie (np. JSON) zarówno na podstawie tekstowych, jak i wielomodalnych promptów;
- Aby połączyć modele generatywne z zewnętrznymi systemami i informacjami, użyj wywołania funkcji.
Dowiedz się, jak kontrolować generowanie treści
- Dowiedz się, jak projektować prompty, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uznane za szkodliwe.
Więcej informacji o modelach Gemini
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.Prześlij opinię o tym, jak oceniasz korzystanie z usługi Vertex AI in Firebase