Generowanie tekstu na podstawie promptów tekstowych za pomocą interfejsu Gemini API


Gdy wywołujesz interfejs Gemini API z aplikacji za pomocą pakietu SDK Vertex AI dla Firebase, możesz poprosić model Gemini o wygenerowanie tekstu na podstawie wpisanego tekstu.

Zanim zaczniesz

Jeśli jeszcze nie masz tego za sobą, zapoznaj się z przewodnikiem dla początkujących dotyczącym pakietów SDK Vertex AI dla Firebase. Upewnij się, że masz wykonane wszystkie te czynności:

  • Skonfiguruj nowy lub istniejący projekt Firebase, w tym używając abonamentu Blaze i włącz wymagane interfejsy API.

  • Połączenie aplikacji z Firebase, w tym jej zarejestrowanie i dodanie do niej konfiguracji Firebase.

  • Dodaj pakiet SDK i zainicjuj usługę Vertex AI oraz model generatywny w swojej aplikacji.

Gdy połączysz aplikację z Firebase, dodasz pakiet SDK oraz zainicjujesz usługę Vertex AI i model generatywny, możesz wywołać interfejs Gemini API.

Generuj tekst na podstawie samego tekstu

Możesz wywołać interfejs Gemini API, podając dane wejściowe zawierające tylko tekst. W przypadku takich połączeń musisz używać modelu, który obsługuje tylko prompty tekstowe (np. Gemini 1.5 Pro).

Wybierz, czy chcesz przesyłać odpowiedź strumieniowo (generateContentStream), czy zaczekać na wygenerowanie całego wyniku (generateContent).

Strumieniowanie

Możesz przyspieszyć interakcje, nie czekając na cały wynik generowania modelu, i zamiast tego użyj strumieniowego przesyłania do obsługi wyników częściowych.

Ten przykład pokazuje, jak za pomocą pola generateContentStream() przesyłać strumieniowo tekst wygenerowany na podstawie żądania promptu, które zawiera tylko tekst:

Bez strumieniowania

Możesz też poczekać na cały wynik zamiast przesyłać strumieniowo dane, ponieważ wynik jest zwracany dopiero po zakończeniu całego procesu generowania przez model.

Ten przykład pokazuje, jak za pomocą pola generateContent() wygenerować tekst na podstawie żądania promptu, które zawiera tylko tekst:

Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.

Co jeszcze możesz zrobić?

Wypróbuj inne możliwości interfejsu Gemini API

Dowiedz się, jak kontrolować generowanie treści

Możesz też eksperymentować z promptami i konfiguracjami modeli za pomocą Vertex AI Studio.

Więcej informacji o modelach Gemini

Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.


Prześlij opinię na temat korzystania z Vertex AI dla Firebase