Pierwsze kroki z interfejsem Gemini API przy użyciu pakietów SDK Vertex AI dla Firebase


Z tego przewodnika dowiesz się, jak zacząć wywoływać interfejs Vertex AI Gemini API bezpośrednio z poziomu aplikacji za pomocą pakietów SDK Vertex AI dla Firebase.

Wymagania wstępne

W tym przewodniku zakładamy, że potrafisz korzystać z Android Studio do tworzenia aplikacji na Androida.

  • Upewnij się, że Twoje środowisko programistyczne i aplikacja na Androida spełniają te wymagania:

    • Android Studio (najnowsza wersja)
    • Aplikacja na Androida musi być kierowana na interfejs API na poziomie 21 lub wyższym.
  • (Opcjonalnie) Zobacz przykładową aplikację.

    Pobieranie przykładowej aplikacji

    Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych przypadków użycia lub użyć przykładowej aplikacji, jeśli nie masz własnej aplikacji na Androida. Aby użyć przykładowej aplikacji, musisz połączyć ją z projektem Firebase.

Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację

Jeśli masz już projekt Firebase i aplikację połączoną z Firebase

  1. W konsoli Firebase otwórz stronę Build with Gemini (Utwórz z Gemini) i kliknij drugą kartę, aby uruchomić przepływ pracy, który pomoże Ci wykonać poniższe zadania. Jeśli w konsoli wyświetli się karta Vertex AI, oznacza to, że te zadania zostały wykonane.

  2. Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.

Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase


Krok 2. Dodaj pakiet SDK

Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do swojej aplikacji pakiet SDK Vertex AI dla Firebase.

Pakiet SDK Vertex AI dla Firebase na Androida (firebase-vertexai) zapewnia dostęp do interfejsu Vertex AI Gemini API.

W pliku konfiguracji Gradle modułu (na poziomie aplikacji) (np. <project>/<app-module>/build.gradle.kts) dodaj zależność z pakietem SDK Vertex AI dla Firebase na Androida:

Kotlin+KTX

dependencies {
  // ... other androidx dependencies

  // add the dependency for the Vertex AI for Firebase SDK for Android
  implementation("com.google.firebase:firebase-vertexai:16.0.0-beta01")
}

Java

W przypadku języka Java musisz dodać 2 dodatkowe biblioteki.

dependencies {
  // ... other androidx dependencies

  // add the dependency for the Vertex AI for Firebase SDK for Android
  implementation("com.google.firebase:firebase-vertexai:16.0.0-beta01")

  // Required for one-shot operations (to use `ListenableFuture` from Guava Android)
  implementation("com.google.guava:guava:31.0.1-android")

  // Required for streaming operations (to use `Publisher` from Reactive Streams)
  implementation("org.reactivestreams:reactive-streams:1.0.4")
}

Krok 3. Zainicjuj usługę Vertex AI i model generatywny

Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować usługę Vertex AI i model generatywny.

Kotlin+KTX

W przypadku Kotlin metody w tym pakiecie SDK są funkcjami zawieszania i trzeba je wywoływać z zakresu Coroutine.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash-preview-0514")

Java

W przypadku Javy metody strumieniowania w tym pakiecie SDK zwracają typ Publisher z biblioteki Reactive Streams.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
        .generativeModel("gemini-1.5-flash-preview-0514");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);

Po skorzystaniu z przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.

Krok 4. Wywołaj interfejs Vertex AI Gemini API

Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK oraz zainicjowaniu usługi Vertex AI i modelu generatywnego możesz zacząć wywoływać interfejs Vertex AI Gemini API.

Za pomocą generateContent() możesz wygenerować tekst na podstawie żądania promptu tekstowego:

Kotlin+KTX

W przypadku Kotlin metody w tym pakiecie SDK są funkcjami zawieszania i trzeba je wywoływać z zakresu Coroutine.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash-preview-0514")

// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."

// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)

Java

W przypadku Javy metody w tym pakiecie SDK zwracają ListenableFuture.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
        .generativeModel("gemini-1.5-flash-preview-0514");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);

// Provide a prompt that contains text
Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        System.out.println(resultText);
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Co jeszcze możesz zrobić?

Więcej informacji o modelach Gemini

Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.

Wypróbuj inne możliwości interfejsu Gemini API

Dowiedz się, jak kontrolować generowanie treści

Możesz też eksperymentować z promptami i konfiguracjami modeli za pomocą Vertex AI Studio.


Prześlij opinię na temat korzystania z Vertex AI dla Firebase