Z tego przewodnika dowiesz się, jak zacząć wywoływać interfejs Vertex AI Gemini API bezpośrednio z poziomu aplikacji za pomocą pakietów SDK Vertex AI dla Firebase.
Wymagania wstępne
W tym przewodniku zakładamy, że potrafisz korzystać z Android Studio do tworzenia aplikacji na Androida.
Upewnij się, że Twoje środowisko programistyczne i aplikacja na Androida spełniają te wymagania:
- Android Studio (najnowsza wersja)
- Aplikacja na Androida musi być kierowana na interfejs API na poziomie 21 lub wyższym.
(Opcjonalnie) Zobacz przykładową aplikację.
Pobieranie przykładowej aplikacji
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych przypadków użycia lub użyć przykładowej aplikacji, jeśli nie masz własnej aplikacji na Androida. Aby użyć przykładowej aplikacji, musisz połączyć ją z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz stronę Build with Gemini (Utwórz z Gemini) i kliknij drugą kartę, aby uruchomić przepływ pracy, który pomoże Ci wykonać poniższe zadania. Jeśli w konsoli wyświetli się karta Vertex AI, oznacza to, że te zadania zostały wykonane.
Przenieś projekt na wyższy abonament, aby korzystać z abonamentu Blaze z płatnościami według wykorzystania.
Włącz w projekcie te 2 interfejsy API:
aiplatform.googleapis.com
ifirebaseml.googleapis.com
.
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do swojej aplikacji pakiet SDK Vertex AI dla Firebase.
Pakiet SDK Vertex AI dla Firebase na Androida (firebase-vertexai
) zapewnia dostęp do interfejsu Vertex AI Gemini API.
W pliku konfiguracji Gradle modułu (na poziomie aplikacji) (np. <project>/<app-module>/build.gradle.kts
) dodaj zależność z pakietem SDK Vertex AI dla Firebase na Androida:
Kotlin+KTX
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI for Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta01")
}
Java
W przypadku języka Java musisz dodać 2 dodatkowe biblioteki.
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI for Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta01")
// Required for one-shot operations (to use `ListenableFuture` from Guava Android)
implementation("com.google.guava:guava:31.0.1-android")
// Required for streaming operations (to use `Publisher` from Reactive Streams)
implementation("org.reactivestreams:reactive-streams:1.0.4")
}
Krok 3. Zainicjuj usługę Vertex AI i model generatywny
Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować usługę Vertex AI i model generatywny.
Kotlin+KTX
W przypadku Kotlin metody w tym pakiecie SDK są funkcjami zawieszania i trzeba je wywoływać z zakresu Coroutine.// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash-preview-0514")
Java
W przypadku Javy metody strumieniowania w tym pakiecie SDK zwracają typPublisher
z biblioteki Reactive Streams.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash-preview-0514");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Po skorzystaniu z przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.
Krok 4. Wywołaj interfejs Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK oraz zainicjowaniu usługi Vertex AI i modelu generatywnego możesz zacząć wywoływać interfejs Vertex AI Gemini API.
Za pomocą generateContent()
możesz wygenerować tekst na podstawie żądania promptu tekstowego:
Kotlin+KTX
W przypadku Kotlin metody w tym pakiecie SDK są funkcjami zawieszania i trzeba je wywoływać z zakresu Coroutine.// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash-preview-0514")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)
Java
W przypadku Javy metody w tym pakiecie SDK zwracająListenableFuture
.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash-preview-0514");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.
Wypróbuj inne możliwości interfejsu Gemini API
- Dowiedz się więcej o generowaniu tekstu na podstawie promptów tekstowych, w tym o sposobie strumieniowania odpowiedzi.
- Generuj tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio).
- tworzyć rozmowy wieloetapowe (czat),
- Używaj wywołania funkcji, aby łączyć modele generatywne z zewnętrznymi systemami i informacjami.
Dowiedz się, jak kontrolować generowanie treści
- Dowiedz się, jak projektować prompty, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uznane za szkodliwe.
Prześlij opinię na temat korzystania z Vertex AI dla Firebase