W tym przewodniku znajdziesz informacje o tym, jak zacząć korzystać z funkcji Vertex AI Gemini API bezpośrednio z aplikacji za pomocą pakietu SDK Vertex AI in Firebase przeznaczonego dla wybranej platformy.
Inne opcje dotyczące Gemini API
Opcjonalnie możesz wypróbować alternatywną wersję „Google AI” usługi Gemini API
. Możesz uzyskać bezpłatny dostęp (w ograniczonym zakresie i w miejscach, w których jest dostępny) za pomocą pakietów SDK klienta Google AI Studio i Google AI. Pakiety SDK powinny być używane tylko do tworzenia prototypów w aplikacjach mobilnych i internetowych.Gdy już poznasz działanie interfejsu Gemini API, przenieś się na nasze pakiety Vertex AI in Firebase SDK (ta dokumentacja), które zawierają wiele dodatkowych funkcji ważnych dla aplikacji mobilnych i internetowych, takich jak ochrona interfejsu API przed nadużyciami za pomocą Firebase App Check oraz obsługa dużych plików multimedialnych w żądaniach.
Opcjonalnie wywołaj Vertex AI Gemini API po stronie serwera (np. w Pythonie, Node.js lub Go)
Użyj pakietu Vertex AI SDK po stronie serwera Genkit lub Firebase Extensions dla Gemini API.
Pamiętaj, że możesz też skorzystać z tego przewodnika, aby rozpocząć dostępowanie do modeli Imagen za pomocą pakietów SDK Vertex AI in Firebase.
Wymagania wstępne
W tym przewodniku zakładamy, że wiesz, jak używać Android Studio do tworzenia aplikacji na Androida.
Upewnij się, że środowisko programistyczne i aplikacja na Androida spełniają te wymagania:
- Android Studio (najnowsza wersja)
- Twoja aplikacja jest kierowana na interfejs API na poziomie 21 lub wyższym.
(Opcjonalnie) Wypróbuj przykładową aplikację.
Możesz szybko wypróbować pakiet SDK, zobaczyć pełne wdrożenie różnych przypadków użycia lub użyć przykładowej aplikacji, jeśli nie masz własnej aplikacji na Androida. Aby użyć przykładowej aplikacji, musisz połączyć ją z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nim aplikację.
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz stronę Vertex AI.
Kliknij kartę Vertex AI in Firebase, aby uruchomić przepływ pracy, który pomoże Ci wykonać te czynności:
Przejdź w projekcie na abonament Blaze z taryfą płatności według wykorzystania.
Włącz wymagane interfejsy API w projekcie (interfejs API Vertex AI i interfejs API Vertex AI in Firebase).
Aby dodać pakiet SDK do aplikacji, przejdź do następnego kroku w tym przewodniku.
Jeśli nie masz jeszcze projektu Firebase i aplikacji połączonej z Firebase:
Konfigurowanie projektu Firebase
Zaloguj się w konsoli Firebase.
Kliknij Utwórz projekt, a potem wybierz jedną z tych opcji:
Opcja 1: utwórz zupełnie nowy projekt Firebase (i jego podstawowy projekt Google Cloud automatycznie), wpisując nową nazwę projektu w pierwszym kroku procesu „Tworzenie projektu”.
Opcja 2: dodaj Firebase do istniejącego projektu Google Cloud, wybierając jego nazwę Google Cloud w menu w pierwszym kroku procesu „Tworzenie projektu”.
Pamiętaj, że w razie wyświetlenia prośby nie musisz konfigurować pakietu Google Analytics, aby używać pakietów SDK Vertex AI in Firebase.
W konsoli Firebase otwórz stronę Vertex AI.
Kliknij kartę Vertex AI in Firebase, aby uruchomić przepływ pracy, który pomoże Ci wykonać te czynności:
Przejdź w projekcie na abonament Blaze z taryfą płatności według wykorzystania.
Włącz wymagane interfejsy API w projekcie (interfejs API Vertex AI i interfejs API Vertex AI in Firebase).
Łączenie aplikacji z Firebase
Kontynuuj pracę w konsoli w ramach procesu generatywnej AI, aby połączyć aplikację z Firebase. Obejmuje on te zadania:
Zarejestruj aplikację w projekcie Firebase.
Dodaj do aplikacji plik konfiguracji Firebase (
) i wtyczkę Gradle (google-services.json
).google-services
W kolejnych krokach tego przewodnika dodasz do aplikacji pakiet SDK Vertex AI in Firebase i przeprowadzisz wymaganą przez niego inicjalizację, która jest specyficzna dla tego pakietu i elementu Gemini API.
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do aplikacji pakiet SDK Vertex AI in Firebase.
Pakiet SDK Vertex AI in Firebase na Androida (firebase-vertexai
) zapewnia dostęp do interfejsów API umożliwiających interakcję z modelami Gemini i Imagen.
W pliku Gradle na poziomie modułu (aplikacji) (np. <project>/<app-module>/build.gradle.kts
)
dodaj zależność z biblioteką Vertex AI in Firebase na Androida.
Zalecamy używanie Firebase Android BoM do kontrolowania wersji biblioteki.
dependencies { // ... other androidx dependencies // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.12.0")) // Add the dependency for the Vertex AI in Firebase library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai") }
W przypadku Javy musisz dodać 2 dodatkowe biblioteki.
dependencies { // ... other androidx dependencies // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.12.0")) // Add the dependency for the Vertex AI in Firebase library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai") // Required for one-shot operations (to use `ListenableFuture` from Guava Android) implementation("com.google.guava:guava:31.0.1-android") // Required for streaming operations (to use `Publisher` from Reactive Streams) implementation("org.reactivestreams:reactive-streams:1.0.4") }
Dzięki użyciu Firebase Android BoM aplikacja będzie zawsze używać zgodnych wersji bibliotek Firebase na Androida.
(Alternatywnie) Dodaj zależności biblioteki Firebase bez BoM
Jeśli z niego nie korzystasz, musisz podać każdą wersję biblioteki Firebase w linii zależności.Firebase BoM
Jeśli w aplikacji używasz kilku bibliotek Firebase, zdecydowanie zalecamy korzystanie z BoM do zarządzania wersjami bibliotek. Dzięki temu wszystkie wersje będą zgodne.
dependencies { // Add the dependency for the Vertex AI in Firebase library // When NOT using the BoM, you must specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai:16.3.0") }
Krok 3. Inicjuj usługę Vertex AI i utwórz instancję GenerativeModel
.
Zanim zaczniesz wykonywać wywołania interfejsu API i wysyłać prompt do modelu Gemini, musisz zainicjować usługę Vertex AI i utworzyć instancję GenerativeModel
.
// Initialize the Vertex AI service and create a `GenerativeModel` instance
// Specify a model that supports your use case
val generativeModel = Firebase.vertexAI.generativeModel("gemini-2.0-flash")
Publisher
z biblioteki Reaktywne strumienie.
// Initialize the Vertex AI service and create a `GenerativeModel` instance
// Specify a model that supports your use case
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Po przeczytaniu tego przewodnika dowiesz się, jak wybrać model i (opcjonalnie) lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.
Krok 4. Wyślij prośbę o prompt do modelu
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i inicjalizacji usługi Vertex AI oraz modelu generatywnego możesz wysłać prośbę o prompt do modelu Gemini.
Możesz użyć generateContent()
, aby wygenerować tekst z promptu tekstowego:
// Initialize the Vertex AI service and create a `GenerativeModel` instance
// Specify a model that supports your use case
val generativeModel = Firebase.vertexAI.generativeModel("gemini-2.0-flash")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)
ListenableFuture
.
// Initialize the Vertex AI service and create a `GenerativeModel` instance
// Specify a model that supports your use case
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-2.0-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Co jeszcze możesz zrobić?
Więcej informacji o obsługiwanych modelach
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz o ich limitach i cenach.
Wypróbuj inne funkcje
- Dowiedz się więcej o generowaniu tekstu na podstawie promptów tekstowych, w tym o przesyłaniu odpowiedzi.
- generować tekst na podstawie promptów multimodalnych (w tym tekst, obrazy, pliki PDF, filmy i pliki audio).
- tworzyć rozmowy wieloetapowe (czat);
- generować dane wyjściowe w uporządkowanym formacie (np. JSON) na podstawie zarówno tekstowych, jak i wielomodalnych promptów;
- generować obrazy na podstawie promptów tekstowych;
- Użyj funkcji wywoływania, aby połączyć modele generatywne z zewnętrznymi systemami i informacjami.
Dowiedz się, jak kontrolować generowanie treści
- Poznaj projektowanie promptów, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych (w przypadku Gemini) lub format obrazu i generowanie osób (w przypadku Imagen).
- Używaj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uważane za szkodliwe.
Prześlij opinię o tym, jak oceniasz korzystanie z usługi Vertex AI in Firebase