Za pomocą Firebase AI Logic możesz tworzyć aplikacje i funkcje na Androida oparte na AI, które korzystają z wnioskowania hybrydowego. Wnioskowanie hybrydowe umożliwia przeprowadzanie wnioskowania za pomocą modeli na urządzeniu, gdy są one dostępne, i płynne przełączanie się na modele hostowane w chmurze w przeciwnym razie (i odwrotnie).
Na tej stronie dowiesz się, jak zacząć korzystać z pakietu SDK klienta, oraz poznasz dodatkowe opcje konfiguracji i funkcje, takie jak temperatura.
Pamiętaj, że wnioskowanie na urządzeniu za pomocą Firebase AI Logic jest obsługiwane w przypadku aplikacji na Androida działających na określonych urządzeniach i podlega warunkom ML Kit, a także warunkom dotyczącym aspektów Gen AI w ML Kit.
Zalecane przypadki użycia i obsługiwane funkcje
Zalecane przypadki użycia
Korzystanie z modelu na urządzeniu do wnioskowania zapewnia:
- większą prywatność,
- kontekst lokalny,
- wnioskowanie bezpłatne,
- funkcje offline.
Korzystanie z funkcji hybrydowych zapewnia:
- docieranie do większej liczby odbiorców dzięki uwzględnianiu dostępności modelu na urządzeniu i połączenia z internetem.
Obsługiwane funkcje i możliwości wnioskowania na urządzeniu
Wnioskowanie na urządzeniu obsługuje tylko generowanie tekstu w ramach jednej tury (nie czatu) z wyjściem strumieniowym lub niestrumieniowym. Obsługuje te funkcje generowania tekstu:
generowanie tekstu na podstawie danych wejściowych zawierających tylko tekst
generowanie tekstu na podstawie danych wejściowych zawierających tekst i obraz, w szczególności pojedynczy obraz Bitmap jako dane wejściowe.
Zanim zaczniesz
Pamiętaj o tych kwestiach:
Obsługiwane interfejsy API:
Wnioskowanie w chmurze korzysta z wybranego dostawcy Gemini API (albo Gemini Developer API albo Vertex AI Gemini API).
Wnioskowanie na urządzeniu korzysta z Prompt API z ML Kit, które jest w wersji beta i dostępne tylko na określonych urządzeniach.
Na tej stronie dowiesz się, jak zacząć.
Po zakończeniu standardowej konfiguracji zapoznaj się z dodatkowymi opcjami konfiguracji i funkcjami (takimi jak ustawianie temperatury).
Obsługiwane urządzenia z Androidem i ich modele na urządzeniu
W przypadku wnioskowania na urządzeniu (które korzysta z Prompt API z ML Kit) listę obsługiwanych urządzeń i ich modeli na urządzeniu znajdziesz w dokumentacji ML Kit.
Rozpocznij
Te instrukcje dotyczące pierwszych kroków opisują wymaganą konfigurację ogólną dla każdego obsługiwanego żądania prompta, które chcesz wysłać.
Krok 1. Skonfiguruj projekt w Firebase i połącz aplikację z Firebase
Zaloguj się w konsoli Firebase, i wybierz projekt w Firebase.
W konsoli Firebase otwórz Usługi AI > AI Logic.
Kliknij Rozpocznij , aby uruchomić proces z przewodnikiem, który pomoże Ci skonfigurować wymagane interfejsy API i zasoby w projekcie.
Skonfiguruj projekt tak, aby korzystał z dostawcy „Gemini API”.
Zalecamy rozpoczęcie korzystania z Gemini Developer API. W każdej chwili możesz zawsze skonfigurować Vertex AI Gemini API (i jego wymaganie dotyczące płatności).
W przypadku Gemini Developer API, konsola włączy wymagane interfejsy API i utworzy klucz Gemini API w Twoim projekcie.
Nie dodawaj tego klucza interfejsu API Gemini do bazy kodu aplikacji. Więcej informacjiJeśli w procesie w konsoli pojawi się prośba, wykonaj instrukcje wyświetlane na ekranie, aby zarejestrować aplikację i połączyć ją z Firebase.
Aby dodać pakiet SDK do aplikacji, przejdź do następnego kroku w tym przewodniku.
Krok 2. Dodaj wymagane pakiety SDK
Zestaw SDK Firebase AI Logic na Androida
(firebase-aifirebase-ai-ondevice
W pliku Gradle modułu (na poziomie aplikacji)
(np. <project>/<app-module>/build.gradle.kts) dodaj zależności bibliotek
Firebase AI Logic na Androida:
Kotlin
dependencies { // ... other androidx dependencies // Add the dependencies for the Firebase AI Logic libraries // Note that the on-device SDK is not yet included in the Firebase Android BoM implementation("com.google.firebase:firebase-ai:17.12.0") implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta02") }
Java
W przypadku Javy musisz dodać 2 dodatkowe biblioteki.
dependencies { // ... other androidx dependencies // Add the dependencies for the Firebase AI Logic libraries // Note that the on-device SDK is not yet included in the Firebase Android BoM implementation("com.google.firebase:firebase-ai:17.12.0") implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta02") // Required for one-shot operations (to use `ListenableFuture` from Guava Android) implementation("com.google.guava:guava:31.0.1-android") // Required for streaming operations (to use `Publisher` from Reactive Streams) implementation("org.reactivestreams:reactive-streams:1.0.4") }
Krok 3. Sprawdź, czy model na urządzeniu jest dostępny
Za pomocą
FirebaseAIOnDevice,
sprawdź, czy model na urządzeniu jest dostępny, i pobierz go, jeśli nie jest
dostępny.
Po pobraniu AICore będzie automatycznie aktualizować model. Więcej informacji o AICore i zarządzaniu pobieraniem modelu na urządzeniu znajdziesz w uwagach po fragmencie kodu.
Kotlin
val status = FirebaseAIOnDevice.checkStatus()
when (status) {
OnDeviceModelStatus.UNAVAILABLE -> {
Log.w(TAG, "On-device model is unavailable")
}
OnDeviceModelStatus.DOWNLOADABLE -> {
FirebaseAIOnDevice.download().collect { status ->
when (status) {
is DownloadStatus.DownloadStarted ->
Log.w(TAG, "Starting download - ${status.bytesToDownload}")
is DownloadStatus.DownloadInProgress ->
Log.w(TAG, "Download in progress ${status.totalBytesDownloaded} bytes downloaded")
is DownloadStatus.DownloadCompleted ->
Log.w(TAG, "On-device model download complete")
is DownloadStatus.DownloadFailed ->
Log.e(TAG, "Download failed ${status}")
}
}
}
OnDeviceModelStatus.DOWNLOADING -> {
Log.w(TAG, "On-device model is being downloaded")
}
OnDeviceModelStatus.AVAILABLE -> {
Log.w(TAG, "On-device model is available")
}
}
Java
Checking for and downloading the model is not yet available for Java.
However, all other APIs and interactions in this guide are available for Java.
Pamiętaj o tych kwestiach dotyczących pobierania modelu na urządzeniu:
Czas pobierania modelu na urządzeniu zależy od wielu czynników, w tym od sieci.
Jeśli Twój kod używa modelu na urządzeniu do wnioskowania podstawowego lub rezerwowego, upewnij się, że model został pobrany na wczesnym etapie cyklu życia aplikacji, aby był dostępny, zanim użytkownicy końcowi napotkają kod w aplikacji.
Jeśli model na urządzeniu nie jest dostępny , gdy wysyłane jest żądanie wnioskowania na urządzeniu, pakiet SDK nie spowoduje automatycznie pobrania modelu na urządzeniu. Pakiet SDK przełączy się na model hostowany w chmurze lub zgłosi wyjątek (szczegóły dotyczące działania trybów wnioskowania).
AICore (usługa systemowa Androida) zarządza pobieraniem modelu i jego wersji, aktualizowaniem modelu itp. Pamiętaj, że na urządzeniu będzie pobrany tylko 1 model. Jeśli inna aplikacja na urządzeniu wcześniej pobrała model na urządzeniu, to sprawdzenie zwróci informację, że model jest dostępny.
Optymalizacja czasu oczekiwania
Aby zoptymalizować pierwsze wywołanie wnioskowania, możesz użyć w aplikacji funkcji
warmup().
Spowoduje to wczytanie modelu na urządzeniu do pamięci i zainicjowanie komponentów środowiska wykonawczego.
Krok 4. Zainicjuj usługę i utwórz instancję modelu
|
Kliknij dostawcę Gemini API, aby wyświetlić na tej stronie treści i kod specyficzne dla dostawcy. |
Zanim wyślesz do modelu żądanie prompta, skonfiguruj te elementy:
Zainicjuj usługę dla wybranego dostawcy interfejsu API.
Utwórz instancję
GenerativeModeli ustawmodena jedną z tych wartości. Opisy są bardzo ogólne, ale szczegóły dotyczące działania tych trybów znajdziesz w artykule Ustawianie trybu wnioskowania.PREFER_ON_DEVICE: próba użycia modelu na urządzeniu; w przeciwnym razie przełącz się na model hostowany w chmurze.ONLY_ON_DEVICE: próba użycia modelu na urządzeniu; w przeciwnym razie zgłoś wyjątek.PREFER_IN_CLOUD: próba użycia modelu hostowanego w chmurze; w przeciwnym razie przełącz się na model na urządzeniu.ONLY_IN_CLOUD: próba użycia modelu hostowanego w chmurze; w przeciwnym razie zgłoś wyjątek.
Kotlin
// Using this SDK to access on-device inference is an Experimental release and requires opt-in
@OptIn(PublicPreviewAPI::class)
// ...
// Initialize the Gemini Developer API backend service
// Create a GenerativeModel instance with a model that supports your use case
// Set the inference mode (like PREFER_ON_DEVICE to use the on-device model if available)
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel(
modelName = "MODEL_NAME",
onDeviceConfig = OnDeviceConfig(mode = InferenceMode.PREFER_ON_DEVICE)
)
Java
// Initialize the Gemini Developer API backend service
// Create a GenerativeModel instance with a model that supports your use case
// Set the inference mode (like PREFER_ON_DEVICE to use the on-device model if available)
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel(
"MODEL_NAME",
new OnDeviceConfig(InferenceMode.PREFER_ON_DEVICE)
);
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
Krok 5. Wyślij do modelu żądanie prompta
W tej sekcji dowiesz się, jak wysyłać różne typy danych wejściowych, aby generować różne typy danych wyjściowych, w tym:
generowanie tekstu na podstawie danych wejściowych zawierających tylko tekst,
generowanie tekstu na podstawie danych wejściowych zawierających tekst i obraz (multimodalnych).
Generowanie tekstu na podstawie danych wejściowych zawierających tylko tekst
| Zanim wypróbujesz ten przykład, upewnij się, że masz za sobą sekcję Pierwsze kroki w tym przewodniku. |
Za pomocą
generateContent()
możesz generować tekst na podstawie prompta zawierającego tekst:
Kotlin
// Imports + initialization of Gemini API backend service + creation of model instance
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = model.generateContent(prompt)
print(response.text)
Java
// Imports + initialization of Gemini API backend service + creation of model instance
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Pamiętaj, że Firebase AI Logic obsługuje też przesyłanie strumieniowe odpowiedzi tekstowych za pomocą
generateContentStream
(zamiast generateContent).
Generowanie tekstu na podstawie danych wejściowych zawierających tekst i obraz (multimodalnych)
| Zanim wypróbujesz ten przykład, upewnij się, że masz za sobą sekcję Pierwsze kroki w tym przewodniku. |
Za pomocą
generateContent()
możesz generować tekst na podstawie prompta zawierającego tekst i maksymalnie 1 plik obrazu
(tylko Bitmap) – podając mimeType każdego pliku wejściowego i sam plik.
Kotlin
// Imports + initialization of Gemini API backend service + creation of model instance
// Loads an image from the app/res/drawable/ directory
val bitmap: Bitmap = BitmapFactory.decodeResource(resources, R.drawable.sparky)
// Provide a prompt that includes the image specified above and text
val prompt = content {
image(bitmap)
text("What developer tool is this mascot from?")
}
// To generate text output, call generateContent with the prompt
val response = model.generateContent(prompt)
print(response.text)
Java
// Imports + initialization of Gemini API backend service + creation of model instance
Bitmap bitmap = BitmapFactory.decodeResource(getResources(), R.drawable.sparky);
// Provide a prompt that includes the image specified above and text
Content content = new Content.Builder()
.addImage(bitmap)
.addText("What developer tool is this mascot from?")
.build();
// To generate text output, call generateContent with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(content);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Pamiętaj, że Firebase AI Logic obsługuje też przesyłanie strumieniowe odpowiedzi tekstowych za pomocą
generateContentStream
(zamiast generateContent).
Co jeszcze możesz zrobić?
W przypadku rozwiązań hybrydowych możesz używać różnych dodatkowych opcji konfiguracji i funkcji:
Określ, czy użyto wnioskowania na urządzeniu, czy w chmurze.
Użyj konfiguracji modelu, aby kontrolować odpowiedzi (np. temperaturę).
Funkcje, które nie są jeszcze dostępne w przypadku wnioskowania na urządzeniu
W wersji eksperymentalnej nie wszystkie funkcje modeli w chmurze są dostępne w przypadku wnioskowania na urządzeniu.
Funkcje wymienione w tej sekcji nie są jeszcze dostępne w przypadku wnioskowania na urządzeniu. Jeśli chcesz używać którejś z tych funkcji, zalecamy używanie trybu wnioskowania ONLY_IN_CLOUD, aby zapewnić większą spójność.
Generowanie danych wyjściowych o ustrukturyzowanej postaci (np. JSON lub wyliczenia)
Generowanie tekstu na podstawie typów plików obrazów innych niż Bitmap (obraz wczytany do pamięci)
Generowanie tekstu na podstawie więcej niż 1 pliku obrazu
Generowanie tekstu na podstawie danych wejściowych audio, wideo i dokumentów (np. plików PDF)
Generowanie obrazów za pomocą modeli Gemini lub Imagen
Udostępnianie plików za pomocą adresów URL w żądaniach multimodalnych. Pliki musisz udostępniać jako dane wbudowane w modelach na urządzeniu.
Wysyłanie żądań przekraczających 4000 tokenów (czyli około 3000 słów w języku angielskim).
Czat wieloetapowy
Udostępnianie modelowi narzędzi, które pomogą mu generować odpowiedzi (takich jak wywoływanie funkcji, wykonywanie kodu, kontekst adresu URL i Grounding z
Google Search )
Monitorowanie wykorzystania AI w konsoli Firebase nie pokazuje żadnych danych dotyczących wnioskowania na urządzeniu (w tym dzienników urządzenia). Można jednak monitorować każde wnioskowanie, które korzysta z modelu hostowanego w chmurze, tak samo jak inne wnioskowanie za pomocą Firebase AI Logic.
Dodatkowe ograniczenia
Użytkownik końcowy aplikacji musi używać urządzenia obsługującego wnioskowanie na urządzeniu.
Aplikacja może przeprowadzać wnioskowanie na urządzeniu tylko wtedy, gdy działa na pierwszym planie.
Wnioskowanie na urządzeniu zostało zweryfikowane tylko w języku angielskim i koreańskim.
Maksymalny limit tokenów dla całego żądania wnioskowania na urządzeniu wynosi 4000 tokenów. Jeśli Twoje żądania mogą przekroczyć ten limit, skonfiguruj tryb wnioskowania, który może używać modelu hostowanego w chmurze.
Zalecamy unikanie przypadków użycia wnioskowania na urządzeniu, które wymagają długich danych wyjściowych (ponad 256 tokenów).
AICore (usługa systemowa Androida, która zarządza modelami na urządzeniu) egzekwuje limit wnioskowania na aplikację. Zbyt duża liczba żądań interfejsu API w krótkim czasie spowoduje odpowiedź
ErrorCode.BUSY. Jeśli otrzymujesz ten błąd, rozważ użycie wzrastającego czasu do ponowienia, aby ponowić próbę wysłania żądania. Jeśli aplikacja przekroczy limit długotrwały (np. dzienny), może też zostać zwrócony kodErrorCode.PER_APP_BATTERY_USE_QUOTA_EXCEEDED.
Prześlij opinię o korzystaniu z Firebase AI Logic