W tym przewodniku znajdziesz informacje o tym, jak zacząć korzystać z funkcji Vertex AI Gemini API bezpośrednio z aplikacji za pomocą pakietu SDK Vertex AI in Firebase na wybranej platformie.
Wymagania wstępne
W tym przewodniku zakładamy, że znasz już podstawy tworzenia aplikacji za pomocą Fluttera.
Upewnij się, że Twoje środowisko programistyczne i aplikacja Flutter spełniają te wymagania:
- Dart 3.2.0+
(Opcjonalnie) Zapoznaj się z przykładową aplikacją.
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych przypadków użycia lub użyć przykładowej aplikacji, jeśli nie masz własnej aplikacji Flutter. Aby użyć przykładowej aplikacji, musisz połączyć ją z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nim aplikację.
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz stronę Tworzenie za pomocą Gemini.
Kliknij kartę Vertex AI in Firebase, aby uruchomić przepływ pracy, który pomoże Ci wykonać te zadania:
Przejdź w projekcie na abonament Blaze z taryfą „pay-as-you-go”.
Włącz wymagane interfejsy API w projekcie (Vertex AI API i Vertex AI in Firebase API).
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do swojej aplikacji pakiet SDK Vertex AI in Firebase.
Wtyczka Vertex AI in Firebase do Flutter (firebase_vertexai
) zapewnia dostęp do Vertex AI Gemini API.
Aby zainstalować podstawową wtyczkę w katalogu projektu Flutter, uruchom to polecenie:
flutter pub add firebase_core
W pliku
lib/main.dart
zaimportuj wcześniej wygenerowany podstawowy wtyczkę Firebase i plik konfiguracji:import 'package:firebase_core/firebase_core.dart'; import 'firebase_options.dart';
Także w pliku
lib/main.dart
zainicjuj Firebase za pomocą obiektuDefaultFirebaseOptions
wyeksportowanego z pliku konfiguracji:await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, );
Ponownie skompiluj aplikację Flutter:
flutter run
W katalogu projektu Flutter uruchom to polecenie:
flutter pub add firebase_vertexai
Po zakończeniu odbuduj projekt Flutter:
flutter run
Krok 3. Zainicjuj usługę Vertex AI i model generatywny
Zanim zaczniesz wykonywać wywołania interfejsu API, musisz zainicjować usługę Vertex AIi model generatywny.
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
// Initialize FirebaseApp
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
Po przeczytaniu tego przewodnika dowiesz się, jak wybrać model Gemini i (opcjonalnie) lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.
Krok 4. Zadzwoń pod numer Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i zainicjowaniu usługi Vertex AI oraz modelu generatywnego możesz wywołać Vertex AI Gemini API.
Możesz użyć generateContent()
, aby wygenerować tekst z promptu tekstowego w ramach żądania:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.
Wypróbuj inne funkcje urządzenia Gemini API
- Dowiedz się więcej o generowaniu tekstu na podstawie promptów tekstowych, w tym o przesyłaniu odpowiedzi.
- generować tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio);
- tworzyć rozmowy wieloetapowe (czat),
- generować dane wyjściowe w uporządkowanym formacie (np. JSON) zarówno na podstawie tekstowych, jak i wielomodalnych promptów;
- Aby połączyć modele generatywne z zewnętrznymi systemami i informacjami, użyj wywołania funkcji.
Dowiedz się, jak kontrolować generowanie treści
- Dowiedz się, jak projektować prompty, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uznane za szkodliwe.
Podziel się opinią na temat korzystania z usługi Vertex AI in Firebase