Gemini API przy użyciu: Firebase AI Logic
Twórz oparte na AI aplikacje mobilne i internetowe oraz funkcje za pomocą modeli Gemini przy użyciu Firebase AI Logic.
Firebase AI Logic zapewnia dostęp do najnowszych modeli generatywnej AI od Google: modeli Gemini.
Jeśli chcesz wywoływać Gemini API bezpośrednio z aplikacji mobilnej lub internetowej (a nie po stronie serwera), możesz użyć pakietów SDK klienta Firebase AI Logic. Te pakiety SDK klienta są tworzone specjalnie do użytku w aplikacjach mobilnych i internetowych. Oferują opcje zabezpieczeń przed nieautoryzowanymi klientami oraz integrację z innymi usługami Firebase.
Te pakiety SDK klienta są dostępne w językach Swift na platformy Apple, Kotlin i Java na Androida, JavaScript na potrzeby internetu, Dart na potrzeby Fluttera i Unity.
Dzięki tym pakietom SDK klienta możesz dodawać do aplikacji personalizację opartą na AI, tworzyć czaty AI, optymalizacje i automatyzacje oparte na AI i nie tylko.
Najważniejsze funkcje
| Wielomodalne wprowadzanie danych w języku naturalnym |
Gemini Modele są wielomodalne, więc prompty wysyłane do Gemini API mogą zawierać tekst, obrazy, pliki PDF, filmy i dźwięk. Niektóre modele Gemini mogą też generować multimodalne dane wyjściowe.
Modele Gemini mogą być wywoływane za pomocą danych wejściowych w języku naturalnym. |
| Coraz większy zestaw funkcji | Za pomocą pakietów SDK możesz wywoływać Gemini API bezpośrednio z aplikacji mobilnej lub aplikacji internetowej, aby tworzyć interfejsy czatu oparte na AI, generować obrazy, korzystać z narzędzi (takich jak wywoływanie funkcji i powiązanie ze źródłem informacji przy użyciu wyszukiwarki Google), przesyłać strumieniowo dane wejściowe i wyjściowe w różnych formatach (w tym audio) i wykonywać inne czynności. |
| Zapewnianie bezpieczeństwa i zapobieganie nadużyciom w przypadku aplikacji produkcyjnych |
Używaj Firebase App Check, aby chronić interfejsy API, które mają dostęp do modeli Gemini, przed nadużyciami ze strony nieautoryzowanych klientów.
Firebase AI Logic ma też limity szybkości na użytkownika domyślnie, a te limity szybkości na użytkownika można w pełni skonfigurować. |
| Solidna infrastruktura | Korzystaj ze skalowalnej infrastruktury stworzonej do użytku z aplikacjami mobilnymi i internetowymi, np. zarządzaj plikami za pomocą Cloud Storage for Firebase, zarządzaj danymi strukturalnymi za pomocą usług baz danych FirebaseCloud Firestore i dynamicznie ustawiaj konfiguracje czasu działania za pomocą Firebase Remote Config. |
Jak to działa?
Firebase AI Logic udostępnia pakiety SDK klienta, usługę proxy i inne funkcje, które umożliwiają dostęp do modeli generatywnej AI od Google w celu tworzenia funkcji AI w aplikacjach mobilnych i internetowych.
Pomoc dotycząca modeli Google i dostawców „Gemini API”
Obsługujemy wszystkie najnowsze modele Gemini, a Ty wybierasz preferowanego dostawcę „Gemini API”, aby uzyskać do nich dostęp. Obsługujemy zarówno Gemini Developer API, jak i Vertex AI Gemini API. Dowiedz się więcej o różnicach między korzystaniem z tych dwóch dostawców interfejsów API.
Jeśli zdecydujesz się użyć Gemini Developer API, możesz skorzystać z ich „bezpłatnego poziomu”, aby szybko rozpocząć pracę.
Pakiety SDK klienta mobilnego i internetowego
Żądania do modeli wysyłasz bezpośrednio z aplikacji mobilnej lub internetowej za pomocą naszych Firebase AI Logicpakietów SDK klienta, które są dostępne w językach Swift na platformy Apple, Kotlin i Java na Androida, JavaScript na potrzeby internetu, Dart na potrzeby Fluttera oraz Unity.
Jeśli w projekcie Firebase masz skonfigurowanych obu dostawców Gemini API, możesz przełączać się między nimi, włączając drugiego dostawcę interfejsu API i zmieniając kilka wierszy kodu inicjowania.
Dodatkowo kilka naszych pakietów SDK klienta oferuje dostęp do wnioskowania hybrydowego i na urządzeniu. Ta konfiguracja umożliwia aplikacji korzystanie z modelu na urządzeniu, gdy jest on dostępny, ale w razie potrzeby płynne przełączanie się na model hostowany w chmurze (i odwrotnie).
Usługa proxy
Nasza usługa proxy działa jako brama między klientem a wybranym przez Ciebie dostawcąGemini API (i modelami Google). Zapewnia usługi i integracje ważne dla aplikacji mobilnych i internetowych. Możesz na przykład skonfigurowaćFirebase App Check, aby chronić wybranego dostawcę interfejsu API i zasoby backendu przed nadużyciami ze strony nieautoryzowanych klientów.
Jest to szczególnie ważne, jeśli zdecydujesz się użyć Gemini Developer API, ponieważ nasza usługa pośrednicząca i ta integracja App Check zapewniają, że klucz interfejsu API Gemini pozostaje na serwerze i nie jest umieszczony w bazie kodu aplikacji.
Ścieżka implementacji
| Skonfiguruj projekt w Firebase i połącz aplikację z Firebase | Skorzystaj z przewodnika na stronie Firebase AI Logic konsoli Firebase, aby skonfigurować projekt (w tym włączyć wymagane interfejsy API dla wybranego dostawcy Gemini API), zarejestrować aplikację w projekcie w Firebase, a następnie dodać konfigurację Firebase do aplikacji. | |
| Instalowanie i inicjowanie pakietu SDK | Zainstaluj pakiet SDK Firebase AI Logic odpowiedni dla platformy aplikacji, a następnie zainicjuj usługę i utwórz w aplikacji instancję modelu. | |
| Wysyłanie żądań promptów do modeli Gemini | Za pomocą pakietów SDK możesz wysyłać do modelu Gemini prompty zawierające tylko tekst lub prompty multimodalne, aby generować tekst i kod, dane wyjściowe o określonej strukturze (np. JSON) oraz obrazy.
Twórz bogatsze doświadczenia dzięki czatowi wieloetapowemu, dwukierunkowej transmisji strumieniowej (w tym audio) i wywoływaniu funkcji. |
|
| Przygotowanie do wdrożenia wersji produkcyjnej | Wdróż ważne integracje w aplikacjach mobilnych i internetowych, takie jak ochrona interfejsu API przed nadużyciami za pomocą Firebase App Check i używanie Firebase Remote Config do zdalnego aktualizowania parametrów w kodzie (przede wszystkim nazwy modelu). |
Dalsze kroki
Pierwsze kroki z dostępem do modelu z aplikacji mobilnej lub internetowej
Otwórz przewodnik dla początkujących