Gdy wszystko będzie gotowe do uruchomienia aplikacji i do interakcji z funkcjami generatywnej AI przez prawdziwych użytkowników, zapoznaj się z tą listą kontrolną sprawdzonych metod i ważnych kwestii.
Ogólne
Sprawdź ogólną listę kontrolną dotyczącą wdrażania aplikacji korzystających z Firebase
Ta lista kontrolna wdrażania Firebase zawiera ważne sprawdzone metody, które warto zastosować przed wdrożeniem aplikacji Firebase w wersji produkcyjnej.
Upewnij się, że Twoje projekty Firebase są zgodne ze sprawdzonymi metodami
Upewnij się na przykład, że używasz różnych projektów Firebase do tworzenia, testowania i produkcji. Zapoznaj się ze sprawdzonymi metodami zarządzania projektami.
Dostęp i bezpieczeństwo
Sprawdź ogólną listę kontrolną zabezpieczeń w przypadku aplikacji korzystających z Firebase
Ta lista kontrolna zabezpieczeń zawiera ważne sprawdzone metody dotyczące dostępu i bezpieczeństwa aplikacji i usług Firebase.
Rozpocznij wykonywanie Firebase App Check
App Check pomaga chronić Vertex AI Gemini API, weryfikując, czy żądania pochodzą z Twojej aplikacji. Obsługuje dostawców usług atestatycznych na platformach Apple (DeviceCheck lub App Attest), Android (Play Integrity) i w internecie (reCAPTCHA Enterprise).
Konfigurowanie ograniczeń kluczy interfejsu API Firebase
Sprawdź ograniczenia klucza interfejsu API w przypadku każdego klucza interfejsu API Firebase: allowlist:
Upewnij się, że interfejs API Vertex AI in Firebase znajduje się na liście dozwolonych.
Upewnij się, że na liście dozwolonych interfejsów API klucza znajdują się tylko interfejsy API usług Firebase, których używasz w aplikacji. Zapoznaj się z listą interfejsów API, które muszą znajdować się na liście dozwolonych dla poszczególnych usług.
Ustaw „Ograniczenia aplikacji”, aby ograniczyć użycie każdego klucza interfejsu API Firebase tylko do żądań z Twojej aplikacji (np. dopasowując identyfikator pakietu w przypadku aplikacji Apple). Pamiętaj, że nawet jeśli ograniczysz dostęp do klucza, Firebase App Check nadal jest zdecydowanie zalecane.
Pamiętaj, że interfejsy API związane z Firebase używają kluczy API tylko do identyfikowania projektu lub aplikacji Firebase, a nie do autoryzacji wywołania interfejsu API.
Wyłącz nieużywane interfejsy API w projekcie Firebase
Jeśli na przykład najpierw wypróbowałeś interfejs Gemini API za pomocą interfejsu Google AI Studio, możesz teraz wyłączyć interfejs Generative Language API. Twoja aplikacja używa teraz interfejsu Vertex AI in Firebase, który korzysta z interfejsu Vertex AI API i interfejsu Vertex AI in Firebase API.
Rozliczenia i limity
Sprawdź limity dla wymaganych interfejsów API
Korzystanie z interfejsu Vertex AI in Firebase wymaga 2 interfejsów API: Vertex AI i Vertex AI in Firebase.
Limity poszczególnych interfejsów API są mierzone nieco inaczej, co oznacza, że można ich używać do różnych celów. Ważne informacje znajdziesz w artykule Poznaj limity dotyczące poszczególnych interfejsów API.
Pamiętaj, że limity są też zmienne w zależności od modelu i regionu, dlatego odpowiednio dostosuj limity do swoich użytkowników i przypadków użycia.
W razie potrzeby możesz też zmienić limit lub poprosić o jego zwiększenie.
Unikaj niespodziewanych rachunków
Sprawdzoną metodą w przypadku wersji produkcyjnej jest monitorowanie wykorzystania i ustawianie alertów dotyczących budżetu.
Zarządzanie konfiguracjami
Używanie stabilnej wersji modelu w produkcyjnej aplikacji
W wersji produkcyjnej aplikacji używaj tylko stabilnych wersji modelu (np. gemini-1.5-flash-002
), a nie wersji podglądu ani automatycznie aktualizowanych.
Chociaż automatycznie aktualizowana wersja wskazuje wersję stabilną, to rzeczywista wersja modelu, do której się odnosi, automatycznie się zmieni, gdy zostanie wydana nowa wersja stabilna. Może to spowodować nieoczekiwane działanie lub odpowiedzi. Ponadto wersje podglądu są zalecane tylko podczas prototypowania.
Zdecydowanie zalecamy też używanie Firebase Remote Config do kontrolowania i aktualizowania nazwy modelu używanej w aplikacji (szczegóły znajdziesz w następnej sekcji).
Konfigurowanie i używanie Firebase Remote Config
Dzięki Remote Config możesz zarządzać ważnymi konfiguracjami funkcji generatywnej AI w chmurze zamiast kodować wartości w kodzie. Oznacza to, że możesz zaktualizować konfigurację bez publikowania nowej wersji aplikacji. Za pomocą funkcji Remote Config możesz robić wiele rzeczy, ale poniżej znajdziesz najważniejsze wartości, które zalecamy kontrolować zdalnie w przypadku funkcji generatywnej AI:
Aktualizuj aplikację.
- Nazwa modelu: zaktualizuj model, którego używa aplikacja, gdy zostaną wydane nowe modele lub wycofane inne.
Dostosowywanie wartości i danych wejściowych na podstawie atrybutów klienta lub opinii z testów bądź od użytkowników.
Konfiguracja modelu: dostosowywanie temperatury, maksymalnej liczby tokenów wyjściowych i innych ustawień.
Ustawienia bezpieczeństwa: dostosuj ustawienia bezpieczeństwa, jeśli zbyt wiele odpowiedzi jest blokowanych lub jeśli użytkownicy zgłaszają szkodliwe odpowiedzi.
Instrukcje systemowe i podane przez Ciebie prompty: dostosuj dodatkowy kontekst, który wysyłasz do modelu, aby kierować jego odpowiedziami i zachowaniem. Możesz na przykład dostosować prompty do określonych typów klientów lub spersonalizować prompty dla nowych użytkowników, które różnią się od tych używanych do generowania odpowiedzi dla obecnych użytkowników.
Możesz też opcjonalnie ustawić parametr minimum_version
w Remote Config, aby porównać bieżącą wersję aplikacji z najnowszą wersją zdefiniowaną w Remote Config. Dzięki temu możesz wyświetlić użytkownikom powiadomienie o konieczności uaktualnienia lub wymusić uaktualnienie.
Ustaw lokalizację, w której ma być uruchamiany usługa Vertex AI i uzyskiwać dostęp do modelu
Ustawienie lokalizacji może pomóc w ograniczeniu kosztów i opóźnień dla użytkowników.
Jeśli nie określisz lokalizacji, zostanie użyta wartość domyślna us-central1
. Możesz ustawić tę lokalizację podczas inicjalizacji lub opcjonalnie użyć funkcji Firebase Remote Config, aby dynamicznie zmieniać lokalizację na podstawie lokalizacji każdego użytkownika.