Gdy wszystko będzie gotowe do uruchomienia aplikacji i do interakcji z funkcjami generatywnej AI przez prawdziwych użytkowników, zapoznaj się z tą listą kontrolną sprawdzonych metod i ważnych kwestii.
Ogólne
Sprawdź ogólną listę kontrolną dotyczącą wdrażania aplikacji korzystających z Firebase
Ta lista kontrolna wdrażania Firebase zawiera ważne sprawdzone metody, które warto zastosować przed wdrożeniem aplikacji Firebase w wersji produkcyjnej.
Upewnij się, że Twoje projekty Firebase są zgodne ze sprawdzonymi metodami
Upewnij się na przykład, że używasz różnych projektów Firebase do tworzenia, testowania i produkcji. Zapoznaj się ze sprawdzonymi metodami zarządzania projektami.
Dostęp i bezpieczeństwo
Sprawdź ogólną listę kontrolną zabezpieczeń w przypadku aplikacji korzystających z Firebase
Na tej liście kontrolnej zabezpieczeń znajdziesz ważne sprawdzone metody dotyczące dostępu do aplikacji i usług Firebase oraz zapewniania bezpieczeństwa w tych usługach.
Rozpocznij przestrzeganie Firebase App Check
App Check pomaga chronić Vertex AI Gemini API, weryfikując, czy żądania pochodzą z Twojej aplikacji. Obsługuje dostawców usług atestatycznych na platformach Apple (DeviceCheck lub App Attest), Android (Play Integrity) i w internecie (reCAPTCHA Enterprise).
Konfigurowanie ograniczeń kluczy interfejsu Firebase API
Sprawdź ograniczenia klucza interfejsu API w przypadku każdego klucza interfejsu API Firebase: allowlist:
Upewnij się, że interfejs API Vertex AI in Firebase znajduje się na liście dozwolonych.
Sprawdź, czy jedyne inne interfejsy API na liście dozwolonych klucza są przeznaczone dla usług Firebase, których używasz w swojej aplikacji. Zobacz listę interfejsów API, które muszą znajdować się na liście dozwolonych w przypadku poszczególnych usług.
Ustaw „Ograniczenia aplikacji”, aby ograniczyć użycie każdego klucza interfejsu Firebase API tylko do żądań z Twojej aplikacji (np. pasujący identyfikator pakietu dla aplikacji Apple). Pamiętaj, że nawet jeśli ograniczysz dostęp do klucza, Firebase App Check nadal jest zdecydowanie zalecane.
Uwaga: interfejsy API związane z Firebase wykorzystują klucze API wyłącznie do identyfikacji projektu lub aplikacji Firebase, a nie do autoryzacji do wywoływania interfejsu API.
Wyłącz nieużywane interfejsy API w projekcie Firebase
Jeśli na przykład najpierw wypróbowałeś interfejs Gemini API za pomocą interfejsu Google AI Studio, możesz teraz wyłączyć interfejs Generative Language API. Twoja aplikacja używa teraz interfejsu Vertex AI in Firebase, który korzysta z interfejsów Vertex AI API oraz Vertex AI in Firebase API.
Płatności i limity
Sprawdź limity wymaganych bazowych interfejsów API
Korzystanie z interfejsu Vertex AI in Firebase wymaga 2 interfejsów API: Vertex AI i Vertex AI in Firebase.
Każdy interfejs API jest mierzony nieco inaczej, co oznacza, że można go używać do różnych celów. Ważne informacje znajdziesz w artykule Informacje o limitach dla każdego interfejsu API.
Pamiętaj, że limity różnią się też w zależności od modelu i regionu, więc upewnij się, że są one odpowiednio ustawione dla użytkowników i przypadków użycia.
W razie potrzeby możesz też zmienić limit lub poprosić o jego zwiększenie.
Unikaj niespodziewanych rachunków
Sprawdzoną metodą w przypadku wersji produkcyjnej jest monitorowanie wykorzystania i ustawianie alertów dotyczących budżetu.
Zarządzanie konfiguracjami
Używanie stabilnej wersji modelu w produkcyjnej aplikacji
W aplikacji produkcyjnej używaj tylko stabilnych wersji modelu (np. gemini-1.5-flash-002
), a nie wersji podglądu ani wersji automatycznie aktualizowanej.
Chociaż automatycznie aktualizowana wersja wskazuje wersję stabilną, to rzeczywista wersja modelu, do której się odnosi, automatycznie zmienia się po wydaniu nowej wersji stabilnej, co może powodować nieoczekiwane działanie lub odpowiedzi. Ponadto wersje podgląd są zalecane tylko podczas tworzenia prototypów.
Zdecydowanie zalecamy też używanie Firebase Remote Config do kontrolowania i aktualizowania nazwy modelu używanej w aplikacji (szczegóły znajdziesz w następnej sekcji).
Konfigurowanie i używanie Firebase Remote Config
Dzięki Remote Config możesz zarządzać ważnymi konfiguracjami funkcji generatywnej AI w chmurze zamiast kodować wartości w kodzie. Oznacza to, że możesz zaktualizować konfigurację bez publikowania nowej wersji aplikacji. Remote Config daje wiele możliwości, ale zalecamy zdalne sterowanie funkcjami generatywnej AI:
Aktualizuj aplikację.
- Nazwa modelu: aktualizuj model używany przez aplikację w miarę wprowadzania nowych lub wycofywania innych modeli.
Dostosowywanie wartości i danych wejściowych na podstawie atrybutów klienta lub opinii z testów bądź od użytkowników.
Konfiguracja modelu: dostosuj temperaturę, maksymalną liczbę tokenów wyjściowych i inne parametry.
Ustawienia bezpieczeństwa: dostosuj ustawienia bezpieczeństwa, jeśli zbyt wiele odpowiedzi jest blokowanych lub jeśli użytkownicy zgłaszają szkodliwe odpowiedzi.
Instrukcje systemowe i podane przez Ciebie prompty: dostosuj dodatkowy kontekst, który wysyłasz do modelu, aby kierować jego odpowiedziami i zachowaniem. Możesz na przykład dostosować prompty do określonych typów klientów lub spersonalizować prośby dla nowych użytkowników, które różnią się od tych używanych do generowania odpowiedzi dla obecnych użytkowników.
Możesz też opcjonalnie ustawić parametr minimum_version
w pliku Remote Config, aby porównać bieżącą wersję aplikacji z najnowszą wersją zdefiniowaną w pliku Remote Config. Dzięki temu możesz wyświetlić użytkownikom powiadomienie o konieczności uaktualnienia lub wymusić uaktualnienie.
Ustaw lokalizację, w której ma być uruchamiany usługa Vertex AI i uzyskiwać dostęp do modelu
Ustawienie lokalizacji może pomóc w ograniczeniu kosztów i opóźnień dla użytkowników.
Jeśli nie określisz lokalizacji, domyślnie przyjęta zostanie wartość us-central1
. Możesz ustawić tę lokalizację podczas inicjalizacji lub opcjonalnie użyć funkcji Firebase Remote Config, aby dynamicznie zmieniać lokalizację na podstawie lokalizacji każdego użytkownika.