|
Kliknij dostawcę Gemini API, aby wyświetlić na tej stronie treści i kod specyficzne dla dostawcy. |
Korzystanie z Firebase AI Logic jest bezpłatne. Koszty korzystania z Gemini API oraz to, czy Twój projekt w Firebase musi być objęty abonamentem Blaze z płatnością według wykorzystania, zależą od wybranego dostawcy Gemini API i funkcji Firebase AI Logic, z których korzystasz.
W przypadku Vertex AI Gemini API:
- Ceny zależą głównie od modelu i funkcji, z których korzystasz.
Ta strona zawiera ogólne omówienie cen i wymagań dotyczących konta rozliczeniowego. Więcej informacji znajdziesz w Vertex AI Gemini API dokumentacji dotyczącej cen.
Wymagania dotyczące konta rozliczeniowego
Aby korzystać z Vertex AI Gemini API, musisz połączyć projekt z Cloud Billing kontem. Oznacza to, że Twój projekt w Firebase zostanie objęty abonamentem Blaze z płatnością według wykorzystania .
Więcej informacji o Vertex AI Gemini API cenach znajdziesz w dokumentacji.
Inne kwestie związane z kosztami
Jeśli korzystasz z abonamentu Blaze, możesz ponosić koszty gdy używasz innych usług w połączeniu z Firebase AI Logic:
Korzystanie z innych usług Firebase może wiązać się z kosztami. Szczegóły znajdziesz na stronie z cennikiem Firebase.
- Korzystanie z niektórych dostawców atestów obsługiwanych przez Firebase App Check.
- Korzystanie z Cloud Storage for Firebase do wysyłania plików w żądaniach multimodalnych poza bezpłatnymi poziomami wykorzystania.
Korzystanie z Firebase Authentication poza bezpłatnymi poziomami wykorzystania.
Korzystanie z dowolnej usługi bazy danych Firebase poza bezpłatnymi poziomami wykorzystania.
Monitorowanie AI w konsoli Firebase może wiązać się z kosztami.
Monitorowanie wykorzystania AI w konsoli Firebase jest bezpłatne, ale możesz ponosić koszty, jeśli przekroczysz bezpłatne poziomy wykorzystania podstawowych Google Cloud Observability Suite usług. Więcej informacji znajdziesz w Google Cloud Observability Suite dokumentacji dotyczącej cen.
Rekomendacje dotyczące zarządzania kosztami
Aby pomóc Ci w zarządzaniu kosztami, zalecamy wykonanie tych czynności:
Unikaj niespodziewanych rachunków, by monitorować koszty i wykorzystanie oraz konfigurować alerty budżetowe.
Gdy korzystasz z modeli Gemini (z wyjątkiem modeli Live API), oszacuj rozmiar tokena żądań za pomocą interfejsu API
countTokensprzed wysłaniem żądań i uzyskaniem dostępu do atrybutuusageMetadataw odpowiedziach.W konfiguracji modelu ustaw budżet myślenia (tylko w przypadku modeli Gemini 3 i modeli Gemini 2.5) oraz
maxOutputTokens(wszystkie modele Gemini).Włącz monitorowanie wykorzystania AI aby wyświetlać w konsoli Firebase panele z informacjami o żądaniach, w tym o liczbie tokenów.