Monitorowanie kosztów, wykorzystania i innych danych funkcji opartych na AI jest ważną częścią zarządzania aplikacją produkcyjną. Musisz znać typowe wzorce użytkowania aplikacji i mieć pewność, że nie przekraczasz ważnych dla Ciebie progów.
Na tej stronie znajdziesz kilka zalecanych opcji monitorowania kosztów, wykorzystania i innych danych w konsoli Firebase i konsoli Google Cloud.
Monitorowanie kosztów
Na panelu Wykorzystanie i rozliczenia w konsoli Firebase możesz sprawdzić koszty projektu związane z wywoływaniem interfejsów Vertex AI Gemini API i Gemini Developer API (jeśli korzystasz z abonamentu Blaze).
Koszty wyświetlane w panelu nie muszą być związane z połączeniami wykonywanymi za pomocą Firebase AI Logicpakietów SDK klienta. Wyświetlane koszty są związane z dowolnymi wywołaniami interfejsów „Gemini API”, niezależnie od tego, czy są one wykonywane przy użyciu Firebase AI Logic pakietów SDK klienta, pakietów SDK serwera Google GenAI, Genkit, Firebase Extensions w przypadku Gemini API, wywołań REST, jednego z AI Studio czy innych klientów interfejsu API.
Dowiedz się więcej o cenach produktów powiązanych z korzystaniem z Firebase AI Logic.
Konfigurowanie alertów
Aby uniknąć niespodziewanych rachunków, skonfiguruj alerty dotyczące budżetu, gdy korzystasz z abonamentu Blaze.
Pamiętaj, że alerty dotyczące budżetu nie są limitami budżetu. Alert będzie wysyłać Ci powiadomienia, gdy zbliżysz się do skonfigurowanego progu lub go przekroczysz, aby umożliwić Ci podjęcie działań w aplikacji lub projekcie.
Obserwowanie wykorzystania funkcji opartych na AI w konsoli Firebase
Na stronie Firebase AI Logic w konsoliFirebase możesz włączyć monitorowanie wykorzystania AI, aby obserwować różne wskaźniki i statystyki użycia na poziomie aplikacji i uzyskać pełną widoczność w żądania z pakietów SDK klientaFirebase AI Logic. Te panele są bardziej szczegółowe niż podstawowe liczby tokenów, które uzyskujesz w wyniku wywołania interfejsu Count Tokens API.
Najważniejsze funkcje monitorowania wykorzystania AI w konsoli Firebase:
Wyświetlanie danych ilościowych, takich jak liczba żądań, opóźnienie, błędy i wykorzystanie tokenów w przypadku każdego z Twoich modeli.
Sprawdzanie śladów, aby zobaczyć atrybuty, dane wejściowe i wyjściowe żądań, co może pomóc w debugowaniu i poprawie jakości.
dzielenie danych według wymiarów, takich jak stan żądania, minimalny czas oczekiwania, nazwa modelu itp.;
Wszystkie te funkcje są oparte na Google Cloud Observability Suite (więcej informacji o produkcie znajdziesz poniżej).
Włącz monitorowanie wykorzystania AI
Oto sposoby włączania monitorowania wykorzystania AI w konsoli:Firebase
Gdy przejdziesz wstępny proces konfiguracji z poziomu strony Usługi AI > Firebase AI Logic
W dowolnym momencie na karcie Usługi AI > Logika AI > Ustawienia
Wymagania dotyczące włączania i używania monitorowania wykorzystania AI:
Musisz być właścicielem projektu, edytującym lub administratorem Firebase Vertex AI.
Aplikacja musi używać co najmniej tych wersji bibliotek Firebase:
iOS: v11.13.0+ | Android: v16.0.0+ (BoM: v33.14.0+) | Web: v11.8.0+ | Flutter: v2.0.0+ (BoM: v3.11.0+) | Unity: v12.9.0+W aplikacji musi być włączone zbieranie danych, na które użytkownik wyraził zgodę (jest ono włączone domyślnie).
Gdy aplikacja spełni te wymagania i włączysz monitorowanie wykorzystania AI w konsoli, nie musisz wykonywać żadnych innych czynności w aplikacji ani w konsoli, aby zacząć wyświetlać dane na panelach w sekcji Usługi AI > Logika AI > Monitorowanie wykorzystania AI. Może wystąpić niewielkie opóźnienie (czasami do 5 minut), zanim dane telemetryczne z żądania będą dostępne w Firebase konsoli.
Zaawansowane użycie
W tej sekcji opisujemy konfigurację współczynnika próbkowania oraz różne opcje wyświetlania danych i pracy z nimi.
Częstotliwość próbkowania
Jeśli wysyłasz dużą liczbę żądań, zalecamy skorzystanie z konfiguracji częstotliwości próbkowania. Częstotliwość próbkowania określa odsetek żądań, w przypadku których faktycznie zbierane są szczegóły śledzenia.
Na karcie Usługi AI > Logika AI > Ustawienia w konsoli Firebase możesz skonfigurować częstotliwość próbkowania dla projektu w zakresie od 1 do 100%. Wartość 100% oznacza, że monitorowanie wykorzystania AI będzie zbierać ślady z całego ruchu. Wartość domyślna to 100%. Zbieranie mniejszej liczby śladów zmniejszy koszty, ale ograniczy też liczbę śladów, które możesz monitorować. Pamiętaj, że niezależnie od współczynnika próbkowania wykresy wyświetlane na panelu monitorowania zawsze będą odzwierciedlać rzeczywistą wielkość ruchu.
Dodatkowe opcje poza konsolą Firebase
Oprócz monitorowania wykorzystania AI dostępnego w konsoli Firebase możesz skorzystać z tych opcji:
Przejrzyj bazę modeli Vertex AI.
Te panele dostarczają dodatkowych informacji o trendach dotyczących opóźnienia i przepustowości zarządzanych modeli, uzupełniając statystyki z monitorowania wykorzystania AI w Firebase konsoli.Przeglądanie i używanie danych za pomocą Google Cloud Observability Suite
Dane telemetryczne na potrzeby monitorowania wykorzystania AI są przechowywane w Google Cloud Observability Suite powiązanym z Twoim projektem. Możesz je przeglądać w panelach, w tym w Trace Explorer i Logs Explorer, które są połączone z momentem sprawdzania poszczególnych śladów w konsoli Firebase. Możesz też używać danych do tworzenia paneli niestandardowych, konfigurowania alertów i innych działań.
Szczegółowe informacje o produktach używanych do monitorowania wykorzystania AI
Monitorowanie wykorzystania AI przechowuje dane telemetryczne w różnych usługach dostępnych w Google Cloud Observability Suite, w tym Cloud Monitoring, Cloud Trace i Cloud Logging.
Cloud Monitoring: przechowuje dane, w tym liczbę żądań, odsetek udanych żądań i opóźnienie żądania.
Cloud Trace: przechowuje ślady każdego z Twoich żądań, dzięki czemu możesz wyświetlać szczegóły poszczególnych żądań zamiast zbiorczych. Ślad jest zwykle powiązany z logami, dzięki czemu możesz sprawdzić zawartość i czas trwania każdej interakcji.
Cloud Logging: rejestruje metadane wejściowe, wyjściowe i konfiguracyjne, aby dostarczać szczegółowych informacji o każdej części żądania dotyczącego AI.
Dane telemetryczne są przechowywane w tych usługach, więc możesz określić ustawienia przechowywania i dostępu bezpośrednio w każdej z nich (więcej informacji znajdziesz w dokumentacji usług Cloud Monitoring, Cloud Trace i Cloud Logging).
Pamiętaj, że monitorowanie wykorzystania AI przechowuje rzeczywiste prompty i wygenerowane dane wyjściowe z każdego próbkowanego żądania w Cloud Logging, dzięki czemu te dane są dostępne w konsoli Firebase. Możesz opcjonalnie wyłączyć przechowywanie promptów i odpowiedzi.
.Ceny
Projekty w ramach bezpłatnego abonamentu Spark (dostępnego tylko podczas korzystania z Gemini Developer API): korzystanie z usług bazowych na potrzeby monitorowania wykorzystania AI jest bezpłatne.
Projekty objęte abonamentem Blaze z płatnością według wykorzystania: będziemy naliczać opłaty za korzystanie z usług bazowych Google Cloud Observability Suite, z których korzysta monitorowanie wykorzystania AI (niezależnie od wybranego dostawcyGemini API). Każda usługa Google Cloud Observability Suite ma jednak hojne bezpłatne wersje. Więcej informacji znajdziesz w Google Cloud Observability Suitedokumentacji cen.
(Opcjonalnie) Wyłączanie przechowywania promptów i odpowiedzi
Domyślnie monitorowanie wykorzystania AI rejestruje rzeczywiste prompty wysyłane do modelu i generowane przez niego odpowiedzi, w tym wszelkie informacje poufne (np. informacje umożliwiające identyfikację osoby) w tych promptach i odpowiedziach. Wszystkie te dane są przechowywane w Cloud Logging, dzięki czemu są dostępne w konsoli Firebase.
Aby wyłączyć przechowywanie promptów i odpowiedzi, dodaj do Cloud Logging ujścia (zwykle _Default ujścia) ten filtr wykluczający:resource.type="firebasevertexai.googleapis.com/Model"
Wyświetlanie wskaźników interfejsu API na poziomie projektu w konsoli Google Cloud
W Google Cloudkonsoli możesz wyświetlać wskaźniki na poziomie projektu, np. wykorzystanie, dla każdego interfejsu API.
Pamiętaj, że Google Cloudstrony konsoli opisane w tej sekcji nie zawierają informacji takich jak treść żądania i odpowiedzi czy liczba tokenów. Aby monitorować tego typu informacje, możesz użyć monitorowania wykorzystania AI w Firebasekonsoli (patrz poprzednia sekcja).
W konsoli Google Cloud otwórz stronę Dane interfejsu API, który chcesz wyświetlić:
Vertex AI API: wyświetl wykorzystanie związane z dowolnym żądaniem wysłanym do interfejsu Vertex AI Gemini API.
- Obejmuje żądania wysyłane za pomocą Firebase AI Logicpakietów SDK klientaGenkit, pakietów SDK serwera Google GenAIFirebase Extensions, Gemini APIinterfejsu REST APIVertex AI Studio itp.
Gemini Developer API: wyświetl zużycie związane z dowolną prośbą do Gemini Developer API.
- Obejmuje żądania wysyłane za pomocą Firebase AI Logicpakietów SDK klientaGenkit, pakietów SDK serwera Google GenAIFirebase Extensions, interfejsu REST APIGoogle AI Studio itp.Gemini API
- Wyświetlana nazwa tego interfejsu API w Google Cloud konsoli to „Generative Language API”.
Jeśli otworzy się „strona przeglądu” interfejsu API, kliknij Zarządzaj, a potem kartę Dane.
Użyj menu, aby wyświetlić interesujące Cię dane, np. ruch według kodu odpowiedzi, błędy według metody interfejsu API, ogólny czas oczekiwania i czas oczekiwania według metody interfejsu API.