Monitorowanie kosztów, wykorzystania i innych danych

Monitorowanie kosztów, wykorzystania i innych danych funkcji AI jest ważną częścią zarządzania aplikacją produkcyjną. Musisz znać typowe wzorce użytkowania aplikacji i mieć pewność, że nie przekraczasz istotnych dla Ciebie progów.

Na tej stronie znajdziesz kilka zalecanych opcji monitorowania kosztów, wykorzystania i innych wskaźników w konsoli Firebase i konsoli Google Cloud.

Monitorowanie kosztów

Na panelu Wykorzystanie i rozliczeniaFirebase konsoli możesz sprawdzić koszty projektu związane z wywoływaniem Vertex AI Gemini APIGemini Developer API (jeśli korzystasz z abonamentu Blaze).

Koszty wyświetlane w panelu nie muszą być związane z połączeniami wykonywanymi za pomocą Firebase AI Logicpakietów SDK klienta. Wyświetlane koszty są związane z dowolnymi wywołaniami interfejsów „Gemini API”, niezależnie od tego, czy są one wykonywane przy użyciu Firebase AI Logic pakietów SDK klienta, pakietów SDK serwera Google GenAI, Genkit, Firebase Extensions w przypadku Gemini API, wywołań REST, jednego z AI Studio czy innych klientów interfejsu API.

Dowiedz się więcej o cenach produktów powiązanych z korzystaniem z Firebase AI Logic.

Konfigurowanie alertów

Aby uniknąć niespodzianek na rachunku, skonfiguruj alerty dotyczące budżetu, gdy korzystasz z planu cenowego Blaze.

Pamiętaj, że alerty dotyczące budżetu nie są limitami budżetu. Alert będzie wysyłać Ci powiadomienia, gdy zbliżasz się do skonfigurowanego progu lub go przekraczasz, aby umożliwić Ci podjęcie działań w aplikacji lub projekcie.

Obserwowanie wykorzystania funkcji opartych na AI w konsoli Firebase

Możesz włączyć monitorowanie AI na Firebase AI Logicstronie konsoli Firebase, aby obserwować różne dane i statystyki użycia na poziomie aplikacji i uzyskać pełny wgląd w żądania z pakietów SDK klientaFirebase AI Logic. Te panele są bardziej szczegółowe niż podstawowe liczby tokenów, które uzyskujesz w wyniku wywołania interfejsu Count Tokens API.

Najważniejsze funkcje monitorowania AI w konsoli Firebase:

  • Wyświetlanie danych ilościowych, takich jak liczba żądań, czas oczekiwania, błędy i wykorzystanie tokenów w przypadku każdego rodzaju danych w poszczególnych aplikacjach.

  • Sprawdzanie śladów, aby zobaczyć atrybuty, dane wejściowe i wyjściowe żądań, co może pomóc w debugowaniu i poprawie jakości.

  • dzielenie danych według wymiarów, takich jak stan żądania, minimalny czas oczekiwania, nazwa modelu itp.;

Wszystkie te funkcje są oparte na Google Cloud Observability Suite (więcej informacji o usłudze znajdziesz poniżej w sekcji Szczegółowe informacje o usłudze).

Włącz monitorowanie AI

Oto sposoby włączania monitorowania opartego na AI w konsoli:Firebase

Wymagania dotyczące włączania i używania monitorowania opartego na AI:

  • Musisz być właścicielem projektu, edytującym lub administratorem Firebase Vertex AI.

  • Aplikacja musi używać co najmniej tych wersji bibliotek Firebase:
    iOS: v11.13.0 lub nowsza | Android: v16.0.0 lub nowsza (BoM: v33.14.0 lub nowsza) | Web: v11.8.0 lub nowsza | Flutter: v2.0.0 lub nowsza (BoM: v3.11.0 lub nowsza) | Unity: v12.9.0 lub nowsza

  • W aplikacji musi być włączone zbieranie danych, na które użytkownik wyraził zgodę (jest ono włączone domyślnie).

Gdy aplikacja spełni te wymagania i włączysz monitorowanie AI w konsoli, nie musisz wykonywać żadnych innych czynności w aplikacji ani w konsoli, aby zacząć wyświetlać dane na panelach na karcie Firebase AI Logic Monitorowanie AI. Może wystąpić niewielkie opóźnienie (czasami do 5 minut), zanim dane telemetryczne z żądania będą dostępne w Firebase konsoli.

Zaawansowane użycie

W tej sekcji opisujemy konfigurację współczynnika próbkowania oraz różne opcje wyświetlania danych i pracy z nimi.

Częstotliwość próbkowania

Jeśli wysyłasz dużą liczbę żądań, zalecamy skorzystanie z konfiguracji częstotliwości próbkowania. Częstotliwość próbkowania określa odsetek żądań, w przypadku których faktycznie zbierane są szczegóły śledzenia.

Na karcie Firebase AI Logic Ustawienia w konsoli Firebase możesz skonfigurować częstotliwość próbkowania w projekcie na wartość od 1 do 100%, gdzie 100% oznacza, że monitorowanie AI będzie zbierać ślady z całego ruchu. Wartość domyślna to 100%. Zbieranie mniejszej liczby śladów zmniejszy koszty, ale ograniczy też liczbę śladów, które możesz monitorować. Uwaga: niezależnie od współczynnika próbkowania wykresy wyświetlane na panelu monitorowania zawsze odzwierciedlają rzeczywistą wielkość ruchu.

Dodatkowe opcje poza konsolą Firebase

Oprócz monitorowania AI dostępnego w konsoli Firebase możesz skorzystać z tych opcji:

  • Przejrzyj bazę modeli Vertex AI.
    Te panele dostarczają dodatkowych informacji o trendach dotyczących opóźnienia i przepustowości zarządzanych modeli, uzupełniając statystyki z monitorowania AI w Firebase konsoli.

  • Przeglądaj i wykorzystuj dane za pomocą Google Cloud Observability Suite
    .Google Cloud Observability SuiteDane telemetryczne na potrzeby monitorowania AI są przechowywane w Google Cloud Observability Suitepowiązanym z Twoim projektem. Możesz je przeglądać na panelach, w tym na panelach Trace ExplorerLogs Explorer, które są połączone z konsolą Firebase, w której możesz sprawdzać poszczególne ślady. Możesz też używać danych do tworzenia paneli niestandardowych, konfigurowania alertów i innych działań.

Szczegółowe informacje o usługach używanych do monitorowania AI

Monitorowanie AI przechowuje dane telemetryczne w różnych usługach dostępnych w Google Cloud Observability Suite, w tym Cloud Monitoring, Cloud TraceCloud Logging.

  • Cloud Monitoring: przechowuje dane, w tym liczbę żądań, odsetek udanych żądań i opóźnienie żądania.

  • Cloud Trace: przechowuje ślady każdego z Twoich żądań, dzięki czemu możesz wyświetlać szczegóły poszczególnych żądań zamiast danych zbiorczych. Ślad jest zwykle powiązany z logami, dzięki czemu możesz sprawdzić zawartość i czas trwania każdej interakcji.

  • Cloud Logging: rejestruje metadane wejściowe, wyjściowe i konfiguracyjne, aby dostarczać szczegółowych informacji o każdej części żądania dotyczącego AI.

Ponieważ dane telemetryczne są przechowywane w tych usługach, możesz określić ustawienia przechowywania i dostępu bezpośrednio w każdej z nich (więcej informacji znajdziesz w dokumentacji Cloud Monitoring, Cloud TraceCloud Logging). Pamiętaj, że rzeczywiste prompty i wygenerowane dane wyjściowe z każdego próbkowanego żądania są przechowywane wraz z danymi.

.

Ceny

  • Projekty w ramach bezpłatnego abonamentu Spark (dostępnego tylko podczas korzystania z Gemini Developer API): korzystanie z usług bazowych na potrzeby monitorowania AI jest bezpłatne.

  • Projekty objęte abonamentem Blaze z płatnością według wykorzystania: będziemy pobierać opłaty za korzystanie z podstawowych Google Cloud Observability Suite usług, z których korzysta monitorowanie AI (niezależnie od wybranego dostawcyGemini API). Każda usługa Google Cloud Observability Suite ma jednak hojne bezpłatne wersje. Więcej informacji znajdziesz w Google Cloud Observability Suitedokumentacji cen.

Wyświetlanie wskaźników interfejsu API na poziomie projektu w konsoli Google Cloud

Google Cloudkonsoli możesz wyświetlać wskaźniki na poziomie projektu, np. wykorzystanie, dla każdego interfejsu API.

Pamiętaj, że Google Cloudstrony konsoli opisane w tej sekcji nie zawierają informacji takich jak treść żądania i odpowiedzi czy liczba tokenów. Aby monitorować tego typu informacje, rozważ użycie monitorowania AI w Firebasekonsoli (patrz poprzednia sekcja).

  1. W konsoli Google Cloud otwórz stronę Dane interfejsu API, który chcesz wyświetlić:

    • Vertex AI API: Wyświetl wykorzystanie związane z dowolnym żądaniem wysłanym do interfejsu API Vertex AI Gemini API.

      • Obejmuje żądania wysyłane za pomocą Firebase AI Logicpakietów SDK klientaGenkit, pakietów SDK serwera Google GenAI, Firebase ExtensionsGemini APIinterfejsu REST APIVertex AI Studio itp.
    • Gemini Developer API: wyświetlaj dane o użyciu powiązane z dowolną prośbą wysłaną do Gemini Developer API.

      • Obejmuje żądania wysyłane za pomocą Firebase AI Logicpakietów SDK klientaGenkit, pakietów SDK serwera Google GenAIFirebase Extensions, interfejsu REST APIGemini API itp.Google AI Studio
      • Wyświetlana nazwa tego interfejsu API w Google Cloudkonsoli to „Generative Language API”.

    Jeśli otworzy się „strona przeglądu” interfejsu API, kliknij Zarządzaj, a potem kartę Dane.

  2. Użyj menu, aby wyświetlić interesujące Cię dane, takie jak ruch według kodu odpowiedzi, błędy według metody interfejsu API, ogólny czas oczekiwania i czas oczekiwania według metody interfejsu API.