Checkliste für die Produktion bei Verwendung von Firebase AI Logic

Wenn Sie Ihre App starten möchten und echte Endnutzer mit Ihren generativen KI-Funktionen interagieren sollen, sehen Sie sich diese Checkliste mit Best Practices und wichtigen Überlegungen an.

Allgemein

Allgemeine Start-Checkliste für Apps, die Firebase verwenden

In dieser Firebase-Start-Checkliste werden wichtige Best Practices beschrieben, die Sie vor dem Start einer Firebase-App in der Produktion beachten sollten.

Best Practices für Firebase-Projekte

Verwenden Sie beispielsweise verschiedene Firebase-Projekte für Entwicklung, Tests und Produktion. Weitere Best Practices für die Verwaltung Ihrer Projekte.

Zugriff und Sicherheit

Allgemeine Sicherheits-Checkliste für Apps, die Firebase verwenden

In dieser Sicherheits-Checkliste werden wichtige Best Practices für Zugriff und Sicherheit für Firebase-Apps und ‑Dienste beschrieben.

Start enforcing Firebase App Check

Firebase App Check schützt die APIs, die Ihnen Zugriff auf die Gemini und Imagen Modelle ermöglichen. App Check prüft, ob Anfragen von Ihrer tatsächlichen App und einem authentischen, nicht manipulierten Gerät stammen. Es unterstützt Attestierungsanbieter für Apple-Plattformen (DeviceCheck oder App Attest), Android (Play Integrity) und das Web (reCAPTCHA Enterprise) sowie alle diese Anbieter für Flutter- und Unity-Apps.

Um sich auf den verbesserten Schutz durch App Check durch Wiedergabeschutzvorzubereiten, empfehlen wir außerdem, die Verwendung von Tokens mit eingeschränkter Nutzung in Ihren Apps zu aktivieren.

Einschränkungen für Ihre Firebase-API-Schlüssel festlegen

Firebase-bezogene APIs verwenden API-Schlüssel nur zur Identifizierung des Firebase-Projekts oder der Firebase-App, nicht zur Autorisierung des Aufrufs der API.

Abrechnung, Monitoring und Kontingent

Unerwartete Rechnungen vermeiden

Wenn für Ihr Firebase-Projekt der Blaze-Tarif (Pay as you go) gilt, sollten Sie die Nutzung im Blick behalten und Budgetbenachrichtigungen einrichten.

KI-Monitoring in der Firebase Konsole einrichten

Richten Sie das KI-Monitoring ein, um wichtige Leistungsmesswerte wie Anfragen, Latenz, Fehler und Tokennutzung im Blick zu behalten. Mit dem KI-Monitoring können Sie auch Ihre Firebase AI Logic Funktionen prüfen und Fehler beheben, indem Sie einzelne Traces aufrufen.

Kontingente für die erforderlichen zugrunde liegenden APIs überprüfen

Konfigurationen verwalten

Stabile Modellversion in der Produktions-App verwenden

Verwenden Sie in Ihrer Produktions-App nur stabile Modellversionen (z. B. gemini-2.0-flash-001) und keine Vorschauversion, Testversion oder automatisch aktualisierte Aliasversion.

Auch wenn ein automatisch aktualisierter stabiler Alias auf eine stabile Version verweist, ändert sich die tatsächliche Modellversion, auf die er verweist, automatisch, wenn eine neue stabile Version veröffentlicht wird. Dies kann zu unerwartetem Verhalten oder unerwarteten Antworten führen. Vorschauversionen und Testversionen werden nur während der Prototypenerstellung empfohlen.

Einrichten und Verwenden von Firebase Remote Config

Mit Remote Config können Sie wichtige Konfigurationen für Ihre generativen KI-Funktionen in der Cloud steuern, anstatt Werte fest im Code zu codieren. So können Sie Ihre Konfiguration aktualisieren, ohne eine neue Version Ihrer App zu veröffentlichen.

  • (Dringend empfohlen) Ändern Sie den in Ihrer App verwendeten Modellnamen remote wenn neue Modelle veröffentlicht oder andere eingestellt werden.

  • (Optional) Steuern Sie andere Parameter in Ihrer App dynamisch und sogar bedingt, z. B. die Konfiguration der Modellgenerierung (maximale Tokens, Temperatur usw.), Sicherheitseinstellungen, Systemanweisungen und Promptdaten.

  • (Optional) Legen Sie in Remote Config einen Parameter minimum_version fest, um die aktuelle Version der App mit der in Remote Config-definierten neuesten Version zu vergleichen. So können Sie Nutzern entweder eine Benachrichtigung zum Upgrade anzeigen oder sie zwingen, ein Upgrade durchzuführen.

Ort für den Zugriff auf das Modell festlegen

Nur verfügbar, wenn Sie die Vertex AI Gemini API als Ihren API-Anbieter verwenden.

Wenn Sie einen Ort für den Zugriff auf das Modell festlegen, können Sie Kosten senken und die Latenz für Ihre Nutzer verringern.

Wenn Sie keinen Ort angeben, wird standardmäßig us-central1 verwendet. Sie können diesen Ort bei der Initialisierung festlegen oder optional verwenden, um den Ort dynamisch basierend auf dem Standort des jeweiligen Nutzers zu ändern.Firebase Remote Config