Gemini API mit Firebase AI Logic

KI-basierte mobile Apps, Webanwendungen und Funktionen mit den Gemini Modellen erstellen, indem Sie Firebase AI Logic verwenden

Firebase AI Logic bietet Ihnen Zugriff auf die neuesten generativen KI-Modelle von Google: die Gemini Modelle.

Wenn Sie die Gemini API direkt von Ihrer mobilen App oder Webanwendung aus aufrufen möchten – anstatt serverseitig –, können Sie die Firebase AI Logic Client-SDKs verwenden. Diese Client-SDKs wurden speziell für die Verwendung mit mobilen Apps und Webanwendungen entwickelt und bieten Sicherheitsoptionen gegen nicht autorisierte Clients sowie Integrationen mit anderen Firebase-Diensten.

Diese Client-SDKs sind in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar.

Mit diesen Client-SDKs können Sie Apps KI-Personalisierung hinzufügen, einen KI-Chat erstellen, KI-basierte Optimierungen und Automatisierungen entwickeln und vieles mehr.

Jetzt starten

Hauptmerkmale

Multimodale und natürliche Spracheingabe Die Gemini Modelle sind multimodal. Prompts, die an die Gemini API gesendet werden, können also Text, Bilder, PDFs, Videos und Audio enthalten. Einige Gemini Modelle können auch multimodale Ausgaben generieren.

Die Gemini Modelle können mit Eingaben in natürlicher Sprache verwendet werden.

Wachsende Auswahl an Funktionen Mit den SDKs können Sie die Gemini API direkt von Ihrer mobilen App oder Webanwendung aus aufrufen, um KI-Chats zu erstellen, Bilder zu generieren, Tools zu verwenden (z. B. Funktionsaufrufe und Grounding mit Google Search oder Google Maps) und multimodale Eingaben und Ausgaben (einschließlich Audio) zu streamen.
Sicherheit und Missbrauchsprävention für Produktions-Apps Verwenden Sie Firebase App Check, um die APIs, die auf die Gemini Modelle zugreifen, vor Missbrauch durch nicht autorisierte Clients zu schützen.

Firebase AI Logic hat auch Ratenlimits pro Nutzer standardmäßig, die vollständig konfigurierbar sind.

Robuste Infrastruktur Nutzen Sie die Vorteile einer skalierbaren Infrastruktur, die für die Verwendung mit mobilen und Webanwendungen entwickelt wurde, z. B. zum Verwalten von Dateien mit Cloud Storage for Firebase, zum Verwalten strukturierter Daten mit Firebase-Datenbankangeboten (wie Cloud Firestore) und zum dynamischen Festlegen von Laufzeitkonfigurationen mit Firebase Remote Config.

Funktionsweise

Firebase AI Logic bietet Client-SDKs, einen Proxydienst und andere Funktionen , mit denen Sie auf die generativen KI-Modelle von Google zugreifen können, um KI-Funktionen in Ihren mobilen Apps und Webanwendungen zu erstellen.

Unterstützung für Google-Modelle und „Gemini API“-Anbieter

Wir unterstützen alle aktuellen Gemini Modelle, Sie können Ihren bevorzugten "Gemini API"-Anbieter auswählen, um auf diese Modelle zuzugreifen. Wir unterstützen sowohl die Gemini Developer API als auch Vertex AI Gemini API. Informationen zu den Unterschieden zwischen den beiden API-Anbietern.

Wenn Sie die Gemini Developer API verwenden, können Sie das kostenlose Kontingent nutzen, um schnell loszulegen.

Mobile und Web-Client-SDKs

Sie senden Anfragen direkt von Ihrer mobilen App oder Webanwendung aus an die Modelle. Dazu verwenden Sie unsere Firebase AI Logic Client-SDKs, die in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar sind.

Wenn Sie beide Gemini API Anbieter in Ihrem Firebase Projekt eingerichtet haben, können Sie zwischen den API-Anbietern wechseln, indem Sie die andere API aktivieren und einige Zeilen Initialisierungscode ändern.

Außerdem bieten mehrere unserer Client-SDKs Zugriff auf hybride und geräteinterne Inferenz. Mit dieser Konfiguration kann Ihre App das geräteinterne Modell verwenden, wenn es verfügbar ist, aber bei Bedarf nahtlos auf das in der Cloud gehostete Modell zurückgreifen (und umgekehrt).

Proxydienst

Unser Proxydienst fungiert als Gateway zwischen dem Client und dem von Ihnen ausgewählten Gemini API Anbieter (und den Google-Modellen). Er bietet Dienste und Integrationen, die für mobile Apps und Webanwendungen wichtig sind. Sie können beispielsweise einrichten, um Ihren ausgewählten API-Anbieter und Ihre Backend-Ressourcen vor Missbrauch durch nicht autorisierte Clients zu schützen.Firebase App Check

Das ist besonders wichtig, wenn Sie die Gemini Developer API verwenden, da unser Proxydienst und diese App Check Integration dafür sorgen, dass Ihr Gemini API-Schlüssel auf dem Server bleibt und nicht in den Code Ihrer Apps eingebettet ist.

Vorgehensweise bei der Implementierung

Firebase-Projekt einrichten und App mit Firebase verbinden Folgen Sie dem geführten Workflow auf der Seite Firebase AI Logic der Firebase Console, um Ihr Projekt einzurichten. Dazu gehört auch, die erforderlichen APIs für den von Ihnen ausgewählten Gemini API Anbieter zu aktivieren, Ihre App in Ihrem Firebase-Projekt zu registrieren und dann die Firebase-Konfiguration zu Ihrer App hinzuzufügen.
SDK installieren und initialisieren Installieren Sie das Firebase AI Logic SDK, das für die Plattform Ihrer App spezifisch ist, und initialisieren Sie dann den Dienst und erstellen Sie eine Modellinstanz in Ihrer App.
Prompt-Anfragen an die Gemini Modelle senden Mit den SDKs können Sie reine Text- oder multimodale Prompts an ein Gemini Modell senden, um Text und Code, strukturierte Ausgaben (z. B. JSON) und Bilder zu generieren.

Erstellen Sie mit mehrstufigen Chats, bidirektionalem Streaming (einschließlich Audio), und Funktionsaufrufen noch ansprechendere Anwendungen.

Für die Produktion vorbereiten Implementieren Sie wichtige Integrationen für mobile Apps und Webanwendungen, z. B. um die API mit Firebase App Check vor Missbrauch zu schützen und mit Firebase Remote Config Parameter in Ihrem Code remote zu aktualisieren (vor allem den Modellnamen).

Nächste Schritte

Erste Schritte mit dem Zugriff auf ein Modell von Ihrer mobilen App oder Webanwendung aus

Startleitfaden aufrufen

Weitere Informationen zu den unterstützten Modellen

Informationen zu den für verschiedene Anwendungsfälle verfügbaren Modellen sowie zu Kontingenten und Preisen.