Gemini API mit Firebase AI Logic
KI-basierte mobile Apps, Webanwendungen und Funktionen mit den Gemini Modellen erstellen, indem Sie Firebase AI Logic verwenden
Firebase AI Logic bietet Ihnen Zugriff auf die neuesten generativen KI-Modelle von Google: die Gemini Modelle.
Wenn Sie die Gemini API direkt von Ihrer mobilen App oder Webanwendung aus aufrufen möchten – anstatt serverseitig –, können Sie die Firebase AI Logic Client-SDKs verwenden. Diese Client-SDKs wurden speziell für die Verwendung mit mobilen Apps und Webanwendungen entwickelt und bieten Sicherheitsoptionen gegen nicht autorisierte Clients sowie Integrationen mit anderen Firebase-Diensten.
Diese Client-SDKs sind in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar.
Mit diesen Client-SDKs können Sie Apps KI-Personalisierung hinzufügen, einen KI-Chat erstellen, KI-basierte Optimierungen und Automatisierungen entwickeln und vieles mehr.
Hauptmerkmale
| Multimodale und natürliche Spracheingabe |
Die Gemini Modelle sind
multimodal. Prompts, die an die Gemini API gesendet werden, können also Text, Bilder, PDFs, Videos und Audio enthalten. Einige Gemini Modelle können auch
multimodale Ausgaben generieren.
Die Gemini Modelle können mit Eingaben in natürlicher Sprache verwendet werden. |
| Wachsende Auswahl an Funktionen |
Mit den SDKs können Sie die Gemini API direkt von Ihrer mobilen App oder Webanwendung aus aufrufen, um KI-Chats zu erstellen, Bilder zu generieren, Tools zu verwenden (z. B. Funktionsaufrufe und Grounding mit |
| Sicherheit und Missbrauchsprävention für Produktions-Apps |
Verwenden Sie
Firebase App Check, um die APIs, die auf die Gemini Modelle zugreifen, vor Missbrauch durch
nicht autorisierte Clients zu schützen.
Firebase AI Logic hat auch Ratenlimits pro Nutzer standardmäßig, die vollständig konfigurierbar sind. |
| Robuste Infrastruktur | Nutzen Sie die Vorteile einer skalierbaren Infrastruktur, die für die Verwendung mit mobilen und Webanwendungen entwickelt wurde, z. B. zum Verwalten von Dateien mit Cloud Storage for Firebase, zum Verwalten strukturierter Daten mit Firebase-Datenbankangeboten (wie Cloud Firestore) und zum dynamischen Festlegen von Laufzeitkonfigurationen mit Firebase Remote Config. |
Funktionsweise
Firebase AI Logic bietet Client-SDKs, einen Proxydienst und andere Funktionen , mit denen Sie auf die generativen KI-Modelle von Google zugreifen können, um KI-Funktionen in Ihren mobilen Apps und Webanwendungen zu erstellen.
Unterstützung für Google-Modelle und „Gemini API“-Anbieter
Wir unterstützen alle aktuellen Gemini Modelle, Sie können Ihren bevorzugten "Gemini API"-Anbieter auswählen, um auf diese Modelle zuzugreifen. Wir unterstützen sowohl die Gemini Developer API als auch Vertex AI Gemini API. Informationen zu den Unterschieden zwischen den beiden API-Anbietern.
Wenn Sie die Gemini Developer API verwenden, können Sie das kostenlose Kontingent nutzen, um schnell loszulegen.
Mobile und Web-Client-SDKs
Sie senden Anfragen direkt von Ihrer mobilen App oder Webanwendung aus an die Modelle. Dazu verwenden Sie unsere Firebase AI Logic Client-SDKs, die in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar sind.
Wenn Sie beide Gemini API Anbieter in Ihrem Firebase Projekt eingerichtet haben, können Sie zwischen den API-Anbietern wechseln, indem Sie die andere API aktivieren und einige Zeilen Initialisierungscode ändern.
Außerdem bieten mehrere unserer Client-SDKs Zugriff auf hybride und geräteinterne Inferenz. Mit dieser Konfiguration kann Ihre App das geräteinterne Modell verwenden, wenn es verfügbar ist, aber bei Bedarf nahtlos auf das in der Cloud gehostete Modell zurückgreifen (und umgekehrt).
Proxydienst
Unser Proxydienst fungiert als Gateway zwischen dem Client und dem von Ihnen ausgewählten Gemini API Anbieter (und den Google-Modellen). Er bietet Dienste und Integrationen, die für mobile Apps und Webanwendungen wichtig sind. Sie können beispielsweise einrichten, um Ihren ausgewählten API-Anbieter und Ihre Backend-Ressourcen vor Missbrauch durch nicht autorisierte Clients zu schützen.Firebase App Check
Das ist besonders wichtig, wenn Sie die Gemini Developer API verwenden, da unser Proxydienst und diese App Check Integration dafür sorgen, dass Ihr Gemini API-Schlüssel auf dem Server bleibt und nicht in den Code Ihrer Apps eingebettet ist.
Vorgehensweise bei der Implementierung
| Firebase-Projekt einrichten und App mit Firebase verbinden | Folgen Sie dem geführten Workflow auf der Seite Firebase AI Logic der Firebase Console, um Ihr Projekt einzurichten. Dazu gehört auch, die erforderlichen APIs für den von Ihnen ausgewählten Gemini API Anbieter zu aktivieren, Ihre App in Ihrem Firebase-Projekt zu registrieren und dann die Firebase-Konfiguration zu Ihrer App hinzuzufügen. | |
| SDK installieren und initialisieren | Installieren Sie das Firebase AI Logic SDK, das für die Plattform Ihrer App spezifisch ist, und initialisieren Sie dann den Dienst und erstellen Sie eine Modellinstanz in Ihrer App. | |
| Prompt-Anfragen an die Gemini Modelle senden | Mit den SDKs können Sie reine Text- oder multimodale Prompts an ein Gemini
Modell senden, um
Text und Code,
strukturierte Ausgaben (z. B. JSON)
und
Bilder zu generieren.
Erstellen Sie mit mehrstufigen Chats, bidirektionalem Streaming (einschließlich Audio), und Funktionsaufrufen noch ansprechendere Anwendungen. |
|
| Für die Produktion vorbereiten | Implementieren Sie wichtige Integrationen für mobile Apps und Webanwendungen, z. B. um die API mit Firebase App Check vor Missbrauch zu schützen und mit Firebase Remote Config Parameter in Ihrem Code remote zu aktualisieren (vor allem den Modellnamen). |
Nächste Schritte
Erste Schritte mit dem Zugriff auf ein Modell von Ihrer mobilen App oder Webanwendung aus