ML Kit for Firebase

Nutzen Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.

ML Kit ist ein mobiles SDK, mit dem Sie die Technologie für maschinelles Lernen von Google in einem leistungsstarken und dennoch benutzerfreundlichen Paket einfach auf Android- und iOS-Apps anwenden können. Ganz gleich, ob Sie neu im Bereich des maschinellen Lernens sind oder bereits Erfahrung damit haben: Sie können die benötigte Funktion mit nur wenigen Zeilen Code implementieren. Sie benötigen keine fundierten Kenntnisse über neuronale Netze oder Modelloptimierung, um loszulegen. Wenn Sie ein erfahrener ML-Entwickler sind, bietet ML Kit praktische APIs, mit denen Sie Ihre benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps verwenden können.

Hauptmerkmale

Für gängige Anwendungsfälle produktionsreif

ML Kit bietet eine Reihe von sofort einsatzbereiten APIs für gängige mobile Anwendungsfälle: Texterkennung, Gesichtserkennung, Erkennung von Sehenswürdigkeiten, Barcode-Scanning, Bildkennzeichnung und Erkennung der Sprache von Text. Sie müssen nur Daten an die ML Kit-Bibliothek übergeben und erhalten dann die benötigten Informationen.

Auf dem Gerät oder in der Cloud

Die APIs von ML Kit werden auf dem Gerät oder in der Cloud ausgeführt. Unsere On-Device-APIs können Ihre Daten schnell verarbeiten und funktionieren auch ohne Netzwerkverbindung. Unsere cloudbasierten APIs nutzen dagegen die Leistungsfähigkeit der Google Cloud-Technologie für maschinelles Lernen, um Ihnen eine noch höhere Genauigkeit zu bieten.

Benutzerdefinierte Modelle bereitstellen

Wenn die APIs von ML Kit Ihre Anwendungsfälle nicht abdecken, können Sie jederzeit Ihre eigenen vorhandenen TensorFlow Lite-Modelle verwenden. Laden Sie Ihr Modell einfach in Firebase hoch. Wir kümmern uns um das Hosting und die Bereitstellung für Ihre App. ML Kit fungiert als API-Ebene für Ihr benutzerdefiniertes Modell und vereinfacht so die Ausführung und Verwendung.

Funktionsweise

Mit ML Kit können Sie ML-Techniken ganz einfach in Ihre Apps einbinden, da es die ML-Technologien von Google wie die Google Cloud Vision API, TensorFlow Lite und die Android Neural Networks API in einem einzigen SDK vereint. Ob Sie die Leistung der cloudbasierten Verarbeitung, die Echtzeitfunktionen von für Mobilgeräte optimierten On-Device-Modellen oder die Flexibilität benutzerdefinierter TensorFlow Lite-Modelle benötigen – mit ML Kit ist das mit nur wenigen Codezeilen möglich.

Welche Funktionen sind auf dem Gerät oder in der Cloud verfügbar?

Funktion Auf dem Gerät Cloud
Texterkennung
Gesichtserkennung
Scannen von Barcodes
Bild-Labeling
Objekterkennung und ‑tracking
Erkennung von Sehenswürdigkeiten
Spracherkennung
Translation
Intelligente Antwort
AutoML-Modellinferenz
Benutzerdefinierte Modellinferenz

Vorgehensweise bei der Implementierung

SDK einbinden Sie können das SDK schnell mit Gradle oder Swift Package Manager einbinden.
Eingabedaten vorbereiten Wenn Sie beispielsweise eine Vision-Funktion verwenden, nehmen Sie ein Bild mit der Kamera auf und generieren Sie die erforderlichen Metadaten wie die Bildrotation. Alternativ können Sie den Nutzer auffordern, ein Foto aus seiner Galerie auszuwählen.
ML-Modell auf Ihre Daten anwenden Wenn Sie das ML-Modell auf Ihre Daten anwenden, erhalten Sie je nach verwendeter Funktion Erkenntnisse wie den emotionalen Zustand der erkannten Gesichter oder die im Bild erkannten Objekte und Konzepte. Nutzen Sie diese Statistiken für Funktionen in Ihrer App, z. B. für die Fotobearbeitung oder die automatische Metadatengenerierung.

Nächste Schritte