ML Kit for Firebase
Nutzen Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.
ML Kit ist ein mobiles SDK, mit dem Sie die Technologie für maschinelles Lernen von Google in einem leistungsstarken und dennoch benutzerfreundlichen Paket einfach auf Android- und iOS-Apps anwenden können. Ganz gleich, ob Sie neu im Bereich des maschinellen Lernens sind oder bereits Erfahrung damit haben: Sie können die benötigte Funktion mit nur wenigen Zeilen Code implementieren. Sie benötigen keine fundierten Kenntnisse über neuronale Netze oder Modelloptimierung, um loszulegen. Wenn Sie ein erfahrener ML-Entwickler sind, bietet ML Kit praktische APIs, mit denen Sie Ihre benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps verwenden können.
Hauptmerkmale
| Für gängige Anwendungsfälle produktionsreif |
ML Kit bietet eine Reihe von sofort einsatzbereiten APIs für gängige mobile Anwendungsfälle: Texterkennung, Gesichtserkennung, Erkennung von Sehenswürdigkeiten, Barcode-Scanning, Bildkennzeichnung und Erkennung der Sprache von Text. Sie müssen nur Daten an die ML Kit-Bibliothek übergeben und erhalten dann die benötigten Informationen. |
| Auf dem Gerät oder in der Cloud |
Die APIs von ML Kit werden auf dem Gerät oder in der Cloud ausgeführt. Unsere On-Device-APIs können Ihre Daten schnell verarbeiten und funktionieren auch ohne Netzwerkverbindung. Unsere cloudbasierten APIs nutzen dagegen die Leistungsfähigkeit der Google Cloud-Technologie für maschinelles Lernen, um Ihnen eine noch höhere Genauigkeit zu bieten. |
| Benutzerdefinierte Modelle bereitstellen |
Wenn die APIs von ML Kit Ihre Anwendungsfälle nicht abdecken, können Sie jederzeit Ihre eigenen vorhandenen TensorFlow Lite-Modelle verwenden. Laden Sie Ihr Modell einfach in Firebase hoch. Wir kümmern uns um das Hosting und die Bereitstellung für Ihre App. ML Kit fungiert als API-Ebene für Ihr benutzerdefiniertes Modell und vereinfacht so die Ausführung und Verwendung. |
Funktionsweise
Mit ML Kit können Sie ML-Techniken ganz einfach in Ihre Apps einbinden, da es die ML-Technologien von Google wie die Google Cloud Vision API, TensorFlow Lite und die Android Neural Networks API in einem einzigen SDK vereint. Ob Sie die Leistung der cloudbasierten Verarbeitung, die Echtzeitfunktionen von für Mobilgeräte optimierten On-Device-Modellen oder die Flexibilität benutzerdefinierter TensorFlow Lite-Modelle benötigen – mit ML Kit ist das mit nur wenigen Codezeilen möglich.
Welche Funktionen sind auf dem Gerät oder in der Cloud verfügbar?
Vorgehensweise bei der Implementierung
| SDK einbinden | Sie können das SDK schnell mit Gradle oder Swift Package Manager einbinden. | |
| Eingabedaten vorbereiten | Wenn Sie beispielsweise eine Vision-Funktion verwenden, nehmen Sie ein Bild mit der Kamera auf und generieren Sie die erforderlichen Metadaten wie die Bildrotation. Alternativ können Sie den Nutzer auffordern, ein Foto aus seiner Galerie auszuwählen. | |
| ML-Modell auf Ihre Daten anwenden | Wenn Sie das ML-Modell auf Ihre Daten anwenden, erhalten Sie je nach verwendeter Funktion Erkenntnisse wie den emotionalen Zustand der erkannten Gesichter oder die im Bild erkannten Objekte und Konzepte. Nutzen Sie diese Statistiken für Funktionen in Ihrer App, z. B. für die Fotobearbeitung oder die automatische Metadatengenerierung. |
Nächste Schritte
- Sehen Sie sich die sofort einsatzbereiten APIs an: Texterkennung, Gesichtserkennung, Barcodes scannen, Bildlabeling, Objekterkennung und ‑tracking, Erkennung von Sehenswürdigkeiten, Smart Reply, Übersetzung und Spracherkennung.
- Trainieren Sie mit AutoML Vision Edge Ihr eigenes Bild-Labeling-Modell.
- Benutzerdefinierte Modelle, die für Mobilgeräte optimiert sind, in Ihrer App verwenden