ML-Kit für Firebase

Verwenden Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.

ML Kit ist ein mobiles SDK, das Googles Expertise im Bereich maschinelles Lernen in Android- und iOS-Apps in einem leistungsstarken und dennoch benutzerfreundlichen Paket vereint. Egal, ob Sie neu oder erfahren im maschinellen Lernen sind, Sie können die benötigten Funktionen in nur wenigen Codezeilen implementieren. Für den Einstieg sind keine tiefgreifenden Kenntnisse über neuronale Netze oder Modelloptimierung erforderlich. Wenn Sie hingegen ein erfahrener ML-Entwickler sind, bietet ML Kit praktische APIs, mit denen Sie Ihre benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps verwenden können.

Schlüsselfähigkeiten

Serienreife für gängige Anwendungsfälle

ML Kit enthält eine Reihe gebrauchsfertiger APIs für gängige mobile Anwendungsfälle: Erkennen von Text, Erkennen von Gesichtern, Erkennen von Orientierungspunkten, Scannen von Barcodes, Beschriften von Bildern und Erkennen der Textsprache. Geben Sie einfach Daten an die ML Kit-Bibliothek ein und Sie erhalten die benötigten Informationen.

Auf dem Gerät oder in der Cloud

Die Auswahl an APIs von ML Kit wird auf dem Gerät oder in der Cloud ausgeführt. Unsere On-Device-APIs können Ihre Daten schnell verarbeiten und auch dann funktionieren, wenn keine Netzwerkverbindung besteht. Unsere Cloud-basierten APIs hingegen nutzen die Leistungsfähigkeit der maschinellen Lerntechnologie von Google Cloud, um Ihnen ein noch höheres Maß an Genauigkeit zu bieten.

Benutzerdefinierte Modelle bereitstellen

Wenn die APIs von ML Kit Ihre Anwendungsfälle nicht abdecken, können Sie jederzeit Ihre eigenen vorhandenen TensorFlow Lite-Modelle mitbringen. Laden Sie Ihr Modell einfach in Firebase hoch und wir kümmern uns um das Hosten und Bereitstellen in Ihrer App. ML Kit fungiert als API-Schicht für Ihr benutzerdefiniertes Modell, wodurch es einfacher ausgeführt und verwendet werden kann.

Wie funktioniert es?

ML Kit macht es einfach , indem die Google-ML - Technologien wie den ML - Techniken in Ihrem Apps anwenden Google Cloud Vision - API , TensorFlow Lite und der Android Neuronale Netze API zusammen in einem einzigen SDK. Egal, ob Sie die Leistung der Cloud-basierten Verarbeitung, die Echtzeitfähigkeiten von für Mobilgeräte optimierten Gerätemodellen oder die Flexibilität benutzerdefinierter TensorFlow Lite-Modelle benötigen, ML Kit macht es mit nur wenigen Codezeilen möglich.

Welche Funktionen sind auf dem Gerät oder in der Cloud verfügbar?

Feature Auf dem Gerät Wolke
Texterkennung
Gesichtserkennung
Barcode-Scannen
Bildbeschriftung
Objekterkennung & -verfolgung
Erkennung von Wahrzeichen
Spracherkennung
Übersetzung
Intelligente Antwort
AutoML-Modellinferenz
Benutzerdefinierte Modellinferenz

Implementierungspfad

Integrieren Sie das SDK Fügen Sie das SDK schnell mit Gradle oder CocoaPods hinzu.
Eingabedaten vorbereiten Wenn Sie beispielsweise eine Vision-Funktion verwenden, nehmen Sie ein Bild von der Kamera auf und generieren Sie die erforderlichen Metadaten wie die Bilddrehung oder fordern Sie den Benutzer auf, ein Foto aus seiner Galerie auszuwählen.
Wenden Sie das ML-Modell auf Ihre Daten an Durch die Anwendung des ML-Modells auf Ihre Daten generieren Sie je nach verwendeter Funktion Erkenntnisse wie den emotionalen Zustand erkannter Gesichter oder die im Bild erkannten Objekte und Konzepte. Nutzen Sie diese Erkenntnisse, um Funktionen in Ihrer App wie Fotoverzierungen, automatische Metadatengenerierung oder was auch immer Sie sich vorstellen können, zu unterstützen.

Nächste Schritte