ML-Kit für Firebase

Nutzen Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.

ML Kit ist ein mobiles SDK, das die maschinelle Lernkompetenz von Google in einem leistungsstarken und dennoch benutzerfreundlichen Paket in Android- und iOS-Apps bringt. Unabhängig davon, ob Sie neu oder erfahren im Bereich maschinelles Lernen sind, können Sie die benötigte Funktionalität in nur wenigen Codezeilen implementieren. Für den Einstieg sind keine umfassenden Kenntnisse über neuronale Netze oder Modelloptimierung erforderlich. Wenn Sie hingegen ein erfahrener ML-Entwickler sind, bietet ML Kit praktische APIs, die Ihnen bei der Verwendung Ihrer benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps helfen.

Schlüsselfähigkeiten

Produktionsbereit für gängige Anwendungsfälle

ML Kit enthält eine Reihe gebrauchsfertiger APIs für gängige mobile Anwendungsfälle: Texterkennung, Gesichtserkennung, Identifizierung von Orientierungspunkten, Scannen von Barcodes, Beschriften von Bildern und Identifizieren der Textsprache. Geben Sie einfach Daten an die ML-Kit-Bibliothek weiter und Sie erhalten die Informationen, die Sie benötigen.

Auf dem Gerät oder in der Cloud

Die Auswahl an APIs von ML Kit läuft auf dem Gerät oder in der Cloud. Unsere On-Device-APIs können Ihre Daten schnell verarbeiten und funktionieren auch dann, wenn keine Netzwerkverbindung besteht. Unsere cloudbasierten APIs hingegen nutzen die Leistungsfähigkeit der maschinellen Lerntechnologie von Google Cloud, um Ihnen ein noch höheres Maß an Genauigkeit zu bieten.

Stellen Sie benutzerdefinierte Modelle bereit

Wenn die APIs des ML-Kits Ihre Anwendungsfälle nicht abdecken, können Sie jederzeit Ihre eigenen vorhandenen TensorFlow Lite-Modelle mitbringen. Laden Sie Ihr Modell einfach auf Firebase hoch und wir kümmern uns um das Hosting und die Bereitstellung für Ihre App. ML Kit fungiert als API-Schicht für Ihr benutzerdefiniertes Modell und vereinfacht so die Ausführung und Verwendung.

Wie funktioniert es?

Mit dem ML Kit können Sie ML-Techniken ganz einfach in Ihren Apps anwenden, indem Sie die ML-Technologien von Google wie die Google Cloud Vision API , TensorFlow Lite und die Android Neural Networks API in einem einzigen SDK zusammenführen. Ganz gleich, ob Sie die Leistung cloudbasierter Verarbeitung, die Echtzeitfähigkeiten mobil optimierter On-Device-Modelle oder die Flexibilität benutzerdefinierter TensorFlow Lite-Modelle benötigen, ML Kit macht es mit nur wenigen Codezeilen möglich.

Welche Funktionen sind auf dem Gerät oder in der Cloud verfügbar?

Besonderheit Auf dem Gerät Wolke
Texterkennung
Gesichtserkennung
Barcode-Scannen
Bildbeschriftung
Objekterkennung und -verfolgung
Anerkennung als Wahrzeichen
Spracherkennung
Übersetzung
Intelligente Antwort
AutoML-Modellinferenz
Benutzerdefinierte Modellinferenz

Implementierungspfad

Integrieren Sie das SDK Binden Sie das SDK schnell mit Gradle oder CocoaPods ein.
Bereiten Sie Eingabedaten vor Wenn Sie beispielsweise eine Vision-Funktion verwenden, erfassen Sie ein Bild von der Kamera und generieren Sie die erforderlichen Metadaten wie Bilddrehung oder fordern Sie den Benutzer auf, ein Foto aus seiner Galerie auszuwählen.
Wenden Sie das ML-Modell auf Ihre Daten an Durch die Anwendung des ML-Modells auf Ihre Daten generieren Sie je nach verwendeter Funktion Erkenntnisse wie den emotionalen Zustand erkannter Gesichter oder die im Bild erkannten Objekte und Konzepte. Nutzen Sie diese Erkenntnisse, um Funktionen in Ihrer App wie Fotoverschönerung, automatische Metadatengenerierung oder was auch immer Sie sich sonst noch vorstellen können, zu ermöglichen.

Nächste Schritte