Benutzerdefinierte Modelle

Wenn Sie benutzerdefinierte TensorFlow Lite- Modelle verwenden, kann Firebase ML Ihnen dabei helfen, sicherzustellen, dass Ihre Benutzer immer die beste verfügbare Version Ihres benutzerdefinierten Modells verwenden. Wenn Sie Ihr Modell mit Firebase bereitstellen, lädt Firebase ML das Modell nur dann herunter, wenn es benötigt wird, und aktualisiert Ihre Benutzer automatisch mit der neuesten Version.

iOS+ Android

Schlüsselfähigkeiten

Bereitstellung des TensorFlow Lite-Modells Stellen Sie Ihre Modelle mit Firebase bereit, um die Binärgröße Ihrer App zu reduzieren und sicherzustellen, dass Ihre App immer die aktuellste verfügbare Version Ihres Modells verwendet
ML-Inferenz auf dem Gerät Führen Sie Inferenzen in einer Apple- oder Android-App mithilfe des TensorFlow Lite-Interpreters mit Ihrem Modell durch.
Automatische Modellaktualisierungen Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch neue Versionen Ihres Modells herunterlädt: wenn das Gerät des Benutzers inaktiv ist, aufgeladen wird oder über eine WLAN-Verbindung verfügt

Implementierungspfad

Trainieren Sie Ihr TensorFlow-Modell Erstellen und trainieren Sie ein benutzerdefiniertes Modell mit TensorFlow. Oder trainieren Sie ein vorhandenes Modell neu, das ein Problem löst, das dem ähnelt, was Sie erreichen möchten.
Konvertieren Sie das Modell in TensorFlow Lite Konvertieren Sie Ihr Modell mit dem TensorFlow Lite-Konverter vom HDF5- oder Frozen-Graph-Format in TensorFlow Lite.
Stellen Sie Ihr TensorFlow Lite-Modell in Firebase bereit Optional: Wenn Sie Ihr TensorFlow Lite-Modell in Firebase bereitstellen und das Firebase ML SDK in Ihre App einbinden, hält Firebase ML Ihre Benutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können es so konfigurieren, dass Modellaktualisierungen automatisch heruntergeladen werden, wenn das Gerät des Benutzers inaktiv ist oder aufgeladen wird oder über eine WLAN-Verbindung verfügt.
Verwenden Sie das TensorFlow Lite-Modell für die Inferenz Verwenden Sie den TensorFlow Lite-Interpreter in Ihrer Apple- oder Android-App, um Inferenzen mit Modellen durchzuführen, die mit Firebase bereitgestellt werden.

Codelabs

Probieren Sie einige Codelabs aus, um praktisch zu erfahren, wie Firebase Ihnen dabei helfen kann, TensorFlow Lite-Modelle einfacher und effektiver zu nutzen.