Benutzerdefinierte Modelle
Wenn Sie benutzerdefinierte TensorFlow Lite- Modelle verwenden, kann Firebase ML Ihnen dabei helfen, sicherzustellen, dass Ihre Benutzer immer die beste verfügbare Version Ihres benutzerdefinierten Modells verwenden. Wenn Sie Ihr Modell mit Firebase bereitstellen, lädt Firebase ML das Modell nur dann herunter, wenn es benötigt wird, und aktualisiert Ihre Benutzer automatisch mit der neuesten Version.
Schlüsselfähigkeiten
Bereitstellung des TensorFlow Lite-Modells | Stellen Sie Ihre Modelle mit Firebase bereit, um die Binärgröße Ihrer App zu reduzieren und sicherzustellen, dass Ihre App immer die aktuellste verfügbare Version Ihres Modells verwendet |
ML-Inferenz auf dem Gerät | Führen Sie Inferenzen in einer Apple- oder Android-App mithilfe des TensorFlow Lite-Interpreters mit Ihrem Modell durch. |
Automatische Modellaktualisierungen | Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch neue Versionen Ihres Modells herunterlädt: wenn das Gerät des Benutzers inaktiv ist, aufgeladen wird oder über eine WLAN-Verbindung verfügt |
Implementierungspfad
Trainieren Sie Ihr TensorFlow-Modell | Erstellen und trainieren Sie ein benutzerdefiniertes Modell mit TensorFlow. Oder trainieren Sie ein vorhandenes Modell neu, das ein Problem löst, das dem ähnelt, was Sie erreichen möchten. | |
Konvertieren Sie das Modell in TensorFlow Lite | Konvertieren Sie Ihr Modell mit dem TensorFlow Lite-Konverter vom HDF5- oder Frozen-Graph-Format in TensorFlow Lite. | |
Stellen Sie Ihr TensorFlow Lite-Modell in Firebase bereit | Optional: Wenn Sie Ihr TensorFlow Lite-Modell in Firebase bereitstellen und das Firebase ML SDK in Ihre App einbinden, hält Firebase ML Ihre Benutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können es so konfigurieren, dass Modellaktualisierungen automatisch heruntergeladen werden, wenn das Gerät des Benutzers inaktiv ist oder aufgeladen wird oder über eine WLAN-Verbindung verfügt. | |
Verwenden Sie das TensorFlow Lite-Modell für die Inferenz | Verwenden Sie den TensorFlow Lite-Interpreter in Ihrer Apple- oder Android-App, um Inferenzen mit Modellen durchzuführen, die mit Firebase bereitgestellt werden. |
Codelabs
Probieren Sie einige Codelabs aus, um praktisch zu erfahren, wie Firebase Ihnen dabei helfen kann, TensorFlow Lite-Modelle einfacher und effektiver zu nutzen.