Benutzerdefinierte Modelle

Wenn Sie ein erfahrener ML-Entwickler sind und die vorgefertigten Modelle von ML Kit Ihren Anforderungen nicht entsprechen, können Sie ein benutzerdefiniertes TensorFlow Lite- Modell mit ML Kit verwenden.

Hosten Sie Ihre TensorFlow Lite-Modelle mit Firebase oder verpacken Sie sie mit Ihrer App. Verwenden Sie dann das ML Kit SDK, um eine Inferenz mit der besten verfügbaren Version Ihres benutzerdefinierten Modells durchzuführen. Wenn Sie Ihr Modell mit Firebase hosten, aktualisiert ML Kit Ihre Benutzer automatisch mit der neuesten Version.

iOS Android

Schlüsselfähigkeiten

Hosting des TensorFlow Lite-Modells Hosten Sie Ihre Modelle mit Firebase, um die Binärgröße Ihrer App zu reduzieren und sicherzustellen, dass Ihre App immer die aktuellste verfügbare Version Ihres Modells verwendet
ML-Inferenz auf dem Gerät Führen Sie Inferenzen in einer iOS- oder Android-App durch, indem Sie das ML Kit SDK verwenden, um Ihr benutzerdefiniertes TensorFlow Lite-Modell auszuführen. Das Modell kann mit der App gebündelt, in der Cloud gehostet oder beides sein.
Automatischer Modell-Fallback Geben Sie mehrere Modellquellen an. Verwenden Sie ein lokal gespeichertes Modell, wenn das in der Cloud gehostete Modell nicht verfügbar ist
Automatische Modellaktualisierungen Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch neue Versionen Ihres Modells herunterlädt: wenn das Gerät des Benutzers inaktiv ist, aufgeladen wird oder über eine WLAN-Verbindung verfügt

Implementierungspfad

Trainieren Sie Ihr TensorFlow-Modell Erstellen und trainieren Sie ein benutzerdefiniertes Modell mit TensorFlow. Oder trainieren Sie ein vorhandenes Modell neu, das ein Problem löst, das dem ähnelt, was Sie erreichen möchten. Weitere Informationen finden Sie im TensorFlow Lite- Entwicklerhandbuch .
Konvertieren Sie das Modell in TensorFlow Lite Konvertieren Sie Ihr Modell vom Standard-TensorFlow-Format in TensorFlow Lite, indem Sie das Diagramm einfrieren und dann den TensorFlow Optimizing Converter (TOCO) verwenden. Weitere Informationen finden Sie im TensorFlow Lite- Entwicklerhandbuch .
Hosten Sie Ihr TensorFlow Lite-Modell mit Firebase Optional: Wenn Sie Ihr TensorFlow Lite-Modell mit Firebase hosten und das ML Kit SDK in Ihre App einbinden, hält ML Kit Ihre Benutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können ML Kit so konfigurieren, dass Modellaktualisierungen automatisch heruntergeladen werden, wenn das Gerät des Benutzers inaktiv ist oder aufgeladen wird oder über eine WLAN-Verbindung verfügt.
Verwenden Sie das TensorFlow Lite-Modell für die Inferenz Verwenden Sie die benutzerdefinierten Modell-APIs von ML Kit in Ihrer iOS- oder Android-App, um Inferenzen mit Ihrem von Firebase gehosteten oder in der App gebündelten Modell durchzuführen.