Catch up on everthing we announced at this year's Firebase Summit. Learn more

Benutzerdefinierte Modelle

Wenn Sie ein erfahrener ML Entwickler und ML Kit vorgefertigter Modelle sind nicht Ihren Anforderungen gerecht zu werden , können Sie eine benutzerdefinierte verwenden TensorFlow Lite - Modell mit ML - Kit.

Hosten Sie Ihre TensorFlow Lite-Modelle mit Firebase oder verpacken Sie sie mit Ihrer App. Verwenden Sie dann das ML Kit SDK, um eine Inferenz mit der besten verfügbaren Version Ihres benutzerdefinierten Modells durchzuführen. Wenn Sie Ihr Modell mit Firebase hosten, aktualisiert ML Kit Ihre Benutzer automatisch mit der neuesten Version.

iOS Android

Schlüsselfähigkeiten

TensorFlow Lite-Modellhosting Hosten Sie Ihre Modelle mit Firebase, um die Binärgröße Ihrer App zu reduzieren und sicherzustellen, dass Ihre App immer die neueste verfügbare Version Ihres Modells verwendet
ML-Inferenz auf dem Gerät Führen Sie Inferenz in einer iOS- oder Android-App durch, indem Sie das ML Kit SDK verwenden, um Ihr benutzerdefiniertes TensorFlow Lite-Modell auszuführen. Das Modell kann mit der App gebündelt, in der Cloud gehostet werden oder beides.
Automatischer Modellfallback Geben Sie mehrere Modellquellen an; ein lokal gespeichertes Modell verwenden, wenn das in der Cloud gehostete Modell nicht verfügbar ist
Automatische Modellaktualisierungen Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch neue Versionen Ihres Modells herunterlädt: wenn das Gerät des Benutzers inaktiv ist, aufgeladen wird oder über eine Wi-Fi-Verbindung verfügt

Implementierungspfad

Trainieren Sie Ihr TensorFlow-Modell Erstellen und trainieren Sie ein benutzerdefiniertes Modell mit TensorFlow. Oder trainieren Sie ein vorhandenes Modell neu, das ein ähnliches Problem löst, wie Sie es erreichen möchten. Siehe den TensorFlow Lite Developer Guide .
Konvertieren Sie das Modell in TensorFlow Lite Konvertieren Sie Ihr Modell vom Standard-TensorFlow-Format in TensorFlow Lite, indem Sie das Diagramm einfrieren und dann den TensorFlow Optimizing Converter (TOCO) verwenden. Siehe den TensorFlow Lite Developer Guide .
Hosten Sie Ihr TensorFlow Lite-Modell mit Firebase Optional: Wenn Sie Ihr TensorFlow Lite-Modell mit Firebase hosten und das ML Kit SDK in Ihre App einbinden, hält ML Kit Ihre Benutzer über die neueste Version Ihres Modells auf dem Laufenden. Sie können ML Kit so konfigurieren, dass Modellupdates automatisch heruntergeladen werden, wenn das Gerät des Benutzers inaktiv ist oder aufgeladen wird oder über eine Wi-Fi-Verbindung verfügt.
Verwenden Sie das TensorFlow Lite-Modell für Inferenz Verwenden Sie die benutzerdefinierten Modell-APIs von ML Kit in Ihrer iOS- oder Android-App, um Rückschlüsse auf Ihr von Firebase gehostetes oder mit einer App gebündeltes Modell durchzuführen.