Benutzerdefinierte Modelle

Wenn Sie ein erfahrener ML-Entwickler sind und die vorgefertigten Modelle von ML Kit Ihre Anforderungen nicht erfüllen, können Sie ein benutzerdefiniertes TensorFlow Lite -Modell mit ML Kit verwenden.

Hosten Sie Ihre TensorFlow Lite-Modelle mit Firebase oder verpacken Sie sie mit Ihrer App. Verwenden Sie dann das ML Kit SDK, um eine Inferenz mit der besten verfügbaren Version Ihres benutzerdefinierten Modells durchzuführen. Wenn Sie Ihr Modell mit Firebase hosten, aktualisiert ML Kit Ihre Benutzer automatisch mit der neuesten Version.

iOS- Android

Schlüsselfähigkeiten

TensorFlow Lite-Modellhosting Hosten Sie Ihre Modelle mit Firebase, um die Binärgröße Ihrer App zu reduzieren und sicherzustellen, dass Ihre App immer die neueste verfügbare Version Ihres Modells verwendet
ML-Inferenz auf dem Gerät Führen Sie Inferenzen in einer iOS- oder Android-App durch, indem Sie das ML Kit SDK verwenden, um Ihr benutzerdefiniertes TensorFlow Lite-Modell auszuführen. Das Modell kann mit der App gebündelt, in der Cloud gehostet oder beides sein.
Automatischer Modell-Fallback Geben Sie mehrere Modellquellen an; Verwenden Sie ein lokal gespeichertes Modell, wenn das in der Cloud gehostete Modell nicht verfügbar ist
Automatische Modellaktualisierungen Konfigurieren Sie die Bedingungen, unter denen Ihre App automatisch neue Versionen Ihres Modells herunterlädt: wenn das Gerät des Benutzers inaktiv ist, aufgeladen wird oder eine Wi-Fi-Verbindung hat

Implementierungspfad

Trainieren Sie Ihr TensorFlow-Modell Erstellen und trainieren Sie ein benutzerdefiniertes Modell mit TensorFlow. Oder trainieren Sie ein vorhandenes Modell neu, das ein ähnliches Problem löst, wie Sie es erreichen möchten. Siehe TensorFlow Lite- Entwicklerhandbuch .
Konvertieren Sie das Modell in TensorFlow Lite Konvertieren Sie Ihr Modell vom standardmäßigen TensorFlow-Format in TensorFlow Lite, indem Sie das Diagramm einfrieren und dann den TensorFlow Optimizing Converter (TOCO) verwenden. Siehe TensorFlow Lite- Entwicklerhandbuch .
Hosten Sie Ihr TensorFlow Lite-Modell mit Firebase Optional: Wenn Sie Ihr TensorFlow Lite-Modell mit Firebase hosten und das ML Kit SDK in Ihre App einbinden, hält ML Kit Ihre Benutzer mit der neuesten Version Ihres Modells auf dem Laufenden. Sie können ML Kit so konfigurieren, dass es Modellaktualisierungen automatisch herunterlädt, wenn das Gerät des Benutzers im Leerlauf ist oder lädt oder eine Wi-Fi-Verbindung hat.
Verwenden Sie das TensorFlow Lite-Modell für die Inferenz Verwenden Sie die benutzerdefinierten Modell-APIs von ML Kit in Ihrer iOS- oder Android-App, um Inferenzen mit Ihrem von Firebase gehosteten oder mit der App gebündelten Modell durchzuführen.