Google is committed to advancing racial equity for Black communities. See how.
Cette page a été traduite par l'API Cloud Translation.
Switch to English

Modèles personnalisés

Si vous êtes un développeur ML expérimenté et que les modèles prédéfinis de ML Kit ne répondent pas à vos besoins, vous pouvez utiliser un modèle TensorFlow Lite personnalisé avec ML Kit.

Hébergez vos modèles TensorFlow Lite à l'aide de Firebase ou empaquetez-les avec votre application. Ensuite, utilisez le kit SDK ML Kit pour effectuer des inférences à l'aide de la meilleure version disponible de votre modèle personnalisé. Si vous hébergez votre modèle avec Firebase, ML Kit met automatiquement à jour vos utilisateurs avec la dernière version.

iOS Android

Capacités clés

Hébergement de modèles TensorFlow Lite Hébergez vos modèles à l'aide de Firebase pour réduire la taille binaire de votre application et vous assurer que votre application utilise toujours la version la plus récente disponible de votre modèle
Inférence ML sur l'appareil Effectuez une inférence dans une application iOS ou Android à l'aide du SDK ML Kit pour exécuter votre modèle TensorFlow Lite personnalisé. Le modèle peut être fourni avec l'application, hébergé dans le cloud ou les deux.
Repli automatique du modèle Spécifiez plusieurs sources de modèle; utiliser un modèle stocké localement lorsque le modèle hébergé dans le Cloud n'est pas disponible
Mises à jour automatiques du modèle Configurez les conditions dans lesquelles votre application télécharge automatiquement les nouvelles versions de votre modèle: lorsque l'appareil de l'utilisateur est inactif, en charge ou dispose d'une connexion Wi-Fi

Chemin de mise en œuvre

Entraînez votre modèle TensorFlow Créez et entraînez un modèle personnalisé à l'aide de TensorFlow. Ou, réentraînez un modèle existant qui résout un problème similaire à ce que vous souhaitez réaliser. Consultez le Guide du développeur TensorFlow Lite.
Convertir le modèle en TensorFlow Lite Convertissez votre modèle du format TensorFlow standard au format TensorFlow Lite en figeant le graphique, puis en utilisant le convertisseur d'optimisation TensorFlow (TOCO). Consultez le Guide du développeur TensorFlow Lite.
Hébergez votre modèle TensorFlow Lite avec Firebase Facultatif: lorsque vous hébergez votre modèle TensorFlow Lite avec Firebase et que vous incluez le SDK ML Kit dans votre application, ML Kit tient vos utilisateurs à jour avec la dernière version de votre modèle. Vous pouvez configurer ML Kit pour télécharger automatiquement les mises à jour du modèle lorsque l'appareil de l'utilisateur est inactif ou en charge, ou dispose d'une connexion Wi-Fi.
Utilisez le modèle TensorFlow Lite pour l'inférence Utilisez les API de modèle personnalisé de ML Kit dans votre application iOS ou Android pour effectuer des inférences avec votre modèle hébergé par Firebase ou associé à une application.