Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More
Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

Modèles personnalisés

Si vous utilisez des modèles TensorFlow Lite personnalisés, Firebase ML peut vous aider à vous assurer que vos utilisateurs utilisent toujours la meilleure version disponible de votre modèle personnalisé. Lorsque vous déployez votre modèle avec Firebase, Firebase ML ne télécharge le modèle que lorsque cela est nécessaire et met automatiquement à jour vos utilisateurs avec la dernière version.

iOS+ Androïd

Capacités clés

Déploiement du modèle TensorFlow Lite Déployez vos modèles à l'aide de Firebase pour réduire la taille binaire de votre application et vous assurer que votre application utilise toujours la version la plus récente disponible de votre modèle
Inférence ML sur l'appareil Effectuez une inférence dans une application Apple ou Android à l'aide de l'interpréteur TensorFlow Lite avec votre modèle.
Mises à jour automatiques du modèle Configurez les conditions dans lesquelles votre application télécharge automatiquement les nouvelles versions de votre modèle : lorsque l'appareil de l'utilisateur est inactif, en charge ou dispose d'une connexion Wi-Fi

Chemin de mise en œuvre

Entraînez votre modèle TensorFlow Créez et entraînez un modèle personnalisé à l'aide de TensorFlow. Ou ré-entraîner un modèle existant qui résout un problème similaire à ce que vous souhaitez réaliser.
Convertir le modèle en TensorFlow Lite Convertissez votre modèle du format HDF5 ou du format graphique figé vers TensorFlow Lite à l'aide du convertisseur TensorFlow Lite .
Déployer votre modèle TensorFlow Lite sur Firebase Facultatif : Lorsque vous déployez votre modèle TensorFlow Lite sur Firebase et que vous incluez le SDK Firebase ML dans votre application, Firebase ML tient vos utilisateurs informés de la dernière version de votre modèle. Vous pouvez le configurer pour télécharger automatiquement les mises à jour du modèle lorsque l'appareil de l'utilisateur est inactif ou en charge, ou dispose d'une connexion Wi-Fi.
Utiliser le modèle TensorFlow Lite pour l'inférence Utilisez l'interpréteur TensorFlow Lite dans votre application Apple ou Android pour effectuer des inférences avec des modèles déployés à l'aide de Firebase.

Laboratoires de programmation

Essayez quelques ateliers de programmation pour découvrir comment Firebase peut vous aider à utiliser les modèles TensorFlow Lite plus facilement et plus efficacement.