Kit ML pour Firebase
Utilisez l'apprentissage automatique dans vos applications pour résoudre des problèmes réels.
ML Kit est un SDK mobile qui apporte l'expertise de Google en matière d'apprentissage automatique aux applications Android et iOS dans un package puissant mais facile à utiliser. Que vous soyez novice ou expérimenté en machine learning, vous pouvez implémenter les fonctionnalités dont vous avez besoin en quelques lignes de code seulement. Il n'est pas nécessaire d'avoir une connaissance approfondie des réseaux de neurones ou de l'optimisation des modèles pour commencer. D'autre part, si vous êtes un développeur ML expérimenté, ML Kit fournit des API pratiques qui vous aident à utiliser vos modèles TensorFlow Lite personnalisés dans vos applications mobiles.
Capacités clés
Prêt pour la production pour les cas d'utilisation courants | ML Kit est livré avec un ensemble d'API prêtes à l'emploi pour les cas d'utilisation mobiles courants : reconnaissance de texte, détection de visages, identification de points de repère, numérisation de codes-barres, étiquetage d'images et identification de la langue du texte. Transmettez simplement les données à la bibliothèque ML Kit et elle vous fournira les informations dont vous avez besoin. |
Sur l'appareil ou dans le cloud | La sélection d'API de ML Kit s'exécute sur l'appareil ou dans le cloud. Nos API sur appareil peuvent traiter vos données rapidement et fonctionner même en l'absence de connexion réseau. Nos API basées sur le cloud, quant à elles, exploitent la puissance de la technologie d'apprentissage automatique de Google Cloud pour vous offrir un niveau de précision encore plus élevé. |
Déployer des modèles personnalisés | Si les API de ML Kit ne couvrent pas vos cas d'utilisation, vous pouvez toujours apporter vos propres modèles TensorFlow Lite existants. Téléchargez simplement votre modèle sur Firebase, et nous nous occuperons de l'héberger et de le diffuser dans votre application. ML Kit agit comme une couche API pour votre modèle personnalisé, ce qui simplifie son exécution et son utilisation. |
Comment ça marche?
ML Kit facilite l'application des techniques de ML dans vos applications en réunissant les technologies de ML de Google, telles que l' API Google Cloud Vision , TensorFlow Lite et l' API Android Neural Networks dans un seul SDK. Que vous ayez besoin de la puissance du traitement basé sur le cloud, des capacités en temps réel des modèles sur appareil optimisés pour les mobiles ou de la flexibilité des modèles TensorFlow Lite personnalisés, ML Kit le permet avec seulement quelques lignes de code.
Quelles fonctionnalités sont disponibles sur l'appareil ou dans le cloud ?
Chemin de mise en œuvre
Intégrer le SDK | Incluez rapidement le SDK en utilisant Gradle ou CocoaPods. | |
Préparer les données d'entrée | Par exemple, si vous utilisez une fonction de vision, capturez une image à partir de l'appareil photo et générez les métadonnées nécessaires telles que la rotation de l'image, ou invitez l'utilisateur à sélectionner une photo dans sa galerie. | |
Appliquer le modèle ML à vos données | En appliquant le modèle ML à vos données, vous générez des informations telles que l'état émotionnel des visages détectés ou les objets et concepts qui ont été reconnus dans l'image, selon la fonctionnalité que vous avez utilisée. Utilisez ces informations pour optimiser les fonctionnalités de votre application, telles que l'embellissement de photos, la génération automatique de métadonnées ou tout ce que vous pouvez imaginer. |
Prochaines étapes
- Découvrez les API prêtes à l'emploi : reconnaissance de texte , détection de visage , lecture de codes- barres , étiquetage d'images , détection et suivi d'objets , reconnaissance de points de repère , réponse intelligente , traduction et identification de la langue .
- Entraînez votre propre modèle d'étiquetage d'image avec AutoML Vision Edge .
- Découvrez comment utiliser des modèles personnalisés optimisés pour les mobiles dans votre application.