Catch up on highlights from Firebase at Google I/O 2023. Learn more

Entraîner un modèle d'étiquetage d'image avec AutoML Vision Edge

Pour entraîner un modèle d'étiquetage d'image, vous fournissez à AutoML Vision Edge un ensemble d'images et les étiquettes correspondantes. AutoML Vision Edge utilise cet ensemble de données pour former un nouveau modèle dans le cloud, que vous pouvez utiliser pour l'étiquetage des images sur l'appareil dans votre application. (Voir la Présentation pour des informations générales sur cette fonctionnalité.)

AutoML Vision Edge est un service Google Cloud. L'utilisation du service est soumise au contrat de licence Google Cloud Platform et aux conditions spécifiques au service , et facturée en conséquence. Pour plus d'informations sur la facturation, consultez la page Tarification AutoML.

Avant que tu commences

1. Assemblez vos données d'entraînement

Tout d'abord, vous devez créer un ensemble de données d'entraînement d'images étiquetées. Gardez à l'esprit les directives suivantes :

  • Les images doivent être dans l'un des formats suivants : JPEG, PNG, GIF, BMP, ICO.

  • Chaque image doit peser 30 Mo ou moins. Notez qu'AutoML Vision Edge réduit la plupart des images lors du prétraitement. Il n'y a donc généralement aucun avantage en termes de précision à fournir des images à très haute résolution.

  • Inclure au moins 10, et de préférence 100 ou plus, exemples de chaque étiquette.

  • Incluez plusieurs angles, résolutions et arrière-plans pour chaque étiquette.

  • Les données d'entraînement doivent être aussi proches que possible des données sur lesquelles des prédictions doivent être faites. Par exemple, si votre cas d'utilisation implique des images floues et à faible résolution (comme celles d'une caméra de sécurité), vos données d'entraînement doivent être composées d'images floues et à faible résolution.

  • Les modèles générés par AutoML Vision Edge sont optimisés pour les photographies d'objets dans le monde réel. Ils peuvent ne pas fonctionner correctement pour les radiographies, les dessins à la main, les documents numérisés, les reçus, etc.

    De plus, les modèles ne peuvent généralement pas prédire les étiquettes que les humains ne peuvent pas attribuer. Ainsi, si un humain ne peut pas attribuer d'étiquettes en regardant l'image pendant 1 à 2 secondes, le modèle ne peut probablement pas être entraîné à le faire non plus.

Lorsque vos images d'entraînement sont prêtes, préparez-les à importer dans Firebase. Vous avez trois options :

Option 1 : archive zip structurée

Organisez vos images d'entraînement dans des répertoires, chacun nommé d'après une étiquette et contenant des images qui sont des exemples de cette étiquette. Ensuite, compressez la structure du répertoire dans une archive zip.

Les noms de répertoire dans cette archive zip peuvent comporter jusqu'à 32 caractères ASCII et ne peuvent contenir que des caractères alphanumériques et le caractère de soulignement ( _ ).

Par exemple:

my_training_data.zip
  |____accordion
  | |____001.jpg
  | |____002.jpg
  | |____003.jpg
  |____bass_guitar
  | |____hofner.gif
  | |____p-bass.png
  |____clavier
    |____well-tempered.jpg
    |____well-tempered (1).jpg
    |____well-tempered (2).jpg

Option 2 : Cloud Storage avec index CSV

Téléchargez vos images d'entraînement sur Google Cloud Storage et préparez un fichier CSV répertoriant l'URL de chaque image et, éventuellement, les étiquettes correctes pour chaque image. Cette option est utile lors de l'utilisation de jeux de données très volumineux.

Par exemple, importez vos images dans Cloud Storage et préparez un fichier CSV comme suit :

gs://your-training-data-bucket/001.jpg,accordion
gs://your-training-data-bucket/002.jpg,accordion
gs://your-training-data-bucket/003.jpg,accordion
gs://your-training-data-bucket/hofner.gif,bass_guitar
gs://your-training-data-bucket/p-bass.png,bass_guitar
gs://your-training-data-bucket/well-tempered.jpg,clavier
gs://your-training-data-bucket/well-tempered%20(1).jpg,clavier
gs://your-training-data-bucket/well-tempered%20(2).jpg,clavier

Les images doivent être stockées dans un bucket faisant partie du projet Google Cloud correspondant de votre projet Firebase.

Pour plus d'informations sur la préparation du fichier CSV, consultez la section Préparation de vos données d'entraînement dans la documentation Cloud AutoML Vision.

Option 3 : Images sans étiquette

Étiquetez vos images d'entraînement dans la console Firebase après les avoir téléchargées, soit individuellement, soit dans un fichier zip non structuré. Voir l'étape suivante.

2. Entraînez votre modèle

Ensuite, entraînez un modèle à l'aide de vos images :

  1. Ouvrez la page Ensembles de données Vision dans Google Cloud Console. Sélectionnez votre projet lorsque vous y êtes invité.

  2. Cliquez sur Nouveau jeu de données , indiquez un nom pour le jeu de données, sélectionnez le type de modèle que vous souhaitez former, puis cliquez sur Créer un jeu de données .

  3. Dans l'onglet Importer de votre ensemble de données, importez soit une archive zip de vos images d'entraînement, soit un fichier CSV contenant les emplacements Cloud Storage vers lesquels vous les avez importées. Voir Assembler vos données d'entraînement .

  4. Une fois la tâche d'importation terminée, utilisez l'onglet Images pour vérifier les données d'entraînement et étiqueter les images non étiquetées.

  5. Dans l'onglet Entraînement , cliquez sur Démarrer l'entraînement .

    1. Nommez le modèle et sélectionnez le type de modèle Edge .

    2. Configurez les paramètres d'entraînement suivants, qui régissent les performances du modèle généré :

      Optimiser le modèle pour... La configuration du modèle à utiliser. Vous pouvez former des modèles plus rapides et plus petits lorsqu'une faible latence ou une petite taille de paquet sont importantes, ou des modèles plus lents et plus grands lorsque la précision est la plus importante.
      Budget horaire de nœud

      Le temps maximal, en heures de calcul, à consacrer à la formation du modèle. Plus de temps de formation se traduit généralement par un modèle plus précis.

      Notez que la formation peut être effectuée en moins de temps que le temps spécifié si le système détermine que le modèle est optimisé et qu'une formation supplémentaire n'améliorerait pas la précision. Vous n'êtes facturé que pour les heures réellement consommées.

      Temps de formation typiques
      Très petits ensembles 1 heure
      500 images 2 heures
      1 000 images 3 heures
      5 000 images 6 heures
      10 000 images 7 heures
      50 000 images 11 heures
      100 000 images 13 heures
      1 000 000 images 18 heures

3. Évaluez votre modèle

Une fois la formation terminée, vous pouvez cliquer sur l'onglet Évaluer pour afficher les métriques de performances du modèle.

Une utilisation importante de cette page consiste à déterminer le seuil de confiance qui convient le mieux à votre modèle. Le seuil de confiance est la confiance minimale que le modèle doit avoir pour attribuer une étiquette à une image. En déplaçant le curseur Seuil de confiance , vous pouvez voir comment différents seuils affectent les performances du modèle. Les performances du modèle sont mesurées à l'aide de deux métriques : la précision et le rappel .

Dans le contexte de la classification d'images, la précision est le rapport entre le nombre d'images correctement étiquetées et le nombre d'images étiquetées par le modèle compte tenu du seuil sélectionné. Lorsqu'un modèle a une précision élevée, il attribue moins souvent des étiquettes incorrectes (moins de faux positifs).

Le rappel est le rapport entre le nombre d'images correctement étiquetées et le nombre d'images dont le contenu aurait dû être étiqueté par le modèle. Lorsqu'un modèle a un rappel élevé, il n'attribue aucune étiquette moins souvent (moins de faux négatifs).

Que vous optimisiez pour la précision ou le rappel dépendra de votre cas d'utilisation. Pour plus d'informations, consultez le guide du débutant AutoML Vision et le guide Inclusive ML - AutoML .

Lorsque vous trouvez un seuil de confiance qui produit des métriques avec lesquelles vous êtes à l'aise, notez-le ; vous utiliserez le seuil de confiance pour configurer le modèle dans votre application. (Vous pouvez utiliser cet outil à tout moment pour obtenir une valeur de seuil appropriée.)

4. Publiez ou téléchargez votre modèle

Si vous êtes satisfait des performances du modèle et que vous souhaitez l'utiliser dans une application, vous disposez de trois options parmi lesquelles vous pouvez choisir n'importe quelle combinaison : déployer le modèle pour la prédiction en ligne, publier le modèle sur Firebase ou télécharger le modèle et le regrouper. avec votre application.

Déployer le modèle

Dans l'onglet Tester et utiliser de votre jeu de données, vous pouvez déployer votre modèle pour la prédiction en ligne, qui exécute votre modèle dans le cloud. Cette option est décrite dans la documentation Cloud AutoML . Les documents sur ce site traitent des deux options restantes.

Publier le modèle

En publiant le modèle sur Firebase, vous pouvez mettre à jour le modèle sans publier une nouvelle version de l'application, et vous pouvez utiliser la configuration à distance et les tests A/B pour proposer dynamiquement différents modèles à différents groupes d'utilisateurs.

Si vous choisissez de ne fournir le modèle qu'en l'hébergant avec Firebase, et de ne pas le regrouper avec votre application, vous pouvez réduire la taille de téléchargement initiale de votre application. Gardez toutefois à l'esprit que si le modèle n'est pas fourni avec votre application, aucune fonctionnalité liée au modèle ne sera disponible tant que votre application n'aura pas téléchargé le modèle pour la première fois.

Pour publier votre modèle, vous pouvez utiliser l'une des deux méthodes suivantes :

  • Téléchargez le modèle TF Lite à partir de la page Test et utilisation de votre ensemble de données dans Google Cloud Console, puis importez le modèle sur la page Modèle personnalisé de la console Firebase. C'est généralement le moyen le plus simple de publier un seul modèle.
  • Publiez le modèle directement depuis votre projet Google Cloud vers Firebase à l'aide du SDK Admin. Vous pouvez utiliser cette méthode pour publier plusieurs modèles par lots ou pour aider à créer des pipelines de publication automatisés.

Pour publier le modèle avec l' API de gestion des modèles du SDK Admin :

  1. Installez et initialisez le SDK .

  2. Publiez le modèle.

    Vous devrez spécifier l'identifiant de ressource du modèle, qui est une chaîne qui ressemble à l'exemple suivant :

    projects/PROJECT_NUMBER/locations/us-central1/models/MODEL_ID
    PROJECT_NUMBER Numéro de projet du bucket Cloud Storage contenant le modèle. Il peut s'agir de votre projet Firebase ou d'un autre projet Google Cloud. Vous pouvez trouver cette valeur sur la page Paramètres de la console Firebase ou sur le tableau de bord Google Cloud Console.
    MODEL_ID L'ID du modèle, que vous avez obtenu à partir de l'API AutoML Cloud.

    Python

    # First, import and initialize the SDK.
    
    # Get a reference to the AutoML model
    source = ml.TFLiteAutoMlSource('projects/{}/locations/us-central1/models/{}'.format(
        # See above for information on these values.
        project_number,
        model_id
    ))
    
    # Create the model object
    tflite_format = ml.TFLiteFormat(model_source=source)
    model = ml.Model(
        display_name="example_model",  # This is the name you will use from your app to load the model.
        tags=["examples"],             # Optional tags for easier management.
        model_format=tflite_format)
    
    # Add the model to your Firebase project and publish it
    new_model = ml.create_model(model)
    new_model.wait_for_unlocked()
    ml.publish_model(new_model.model_id)
    

    Node.js

    // First, import and initialize the SDK.
    
    (async () => {
      // Get a reference to the AutoML model. See above for information on these
      // values.
      const automlModel = `projects/${projectNumber}/locations/us-central1/models/${modelId}`;
    
      // Create the model object and add the model to your Firebase project.
      const model = await ml.createModel({
        displayName: 'example_model',  // This is the name you use from your app to load the model.
        tags: ['examples'],  // Optional tags for easier management.
        tfliteModel: { automlModel: automlModel },
      });
    
      // Wait for the model to be ready.
      await model.waitForUnlocked();
    
      // Publish the model.
      await ml.publishModel(model.modelId);
    
      process.exit();
    })().catch(console.error);
    

Téléchargez et regroupez le modèle avec votre application

En regroupant votre modèle avec votre application, vous pouvez vous assurer que les fonctionnalités de ML de votre application fonctionnent toujours lorsque le modèle hébergé sur Firebase n'est pas disponible.

Si vous publiez le modèle et le regroupez avec votre application, l'application utilisera la dernière version disponible.

Pour télécharger votre modèle, cliquez sur TF Lite sur la page Test et utilisation de votre jeu de données.

Prochaines étapes

Maintenant que vous avez publié ou téléchargé le modèle, découvrez comment l'utiliser dans vos applications iOS+ et Android .