Google is committed to advancing racial equity for Black communities. See how.
Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

Trainieren Sie ein Bildbeschriftungsmodell mit AutoML Vision Edge

Um ein Bildbeschriftungsmodell zu trainieren, stellen Sie AutoML Vision Edge eine Reihe von Bildern und entsprechenden Beschriftungen zur Verfügung. AutoML Vision Edge verwendet dieses Dataset, um ein neues Modell in der Cloud zu trainieren, das Sie für die Bildbeschriftung auf dem Gerät in Ihrer App verwenden können. (Allgemeine Informationen zu dieser Funktion finden Sie in der Übersicht .)

Bevor Sie beginnen

1. Stellen Sie Ihre Trainingsdaten zusammen

Zunächst müssen Sie einen Trainingsdatensatz mit beschrifteten Bildern zusammenstellen. Beachten Sie die folgenden Richtlinien:

  • Die Bilder müssen in einem der folgenden Formate vorliegen: JPEG, PNG, GIF, BMP, ICO.

  • Jedes Bild muss 30 MB oder kleiner sein. Beachten Sie, dass AutoML Vision Edge die meisten Bilder während der Vorverarbeitung verkleinert, sodass die Bereitstellung von Bildern mit sehr hoher Auflösung im Allgemeinen keinen Genauigkeitsvorteil bietet.

  • Geben Sie mindestens 10 und vorzugsweise 100 oder mehr Beispiele für jedes Etikett an.

    Wenn sich Ihr Firebase-Projekt im Spark-Plan befindet, kann Ihr Projekt höchstens einen Datensatz mit maximal 1.000 Bildern enthalten.

  • Fügen Sie für jedes Etikett mehrere Winkel, Auflösungen und Hintergründe hinzu.

  • Die Trainingsdaten sollten so nah wie möglich an den Daten sein, auf denen Vorhersagen getroffen werden sollen. Wenn Ihr Anwendungsfall beispielsweise verschwommene Bilder mit niedriger Auflösung (z. B. von einer Überwachungskamera) umfasst, sollten Ihre Trainingsdaten aus verschwommenen Bildern mit niedriger Auflösung bestehen.

  • Die von AutoML Vision Edge generierten Modelle sind für Fotos von Objekten in der realen Welt optimiert. Sie eignen sich möglicherweise nicht für Röntgenbilder, Handzeichnungen, gescannte Dokumente, Quittungen usw.

    Außerdem können die Modelle im Allgemeinen keine Bezeichnungen vorhersagen, die Menschen nicht zuweisen können. Wenn ein Mensch keine Beschriftungen zuweisen kann, indem er das Bild 1-2 Sekunden lang betrachtet, kann das Modell wahrscheinlich auch nicht darauf trainiert werden.

Wenn Sie Ihre Trainingsbilder fertig haben, bereiten Sie sie für den Import in Firebase vor. Sie haben drei Möglichkeiten:

Option 1: Strukturiertes Zip-Archiv

Organisieren Sie Ihre Trainingsbilder in Verzeichnissen, die jeweils nach einem Etikett benannt sind und Bilder enthalten, die Beispiele für dieses Etikett sind. Komprimieren Sie dann die Verzeichnisstruktur in ein Zip-Archiv.

Die Verzeichnisnamen in diesem Zip-Archiv können bis zu 32 ASCII-Zeichen lang sein und dürfen nur alphanumerische Zeichen und den Unterstrich ( _ ) enthalten.

Beispielsweise:

my_training_data.zip
  |____accordion
  | |____001.jpg
  | |____002.jpg
  | |____003.jpg
  |____bass_guitar
  | |____hofner.gif
  | |____p-bass.png
  |____clavier
    |____well-tempered.jpg
    |____well-tempered (1).jpg
    |____well-tempered (2).jpg

Option 2: Cloud-Speicher mit CSV-Index

Nur Blaze-Plan : Laden Sie Ihre Trainingsbilder in Google Cloud Storage hoch und erstellen Sie eine CSV-Datei, in der die URL jedes Bildes und optional die richtigen Beschriftungen für jedes Bild aufgeführt sind. Diese Option ist hilfreich, wenn Sie sehr große Datenmengen verwenden.

Laden Sie beispielsweise Ihre Bilder in den Cloud-Speicher hoch und bereiten Sie eine CSV-Datei wie folgt vor:

gs://your-training-data-bucket/001.jpg,accordion
gs://your-training-data-bucket/002.jpg,accordion
gs://your-training-data-bucket/003.jpg,accordion
gs://your-training-data-bucket/hofner.gif,bass_guitar
gs://your-training-data-bucket/p-bass.png,bass_guitar
gs://your-training-data-bucket/well-tempered.jpg,clavier
gs://your-training-data-bucket/well-tempered%20(1).jpg,clavier
gs://your-training-data-bucket/well-tempered%20(2).jpg,clavier

Die Bilder müssen in einem Bucket gespeichert werden, der Teil des entsprechenden Cloud-Projekts Ihres Firebase-Projekts ist.

Weitere Informationen zum Vorbereiten der CSV-Datei finden Sie unter Vorbereiten Ihrer Trainingsdaten in der Cloud AutoML Vision-Dokumentation.

Option 3: Unbeschriftete Bilder

Beschriften Sie Ihre Trainingsbilder in der Firebase-Konsole, nachdem Sie sie entweder einzeln oder in einer unstrukturierten Zip-Datei hochgeladen haben. Siehe den nächsten Schritt.

2. Trainieren Sie Ihr Modell

Trainieren Sie als Nächstes ein Modell mit Ihren Bildern:

  1. Öffnen Sie den Abschnitt Maschinelles Lernen der Firebase-Konsole. Wählen Sie Ihr Projekt aus, wenn Sie dazu aufgefordert werden.

  2. Klicken Sie auf die Registerkarte AutoML, und klicken Sie dann auf Erstellen eines ersten AutoML - Datensatz oder ein anderes Daten - Set hinzufügen. Nachdem Sie einen Namen für das neue Dataset angegeben haben, führt Sie die Konsole durch die folgenden Schritte:

    1. Laden Sie entweder die Trainingsbilder oder eine CSV-Datei hoch, die die Cloud-Speicherorte enthält, in die Sie sie hochgeladen haben. Siehe Zusammenstellen Ihrer Trainingsdaten .
    2. Überprüfen Sie nach Abschluss des Uploads die Trainingsdaten und beschriften Sie alle unbeschrifteten Bilder.
    3. Beginnen Sie mit dem Training eines Modells anhand der Trainingsdaten. Sie können die folgenden Einstellungen konfigurieren, die die Leistung des generierten Modells bestimmen:
      Latenz und Paketgröße Die zu verwendende Modellkonfiguration. Sie können schnellere, kleinere Modelle trainieren, wenn eine geringe Latenz oder eine kleine Paketgröße wichtig sind, oder langsamere, größere Modelle, wenn die Genauigkeit am wichtigsten ist.
      Trainings zeit

      Die maximale Zeit in Rechenstunden, um das Modell zu trainieren. Eine längere Trainingszeit führt im Allgemeinen zu einem genaueren Modell.

      Beachten Sie, dass das Training in weniger als der angegebenen Zeit abgeschlossen werden kann, wenn das System feststellt, dass das Modell optimiert ist und zusätzliches Training die Genauigkeit nicht verbessern würde. Ihnen werden nur die tatsächlich genutzten Stunden in Rechnung gestellt.

      Typische Trainingszeiten
      Sehr kleine Sets 1 Stunde
      500 Bilder 2 Stunden
      1.000 Bilder 3 Stunden
      5.000 Bilder 6 Stunden
      10.000 Bilder 7 Stunden
      50.000 Bilder 11 Stunden
      100.000 Bilder 13 Stunden
      1.000.000 Bilder 18 Stunden

3. Bewerten Sie Ihr Modell

Nach Abschluss des Trainings können Sie auf der Dataset-Detailseite auf das Modell klicken, um die Leistungsmetriken für das Modell anzuzeigen.

Eine wichtige Verwendung dieser Seite ist die Bestimmung des Bewertungsschwellenwerts, der für Ihr Modell am besten geeignet ist. Der Bewertungsschwellenwert ist das Mindestvertrauen, das das Modell haben muss, um einem Bild eine Beschriftung zuzuweisen. Durch Verschieben des Schiebereglers für den Bewertungsschwellenwert können Sie sehen, wie sich unterschiedliche Schwellenwerte auf die Leistung des Modells auswirken. Die Modellleistung wird anhand von zwei Metriken gemessen: Präzision und Rückruf .

Im Zusammenhang mit der Bildklassifizierung ist Präzision das Verhältnis der Anzahl der Bilder, die korrekt beschriftet wurden, zur Anzahl der Bilder, die das Modell unter Berücksichtigung des ausgewählten Schwellenwerts beschriftet hat. Wenn ein Modell eine hohe Präzision aufweist, weist es Beschriftungen seltener falsch zu (weniger Fehlalarme).

Rückruf ist das Verhältnis der Anzahl der Bilder, die korrekt beschriftet wurden, zur Anzahl der Bilder, deren Inhalt das Modell hätte beschriften können. Wenn ein Modell einen hohen Rückruf aufweist, kann es seltener eine Bezeichnung zuweisen (weniger falsch negative Ergebnisse).

Ob Sie für Präzision oder Rückruf optimieren, hängt von Ihrem Anwendungsfall ab. Weitere Informationen finden Sie im AutoML Vision-Handbuch für Anfänger und im Inclusive ML-Handbuch - AutoML .

Wenn Sie einen Bewertungsschwellenwert finden, der Metriken erzeugt, mit denen Sie vertraut sind, notieren Sie sich diesen. Sie verwenden den Bewertungsschwellenwert, um das Modell in Ihrer App zu konfigurieren. (Sie können dieses Tool jederzeit verwenden, um einen geeigneten Schwellenwert zu erhalten.)

4. Veröffentlichen oder laden Sie Ihr Modell herunter

Wenn Sie mit der Leistung des Modells zufrieden sind und es in einer App verwenden möchten, veröffentlichen Sie das Modell, laden Sie das Modell herunter oder beides.

Durch Veröffentlichen des Modells in Firebase können Sie das Modell aktualisieren, ohne eine neue App-Version zu veröffentlichen, und Sie können Remote Config und A / B Testing verwenden, um verschiedene Modelle dynamisch für verschiedene Benutzergruppen bereitzustellen.

Wenn Sie das Modell nur durch Hosten mit Firebase bereitstellen und nicht mit Ihrer App bündeln, können Sie die anfängliche Downloadgröße Ihrer App reduzieren. Beachten Sie jedoch, dass, wenn das Modell nicht mit Ihrer App gebündelt ist, keine modellbezogenen Funktionen verfügbar sind, bis Ihre App das Modell zum ersten Mal herunterlädt.

Indem Sie Ihr Modell mit Ihrer App bündeln, können Sie sicherstellen, dass die ML-Funktionen Ihrer App weiterhin funktionieren, wenn das von Firebase gehostete Modell nicht verfügbar ist.

Wenn Sie beide das Modell veröffentlichen und mit Ihrer App bündeln, verwendet die App die neueste verfügbare Version.

Um das Modell herunterzuladen oder zu veröffentlichen, klicken Sie auf der Bewertungsseite des Modells auf Modell verwenden .

  • Wenn Sie das Modell herunterladen, erhalten Sie ein Zip-Archiv mit der Modelldatei, der Etikettendatei und der Manifestdatei. Firebase ML benötigt alle drei Dateien, um das Modell aus dem lokalen Speicher zu laden.

  • Wenn Sie das Modell in Firebase veröffentlichen, geben Sie einen Namen für das Modell an. Sie verwenden diesen Namen, um auf das Modell zu verweisen, wenn Sie es mit dem SDK laden.

Nächste Schritte

Erfahren Sie, wie Sie Ihr AutoML-geschultes Modell in Ihren iOS- und Android- Apps verwenden.

Anhang: Wo werden meine Dateien gespeichert?

Wenn Sie sich im Blaze-Plan befinden, erstellt Firebase ML einen neuen Speicherbereich für AutoML Vision Edge-Daten:

gs://AUTOGENERATED_BUCKET/DATASET_NAME/

Die Firebase-Konsole stellt beim Durchsuchen von Datasets Bilder aus diesem Bucket bereit. Wenn Sie das Kontingent für die kostenlose Nutzung überschreiten, fallen möglicherweise Gebühren für die Netzwerknutzung an.

Wenn Sie sich im Spark-Plan befinden, speichert Firebase Ihre AutoML Vision Edge-Daten intern, anstatt den Cloud-Speicher Ihres Projekts zu verwenden.