Ein Modell zur Objekterkennung ähnelt einem Modell zum Bildlabeln. Anstatt Labels auf ganze Bilder anzuwenden, werden sie auf Bildregionen angewendet. Mit Objekterkennungsmodellen können Sie Objekte in einem Bild erkennen und lokalisieren oder die Bewegungen eines Objekts in einer Reihe von Bildern verfolgen.
Zum Trainieren eines Objekterkennungsmodells stellen Sie AutoML Vision Edge eine Reihe von Bildern mit entsprechenden Objektlabels und Objektgrenzen zur Verfügung. AutoML Vision Edge verwendet dieses Dataset, um ein neues Modell in der Cloud zu trainieren, das Sie für die On-Device-Objekterkennung verwenden können.
Die Modelltrainingsfunktion vonHinweis
Wenn Sie noch kein Firebase-Projekt haben, erstellen Sie eines in der Firebase Console.
Machen Sie sich mit den Richtlinien im Leitfaden zu inklusivem ML – AutoML vertraut.
Wenn Sie AutoML Vision Edge nur ausprobieren möchten und keine eigenen Trainingsdaten haben, können Sie ein Beispiel-Dataset herunterladen, z. B. eines der folgenden:
- Einer der empfohlenen Datasets von TensorFlow.
- Ein Dataset, das auf Kaggle gehostet wird.
1. Trainingsdaten zusammenstellen
Zuerst müssen Sie ein Trainings-Dataset mit gekennzeichneten Bildern zusammenstellen. Beachten Sie dabei die folgenden Richtlinien:
Die Bilder müssen in einem der folgenden Formate vorliegen: JPEG, PNG, GIF, BMP oder ICO.
Jedes Bild darf maximal 30 MB groß sein. Beachten Sie, dass AutoML Vision Edge die meisten Bilder während der Vorverarbeitung herunterskaliert. Daher bietet die Bereitstellung von Bildern mit sehr hoher Auflösung in der Regel keinen Vorteil in Bezug auf die Genauigkeit.
Fügen Sie für jedes Label mindestens 10 und vorzugsweise mindestens 100 Beispiele hinzu.
Verwenden Sie für jedes Label mehrere Blickwinkel, Auflösungen und Hintergründe.
Die Trainingsdaten sollten den Daten, für die Vorhersagen getroffen werden sollen, möglichst ähnlich sein. Wenn Ihr Anwendungsfall beispielsweise verschwommene Bilder mit niedriger Auflösung (etwa von einer Überwachungskamera) beinhaltet, sollten Ihre Trainingsdaten aus verschwommenen Bildern mit niedriger Auflösung bestehen.
Die von AutoML Vision Edge generierten Modelle sind für Fotos von Objekten aus dem richtigen Leben optimiert. Sie eignen sich möglicherweise nicht gut für Röntgenbilder, Handzeichnungen, gescannte Dokumente oder Belege.
Außerdem können die Modelle in der Regel keine Labels vorhersagen, die von Menschen nicht zugewiesen werden können. Wenn also ein Mensch nicht darin unterwiesen werden kann, beim Betrachten eines Bildes innerhalb von 1 bis 2 Sekunden ein Label zuzuweisen, kann Ihr Modell wahrscheinlich auch nicht dafür trainiert werden.
Wenn Sie Ihre Trainingsbilder zusammengestellt haben, bereiten Sie sie für den Import in Google Cloud vor. Es stehen zwei Optionen zur Verfügung:
Option 1: Cloud Storage mit CSV-Index
Laden Sie Ihre Trainingsbilder in Google Cloud Storage hoch und erstellen Sie eine CSV-Datei mit der URL jedes Bildes und optional den richtigen Objektlabels und Begrenzungsregionen für jedes Bild. Diese Option ist hilfreich, wenn Sie mit großen Datenmengen arbeiten.
Laden Sie Ihre Bilder beispielsweise in Cloud Storage hoch und erstellen Sie eine CSV-Datei wie die folgende:
gs://your-training-data-bucket/001.jpg,accordion,0.2,0.4,,,0.3,0.5,, gs://your-training-data-bucket/001.jpg,tuba,0.2,0.5,,,0.4,0.8,, gs://your-training-data-bucket/002.jpg,accordion,0.2,0.2,,,0.9,0.8,,
Objektbegrenzungsrahmen werden als relative Koordinaten im Bild angegeben. Weitere Informationen finden Sie unter CSV-Datei für Trainingsdaten formatieren.
Die Bilder müssen in einem Bucket gespeichert sein, der sich in der Region us-central1
befindet und zum entsprechenden Google Cloud-Projekt Ihres Firebase-Projekts gehört.
Option 2: Bilder ohne Labels
Beschriften Sie Ihre Trainingsbilder und zeichnen Sie Objektgrenzen in der Google Cloud Console nach dem Hochladen. Dies wird nur für kleine Datensätze empfohlen. Fahren Sie mit dem nächsten Schritt fort.
2. Modell trainieren
Trainieren Sie als Nächstes ein Modell mit Ihren Bildern:
Öffnen Sie in der Google Cloud-Konsole die Seite Vision-Datasets. Wählen Sie Ihr Projekt aus, wenn Sie dazu aufgefordert werden.
Klicken Sie auf Neues Dataset, geben Sie einen Namen für das Dataset ein, wählen Sie den Modelltyp aus, den Sie trainieren möchten, und klicken Sie auf Dataset erstellen.
Laden Sie auf dem Tab Importieren Ihres Datasets Ihre Trainingsbilder, ein ZIP-Archiv Ihrer Trainingsbilder oder eine CSV-Datei mit den Cloud Storage-Standorten hoch, an die Sie sie hochgeladen haben. Weitere Informationen finden Sie unter Trainingsdaten zusammenstellen.
Prüfen Sie nach Abschluss der Importaufgabe die Trainingsdaten auf dem Tab Bilder.
Wenn Sie keine CSV-Datei hochgeladen haben, zeichnen Sie für jedes Bild Begrenzungsrahmen um die Objekte, die erkannt werden sollen, und labeln Sie jedes Objekt.
Klicken Sie auf dem Tab Trainieren auf Training starten.
Geben Sie einen Namen für das Modell ein und wählen Sie den Modelltyp Edge aus.
Konfigurieren Sie die folgenden Trainingseinstellungen, die die Leistung des generierten Modells steuern:
Modell optimieren für… Die zu verwendende Modellkonfiguration. Sie können schnellere, kleinere Modelle trainieren, wenn eine geringe Latenz oder eine kleine Paketgröße wichtig sind, oder langsamere, größere Modelle, wenn die Genauigkeit am wichtigsten ist. Knotenstundenbudget Die maximale Zeit in Rechenstunden, die für das Training des Modells aufgewendet werden soll. Eine längere Trainingszeit führt in der Regel zu einem genaueren Modell.
Das Training kann in weniger als der angegebenen Zeit abgeschlossen werden, wenn das System feststellt, dass das Modell optimiert ist und eine zusätzliche Schulung die Genauigkeit nicht verbessern würde. Ihnen werden nur die tatsächlich genutzten Stunden in Rechnung gestellt.
Übliche Trainingszeiten Sehr kleine Datensätze 1 Stunde 500 Bilder 2 Stunden 1.000 Bilder 3 Stunden 5.000 Bilder 6 Stunden 10.000 Bilder 7 Stunden 50.000 Bilder 11 Stunden 100.000 Bilder 13 Stunden 1.000.000 Bilder 18 Stunden
3. Modell bewerten
Wenn das Training abgeschlossen ist, können Sie auf den Tab Bewerten klicken, um Leistungsmesswerte für das Modell aufzurufen.
Auf dieser Seite können Sie unter anderem den Konfidenzgrenzwert ermitteln, der für Ihr Modell am besten geeignet ist. Der Konfidenzgrenzwert ist das minimale Vertrauen, das das Modell haben muss, um einem Bild ein Label zuzuweisen. Wenn Sie den Schieberegler für den Konfidenzwert bewegen, können Sie sehen, wie sich unterschiedliche Schwellenwerte auf die Leistung des Modells auswirken. Die Modellleistung wird anhand von zwei Messwerten gemessen: Precision und Recall.
Im Kontext der Bildklassifizierung ist die Precision das Verhältnis zwischen der Anzahl der Bilder, die richtig gekennzeichnet wurden, und der Anzahl der Bilder, die das Modell unter Berücksichtigung des ausgewählten Grenzwerts gekennzeichnet hat. Je höher die Precision eines Modells ist, desto seltener werden Labels falsch zugewiesen (weniger falsch positive Ergebnisse).
Die Trefferquote ist das Verhältnis zwischen der Anzahl der Bilder, die korrekt gekennzeichnet wurden, und der Anzahl der Bilder mit Inhalten, die das Modell hätte kennzeichnen können. Wenn ein Modell einen hohen Recall hat, wird seltener kein Label zugewiesen (weniger falsch negative Ergebnisse).
Ob Sie die Genauigkeit oder die Trefferquote optimieren sollten, hängt vom jeweiligen Anwendungsfall ab. Weitere Informationen finden Sie im Einstiegsleitfaden für AutoML Vision und im Leitfaden zu inklusivem ML – AutoML.
Wenn Sie einen Konfidenzgrenzwert finden, mit dem Sie zufrieden sind, notieren Sie sich diesen. Sie verwenden den Konfidenzgrenzwert, um das Modell in Ihrer App zu konfigurieren. Sie können dieses Tool jederzeit verwenden, um einen geeigneten Grenzwert zu erhalten.
4. Modell veröffentlichen oder herunterladen
Wenn Sie mit der Leistung des Modells zufrieden sind und es in einer App verwenden möchten, haben Sie drei Möglichkeiten, aus denen Sie eine beliebige Kombination auswählen können: das Modell für Onlinevorhersagen bereitstellen, das Modell in Firebase veröffentlichen oder das Modell herunterladen und mit Ihrer App bündeln.
Modell bereitstellen
Auf dem Tab Testen und verwenden Ihres Datasets können Sie Ihr Modell für die Onlinevorhersage bereitstellen. Dabei wird Ihr Modell in der Cloud ausgeführt. Weitere Informationen zu dieser Option finden Sie in den Dokumenten zu Cloud AutoML. Die Dokumente auf dieser Website behandeln die verbleibenden beiden Optionen.
Modell veröffentlichen
Wenn Sie das Modell in Firebase veröffentlichen, können Sie es aktualisieren, ohne eine neue App-Version zu veröffentlichen. Mit Remote Config und A/B Testing können Sie unterschiedliche Modelle dynamisch für unterschiedliche Nutzergruppen bereitstellen.
Wenn Sie das Modell nur über Firebase bereitstellen und nicht mit Ihrer App bündeln, können Sie die ursprüngliche Downloadgröße Ihrer App verringern. Beachten Sie jedoch, dass alle modellverbundenen Funktionen erst verfügbar sind, wenn Ihre App das Modell zum ersten Mal herunterlädt.
Sie haben zwei Möglichkeiten, Ihr Modell zu veröffentlichen:
- Laden Sie das TF Lite-Modell von der Seite Testen und verwenden Ihres Datasets in der Google Cloud-Konsole herunter und laden Sie es dann auf der Seite Benutzerdefiniertes Modell der Firebase-Konsole hoch. Das ist in der Regel die einfachste Möglichkeit, ein einzelnes Modell zu veröffentlichen.
- Veröffentlichen Sie das Modell direkt über das Admin SDK aus Ihrem Google Cloud-Projekt in Firebase. Mit dieser Methode können Sie mehrere Modelle gleichzeitig veröffentlichen oder automatisierte Veröffentlichungspipelines erstellen.
So veröffentlichen Sie das Modell mit der Model Management API des Admin SDK:
Veröffentlichen Sie das Modell.
Sie müssen die Ressourcen-ID des Modells angeben. Das ist ein String, der in etwa so aussieht:
projects/PROJECT_NUMBER/locations/us-central1/models/MODEL_ID
PROJECT_NUMBER
Die Projektnummer des Cloud Storage-Buckets, das das Modell enthält. Das kann Ihr Firebase-Projekt oder ein anderes Google Cloud-Projekt sein. Sie finden diesen Wert auf der Seite „Einstellungen“ der Firebase Console oder im Dashboard der Google Cloud Console. MODEL_ID
Die ID des Modells, die Sie von der AutoML Cloud API erhalten haben. Python
# First, import and initialize the SDK. # Get a reference to the AutoML model source = ml.TFLiteAutoMlSource('projects/{}/locations/us-central1/models/{}'.format( # See above for information on these values. project_number, model_id )) # Create the model object tflite_format = ml.TFLiteFormat(model_source=source) model = ml.Model( display_name="example_model", # This is the name you will use from your app to load the model. tags=["examples"], # Optional tags for easier management. model_format=tflite_format) # Add the model to your Firebase project and publish it new_model = ml.create_model(model) new_model.wait_for_unlocked() ml.publish_model(new_model.model_id)
Node.js
// First, import and initialize the SDK. (async () => { // Get a reference to the AutoML model. See above for information on these // values. const automlModel = `projects/${projectNumber}/locations/us-central1/models/${modelId}`; // Create the model object and add the model to your Firebase project. const model = await ml.createModel({ displayName: 'example_model', // This is the name you use from your app to load the model. tags: ['examples'], // Optional tags for easier management. tfliteModel: { automlModel: automlModel }, }); // Wait for the model to be ready. await model.waitForUnlocked(); // Publish the model. await ml.publishModel(model.modelId); process.exit(); })().catch(console.error);
Modell herunterladen und mit Ihrer App bündeln
Wenn Sie Ihr Modell mit Ihrer App bündeln, können Sie dafür sorgen, dass die ML-Funktionen Ihrer App auch dann funktionieren, wenn das in Firebase gehostete Modell nicht verfügbar ist.
Wenn Sie das Modell veröffentlichen und es mit Ihrer App bündeln, verwendet die App die neueste verfügbare Version.
Klicken Sie auf der Seite Testen und verwenden des Datasets auf TF Lite, um das Modell herunterzuladen.
Nächste Schritte
Nachdem Sie das Modell veröffentlicht oder heruntergeladen haben, erfahren Sie hier, wie Sie es in Ihren iOS- und Android-Apps verwenden.