In-App-Messaging-Tests mit A/B Testing erstellen

Wenn Sie sich an Ihre Nutzer wenden oder eine neue Marketingkampagne starten, sollten Sie alles richtig machen. Mit A/B-Tests können Sie die optimale Formulierung und Präsentation finden, indem Sie Varianten der Mitteilung an ausgewählten Teilen Ihrer Nutzerbasis testen. Unabhängig davon, ob Sie die Bindung verbessern oder mehr Conversions mit einem Angebot erzielen möchten, können Sie mit A/B-Tests statistische Analysen durchführen, um festzustellen, ob eine Nachrichtenvariante die Baseline für das ausgewählte Zielvorhaben übertrifft.

So führen Sie A/B-Tests von Funktionsvarianten mit einer Baseline aus:

  1. Erstellen Sie den Test.
  2. Testen Sie den Test auf einem Testgerät.
  3. Verwalten Sie den Test.

Test erstellen

Mit einem Test, bei dem Firebase In-App Messaging verwendet wird, können Sie mehrere Varianten einer einzelnen In-App-Mitteilung bewerten.

  1. Melden Sie sich in der Firebase Console an und prüfen Sie, ob Google Analytics in Ihrem Projekt aktiviert ist, damit der Test Zugriff auf Analytics-Daten hat.

    Wenn Sie Google Analytics beim Erstellen Ihres Projekts nicht aktiviert haben, können Sie dies auf dem Tab Integrationen tun. Diesen Tab erreichen Sie in der Firebase Console über  > Projekteinstellungen.

  2. Klicken Sie im Navigationsmenü der Firebase Console im Bereich Engage auf A/B Testing.

  3. Klicken Sie auf Test erstellen und wählen Sie In-App-Messaging aus, wenn Sie nach dem Dienst gefragt werden, den Sie testen möchten.

  4. Alternativ können Sie im Navigationsmenü der Firebase Console die Option Engage maximieren und dann auf In-App Messaging klicken. Klicken Sie dann auf Neuer Test.

  5. Geben Sie einen Namen und optional eine Beschreibung für den Test ein und klicken Sie auf Weiter.

  6. Füllen Sie die Felder unter Targeting aus. Wählen Sie zuerst die App aus, in der der Test verwendet werden soll. Sie können auch einen Teil Ihrer Nutzer für die Teilnahme am Test auswählen. Dazu stehen Ihnen folgende Optionen zur Verfügung:

    • Version: Eine oder mehrere Versionen Ihrer App
    • Nutzergruppe: Analytics Zielgruppen, die auf Nutzer ausgerichtet sind, die möglicherweise am Test teilnehmen
    • Nutzereigenschaft: Eine oder mehrere Analytics-Nutzereigenschaften, mit denen Nutzer ausgewählt werden, die am Test teilnehmen könnten
    • Land/Region: Mindestens ein Land oder eine Region, um Nutzer auszuwählen, die in den Test einbezogen werden sollen
    • Gerätesprache: Eine oder mehrere Sprachen und Gebietsschemas, anhand derer Nutzer ausgewählt werden, die am Test teilnehmen könnten
    • Erstes Öffnen: Ausrichtung auf Nutzer, die Ihre App zum ersten Mal geöffnet haben
    • Letztes App-Engagement:Richten Sie Ihre Anzeigen auf Nutzer basierend auf dem Zeitpunkt aus, an dem sie das letzte Mal mit Ihrer App interagiert haben.
  7. Legen Sie den Prozentsatz der Zielnutzer fest: Wählen Sie den Prozentsatz der Nutzer Ihrer App aus, die die unter Zielnutzer festgelegten Kriterien erfüllen und die Sie gleichmäßig auf die Kontrollgruppe und eine oder mehrere Varianten in Ihrem Test verteilen möchten. Dies kann ein beliebiger Prozentsatz zwischen 0,01 % und 100 % sein. Die Prozentsätze werden Nutzern für jeden Test nach dem Zufallsprinzip neu zugewiesen, auch bei duplizierten Tests.

  8. Konfigurieren Sie im Bereich Varianten eine In-App-Nachricht für die Kontrollgruppe. Verwenden Sie dazu die Benutzeroberfläche zum Erstellen von Nachrichten, die Sie auch für eine normale In-App-Messaging-Kampagne verwenden.

  9. Klicken Sie auf Variante hinzufügen, um dem Test eine Variante hinzuzufügen. Standardmäßig haben Tests eine Baseline und eine Variante.

  10. Optional: Geben Sie einen aussagekräftigeren Namen für jede Variante ein.

  11. Optional: Klicken Sie oben im Abschnitt Varianten auf die Schaltfläche Varianten vergleichen, um eine oder mehrere Nachrichtenvarianten direkt mit der Baseline-Nachricht zu vergleichen.

  12. Definieren Sie einen Zielmesswert für Ihren Test, der bei der Bewertung der Testvarianten verwendet werden soll, sowie alle zusätzlichen Messwerte aus der Liste, die Sie verwenden möchten. Dazu gehören integrierte Zielvorhaben wie „Interaktionen“, „Käufe“, „Umsatz“ und „Bindung“. Analytics-Conversion-Ereignisse und andere Analytics-Ereignisse.

  13. Konfigurieren Sie die Planung für den Test:

    • Legen Sie ein Startdatum und ein Enddatum für den Test fest.
    • Legen Sie fest, wie In-App-Mitteilungen für alle Varianten ausgelöst werden.
  14. Klicken Sie auf Überprüfen, um den Test zu speichern.

Pro Projekt sind bis zu 300 Tests zulässig. Davon können bis zu 24 Tests aktiv sein, der Rest als Entwurf oder abgeschlossen.

Test auf einem Testgerät validieren

Sie können für jede Firebase-Installation das zugehörige Authentifizierungstoken abrufen. Mit diesem Token können Sie bestimmte Testvarianten auf einem Testgerät mit Ihrer App testen. So validieren Sie Ihren Test auf einem Testgerät:

  1. So rufen Sie das Authentifizierungstoken für die Installation ab:

    Swift

    do {
      let result = try await Installations.installations()
        .authTokenForcingRefresh(true)
      print("Installation auth token: \(result.authToken)")
    } catch {
      print("Error fetching token: \(error)")
    }

    Objective-C

    [[FIRInstallations installations] authTokenForcingRefresh:true
                                                   completion:^(FIRInstallationsAuthTokenResult *result, NSError *error) {
      if (error != nil) {
        NSLog(@"Error fetching Installation token %@", error);
        return;
      }
      NSLog(@"Installation auth token: %@", [result authToken]);
    }];

    Java

    FirebaseInstallations.getInstance().getToken(/* forceRefresh */true)
            .addOnCompleteListener(new OnCompleteListener<InstallationTokenResult>() {
        @Override
        public void onComplete(@NonNull Task<InstallationTokenResult> task) {
            if (task.isSuccessful() && task.getResult() != null) {
                Log.d("Installations", "Installation auth token: " + task.getResult().getToken());
            } else {
                Log.e("Installations", "Unable to get Installation auth token");
            }
        }
    });

    Kotlin+KTX

    val forceRefresh = true
    FirebaseInstallations.getInstance().getToken(forceRefresh)
        .addOnCompleteListener { task ->
            if (task.isSuccessful) {
                Log.d("Installations", "Installation auth token: " + task.result?.token)
            } else {
                Log.e("Installations", "Unable to get Installation auth token")
            }
        }
  2. Klicken Sie in der Navigationsleiste der Firebase Console auf A/B-Tests.
  3. Klicken Sie auf Entwurf (und/oder Aktuell für Remote Config-Tests), bewegen Sie den Mauszeiger auf den Test, klicken Sie auf das Kontextmenü  und dann auf Testgeräte verwalten.
  4. Geben Sie das Authentifizierungstoken der Installation für ein Testgerät ein und wählen Sie die Testvariante aus, die an dieses Testgerät gesendet werden soll.
  5. Führe die App aus und prüfe, ob die ausgewählte Variante auf dem Testgerät empfangen wird.

Weitere Informationen zu Firebase-Installationen finden Sie unter Firebase-Installationen verwalten.

Test verwalten

Unabhängig davon, ob Sie einen Test mit Remote Config, dem Benachrichtigungs-Editor oder Firebase In-App Messaging erstellen, können Sie ihn validieren und starten, während des Tests beobachten und die Anzahl der Nutzer erhöhen, die am laufenden Test teilnehmen.

Nach Abschluss des Tests können Sie die Einstellungen der Variante erfassen, die am besten zu ihnen passt, und sie dann für alle Nutzer einführen. Alternativ können Sie einen weiteren Test durchführen.

Test starten

  1. Klicken Sie im Navigationsmenü der Firebase-Konsole im Bereich Interagieren auf A/B Testing.
  2. Klicken Sie auf Entwurf und dann auf den Titel des Tests.
  3. Wenn Sie prüfen möchten, ob Ihre App Nutzer enthält, die in den Test einbezogen werden, maximieren Sie die Entwurfsdetails und suchen Sie im Bereich Targeting und Verteilung nach einer Zahl größer als 0% (z. B. 1% der Nutzer entspricht den Kriterien).
  4. Klicken Sie auf Bearbeiten, um den Test zu ändern.
  5. Klicken Sie auf Test starten, um den Test zu starten. Pro Projekt können bis zu 24 Tests gleichzeitig durchgeführt werden.

Test beobachten

Sobald ein Test eine Zeit lang gelaufen ist, können Sie seinen Fortschritt überprüfen und sehen, wie die Ergebnisse für die Nutzer aussehen, die bisher an dem Test teilgenommen haben.

  1. Klicken Sie im Navigationsmenü der Firebase Console im Bereich Engage auf A/B Testing.
  2. Klicken Sie auf Aktiv und klicken Sie dann auf den Titel des Tests oder suchen Sie danach. Auf dieser Seite finden Sie verschiedene beobachtete und modellierte Statistiken zu Ihrem laufenden Test, darunter:

    • Abweichung von ursprünglicher Variante in %: Ein Maß für die Verbesserung eines Messwerts für eine bestimmte Variante im Vergleich zur ursprünglichen Variante. Zur Berechnung wird der Wertebereich für die Variante mit dem Wertebereich für die Baseline verglichen.
    • Wahrscheinlichkeit, die ursprüngliche Variante zu übertreffen: Die geschätzte Wahrscheinlichkeit, dass eine bestimmte Variante die Baseline für den ausgewählten Messwert übertrifft.
    • observed_metric pro Nutzer: Basierend auf den Testergebnissen ist dies der prognostizierte Bereich, in dem sich der Messwert im Laufe der Zeit bewegen wird.
    • Summe observed_metric: Der beobachtete kumulative Wert für die Kontrollgruppe oder Variante. Mit diesem Wert wird die Leistung der einzelnen Testvarianten gemessen und die Werte Verbesserung, Wertbereich, Wahrscheinlichkeit, die Baseline zu übertreffen und Wahrscheinlichkeit, die beste Variante zu sein berechnet. Je nach Messwert wird diese Spalte möglicherweise als „Dauer pro Nutzer“, „Umsatz pro Nutzer“, „Bindungsrate“ oder „Conversion-Rate“ bezeichnet.
  3. Nachdem der Test eine Weile gelaufen ist (mindestens 7 Tage für FCM und In-App Messaging oder 14 Tage für Remote Config), geben die Daten auf dieser Seite an, welche Variante gegebenenfalls die beste Variante ist. Einige Messungen werden von einem Balkendiagramm begleitet, das die Daten in einem visuellen Format darstellt.

Test für alle Nutzer einführen

Wenn ein Test so lange gedauert hat, dass Sie die beste Variante für den entsprechenden Zielmesswert ermittelt haben, können Sie den Test auf alle Nutzer ausweiten. So können Sie eine Variante auswählen, die ab sofort für alle Nutzer veröffentlicht wird. Auch wenn Ihr Test keinen eindeutigen Gewinner ermittelt hat, können Sie eine Variante für alle Nutzer freigeben.

  1. Klicken Sie im Navigationsmenü der Firebase-Konsole im Bereich Interagieren auf A/B Testing.
  2. Klicken Sie auf Abgeschlossen oder Aktuell, klicken Sie auf einen Test, den Sie für alle Nutzer freigeben möchten, und dann auf das Kontextmenü () Variante bereitstellen.
  3. Führen Sie den Test für alle Nutzer ein. Gehen Sie dazu so vor:

    • Wenn für einen Test der Benachrichtigungs-Editor verwendet wird, können Sie die Nachricht über das Dialogfeld Roll-out-Nachricht an die übrigen Zielnutzer senden, die nicht am Test teilgenommen haben.
    • Wählen Sie für einen Remote Config-Test eine Variante aus, um zu bestimmen, welche Remote Config-Parameterwerte aktualisiert werden sollen. Die beim Erstellen des Tests definierten Targeting-Kriterien werden als neue Bedingung in Ihre Vorlage eingefügt, sodass die Variante nur für die Nutzer bereitgestellt wird, auf die der Test ausgerichtet ist. Klicken Sie auf In Remote Config überprüfen, um die Änderungen zu sehen. Klicken Sie zum Abschluss auf Änderungen veröffentlichen.
    • Legen Sie im Dialogfeld für einen In-App Messaging-Test fest, welche Variante als eigenständige In-App Messaging-Kampagne eingeführt werden soll. Danach werden Sie zum FIAM-Compose-Bildschirm weitergeleitet, wo Sie vor der Veröffentlichung gegebenenfalls Änderungen vornehmen können.

Test erweitern

Wenn du feststellst, dass ein Test nicht genügend Nutzer erreicht, sodass A/B Testing nicht als beste Variante gilt, kannst du die Verteilung des Tests erhöhen, um einen größeren Prozentsatz der Nutzerbasis der App zu erreichen.

  1. Klicken Sie im Navigationsmenü der Firebase-Konsole im Bereich Interagieren auf A/B Testing.
  2. Wählen Sie den laufenden Test aus, den Sie bearbeiten möchten.
  3. Klicken Sie in der Testübersicht auf das Kontextmenü  und dann auf Aktuellen Test bearbeiten.
  4. Im Dialogfeld Targeting können Sie den Prozentsatz der Nutzer erhöhen, die am laufenden Test teilnehmen. Wählen Sie eine Zahl aus, die über dem aktuellen Prozentsatz liegt, und klicken Sie auf Veröffentlichen. Der Test wird für den von Ihnen angegebenen Prozentsatz von Nutzern veröffentlicht.

Test duplizieren oder beenden

  1. Klicken Sie im Navigationsmenü der Firebase Console im Bereich Engage auf A/B Testing.
  2. Klicken Sie auf Abgeschlossen oder Laufend, bewegen Sie den Mauszeiger auf den Test, klicken Sie auf das Kontextmenü () und dann auf Test duplizieren oder Test beenden.

Nutzer-Targeting

Mithilfe der folgenden Kriterien können Sie Ihre Anzeigen auf Nutzer ausrichten, die in Ihren Test einbezogen werden sollen.

Targeting-Kriterium Betreiber Wert(e) Hinweis
Version enthält,
enthält nicht,
stimmt genau überein,
enthält Regex
Geben Sie einen Wert für eine oder mehrere App-Versionen ein, die Sie in den Test aufnehmen möchten.

Wenn Sie einen der Operatoren enthält, enthält nicht oder stimmt genau überein verwenden, können Sie eine durch Kommas getrennte Liste von Werten angeben.

Mit dem Operator Enthält Regex können Sie reguläre Ausdrücke im RE2-Format erstellen. Ihr regulärer Ausdruck kann mit dem gesamten oder einem Teil des Zielversionsstrings übereinstimmen. Sie können auch die Anker ^ und $ verwenden, um den Anfang, das Ende oder den gesamten Zielstring abzugleichen.

Nutzerzielgruppe(n) enthält alle,
enthält mindestens eines von,
enthält nicht alle,
enthält nicht mindestens eines von
Wählen Sie eine oder mehrere Analytics-Zielgruppen aus, um Nutzer anzusprechen, die möglicherweise in Ihren Test einbezogen werden. Bei einigen Tests, die auf Zielgruppen vom Typ Google Analytics ausgerichtet sind, kann es einige Tage dauern, bis Daten erfasst werden, da sie der Datenverarbeitungslatenz Analytics unterliegen. Diese Verzögerung tritt am ehesten bei neuen Nutzern auf, die in der Regel 24 bis 48 Stunden nach der Erstellung in Zielgruppen aufgenommen werden, die die Kriterien erfüllen. Das gilt auch für kürzlich erstellte Zielgruppen.
Nutzereigenschaft Für Text:
enthält,
enthält nicht,
stimmt genau überein,
enthält regulären Ausdruck

Für Zahlen:
<, ≤, =, ≥, >
Mit einer Analytics-Nutzereigenschaft können Nutzer ausgewählt werden, die in einen Test aufgenommen werden sollen. Es gibt verschiedene Optionen, um Werte für Nutzereigenschaften auszuwählen.

Auf dem Client können Sie nur Stringwerte für Nutzereigenschaften festlegen. Bei Bedingungen mit numerischen Operatoren konvertiert der Remote Config-Dienst den Wert der entsprechenden Nutzereigenschaft in eine Ganzzahl/Gleitkommazahl.
Wenn Sie den Operator enthält regulären Ausdruck verwenden, können Sie reguläre Ausdrücke im RE2-Format erstellen. Der reguläre Ausdruck kann ganz oder teilweise mit dem String der Zielversion übereinstimmen. Sie können auch die Anker ^ und $ verwenden, um den Anfang, das Ende oder den gesamten Zielstring abzugleichen.
Land/Region Ein oder mehrere Länder oder Regionen, anhand derer Nutzer ausgewählt werden, die am Test teilnehmen könnten.  
Sprachen Eine oder mehrere Sprachen und Gebietsschemas, anhand derer Nutzer ausgewählt werden, die am Test teilnehmen könnten.  
Erstes Öffnen Mehr als
Weniger als
zwischen
Ausrichtung auf Nutzer, die Ihre App zum ersten Mal geöffnet haben, angegeben in Tagen.
Letztes Engagement mit der App Mehr als
Weniger als
zwischen
Targeting auf Nutzer basierend auf der letzten Interaktion mit Ihrer App, angegeben in Tagen.

A/B Testing Messwerte

Beim Erstellen des Tests wählen Sie einen primären Messwert, also einen Zielmesswert, anhand dessen die beste Variante ermittelt wird. Sie sollten auch andere Messwerte erfassen, um die Leistung der einzelnen Testvarianten besser nachvollziehen und wichtige Trends verfolgen zu können, die sich je nach Variante unterscheiden können, z. B. Nutzerbindung, App-Stabilität und Umsatz aus In-App-Käufen. Sie können in Ihrem Test bis zu fünf Messwerte erfassen, die sich nicht auf Ziele beziehen.

Angenommen, Sie haben Ihrer App neue In-App-Käufe hinzugefügt und möchten die Effektivität von zwei verschiedenen Aufforderungen vergleichen. In diesem Fall können Sie Umsatz aus Käufen als Zielmesswert festlegen, da die Gewinnervariante die Benachrichtigung darstellen soll, die zu den höchsten In-App-Umsätzen geführt hat. Da Sie auch nachverfolgen möchten, welche Variante zu mehr Conversions und mehr aktiven Nutzern geführt hat, können Sie unter Weitere Messwerte Folgendes hinzufügen:

  • Geschätzter Gesamtumsatz, um zu sehen, wie sich der kombinierte In-App-Kauf und der Werbeumsatz zwischen den beiden Varianten unterscheiden
  • Nutzerbindung (1 Tag), Nutzerbindung (2–3 Tage), Nutzerbindung (4–7 Tage) zum Verfolgen der täglichen/wöchentlichen Nutzerbindung

In den folgenden Tabellen finden Sie Details zur Berechnung von Zielvorhaben- und anderen Messwerten.

Messwerte zu Zielvorhaben

Messwert Beschreibung
Nutzer ohne Abstürze Der Prozentsatz der Nutzer, bei denen während des Tests keine Fehler in Ihrer App aufgetreten sind, die vom Firebase Crashlytics SDK erkannt wurden.
Geschätzter Werbeumsatz Geschätzte Werbeeinnahmen.
Geschätzter Gesamtumsatz Kombinierter Wert für Käufe und geschätzte Werbeeinnahmen.
Umsatz aus Käufen Gesamtwert für alle purchase- und in_app_purchase-Ereignisse.
Nutzerbindung (1 Tag) Die Anzahl der Nutzer, die täglich zu Ihrer App zurückkehren.
Nutzerbindung (2–3 Tage) Die Anzahl der Nutzer, die innerhalb von 2 bis 3 Tagen zu Ihrer App zurückkehren.
Bindung (4–7 Tage) Die Anzahl der Nutzer, die innerhalb von 4 bis 7 Tagen wieder Ihre App verwenden.
Nutzerbindung (8–14 Tage) Die Anzahl der Nutzer, die innerhalb von 8 bis 14 Tagen zu Ihrer App zurückkehren.
Nutzerbindung (15+ Tage) Die Anzahl der Nutzer, die deine App 15 Tage oder länger nach der letzten Verwendung zurückkehren.
first_open Ein Analytics-Ereignis, das ausgelöst wird, wenn ein Nutzer eine App nach der Installation oder Neuinstallation zum ersten Mal öffnet. Wird als Teil eines Conversion-Trichters verwendet.

Weitere Messwerte

Messwert Beschreibung
notification_dismiss Ein Analytics-Ereignis, das ausgelöst wird, wenn eine vom Notifications Composer gesendete Benachrichtigung geschlossen wird (nur Android).
notification_receive Ein Analytics-Ereignis, das ausgelöst wird, wenn eine vom Benachrichtigungs-Composer gesendete Benachrichtigung empfangen wird, während die App im Hintergrund ausgeführt wird (nur Android).
os_update Ein Analytics-Ereignis, das erfasst, wenn das Betriebssystem des Geräts auf eine neue Version aktualisiert wird. Weitere Informationen finden Sie unter Automatisch erfasste Ereignisse.
screen_view Ein Analytics-Ereignis, das die in Ihrer App angesehenen Bildschirme erfasst. Weitere Informationen finden Sie unter Bildschirmaufrufe verfolgen.
session_start Ein Analytics-Ereignis, mit dem Nutzersitzungen in Ihrer App gezählt werden. Weitere Informationen finden Sie unter Automatisch erfasste Ereignisse.