Google is committed to advancing racial equity for Black communities. See how.
Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

Erstellen Sie Messaging-Experimente mit A / B-Tests

Wenn Sie Ihre Benutzer erreichen oder eine neue Marketingkampagne starten, möchten Sie sicherstellen, dass Sie alles richtig machen. A / B-Tests können Ihnen dabei helfen, den optimalen Wortlaut und die optimale Präsentation zu finden, indem Sie Nachrichtenvarianten für ausgewählte Teile Ihrer Benutzerbasis testen. Unabhängig davon, ob Ihr Ziel eine bessere Aufbewahrung oder Umwandlung eines Angebots ist, können A / B-Tests statistische Analysen durchführen, um festzustellen, ob eine Nachrichtenvariante die Kontrollgruppe für Ihr ausgewähltes Ziel übertrifft.

Gehen Sie wie folgt vor, um A / B-Testfeature-Varianten mit einer Kontrollgruppe zu testen:

  1. Erstellen Sie Ihr Experiment.
  2. Validieren Sie Ihr Experiment auf einem Testgerät.
  3. Verwalten Sie Ihr Experiment.

Erstellen Sie ein Experiment

In einem Experiment mit dem Benachrichtigungs-Composer können Sie mehrere Varianten einer einzelnen Benachrichtigungsnachricht auswerten.

  1. Melden Sie sich bei Firebase an, aktualisieren Sie die Einstellungen für die Datenfreigabe und stellen Sie sicher, dass die Datenfreigabe aktiviert ist. Ohne gemeinsame Nutzung von Daten hat Ihr Experiment keinen Zugriff auf Analysedaten.
  2. Auf der Firebase Konsole Navigationsleiste erweitern wachsen, und klicken Sie dann A / B - Tests.
  3. Klicken Sie auf Experiment erstellen und wählen Sie dann Benachrichtigungen aus, wenn Sie zur Eingabe des Dienstes aufgefordert werden, mit dem Sie experimentieren möchten.
  4. Geben Sie einen Namen und eine optionale Beschreibung für Ihr Experiment ein und klicken Sie auf Weiter .
  5. Füllen Sie die Targeting- Felder aus und wählen Sie zuerst die App aus, die Ihr Experiment verwendet. Sie können auch eine Teilmenge Ihrer Benutzer ansprechen, um an Ihrem Experiment teilzunehmen, indem Sie eine oder mehrere der folgenden Optionen auswählen:

    • Version: Eine oder mehrere Versionen Ihrer App
    • Benutzerpublikum: Analytics-Zielgruppen, die verwendet werden, um Benutzer anzusprechen, die möglicherweise in das Experiment einbezogen werden
    • Benutzereigenschaft: Eine oder mehrere Analytics-Benutzereigenschaften zum Auswählen von Benutzern, die möglicherweise in das Experiment einbezogen werden
    • Vorhersage: Benutzergruppen, die durch maschinelles Lernen vorhergesagt wurden, sich auf ein bestimmtes Verhalten einzulassen
    • Land / Region: Ein oder mehrere Länder oder Regionen zur Auswahl von Benutzern, die möglicherweise in das Experiment einbezogen werden
    • Gerätesprache: Eine oder mehrere Sprachen und Gebietsschemas zur Auswahl von Benutzern, die möglicherweise in das Experiment einbezogen werden
  6. Festlegen des Prozentsatzes der Zielbenutzer: Geben Sie den Prozentsatz der Benutzerbasis Ihrer App ein, der den unter Zielbenutzer festgelegten Kriterien entspricht, die Sie in Ihrem Experiment gleichmäßig zwischen der Kontrollgruppe und einer oder mehreren Varianten aufteilen möchten. Dies kann ein beliebiger Prozentsatz zwischen 0,01% und 100% sein. Die Prozentsätze werden den Benutzern für jedes Experiment zufällig zugewiesen, einschließlich doppelter Experimente.

  7. Geben Sie im Abschnitt Varianten im Feld Nachrichtentext eingeben eine Nachricht ein, die an die Kontrollgruppe gesendet werden soll. Lassen Sie dieses Feld leer, um keine Nachricht an die Kontrollgruppe zu senden.

  8. (optional) Um Ihrem Experiment mehr als eine Variante hinzuzufügen, klicken Sie auf Variante hinzufügen. Standardmäßig haben Experimente eine Kontrollgruppe und eine Variante.

  9. (optional) Geben Sie für jede Variante in Ihrem Experiment einen Namen ein , um die Namen Variante A , Variante B usw. zu ersetzen.

  10. Definieren Sie eine Zielmetrik für Ihr Experiment, die bei der Bewertung von Experimentvarianten verwendet werden soll, sowie alle gewünschten zusätzlichen Metriken aus der Dropdown-Liste. Diese Metriken umfassen integrierte Ziele (Engagement, Käufe, Einnahmen, Aufbewahrung usw.), Analytics-Conversion-Ereignisse und andere Analytics-Ereignisse.

  11. Wählen Sie Optionen für Ihre Nachricht:

    • Liefertermin: Wählen Sie entweder Jetzt senden , um das Experiment sofort nach dem Speichern zu starten, oder Geplant , um einen Zeitpunkt für den zukünftigen Start des Experiments anzugeben.
    • Erweiterte Optionen: Um erweiterte Optionen für alle in Ihrem Experiment enthaltenen Benachrichtigungen auszuwählen, erweitern Sie Erweiterte Optionen und ändern Sie dann eine der aufgelisteten Nachrichtenoptionen.
  12. Klicken Sie auf Überprüfen , um Ihr Experiment zu speichern.

Sie können bis zu 100 Experimente pro Projekt durchführen, die aus bis zu 24 laufenden Experimenten bestehen können, der Rest als Entwurf oder abgeschlossen.

Validieren Sie Ihr Experiment auf einem Testgerät

Jeder Firebase-App-Installation ist ein Instanz-ID-Token (oder Registrierungstoken) zugeordnet. Mit diesem Token können Sie bestimmte Experimentvarianten auf einem Testgerät mit installierter App testen. Gehen Sie wie folgt vor, um Ihr Experiment auf einem Testgerät zu validieren:

  1. Rufen Sie das Instanz-ID-Token wie folgt ab:

    Schnell

    InstanceID.instanceID().instanceID { (result, error) in
      if let error = error {
        print("Error fetching remote instance ID: \(error)")
      } else if let result = result {
        print("Remote instance ID token: \(result.token)")
        self.instanceIDTokenMessage.text  = "Remote InstanceID token: \(result.token)"
      }
    }
    

    Ziel c

    [[FIRInstanceID instanceID] instanceIDWithHandler:^(FIRInstanceIDResult * _Nullable result,
                                                        NSError * _Nullable error) {
      if (error != nil) {
        NSLog(@"Error fetching remote instance ID: %@", error);
      } else {
        NSLog(@"Remote instance ID token: %@", result.token);
        NSString* message =
          [NSString stringWithFormat:@"Remote InstanceID token: %@", result.token];
        self.instanceIDTokenMessage.text = message;
      }
    }];
    

    Java

    FirebaseInstanceId.getInstance().getInstanceId()
            .addOnCompleteListener(new OnCompleteListener<InstanceIdResult>() {
                @Override
                public void onComplete(@NonNull Task<InstanceIdResult> task) {
                    Log.d("IID_TOKEN", task.getResult().getToken());
                }
            });

    Kotlin + KTX

    FirebaseInstanceId.getInstance().instanceId
            .addOnSuccessListener { result ->
                Log.d("IID_TOKEN", result.token)
            }

    C ++

    firebase::InitResult init_result;
    auto* instance_id_object = firebase::instance_id::InstanceId::GetInstanceId(
        firebase::App::GetInstance(), &init_result);
    instance_id_object->GetToken().OnCompletion(
        [](const firebase::Future<std::string>& future) {
          if (future.status() == kFutureStatusComplete &&
              future.error() == firebase::instance_id::kErrorNone) {
            printf("Instance ID Token %s\n", future.result()->c_str());
          }
        });
    

    Einheit

    Firebase.InstanceId.FirebaseInstanceId.DefaultInstance.GetTokenAsync().ContinueWith(
      task => {
        if (!(task.IsCanceled || task.IsFaulted) && task.IsCompleted) {
          UnityEngine.Debug.Log(System.String.Format("Instance ID Token {0}", task.Result));
        }
      });
    
  2. Klicken Sie in der Navigationsleiste der Firebase-Konsole auf A / B-Tests .
  3. Klicken Sie auf Entwurf und dann auf den Titel Ihres Experiments.
  4. Klicken Sie unter der Überschrift Experimentübersicht auf Details .
  5. Klicken Sie auf Testgeräte verwalten , geben Sie das Instanz-ID-Token für ein Testgerät ein und wählen Sie die Experimentvariante aus, die an dieses Testgerät gesendet werden soll.
  6. Führen Sie die App aus und bestätigen Sie, dass die ausgewählte Variante auf dem Testgerät empfangen wird.

Weitere Informationen zum Instanz-ID-Token finden Sie unter FIRInstanceID (iOS) oder FirebaseInstanceId (Android).

Verwalten Sie Ihr Experiment

Unabhängig davon, ob Sie ein Experiment mit Remote Config, dem Notifications Composer oder Firebase In-App Messaging erstellen, können Sie Ihr Experiment validieren und starten, Ihr Experiment während der Ausführung überwachen und die Anzahl der Benutzer erhöhen, die in Ihrem laufenden Experiment enthalten sind.

Wenn Ihr Experiment abgeschlossen ist, können Sie die von der Gewinnvariante verwendeten Einstellungen notieren und diese Einstellungen dann für alle Benutzer bereitstellen. Oder Sie können ein anderes Experiment durchführen.

Starten Sie ein Experiment

  1. Auf der Firebase Konsole Navigationsleiste erweitern wachsen, und klicken Sie dann A / B - Tests.
  2. Klicken Sie auf Entwurf und dann auf den Titel Ihres Experiments.
  3. Um zu überprüfen, ob Ihre App Benutzer hat, die in Ihr Experiment einbezogen werden sollen, überprüfen Sie im Abschnitt Ausrichtung und Verteilung , ob eine Zahl von mehr als 0% vorliegt (z. B. 1% der Benutzer, die den Kriterien entsprechen ).
  4. Klicken Sie auf Bearbeiten, um Ihr Experiment zu ändern.
  5. Klicken Sie zum Starten des Experiments auf Experiment starten . Sie können bis zu 24 Experimente pro Projekt gleichzeitig durchführen.

Überwachen Sie ein Experiment

Sobald ein Experiment eine Weile ausgeführt wurde, können Sie den Fortschritt überprüfen und sehen, wie Ihre Ergebnisse für die Benutzer aussehen, die bisher an Ihrem Experiment teilgenommen haben.

  1. Klicken Sie in der Navigationsleiste der Firebase-Konsole auf Erweitern und dann auf A / B-Tests .
  2. Klicken Sie auf Ausführen und dann auf den Titel Ihres Experiments. Auf dieser Seite können Sie verschiedene Statistiken zu Ihrem laufenden Experiment anzeigen, einschließlich Ihrer Zielmetrik und anderer Metriken. Für jede Metrik stehen folgende Informationen zur Verfügung:

    • Verbesserung : Ein Maß für die Verbesserung einer Metrik für eine bestimmte Variante im Vergleich zur Basislinie (oder Kontrollgruppe). Berechnet durch Vergleichen des Wertebereichs für die Variante mit dem Wertebereich für die Basislinie.
    • Wahrscheinlichkeit, die Basislinie zu übertreffen : Die geschätzte Wahrscheinlichkeit, dass eine bestimmte Variante die Basislinie für die ausgewählte Metrik übertrifft.
    • Wahrscheinlichkeit, die beste Variante zu sein : Die geschätzte Wahrscheinlichkeit, dass eine bestimmte Variante andere Varianten für die ausgewählte Metrik übertrifft.
    • Wert pro Benutzer : Basierend auf den Versuchsergebnissen ist dies der vorhergesagte Bereich, in den der metrische Wert im Laufe der Zeit fallen wird.
    • Gesamtwert : Der beobachtete kumulative Wert für die Kontrollgruppe oder Variante. Der Wert wird verwendet, um zu messen, wie gut jede Experimentvariante funktioniert, und wird verwendet, um die Verbesserung , den Wertebereich , die Wahrscheinlichkeit, die Basislinie zu übertreffen , und die Wahrscheinlichkeit, die beste Variante zu sein , zu berechnen. Abhängig von der gemessenen Metrik kann diese Spalte mit "Dauer pro Benutzer", "Aufbewahrungsrate" oder "Conversion-Rate" gekennzeichnet sein.
  3. Um die Anzahl der in Ihrem Experiment enthaltenen Benutzer zu erhöhen, klicken Sie auf Verteilung erhöhen und wählen Sie dann einen erhöhten Prozentsatz aus, um Ihrem Experiment mehr berechtigte Benutzer hinzuzufügen.

  4. Nachdem Ihr Experiment eine Weile (mindestens 24 Stunden) ausgeführt wurde, geben die Daten auf dieser Seite an, welche Variante, falls vorhanden, der "Anführer" ist. Einige Messungen werden von einem Balkendiagramm begleitet, das die Daten in einem visuellen Format darstellt.

Stellen Sie allen Benutzern ein Experiment zur Verfügung

Nachdem ein Experiment lange genug ausgeführt wurde, dass Sie einen "Anführer" oder eine Gewinnvariante für Ihre Zielmetrik haben, können Sie das Experiment für 100% der Benutzer bereitstellen. Auf diese Weise können Sie eine Variante auswählen, die in Zukunft für alle Benutzer veröffentlicht werden soll. Auch wenn Ihr Experiment keinen eindeutigen Gewinner hervorgebracht hat, können Sie eine Variante für alle Benutzer bereitstellen.

  1. Klicken Sie in der Navigationsleiste der Firebase-Konsole auf Erweitern und dann auf A / B-Tests .
  2. Klicken Sie auf Abgeschlossen oder Wird ausgeführt , klicken Sie auf ein Experiment, das Sie für alle Benutzer möchten, klicken Sie auf das Kontextmenü ( ) und dann auf Variante .
  3. Führen Sie Ihr Experiment für alle Benutzer aus, indem Sie einen der folgenden Schritte ausführen:

    • Verwenden Sie für ein Experiment, das den Notifications Composer verwendet, das Dialogfeld " Nachricht ausrollen", um die Nachricht an die verbleibenden Zielbenutzer zu senden, die nicht Teil des Experiments waren.
    • Verwenden Sie für ein Remote Config-Experiment den Dialog, um zu bestimmen, welche Remote Config-Parameterwerte für alle Benutzer geändert werden sollen.
    • Verwenden Sie für ein In-App-Messaging-Experiment den Dialog, um zu bestimmen, welche Variante als eigenständige In-App-Messaging-Kampagne eingeführt werden muss. Nach der Auswahl werden Sie zum FIAM-Erstellungsbildschirm weitergeleitet, um vor dem Veröffentlichen Änderungen (falls erforderlich) vorzunehmen.

Erweitern Sie ein Experiment

Wenn Sie feststellen, dass ein Experiment nicht genügend Benutzer für A / B-Tests einbringt, um einen Leader zu deklarieren, können Sie die Verteilung Ihres Experiments erhöhen, um einen größeren Prozentsatz der Benutzerbasis der App zu erreichen.

  1. Klicken Sie in der Navigationsleiste der Firebase-Konsole auf Erweitern und dann auf A / B-Tests .
  2. Klicken Sie auf Ausführen , Sie den über Ihr Experiment, klicken Sie auf das Kontextmenü ( ) und klicken Sie dann auf Verteilung erhöhen .
  3. Die Konsole zeigt ein Dialogfeld mit einer Option zum Erhöhen des Prozentsatzes der Benutzer an, die sich im aktuell ausgeführten Experiment befinden. Geben Sie eine Zahl ein, die größer als der aktuelle Prozentsatz ist, und klicken Sie auf Senden . Das Experiment wird auf den von Ihnen angegebenen Prozentsatz der Benutzer verschoben.

Duplizieren oder stoppen Sie ein Experiment

  1. Klicken Sie in der Navigationsleiste der Firebase-Konsole auf Erweitern und dann auf A / B-Tests .
  2. Klicken Sie auf Fertig oder Rennen, schweben über dem Experiment, klicken Sie auf das Kontextmenü ( ), und klicken Sie dann auf Duplizieren oder Stopp.

User Targeting

Sie können die Benutzer anhand der folgenden Kriterien für die Benutzerausrichtung gezielt in Ihr Experiment einbeziehen.

Targeting-Kriterium Betreiber Werte) Hinweis
Ausführung enthält,
beinhaltet nicht,
passt genau,
enthält Regex
Geben Sie einen Wert für eine oder mehrere App-Versionen ein, die Sie in das Experiment aufnehmen möchten.

Wenn eines der enthält verwenden, nicht enthält, oder Streichhölzer genau Operatoren können Sie eine durch Kommata getrennte Liste von Werten liefern.

Bei Verwendung des Operators " enthält Regex" können Sie reguläre Ausdrücke im RE2- Format erstellen. Ihr regulärer Ausdruck kann mit der gesamten oder einem Teil der Zielversionszeichenfolge übereinstimmen. Sie können auch die Anker ^ und $ verwenden , um den Anfang, das Ende oder die Gesamtheit einer Zielzeichenfolge abzugleichen.

Benutzerpublikum (e) umfasst alle,
enthält mindestens eines von,
enthält nicht alle,
enthält nicht mindestens eine von
Wählen Sie eine oder mehrere Analytics-Zielgruppen aus, um Benutzer anzusprechen, die möglicherweise in Ihr Experiment aufgenommen wurden.
Benutzereigenschaft Für Text:
enthält,
beinhaltet nicht,
genau passt,
enthält Regex

Für Zahlen:
<, ≤, =, ≥,>
Eine Analytics-Benutzereigenschaft wird verwendet, um Benutzer auszuwählen, die möglicherweise in ein Experiment einbezogen werden, mit einer Reihe von Optionen zum Auswählen von Benutzereigenschaftswerten.

Auf dem Client können Sie nur Zeichenfolgenwerte für Benutzereigenschaften festlegen. Für Bedingungen, die numerische Operatoren verwenden, konvertiert der Remote Config-Dienst den Wert der entsprechenden Benutzereigenschaft in eine Ganzzahl / einen Gleitkommawert.
Bei Verwendung des Operators " enthält Regex" können Sie reguläre Ausdrücke im RE2- Format erstellen. Ihr regulärer Ausdruck kann mit der gesamten oder einem Teil der Zielversionszeichenfolge übereinstimmen. Sie können auch die Anker ^ und $ verwenden , um den Anfang, das Ende oder die Gesamtheit einer Zielzeichenfolge abzugleichen.
Prognose N / A Zielgruppen von Benutzern, die durch Firebase-Vorhersagen definiert wurden, z. B. diejenigen, die Ihre App wahrscheinlich nicht mehr verwenden, oder Benutzer, die wahrscheinlich einen In-App-Kauf tätigen. Wählen Sie einen der vom Firebase Predictions-Tool definierten Werte aus. Wenn eine Option nicht verfügbar ist, müssen Sie sich möglicherweise für Firebase-Vorhersagen anmelden, indem Sie den Abschnitt Vorhersagen der Firebase-Konsole aufrufen.
Geräteland N / A Ein oder mehrere Länder oder Regionen, in denen Benutzer ausgewählt werden, die möglicherweise in das Experiment einbezogen werden.
Gerätesprache N / A Eine oder mehrere Sprachen und Gebietsschemas zur Auswahl von Benutzern, die möglicherweise in das Experiment einbezogen werden. Dieses Targeting-Kriterium ist nur für Remote Config verfügbar.
Zuerst öffnen mehr als
weniger als
zwischen
Richten Sie sich an Benutzer, basierend auf dem ersten Öffnen Ihrer App, angegeben in Tagen. Dieses Targeting-Kriterium ist nur für Firebase In-App Messaging verfügbar.
Letztes App-Engagement mehr als
weniger als
zwischen
Zielgruppe Benutzer basierend auf dem letzten Mal, als sie sich mit Ihrer App beschäftigt haben, angegeben in Tagen. Dieses Targeting-Kriterium ist nur für Firebase In-App Messaging verfügbar.

A / B-Testmetriken

Wenn Sie Ihr Experiment erstellen, wählen Sie eine Metrik aus, mit der Experimentvarianten verglichen werden. Sie können auch andere Metriken auswählen, die verfolgt werden sollen, um die einzelnen Experimentvarianten besser zu verstehen und signifikante Nebenwirkungen (z. B. App-Abstürze) zu erkennen. Die folgenden Tabellen enthalten Details zur Berechnung von Zielmetriken und anderen Metriken.

Zielmetriken

Metrisch Beschreibung
Tägliches Benutzereingriff Durchschnittliche Zeit, die der Benutzer pro Tag in der App verbringt.
Aufbewahrung (1 Tag) Die Anzahl der Benutzer, die täglich zu Ihrer App zurückkehren.
Aufbewahrung (2-3 Tage) Die Anzahl der Benutzer, die innerhalb von 2-3 Tagen zu Ihrer App zurückkehren.
Aufbewahrung (4-7 Tage) Die Anzahl der Benutzer, die innerhalb von 4-7 Tagen zu Ihrer App zurückkehren.
Aufbewahrung (8-14 Tage) Die Anzahl der Benutzer, die innerhalb von 8 bis 14 Tagen zu Ihrer App zurückkehren.
Aufbewahrung (15+ Tage) Die Anzahl der Benutzer, die 15 oder mehr Tage nach der letzten Verwendung zu Ihrer App zurückkehren.
Benachrichtigung offen Verfolgt, ob ein Benutzer die vom Benachrichtigungs-Composer gesendete Benachrichtigung öffnet.
Kaufeinnahmen Kombinierter Wert für alle Ereignisse von ecommerce_purchase und in_app_purchase .
Geschätzter AdMob-Umsatz Geschätzter Gewinn von AdMob.
Geschätzter Gesamtumsatz Kombinierter Kaufwert und geschätzte AdMob-Einnahmen.
first_open Ein Analytics-Ereignis, das ausgelöst wird, wenn ein Benutzer eine App nach der Installation oder Neuinstallation zum ersten Mal öffnet. Wird als Teil eines Konvertierungstrichters verwendet.
notification_open Ein Analytics-Ereignis, das ausgelöst wird, wenn ein Benutzer eine vom Notifications Composer gesendete Benachrichtigung öffnet. Wird als Teil eines Konvertierungstrichters verwendet.

Andere Metriken

Metrisch Beschreibung
Absturzfreie Benutzer Der Prozentsatz der Benutzer, bei denen in Ihrer App keine Fehler aufgetreten sind, die vom Firebase Crashlytics SDK während des Experiments erkannt wurden.
notification_dismiss Ein Analytics-Ereignis, das ausgelöst wird, wenn eine vom Benachrichtigungs-Composer gesendete Benachrichtigung verworfen wird (nur Android).
notification_receive Ein Analytics-Ereignis, das ausgelöst wird, wenn eine vom Benachrichtigungs-Composer gesendete Benachrichtigung empfangen wird, während sich die App im Hintergrund befindet (nur Android).
os_update Ein Analytics-Ereignis, das verfolgt, wann das Betriebssystem des Geräts auf eine neue Version aktualisiert wird. Weitere Informationen finden Sie unter Automatisch erfasste Ereignisse .
screen_view Ein Analytics-Ereignis, das in Ihrer App angezeigte Bildschirme verfolgt. Weitere Informationen finden Sie unter Verfolgen von Bildschirmansichten .
session_start Ein Analytics-Ereignis, das Benutzersitzungen in Ihrer App zählt. Weitere Informationen finden Sie unter Automatisch erfasste Ereignisse .
user_engagement Ein Analytics-Ereignis, das regelmäßig ausgelöst wird, während sich Ihre App im Vordergrund befindet. Weitere Informationen finden Sie unter Automatisch erfasste Ereignisse .

BigQuery-Datenexport

Sie können in BigQuery auf alle Analysedaten zugreifen, die sich auf Ihre A / B-Tests beziehen . Mit BigQuery können Sie die Daten mit BigQuery SQL analysieren, an einen anderen Cloud-Anbieter exportieren oder die Daten für Ihre benutzerdefinierten ML-Modelle verwenden. Weitere Informationen finden Sie unter Verknüpfen von BigQuery mit Firebase .

Um den Export von BigQuery-Daten optimal nutzen zu können, sollten Firebase-Projekte den Preisplan "Blaze" für die Umlage verwenden. BigQuery berechnet Gebühren für das Speichern von Daten, das Streamen von Einfügungen und das Abfragen von Daten. Das Laden und Exportieren von Daten ist kostenlos. Weitere Informationen finden Sie unter BigQuery Pricing oder in der BigQuery-Sandbox .

Stellen Sie zunächst sicher, dass Ihr Firebase-Projekt mit BigQuery verknüpft ist. Wählen Sie in der linken Navigationsleiste Einstellungen> Projekteinstellungen und dann Integrationen> BigQuery> Link . Auf dieser Seite werden Optionen zum Ausführen des Exports von BiqQuery-Analysedaten für alle Apps im Projekt angezeigt.

So fragen Sie Analysedaten für ein Experiment ab:

  1. Wählen Sie aus Ihrer Liste der aktiven Experimente das gewünschte Experiment aus, um die Seite mit den Versuchsergebnissen zu öffnen.
  2. Kontextmenü im Bereich Experimentübersicht die Option In BigQuery anzeigen aus (diese Option ist für Projekte auf der kostenlosen Ebene nicht verfügbar).

    Dadurch wird der Abfrage-Composer der BigQuery-Konsole mit einer automatisch generierten Beispielabfrage von Experimentdaten geöffnet, die für Ihre Überprüfung vorinstalliert sind. In dieser Abfrage wird Ihr Experiment als Benutzereigenschaft mit dem Experimentnamen im Schlüssel und der Experimentvariante im Wert codiert.

  3. Wählen Sie im Abfrage-Composer die Option Abfrage ausführen aus. Die Ergebnisse werden im unteren Bereich angezeigt.

Da Firebase-Daten in BigQuery nur einmal täglich aktualisiert werden, sind die auf der Expertenseite verfügbaren Daten möglicherweise aktueller als die in der BigQuery-Konsole verfügbaren Daten.