Erstellen Sie Firebase Remote Config-Experimente mit A/B-Tests

Wenn Sie Ihre App aktualisieren und Firebase Remote Config verwenden, um sie an eine Anwendung mit einer aktiven Benutzerbasis zu übertragen, möchten Sie sicherstellen, dass Sie es richtig machen. Sie könnten sich über Folgendes unsicher sein:

  • Der beste Weg, um eine Funktion zu implementieren, um die Benutzererfahrung zu optimieren. Zu oft erfahren App-Entwickler nicht, dass ihre Benutzer eine neue Funktion oder eine aktualisierte Benutzererfahrung nicht mögen, bis die Bewertung ihrer App im App Store abnimmt. Mithilfe von A/B-Tests können Sie messen, ob Ihre Benutzer neue Funktionsvarianten mögen oder ob sie die App in ihrer aktuellen Form bevorzugen. Wenn Sie die meisten Ihrer Benutzer in einer Kontrollgruppe halten, wird außerdem sichergestellt, dass der größte Teil Ihrer Benutzerbasis Ihre App weiterhin verwenden kann, ohne dass Änderungen an ihrem Verhalten oder Aussehen auftreten, bis das Experiment abgeschlossen ist.
  • Der beste Weg, um die Benutzererfahrung für ein Geschäftsziel zu optimieren. Manchmal implementieren Sie Produktänderungen, um eine Metrik wie Umsatz oder Kundenbindung zu maximieren. Mit A/B-Tests legen Sie Ihr Geschäftsziel fest und Firebase führt die statistische Analyse durch, um festzustellen, ob eine Variante die Kontrollgruppe für Ihr ausgewähltes Ziel übertrifft.

Gehen Sie wie folgt vor, um Funktionsvarianten mit einer Kontrollgruppe zu testen:

  1. Erstellen Sie Ihr Experiment.
  2. Validieren Sie Ihr Experiment auf einem Testgerät.
  3. Verwalten Sie Ihr Experiment.

Erstellen Sie ein Experiment

Ein Remote - Config Experiment können Sie mehrere Varianten auf einer oder mehreren bewerten Remote - Config - Parameter .

  1. Melden Sie sich in Firebase, zu aktualisieren Datenfreigabeeinstellungen und stellen Sie sicher , dass die Datenfreigabe aktiviert ist. Ohne Datenfreigabe hat Ihr Experiment keinen Zugriff auf Analysedaten.
  2. In dem Abschnitt der Engage Firebase Konsole Navigationsleiste auf A / B - Tests.
  3. Klicken Sie auf Create Experiment, und dann auf Remote - Konfiguration wählen , wenn für den Dienst mit denen Sie experimentieren wollen gefragt werden .
  4. Geben Sie einen Namen und eine optionale Beschreibung für das Experiment, und klicken Sie auf Weiter.
  5. Füllen Sie die Targeting - Felder aus, zuerst die App auswählen, die Ihr Experiment verwendet. Sie können auch eine Teilmenge Ihrer Benutzer zur Teilnahme an Ihrem Experiment ansprechen, indem Sie Optionen auswählen, die Folgendes umfassen:

    • Version: Eine oder mehr Versionen Ihrer App
    • Benutzergruppe: Analytics Publikum Ziel Benutzer verwendet , die in dem Experiment eingeschlossen werden könnten
    • User - Eigenschaft: Eine oder mehr Analytics Benutzereigenschaften für die Auswahl Benutzer , die in dem Experiment eingeschlossen werden könnten
    • Prognose: Gruppen von Benutzern durch maschinelles Lernen vorhergesagt in einem bestimmten Verhalten zu engagieren
    • Land / Region: Ein oder mehr Länder oder Regionen für die Auswahl Benutzer , die in dem Experiment eingeschlossen werden könnten
    • Gerätesprache: Eine oder mehr Sprachen und Regionen verwendet , um Benutzer auszuwählen , die in dem Experiment eingeschlossen werden könnten
  6. Stellen Sie den Prozentsatz der Zielgruppe: Geben Sie den Prozentsatz der App-Nutzer - Basis die Kriterien unter Ziel Benutzer passend , dass Sie zwischen der Kontrollgruppe gleichmäßig teilen wollen und eine oder mehrere Varianten in Ihrem Experiment. Dies kann ein beliebiger Prozentsatz zwischen 0,01 % und 100 % sein. Benutzer werden jedem Experiment nach dem Zufallsprinzip zugewiesen, einschließlich doppelter Experimente.

  7. Legen Sie optional ein Aktivierungsereignis fest, um sicherzustellen, dass nur Benutzer in Ihrem Experiment gezählt werden, die zuerst ein Analytics-Ereignis ausgelöst haben. Um ein vaild Experiment zu gewährleisten, stellen Sie sicher , dass das Ereignis , das Sie wählen , tritt auf, nachdem die App abgerufen Konfigurationswerte aktiviert. Events wie first_open oder session_start können auftreten , bevor activateFetched() , zu unerwarteten Ergebnissen führen.

  8. Für die Ziele des Experiments, wählen Sie die primäre Metrik zu verfolgen, und fügen Sie alle gewünschten zusätzlichen Metriken aus der Dropdown - Liste. Dazu gehören integrierte Ziele (Engagement, Käufe, Umsatz, Kundenbindung usw.), Analytics-Conversion-Ereignisse und andere Analytics-Ereignisse. Wenn Sie fertig sind , klicken Sie auf Weiter.

  9. Im Variante Abschnitt finden Sie eine Kontrollgruppe und mindestens eine Variante für das Experiment zur Verfügung. Verwenden Sie die auswählen oder eine neue Liste erstellen einen oder mehrere Parameter hinzuzufügen , zu experimentieren. Sie können einen Parameter erstellen, der zuvor nicht in der Firebase-Konsole verwendet wurde, aber er muss in Ihrer App vorhanden sein, damit er Auswirkungen hat. Sie können diesen Schritt wiederholen, um Ihrem Experiment mehrere Parameter hinzuzufügen.

  10. (optional) mehr als eine Variante zu Ihrem Experiment hinzuzufügen, klicken Sie eine weitere Variante hinzufügen.

  11. Ändern Sie einen oder mehrere Parameter für bestimmte Varianten. Alle unveränderten Parameter sind für Nutzer, die nicht am Test teilnehmen, gleich.

  12. Klicken , um Bewertung Ihr Experiment zu speichern.

Pro Projekt sind bis zu 300 Experimente zulässig, die aus bis zu 24 laufenden Experimenten bestehen können, der Rest als Entwurf oder abgeschlossen.

Validieren Sie Ihr Experiment auf einem Testgerät

Für jede Firebase-Installation können Sie das zugehörige Installations-Authentifizierungstoken abrufen. Mit diesem Token können Sie bestimmte Experimentvarianten auf einem Testgerät mit installierter App testen. Gehen Sie wie folgt vor, um Ihr Experiment auf einem Testgerät zu validieren:

  1. Rufen Sie das Installations-Authentifizierungstoken wie folgt ab:

    Schnell

    Installations.installations().authTokenForcingRefresh(true, completion: { (result, error) in
      if let error = error {
        print("Error fetching token: \(error)")
        return
      }
      guard let result = result else { return }
      print("Installation auth token: \(result.authToken)")
    })
    

    Ziel c

    [[FIRInstallations installations] authTokenForcingRefresh:true
                                                   completion:^(FIRInstallationsAuthTokenResult *result, NSError *error) {
      if (error != nil) {
        NSLog(@"Error fetching Installation token %@", error);
        return;
      }
      NSLog(@"Installation auth token: %@", [result authToken]);
    }];
    

    Java

    FirebaseInstallations.getInstance().getToken(/* forceRefresh */true)
            .addOnCompleteListener(new OnCompleteListener<InstallationTokenResult>() {
        @Override
        public void onComplete(@NonNull Task<InstallationTokenResult> task) {
            if (task.isSuccessful() && task.getResult() != null) {
                Log.d("Installations", "Installation auth token: " + task.getResult().getToken());
            } else {
                Log.e("Installations", "Unable to get Installation auth token");
            }
        }
    });

    Kotlin+KTX

    FirebaseInstallations.getInstance().getToken(/* forceRefresh */ true)
        .addOnCompleteListener { task ->
            if (task.isSuccessful) {
                Log.d("Installations", "Installation auth token: " + task.result?.token)
            } else {
                Log.e("Installations", "Unable to get Installation auth token")
            }
        }

    C++

    firebase::InitResult init_result;
    auto* installations_object = firebase::installations::Installations::GetInstance(
        firebase::App::GetInstance(), &init_result);
    installations_object->GetToken().OnCompletion(
        [](const firebase::Future& future) {
          if (future.status() == kFutureStatusComplete &&
              future.error() == firebase::installations::kErrorNone) {
            printf("Installations Auth Token %s\n", future.result()->c_str());
          }
        });
    

    Einheit

    Firebase.Installations.FirebaseInstallations.DefaultInstance.GetTokenAsync().ContinueWith(
      task => {
        if (!(task.IsCanceled || task.IsFaulted) && task.IsCompleted) {
          UnityEngine.Debug.Log(System.String.Format("Installations token {0}", task.Result));
        }
      });
    
  2. Auf der Firebase Konsole Navigationsleiste auf A / B - Tests.
  3. Klicken Sie auf Entwurf (und / oder Laufen für Fern Experimente Config), schweben über dem Experiment, klicken Sie auf das Kontextmenü ( ), und klicken Sie dann auf Testgeräte verwalten.
  4. Geben Sie das Installations-Authentifizierungstoken für ein Testgerät ein und wählen Sie die Versuchsvariante aus, die an dieses Testgerät gesendet werden soll.
  5. Führen Sie die App aus und bestätigen Sie, dass die ausgewählte Variante auf dem Testgerät empfangen wird.

Um mehr über Installationen Firebase finden Sie unter Firebase Installationen verwalten .

Verwalten Sie Ihr Experiment

Unabhängig davon, ob Sie ein Experiment mit Remote Config, dem Notifications Composer oder Firebase In-App Messaging erstellen, können Sie Ihr Experiment anschließend validieren und starten, Ihr Experiment überwachen, während es ausgeführt wird, und die Anzahl der Benutzer erhöhen, die in Ihrem laufenden Experiment enthalten sind.

Wenn Ihr Experiment abgeschlossen ist, können Sie die von der Gewinnervariante verwendeten Einstellungen notieren und diese Einstellungen dann für alle Benutzer bereitstellen. Oder Sie können ein anderes Experiment durchführen.

Starten Sie ein Experiment

  1. In dem Abschnitt der Engage Firebase Konsole Navigationsleiste auf A / B - Tests.
  2. Klicken Sie auf Entwurf, und klicken Sie dann auf den Titel des Experiments.
  3. So überprüfen Sie, dass Ihre App hat Benutzer , die in Ihrem Experiment eingeschlossen werden würde, erweitern den Entwurf Details und prüfen , ob eine Zahl größer als 0% im Targeting und Verteilungsabschnitt (beispielsweise 1% der Nutzer mit diesen Kriterien).
  4. Um das Experiment zu ändern, klicken Sie auf Bearbeiten.
  5. Um das Experiment zu starten, klicken Sie auf Start Experiment. Sie können bis zu 24 Experimente pro Projekt gleichzeitig ausführen.

Überwachen Sie ein Experiment

Wenn ein Experiment eine Weile läuft, können Sie seinen Fortschritt überprüfen und sehen, wie Ihre Ergebnisse für die Benutzer aussehen, die bisher an Ihrem Experiment teilgenommen haben.

  1. In dem Abschnitt der Engage Firebase Konsole Navigationsleiste auf A / B - Tests.
  2. Klicken Sie auf Ausführen, und klicken Sie dann auf den Titel des Experiments. Auf dieser Seite können Sie verschiedene beobachtete und modellierte Statistiken zu Ihrem laufenden Experiment anzeigen, einschließlich der folgenden:

    • Differenz% vom Ausgangswert: Ein Maß für die Verbesserung einer Metrik für eine gegebene Variante im Vergleich zur Basislinie (oder Kontrollgruppe). Wird berechnet, indem der Wertebereich für die Variante mit dem Wertebereich für die Baseline verglichen wird.
    • Wahrscheinlichkeit schlagen Basislinie: Die geschätzte Wahrscheinlichkeit , dass eine gegebene Variante die Basislinie für die gewählte Metrik schlägt.
    • observed_metric pro Benutzer: Basierend auf experimentelle Ergebnisse, ist dies der vorhergesagte Bereich , dass der Metrikwert in der Zeit fallen.
    • Insgesamt observed_metric : Der beobachtete kumulative Wert für die Kontrollgruppe oder eine Variante. Der Wert wird verwendet , wie gut jedes Experiment Variante führt zu messen, und wird verwendet, Verbesserung, Wertebereich zu berechnen, Wahrscheinlichkeit zu schlagen Beginn der Studie und Wahrscheinlichkeit die beste Variante zu sein. Abhängig von der gemessenen Metrik kann diese Spalte mit „Dauer pro Benutzer“, „Umsatz pro Benutzer“, „Aufbewahrungsrate“ oder „Conversion-Rate“ bezeichnet sein.
  3. Nachdem Ihr Experiment eine Weile gelaufen ist (mindestens 7 Tage für FCM und In-App-Messaging oder 14 Tage für Remote Config), geben die Daten auf dieser Seite an, welche Variante, falls vorhanden, der „Leader“ ist. Einige Messungen werden von einem Balkendiagramm begleitet, das die Daten in einem visuellen Format darstellt.

Führen Sie ein Experiment für alle Benutzer durch

Nachdem ein Experiment lange genug gelaufen ist, sodass Sie eine „Leader“- oder Gewinnervariante für Ihren Zielmesswert haben, können Sie das Experiment für 100 % der Nutzer einführen. Auf diese Weise können Sie eine Variante auswählen, die in Zukunft für alle Benutzer veröffentlicht werden soll. Auch wenn Ihr Test keinen klaren Gewinner hervorgebracht hat, können Sie dennoch eine Variante für alle Ihre Benutzer bereitstellen.

  1. In dem Abschnitt der Engage Firebase Konsole Navigationsleiste auf A / B - Tests.
  2. Klicken Sie auf Fertig oder ausgeführt wird , auf ein Experiment , dass Sie für alle Benutzer ausrollen wollen, klicken Sie auf das Kontextmenü ( ), und klicken Sie dann auf Roll - out - Variante.
  3. Führen Sie Ihren Test für alle Benutzer aus, indem Sie einen der folgenden Schritte ausführen:

    • Für ein Experiment, das den Benachrichtigungen Komponisten verwendet, verwenden Sie die Roll - out des Nachrichtendialog die Nachricht an die verbleibenden gezielt Benutzer zu senden , die nicht Teil des Experiments waren.
    • Wählen Sie für ein Remote Config-Experiment eine Variante aus, um zu bestimmen, welche Remote Config-Parameterwerte aktualisiert werden sollen. Die beim Erstellen des Experiments definierten Targeting-Kriterien werden Ihrer Vorlage als neue Bedingung hinzugefügt, um sicherzustellen, dass die Einführung nur Nutzer betrifft, auf die das Experiment abzielt. Bewertung im Remote Config Nach dem Klicken auf die Änderungen zu überprüfen, klicken Sie auf Änderungen veröffentlichen , um den Roll - out abgeschlossen.
    • Verwenden Sie für ein In-App-Messaging-Experiment das Dialogfeld, um zu bestimmen, welche Variante als eigenständige In-App-Messaging-Kampagne eingeführt werden muss. Nach der Auswahl werden Sie zum FIAM-Erstellungsbildschirm weitergeleitet, um vor der Veröffentlichung Änderungen (falls erforderlich) vorzunehmen.

Erweitern Sie ein Experiment

Wenn Sie feststellen, dass ein Test nicht genügend Benutzer für A/B-Tests anzieht, um einen führenden Anbieter zu erklären, können Sie die Verbreitung Ihres Tests erhöhen, um einen größeren Prozentsatz der Benutzerbasis der App zu erreichen.

  1. In dem Abschnitt der Engage Firebase Konsole Navigationsleiste auf A / B - Tests.
  2. Wählen Sie den laufenden Test aus, den Sie bearbeiten möchten.
  3. In der Übersicht Experiment, klicken Sie auf das Kontextmenü ( ) und dann auf Bearbeiten laufende Experiment klicken.
  4. Die Targeting - Dialog zeigt eine Option , um den Prozentsatz der Nutzer zu erhöhen , das in dem aktuell laufenden Experiment ist. Wählen Sie eine Nummer größer als der aktuelle Prozentsatz und klicken Sie auf Veröffentlichen. Der Test wird auf den von Ihnen angegebenen Prozentsatz von Benutzern übertragen.

Experiment duplizieren oder beenden

  1. In dem Abschnitt der Engage Firebase Konsole Navigationsleiste auf A / B - Tests.
  2. Klicken Sie auf Fertig oder Rennen, schweben über dem Experiment, klicken Sie auf das Kontextmenü ( ), und klicken Sie dann auf Duplizieren Experiment oder Stop - Experiment.

Benutzer-Targeting

Sie können die Nutzer, die Sie in Ihren Test aufnehmen möchten, anhand der folgenden Nutzer-Targeting-Kriterien ansprechen.

Targeting-Kriterium Betreiber Werte) Notiz
Ausführung enthält,
beinhaltet nicht,
passt genau,
enthält Regex
Geben Sie einen Wert für eine oder mehrere App-Versionen ein, die Sie in den Test einbeziehen möchten.

Wenn eines der enthält verwenden, nicht enthält, oder Streichhölzer genau Operatoren können Sie eine durch Kommata getrennte Liste von Werten liefern.

Bei Verwendung der Regex Operator enthält, können Sie reguläre Ausdrücke in erstellen RE2 - Format. Ihr regulärer Ausdruck kann mit der Zielversionszeichenfolge ganz oder teilweise übereinstimmen. Sie können auch den ^ und $ Anker verwenden den Anfang, Ende oder Gesamtheit einer Zielzeichenfolge übereinstimmen.

Benutzerzielgruppe(n) beinhaltet alle,
enthält mindestens eines von
beinhaltet nicht alles,
enthält nicht mindestens eines von
Wählen Sie eine oder mehrere Analytics-Zielgruppen aus, um Nutzer anzusprechen, die möglicherweise in Ihren Test einbezogen werden.
Benutzereigenschaft Für Texte:
enthält,
beinhaltet nicht,
passt genau,
enthält Regex

Für Zahlen:
<, ≤, =, ≥, >
Eine Analytics-Benutzereigenschaft wird verwendet, um Benutzer auszuwählen, die in einen Test einbezogen werden könnten, mit einer Reihe von Optionen zum Auswählen von Benutzereigenschaftswerten.

Auf dem Client können Sie nur Zeichenfolgenwerte für Benutzereigenschaften festlegen. Für Bedingungen, die numerische Operatoren verwenden, konvertiert der Remote Config-Dienst den Wert der entsprechenden Benutzereigenschaft in eine Ganzzahl/Float.
Bei Verwendung der Regex Operator enthält, können Sie reguläre Ausdrücke in erstellen RE2 - Format. Ihr regulärer Ausdruck kann mit der Zielversionszeichenfolge ganz oder teilweise übereinstimmen. Sie können auch den ^ und $ Anker verwenden den Anfang, Ende oder Gesamtheit einer Zielzeichenfolge übereinstimmen.
Vorhersage N / A Zielgruppen von Benutzern, die durch Firebase Predictions definiert sind – beispielsweise diejenigen, die Ihre App wahrscheinlich nicht mehr verwenden werden, oder Benutzer, die wahrscheinlich einen In-App-Kauf tätigen werden. Wählen Sie einen der vom Firebase-Vorhersagetool definierten Werte aus. Wenn eine Option nicht verfügbar ist, müssen Sie sich möglicherweise für Firebase Predictions anmelden, indem Sie den Predictions-Bereich der Firebase-Konsole besuchen.
Land des Geräts N / A Ein oder mehrere Länder oder Regionen, die verwendet werden, um Nutzer auszuwählen, die in den Test einbezogen werden könnten.
Gerätesprache N / A Eine oder mehrere Sprachen und Gebietsschemata, die verwendet werden, um Benutzer auszuwählen, die möglicherweise in den Test aufgenommen werden. Dieses Targeting-Kriterium ist nur für Remote Config verfügbar.
Zuerst öffnen mehr als
weniger als
zwischen
Targeting von Benutzern basierend auf dem ersten Öffnen Ihrer App, angegeben in Tagen. Dieses Targeting-Kriterium ist nur für Firebase In-App Messaging verfügbar.
Letzte App-Interaktion mehr als
weniger als
zwischen
Targeting von Benutzern basierend auf der letzten Zeit, in der sie mit Ihrer App interagiert haben, angegeben in Tagen. Dieses Targeting-Kriterium ist nur für Firebase In-App Messaging verfügbar.

A/B-Test-Metriken

Wenn Sie Ihren Test erstellen, wählen Sie einen Messwert aus, der zum Vergleichen von Testvarianten verwendet wird, und Sie können auch andere Messwerte zum Nachverfolgen auswählen, die Ihnen dabei helfen, jede Testvariante besser zu verstehen und signifikante Nebeneffekte (z. B. App-Abstürze) zu erkennen. Die folgenden Tabellen enthalten Details dazu, wie Zielmetriken und andere Metriken berechnet werden.

Zielkennzahlen

Metrisch Beschreibung
Aufbewahrung (1 Tag) Die Anzahl der Benutzer, die täglich zu Ihrer App zurückkehren.
Aufbewahrung (2-3 Tage) Die Anzahl der Nutzer, die innerhalb von zwei bis drei Tagen zu Ihrer App zurückkehren.
Aufbewahrung (4-7 Tage) Die Anzahl der Nutzer, die innerhalb von 4–7 Tagen zu Ihrer App zurückkehren.
Aufbewahrung (8-14 Tage) Die Anzahl der Nutzer, die innerhalb von 8–14 Tagen zu Ihrer App zurückkehren.
Aufbewahrung (15+ Tage) Die Anzahl der Nutzer, die 15 oder mehr Tage nach der letzten Verwendung zu Ihrer App zurückkehren.
Benachrichtigung offen Verfolgt, ob ein Benutzer die vom Benachrichtigungs-Composer gesendete Benachrichtigung öffnet.
Kaufeinnahmen Gesamtwert für alle ecommerce_purchase und in_app_purchase Veranstaltungen.
Geschätzter AdMob-Umsatz Geschätzte Einnahmen aus AdMob.
Geschätzter Gesamtumsatz Kombinierter Wert für Kauf und geschätzte AdMob-Einnahmen.
first_open Ein Analytics-Ereignis, das ausgelöst wird, wenn ein Benutzer eine App nach der Installation oder Neuinstallation zum ersten Mal öffnet. Wird als Teil eines Conversion-Funnels verwendet.
Benachrichtigung_offen Ein Analytics-Ereignis, das ausgelöst wird, wenn ein Benutzer eine vom Benachrichtigungs-Composer gesendete Benachrichtigung öffnet. Wird als Teil eines Conversion-Funnels verwendet.

Andere Metriken

Metrisch Beschreibung
Absturzfreie Benutzer Der Prozentsatz der Nutzer, die keine Fehler in Ihrer App festgestellt haben, die während des Tests vom Firebase Crashlytics SDK erkannt wurden.
Benachrichtigung_entlassen Ein Analytics-Ereignis, das ausgelöst wird, wenn eine vom Benachrichtigungs-Composer gesendete Benachrichtigung verworfen wird (nur Android).
Benachrichtigung_empfangen Ein Analytics-Ereignis, das ausgelöst wird, wenn eine vom Benachrichtigungs-Composer gesendete Benachrichtigung empfangen wird, während sich die App im Hintergrund befindet (nur Android).
os_update Ereignis Ein Analytics , dass Spuren , wenn das Gerät Betriebssystem auf eine neue version.To mehr lernen aktualisiert wird, finden automatisch Ereignisse gesammelt .
Bildschirmansicht Ein Analytics-Ereignis, das die in Ihrer App angezeigten Bildschirme nachverfolgt. Um mehr zu erfahren, siehe Spur Bildschirmansichten .
session_start Ein Analytics-Ereignis, das Benutzersitzungen in Ihrer App zählt. Um mehr zu erfahren, sehen Sie automatisch gesammelt Ereignisse .
user_engagement Ein Analytics-Ereignis, das regelmäßig ausgelöst wird, während sich Ihre App im Vordergrund befindet. Um mehr zu erfahren, sehen Sie automatisch gesammelt Ereignisse .

BigQuery-Datenexport

Sie können alle Analysedaten auf Ihre A / B - Tests in Zusammenhang mit Zugriff auf BigQuery . Mit BigQuery können Sie die Daten mit BigQuery SQL analysieren, sie zu einem anderen Cloud-Anbieter exportieren oder die Daten für Ihre benutzerdefinierten ML-Modelle verwenden. Siehe Link - BigQuery Firebase für weitere Informationen.

Um die Vorteile des BigQuery-Datenexports voll auszuschöpfen, sollten Firebase-Projekte den „Blaze“-Pay-as-you-go-Preisplan übernehmen. BigQuery berechnet Gebühren für das Speichern von Daten, das Streamen von Einfügungen und das Abfragen von Daten. Das Laden und Exportieren von Daten ist kostenlos. Siehe BigQuery Pricing oder die BigQuery - Sandbox für weitere Informationen.

Stellen Sie zunächst sicher, dass Ihr Firebase-Projekt mit BigQuery verknüpft ist. Wählen Sie Einstellungen> Projekteinstellungen in der linken Navigationsleiste und wählen Integrationen> BigQuery> Link. Auf dieser Seite werden Optionen zum Exportieren von BiqQuery-Analysedaten für alle Apps im Projekt angezeigt.

So fragen Sie Analysedaten für ein Experiment ab:

  1. Aus Ihrer aktiven Experimenten Liste das gewünschte Experiment der Versuchsergebnisse Seite zu öffnen.
  2. Vom Kontextmenü im Übersichtsfenster Experiment, Query Experimentdaten wählen (diese Option ist für Projekte auf dem no-cost Tiere nicht verfügbar).

    Dadurch wird der Abfrage-Composer der BigQuery-Konsole mit einer automatisch generierten Beispielabfrage von Testdaten geöffnet, die zur Überprüfung vorab geladen sind. In dieser Abfrage wird Ihr Experiment als Benutzereigenschaft mit dem Experimentnamen im Schlüssel und der Experimentvariante im Wert codiert.

  3. In der Abfrage Komponisten, wählen Sie Ausführen Abfrage. Die Ergebnisse werden im unteren Bereich angezeigt.

Da Firebase-Daten in BigQuery nur einmal täglich aktualisiert werden, sind die auf der Testseite verfügbaren Daten möglicherweise aktueller als die in der BigQuery-Konsole verfügbaren Daten.