Quando raggiungi i tuoi utenti o avvii una nuova campagna di marketing, vuoi assicurarti di farlo bene. Il test A/B può aiutarti a trovare la formulazione e la presentazione ottimali testando le varianti del messaggio su parti selezionate della tua base utenti. Se il tuo obiettivo è una migliore fidelizzazione o conversione di un'offerta, il test A/B può eseguire analisi statistiche per determinare se una variante del messaggio sta superando la linea di base per l'obiettivo selezionato.
Per testare le varianti delle funzionalità di A/B con una baseline, procedi come segue:
- Crea il tuo esperimento.
- Convalida il tuo esperimento su un dispositivo di prova.
- Gestisci il tuo esperimento.
Crea un esperimento
Un esperimento che utilizza la messaggistica in-app Firebase ti consente di valutare più varianti di un singolo messaggio in-app.
Accedi alla console Firebase e verifica che Google Analytics sia abilitato nel tuo progetto in modo che l'esperimento abbia accesso ai dati di Analytics.
Se non hai abilitato Google Analytics durante la creazione del tuo progetto, puoi abilitarlo nella scheda Integrazioni , a cui puoi accedere utilizzando > Impostazioni progetto nella console Firebase .
Nella sezione Coinvolgi del menu di navigazione della console Firebase , fai clic su A/B Testing .
Fai clic su Crea esperimento e quindi seleziona Messaggistica in-app quando ti viene richiesto il servizio che desideri sperimentare.
In alternativa, nel menu di navigazione della console Firebase , espandi Coinvolgi , quindi fai clic su Messaggistica in-app . Quindi fai clic su Nuovo esperimento .
Inserisci un nome e una descrizione facoltativa per l'esperimento, quindi fai clic su Avanti .
Compila i campi Targeting , scegliendo prima l'app che utilizza il tuo esperimento. Puoi anche scegliere come target un sottoinsieme di utenti affinché partecipino all'esperimento scegliendo opzioni che includano quanto segue:
- Versione: una o più versioni della tua app
- Pubblico degli utenti: segmenti di pubblico di Analytics utilizzati per scegliere come target gli utenti che potrebbero essere inclusi nell'esperimento
- Proprietà utente: una o più proprietà utente di Analytics per selezionare gli utenti che potrebbero essere inclusi nell'esperimento
- Paese/regione: uno o più paesi o regioni in cui selezionare gli utenti che potrebbero essere inclusi nell'esperimento
- Lingua del dispositivo: una o più lingue e impostazioni locali utilizzate per selezionare gli utenti che potrebbero essere inclusi nell'esperimento
- Prima apertura: scegli come target gli utenti in base alla prima volta che hanno aperto la tua app
- Ultimo coinvolgimento con l'app: scegli come target gli utenti in base all'ultima volta che hanno interagito con la tua app
Imposta la percentuale di utenti target: seleziona la percentuale della base utenti della tua app che corrisponde ai criteri impostati in Utenti target che desideri dividere equamente tra la base di riferimento e una o più varianti nell'esperimento. Può essere qualsiasi percentuale compresa tra 0,01% e 100%. Le percentuali vengono riassegnate in modo casuale agli utenti per ogni esperimento, inclusi gli esperimenti duplicati.
Nella sezione Varianti , configura un messaggio in-app di base da inviare al gruppo di base utilizzando l' interfaccia di progettazione del messaggio che utilizzi per una normale campagna di messaggistica in-app.
Per aggiungere una variante all'esperimento, fai clic su Aggiungi variante . Per impostazione predefinita, gli esperimenti hanno una linea di base e una variante.
(facoltativo) Inserisci un nome più descrittivo per ciascuna variante.
(facoltativo) Nella parte superiore della sezione Varianti , fai clic sul pulsante Confronta varianti per confrontare un'altra variante del messaggio affiancata al messaggio di base.
Definisci una metrica obiettivo per il tuo esperimento da utilizzare durante la valutazione delle varianti dell'esperimento insieme a eventuali metriche aggiuntive che desideri utilizzare dall'elenco. Queste metriche includono obiettivi integrati (coinvolgimento, acquisti, entrate, fidelizzazione, ecc.), eventi di conversione di Analytics e altri eventi di Analytics.
Configura la pianificazione dell'esperimento:
- Imposta una data di inizio e di fine per l'esperimento.
- Imposta la modalità di attivazione dei messaggi in-app in tutte le varianti.
Fai clic su Rivedi per salvare l'esperimento.
Sono consentiti fino a 300 esperimenti per progetto, che potrebbero consistere in un massimo di 24 esperimenti in esecuzione, mentre il resto è in bozza o completato.
Convalida il tuo esperimento su un dispositivo di prova
Per ogni installazione Firebase, puoi recuperare il token di autenticazione dell'installazione ad essa associato. Puoi utilizzare questo token per testare varianti specifiche dell'esperimento su un dispositivo di prova su cui è installata la tua app. Per convalidare l'esperimento su un dispositivo di prova, procedi come segue:
- Ottieni il token di autenticazione dell'installazione come segue:
Veloce
do { let result = try await Installations.installations() .authTokenForcingRefresh(true) print("Installation auth token: \(result.authToken)") } catch { print("Error fetching token: \(error)") }
Obiettivo-C
[[FIRInstallations installations] authTokenForcingRefresh:true completion:^(FIRInstallationsAuthTokenResult *result, NSError *error) { if (error != nil) { NSLog(@"Error fetching Installation token %@", error); return; } NSLog(@"Installation auth token: %@", [result authToken]); }];
Java
FirebaseInstallations.getInstance().getToken(/* forceRefresh */true) .addOnCompleteListener(new OnCompleteListener<InstallationTokenResult>() { @Override public void onComplete(@NonNull Task<InstallationTokenResult> task) { if (task.isSuccessful() && task.getResult() != null) { Log.d("Installations", "Installation auth token: " + task.getResult().getToken()); } else { Log.e("Installations", "Unable to get Installation auth token"); } } });
Kotlin+KTX
val forceRefresh = true FirebaseInstallations.getInstance().getToken(forceRefresh) .addOnCompleteListener { task -> if (task.isSuccessful) { Log.d("Installations", "Installation auth token: " + task.result?.token) } else { Log.e("Installations", "Unable to get Installation auth token") } }
- Nella barra di navigazione della console Firebase , fai clic su Test A/B .
- Fai clic su Bozza (e/o In esecuzione per esperimenti Remote Config), passa il mouse sopra l'esperimento, fai clic sul menu contestuale ( more_vert ), quindi su Gestisci dispositivi di test .
- Inserisci il token di autenticazione dell'installazione per un dispositivo di test e scegli la variante dell'esperimento da inviare a quel dispositivo di test.
- Esegui l'app e conferma che la variante selezionata viene ricevuta sul dispositivo di prova.
Per ulteriori informazioni sulle installazioni Firebase, consulta Gestire le installazioni Firebase .
Gestisci il tuo esperimento
Sia che crei un esperimento con Remote Config, il compositore di notifiche o la messaggistica in-app Firebase, puoi quindi convalidare e avviare l'esperimento, monitorare l'esperimento mentre è in esecuzione e aumentare il numero di utenti inclusi nell'esperimento in corso.
Una volta terminato l'esperimento, puoi prendere nota delle impostazioni utilizzate dalla variante vincente e quindi distribuirle a tutti gli utenti. In alternativa, puoi eseguire un altro esperimento.
Avvia un esperimento
- Nella sezione Coinvolgi del menu di navigazione della console Firebase , fai clic su A/B Testing .
- Fai clic su Bozza e poi sul titolo dell'esperimento.
- Per verificare che la tua app abbia utenti che potrebbero essere inclusi nell'esperimento, espandi i dettagli della bozza e verifica la presenza di un numero superiore allo 0% nella sezione Targeting e distribuzione (ad esempio, 1% di utenti che corrispondono ai criteri ).
- Per modificare l'esperimento, fai clic su Modifica .
- Per avviare l'esperimento, fai clic su Avvia esperimento . Puoi eseguire fino a 24 esperimenti per progetto alla volta.
Monitorare un esperimento
Una volta che un esperimento è in esecuzione da un po', puoi controllarne l'avanzamento e vedere come appaiono i risultati per gli utenti che hanno partecipato all'esperimento fino a quel momento.
- Nella sezione Coinvolgi del menu di navigazione della console Firebase , fai clic su A/B Testing .
Fai clic su In esecuzione , quindi fai clic o cerca il titolo dell'esperimento. In questa pagina puoi visualizzare varie statistiche osservate e modellate sull'esperimento in corso, tra cui:
- Differenza % rispetto al riferimento : misura del miglioramento di una metrica per una determinata variante rispetto al riferimento. Calcolato confrontando l'intervallo di valori della variante con l'intervallo di valori della linea di base.
- Probabilità di superare il riferimento : la probabilità stimata che una determinata variante superi il riferimento per la metrica selezionata.
- observed_metric per utente : in base ai risultati dell'esperimento, questo è l'intervallo previsto in cui rientrerà il valore della metrica nel tempo.
- Totale_metrica observed_metric : il valore cumulativo osservato per la linea di base o la variante. Il valore viene utilizzato per misurare il rendimento di ciascuna variante dell'esperimento e per calcolare il miglioramento , l'intervallo di valori , la probabilità di superare il valore di riferimento e la probabilità di essere la variante migliore . A seconda della metrica misurata, questa colonna potrebbe essere etichettata come "Durata per utente", "Entrate per utente", "Tasso di fidelizzazione" o "Tasso di conversione".
Dopo che l'esperimento è stato eseguito per un po' (almeno 7 giorni per FCM e messaggistica in-app o 14 giorni per Remote Config), i dati in questa pagina indicano quale variante, se presente, è "leader". Alcune misurazioni sono accompagnate da un grafico a barre che presenta i dati in formato visivo.
Lancia un esperimento a tutti gli utenti
Dopo che un esperimento è durato abbastanza a lungo da avere un "leader", o variante vincente, per la metrica del tuo obiettivo, puoi pubblicare l'esperimento per il 100% degli utenti. Ciò ti consente di selezionare una variante da pubblicare per tutti gli utenti da quel momento in poi. Anche se il tuo esperimento non ha creato un chiaro vincitore, puoi comunque scegliere di rilasciare una variante per tutti i tuoi utenti.
- Nella sezione Coinvolgi del menu di navigazione della console Firebase , fai clic su A/B Testing .
- Fai clic su Completato o In esecuzione , fai clic su un esperimento che desideri pubblicare per tutti gli utenti, fai clic sul menu contestuale ( ) Variante di implementazione .
Distribuisci l'esperimento a tutti gli utenti effettuando una delle seguenti operazioni:
- Per un esperimento che utilizza il compositore di notifiche , utilizza la finestra di dialogo Distribuisci messaggio per inviare il messaggio agli utenti target rimanenti che non facevano parte dell'esperimento.
- Per un esperimento Remote Config , seleziona una variante per determinare quali valori dei parametri Remote Config aggiornare. I criteri di targeting definiti durante la creazione dell'esperimento vengono aggiunti come nuova condizione nel modello, per garantire che l'implementazione interessi solo gli utenti scelti come target dall'esperimento. Dopo aver fatto clic su Verifica in Remote Config per rivedere le modifiche, fare clic su Pubblica modifiche per completare l'implementazione.
- Per un esperimento di messaggistica in-app , utilizza la finestra di dialogo per determinare quale variante deve essere implementata come campagna di messaggistica in-app autonoma. Una volta selezionato, verrai reindirizzato alla schermata di composizione FIAM per apportare eventuali modifiche (se necessarie) prima della pubblicazione.
Espandi un esperimento
Se ritieni che un esperimento non attira abbastanza utenti affinché i test A/B dichiarino un leader, puoi aumentare la distribuzione dell'esperimento per raggiungere una percentuale maggiore della base utenti dell'app.
- Nella sezione Coinvolgi del menu di navigazione della console Firebase , fai clic su A/B Testing .
- Seleziona l'esperimento in corso da modificare.
- Nella panoramica dell'esperimento , fai clic sul menu contestuale ( ), quindi su Modifica esperimento in corso .
- La finestra di dialogo Targeting mostra un'opzione per aumentare la percentuale di utenti che partecipano all'esperimento in corso. Seleziona un numero maggiore della percentuale corrente e fai clic su Pubblica . L'esperimento verrà esteso alla percentuale di utenti specificata.
Duplica o interrompi un esperimento
- Nella sezione Coinvolgi del menu di navigazione della console Firebase , fai clic su A/B Testing .
- Fai clic su Completato o In esecuzione , tieni il puntatore sull'esperimento, fai clic sul menu contestuale ( ), quindi su Duplica esperimento o Interrompi esperimento .
Targeting per utente
Puoi scegliere come target gli utenti da includere nell'esperimento utilizzando i seguenti criteri di targeting utente.
Criterio di targeting | Operatore/i | Valori) | Nota |
---|---|---|---|
Versione | contiene, non contiene, corrisponde esattamente, contiene espressione regolare | Inserisci un valore per una o più versioni dell'app che desideri includere nell'esperimento. | Quando si utilizza uno qualsiasi degli operatori contiene , non contiene o corrisponde esattamente , è possibile fornire un elenco di valori separati da virgole. Quando si utilizza l'operatore regex contiene , è possibile creare espressioni regolari in formato RE2 . La tua espressione regolare può corrispondere a tutta o parte della stringa della versione di destinazione. Puoi anche utilizzare le ancore ^ e $ per abbinare l'inizio, la fine o l'intera stringa di destinazione. |
Pubblico/i di utenti | include tutto, include almeno uno di, non include tutto, non include almeno uno di | Seleziona uno o più segmenti di pubblico di Analytics per scegliere come target gli utenti che potrebbero essere inclusi nel tuo esperimento. | Alcuni esperimenti rivolti ai segmenti di pubblico di Google Analytics potrebbero richiedere alcuni giorni per accumulare dati poiché sono soggetti alla latenza di elaborazione dei dati di Analytics. È molto probabile che questo ritardo si verifichi con i nuovi utenti, che in genere vengono iscritti a segmenti di pubblico idonei 24-48 ore dopo la creazione o per segmenti di pubblico creati di recente . |
Proprietà dell'utente | Per il testo: contiene, non contiene, corrisponde esattamente, contiene espressione regolare Per i numeri: <, ≤, =, ≥, > | Una proprietà utente di Analytics viene utilizzata per selezionare gli utenti che potrebbero essere inclusi in un esperimento, con una gamma di opzioni per la selezione dei valori delle proprietà utente. Sul client è possibile impostare solo valori stringa per le proprietà utente. Per le condizioni che utilizzano operatori numerici, il servizio Remote Config converte il valore della proprietà utente corrispondente in un numero intero/virgola mobile. | Quando si utilizza l'operatore regex contiene , è possibile creare espressioni regolari in formato RE2 . La tua espressione regolare può corrispondere a tutta o parte della stringa della versione di destinazione. Puoi anche utilizzare le ancore ^ e $ per abbinare l'inizio, la fine o l'intera stringa di destinazione. |
Paese/regione | N / A | Uno o più paesi o aree geografiche utilizzati per selezionare gli utenti che potrebbero essere inclusi nell'esperimento. | |
Le lingue | N / A | Una o più lingue e impostazioni locali utilizzate per selezionare gli utenti che potrebbero essere inclusi nell'esperimento. | |
Primo aperto | Più di Meno di Fra | Scegli come target gli utenti in base alla prima volta che hanno aperto la tua app, specificata in giorni. | |
Ultimo coinvolgimento dell'app | Più di Meno di Fra | Scegli come target gli utenti in base all'ultima volta che hanno interagito con la tua app, specificata in giorni. |
Metriche di test A/B
Quando crei l'esperimento, scegli una metrica principale, o obiettivo , utilizzata per determinare la variante vincente. Dovresti anche monitorare altre metriche per comprendere meglio il rendimento di ciascuna variante dell'esperimento e monitorare tendenze importanti che potrebbero differire per ciascuna variante, come fidelizzazione degli utenti, stabilità dell'app ed entrate derivanti dagli acquisti in-app. Puoi monitorare fino a cinque metriche diverse dall'obiettivo nel tuo esperimento.
Ad esempio, supponiamo che tu abbia aggiunto nuovi acquisti in-app alla tua app e desideri confrontare l'efficacia di due diversi messaggi "nudge". In questo caso, potresti decidere di impostare le Entrate da acquisti come metrica dell'obiettivo perché desideri che la variante vincente rappresenti la notifica che ha generato le entrate da acquisti in-app più elevate. E poiché desideri anche monitorare quale variante ha generato più conversioni future e utenti fidelizzati, potresti aggiungere quanto segue in Altre metriche da monitorare :- Entrate totali stimate per vedere in che modo differiscono tra le due varianti la combinazione di acquisti in-app ed entrate pubblicitarie
- Conservazione (1 giorno) , Conservazione (2-3 giorni) , Conservazione (4-7 giorni) per monitorare la fidelizzazione giornaliera/settimanale degli utenti
Le tabelle seguenti forniscono dettagli su come vengono calcolate le metriche degli obiettivi e altre metriche.
Metriche degli obiettivi
Metrico | Descrizione |
---|---|
Utenti senza arresti anomali | La percentuale di utenti che non hanno riscontrato errori nella tua app rilevati dall'SDK Firebase Crashlytics durante l'esperimento. |
Entrate pubblicitarie stimate | Guadagni pubblicitari stimati. |
Entrate totali stimate | Valore combinato per l'acquisto e ricavi pubblicitari stimati. |
Ricavi di acquisto | Valore combinato per tutti gli eventi purchase e in_app_purchase . |
Conservazione (1 giorno) | Il numero di utenti che tornano alla tua app ogni giorno. |
Conservazione (2-3 giorni) | Il numero di utenti che tornano alla tua app entro 2-3 giorni. |
Conservazione (4-7 giorni) | Il numero di utenti che tornano alla tua app entro 4-7 giorni. |
Conservazione (8-14 giorni) | Il numero di utenti che tornano alla tua app entro 8-14 giorni. |
Conservazione (oltre 15 giorni) | Il numero di utenti che tornano alla tua app 15 o più giorni dopo l'ultimo utilizzo. |
primo_aperto | Un evento di Analytics che si attiva quando un utente apre per la prima volta un'app dopo averla installata o reinstallata. Utilizzato come parte di un funnel di conversione. |
Altre metriche
Metrico | Descrizione |
---|---|
notification_dismiss | Un evento di Analytics che si attiva quando una notifica inviata dal compositore delle notifiche viene ignorata (solo Android). |
notifica_ricezione | Un evento di Analytics che si attiva quando viene ricevuta una notifica inviata dal compositore delle notifiche mentre l'app è in background (solo Android). |
os_update | Un evento di Analytics che tiene traccia quando il sistema operativo del dispositivo viene aggiornato a una nuova versione. Per ulteriori informazioni, vedi Eventi raccolti automaticamente . |
schermata_vista | Un evento Analytics che tiene traccia delle schermate visualizzate all'interno della tua app. Per ulteriori informazioni, consulta Monitoraggio delle schermate . |
inizio_sessione | Un evento Analytics che conta le sessioni utente nella tua app. Per ulteriori informazioni, consulta Eventi raccolti automaticamente . |