A/B 테스팅을 사용한 메시징 실험 만들기

사용자에게 무엇인가를 홍보하거나 새로운 마케팅 캠페인을 시작할 때는 가장 효과적인 방법을 찾아야 합니다. A/B 테스팅은 사용자층을 나누어 서로 다른 메시지를 테스트함으로써 가장 적절한 문구와 표현 방식을 알아내는 데 도움이 됩니다. 유지율 개선, 프로모션의 전환율 상승 등 목표가 무엇이든 간에 A/B 테스팅으로 통계 분석을 실시하여 특정 메시지 대안이 원하는 목표를 기준보다 뛰어나게 달성할 수 있는지 파악할 수 있습니다.

기준을 활용해 여러 기능 대안에 대한 A/B 테스트를 하는 방법은 다음과 같습니다.

  1. 실험을 만듭니다.
  2. 테스트 기기에서 실험의 유효성을 검증합니다.
  3. 실험을 관리합니다.

실험 만들기

알림 작성기를 사용한 실험을 통해 알림 메시지의 여러 버전을 평가할 수 있습니다.

  1. Firebase Console에 로그인하고 실험에서 Analytics 데이터에 액세스할 수 있도록 Google Analytics가 프로젝트에 사용 설정되어 있는지 확인합니다.

    프로젝트를 만들 때 Google Analytics를 사용 설정하지 않았으면 통합 탭(Firebase Console > 프로젝트 설정을 사용하여 액세스 가능)에서 사용 설정할 수 있습니다.

  2. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.

  3. 실험 만들기를 클릭한 후 실험하려는 서비스를 지정하라는 메시지가 표시되면 알림을 선택합니다.

  4. 실험의 이름설명(선택사항)을 입력하고 다음을 클릭합니다.

  5. 실험을 사용할 앱을 먼저 선택하고 타겟팅 입력란을 작성합니다. 다음을 포함하는 옵션을 선택하여 사용자의 일부만 실험에 참여하도록 타겟팅할 수도 있습니다.

    • 버전: 하나 이상의 앱 버전입니다.
    • 잠재 사용자: 실험에 포함될 수 있는 사용자를 타겟팅하는 데 사용되는 Analytics 잠재고객입니다.
    • 사용자 속성: 실험에 포함될 수 있는 사용자를 선택하는 Analytics 사용자 속성 하나 이상입니다.
    • 국가/지역: 실험에 포함될 수 있는 사용자를 선택하는 하나 이상의 국가 또는 지역입니다.
    • 기기 언어: 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 언어입니다.
    • 최초 실행: 사용자가 앱을 처음으로 실행한 시간을 기준으로 사용자를 타겟팅합니다.
    • 마지막 앱 참여: 사용자가 앱에 마지막으로 참여한 시간을 기준으로 사용자를 타겟팅합니다.
  6. 대상 사용자 비율 설정: 대상 사용자에 설정한 기준에 맞는 앱 사용자층을 기준 및 하나 이상의 실험 대안 간에 균등하게 배분할 비율을 선택합니다. 0.01~100% 사이의 백분율을 입력할 수 있습니다. 백분율은 중복 실험을 포함하여 실험마다 사용자에게 무작위로 다시 할당됩니다.

  7. 대안 섹션의 메시지 내용 입력 필드에 기준 그룹에 전송할 메시지를 입력합니다. 기준 그룹에 메시지를 보내지 않으려면 이 필드를 비워 둡니다.

  8. (선택사항) 실험에 하나 이상의 대안을 추가하려면 대안 추가를 클릭합니다. 실험에는 기본적으로 1개의 기준과 1개의 대안이 포함됩니다.

  9. (선택사항) 실험의 각 대안에 이름을 입력하여 대안 A, 대안 B 등의 이름을 대체합니다.

  10. 드롭다운 목록에서 원하는 추가 측정항목과 함께 실험 대안을 평가할 때 사용할 실험의 목표 측정항목을 정의합니다. 여기에는 기본 목표(참여도, 구매, 수익, 유지율 등), Analytics 전환 이벤트, 기타 Analytics 이벤트가 포함됩니다.

  11. 메시지 옵션을 선택합니다.

    • 전송 날짜: 지금 보내기를 클릭하여 실험을 즉시 시작하거나 일정 예약을 클릭하여 실험을 시작할 시간을 지정합니다.
    • 고급 옵션: 실험에 포함된 모든 알림에 대한 고급 옵션을 선택하려면 고급 옵션을 펼치고 나열된 메시지 옵션 중 원하는 항목을 변경합니다.
  12. 검토를 클릭하여 실험을 저장합니다.

프로젝트당 최대 300개의 실험이 허용되며 최대 24개까지 진행 중인 실험으로, 나머지는 초안 또는 완료로 구성할 수 있습니다.

테스트 기기에서 실험 검증

Firebase 설치마다 연결된 FCM 등록 토큰을 검색할 수 있습니다. 이 토큰을 사용하면 앱이 설치된 테스트 기기에서 특정 실험 대안을 테스트할 수 있습니다. 테스트 기기에서 실험의 유효성을 검사하는 방법은 다음과 같습니다.

  1. 다음과 같이 FCM 등록 토큰을 가져옵니다.

    Swift

    Messaging.messaging().token { token, error in
      if let error = error {
        print("Error fetching FCM registration token: \(error)")
      } else if let token = token {
        print("FCM registration token: \(token)")
        self.fcmRegTokenMessage.text  = "Remote FCM registration token: \(token)"
      }
    }

    Objective-C

    [[FIRMessaging messaging] tokenWithCompletion:^(NSString *token, NSError *error) {
      if (error != nil) {
        NSLog(@"Error getting FCM registration token: %@", error);
      } else {
        NSLog(@"FCM registration token: %@", token);
        self.fcmRegTokenMessage.text = token;
      }
    }];

    Java

    FirebaseMessaging.getInstance().getToken()
        .addOnCompleteListener(new OnCompleteListener<String>() {
            @Override
            public void onComplete(@NonNull Task<String> task) {
              if (!task.isSuccessful()) {
                Log.w(TAG, "Fetching FCM registration token failed", task.getException());
                return;
              }
    
              // Get new FCM registration token
              String token = task.getResult();
    
              // Log and toast
              String msg = getString(R.string.msg_token_fmt, token);
              Log.d(TAG, msg);
              Toast.makeText(MainActivity.this, msg, Toast.LENGTH_SHORT).show();
            }
        });

    Kotlin

    FirebaseMessaging.getInstance().token.addOnCompleteListener(OnCompleteListener { task ->
        if (!task.isSuccessful) {
            Log.w(TAG, "Fetching FCM registration token failed", task.exception)
            return@OnCompleteListener
        }
    
        // Get new FCM registration token
        val token = task.result
    
        // Log and toast
        val msg = getString(R.string.msg_token_fmt, token)
        Log.d(TAG, msg)
        Toast.makeText(baseContext, msg, Toast.LENGTH_SHORT).show()
    })

    C++

    firebase::InitResult init_result;
    auto* installations_object = firebase::installations::Installations::GetInstance(
        firebase::App::GetInstance(), &init_result);
    installations_object->GetToken().OnCompletion(
        [](const firebase::Future<std::string>& future) {
          if (future.status() == kFutureStatusComplete &&
              future.error() == firebase::installations::kErrorNone) {
            printf("Installations Auth Token %s\n", future.result()->c_str());
          }
        });

    Unity

    Firebase.Messaging.FirebaseMessaging.DefaultInstance.GetTokenAsync().ContinueWith(
      task => {
        if (!(task.IsCanceled || task.IsFaulted) && task.IsCompleted) {
          UnityEngine.Debug.Log(System.String.Format("FCM registration token {0}", task.Result));
        }
      });
  2. Firebase Console 탐색 메뉴에서 A/B 테스팅을 클릭합니다.
  3. 초안을 클릭하고 마우스를 실험 위에 가져간 다음 컨텍스트 메뉴()를 클릭하고 테스트 기기 관리를 클릭합니다.
  4. 테스트 기기의 FCM 토큰을 입력하고 테스트 기기로 전송할 실험 대안을 선택합니다.
  5. 앱을 실행하고 선택한 대안이 테스트 기기에 수신되는지 확인합니다.

실험 관리

Remote Config, 알림 작성기 또는 Firebase In-App Messaging 중 무엇으로 실험을 만드는지에 관계없이 실험을 검증 및 시작하고 실험이 진행되는 동안 실험을 모니터링하며 진행 중인 실험에 포함된 사용자 수를 늘릴 수 있습니다.

실험이 끝나면 우수한 대안에 사용된 설정을 기록해 두고 이후에 모든 사용자에게 이 설정을 적용하거나 다른 실험을 진행할 수 있습니다.

실험 시작

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
  2. 초안을 클릭하고 실험 제목을 클릭합니다.
  3. 실험에 포함될 사용자가 앱에 있는지 검증하려면 초안 세부정보를 펼치고 타겟팅 및 분포에서 0%보다 큰 숫자가 있는지 확인합니다(예: 기준과 일치하는 사용자 1%).
  4. 실험을 변경하려면 수정을 클릭합니다.
  5. 실험을 시작하려면 실험 시작을 클릭합니다. 한 번에 프로젝트당 최대 24개의 실험을 실행할 수 있습니다.

실험 모니터링

실험이 일정 시간 진행되면 실험의 진행 상황을 확인하고 지금까지 실험에 참여한 사용자의 결과가 어떤지 살펴볼 수 있습니다.

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
  2. 실행 중을 클릭하고 실험 제목을 클릭하거나 검색합니다. 이 페이지에서는 다음을 포함하여 진행 중인 실험에 대한 다양한 관찰 및 모델링된 통계를 확인할 수 있습니다.

    • 기준과의 차이(%): 기준과 비교하여 특정 대안의 측정항목 개선도를 측정한 값입니다. 대안의 값 범위를 기준의 값 범위와 비교하여 계산합니다.
    • 기준 초과 가능성: 특정 대안이 선택한 측정항목의 기준을 초과할 것으로 예측되는 확률입니다.
    • 사용자당 observed_metric: 실험 결과를 기준으로 시간 경과에 따라 측정항목 값이 속할 것으로 예상되는 범위입니다.
    • 전체 observed_metric: 기준 또는 대안에서 관찰된 누적 값입니다. 이 값은 각 실험 대안의 효과를 측정하고 개선, 값 범위, 기준 초과 가능성, 최적의 대안이 될 확률을 계산하는 데 사용됩니다. 대상 측정항목에 따라 이 열에 '사용자당 기간', '사용자당 수익', '유지율', '전환율' 등의 라벨을 지정할 수 있습니다.
  3. 일정 시간(FCMIn-App Messaging의 경우 최소 7일, Remote Config의 경우 14일) 동안 실험이 진행된 후 이 페이지의 데이터에 '최우수 대안'(있는 경우)이 표시됩니다. 일부 측정항목은 데이터를 시각적으로 표현하는 막대 그래프가 함께 제공됩니다.

모든 사용자에게 실험 적용

목표 측정항목을 기준으로 가장 우수한 대안이 판명될 때까지 실험이 충분히 진행되었으면 이를 사용자 전체에 적용할 수 있습니다. 이렇게 하여 앞으로 모든 사용자에게 게시할 대안을 선택할 수 있습니다. 실험을 통해 우열이 명확히 가려지지 않은 경우에도 대안 중 하나를 모든 사용자에게 적용할 수 있습니다.

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
  2. 완료됨 또는 실행 중을 클릭하고 모든 사용자에게 적용할 실험을 클릭한 다음 컨텍스트 메뉴()대안 적용을 클릭합니다.
  3. 다음 중 하나를 수행하여 실험을 모든 사용자에게 적용합니다.

    • 실험에서 알림 작성기를 사용하는 경우 메시지 전파 대화상자를 사용하여 이전에 실험에 참여하지 않았던 나머지 타겟팅 사용자에게 메시지를 보냅니다.
    • Remote Config 실험의 경우 대안을 선택하여 업데이트할 Remote Config 파라미터 값을 결정합니다. 실험을 만들 때 정의된 타겟팅 기준은 템플릿에 새 조건으로 추가되어 실험에서 타겟팅되는 사용자에게만 출시되도록 합니다. 원격 구성에서 검토를 클릭하여 변경사항을 검토한 후 변경사항 게시를 클릭하여 출시를 완료합니다.
    • In-App Messaging 실험의 경우 대화상자를 사용하여 독립형 In-App Messaging 캠페인으로 출시해야 하는 대안을 결정합니다. 선택하면 Firebase 인앱 메시지 작성 화면으로 리디렉션되며 필요한 경우 게시하기 전에 변경할 수 있습니다.

실험 확장

A/B Testing에서 실험에 참여하는 사용자 수가 부족하여 우열을 가릴 수 없으면 실험의 분포를 늘려 앱 사용자층에서 실험에 참가하는 비율을 높이면 됩니다.

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
  2. 수정하려는 실행 중인 실험을 선택합니다.
  3. 실험 개요에서 컨텍스트 메뉴()를 클릭한 후 실행 중인 실험 수정을 클릭합니다.
  4. 타겟팅 대화상자에는 실행 중인 실험에 있는 사용자의 비율을 높일 수 있는 옵션이 표시됩니다. 현재 백분율보다 큰 숫자를 선택하고 게시를 클릭합니다. 그러면 지정한 비율의 사용자에게 실험이 적용됩니다.

실험 복제 또는 중지

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B Testing을 클릭합니다.
  2. 완료됨 또는 실행 중을 클릭하고 마우스 포인터를 실험 위에 가져간 다음 컨텍스트 메뉴()를 클릭하고 실험 복제 또는 실험 중지를 클릭합니다.

사용자 타겟팅

다음과 같은 사용자 타겟팅 기준을 사용하여 실험에 포함할 사용자를 타겟팅할 수 있습니다.

타겟팅 기준 연산자    참고사항
버전 포함,
제외,
정확히 일치함,
정규식 포함
실험에 포함할 하나 이상의 앱 버전 값을 입력합니다.

포함, 제외 또는 정확히 일치함 연산자를 사용하는 경우 쉼표로 구분된 값 목록을 제공할 수 있습니다.

정규식 포함 연산자를 사용하면 RE2 형식의 정규 표현식을 만들 수 있습니다. 정규 표현식은 타겟 버전 문자열의 일부 또는 전부와 일치할 수 있습니다. ^$ 앵커를 사용하여 타겟 문자열의 시작, 끝 또는 전체와 일치시킬 수도 있습니다.

잠재 사용자 다음을 모두 포함,
다음 중 1개 이상 포함,
다음을 모두 포함하지 않음,
다음 중 최소 1개를 포함하지 않음
실험에 포함될 수 있는 사용자를 타겟팅하는 Analytics 잠재고객을 하나 이상 선택합니다. Google Analytics 잠재고객을 타겟팅하는 일부 실험에서는 Analytics 데이터 처리 지연 시간이 발생하므로 데이터가 누적되는 데 며칠이 걸릴 수 있습니다. 일반적으로 생성 후 24~48시간 이내에 적격 잠재고객으로 등록된 신규 사용자나 최근에 생성된 잠재고객에게 이러한 지연이 발생할 가능성이 가장 높습니다.
사용자 속성 텍스트:
포함,
제외,
정확히 일치함,
정규식 포함

숫자:
<, ≤, =, ≥, >
Analytics 사용자 속성은 실험에 포함될 수 있는 사용자를 선택하는 데 사용되며 다양한 옵션으로 사용자 속성 값을 선택할 수 있습니다.

클라이언트에서는 사용자 속성에 문자열 값만 설정할 수 있습니다. 숫자 연산자를 사용하는 조건의 경우 Remote Config 서비스는 해당 사용자 속성 값을 정수/부동 소수점 수로 변환합니다.
정규식 포함 연산자를 사용하면 RE2 형식의 정규 표현식을 만들 수 있습니다. 정규 표현식은 타겟 버전 문자열의 일부 또는 전부와 일치할 수 있습니다. ^$ 앵커를 사용하여 타겟 문자열의 시작, 끝 또는 전체와 일치시킬 수도 있습니다.
국가/지역 N/A 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 국가 또는 지역입니다.  
언어 N/A 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 언어입니다.  
최초 실행 초과
미만
사이
사용자가 앱을 처음으로 실행한 날짜를 기준으로 사용자를 타겟팅하며 일 단위로 지정됩니다.
마지막 앱 참여 초과
미만
사이
사용자가 앱을 마지막으로 사용한 날짜를 기준으로 사용자를 타겟팅하며 일 단위로 지정됩니다.

측정항목 A/B Testing

실험을 만들 때는 가장 우수한 대안을 판단하는 데 사용할 기본 또는 목표 측정항목을 선택합니다. 또한 각 실험 대안의 성과를 더 잘 파악하고 사용자 유지, 앱 안정성, 인앱 구매 수익 등 대안마다 차이가 있을 수 있는 중요한 추세를 추적하는 데 도움이 되는 다른 측정항목도 추적해야 합니다. 실험에서 목표 이외의 측정항목을 최대 5개까지 추적할 수 있습니다.

예를 들어 앱에 새 인앱 구매를 추가했고 두 가지 '유도' 메시지의 효과를 비교하려고 한다고 가정해 보겠습니다. 이 경우 가장 높은 인앱 구매 수익을 가져온 알림이 가장 실적이 좋은 대안으로 표시되도록 하기 위해 구매 수익을 목표 측정항목으로 설정하기로 결정할 수 있습니다. 또한 향후 더 많은 전환과 사용자 유지를 유도한 대안을 추적하기 위해 추적할 기타 측정항목에 다음을 추가할 수 있습니다.

  • 예상 총수익: 인앱 구매와 광고 수익을 합산한 값이 두 대안 간에 어떻게 다른지 확인합니다.
  • 유지(1일), 유지(2~3일), 유지(4~7일): 일일/주간 사용자 유지 추적

다음 표에서는 목표 측정항목과 기타 측정항목이 계산되는 방식을 상세히 확인할 수 있습니다.

목표 측정항목

측정항목 설명
비정상 종료가 발생하지 않은 사용자 실험 중에 앱에서 Firebase Crashlytics SDK가 탐지한 오류를 경험하지 않은 사용자의 비율입니다.
예상 광고 수익 예상 광고 순익입니다.
예상 총수익 구매 및 추정 광고 수익의 합산 값입니다.
구매 수익 모든 purchasein_app_purchase 이벤트의 합산 값입니다.
유지(1일) 앱을 매일 다시 사용하는 사용자 수입니다.
유지(2~3일) 2~3일 이내에 앱을 다시 사용하는 사용자 수입니다.
유지(4~7일) 4~7일 이내에 앱을 다시 사용하는 사용자 수입니다.
유지(8~14일) 8~14일 이내에 앱을 다시 사용하는 사용자 수입니다.
유지(15일 이상) 앱을 마지막으로 사용하고 15일 이상 경과한 후에 앱을 다시 사용하는 사용자 수입니다.
first_open 사용자가 앱을 설치하거나 재설치한 후 처음으로 실행할 때 트리거되는 Analytics 이벤트입니다. 전환 유입경로의 일부로 사용됩니다.

기타 측정항목

측정항목 설명
notification_dismiss 알림 작성기에서 보낸 알림을 닫을 때 트리거되는 Analytics 이벤트입니다(Android 전용).
notification_receive 알림 작성기에서 보낸 알림이 백그라운드 앱에 수신될 때 트리거되는 Analytics 이벤트입니다(Android 전용).
os_update 기기 운영체제가 새 버전으로 업데이트되는 시점을 추적하는 Analytics 이벤트입니다. 자세한 내용은 자동 수집 이벤트를 참조하세요.
screen_view 앱의 화면 조회를 추적하는 Analytics 이벤트입니다. 자세한 내용은 화면 조회수 추적을 참조하세요.
session_start 앱의 사용자 세션 수를 계산하는 Analytics 이벤트입니다. 자세한 내용은 자동으로 수집되는 이벤트를 참조하세요.

BigQuery 데이터 내보내기

Firebase Console에서 A/B Testing 실험 데이터 보기 외에도 BigQuery에서 실험 데이터를 검사하고 분석할 수 있습니다. A/B Testing에는 별도의 BigQuery 테이블이 없지만 실험 및 대안 멤버십은 Analytics 이벤트 테이블 내의 모든 Google Analytics 이벤트에 저장됩니다.

실험 정보가 포함된 사용자 속성은 userProperty.key like "firebase_exp_%" 또는 userProperty.key = "firebase_exp_01" 형식이며, 여기서 01은 실험 ID이고 userProperty.value.string_value에는 실험 대안의 색인(0부터 시작)이 포함됩니다.

이러한 실험 사용자 속성을 사용하여 실험 데이터를 추출할 수 있습니다. 이를 통해 실험 결과를 다양한 방법으로 분할하고 A/B Testing 결과를 독립적으로 확인할 수 있습니다.

시작하려면 이 가이드의 설명대로 다음을 완료합니다.

  1. Firebase Console에서 Google AnalyticsBigQuery 내보내기 사용 설정
  2. BigQuery를 사용하여 A/B Testing 데이터에 액세스
  3. 쿼리 예시 살펴보기

Firebase Console에서 Google AnalyticsBigQuery 내보내기 사용 설정

Spark 요금제를 사용하고 있으면 샌드박스 한도에 따라 BigQuery 샌드박스를 사용하여 BigQuery에 무료로 액세스할 수 있습니다. 자세한 내용은 가격 책정 및 BigQuery 샌드박스를 참조하세요.

먼저 Analytics 데이터를 BigQuery로 내보내고 있는지 확인합니다.

  1. 통합 탭(Firebase Console > 프로젝트 설정을 사용하여 액세스 가능)을 엽니다.
  2. 이미 다른 Firebase 서비스에서 BigQuery를 사용하고 있으면 관리를 클릭합니다. 그렇지 않으면 연결을 클릭합니다.
  3. Firebase와 BigQuery 연결 정보를 검토한 후 다음을 클릭합니다.
  4. 통합 구성 섹션에서 Google Analytics 전환 버튼을 사용 설정합니다.
  5. 지역을 선택하고 내보내기 설정을 선택합니다.

  6. BigQuery에 연결을 클릭합니다.

선택한 데이터 내보내기 방식에 따라 테이블을 사용할 수 있을 때까지 최대 하루가 걸릴 수 있습니다. 프로젝트 데이터를 BigQuery에 내보내는 방법에 대한 자세한 내용은 BigQuery로 프로젝트 데이터 내보내기를 참조하세요.

BigQuery에서 A/B Testing 데이터에 액세스

특정 실험 데이터를 쿼리하기 전에 쿼리에 사용할 다음의 일부 또는 전체를 얻는 것이 좋습니다.

  • 실험 ID: 실험 개요 페이지의 URL에서 이 값을 가져올 수 있습니다. 예를 들어 URL이 https://console.firebase.google.com/project/my_firebase_project/config/experiment/results/25이면 실험 ID는 25입니다.
  • Google Analytics 속성 ID: 9자리 Google Analytics 속성 ID입니다. Google Analytics 내에서 찾을 수 있습니다. 프로젝트 이름을 확장하여 Google Analytics 이벤트 테이블 이름(project_name.analytics_000000000.events)을 표시하면 BigQuery에도 표시됩니다.
  • 실험일: 더 빠르고 효율적인 쿼리를 작성하려면 쿼리를 실험 데이터(YYYYMMDD 서픽스로 식별되는 테이블)가 포함된 Google Analytics 일일 이벤트 테이블 파티션으로 제한하는 것이 좋습니다. 실험이 2024년 2월 2일부터 2024년 5월 2일까지 실행된 경우 _TABLE_SUFFIX between '20240202' AND '20240502'을 지정합니다. 예시를 보려면 특정 실험 값 선택을 참조하세요.
  • 이벤트 이름: 일반적으로 실험에 구성한 목표 측정항목에 해당됩니다. 예를 들면 in_app_purchase 이벤트, ad_impression 또는 user_retention 이벤트입니다.
를 참조하세요.

쿼리를 생성하는 데 필요한 정보를 수집한 후에는 다음 안내를 따르세요.

  1. Google Cloud 콘솔에서 BigQuery를 엽니다.
  2. 프로젝트를 선택한 후 SQL 쿼리 만들기를 선택합니다.
  3. 쿼리를 추가합니다. 실행할 쿼리 예시는 쿼리 예시 살펴보기를 참조하세요.
  4. 실행을 클릭합니다.

Firebase Console의 자동 생성 쿼리를 사용하여 실험 데이터 쿼리

Blaze 요금제를 사용하는 경우 실험 개요 페이지에 보고 있는 실험의 실험 이름, 대안, 이벤트 이름, 실험의 이벤트 수를 반환하는 샘플 쿼리가 제공됩니다.

자동 생성된 쿼리를 가져와 실행하려면 다음 안내를 따르세요.

  1. Firebase Console에서 A/B Testing을 열고 쿼리하려는 A/B Testing 실험을 선택하여 실험 개요를 엽니다.
  2. 옵션 메뉴의 BigQuery 통합 아래에서 실험 데이터 쿼리를 선택합니다. Google Cloud 콘솔 내 BigQuery에서 프로젝트가 열리고 실험 데이터를 쿼리하는 데 사용할 수 있는 기본 쿼리를 제공합니다.

다음 예시는 'Winter welcome experiment'이라는 이름의 3가지 대안(기준 포함)이 있는 실험에 대해 생성된 쿼리를 보여줍니다. 각 이벤트의 활성 실험 이름, 대안 이름, 순 이벤트, 이벤트 수를 반환합니다. 쿼리 빌더는 프로젝트 내에서 직접 열기 때문에 테이블 이름에서 프로젝트 이름을 지정하지 않습니다.

  /*
    This query is auto-generated by Firebase A/B Testing for your
    experiment "Winter welcome experiment".
    It demonstrates how you can get event counts for all Analytics
    events logged by each variant of this experiment's population.
  */
  SELECT
    'Winter welcome experiment' AS experimentName,
    CASE userProperty.value.string_value
      WHEN '0' THEN 'Baseline'
      WHEN '1' THEN 'Welcome message (1)'
      WHEN '2' THEN 'Welcome message (2)'
      END AS experimentVariant,
    event_name AS eventName,
    COUNT(*) AS count
  FROM
    `analytics_000000000.events_*`,
    UNNEST(user_properties) AS userProperty
  WHERE
    (_TABLE_SUFFIX BETWEEN '20240202' AND '20240502')
    AND userProperty.key = 'firebase_exp_25'
  GROUP BY
    experimentVariant, eventName

추가 쿼리 예시를 보려면 쿼리 예시 살펴보기로 진행하세요.

쿼리 예시 살펴보기

다음 섹션에서는 Google Analytics 이벤트 테이블에서 A/B Testing 실험 데이터를 추출하는 데 사용할 수 있는 쿼리의 예시를 보여줍니다.

모든 실험에서 구매 및 실험 표준 편차 값 추출

실험 결과 데이터를 사용하여 독자적으로 Firebase A/B Testing 결과를 확인할 수 있습니다. 다음 BigQuery SQL 문은 실험 대안과 각 대안의 순 사용자 수를 추출하고 in_app_purchaseecommerce_purchase 이벤트에서 발생한 총수익과 _TABLE_SUFFIX 시작일과 종료일로 지정된 기간 내 모든 실험의 표준 편차를 합산합니다. 이 쿼리에서 얻은 데이터를 단측 t-검정을 위한 통계적 유의성 생성기에서 사용하여 Firebase에서 제공하는 결과가 자체 분석과 일치하는지 확인합니다.

A/B Testing에서 추론을 계산하는 방법에 대한 자세한 내용은 테스트 결과 해석을 참조하세요.

  /*
    This query returns all experiment variants, number of unique users,
    the average USD spent per user, and the standard deviation for all
    experiments within the date range specified for _TABLE_SUFFIX.
  */
  SELECT
    experimentNumber,
    experimentVariant,
    COUNT(*) AS unique_users,
    AVG(usd_value) AS usd_value_per_user,
    STDDEV(usd_value) AS std_dev
  FROM
    (
      SELECT
        userProperty.key AS experimentNumber,
        userProperty.value.string_value AS experimentVariant,
        user_pseudo_id,
        SUM(
          CASE
            WHEN event_name IN ('in_app_purchase', 'ecommerce_purchase')
              THEN event_value_in_usd
            ELSE 0
            END) AS usd_value
      FROM `PROJECT_NAME.analytics_ANALYTICS_ID.events_*`
      CROSS JOIN UNNEST(user_properties) AS userProperty
      WHERE
        userProperty.key LIKE 'firebase_exp_%'
        AND event_name IN ('in_app_purchase', 'ecommerce_purchase')
        AND (_TABLE_SUFFIX BETWEEN 'YYYYMMDD' AND 'YYYMMDD')
      GROUP BY 1, 2, 3
    )
  GROUP BY 1, 2
  ORDER BY 1, 2;

특정 실험 값 선택

다음 쿼리 예시에서는 BigQuery에서 특정 실험 데이터를 가져오는 방법을 보여줍니다. 이 샘플 쿼리는 실험 이름, 대안 이름(기준 포함), 이벤트 이름, 이벤트 수를 반환합니다.

  SELECT
    'EXPERIMENT_NAME' AS experimentName,
    CASE userProperty.value.string_value
      WHEN '0' THEN 'Baseline'
      WHEN '1' THEN 'VARIANT_1_NAME'
      WHEN '2' THEN 'VARIANT_2_NAME'
      END AS experimentVariant,
    event_name AS eventName,
    COUNT(*) AS count
  FROM
    `analytics_ANALYTICS_PROPERTY.events_*`,
    UNNEST(user_properties) AS userProperty
  WHERE
    (_TABLE_SUFFIX BETWEEN 'YYYMMDD' AND 'YYYMMDD')
    AND userProperty.key = 'firebase_exp_EXPERIMENT_NUMBER'
  GROUP BY
    experimentVariant, eventName