Catch up on everthing we announced at this year's Firebase Summit. Learn more

A/B 테스팅으로 Firebase 원격 구성 실험 만들기

앱을 업데이트하고 Firebase 원격 구성을 사용하여 활성 사용자층이 있는 애플리케이션으로 푸시하는 경우 올바른 방법으로 진행해야 합니다. 특히 다음과 같은 점이 불확실할 수 있습니다.

  • 사용자 환경을 최적화하는 최선의 기능 구현 방법: 앱 개발자는 사용자가 새로운 기능이나 업데이트된 사용자 환경을 좋아하지 않는다는 것을 앱 스토어에서 앱 평점이 하락한 후에야 깨닫는 경우가 너무나 많습니다. A/B 테스팅을 통해 사용자가 변경된 새 기능을 좋아하는지 아니면 현재 상태 그대로의 앱을 선호하는지 측정할 수 있습니다. 또한 사용자 중 대다수를 통제 그룹에 두면 대부분의 사용자층은 실험이 끝날 때까지 앱의 동작이나 모양에 어떠한 변화도 없이 앱을 계속 그대로 사용할 수 있습니다.
  • 비즈니스 목표를 위한 최선의 사용자 환경 최적화 방법: 수익이나 유지와 같은 측정항목을 최대화하기 위해 제품 변경을 구현하는 경우가 종종 있습니다. A/B 테스팅을 통해 비즈니스 목표를 설정하면 Firebase에서 통계 분석을 수행하여 선택한 목표를 기준으로 통제 그룹보다 대안의 실적이 우수한지 확인합니다.

통제 그룹을 활용해 여러 기능에 대한 A/B 테스팅을 하는 방법은 다음과 같습니다.

  1. 실험을 만듭니다.
  2. 테스트 기기에서 실험의 유효성을 검증합니다.
  3. 실험을 관리합니다.

실험 만들기

원격 구성 실험을 통해 하나 이상의 원격 구성 매개변수에서 여러 대안을 평가할 수 있습니다.

  1. Firebase에 로그인하고 데이터 공유 설정을 업데이트한 다음 데이터 공유가 사용 설정되어 있는지 확인합니다. 데이터를 공유하지 않으면 실험에서 애널리틱스 데이터에 액세스할 수 없습니다.
  2. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B 테스팅을 클릭합니다.
  3. 실험 만들기를 클릭한 후 실험하려는 서비스를 지정하라는 메시지가 표시되면 원격 구성을 선택합니다.
  4. 실험의 이름설명(선택사항)을 입력하고 다음을 클릭합니다.
  5. 실험을 사용할 앱을 먼저 선택하고 타겟팅 입력란을 작성합니다. 다음을 포함하는 옵션을 선택하여 사용자의 일부만 실험에 참여하도록 타겟팅할 수도 있습니다.

    • 버전: 하나 이상의 앱 버전입니다.
    • 잠재 사용자: 실험에 포함될 수 있는 사용자를 타겟팅하는 데 사용되는 애널리틱스 잠재고객입니다.
    • 사용자 속성: 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 애널리틱스 사용자 속성입니다.
    • 예측: 머신러닝이 특정 동작에 참여할 것으로 예측한 사용자 그룹입니다.
    • 국가/지역: 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 국가 또는 지역입니다.
    • 기기 언어: 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 언어입니다.
  6. 대상 사용자 비율 설정: 대상 사용자에 설정한 기준과 일치하는 앱 사용자층 중에서 통제 그룹 및 하나 이상의 실험 대안 간에 균등하게 나눌 비율을 입력합니다. 0.01%~100% 사이의 백분율을 입력할 수 있습니다. 사용자는 중복 실험을 포함하여 실험마다 무작위로 할당됩니다.

  7. 필요한 경우 일부 애널리틱스 이벤트를 처음 트리거한 사용자만 실험에 집계되도록 활성화 이벤트를 설정합니다. 실험을 정상적으로 진행하려면 선택한 이벤트가 앱 활동에서 구성 값을 가져온 이후에 발생해야 합니다. first_open 또는 session_start와 같은 이벤트가 activateFetched() 이전에 발생하면 예기치 않은 결과가 발생할 수 있습니다.

  8. 실험의 목표에는 추적할 기본 측정항목을 선택하고 드롭다운 목록에서 원하는 추가 측정항목을 선택합니다. 여기에는 기본 목표(참여도, 구매, 수익, 유지 등), 애널리틱스 전환 이벤트 및 기타 애널리틱스 이벤트가 포함됩니다. 완료하였으면 다음을 클릭합니다.

  9. 대안 섹션에서 통제 그룹을 선택하고 실험에 사용할 하나 이상의 대안을 선택합니다. 선택 또는 새로 만들기 목록을 사용하여 실험할 매개변수를 하나 이상 추가합니다. Firebase Console에서 이전에 사용한 적이 없는 매개변수를 만들어도 되지만 앱에 해당 매개변수가 있어야 효과가 있습니다. 이 단계를 반복하여 여러 매개변수를 실험에 추가할 수 있습니다.

  10. (선택사항) 실험에 둘 이상의 대안을 추가하려면 다른 대안 추가를 클릭합니다.

  11. 대안에서 하나 이상의 매개변수를 변경합니다. 변경하지 않은 매개변수는 실험에 포함되지 않은 사용자의 매개변수와 동일합니다.

  12. 검토를 클릭하여 실험을 저장합니다.

프로젝트당 최대 300개의 실험이 허용되며 이 가운데 진행 중인 실험은 최대 24개, 나머지는 초안 또는 완료로 구성할 수 있습니다.

테스트 기기에서 실험 검증

Firebase를 설치할 때마다 설치와 연결된 설치 인증 토큰을 가져올 수 있습니다. 이 토큰을 사용하면 앱이 설치된 테스트 기기에서 특정 실험 대안을 테스트할 수 있습니다. 테스트 기기에서 실험의 유효성을 검증하는 방법은 다음과 같습니다.

  1. 다음과 같이 설치 인증 토큰을 가져옵니다.

    Swift

    Installations.installations().authTokenForcingRefresh(true, completion: { (result, error) in
      if let error = error {
        print("Error fetching token: \(error)")
        return
      }
      guard let result = result else { return }
      print("Installation auth token: \(result.authToken)")
    })
    

    Objective-C

    [[FIRInstallations installations] authTokenForcingRefresh:true
                                                   completion:^(FIRInstallationsAuthTokenResult *result, NSError *error) {
      if (error != nil) {
        NSLog(@"Error fetching Installation token %@", error);
        return;
      }
      NSLog(@"Installation auth token: %@", [result authToken]);
    }];
    

    자바

    FirebaseInstallations.getInstance().getToken(/* forceRefresh */true)
            .addOnCompleteListener(new OnCompleteListener<InstallationTokenResult>() {
        @Override
        public void onComplete(@NonNull Task<InstallationTokenResult> task) {
            if (task.isSuccessful() && task.getResult() != null) {
                Log.d("Installations", "Installation auth token: " + task.getResult().getToken());
            } else {
                Log.e("Installations", "Unable to get Installation auth token");
            }
        }
    });

    Kotlin+KTX

    FirebaseInstallations.getInstance().getToken(/* forceRefresh */ true)
        .addOnCompleteListener { task ->
            if (task.isSuccessful) {
                Log.d("Installations", "Installation auth token: " + task.result?.token)
            } else {
                Log.e("Installations", "Unable to get Installation auth token")
            }
        }

    C++

    firebase::InitResult init_result;
    auto* installations_object = firebase::installations::Installations::GetInstance(
        firebase::App::GetInstance(), &init_result);
    installations_object->GetToken().OnCompletion(
        [](const firebase::Future& future) {
          if (future.status() == kFutureStatusComplete &&
              future.error() == firebase::installations::kErrorNone) {
            printf("Installations Auth Token %s\n", future.result()->c_str());
          }
        });
    

    Unity

    Firebase.Installations.FirebaseInstallations.DefaultInstance.GetTokenAsync().ContinueWith(
      task => {
        if (!(task.IsCanceled || task.IsFaulted) && task.IsCompleted) {
          UnityEngine.Debug.Log(System.String.Format("Installations token {0}", task.Result));
        }
      });
    
  2. Firebase Console 탐색 메뉴에서 A/B 테스팅을 클릭합니다.
  3. 초안(또는 원격 구성 실험인 경우 실행 중)을 클릭하고 마우스를 실험 위에 가져간 다음 컨텍스트 메뉴()를 클릭하고 테스트 기기 관리를 클릭합니다.
  4. 테스트 기기의 설치 인증 토큰을 입력하고 테스트 기기로 전송할 실험 대안을 선택합니다.
  5. 앱을 실행하고 선택한 대안이 테스트 기기에 수신되는지 확인합니다.

Firebase 설치에 대한 자세한 내용은 Firebase 설치 관리를 참조하세요.

실험 관리

원격 구성, 알림 작성기 또는 Firebase 인앱 메시지 중 무엇으로 실험을 만드는지에 관계없이 실험을 검증 및 시작하고, 실험이 실행되는 동안 모니터링하고, 실행 중인 실험에 포함된 사용자 수를 늘릴 수 있습니다.

실험이 끝나면 우수한 대안에 사용된 설정을 기록해 두고 이후에 모든 사용자에게 이 설정을 적용하거나 다른 실험을 진행할 수 있습니다.

실험 시작

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B 테스팅을 클릭합니다.
  2. 초안을 클릭하고 실험 제목을 클릭합니다.
  3. 실험에 포함될 사용자가 앱에 있는지 검증하려면 초안 세부정보를 펼치고 타겟팅 및 분포에서 0%보다 큰 숫자가 있는지 확인합니다(예: 기준과 일치하는 사용자 1%).
  4. 실험을 변경하려면 수정을 클릭합니다.
  5. 실험을 시작하려면 실험 시작을 클릭합니다. 한 번에 프로젝트당 최대 24개의 실험을 실행할 수 있습니다.

실험 모니터링

실험이 일정 시간 진행되면 실험의 진행 상황을 확인하고 지금까지 실험에 참여한 사용자의 결과가 어떤지 살펴볼 수 있습니다.

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B 테스팅을 클릭합니다.
  2. 실행 중을 클릭하고 실험 제목을 클릭합니다. 이 페이지에서는 다음을 포함하여 진행 중인 실험에 대한 다양한 관찰 및 모델링된 통계를 확인할 수 있습니다.

    • 기준과의 차이(%): 기준 또는 통제 그룹과 비교하여 특정 대안의 측정항목 개선도를 측정한 값입니다. 대안의 값 범위를 기준의 값 범위와 비교하여 계산합니다.
    • 기준 초과 가능성: 특정 대안이 선택한 측정항목의 기준을 초과할 것으로 예측되는 확률입니다.
    • 사용자당 observed_metric: 실험 결과를 기준하여 시간 경과에 따라 측정항목 값이 예상되는 범위입니다.
    • 전체 observed_metric: 통제 그룹 또는 대안에서 관찰된 누적 값입니다. 이 값은 각 실험 대안의 효과를 측정하고 개선, 값 범위, 기준을 초과할 확률, 최적의 대안이 될 확률을 계산하는 데 사용됩니다. 대상 측정항목에 따라 이 열에 '사용자당 기간', '사용자당 수익', '유지율', '전환율' 등의 라벨을 지정할 수 있습니다.
  3. 일정 시간(FCM 및 인앱 메시지의 경우 최소 7일, 원격 구성의 경우 14일) 동안 실험이 진행된 후 이 페이지의 데이터에 '최우수 대안'이 있다면 어떤 대안인지 표시됩니다. 일부 측정항목은 데이터를 시각적으로 표현하는 막대 그래프가 함께 제공될 수 있습니다.

모든 사용자에게 실험 적용

목표 측정항목을 기준으로 가장 우수한 대안이 판명될 때까지 실험이 충분히 진행되었으면 이를 사용자 전체에 적용할 수 있습니다. 이렇게 하여 앞으로 모든 사용자에게 게시할 대안을 선택할 수 있습니다. 실험을 통해 우열이 명확히 가려지지 않은 경우에도 대안 중 하나를 모든 사용자에게 적용할 수 있습니다.

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B 테스팅을 클릭합니다.
  2. 완료됨 또는 실행 중을 클릭하고 모든 사용자에게 적용할 실험을 클릭한 다음 컨텍스트 메뉴()를 클릭하고 대안 적용을 클릭합니다.
  3. 다음 중 하나를 수행하여 실험을 모든 사용자에게 적용합니다.

    • 실험에서 알림 작성기를 사용하는 경우 메시지 전파 대화상자를 사용하여 이전에 실험에 참여하지 않았던 나머지 타겟팅 사용자에게 메시지를 보냅니다.
    • 원격 구성 실험의 경우 업데이트할 원격 구성 매개변수 값을 결정할 대안을 선택합니다. 실험을 만들 때 정의된 타겟팅 기준은 템플릿에 새 조건으로 추가되어 실험에서 타겟팅되는 사용자에게만 적용되도록 합니다. 원격 구성에서 검토를 클릭하여 변경사항을 검토한 후 변경사항 게시를 클릭하여 적용을 완료합니다.
    • 인앱 메시지 실험의 경우 대화상자를 사용하여 독립형 인앱 메시지 캠페인으로 적용해야 하는 대안을 결정합니다. 선택하면 FIAM 작성 화면으로 리디렉션되어 게시하기 전에 필요한 경우 변경할 수 있습니다.

실험 확장

A/B 테스팅에서 실험에 참여하는 사용자 수가 부족하여 우열을 가릴 수 없는 경우 실험의 분포를 늘려 앱 사용자층에서 실험에 참가하는 비율을 높일 수 있습니다.

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B 테스팅을 클릭합니다.
  2. 수정하려는 실행 중 실험을 선택합니다.
  3. 실험 개요에서 컨텍스트 메뉴()를 클릭한 후 실행 중인 실험 수정을 클릭합니다.
  4. 타겟팅 대화상자에는 현재 실행 중인 실험에 있는 사용자의 비율을 높일 수 있는 옵션이 표시됩니다. 현재 백분율보다 큰 숫자를 선택하고 게시를 클릭합니다. 그러면 지정한 비율의 사용자에게 실험이 적용됩니다.

실험 복제 또는 중지

  1. Firebase Console 탐색 메뉴의 참여 섹션에서 A/B 테스팅을 클릭합니다.
  2. 완료됨 또는 실행 중을 클릭하고, 실험 위에 마우스를 가져간 다음, 컨텍스트 메뉴()를 클릭하고, 실험 복제 또는 실험 중지를 클릭합니다.

사용자 타겟팅

다음과 같은 사용자 타겟팅 기준을 사용하여 실험에 포함할 사용자를 타겟팅할 수 있습니다.

타겟팅 기준 연산자    참고사항
버전 포함,
제외,
정확히 일치함,
정규식 포함
실험에 포함할 하나 이상의 앱 버전 값을 입력합니다.

포함, 제외 또는 정확히 일치함 연산자를 사용하는 경우 쉼표로 구분된 값 목록을 제공할 수 있습니다.

정규식 포함 연산자를 사용하면 RE2 형식의 정규 표현식을 만들 수 있습니다. 정규 표현식은 타겟 버전 문자열의 일부 또는 전부와 일치할 수 있습니다. ^$ 앵커를 사용하여 타겟 문자열의 시작, 끝 또는 전체와 일치시킬 수도 있습니다.

잠재 사용자 다음을 모두 포함,
다음 중 1개 이상 포함,
다음을 모두 포함하지 않음,
다음 중 최소 1개를 포함하지 않음
실험에 포함될 수 있는 사용자를 타겟팅하는 애널리틱스 잠재고객을 하나 이상 선택합니다.  
사용자 속성 텍스트:
포함,
제외,
정확히 일치함,
정규식 포함

숫자:
<, ≤, =, ≥, >
애널리틱스 사용자 속성은 실험에 포함될 수 있는 사용자를 선택하는 데 사용되고, 다양한 옵션으로 사용자 속성 값을 선택할 수 있습니다.

클라이언트에서는 사용자 속성에 문자열 값만 설정할 수 있습니다. 숫자 연산자를 사용하는 조건의 경우 원격 구성 서비스는 해당 사용자 속성의 값을 정수/부동 소수로 변환합니다.
정규식 포함 연산자를 사용하면 RE2 형식의 정규 표현식을 만들 수 있습니다. 정규 표현식은 타겟 버전 문자열의 일부 또는 전부와 일치할 수 있습니다. ^$ 앵커를 사용하여 타겟 문자열의 시작, 끝 또는 전체와 일치시킬 수도 있습니다.
예측 해당 없음 Firebase 예측에서 정의한 대상 사용자 그룹입니다. 예를 들어 앱 사용 중지가 예상되는 사용자 또는 인앱 구매를 할 가능성이 높은 사용자가 있습니다. Firebase 예측 도구에 정의된 값 중 하나를 선택합니다. 사용 가능한 옵션이 없으면 Firebase Console의 예측 섹션으로 이동하여 Firebase 예측을 사용하도록 선택해야 할 수 있습니다.  
기기 국가 해당 없음 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 국가 또는 지역입니다.  
기기 언어 해당 없음 실험에 포함될 수 있는 사용자를 선택하는 데 사용되는 하나 이상의 언어입니다. 이 타겟팅 기준은 원격 구성에서만 사용할 수 있습니다.
최초 실행 초과
미만
사이
사용자가 앱을 처음으로 실행한 날짜를 기준으로 사용자를 타겟팅하며 일 단위로 지정됩니다. 이 타겟팅 기준은 Firebase 인앱 메시지에서만 사용할 수 있습니다.
마지막 앱 참여 초과
미만
사이
사용자가 앱을 마지막으로 사용한 날짜를 기준으로 사용자를 타겟팅하며 일 단위로 지정됩니다. 이 타겟팅 기준은 Firebase 인앱 메시지에서만 사용할 수 있습니다.

A/B 테스팅 측정항목

실험을 만들 때는 실험 대안을 서로 비교하는 데 사용되는 측정항목을 선택하며, 이외에도 각 실험 대안을 보다 정확히 이해하고 앱 다운과 같은 중요한 부작용을 탐지하는 데 도움이 되는 기타 측정항목을 선택할 수 있습니다. 다음 표에서는 목표 측정항목과 기타 측정항목이 계산되는 방식을 상세히 확인할 수 있습니다.

목표 측정항목

측정항목 설명
유지(1일) 앱을 매일 다시 사용하는 사용자 수입니다.
유지(2~3일) 2~3일 이내에 앱을 다시 사용하는 사용자 수입니다.
유지(4~7일) 4~7일 이내에 앱을 다시 사용하는 사용자 수입니다.
유지(8~14일) 8~14일 이내에 앱을 다시 사용하는 사용자 수입니다.
유지(15일 이상) 앱을 마지막으로 사용하고 15일 이상 경과한 후에 앱을 다시 사용하는 사용자 수입니다.
알림 수신 확인 알림 작성기에서 보낸 알림을 사용자가 열었는지 여부를 추적합니다.
구매 수익 모든 ecommerce_purchasein_app_purchase 이벤트의 합산 값입니다.
AdMob 추정 수익 AdMob의 예상 수입입니다.
총 추정 수익 구매 및 AdMob 추정 수익의 합산 값입니다.
first_open 사용자가 앱을 설치 또는 재설치한 후 처음으로 실행할 때 트리거되는 애널리틱스 이벤트입니다. 전환 유입경로의 일부로 사용됩니다.
notification_open 알림 작성기에서 보낸 알림을 사용자가 열 때 트리거되는 애널리틱스 이벤트입니다. 전환 유입경로의 일부로 사용됩니다.

기타 측정항목

측정항목 설명
장애가 발생하지 않은 사용자 실험 중에 앱에서 Firebase Crashlytics SDK가 탐지한 오류를 경험하지 않은 사용자의 백분율입니다.
notification_dismiss 알림 작성기에서 보낸 알림을 닫을 때 트리거되는 애널리틱스 이벤트입니다(Android 전용).
notification_receive 알림 작성기에서 보낸 알림이 백그라운드 앱에 수신될 때 트리거되는 애널리틱스 이벤트입니다(Android 전용).
os_update 기기 운영체제가 새로운 버전으로 업데이트되는 시점을 추적하는 애널리틱스 이벤트입니다. 자세한 내용은 자동으로 수집되는 이벤트를 참조하세요.
screen_view 앱의 화면 조회를 추적하는 애널리틱스 이벤트입니다. 자세한 내용은 화면 조회수 추적을 참조하세요.
session_start 앱의 사용자 세션 수를 계산하는 애널리틱스 이벤트입니다. 자세한 내용은 자동으로 수집되는 이벤트를 참조하세요.
user_engagement 앱이 포그라운드 상태일 때 주기적으로 트리거되는 애널리틱스 이벤트입니다. 자세한 내용은 자동으로 수집되는 이벤트를 참조하세요.

BigQuery 데이터 내보내기

BigQuery에서 A/B 테스팅과 관련된 모든 애널리틱스 데이터에 액세스할 수 있습니다. BigQuery를 사용하면 BigQuery SQL로 데이터를 분석하여 다른 클라우드 제공업체로 내보내거나, 커스텀 ML 모델에 데이터를 사용할 수 있습니다. 자세한 내용은 Firebase에 BigQuery 연결을 참조하세요.

BigQuery 데이터 내보내기를 최대한 활용하려면 Firebase 프로젝트에서 'Blaze' 요금제(사용한 만큼만 지불)를 사용해야 합니다. BigQuery에서는 데이터 저장, 스트리밍 삽입, 데이터 쿼리에 대한 요금이 부과됩니다. 데이터 로드 및 내보내기는 무료입니다. 자세한 내용은 BigQuery 가격 책정 또는 BigQuery 샌드박스를 참조하세요.

시작하려면 Firebase 프로젝트가 BigQuery에 연결되어 있어야 합니다. 왼쪽 탐색 메뉴에서 설정 > 프로젝트 설정을 선택한 후 통합 > BigQuery > 연결을 선택합니다. 이 페이지에는 프로젝트에 포함된 모든 앱에 대해 BigQuery 애널리틱스 데이터 내보내기를 수행할 수 있는 옵션이 표시됩니다.

실험의 애널리틱스 데이터를 쿼리하려면 다음 단계를 따르세요.

  1. 활성 실험 목록에서 원하는 실험을 선택하여 실험 결과 페이지를 엽니다.
  2. 실험 개요 창의 컨텍스트 메뉴에서 실험 데이터 쿼리를 선택합니다(무료 등급의 프로젝트에서는 이 옵션을 사용할 수 없음).

    그러면 검토를 위해 실험 데이터의 자동 생성된 쿼리 예시가 미리 로드된 BigQuery 콘솔의 쿼리 작성기가 열립니다. 이 쿼리에서 키에는 실험 이름이, 값에는 실험 대안이 포함된 사용자 속성으로 인코딩됩니다.

  3. 쿼리 작성기에서 쿼리 실행을 선택합니다. 결과가 하단 창에 표시됩니다.

BigQuery의 Firebase 데이터는 매일 한 번만 업데이트되기 때문에 실험 페이지에 제공되는 데이터가 BigQuery 콘솔에 제공되는 데이터보다 최신일 수 있습니다.