1. บทนำ
บริบทบางอย่างก่อนที่เราจะเริ่มต้น
หากคุณเป็นนักพัฒนาแอป iOS คุณน่าจะเคยได้ยินเกี่ยวกับการอัปเดตความเป็นส่วนตัวสำหรับ iOS 14.5 ขึ้นไป Apple มี SKAd Network API เพื่อวัดการกระทําที่ถือเป็น Conversion ที่มีความหมายหลังจากติดตั้ง ซึ่งให้คุณวัดความสำเร็จของแคมเปญโฆษณาในขณะที่เคารพความเป็นส่วนตัวของผู้ใช้ได้ คุณสามารถค้นหาวิธีที่ดีที่สุดในการใช้ประโยชน์จากเครือข่าย SKAd เพื่อรับข้อมูลเชิงลึกที่มีความหมายเกี่ยวกับแคมเปญโดยพิจารณาจากความต้องการทางธุรกิจของคุณ ใน Codelab นี้ เราจะแสดงตัวอย่างวิธีการในการใช้ประโยชน์จากข้อมูล GA4F ใน BigQuery เพื่อจัดกลุ่มรายได้หลังการติดตั้งแอปลงในที่เก็บข้อมูล ซึ่งคุณนำไปใช้ตั้งค่าร่วมกับพาร์ทเนอร์ระบุแหล่งที่มาสำหรับแอปได้ แม้ว่า Codelab นี้จะใช้แนวทางที่อิงตามรายได้ แต่คุณก็ใช้เหตุการณ์หรือวิธีการตาม Funnel สำหรับการวัด SKAN ได้เช่นกัน โปรดดูคำแนะนำโดยละเอียดเพิ่มเติมในศูนย์ช่วยเหลือนี้ นี่เป็นเพียงตัวอย่างไม่ใช่คำแนะนำอย่างเป็นทางการของ Google คุณออกแบบสคีมาของตนเองตามความต้องการทางธุรกิจที่เฉพาะเจาะจงได้
หัวข้อที่เราตั้งใจจะพูดถึง
- สำรวจข้อมูล GA4F ใน BigQuery
- ค้นหาข้อมูลรายได้สำหรับผู้ใช้ที่ทำ Conversion ภายใน 0-2 วัน
- จัดกลุ่มข้อมูลรายได้ลงในที่เก็บข้อมูล
- ทําความเข้าใจการกระจายตัวของผู้ใช้ในที่เก็บข้อมูลแต่ละชุด
- ใช้ที่เก็บข้อมูลใน Appsflyer SKAN Conversion Studio
สิ่งที่ต้องมีก่อน
- SDK ของ GA4F ในแอป iOS และเหตุการณ์รายได้ทั้งหมดที่ผสานรวม (in_app_purchase หรือรายได้จากโฆษณาจากสปอนเซอร์)
- เปิดใช้การส่งออกจาก Firebase ไปยัง BigQuery
- App Attribution Partner ซึ่งกำลังบันทึกเหตุการณ์รายได้ทั้งหมดด้วย
2. การเข้าถึง BigQuery Export
ไปที่ชุดข้อมูล Google Cloud
ไปที่ชุดข้อมูลใน GA4F โดยไปที่การตั้งค่าโปรเจ็กต์ > การผสานรวม > BigQuery คุณต้องเปิดใช้ปุ่มสลับก่อน และเปิดใช้แล้ว ชุดข้อมูลจะใช้เวลาประมาณ 48 ชั่วโมงจึงจะพร้อมใช้งาน คุณสามารถคลิกลิงก์ที่แสดงด้านล่าง แล้วระบบจะนำคุณไปยัง BigQuery
เรียกใช้การค้นหาบางรายการ
เมื่ออยู่ใน BigQuery แล้ว คุณควรจะเห็นตารางรายวันที่สร้างขึ้น ในภาพหน้าจอตัวอย่างด้านล่าง เราได้เห็นตารางรายวัน 64 ตาราง ดังนั้นการส่งออกจึงดำเนินการมาเป็นเวลา 64 วัน หากเข้าถึงเป็นครั้งแรก คุณอาจเห็นตารางรายวัน 1 ตารางสำหรับข้อมูลวันก่อนหน้า คุณจะเห็นสคีมาของตารางทางด้านขวา ดูรายละเอียดเพิ่มเติมเกี่ยวกับช่องดังกล่าวได้ที่นี่
เพื่อเริ่มเขียนคำค้นหา คุณสามารถคลิกที่ คำค้นหา > ในแท็บใหม่
จากนั้นให้ลองเรียกใช้การค้นหาตัวอย่างในแท็บใหม่
3. วิเคราะห์ข้อมูลรายได้
กำลังดึงข้อมูลการติดตั้ง
เราต้องดูข้อมูลของผู้ใช้ที่ติดตั้งแอปภายใน 24-72 ชั่วโมงที่ผ่านมาก่อน เพื่อเริ่มสร้างขอบเขตรายได้ SKAd Network 4.0 ช่วยให้คุณดูข้อมูลใน 0-2 วันได้ ขณะที่เครือข่าย SKAd 3.5 อนุญาต 24 ชั่วโมงโดยค่าเริ่มต้น (คุณอาจแก้ไขกรอบเวลากิจกรรมนี้ได้โดยไม่เกิน 72 ชั่วโมง ทั้งนี้ขึ้นอยู่กับความสามารถของ App Attribution Partner ของคุณ) เมื่อผู้ใช้ติดตั้งแอปและเปิดแอปเป็นครั้งแรก SDK จะเริ่มเหตุการณ์ first_open และบันทึกใน BigQuery
ตัวระบุที่คุณใช้สำหรับ BigQuery ได้คือ user_pseudo_id (เรียกอีกอย่างว่ารหัสอินสแตนซ์ของแอป) คุณจึงใช้การค้นหาด้านล่างเพื่อค้นหาผู้ใช้เหล่านี้ได้
SELECT
user_pseudo_id,
event_name,
event_date,
event_timestamp
FROM `project_name.dataset_name.events_2023*`
WHERE
event_name = 'first_open'
AND platform = 'IOS'
สิ่งที่ควรทราบเกี่ยวกับคำค้นหานี้
- โปรดเปลี่ยนชื่อตารางด้วยตารางที่ส่งออกของ Analytics คุณใช้ไวลด์การ์ด เพื่อค้นหาตารางรายวันหลายตารางได้ ตัวอย่างเช่น ปี 2023* จะค้นหาข้อมูลทั้งหมดในปี 2023
- หากคุณมีผู้ใช้จำนวนมาก คุณยังค้นหาเฉพาะ 30 วันล่าสุดได้ด้วยเพื่อให้ประมวลผลได้เร็วขึ้น
- เรากรองแพลตฟอร์ม = "IOS" ในกรณีที่มีแอป iOS หลายแอปในโปรเจ็กต์ Firebase คุณสามารถเพิ่มตัวกรองสำหรับ app_info.firebase_app_id เพื่อรับข้อมูลสำหรับแอปที่ต้องการได้ด้วย
กำลังดึงข้อมูลรายได้
ตอนนี้เรามาดูคำค้นหาเพื่อค้นหารายได้สำหรับผู้ใช้ของคุณกัน ในกรณีนี้ เราจะถือว่าเหตุการณ์รายได้ของคุณคือ in_app_purchase และ ad_impression รายได้จาก in_app_purchase อยู่ใน event_value_usd ส่วนสําหรับ ad_impression รายได้จะอยู่ในพารามิเตอร์ value ภายในพารามิเตอร์เหตุการณ์ หากคุณไม่คุ้นเคยกับพารามิเตอร์เหตุการณ์ใน BigQuery เราขอแนะนําให้ดูคําจํากัดความที่นี่ รวมถึงลองใช้คําค้นหาตัวอย่างนี้ในข้อมูลอ้างอิงอย่างเป็นทางการของเรา ซึ่งจะครอบคลุมการดึงค่าจาก event_params ด้วย
SELECT
user_pseudo_id,
event_name,
EXTRACT(date FROM Parse_datetime('%Y%m%d', event_date)) AS event_date,
(
SELECT COALESCE(value.int_value, value.float_value, value.double_value, NULL)
FROM UNNEST(event_params)
WHERE
KEY = 'value'
AND event_name = 'ad_impression'
) AS ad_funded_revenue,
(
SELECT value.string_value
FROM UNNEST(event_params)
WHERE
KEY = 'currency'
AND event_name = 'ad_impression'
) AS ad_revenue_currency,
(
CASE
WHEN event_name = 'in_app_purchase' THEN event_value_in_usd
ELSE 0
END) AS iap_revenue_usd,
FROM `project_name.dataset_name.events_2023*`
WHERE
platform = 'IOS'
AND event_name IN (
'in_app_purchase',
'ad_impression')
มาดูการทำงานของการค้นหาที่นี่กัน คุณจะสังเกตเห็นสิ่งต่อไปนี้
- ในวรรค "WHERE" เราจะกรองหาเหตุการณ์เกี่ยวกับรายได้ เนื่องจากเราสนใจเฉพาะเหตุการณ์เหล่านั้นเท่านั้น และเช่นเดียวกับครั้งที่แล้ว เราต้องการข้อมูล iOS
- ส่วนในวรรค SELECT เราจะนํามูลค่าและสกุลเงินสําหรับเหตุการณ์รายได้จากโฆษณา (ad_impression) และจะนํา event_value_in_usd เมื่อเหตุการณ์เป็น in_app_purchase
- ในกรณีที่คุณส่งหลายสกุลเงิน คุณต้องให้สอดคล้องกับสกุลเงินเดียวสำหรับการวิเคราะห์นี้ก่อน สำหรับในตัวอย่างนี้ เราจะถือว่าสกุลเงินของรายได้จากการโฆษณาเป็นสกุลเงิน USD ด้วย
เอาต์พุตจะมีลักษณะดังนี้ (คอลัมน์ user_pseudo_id มีการปกปิดที่นี่)
การรวมข้อมูลนี้
จนถึงทุกวันนี้เราใช้ข้อความค้นหา 2 ข้อความ รายการหนึ่งใช้เพื่อหาข้อมูลสำหรับผู้ใช้ที่ติดตั้งและเปิดแอป และอีกรายการหนึ่งเป็นเพื่อหารายได้สำหรับผู้ใช้เหล่านั้น ต่อไปมาอย่าลืมสิ่งที่เราพูดถึงเกี่ยวกับข้อจำกัดของเครือข่าย SKAd กัน กรอบเวลาการระบุแหล่งที่มาจะใช้ได้ภายใน 0-2 วันหลังจากการติดตั้งเท่านั้น เราจึงต้องตรวจสอบการประทับเวลาเหตุการณ์สำหรับการติดตั้งและรายได้ และนำข้อมูลมาใช้เฉพาะในกรณีที่เกิดขึ้นภายในกรอบเวลาดังกล่าวเท่านั้น ตอนนี้เรามาลองสรุปรวมเป็นคำค้นหาที่แสดงรายได้รวมสำหรับการโพสต์แต่ละครั้งหลังจากการติดตั้งแอป 2 วัน
#creating the install table
WITH
install_table AS (
SELECT
user_pseudo_id,
event_name,
event_date,
event_timestamp
FROM `project_name.dataset_name.events_2023*`
WHERE
event_name = 'first_open'
AND platform = 'IOS'
),
#creating the revenue table
revenue_table AS (
SELECT
user_pseudo_id,
event_name,
event_timestamp,
EXTRACT(date FROM Parse_datetime('%Y%m%d', event_date)) AS event_date,
(
SELECT COALESCE(value.int_value, value.float_value, value.double_value, NULL)
FROM UNNEST(event_params)
WHERE
KEY = 'value'
AND event_name = 'ad_impression'
) AS ad_funded_revenue,
(
SELECT value.string_value
FROM UNNEST(event_params)
WHERE
KEY = 'currency'
AND event_name = 'ad_impression'
) AS ad_revenue_currency,
(
CASE
WHEN event_name = 'in_app_purchase' THEN event_value_in_usd
ELSE 0
END) AS iap_revenue_usd,
FROM `project_name.dataset_name.events_2023*`
WHERE
platform = 'IOS'
AND event_name IN (
'in_app_purchase',
'ad_impression')
)
SELECT
it.user_pseudo_id AS user_pseudo_id,
#combine ad revenue and IAP revenue, assuming both are in same currency
sum(ifnull(rt.iap_revenue_usd,0) + ifnull(rt.ad_funded_revenue,0)) AS total_revenue,
FROM install_table it
INNER JOIN revenue_table rt
ON it.user_pseudo_id = rt.user_pseudo_id
WHERE
rt.event_timestamp >= it.event_timestamp
AND rt.event_timestamp
<= it.event_timestamp + 86400000000 * 2 #added 86400 000 millisecond as 24 hours, taking for 2 days later
GROUP BY 1
คำค้นหาเพียงพยายามรวมข้อมูลการติดตั้งและข้อมูลรายได้ในช่อง user_pseudo_id จากนั้นเราจะต้องตรวจสอบว่าการประทับเวลาอยู่ภายใน 2 วัน หากใช้ SKAd Network 3.5 ค่าเริ่มต้นจะเป็น 24 ชั่วโมง คุณจึงเปลี่ยนเงื่อนไขให้รวมข้อมูลของ 1 วันเท่านั้นได้ด้วย
จัดกลุ่มรายได้
หลังจากการค้นหาก่อนหน้า คุณจะต้องมี user_pseudo_id และรายได้ทั้งหมด
ตอนนี้เราจะต้องรวมสิ่งนี้ลงในที่เก็บข้อมูล ซึ่งสามารถใช้สำหรับช่วงมูลค่า Conversion ของเราได้ สำหรับวัตถุประสงค์นี้ เราจะใช้ฟังก์ชัน approx_quariles ใน BigQuery ซึ่งจะสร้างช่วงเหล่านี้ให้คุณโดยอัตโนมัติ สมมติว่าในตัวอย่างนี้เราต้องการสร้าง 5 ช่วง เราจึงสามารถใช้ที่เก็บข้อมูล approx_quariles(total_revenue, 5) AS
ดังนั้น เราจะได้ผสานรวมข้อมูลนี้กับคำค้นหาโดยรวมของเรา
#creating the install table
WITH
install_table AS (
SELECT
user_pseudo_id,
event_name,
event_date,
event_timestamp
FROM `project_name.dataset_name.events_2023*`
WHERE
event_name = 'first_open'
AND platform = 'IOS'
),
#creating the revenue table
revenue_table AS (
SELECT
user_pseudo_id,
event_name,
event_timestamp,
EXTRACT(date FROM Parse_datetime('%Y%m%d', event_date)) AS event_date,
(
SELECT COALESCE(value.int_value, value.float_value, value.double_value, NULL)
FROM UNNEST(event_params)
WHERE
KEY = 'value'
AND event_name = 'ad_impression'
) AS ad_funded_revenue,
(
SELECT value.string_value
FROM UNNEST(event_params)
WHERE
KEY = 'currency'
AND event_name = 'ad_impression'
) AS ad_revenue_currency,
(
CASE
WHEN event_name = 'in_app_purchase' THEN event_value_in_usd
ELSE 0
END) AS iap_revenue_usd,
FROM `project_name.dataset_name.events_2023*`
WHERE
platform = 'IOS'
AND event_name IN (
'in_app_purchase',
'ad_impression')
),
total_revenue_table AS (
SELECT
it.user_pseudo_id AS user_pseudo_id,
#combine ad revenue and IAP revenue, assuming both are in same currency
sum(ifnull(rt.iap_revenue_usd,0) + ifnull(rt.ad_funded_revenue,0)) AS total_revenue,
FROM install_table it
INNER JOIN revenue_table rt
ON it.user_pseudo_id = rt.user_pseudo_id
WHERE
rt.event_timestamp >= it.event_timestamp
AND rt.event_timestamp
<= it.event_timestamp + 86400000000 * 2 #added 86400 000 millisecond as 24 hours
GROUP BY 1
)
SELECT approx_quantiles(total_revenue, 5) AS buckets FROM total_revenue_table
การค้นหานี้จะแบ่งรายได้ออกเป็น 5 ช่วง และ BigQuery จะพยายามรักษาการกระจายเปอร์เซ็นไทล์ให้สอดคล้องกัน
วิเคราะห์การกระจายตัวของผู้ใช้ด้วยที่เก็บข้อมูลเหล่านี้
ขั้นตอนนี้เป็นขั้นตอนที่ไม่บังคับ หากต้องการทำความเข้าใจเกี่ยวกับการกระจายผู้ใช้ในที่เก็บข้อมูลแต่ละชุด สำหรับตัวอย่างของเรา ช่วงที่เก็บข้อมูลที่แสดงผลในการค้นหาก่อนหน้าคือ
- 0.1
- 0.5
- 2
- 2.5
- 5 [จะต้องไม่ใช้ค่าสุดท้ายในการกำหนดค่าช่วง]
สำหรับช่วงสุดท้าย เราจะไม่สนใจที่เก็บข้อมูล 5 สุดท้าย เนื่องจากโดยทั่วไปจะเป็นค่าสูงสุด และเราจะพิจารณาได้ว่า 2.5 เป็นช่วงสุดท้าย ทั้งนี้เนื่องจากผู้ให้บริการระบุแหล่งที่มาของแอปมักจะคำนวณ ROAS โดยใช้ค่าเฉลี่ยของช่วง จึงต้องยกเว้นค่าผิดปกติเพื่อให้คำนวณในแบบเดียวกันมากขึ้น
ตอนนี้เราจะพยายามดูจำนวนผู้ใช้สำหรับแต่ละวันในทุกช่วง เพื่อให้เราเข้าใจปริมาณผู้ใช้รายวันในที่เก็บข้อมูลแต่ละชุด ซึ่งเราสามารถทำได้โดยใช้การค้นหาตัวอย่างนี้ ซึ่งคุณสามารถแทนที่ค่าที่เก็บข้อมูลด้วยข้อมูลจริงของคุณ และข้อความค้นหาจะมีลักษณะดังนี้
#creating the install table
WITH
install_table AS (
SELECT
user_pseudo_id,
event_name,
event_date,
event_timestamp
FROM `project_name.dataset_name.events_2023*`
WHERE
event_name = 'first_open'
AND platform = 'IOS'
),
#creating the revenue table
revenue_table AS (
SELECT
user_pseudo_id,
event_name,
event_timestamp,
EXTRACT(date FROM Parse_datetime('%Y%m%d', event_date)) AS event_date,
(
SELECT COALESCE(value.int_value, value.float_value, value.double_value, NULL)
FROM UNNEST(event_params)
WHERE
KEY = 'value'
AND event_name = 'ad_impression'
) AS ad_funded_revenue,
(
SELECT value.string_value
FROM UNNEST(event_params)
WHERE
KEY = 'currency'
AND event_name = 'ad_impression'
) AS ad_revenue_currency,
(
CASE
WHEN event_name = 'in_app_purchase' THEN event_value_in_usd
ELSE 0
END) AS iap_revenue_usd,
FROM `project_name.dataset_name.events_2023*`
WHERE
platform = 'IOS'
AND event_name IN (
'in_app_purchase',
'ad_impression')
),
total_revenue_table AS (
SELECT
it.user_pseudo_id AS user_pseudo_id,
rt.event_date,
#combine ad revenue and IAP revenue, assuming both are in same currency
sum(ifnull(rt.iap_revenue_usd,0) + ifnull(rt.ad_funded_revenue,0)) AS total_revenue,
FROM install_table it
INNER JOIN revenue_table rt
ON it.user_pseudo_id = rt.user_pseudo_id
WHERE
rt.event_timestamp >= it.event_timestamp
AND rt.event_timestamp
<= it.event_timestamp + 86400000000 * 2 #added 86400 000 millisecond as 24 hours
GROUP BY 1, 2
)
SELECT
event_date,
sum(CASE WHEN total_revenue BETWEEN 0 AND 0.1 THEN 1 ELSE 0 END) AS Bucket1,
sum(CASE WHEN total_revenue BETWEEN 0.1 AND 0.5 THEN 1 ELSE 0 END) AS Bucket2,
sum(CASE WHEN total_revenue BETWEEN 0.5 AND 2 THEN 1 ELSE 0 END) AS Bucket3,
sum(CASE WHEN total_revenue BETWEEN 2 AND 2.5 THEN 1 ELSE 0 END) AS Bucket4,
sum(CASE WHEN total_revenue > 2.5 THEN 1 ELSE 0 END) AS Bucket5
FROM total_revenue_table
GROUP BY 1 ORDER BY 1 DESC
ระบบจะแสดงผู้ใช้ในช่วงรายได้แต่ละช่วงของแต่ละวัน ดังตัวอย่างด้านล่าง หากเห็นตัวเลขที่ต่ำมากในที่เก็บข้อมูลหรือการกระจายโดยทั่วไปที่ไม่เท่ากัน คุณอาจต้องปรับจำนวนที่เก็บข้อมูลและเรียกใช้การค้นหาอีกครั้ง
ข้อมูลเบื้องต้นเกี่ยวกับ SKAd Network 4.0
SKAd Network 4.0 มีกรอบเวลา Conversion หลายกรอบเวลาสูงสุด 2 วัน, 3-7 วัน และ 8-35 วัน จากแนวทางข้างต้น คุณสามารถเปลี่ยนกรอบเวลาเพื่อวิเคราะห์ข้อมูลสำหรับสถานการณ์เพิ่มเติมเหล่านี้ได้อย่างง่ายดาย นอกจากนี้ยังมีค่าแบบละเอียด LOW, MEDIUM และ HIGH ที่ใช้ได้ด้วย ขอย้ำอีกครั้งว่าหากคุณต้องการใช้วิธีการนี้ ให้มองว่านี่เป็นที่เก็บข้อมูล 3 รายการ ดังนั้นหากเปลี่ยนจำนวนที่เก็บข้อมูลเป็น 3 คุณจะได้เกณฑ์สำหรับ "ต่ำ" "ปานกลาง" และ "สูง"
4. การติดตั้งใช้งานกับผู้ให้บริการระบุแหล่งที่มา
คำแนะนำนี้อาจมีการเปลี่ยนแปลง โดยขึ้นอยู่กับแพลตฟอร์มแต่ละแห่ง โปรดปรึกษาตัวแทนแพลตฟอร์มเพื่อดูข้อมูลที่อัปเดตล่าสุดเกี่ยวกับเรื่องนี้ สำหรับวัตถุประสงค์ของตัวอย่างนี้ เราจะดูว่าปัจจุบันเราทำให้การดำเนินการนี้ใช้งานได้กับ AppsFlyer อย่างไร
ในการค้นหาที่เราเรียกใช้ก่อนหน้านี้ ช่วงสุดท้ายที่เราได้รับเป็นเอาต์พุตจะเป็นดังนี้
- ช่วง 1 : 0 ถึง 0.1
- ช่วง 2 : 0.1 ถึง 0.5
- ช่วง 3 : 0.5 ถึง 2
- ช่วง 4 : 2 ถึง 2.5
โปรดทราบว่าเราตัดสินใจที่จะไม่สนใจช่วงรายได้ล่าสุด เนื่องจากจะเป็นค่าผิดปกติ และบิดเบือนการคำนวณโดยเฉลี่ยสำหรับผู้ให้บริการระบุแหล่งที่มาของแอป
AppsFlyer มี SKAN Conversion Studio ซึ่งป้อนข้อมูลนี้ลงใน UI โดยตรงได้อย่างง่ายดาย คุณจะใช้ 4.0 โดยตรงหรือใช้ "กำหนดเอง" ก็ได้ หากคุณใช้ 3.5 และเพิ่ม "รายได้" การวัดผล จากนั้นให้เพิ่มช่วงรายได้ที่คำนวณไว้จากการวิเคราะห์ก่อนหน้า
แนวทางปฏิบัติแนะนำและการเรียนรู้เกี่ยวกับ Google Ads
เราขอมอบคำแนะนำในกรณีที่คุณใช้งานแคมเปญใน Google Ads และวัดผลผ่านสคีมามูลค่า Conversion ของเครือข่าย SKAd
- ตรวจสอบว่ากรอบเวลา Conversion ที่ใช้ใน Google Ads ตรงกับกรอบเวลากิจกรรมที่คุณระบุไว้ในแพลตฟอร์มการระบุแหล่งที่มาของแอป สำหรับเครือข่าย SKAd 3.5 ขั้นตอนนี้อาจใช้เวลาภายใน 1-3 วัน คุณจึงปรับเปลี่ยนให้สอดคล้องกันใน Google Ads ได้โดยทำตามขั้นตอนที่ระบุไว้ที่นี่
- ถ้าคุณใช้ Appsflyer ปัจจุบันตัวนับเหตุการณ์เริ่มต้นคือ 1 ซึ่งหมายความว่าตัวนับเหตุการณ์จะไม่นับรวมหลายกิจกรรมต่อผู้ใช้ หากใช้โมเดลตามเหตุการณ์สำหรับการวัด SKAN และเปรียบเทียบกับแคมเปญ tCPA ใน Google Ads อยู่ คุณเลือกที่จะปรับแต่งได้โดยทำตามคําแนะนํานี้จาก Appsflyer
5. ขอแสดงความยินดี
ยินดีด้วย คุณตั้งค่าสคีมามูลค่า Conversion ของเครือข่าย SKAd เรียบร้อยแล้ว ตอนนี้คุณสามารถตรวจสอบข้อมูลในรายงานเครือข่าย SKAd ของ Google Ads เพื่อตรวจสอบมูลค่า Conversion สําหรับแคมเปญ Google Ads เมื่อเผยแพร่แล้ว
คุณได้เรียนรู้
- วิธีสำรวจข้อมูลดิบที่สมบูรณ์จาก GA4F ใน BigQuery
- แนวทางการวิเคราะห์เพื่อคำนวณที่เก็บข้อมูลรายได้สำหรับธุรกิจ
- ทำให้สคีมาใช้งานได้ด้วย AppsFlyer