ตรวจสอบต้นทุน การใช้งาน และเมตริกอื่นๆ

การตรวจสอบค่าใช้จ่าย การใช้งาน และเมตริกอื่นๆ ของฟีเจอร์ AI เป็นส่วนสำคัญของการเรียกใช้แอปที่ใช้งานจริง คุณจำเป็นต้องทราบว่ารูปแบบการใช้งานปกติของแอปเป็นอย่างไร และตรวจสอบว่าคุณยังคงอยู่ในเกณฑ์ที่สำคัญสำหรับคุณ

หน้านี้อธิบายตัวเลือกที่แนะนำบางอย่างสำหรับการตรวจสอบค่าใช้จ่าย การใช้งาน และเมตริกอื่นๆ ทั้งในคอนโซล Firebase และคอนโซล Google Cloud

ตรวจสอบค่าใช้จ่าย

ในแดชบอร์ด การใช้งานและการเรียกเก็บเงิน ของคอนโซลFirebase คุณสามารถดูค่าใช้จ่ายของโปรเจ็กต์สำหรับการเรียก Vertex AI Gemini API และGemini Developer API (เมื่อใช้ แพ็กเกจราคา Blaze)

ค่าใช้จ่ายที่แสดงในแดชบอร์ด ไม่จำเป็น ต้องเฉพาะเจาะจงกับการเรียกใช้ โดยใช้ Firebase AI Logic ไคลเอ็นต์ SDK ค่าใช้จ่ายที่แสดง จะเชื่อมโยงกับการเรียก "Gemini API" ใดก็ตาม ไม่ว่าจะใช้ ไคลเอ็นต์ SDK Firebase AI Logic, Google GenAI Server SDK , Genkit, Firebase Extensions สำหรับ Gemini API, การเรียก REST, AI Studio รายการใดรายการหนึ่ง หรือไคลเอ็นต์ API อื่นๆ

ดูข้อมูลเพิ่มเติมเกี่ยวกับการกำหนดราคาผลิตภัณฑ์ที่เชื่อมโยง กับการใช้Firebase AI Logic

ตั้งค่าการแจ้งเตือน

หากต้องการหลีกเลี่ยงใบเรียกเก็บเงินที่ไม่คาดคิด โปรด ตั้งค่าการแจ้งเตือนงบประมาณ เมื่อใช้แพ็กเกจราคา Blaze

โปรดทราบว่าการแจ้งเตือนงบประมาณ ไม่ใช่ ขีดจำกัดงบประมาณ ระบบจะส่งการแจ้งเตือนถึงคุณเมื่อคุณใกล้ถึงหรือเกินเกณฑ์ที่กำหนดไว้ เพื่อให้คุณดำเนินการในแอปหรือโปรเจ็กต์ได้

ดูการใช้งานฟีเจอร์ AI ในคอนโซล Firebase

คุณสามารถเปิดใช้การตรวจสอบ AI ในหน้า Firebase AI Logic ของ Firebase คอนโซล เพื่อดูเมตริกและการใช้งานระดับแอปต่างๆ เพื่อให้เห็นภาพรวมที่ครอบคลุมเกี่ยวกับคำขอจาก Firebase AI Logic ไคลเอ็นต์ SDK แดชบอร์ดเหล่านี้ให้ข้อมูลเชิงลึกมากกว่าจำนวนโทเค็นพื้นฐานที่คุณได้รับจากการเรียก Count Tokens API

ความสามารถหลักของการตรวจสอบ AI ในคอนโซล Firebase ได้แก่

  • การดูเมตริกเชิงปริมาณ เช่น ปริมาณคำขอ เวลาในการตอบสนอง ข้อผิดพลาด และการใช้โทเค็นต่อโมดาลิตี้สำหรับแต่ละแอป

  • การตรวจสอบการติดตามเพื่อดูแอตทริบิวต์ อินพุต และเอาต์พุตของคำขอ ซึ่งจะช่วยในการแก้ไขข้อบกพร่องและการปรับปรุงคุณภาพ

  • การแบ่งข้อมูลตามมิติข้อมูล เช่น สถานะคำขอ เวลาในการตอบสนองขั้นต่ำ ชื่อโมเดล และอื่นๆ

ฟีเจอร์ทั้งหมดนี้สร้างขึ้นโดยใช้ Google Cloud Observability Suite (ดู ข้อมูลสินค้าโดยละเอียดด้านล่าง)

เปิดใช้การตรวจสอบ AI

วิธีเปิดใช้การตรวจสอบ AI ในคอนโซล Firebase มีดังนี้

  • เมื่อทำตามเวิร์กโฟลว์การตั้งค่าเริ่มต้นแบบแนะนำจากหน้า AI Services > Firebase AI Logic

  • ทุกเมื่อในแท็บ AI Services > AI Logic > Settings

ข้อกำหนดในการเปิดใช้และใช้การตรวจสอบ AI มีดังนี้

  • คุณต้องเป็นเจ้าของโปรเจ็กต์ ผู้แก้ไข หรือผู้ดูแลระบบ Firebase Vertex AI

  • แอปของคุณต้องใช้ไลบรารี Firebase เวอร์ชันต่อไปนี้ อย่างน้อย:
    iOS+: v11.13.0+ | Android: v16.0.0+ (BoM: v33.14.0+) | เว็บ: v11.8.0+ | Flutter: v2.0.0+ (BoM: v3.11.0+) | Unity: v12.9.0+

  • แอปของคุณต้อง เปิดใช้ การเก็บรวบรวมข้อมูลแบบเลือกใช้ (ระบบจะเปิดใช้ตัวเลือกนี้โดยค่าเริ่มต้น)

หลังจากที่แอปเป็นไปตามข้อกำหนดเหล่านี้และคุณเปิดใช้การตรวจสอบ AI ใน คอนโซลแล้ว คุณไม่จำเป็นต้องทำอย่างอื่นในแอปหรือคอนโซลเพื่อเริ่ม ดูข้อมูลที่แสดงในแดชบอร์ดใน AI Services > AI Logic > AI monitoring แท็บ อาจมีความล่าช้าเล็กน้อย (บางครั้งนานถึง 5 นาที) ก่อนที่ข้อมูลการวัดและส่งข้อมูลจาก คำขอจะพร้อมใช้งานใน Firebase คอนโซล

การใช้งานขั้นสูง

ส่วนนี้อธิบายการกำหนดค่าอัตราการสุ่มตัวอย่าง รวมถึงตัวเลือกต่างๆ สำหรับการดูและการใช้ข้อมูล

อัตราการสุ่มตัวอย่าง

หากคุณส่งคำขอจำนวนมาก เราขอแนะนำให้ใช้ประโยชน์จากการกำหนดค่าอัตราการสุ่มตัวอย่าง อัตราการสุ่มตัวอย่างจะระบุสัดส่วนของคำขอที่ระบบจะเก็บรวบรวม รายละเอียดการติดตาม จริง

ในแท็บ AI Services > AI Logic > Settings ของคอนโซล Firebase คุณสามารถกำหนดค่าอัตราการสุ่มตัวอย่างสำหรับโปรเจ็กต์เป็น ค่าตั้งแต่ 1 ถึง 100% โดย 100% หมายความว่าการตรวจสอบ AI จะเก็บรวบรวมการติดตามจาก การเข้าชมทั้งหมด ค่าเริ่มต้นคือ 100% การเก็บรวบรวมการติดตามน้อยลงจะช่วยลดค่าใช้จ่าย แต่ก็จะลดจำนวนการติดตามที่คุณตรวจสอบได้ด้วย โปรดทราบว่ากราฟที่แสดงในแดชบอร์ดการตรวจสอบจะแสดงปริมาณการเข้าชมที่แท้จริงเสมอ ไม่ว่าอัตราการสุ่มตัวอย่างจะเป็นเท่าใดก็ตาม

ตัวเลือกเพิ่มเติมนอกคอนโซล Firebase

นอกจากการตรวจสอบ AI ที่มีให้บริการในคอนโซล Firebase แล้ว โปรดพิจารณาตัวเลือก ต่อไปนี้

  • สำรวจ Vertex AI Model Garden
    แดชบอร์ดเหล่านี้ให้ข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับแนวโน้มของเวลาในการตอบสนองและปริมาณงาน สำหรับโมเดลที่มีการจัดการ ซึ่งจะช่วยเสริมข้อมูลเชิงลึกจากการตรวจสอบ AI ใน คอนโซล Firebase

  • สำรวจและใช้ข้อมูลของคุณด้วย Google Cloud Observability Suite
    เนื่องจากระบบจะจัดเก็บข้อมูลการวัดและส่งข้อมูลสำหรับการตรวจสอบ AI ไว้ใน Google Cloud Observability Suite ที่เชื่อมโยงกับโปรเจ็กต์ คุณจึงสำรวจข้อมูลในแดชบอร์ดของ Google Cloud Observability Suite ได้ ซึ่งรวมถึง Trace Explorer และ Logs Explorer ที่จะลิงก์ไปยังเมื่อ คุณตรวจสอบการติดตามแต่ละรายการในคอนโซล Firebase นอกจากนี้ คุณยังใช้ข้อมูลเพื่อสร้างแดชบอร์ดที่กำหนดเอง ตั้งค่าการแจ้งเตือน และอื่นๆ ได้ด้วย

ข้อมูลโดยละเอียดเกี่ยวกับผลิตภัณฑ์ที่ใช้สำหรับการตรวจสอบ AI

การตรวจสอบ AI จะจัดเก็บข้อมูลการวัดและส่งข้อมูลไว้ในผลิตภัณฑ์ต่างๆ ที่มีให้บริการใน Google Cloud Observability Suite, ซึ่งรวมถึง Cloud Monitoring, Cloud Trace, และ Cloud Logging

  • Cloud Monitoring: จัดเก็บเมตริก ซึ่งรวมถึงจำนวนคำขอ อัตราความสำเร็จ และเวลาในการตอบสนองของคำขอ

  • Cloud Trace: จัดเก็บการติดตามสำหรับคำขอแต่ละรายการเพื่อให้คุณ ดูรายละเอียดทีละรายการได้แทนที่จะดูแบบรวม โดยปกติแล้วการติดตามจะเชื่อมโยงกับบันทึกเพื่อให้คุณตรวจสอบเนื้อหาและเวลาของการโต้ตอบแต่ละครั้งได้

  • Cloud Logging: บันทึกข้อมูลเมตาของอินพุต เอาต์พุต และการกำหนดค่าเพื่อให้ รายละเอียดที่สมบูรณ์เกี่ยวกับคำขอ AI แต่ละรายการ

เนื่องจากระบบจะจัดเก็บข้อมูลการวัดและส่งข้อมูลไว้ในผลิตภัณฑ์เหล่านี้ คุณจึงระบุการตั้งค่าการ เก็บรักษาและการเข้าถึงได้โดยตรงภายในแต่ละผลิตภัณฑ์ (ดูข้อมูลเพิ่มเติมในเอกสารประกอบสำหรับ Cloud Monitoring, Cloud Trace และ Cloud Logging)

โปรดทราบว่าการตรวจสอบ AI จะจัดเก็บพรอมต์ จริง และเอาต์พุตที่สร้างขึ้นจาก คำขอที่สุ่มตัวอย่างแต่ละรายการใน Cloud Logging เพื่อให้ข้อมูลนี้เข้าถึงได้ใน Firebase คอนโซล คุณเลือกปิดใช้การจัดเก็บพรอมต์และการตอบกลับได้

ราคา

  • โปรเจ็กต์ที่ใช้แพ็กเกจราคา Spark แบบไม่มีค่าใช้จ่าย (พร้อมให้บริการเมื่อใช้ Gemini Developer APIเท่านั้น): การใช้บริการพื้นฐานสำหรับการตรวจสอบ AI ไม่มีค่าใช้จ่าย

  • โปรเจ็กต์ที่ใช้แพ็กเกจราคา Blaze แบบจ่ายเมื่อใช้: ระบบจะเรียกเก็บเงินจากการใช้ผลิตภัณฑ์Google Cloud Observability Suiteพื้นฐานที่ การตรวจสอบ AI ใช้ (ไม่ว่าคุณจะเลือกผู้ให้บริการ Gemini APIรายใดก็ตาม) อย่างไรก็ตาม ผลิตภัณฑ์ Google Cloud Observability Suite แต่ละรายการมีแพ็กเกจแบบไม่มีค่าใช้จ่ายมากมาย ดูข้อมูลเพิ่มเติมได้ในเอกสารประกอบการกำหนดราคา Google Cloud Observability Suite

(ไม่บังคับ) ปิดใช้การจัดเก็บพรอมต์และการตอบกลับ

โดยค่าเริ่มต้น การตรวจสอบ AI จะบันทึกพรอมต์ จริง ที่ส่งไปยังโมเดลและการตอบกลับที่โมเดลสร้างขึ้น ซึ่งรวมถึง ข้อมูลที่ละเอียดอ่อน (เช่น ข้อมูลส่วนบุคคลที่ระบุตัวบุคคลนั้นได้ (PII)) ในพรอมต์และการตอบกลับเหล่านั้น ระบบจะจัดเก็บข้อมูลทั้งหมดนี้ไว้ใน Cloud Logging เพื่อให้เข้าถึงได้ใน Firebase คอนโซล

หากต้องการปิดใช้การจัดเก็บพรอมต์และการตอบกลับ ให้เพิ่ม ตัวกรองการยกเว้น ต่อไปนี้ลงใน Cloud Logging ซิงก์ (โดยปกติจะเป็นซิงก์ _Default): resource.type="firebasevertexai.googleapis.com/Model"

ดูเมตริก API ระดับโปรเจ็กต์ในคอนโซล Google Cloud

คุณสามารถดูเมตริก API ระดับโปรเจ็กต์ เช่น การใช้งาน ใน Google Cloud คอนโซล สำหรับ API แต่ละรายการ

โปรดทราบว่าหน้าคอนโซล Google Cloud ที่อธิบายไว้ในส่วนนี้ ไม่มี ข้อมูล เช่น เนื้อหาคำขอและการตอบกลับ และจำนวนโทเค็น หากต้องการตรวจสอบข้อมูลประเภทดังกล่าว ให้ลองใช้ การตรวจสอบ AI ในคอนโซลFirebase (ดูส่วนก่อนหน้า)

  1. ในคอนโซล Google Cloud ให้ไปที่หน้าเมตริก ของ API ที่ ต้องการดู

    • Vertex AI API: ดูการใช้งานที่เชื่อมโยงกับคำขอ ใดก็ตาม ไปยัง Vertex AI Gemini API.

      • รวมถึงคำขอที่ใช้ Firebase AI Logicไคลเอ็นต์ SDK, Google GenAI Server SDK, Genkit, Firebase Extensions สำหรับ Gemini API, REST API, Vertex AI Studio, และอื่นๆ
    • Gemini Developer API: ดูการใช้งานที่เชื่อมโยงกับคำขอ ใดก็ตาม ไปยัง Gemini Developer API.

      • รวมถึงคำขอที่ใช้ Firebase AI Logicไคลเอ็นต์ SDK, Google GenAI Server SDK, Genkit, Firebase Extensions สำหรับ Gemini API, REST API, Google AI Studio, และอื่นๆ
      • ชื่อที่แสดงของ API นี้ในคอนโซลGoogle Cloud คือ "Generative Language API"

    หากคุณอยู่ใน "หน้าภาพรวม" ของ API ให้คลิก จัดการ แล้วคลิกแท็บเมตริก

  2. ใช้เมนูแบบเลื่อนลงเพื่อดูเมตริกที่สนใจ เช่น การเข้าชมตามโค้ดตอบกลับ ข้อผิดพลาดตามเมธอด API เวลาในการตอบสนองโดยรวม และเวลาในการตอบสนองตามเมธอด API