โมเดลที่กำหนดเอง

หากคุณเป็นนักพัฒนา ML ที่มีประสบการณ์และโมเดลที่สร้างไว้ล่วงหน้าของ ML Kit ไม่ตรงกับความต้องการของคุณ คุณสามารถใช้โมเดล TensorFlow Lite แบบกำหนดเองกับ ML Kit ได้

โฮสต์โมเดล TensorFlow Lite ของคุณโดยใช้ Firebase หรือจัดแพ็คเกจมาพร้อมกับแอปของคุณ จากนั้น ใช้ ML Kit SDK เพื่อทำการอนุมานโดยใช้เวอร์ชันที่ดีที่สุดที่มีอยู่ของโมเดลที่คุณกำหนดเอง หากคุณโฮสต์โมเดลของคุณด้วย Firebase ML Kit จะอัปเดตผู้ใช้ของคุณด้วยเวอร์ชันล่าสุดโดยอัตโนมัติ

ไอโอเอส แอนดรอยด์

ความสามารถที่สำคัญ

โฮสติ้งโมเดล TensorFlow Lite โฮสต์โมเดลของคุณโดยใช้ Firebase เพื่อลดขนาดไบนารีของแอป และเพื่อให้แน่ใจว่าแอปของคุณใช้เวอร์ชันล่าสุดที่มีอยู่ของโมเดลของคุณอยู่เสมอ
การอนุมาน ML บนอุปกรณ์ ทำการอนุมานในแอป iOS หรือ Android โดยใช้ ML Kit SDK เพื่อเรียกใช้โมเดล TensorFlow Lite ที่คุณกำหนดเอง โมเดลสามารถรวมเข้ากับแอป โฮสต์ในระบบคลาวด์ หรือทั้งสองอย่างได้
ทางเลือกแบบจำลองอัตโนมัติ ระบุแหล่งที่มาของโมเดลหลายรายการ ใช้โมเดลที่จัดเก็บไว้ในเครื่องเมื่อโมเดลที่โฮสต์บนคลาวด์ไม่พร้อมใช้งาน
อัพเดตโมเดลอัตโนมัติ กำหนดค่าเงื่อนไขที่แอปของคุณจะดาวน์โหลดเวอร์ชันใหม่ของคุณโดยอัตโนมัติ: เมื่ออุปกรณ์ของผู้ใช้ไม่ได้ใช้งาน กำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi

เส้นทางการนำไปปฏิบัติ

ฝึกโมเดล TensorFlow ของคุณ สร้างและฝึกโมเดลแบบกำหนดเองโดยใช้ TensorFlow หรือฝึกโมเดลที่มีอยู่ใหม่อีกครั้งเพื่อแก้ไขปัญหาที่คล้ายกับสิ่งที่คุณต้องการบรรลุ ดู คู่มือนักพัฒนา TensorFlow Lite
แปลงโมเดลเป็น TensorFlow Lite แปลงโมเดลของคุณจากรูปแบบ TensorFlow มาตรฐานเป็น TensorFlow Lite โดยการแช่แข็งกราฟ จากนั้นใช้ TensorFlow Optimizing Converter (TOCO) ดู คู่มือนักพัฒนา TensorFlow Lite
โฮสต์โมเดล TensorFlow Lite ของคุณด้วย Firebase ตัวเลือกเสริม: เมื่อคุณโฮสต์โมเดล TensorFlow Lite ด้วย Firebase และรวม ML Kit SDK ไว้ในแอปของคุณ ML Kit จะช่วยให้ผู้ใช้อัปเดตโมเดลเวอร์ชันล่าสุดของคุณอยู่เสมอ คุณสามารถกำหนดค่า ML Kit ให้ดาวน์โหลดการอัปเดตโมเดลโดยอัตโนมัติเมื่ออุปกรณ์ของผู้ใช้ไม่ได้ใช้งานหรือกำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi
ใช้โมเดล TensorFlow Lite สำหรับการอนุมาน ใช้ API โมเดลที่กำหนดเองของ ML Kit ในแอป iOS หรือ Android ของคุณเพื่อทำการอนุมานกับโมเดลที่โฮสต์โดย Firebase หรือชุดแอป