โมเดลที่กำหนดเอง
หากคุณเป็นนักพัฒนา ML ที่มีประสบการณ์และโมเดลที่สร้างไว้ล่วงหน้าของ ML Kit ไม่ตรงกับความต้องการของคุณ คุณสามารถใช้ โมเดล TensorFlow Lite แบบกำหนดเองกับ ML Kit ได้
โฮสต์โมเดล TensorFlow Lite ของคุณโดยใช้ Firebase หรือจัดแพ็กเกจด้วยแอปของคุณ จากนั้น ใช้ ML Kit SDK เพื่อทำการอนุมานโดยใช้โมเดลที่กำหนดเองของคุณในเวอร์ชันที่ดีที่สุด หากคุณโฮสต์โมเดลของคุณด้วย Firebase ML Kit จะอัปเดตผู้ใช้ของคุณด้วยเวอร์ชันล่าสุดโดยอัตโนมัติ
ความสามารถที่สำคัญ
โฮสติ้งโมเดล TensorFlow Lite | โฮสต์โมเดลของคุณโดยใช้ Firebase เพื่อลดขนาดไบนารีของแอปและเพื่อให้แน่ใจว่าแอปของคุณใช้เวอร์ชันล่าสุดที่มีอยู่ในโมเดลของคุณเสมอ |
การอนุมาน ML บนอุปกรณ์ | ทำการอนุมานในแอป iOS หรือ Android โดยใช้ ML Kit SDK เพื่อเรียกใช้โมเดล TensorFlow Lite แบบกำหนดเองของคุณ โมเดลสามารถรวมเข้ากับแอพ โฮสต์ในคลาวด์ หรือทั้งสองอย่าง |
ทางเลือกของโมเดลอัตโนมัติ | ระบุแหล่งที่มาของแบบจำลองหลายแบบ ใช้โมเดลที่จัดเก็บในเครื่องเมื่อโมเดลที่โฮสต์บนคลาวด์ไม่พร้อมใช้งาน |
อัพเดทโมเดลอัตโนมัติ | กำหนดค่าเงื่อนไขที่แอปของคุณจะดาวน์โหลดเวอร์ชันใหม่ของโมเดลของคุณโดยอัตโนมัติ: เมื่ออุปกรณ์ของผู้ใช้ไม่ได้ใช้งาน กำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi |
เส้นทางการดำเนินการ
ฝึกโมเดล TensorFlow ของคุณ | สร้างและฝึกโมเดลแบบกำหนดเองโดยใช้ TensorFlow หรือฝึกโมเดลที่มีอยู่ใหม่เพื่อแก้ปัญหาที่คล้ายกับที่คุณต้องการบรรลุ ดู คู่มือนักพัฒนา TensorFlow Lite | |
แปลงโมเดลเป็น TensorFlow Lite | แปลงโมเดลของคุณจากรูปแบบ TensorFlow มาตรฐานเป็น TensorFlow Lite โดยการตรึงกราฟ จากนั้นใช้ TensorFlow Optimizing Converter (TOCO) ดู คู่มือนักพัฒนา TensorFlow Lite | |
โฮสต์โมเดล TensorFlow Lite ของคุณด้วย Firebase | ไม่บังคับ: เมื่อคุณโฮสต์โมเดล TensorFlow Lite กับ Firebase และรวม ML Kit SDK ไว้ในแอปของคุณ ML Kit จะช่วยให้ผู้ใช้ของคุณได้รับข้อมูลล่าสุดด้วยเวอร์ชันล่าสุดของโมเดลของคุณ คุณสามารถกำหนดค่า ML Kit ให้ดาวน์โหลดการอัปเดตรุ่นโดยอัตโนมัติเมื่ออุปกรณ์ของผู้ใช้ไม่ได้ใช้งานหรือกำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi | |
ใช้โมเดล TensorFlow Lite สำหรับการอนุมาน | ใช้ API โมเดลที่กำหนดเองของ ML Kit ในแอป iOS หรือ Android เพื่อทำการอนุมานกับโมเดลที่โฮสต์โดย Firebase หรือแอปที่รวมกลุ่ม |