โมเดลที่กำหนดเอง

หากคุณเป็นนักพัฒนา ML ประสบการณ์และ ML ชุดแบบจำลองที่สร้างไว้ล่วงหน้าไม่ได้ตอบสนองความต้องการของคุณคุณสามารถใช้กำหนดเอง TensorFlow Lite รุ่น ML กับชุด

โฮสต์โมเดล TensorFlow Lite ของคุณโดยใช้ Firebase หรือจัดแพ็กเกจด้วยแอปของคุณ จากนั้น ใช้ ML Kit SDK เพื่อทำการอนุมานโดยใช้โมเดลที่กำหนดเองของคุณในเวอร์ชันที่ดีที่สุด หากคุณโฮสต์โมเดลของคุณด้วย Firebase ML Kit จะอัปเดตผู้ใช้ของคุณด้วยเวอร์ชันล่าสุดโดยอัตโนมัติ

iOS Android

ความสามารถที่สำคัญ

โฮสติ้งโมเดล TensorFlow Lite โฮสต์โมเดลของคุณโดยใช้ Firebase เพื่อลดขนาดไบนารีของแอป และเพื่อให้แน่ใจว่าแอปของคุณใช้เวอร์ชันล่าสุดที่มีอยู่ในโมเดลของคุณเสมอ
การอนุมาน ML บนอุปกรณ์ ทำการอนุมานในแอป iOS หรือ Android โดยใช้ ML Kit SDK เพื่อเรียกใช้โมเดล TensorFlow Lite แบบกำหนดเองของคุณ โมเดลสามารถรวมเข้ากับแอพ โฮสต์ในคลาวด์ หรือทั้งสองอย่าง
ทางเลือกของโมเดลอัตโนมัติ ระบุแหล่งที่มาของแบบจำลองหลายแบบ ใช้โมเดลที่จัดเก็บในเครื่องเมื่อโมเดลที่โฮสต์บนคลาวด์ไม่พร้อมใช้งาน
อัพเดทโมเดลอัตโนมัติ กำหนดค่าเงื่อนไขที่แอปของคุณจะดาวน์โหลดเวอร์ชันใหม่ของโมเดลของคุณโดยอัตโนมัติ: เมื่ออุปกรณ์ของผู้ใช้ไม่ได้ใช้งาน กำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi

เส้นทางการดำเนินการ

ฝึกโมเดล TensorFlow ของคุณ สร้างและฝึกโมเดลแบบกำหนดเองโดยใช้ TensorFlow หรือฝึกโมเดลที่มีอยู่อีกครั้งเพื่อแก้ปัญหาที่คล้ายกับที่คุณต้องการบรรลุ ดู TensorFlow Lite คู่มือนักพัฒนาซอฟต์แวร์
แปลงโมเดลเป็น TensorFlow Lite แปลงโมเดลของคุณจากรูปแบบ TensorFlow มาตรฐานเป็น TensorFlow Lite โดยการตรึงกราฟ จากนั้นใช้ TensorFlow Optimizing Converter (TOCO) ดู TensorFlow Lite คู่มือนักพัฒนาซอฟต์แวร์
โฮสต์โมเดล TensorFlow Lite ของคุณด้วย Firebase ไม่บังคับ: เมื่อคุณโฮสต์โมเดล TensorFlow Lite กับ Firebase และรวม ML Kit SDK ในแอปของคุณ ML Kit จะช่วยให้ผู้ใช้ของคุณได้รับข้อมูลล่าสุดด้วยเวอร์ชันล่าสุดของโมเดลของคุณ คุณสามารถกำหนดค่า ML Kit ให้ดาวน์โหลดการอัปเดตรุ่นโดยอัตโนมัติเมื่ออุปกรณ์ของผู้ใช้ไม่ได้ใช้งานหรือกำลังชาร์จ หรือมีการเชื่อมต่อ Wi-Fi
ใช้โมเดล TensorFlow Lite สำหรับการอนุมาน ใช้ API โมเดลที่กำหนดเองของ ML Kit ในแอป iOS หรือ Android เพื่อทำการอนุมานด้วยโมเดลที่โฮสต์โดย Firebase หรือแอปที่รวมกลุ่ม