ML Kit สำหรับ Firebase
ใช้แมชชีนเลิร์นนิงในแอปของคุณเพื่อแก้ปัญหาในโลกแห่งความเป็นจริง
ML Kit คือ SDK สำหรับอุปกรณ์พกพาที่นำความเชี่ยวชาญด้านการเรียนรู้ของเครื่องของ Google มาสู่แอป Android และ iOS ในแพ็คเกจที่ทรงพลังแต่ใช้งานง่าย ไม่ว่าคุณจะเป็นมือใหม่หรือมีประสบการณ์ในการเรียนรู้ของเครื่อง คุณก็สามารถปรับใช้ฟังก์ชันที่คุณต้องการได้ในโค้ดเพียงไม่กี่บรรทัด ไม่จำเป็นต้องมีความรู้เชิงลึกเกี่ยวกับโครงข่ายประสาทเทียมหรือการเพิ่มประสิทธิภาพแบบจำลองเพื่อเริ่มต้น ในทางกลับกัน หากคุณเป็นนักพัฒนา ML ที่มีประสบการณ์ ML Kit จะให้ API ที่สะดวกซึ่งช่วยให้คุณใช้โมเดล TensorFlow Lite ที่กำหนดเองในแอปมือถือของคุณ
ความสามารถที่สำคัญ
พร้อมสำหรับกรณีการใช้งานทั่วไป | ML Kit มาพร้อมกับชุด API ที่พร้อมใช้งานสำหรับกรณีการใช้งานมือถือทั่วไป: การจดจำข้อความ การตรวจจับใบหน้า การระบุจุดสังเกต การสแกนบาร์โค้ด การติดฉลากรูปภาพ และการระบุภาษาของข้อความ เพียงส่งข้อมูลไปยังไลบรารี ML Kit และให้ข้อมูลที่คุณต้องการ |
บนอุปกรณ์หรือในระบบคลาวด์ | การเลือก API ของ ML Kit ทำงานบนอุปกรณ์หรือในระบบคลาวด์ API ในอุปกรณ์ของเราสามารถประมวลผลข้อมูลของคุณได้อย่างรวดเร็วและทำงานได้แม้ในขณะที่ไม่มีการเชื่อมต่อเครือข่าย ในทางกลับกัน API ที่ใช้ระบบคลาวด์ของเราใช้ประโยชน์จากพลังของเทคโนโลยีแมชชีนเลิร์นนิงของ Google Cloud เพื่อให้คุณมีระดับความแม่นยำที่สูงขึ้นไปอีก |
ปรับใช้โมเดลที่กำหนดเอง | หาก API ของ ML Kit ไม่ครอบคลุมกรณีการใช้งานของคุณ คุณสามารถนำโมเดล TensorFlow Lite ที่มีอยู่มาเองได้เสมอ เพียงอัปโหลดโมเดลของคุณไปยัง Firebase แล้วเราจะดูแลการโฮสต์และให้บริการแก่แอปของคุณ ML Kit ทำหน้าที่เป็นเลเยอร์ API สำหรับโมเดลที่คุณกำหนดเอง ทำให้เรียกใช้และใช้งานได้ง่ายขึ้น |
มันทำงานอย่างไร?
ML Kit ทำให้ง่ายต่อการใช้เทคนิค ML ในแอปของคุณโดยนำเทคโนโลยี ML ของ Google เช่น Google Cloud Vision API , TensorFlow Lite และ Android Neural Networks API มารวมกันใน SDK เดียว ไม่ว่าคุณจะต้องการพลังของการประมวลผลบนคลาวด์ ความสามารถแบบเรียลไทม์ของโมเดลบนอุปกรณ์พกพาที่ปรับให้เหมาะกับมือถือ หรือความยืดหยุ่นของรุ่น TensorFlow Lite แบบกำหนดเอง ML Kit ทำให้เป็นไปได้ด้วยโค้ดเพียงไม่กี่บรรทัด
ฟีเจอร์ใดบ้างที่มีให้ใช้งานบนอุปกรณ์หรือในระบบคลาวด์
เส้นทางการดำเนินการ
ผสานรวม SDK | รวม SDK อย่างรวดเร็วโดยใช้ Gradle หรือ CocoaPods | |
เตรียมข้อมูลเข้า | ตัวอย่างเช่น หากคุณกำลังใช้คุณสมบัติการมองเห็น ให้จับภาพจากกล้องและสร้างข้อมูลเมตาที่จำเป็น เช่น การหมุนภาพ หรือแจ้งให้ผู้ใช้เลือกภาพถ่ายจากแกลเลอรีของตน | |
ใช้โมเดล ML กับข้อมูลของคุณ | การนำโมเดล ML ไปใช้กับข้อมูลของคุณ ทำให้คุณสร้างข้อมูลเชิงลึก เช่น สถานะทางอารมณ์ของใบหน้าที่ตรวจพบ หรือวัตถุและแนวคิดที่รู้จักในรูปภาพ ทั้งนี้ขึ้นอยู่กับคุณลักษณะที่คุณใช้ ใช้ข้อมูลเชิงลึกเหล่านี้เพื่อขับเคลื่อนฟีเจอร์ในแอปของคุณ เช่น การตกแต่งรูปภาพ การสร้างข้อมูลเมตาอัตโนมัติ หรืออะไรก็ตามที่คุณจินตนาการได้ |
ขั้นตอนถัดไป
- สำรวจ API ที่พร้อมใช้งาน: การจดจำข้อความ การ ตรวจจับใบหน้า การ สแกนบาร์โค้ด การ ติดฉลากรูปภาพ การ ตรวจจับและติดตามวัตถุ การ จดจำสถานที่สำคัญ สมาร์ท รีพลาย การ แปล และ การระบุภาษา
- ฝึกโมเดลการติดฉลากรูปภาพของคุณเองด้วย AutoML Vision Edge
- เรียนรู้เกี่ยวกับการใช้ โมเดลแบบกำหนดเองที่ ปรับให้เหมาะกับอุปกรณ์เคลื่อนที่ในแอปของคุณ